ChatGPT: come l’AI sta cambiando il nostro rapporto con referti medici, ansia e decisioni

Secondo dati dichiarati da OpenAI, ogni settimana su ChatGPT arrivano centinaia di milioni di richieste legate a salute e benessere

Capita spesso di osservare come le persone usino l’intelligenza artificiale nei momenti di incertezza. Non parliamo dell’AI “da ufficio”, quella che ti riscrive una mail o ti mette ordine in una lista. Parliamo dell’AI quando la domanda non è più comoda, ma urgente. Quando serve capire in fretta. Quando serve sentirsi meno soli.

E qui c’è un dato che vale più di mille opinioni: secondo dati dichiarati da OpenAI, ogni settimana su ChatGPT arrivano centinaia di milioni di richieste legate a salute e benessere. Decine di milioni di persone lo consultano ogni giorno per temi sanitari. Non è una moda di nicchia. È un comportamento già entrato nella routine di massa.

Questo ci dice una cosa semplice: l’AI non viene più interrogata solo per “fare cose”, ma per sentirsi più tranquilli. Per capire una frase ambigua, un termine medico, un valore fuori scala. Non è una richiesta tecnica. È una richiesta emotiva.

E quando l’oggetto della domanda è la salute, il peso di questa richiesta cambia completamente. Non stiamo cercando solo una spiegazione. Stiamo cercando rassicurazione.

Qui entra in gioco un cambiamento silenzioso ma profondo: stiamo trasformando l’AI da strumento a interlocutore emotivo. Le chiediamo non solo cosa significa qualcosa, ma se dobbiamo preoccuparci. Se va tutto bene. Se possiamo stare tranquilli.

E quando una tecnologia inizia a rispondere a questo bisogno, non possiamo limitarci a chiederci se “funziona”. Dobbiamo chiederci che tipo di rapporto stiamo costruendo con lei. È umano. È comprensibile. Ed è anche uno dei gesti più delicati che possiamo fare con un’intelligenza artificiale.

Dentro questo scenario si inserisce ChatGPT Health, la nuova funzione presentata da OpenAI: un’area dedicata all’uso sanitario, pensata per aiutare le persone a capire documenti, organizzare informazioni di benessere e prepararsi meglio a una visita medica. L’idea dichiarata è chiara: supportare, non sostituire la relazione clinica.

OpenAI dichiara che i dati inseriti nelle funzioni Health vengono separati dagli altri e non utilizzati per il training dei modelli. È una garanzia importante sul piano tecnico. Ma resta un punto più sottile: cosa succede nella testa dell’utente quando quella separazione rimane invisibile e la risposta arriva comunque, fluida, rassicurante, convincente.

Il punto, per me, non è se questo strumento sia utile. È più scomodo: cosa succede quando iniziamo ad affidare la nostra salute a un’interfaccia che risponde sempre, comunque, e spesso con un tono che trasmette sicurezza.

Perché la salute non è un’informazione qualsiasi. Non è come chiedere il significato di una parola o un consiglio per un viaggio. È il punto in cui vulnerabilità, paura e bisogno di rassicurazione si incontrano. Ed è anche il tipo di dato che, per legge, viene considerato “speciale”, da trattare con una cura diversa.

In Europa il GDPR considera la salute una “categoria particolare di dato”. Tradotto: non è un’informazione qualunque e meriterebbe il massimo livello di protezione, anche quando entra in piattaforme pensate per la massa e usate con leggerezza quotidiana.

Eppure, nella pratica quotidiana, questo confine si sta sfumando. Sempre più persone parlano con l’AI come se fosse il primo interlocutore quando l’ansia sale: “È grave?”, “Devo preoccuparmi?”, “Secondo te è normale?”. Non perché siano ingenue, ma perché è comodo, immediato, sempre disponibile. Non giudica. Non ti mette in attesa. Non ti fa sentire inadeguato.

Il problema non è che l’AI risponda. Il problema è cosa succede dentro di noi quando lo fa. Una risposta ben scritta, rassicurante, fluida, può darci un senso di controllo che non sempre è reale. Il cervello tende a confondere chiarezza con verità, tono calmo con competenza, sicurezza con affidabilità. È un meccanismo potentissimo, soprattutto quando siamo in ansia. E sulla salute siamo quasi sempre in ansia.

C’è un punto che andrebbe detto più spesso, senza moralismi: anche se una piattaforma scrive “non faccio diagnosi”, l’effetto psicologico può essere comunque quello di una diagnosi percepita. Non è una questione tecnica. È una questione umana. Se una risposta mi fa sentire tranquillo, io mi comporterò come se fosse vera. Se mi spaventa, mi comporterò come se fosse un allarme. Questo vale molto più di qualsiasi disclaimer.

Poi c’è un altro livello, ancora più silenzioso: la normalizzazione. Quando iniziamo a caricare referti, sintomi, terapie, storie cliniche dentro una chat come se fossero messaggi qualsiasi, stiamo cambiando il nostro concetto di intimità informativa. Non ce ne accorgiamo, ma lo stiamo facendo per abitudine. Un po’ alla volta.

Dietro la formula “dato sensibile” c’è una realtà concreta: informazioni che possono avere conseguenze reali sulla vita delle persone, sul lavoro, sull’accesso ai servizi, sulla reputazione. Ma nella vita quotidiana queste parole pesano poco. Quello che pesa è la comodità. Ed è qui che, secondo me, dobbiamo fermarci un attimo. Senza demonizzare nulla, ma senza nemmeno far finta che non stia succedendo niente.

ChatGPT Health nasce da un bisogno reale: la sanità è frammentata, i documenti sono complessi, le persone sono spesso lasciate sole con informazioni che non sanno interpretare. Avere uno strumento che aiuta a capire meglio può essere un’opportunità enorme.

Ma c’è una differenza sottile tra “aiutarmi a capire” e “prendere il posto del mio processo decisionale”. Il primo è sano. Il secondo è pericoloso. Il confine non lo decide la tecnologia. Lo decidiamo noi, con l’uso che ne facciamo.

Se uso l’AI per preparare domande da fare al medico, sto usando bene lo strumento.
Se la uso per decidere al posto mio, sto spostando una responsabilità che non dovrebbe spostarsi. La tecnologia può aiutarci a capire meglio. Ma non deve diventare il posto dove scarichiamo la nostra responsabilità di capire. E forse, quando si parla di salute, questo vale più che in qualsiasi altro ambito. – Fonte www.consumerismonoprofit.it –

- Pubblicità -
Redazione
Redazione
Giornale digitale fondato nel 2022 con l’intento di offrire al territorio “Una voce oltre la notizia”. Nasce dall’esigenza di un gruppo di giornalisti ed esperti di comunicazione di creare un canale di informazione attendibile, laico e indipendente che dia voce ai cittadini, alle imprese, ai lavoratori, agli studenti…

CORRELATI
ALTRI ARTICOLI

Frosinone Calcio, “Ogni giorno 8 marzo”: il club giallazzurro ha omaggiato così le donne

Sugli spalti mimose per le tifose, in campo bambine e ragazze del settore giovanile: il club celebra il valore e il rispetto delle donne

Emergenza rincari: perché i carburanti possono toccare i 3 euro al litro entro Pasqua

Vengono riportati i dati di MISE, ARERA, ISTAT e Bankitalia relativi all'erosione del potere d'acquisto e ai profitti del settore energetico

Frosinone – Borse di studio, al via la presentazione delle domande: c’è tempo fino all’8 aprile

L’importo della singola borsa di studio ammonta a 150 euro, rideterminabile in rapporto al numero dei richiedenti e alle risorse disponibili

IA: triplicate le imprese che la adottano. Ma sono ancora troppo poche, il dato è al 18%

Cresce l’uso nella Cybersecurity ma l’intelligenza artificiale può “bucare” le protezioni: i dati dei PID delle Camere di commercio

Torrice senza medici di base, è emergenza: il sindaco chiede un confronto urgente con la Asl

Decine di utenti senza medico di medicina generale di riferimento. Il sindaco avanza proposte "tampone" e si appella alla Asl

Festa della donna: origini, curiosità e tradizioni di una ricorrenza simbolo dell’emancipazione femminile

L’8 marzo si celebra in tutto il mondo la Giornata internazionale della donna, una ricorrenza che unisce memoria storica e impegno civile
- Pubblicità -

Condividi sui social

- Pubblicità -

Più letti

- Pubblicità -