Ore a chattare con un’entità che non esiste, confidando segreti, paure e persino sentimenti romantici. Si tratta purtroppo della quotidianità di milioni di adolescenti in tutto il mondo. Quali sono i rischi associati all’uso dell’intelligenza artificiale per una generazione che cresce a stretto contatto con chatbot sempre più sofisticati?
La risposta è più complessa di quanto si possa immaginare e tocca sfere che vanno dalla salute mentale alle dipendenze comportamentali, fino a fenomeni del tutto nuovi come la cosiddetta “AI psychosis”. Bambini tra gli 8 e i 12 anni trascorrono mediamente oltre 5 ore al giorno davanti agli schermi, mentre gli adolescenti sfiorano le 9 ore quotidiane. In questo mare di connessione permanente, l’intelligenza artificiale si è ritagliata un ruolo da protagonista, trasformandosi da semplice strumento a vero e proprio interlocutore emotivo.
Adolescenti e chatbot: una relazione pericolosa
Immagina di avere a disposizione, 24 ore su 24, qualcuno che ti ascolta senza giudicarti, che non si arrabbia mai e che risponde sempre nel giro di pochi secondi. È esattamente ciò che offrono i chatbot basati sull’intelligenza artificiale, e proprio questa combinazione li rende irresistibili per i più giovani.
Alcuni ragazzi raccontano di scrivere ogni sera a ChatGPT prima di dormire: il sistema li riconosce dal modo in cui formulano le domande, usano nomignoli affettuosi, gli offrono consigli. Lo considerano come un diario personale che risponde, con una capacità persuasiva che nessuno potrebbe avere.
Il fenomeno non è isolato. In una realtà dove le relazioni umane rischiano di essere svuotate di significato, sempre più ragazzi cercano nell’IA quello che faticano a trovare altrove: attenzione, comprensione, assenza di rifiuto.
Perché i giovani preferiscono confidarsi con l’IA
La domanda sorge spontanea: cosa spinge un adolescente a preferire una macchina a un essere umano? Le ragioni sono molteplici e profondamente radicate nelle dinamiche sociali contemporanee. L’intelligenza artificiale non litiga, non critica, non rifiuta.
Per un ragazzo che attraversa la fase più delicata della propria crescita, questa rappresenta una tentazione fortissima. Il chatbot offre l’illusione di una relazione esclusiva, sempre disponibile con un semplice click. Non ci sono silenzi imbarazzanti, non c’è il rischio di essere fraintesi o giudicati.
Ma è proprio questa apparente perfezione a costituire il pericolo maggiore: l’esperienza del rifiuto, per quanto dolorosa, è fondamentale per la maturazione psichica. Senza confrontarsi con la frustrazione e l’imprevedibilità delle relazioni reali, i giovani rischiano di sviluppare aspettative completamente distorte su cosa significhi davvero entrare in relazione con un altro essere umano.
Il fenomeno della digisexuality
Il legame emotivo tra adolescenti e intelligenza artificiale ha raggiunto livelli tali da meritare una definizione scientifica. Nel 2017 i ricercatori Neil McArthur e Markie Twist hanno coniato il termine “digisexuality” per descrivere l’orientamento affettivo e sessuale verso tecnologie digitali come robot e IA.
Secondo gli studi, l’8% degli adolescenti intrattiene interazioni flirtanti o sentimentali con un chatbot. Rapportata alla popolazione globale, questa percentuale corrisponde a milioni di giovani coinvolti. Gli esperti parlano anche di “relazioni parasociali”, ovvero legami emotivi unilaterali con un’entità che non ricambia davvero.
Se in passato questo fenomeno caratterizzava il rapporto tra fan e celebrità, oggi trova una nuova e più insidiosa forma nelle conversazioni con assistenti virtuali che appaiono empatici e attenti, pur essendo privi di coscienza e vera reciprocità.
I rischi dell’intelligenza artificiale per lo sviluppo psicologico
L’interazione prolungata con i chatbot non è priva di conseguenze. I professionisti della salute mentale stanno osservando con crescente preoccupazione gli effetti che questa dipendenza digitale produce sullo sviluppo degli adolescenti.
Uno degli effetti più preoccupanti dell’uso intensivo dell’IA riguarda l’isolamento sociale progressivo. Gli adolescenti che investono emotivamente su un chatbot “come se fosse una persona reale” tendono a ritirarsi dalle relazioni con i coetanei, potenziando un processo di nascondimento di sé spesso legato a vissuti di vergogna e sensi di inferiorità.
Esiste poi un rischio ancora più sottile, che riguarda la delega dei processi mentali. Gli adolescenti, non avendo ancora raggiunto una stabilità a livello identitario, possono affidare all’intelligenza artificiale funzioni cognitive fondamentali per la costruzione del sé: ricordare, rispondere a interrogativi interiori, elaborare emozioni.
Nel meccanismo dell’IA si domanda e qualcos’altro risponde, bypassando proprio quelle abilità che sono alla base della fiducia nelle proprie capacità. È come se i ragazzi smettessero di allenarsi a pensare autonomamente, delegando a un sistema esterno la soluzione dei propri problemi. Le conseguenze a lungo termine potrebbero essere significative: adulti meno capaci di prendere decisioni, più insicuri, più dipendenti da supporti esterni per orientarsi nella vita.
Dipendenze digitali a confronto: dall’IA al gioco online
La dipendenza dai chatbot si inserisce in un contesto più ampio di vulnerabilità digitali che riguarda anche gli adulti. I meccanismi che rendono un sistema di IA così coinvolgente, sono gli stessi utilizzati da altre industrie digitali per trattenere l’utente il più a lungo possibile.
Questo parallelo diventa particolarmente evidente quando si osserva il mondo dei videogiochi e del gioco d’azzardo, dove l’intelligenza artificiale gioca un ruolo sempre più centrale nella personalizzazione dell’esperienza utente.
I nuovi casinò online, come ci mostrano le recensioni su www.miglioricasinoonline.info, impiegano algoritmi di intelligenza artificiale per analizzare il comportamento dei giocatori e modellare in tempo reale l’esperienza: suggeriscono giochi su misura, offrono bonus calibrati sui singoli utenti e inviano notifiche progettate per mantenere alta l’attenzione.
Sono meccaniche così potenti da riuscire a intrappolare persino un adulto consapevole, figuriamoci un adolescente che ha un sistema emotivo ancora in formazione e una capacità di controllo degli impulsi non ancora del tutto sviluppata.
Questa analogia non vuole sovrapporre esperienze diverse, ma mostrare quanto sia sottile il confine tra uso e abuso quando si parla di tecnologie che lavorano sulla gratificazione immediata. Proprio come accade nel gioco d’azzardo, anche nel rapporto con i chatbot il rischio non nasce dalla “macchina” in sé, ma dal design persuasivo che sfrutta vulnerabilità umane profonde.
Per questo molte piattaforme di gioco autorizzate hanno introdotto strumenti di tutela come limiti di tempo, di spesa, autoesclusione, riconoscendo la necessità di proteggere gli utenti più fragili. Lo stesso approccio preventivo dovrebbe guidare anche il rapporto tra adolescenti e IA conversazionale, perché gli stessi meccanismi psicologici sono all’opera, solo in una forma diversa.
Ma le dinamiche di dipendenza rappresentano solo una parte del problema. Emergono anche fenomeni psicologici più complessi e ancora poco studiati.
AI psychosis: quando il confine con la realtà si dissolve
Tra i rischi dell’intelligenza artificiale più allarmanti c’è un fenomeno relativamente nuovo che gli esperti hanno iniziato a chiamare “AI psychosis”. Non si tratta di una diagnosi ufficiale, poiché mancano ancora studi longitudinali sufficienti, ma il termine descrive situazioni in cui l’esposizione prolungata ai chatbot genera convinzioni non ancorate nella realtà.
Il meccanismo è insidioso: i chatbot tendono a validare gli assunti dell’utente e a mantenere viva la conversazione, il che può rinforzare pensieri distorti soprattutto in persone con una particolare vulnerabilità psicologica. Il problema è che questi sistemi non sono in grado di riconoscere i segnali di rischio, incluse le ideazioni suicidarie. Non allertano nessuno, non si preoccupano. Raccolgono informazioni e ne forniscono altre, ma non possono sostituire quella rete di cura formata da psicoterapeuti, psichiatri e genitori.
Chi sono i soggetti più a rischio
Non tutti gli adolescenti che utilizzano l’intelligenza artificiale sviluppano problematiche. Tuttavia, alcune categorie risultano particolarmente esposte. Ecco i principali fattori di rischio:
- Isolamento sociale preesistente: ragazzi che faticano a costruire relazioni con i coetanei trovano nell’IA un sostituto apparentemente perfetto
- Fragilità psicologiche non trattate: ansia, depressione o altri disturbi possono essere amplificati dall’interazione con chatbot
- Contesto familiare carente: l’assenza di adulti disponibili all’ascolto spinge a cercare altrove risposte e conforto
- Bassa autostima: l’IA non giudica e non rifiuta, offrendo una gratificazione emotiva che compensa vissuti di inadeguatezza
- Difficoltà nella gestione delle emozioni: chi non ha sviluppato strumenti per elaborare ansia e tristezza può affidarsi esclusivamente al supporto virtuale
Segnali d’allarme: quando preoccuparsi
Riconoscere tempestivamente i segnali di una dipendenza da intelligenza artificiale può fare la differenza. Se noti che un adolescente trascorre sempre più tempo a chattare con bot, se preferisce queste interazioni alle conversazioni con amici e familiari, se mostra irritabilità quando non può accedere al dispositivo, potrebbe essere il momento di intervenire.
Altri campanelli d’allarme includono il ritiro sociale progressivo, il calo del rendimento scolastico, disturbi del sonno legati all’uso notturno dei chatbot e, nei casi più gravi, affermazioni che rivelano un attaccamento emotivo intenso verso l’IA. Non si tratta di demonizzare la tecnologia, ma di mantenere un equilibrio sano. Quando l’interazione virtuale inizia a sostituire sistematicamente quella umana, è necessario porsi delle domande e, se opportuno, rivolgersi a un professionista.