C’è un punto, nell’era delle notifiche disattivate e delle conversazioni che spariscono con un clic, in cui la linea tra protezione e controllo si fa quasi impercettibile. È proprio su questo crinale che si colloca la nuova funzionalità annunciata da Instagram: un sistema che informerà i genitori quando un figlio minorenne effettua ricerche ripetute su temi legati a suicidio e autolesionismo.
Un meccanismo di segnalazione che può arrivare tramite WhatsApp, SMS o e-mail e che nasce con l’obiettivo di tutelare, ma che inevitabilmente riaccende una domanda cruciale: dove termina la riservatezza dei ragazzi e dove inizia il dovere di intervenire?
La notifica che nessun genitore vorrebbe vedere non è una semplice opzione da attivare nelle impostazioni. Rappresenta piuttosto un cambio di prospettiva. Fino a oggi la piattaforma del gruppo Meta si limitava a filtrare i contenuti più delicati e a indirizzare gli utenti verso numeri utili o organizzazioni di supporto. Con il nuovo sistema, invece, se un adolescente inserisce più volte, in un arco di tempo ristretto, parole o frasi riconducibili al farsi del male, parte un avviso diretto ai genitori.
L’allerta non resta confinata all’applicazione: può essere recapitata anche all’esterno, così da non rischiare di perdersi tra le tante comunicazioni quotidiane. Una volta aperta, la segnalazione mostra un messaggio a schermo intero che spiega l’accaduto e ne chiarisce il significato, senza dettagli espliciti ma con informazioni sufficienti a far comprendere che non si tratta di una ricerca occasionale.
La supervisione potrà essere attivata solo con il consenso del minore. Inoltre, non verrà notificata ogni singola parola digitata: il sistema segnalerà esclusivamente comportamenti reiterati e concentrati nel tempo, ritenuti potenzialmente indicativi di un disagio più profondo. Meta ha spiegato di aver sviluppato la funzione insieme al Suicide and Self-Harm Advisory Group, organismo indipendente composto da esperti nella prevenzione del suicidio, adottando un criterio prudenziale: meglio un falso allarme che un silenzio rischioso.
Il dibattito sulla tutela dei minori online non è certo recente. Negli ultimi anni le piattaforme sono finite sotto pressione, tra inchieste giornalistiche e audizioni parlamentari negli Stati Uniti e in Europa. La salute mentale degli adolescenti è diventata un tema centrale, al crocevia tra tecnologia, politica e responsabilità sociale.
I numeri, del resto, parlano chiaro. Secondo l’Organizzazione Mondiale della Sanità, il suicidio figura tra le principali cause di morte tra i giovani nel mondo. Anche in Europa si registra una crescente vulnerabilità psicologica tra gli adolescenti, aggravata da isolamento, bullismo – compreso quello digitale – e pressione sociale.
Negli ultimi anni Instagram aveva già introdotto limitazioni sugli hashtag legati al self-harm, filtri più stringenti sui contenuti sensibili e restrizioni nei messaggi tra adulti e minorenni. Questa volta, però, il passo sembra ulteriore: non si tratta soltanto di moderare ciò che appare sullo schermo, ma di creare un ponte diretto con la vita reale. Un terreno delicato, dove la tecnologia prova a farsi alleata della prevenzione senza smarrire l’equilibrio con la libertà individuale.