Nuovo giro di vite su Instagram per proteggere gli utenti più giovani. La piattaforma introduce una serie di aggiornamenti mirati a limitare l’esposizione a contenuti ritenuti non adatti, con un sistema di controllo più stringente rivolto in particolare agli adolescenti tra i 13 e i 18 anni.
Il cambiamento più rilevante riguarda l’estensione a livello globale della classificazione “13+”, già testata nei mesi scorsi in alcuni Paesi. Si tratta di un meccanismo simile a quello utilizzato nel cinema e nei servizi di streaming, che consente di filtrare automaticamente i contenuti in base all’età dell’utente, modulando ciò che può essere visualizzato nel feed.
Nel dettaglio, oltre alle restrizioni già esistenti su immagini esplicite e contenuti per adulti, entrano in vigore ulteriori limitazioni. Verranno infatti esclusi o non suggeriti post contenenti linguaggio offensivo, scene che mostrano comportamenti rischiosi — come sfide pericolose o acrobazie estreme — e contenuti che potrebbero incoraggiare abitudini dannose. Tra questi rientrano anche materiali legati al consumo di sostanze, come la marijuana.
Le novità non si fermano alla semplice visualizzazione dei contenuti. Cambiano anche le modalità di ricerca e interazione: per gli utenti adolescenti sarà più difficile imbattersi in contenuti collegati a temi come alcol o violenza. Allo stesso tempo, verranno introdotti limiti più rigidi nei rapporti tra account. I profili che pubblicano materiale non adatto non potranno essere seguiti né interagire con i più giovani, e viceversa.
Un aspetto significativo riguarda anche le connessioni già esistenti. Nel caso in cui un ragazzo segua un account non conforme alle nuove regole, smetterà di riceverne aggiornamenti e non potrà più interagire con i contenuti pubblicati. Inoltre, tali profili diventeranno meno visibili all’interno della piattaforma, risultando più difficili da trovare anche tramite la funzione di ricerca.
Tra le innovazioni introdotte c’è anche un intervento diretto sull’intelligenza artificiale integrata. Le risposte automatiche rivolte agli adolescenti saranno sottoposte a controlli più severi, con l’eliminazione di contenuti inappropriati e una gestione più prudente di temi sensibili. Oltre agli argomenti già monitorati — come autolesionismo, disturbi alimentari e suicidio — verranno inclusi anche contenuti legati a violenza e consumo di alcol.
Con questo aggiornamento, Meta Platforms punta a rafforzare la sicurezza online dei più giovani, cercando di ridurre l’impatto di contenuti potenzialmente dannosi e costruire un ambiente digitale più controllato e adatto alla loro età.