
Meta sta per introdurre una nuova funzione di sicurezza piuttosto delicata: Instagram inizierà a inviare notifiche ai genitori quando i loro figli adolescenti cercano ripetutamente termini legati a suicidio o autolesionismo. È l’ultima misura pensata per gli Account per Teenager e rientra negli strumenti di supervisione parentale della piattaforma.
La funzione arriverà nelle prossime settimane per i genitori che hanno attivato la supervisione negli Stati Uniti, Regno Unito, Australia e Canada, con un’espansione in altri paesi prevista nel corso dell’anno.
Come funziona il sistema di avvisi
L’idea di fondo è semplice: se un adolescente prova più volte, in un breve arco di tempo, a cercare espressioni legate al suicidio o all’autolesionismo, Instagram manda una notifica al genitore. Non basta una singola ricerca per far scattare l’allarme, ma servono tentativi ripetuti in un periodo ravvicinato.
L’avviso può essere attivato da ricerche che includono espressioni direttamente legate al suicidio, frasi che indicano l’intenzione di farsi del male, oppure termini come “suicidio” o “autolesionismo”. Come si può notare dalle schermate diffuse da Meta, i genitori riceveranno la comunicazione via email, SMS o WhatsApp, a seconda dei contatti disponibili, oltre che tramite una notifica nell’app.
Toccando la notifica si apre un messaggio a schermo intero che spiega cosa è successo e offre accesso a risorse sviluppate con esperti, pensate per aiutare i genitori ad affrontare conversazioni potenzialmente difficili con i propri figli.
Anche gli adolescenti vengono informati dell’esistenza di questi avvisi, quindi sanno che i genitori potrebbero essere contattati.
Un equilibrio difficile da trovare
Meta è consapevole che si tratta di un terreno delicato. Ricevere una notifica del genere può essere destabilizzante per un genitore, e il rischio di falsi allarmi esiste. Dunque per trovare il giusto equilibrio, l’azienda ha analizzato le modalità di ricerca su Instagram e si è confrontata con gli esperti del Suicide and Self-Harm Advisory Group.
Non è la prima volta che l’azienda si affida a professionisti esterni e la notizia in questione arriva poche settimane l’annuncio di aver accettato valutazioni indipendenti sulla salute mentale dei giovani e l’eventuale correlazione con le piattaforme social.
La scelta di Meta è stata quella di adottare un approccio prudente ovvero meglio qualche notifica in più, anche quando non c’è un reale motivo di preoccupazione, piuttosto che lasciar passare situazioni che potrebbero richiedere attenzione. È una decisione condivisa dagli esperti consultati, anche se Meta promette di monitorare l’andamento della misura e di aggiustarla se necessario.
Va detto che la maggior parte degli adolescenti non cerca questo tipo di contenuti su Instagram o, quantomeno, non solo sul social in sé. Quando però accade, le policy della piattaforma prevedono già il blocco delle ricerche e il reindirizzamento verso risorse e linee di aiuto. Questi nuovi avvisi aggiungono un ulteriore livello di protezione, coinvolgendo direttamente i genitori.
Le protezioni già esistenti
Instagram ha già in piedi diverse misure per limitare l’esposizione degli adolescenti a contenuti potenzialmente dannosi. I contenuti che incoraggiano o normalizzano suicidio e autolesionismo sono vietati dalle policy della piattaforma. I contenuti in cui le persone condividono le proprie esperienze su questi temi sono invece consentiti, ma vengono nascosti agli adolescenti anche quando provengono da profili che seguono.
Le ricerche di termini chiaramente riconducibili a suicidio o autolesionismo vengono bloccate: non viene mostrato alcun risultato e l’utente viene indirizzato verso risorse di supporto e realtà locali che possono aiutare. Quando le ricerche fanno riferimento a un disagio psicologico più generico, Instagram propone comunque strumenti di aiuto.






Nei casi in cui emergano elementi che facciano temere un rischio imminente per l’incolumità di una persona, Meta attiva direttamente i servizi di emergenza. L’azienda afferma che questo tipo di intervento ha contribuito a salvare vite nel corso del tempo.
Il prossimo passo sono le conversazioni con l’AI
Meta sta già guardando oltre. L’azienda sa che oggi molti adolescenti si rivolgono all’intelligenza artificiale quando cercano informazioni o supporto su temi delicati. I sistemi di AI di Meta sono già progettati per offrire risposte adeguate ai più giovani e proporre risorse di aiuto quando necessario.
Il passo successivo sarà introdurre notifiche simili anche per le conversazioni con l’AI: l’obiettivo è informare i genitori se i figli tentano di parlare con l’intelligenza artificiale di suicidio o autolesionismo. Meta promette aggiornamenti nei prossimi mesi su questo fronte.
Vedi Post Originale: https://www.tuttoandroid.net/news/2026/02/27/instagram-notifiche-genitori-ricerche-suicidio-autolesionismo-adolescenti-1141889/

0 Comments