Instagram ha introdotto una nuova funzione che avviserà i genitori quando un adolescente con un account supervisionato effettua ricerche ripetute relative a temi sensibili come autolesionismo o suicidio. Il sistema sarà testato inizialmente in quattro paesi, tra cui Stati Uniti e Regno Unito.
Modalità di attivazione e funzionamento
L’iniziativa riguarda esclusivamente gli account per minori con funzionalità di supervisione parentale già attive. Quando vengono rilevate ricerche potenzialmente critiche, il genitore riceve una notifica tramite i canali di contatto associati all’account, segnalando la presenza di contenuti sensibili senza entrare nei dettagli delle ricerche.
Risorse di supporto per le famiglie
Oltre agli avvisi, Instagram fornirà materiali informativi e collegamenti a risorse di supporto, agevolando così il dialogo tra genitori e figli. L’obiettivo non è sostituire il confronto familiare, ma facilitare una risposta precoce a eventuali segnali di rischio.
Obiettivi e futuro della funzione
Questa misura fa parte di un aggiornamento degli strumenti di sicurezza per adolescenti su Instagram. Meta non ha ancora annunciato una data di distribuzione globale, ma il rollout in altri paesi dipenderà dai risultati della sperimentazione iniziale.
Rischi legati alla salute mentale online
Se estesa a livello globale, questa iniziativa rappresenterà uno dei tentativi più concreti da parte dei social network di intervenire preventivamente sui rischi legati alla salute mentale online, mantenendo un equilibrio tra sicurezza e privacy degli utenti più giovani.

