In un mondo sempre più mediato dagli algoritmi, la linea di demarcazione tra la tutela della privacy e il dovere di prevenire tragedie imminenti si fa sempre più sottile. Recentemente, il caso di Jesse Van Rootselaar, autore di una delle peggiori stragi scolastiche nella storia del Canada, ha messo OpenAI — l’azienda che ha sviluppato e offre ChatGPT — al centro di un acceso dibattito etico e legale.
I segnali d’allarme precedenti alla tragedia
Secondo quanto riportato da testate internazionali come The Guardian, i sistemi di sicurezza di OpenAI avevano già “messo nel mirino” Van Rootselaar molto prima del tragico evento di Tumbler Ridge. Nel giugno 2025, otto mesi prima della sparatoria, i filtri anti-abuso dell’azienda avevano segnalato l’account del giovane per “promozione di attività violente”. A seguito di questa segnalazione, OpenAI aveva proceduto al ban immediato dell’utente, bloccandogli l’accesso per violazione delle linee guida.
La scelta di non avvisare le autorità
La domanda che affiora è: perché OpenAI non ha avvertito la polizia? La società ha spiegato che la decisione di riferire un caso alle forze dell’ordine si basa su una soglia molto alta: deve esistere un rischio imminente e credibile di gravi danni fisici a terzi. La tragedia è avvenuta la scorsa settimana nella remota località della British Columbia, dove il giovane ha ucciso otto persone per poi togliersi la vita. Solo dopo la notizia del massacro, OpenAI ha contattato proattivamente la polizia canadese per fornire i dati sull’uso di ChatGPT da parte del ragazzo, supportando le indagini ora in corso.
Le implicazioni per la sorveglianza tecnologica
Il caso solleva una questione fondamentale per il futuro della tecnologia: fino a che punto un’azienda privata deve monitorare e denunciare i propri utenti? Il mancato allarme ha permesso una tragedia immane, ma una segnalazione sistematica rischierebbe di trasformare i chatbot in strumenti di sorveglianza di massa. Jesse Van Rootselaar aveva già avuto contatti con la polizia e creato un “simulatore di sparatoria” su altre piattaforme, ma queste informazioni sono rimaste frammentate tra vari database aziendali e statali. La capacità di “unire i puntini” e prevenire atti di violenza resta una sfida umana e tecnologica ancora irrisolta.
Responsabilità delle aziende tech e sicurezza pubblica
La vicenda di Tumbler Ridge non offre risposte semplici, ma impone domande urgenti. Nell’era dell’intelligenza artificiale, il confine tra responsabilità privata e sicurezza pubblica resta fragile. Fino a quando tecnologia e istituzioni non riusciranno a dialogare efficacemente, c’è il rischio che i segnali rimangano isolati, arrivando troppo tardi per evitare nuove tragedie.

