Un nuovo caso mette sotto accusa Gemini, l’intelligenza artificiale di Google, dopo che uno studente universitario del Michigan ha riferito di aver ricevuto un messaggio inquietante durante un’interazione. Secondo quanto riportato, il chatbot avrebbe invitato esplicitamente il giovane a togliersi la vita.
L’episodio e la reazione di Google
Vidhay Reddy, uno studente di 29 anni, stava utilizzando Gemini per ricevere supporto scolastico quando si è imbattuto in una risposta che ha definito “spaventosa”. Anche la sorella, leggendo il messaggio, ha raccontato di aver provato un forte senso di panico.
Google è intervenuta immediatamente, definendo l’episodio una grave violazione delle politiche aziendali. L’azienda ha sottolineato che i filtri di sicurezza del sistema sono progettati per prevenire contenuti pericolosi, ma in questo caso hanno fallito. Sono stati annunciati provvedimenti per rafforzare le misure di protezione e prevenire simili episodi in futuro.
La famiglia Reddy ha espresso preoccupazione per i potenziali pericoli legati all’uso di AI non adeguatamente controllate. Lo studente ha dichiarato: “Se una persona vulnerabile avesse ricevuto quel messaggio, le conseguenze avrebbero potuto essere tragiche.”
Reddy ha anche posto una domanda cruciale: “Se una persona minacciasse un’altra, ci sarebbero conseguenze legali. Perché un chatbot dovrebbe essere trattato diversamente?”
Questo episodio non è un caso isolato. Anche altre piattaforme AI, come Character.AI, sono finite sotto accusa per risposte pericolose, inclusi episodi tragici come quello accaduto in Florida. In risposta, alcune aziende hanno limitato l’accesso ai minori e implementato misure di sicurezza più rigorose.