Recentemente, alcune segnalazioni online hanno portato all’attenzione un comportamento insolito di Google Translate dopo l’aggiornamento che ha introdotto modelli di intelligenza artificiale avanzati. Questo update, annunciato da Google a dicembre con l’integrazione dei nuovi modelli Google Gemini, mira a fornire traduzioni più naturali che siano in grado di comprendere sfumature, espressioni idiomatiche e contesti complessi. Sono state introdotte anche funzionalità potenziate come l’interpretazione in tempo reale e un miglior supporto per il parlato.
Il fenomeno del prompt injection
Stando a un articolo pubblicato su Android Central, alcuni utenti sono riusciti a ottenere risposte che ricordano quelle di un chatbot grazie alla modalità avanzata di traduzione. Inserendo istruzioni nel testo da tradurre, il sistema sembra interpretarle come comandi anziché semplici contenuti linguistici, un fenomeno noto nel campo dell’intelligenza artificiale come prompt injection. Questo fenomeno, sebbene osservato in esperimenti o contesti testuali costruiti appositamente, può portare a risultati inattesi dove il modello esegue comandi invece di tradurre semplicemente.
Implicazioni sulla sicurezza
Nonostante le osservazioni, non ci sono prove che suggeriscano una vulnerabilità di sicurezza sfruttabile su larga scala, né impatti sui dati personali o sulla sicurezza degli account. Al momento, Google non ha rilasciato comunicazioni ufficiali su questo comportamento anomalo. Secondo le fonti, il fenomeno si presenta principalmente nella modalità avanzata, mentre la modalità ‘classica’ continua a fornire traduzioni più prevedibili, senza effetti simili a quelli di un chatbot.

