Primo attacco hacker con AI scoperto da Google: dettagli e analisi

he l’intelligenza artificiale potesse essere pericolosa nelle mani sbagliate non è una novità, ma ora Google ha documentato il primo attacco informatico sviluppato attraverso un modello generativo. I ricercatori del Google Threat Intelligence Group (GTIG) hanno scoperto che il codice usato per colpire un sistema presenta caratteristiche tipiche di un testo prodotto dall’AI. Questa scoperta segna un passo inedito nella storia della sicurezza informatica.

Il primo exploit AI

Un “exploit” è uno strumento progettato per sfruttare vulnerabilità di un software, permettendo accessi non autorizzati. In questo caso, l’attacco ha mirato al sistema di autenticazione a due fattori (2FA) di uno strumento di amministrazione web. Sebbene Google non abbia rivelato l’identità dell’azienda bersagliata, ha comunicato i propri risultati permettendo alla società di correggere il problema. Il codice malevolo mostrava una formattazione impeccabile, dettagli di aiuto approfonditi e “allucinazioni”, ovvero informazioni false generate dai modelli linguistici. Lo strumento era uno script Python automatizzato, probabilmente generato da un grande modello linguistico per individuare e sfruttare una falla nel codice.

Tendenza crescente

Il caso evidenziato da Google non è un episodio isolato. Secondo il rapporto del GTIG, l’utilizzo offensivo dell’AI sta crescendo a livello globale. Gruppi legati a Russia, Cina e Corea del Nord sono sempre più coinvolti. In particolare, il gruppo nordcoreano APT45 è stato osservato mentre raffinava tecniche di attacco. Anche sul fronte mobile, malware come PromptSpy ha iniziato a sfruttare l’AI per replicare biometricamente autentificazioni sugli utenti. L’AI offre un significativo vantaggio in termini di velocità, rendendo attacchi che prima richiedevano competenze avanzate accessibili a più utenti malintenzionati.

Modelli avanzati e regolamentazione

La diffusione di modelli avanzati ha portato le aziende a limitare inizialmente l’accesso. Ad esempio, Mythos di Anthropic, capace di scovare migliaia di vulnerabilità, è riservato a ricercatori fidati. Anche GPT-5.5-Cyber di OpenAI, con funzionalità avanzate di analisi delle vulnerabilità, è sottoposto a stretti controlli. L’amministrazione Trump sta considerando regolamentazioni per questi modelli. Sebbene queste tecnologie possano individuare e correggere vulnerabilità prima dell’uso malevolo, nel breve termine rappresentano un rischio maggiore, visto il potenziale per accelerare minacce che richiedevano tempo e abilità.

Per scoprire tutte le ultime offerte, novità ed errori di prezzo, entra subito nel canale Telegram di Offerte Dal Web

Condividi questo articolo