Recentemente, abbiamo assistito a significativi progressi nell’ambito dell’intelligenza artificiale, con le principali aziende del settore che continuano a guardare al futuro. Tra queste realtà, spicca indubbiamente OpenAI con il suo noto ChatGPT.
Sembrerebbe che l’importante azienda abbia costituito una squadra dedicata a impedire potenziali scenari di conflitti nucleari o situazioni pericolose correlate all’intelligenza artificiale.
L’intelligenza artificiale può comportare rischi, e OpenAI prende provvedimenti attraverso la creazione di un team dedicato.
In un recente articolo pubblicato sul blog di OpenAI, viene annunciata la formazione del team “Preparedness,” guidato da Aleksander Madry. Questo annuncio sottolinea chiaramente la visione dell’azienda.
OpenAI è convinta che le prossime generazioni di intelligenza artificiale, superando ampiamente le capacità dei modelli attuali più avanzati, possano portare notevoli benefici all’umanità. Tuttavia, con tali innovazioni emergono anche rischi significativi che devono essere affrontati.
Il principale obiettivo del team “Preparedness” sarà quello di mitigare questi rischi connessi ai nuovi modelli di intelligenza artificiale. Questi rischi comprendono questioni come la personalizzazione della persuasione, la sicurezza informatica e le minacce relative a sostanze chimiche, biologiche, radioattive e nucleari. Inoltre, il team si occuperà di questioni legate alla replicazione e all’adattamento autonomo di tali modelli.
Il gruppo avrà anche la cruciale responsabilità di sviluppare una politica basata sulla gestione del rischio. Questa politica renderà molto più dettagliato l’approccio di OpenAI nella conduzione di valutazioni rigorose e nel monitoraggio delle capacità dei modelli, insieme all’implementazione di misure di sicurezza. Inoltre, istituirà una struttura di governance per garantire la responsabilità e la supervisione del processo di sviluppo, contribuendo a garantire che l’innovazione nel campo dell’intelligenza artificiale sia allineata con gli obiettivi di sicurezza e responsabilità.