OpenAI forma un team per valutare i rischi catastrofici dell’IA

Fabrizio Grasso
27/10/2023

Chiamato Preparedness, dovrà monitorare e prevedere l’impatto dell’intelligenza artificiale sull’umanità. Dalla sicurezza informatica alle minacce nucleari, un allarme già lanciato dal Ceo Sam Altman e dal vertice di Google Deepmind.

OpenAI forma un team per valutare i rischi catastrofici dell’IA

OpenAI alza la guardia contro lo sviluppo incontrollato dell’intelligenza artificiale. La madre di ChatGPT ha infatti annunciato Preparedness, un nuovo team che avrà il compito di «monitorare, valutare e prevedere i rischi catastrofici» che un’IA sempre più evoluta può comportare per l’umanità. Alla guida ci sarà Alexander Madry, ex direttore del Center for Deployable Machine Learning del MIT. Assieme a ingegneri e ricercatori, che possono ancora candidarsi per entrare nel gruppo di controllo sul sito ufficiale dell’azienda, passerà in rassegna tutti i prodotti di OpenAI, cercando di comprendere se stanno prendendo una piega pacifica e in particolar modo benefica per la crescita umana. Già a maggio 2023 il Ceo Sam Altman, assieme al collega di Google Deepmind Demis Hassabis, aveva firmato una dichiarazione in cui suggeriva di trattare l’IA alla pari di pandemie e guerre nucleari.

Preparadness di OpenAI monitorerà e valuterà i rischi dello sviluppo smodato dell'intelligenza artificiale, dalla cybersicurezza al nucleare.
Sam Altman, Ceo di OpenAI, nel settembre 2023 (Getty Images).

Dalla sicurezza globale alla replicazione autonoma, i rischi dell’IA per OpenAI

«Riteniamo che i modelli di intelligenza artificiale, che supereranno le capacità attualmente presenti nei software più avanzati, abbiano il potenziale per apportare benefici all’umanità», ha scritto OpenAI in una nota ufficiale. «Comportano però anche rischi sempre più gravi. Dobbiamo pertanto assicurarci di disporre delle strutture e della comprensione necessarie per la sicurezza». Madry e il suo team dovranno prevedere usi impropri e furti dell’IA, che in mano ad «attori malintenzionati» potrebbero cagionare pericoli per tutti. Cosa intendono però gli esperti di OpenAI quando parlano di rischi catastrofici? La società ha citato diverse categorie, tra cui la capacità di persuasione sull’uomo e successivo inganno e la sicurezza informatica con la relativa possibilità di generare codici maligni. Attenzione anche alle minacce di carattere chimico, biologico, radiologico e nucleare. Infine, bisognerà evitare la replicazione e l’adattamento autonomi.

La missione del team Preparedness di OpenAI è poi quella di delineare le regole per una politica di sviluppo consapevole dei rischi dell’intelligenza artificiale. «La squadra descriverà nel dettaglio il nostro approccio con rigorose valutazioni, creando una vasta gamma di azioni protettive e stabilendo inoltre una struttura di governance per la responsabilità e la supervisione di ogni processo». Al fine di migliorare la risposta del suo team, OpenAI ha lanciato anche la campagna Preparedness Challenge rivolta a tutti i cittadini. Si chiede di immaginare cosa potrebbe fare un malintenzionato dotato di accesso illimitato alla tecnologia IA, tra cui ChatGpt e Dall-E, il software generativo di immagini. Le 10 proposte migliori riceveranno 25 mila dollari ciascuna e la possibilità di lavorare a stretto contatto con gli esperti.

LEGGI ANCHE: Intelligenza artificiale, Amazon e Meta sfidano OpenAI