L’amministrazione Biden sta facendo il primo passo verso la stesura di standard e linee guida chiave per l’implementazione sicura dell’intelligenza artificiale generativa e su come testare e salvaguardare i sistemi. Il National Institute of Standards and Technology (Nist) del Dipartimento del Commercio ha dichiarato che sta cercando il contributo del pubblico per condurre test chiave, da chiudere entro il 2 febbraio, per garantire la sicurezza dei sistemi di AI.
Il ministro del Commercio, Gina Raimondo, ha affermato che l’iniziativa è stata promossa dall’ordine esecutivo del presidente Joe Biden sull’intelligenza artificiale di ottobre e mira a sviluppare “standard di settore sulla sicurezza, la protezione e la fiducia nell’IA che consentiranno all’America di continuare a guidare il mondo nello sviluppo e nell’uso responsabile di questa tecnologia in rapida evoluzione”.
Verso misure per ridurre i possibili rischi dell’AI
L’agenzia sta sviluppando linee guida per la valutazione dell’intelligenza artificiale, facilitando lo sviluppo di standard e fornendo ambienti di test per la valutazione dei sistemi di intelligenza artificiale. La richiesta chiede input alle società di intelligenza artificiale e al pubblico sulla gestione generativa del rischio dell’intelligenza artificiale e sulla riduzione dei rischi di disinformazione generata dall’intelligenza artificiale.
L’intelligenza artificiale generativa, in grado di creare testo, foto e video in risposta a richieste aperte, negli ultimi mesi ha suscitato entusiasmo poiché teme che possa rendere alcuni lavori obsoleti, sconvolgere le elezioni e potenzialmente sopraffare gli esseri umani con effetti catastrofici. L’ordine di Biden ha ordinato alle agenzie di stabilire standard per tali test e di affrontare i relativi rischi chimici, biologici, radiologici, nucleari e di sicurezza informatica.
“Red-teaming” per l’identificazione dei rischi
Il Nist sta lavorando per definire linee guida per i test, anche nei casi in cui il cosiddetto “red-teaming” sarebbe molto utile per la valutazione e la gestione del rischio legato all’AI e per la definizione delle migliori pratiche a tal fine. Il red-teaming esterno è stato utilizzato per anni nella cybersecurity per identificare nuovi rischi, con il termine che si riferisce alle simulazioni della Guerra Fredda degli Stati Uniti in cui il nemico era definito “squadra rossa”.
Ad agosto, durante un’importante conferenza sulla sicurezza informatica, si è tenuto il primo evento di valutazione pubblica degli Stati Uniti, organizzato da AI Village, SeedAI e Humane Intelligence. Migliaia di partecipanti hanno cercato di capire se potevano “far produrre ai sistemi risultati indesiderati o fallire in altro modo, con l’obiettivo di comprendere meglio i rischi che questi sistemi presentano”, ha dichiarato la Casa Bianca. L’evento “ha dimostrato come il red-teaming esterno possa essere uno strumento efficace per identificare i nuovi rischi dell’IA“, ha aggiunto.