SCENARI

Intelligenza artificiale: la Casa Bianca annuncia un investimento da 140 milioni

In arrivo sette nuovi centri di ricerca e linee guida per regolamentare la tecnologia. In un incontro con gli amministratori delegati delle big tech, Biden fa appello alla “responsabilità su diritti dei cittadini e sicurezza”. Intanto si avvicina l’11 maggio, giorno in cui ci sarà il primo voto sull’Artificial Intelligence Act dell’Ue

Pubblicato il 05 Mag 2023

intelligenza artificiale

Gli Usa si preparano ad investire 140 milioni nella creazione di sette nuovi centri di ricerca sull’intelligenza artificiale (AI) e la pubblicazione di linee guida tese a regolamentare tale tecnologia. Lo annuncia la Casa Bianca, chiarendo che, per finanziare il piano, l’amministrazione Biden attingerà ai fondi della National Science Foundation.
La notizia giunge in contemporanea con la convocazione alla Casa Bianca degli amministratori delegati delle principali aziende del settore: in una nota diffusa a margine dell’incontro, la vicepresidente Usa Kamala Harris ha affermato che “il settore privato ha la responsabilità etica, morale e legale di assicurare la sicurezza dei loro prodotti”, inclusa l’AI.

L’iniziativa  – puntualizza la nota – “si basa sui notevoli passi compiuti finora dall’amministrazione per promuovere un’innovazione responsabile. Tra questi, l’importante progetto per una Carta dei diritti dell’AI e le relative azioni esecutive annunciate lo scorso autunno, nonché il Quadro di gestione del rischio dell’IA e una tabella di marcia per la creazione di una risorsa nazionale per la ricerca sull’IA, pubblicati all’inizio di quest’anno”.

Rischi e sicurezza dei prodotti al centro del confronto

La riunione alla Casa Bianca, cui hanno preso parte gli amministratori delegati di Google, Microsoft, Anthropic e OpenAI, è stata organizzata per discutere i rischi associati all’intelligenza artificiale, e in particolare la necessità di garantire la sicurezza dei prodotti basati su questa tecnologia, prima della diffusione al pubblico.

“L’IA è una delle tecnologie più potenti del nostro tempo, ma per cogliere le opportunità che presenta, dobbiamo prima mitigarne i rischi – recita la nota della Casa Bianca -. Il Presidente Biden è stato chiaro: quando si parla di AI, dobbiamo mettere al centro le persone e le comunità, sostenendo un’innovazione responsabile che serva il bene pubblico, proteggendo al contempo la nostra società, la sicurezza e l’economia”.  La Casa Bianca ha anche invitato le quattro aziende, alla luce del loro ruolo nel settore dell’innovazione statunitense, ad assumere “un comportamento responsabile” per quanto riguarda i diritti dei cittadini e la sicurezza.

La “crociata” di Biden contro i rischi dell’AI

L’amministrazione Biden si sta muovendo con decisione contro i potenziali rischi dell’AI. Dopo l’ordine esecutivo con cui il Presidente ha incaricato le agenzie federali di eliminare i pregiudizi nella progettazione e nell’uso delle nuove tecnologie, compresa l’AI, e di proteggere il pubblico dalla discriminazione algoritmica, la scorsa settimana, la Federal Trade Commission, il Consumer Financial Protection Bureau, la Equal Employment Opportunity Commission e la Divisione per i Diritti Civili del Dipartimento di Giustizia hanno rilasciato una dichiarazione congiunta in cui sottolineano il loro impegno collettivo a sfruttare le autorità legali esistenti per proteggere il popolo americano dai danni legati all’intelligenza artificiale.

L’amministrazione sta inoltre lavorando attivamente per affrontare i problemi di sicurezza nazionale sollevati dall’AI, soprattutto in aree critiche come la cybersicurezza, la biosicurezza e la sicurezza. Ciò include il supporto di esperti governativi di cybersicurezza provenienti da tutta la comunità della sicurezza nazionale per garantire che le aziende leader nel settore  abbiano accesso alle best practise.

Ue: prima votazione per l’Artificial Intelligence Act

Intanto, da questa parte dell’oceano, gli eurodeputati si preparano a dare un primo parere in merito alla proposta di regolamento Artificial Intelligence Act, “la relazione che definisce la sicurezza e la legalità delle applicazioni di intelligenza artificiale” secondo la futura legislazione comunitaria. La votazione avrà luogo il prossimo 11 maggio in una riunione congiunta delle commissioni per il Mercato interno e la protezione dei consumatori (Imco) e per le Libertà civili, la giustizia e gli affari interni (Libe).

L’accordo politico provvisorio sull’Artificial Intelligence Act è stato raggiunto solo lo scorso 27 aprile dopo mesi di trattative tra gli eurodeputati. Si tratta di una proposta legislativa volta a regolamentare l’Intelligenza Artificiale in base al suo potenziale di danno. Il provvedimento potrebbe ancora essere cambiato con modifiche di livello tecnico prima del voto in plenaria previsto per metà giugno.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati