Per cogliere le potenzialità dell’intelligenza artificiale, Unione europea e Stati Uniti hanno prima di tutto il compito di mitigare i rischi legati allo sviluppo della nuova tecnologia. È questo, in estrema sintesi, l’impegno preso attraverso la dichiarazione congiunta firmata dai rappresentanti delle due sponde dell’Atlantico in occasione della quarta riunione ministeriale del Consiglio per il commercio e la tecnologia (Ttc) Ue-Usa che si è tenuta a Lulea, in Svezia.
Il commercio bilaterale Ue-Usa “è ai massimi storici”, si legge in una nota della Commissione europea, “con oltre 1,5 mila miliardi di euro nel 2022, di cui oltre 100 miliardi di euro nel commercio digitale”. Alla riunione hanno partecipato i vice presidenti della Commissione europea, Margrethe Vestager e Valdis Dombrovskis, il commissario europeo al Mercato interno, Thierry Breton, il segretario di Stato Usa, Antony Blinken, la segretaria Usa al Commercio, Gina Raimondo, e la rappresentante Usa per il Commercio, Katherine Tai.
In occasione della riunione ministeriale, l’Ue e gli Usa hanno concordato un elenco di obiettivi fondamentali per far progredire la cooperazione transatlantica in materia di tecnologie emergenti, commercio sostenibile, sicurezza e prosperità economica, connettività sicura e diritti umani nell’ambiente digitale.
Gli accordi di cooperazione sull’AI
“L’Unione europea e gli Stati Uniti riaffermano il loro impegno a favore di un approccio all’AI basato sul rischio, per far progredire tecnologie di AI affidabili e responsabili. La cooperazione sui nostri approcci è fondamentale per promuovere un’innovazione responsabile, che rispetti i diritti e la sicurezza e garantisca che l’AI fornisca benefici in linea con i nostri valori democratici condivisi”, si legge nel documento congiunto.
Il summit ha dato particolare rilievo alle soluzioni di intelligenza artificiale generativa, e ovviamente alle opportunità e ai rischi relativi alla tecnologia. Le due parti hanno fatto progressi nell’attuazione della roadmap sugli strumenti di valutazione e misurazione del rischio affidabili, istituendo tre gruppi di esperti dedicati che si concentrano su terminologia e tassonomia dell’AI, cooperazione su standard e strumenti per un’intelligenza artificiale affidabile e per la gestione del rischio, azioni di monitoraggio e misurazione dei rischi di AI esistenti ed emergenti.
L’Unione Europea e gli Stati Uniti hanno annunciato un progetto di “codice di condotta” congiunto sull’intelligenza artificiale, che si applicherebbe su base volontaria al settore. “Nelle prossime settimane presenteremo una bozza di codice di condotta sull’intelligenza artificiale”, ha dichiarato la commissaria europea alla Concorrenza Margrethe Vestager, durante una conferenza stampa congiunta con il capo della diplomazia americana Antony Blinken. Si tratterà di “stabilire codici di condotta volontari che siano aperti a tutti i Paesi che la pensano allo stesso modo”, ha affermato quest’ultimo, in un momento in cui gli occidentali temono di lasciare che sia la Cina a guidare la regolamentazione.
È stato inoltre siglato un accordo amministrativo che evidenzia cinque settori per l’esplorazione delle potenzialità dell’intelligenza artificiale: previsione di fenomeni meteorologici e climatici estremi, gestione della risposta alle emergenze, miglioramento della salute e della medicina, ottimizzazione delle reti energetiche e ottimizzazione dell’agricoltura.
Il nuovo meccanismo di allarme rapido sui chip
L’Ue e gli Stati Uniti hanno inoltre portato avanti i lavori sui semiconduttori, attuando accordi sull’allarme rapido nella catena di approvvigionamento e sulla trasparenza delle sovvenzioni. Hanno messo in atto un meccanismo per evitare le corse alle sovvenzioni, hanno approfondito la cooperazione sulle rispettive normative sui chip e uniranno le forze nella ricerca per sostituire le sostanze perfluoroalchiliche nelle catene di approvvigionamento dei semiconduttori.
La provocazione della premier danese: tiene un discorso scritto da ChatGpt
I rischi e le opportunità dell’AI non sono solo al centro del dibattito tra Ue e Usa: la premier danese Mette Frederiksen ha tenuto un discorso in Parlamento, la cui prima parte è stata scritta da ChatGpt, proprio con l’obiettivo di evidenziare l’ambivalenza dello strumento.
Per il capo del governo della Danimarca, intervenuto sulla valutazione politica al termine della sessione parlamentare, il robot conversazionale sviluppato da OpenAI è in grado di ingannare. “Quello che ho appena letto non è mio. O di qualsiasi altro essere umano”, ha spiegato all’improvviso ai deputati Frederiksen dopo la sua presentazione. “Sebbene non abbia sempre colpito nel segno, sia nei dettagli del programma di lavoro del governo che nella punteggiatura, ciò di cui ChatGpt è capace è sia affascinante che terrificante”, ha sottolineato la leader.
Software AI banditi per la redazione di documenti in Ue e in Texas
Non stupisce dunque che la Commissione Ue abbia chiesto ai suoi funzionari di non usare i software di intelligenza artificiale nella redazione “di testi pubblici, in particolare quelli giuridicamente vincolanti”, e “per processi critici e urgenti”. È quanto riporta l’Ansa citando un documento interno inviato ai dipendenti di cui ha preso visione.
Le linee guida fanno riferimento esplicito a strumenti come ChatGpt. “Il personale non deve mai condividere informazioni che non siano già di dominio pubblico, né dati personali, con modelli di AI generativa disponibili online” e “deve valutare criticamente” i risultati prodotti dai software.
Nel frattempo in Texas, da oggi in poi nessun documento legale potrà essere redatto utilizzando piattaforme di intelligenza artificiale, a meno che il contenuto prodotto non sia stato accuratamente revisionato. L’ha deciso un giudice federale dopo i casi dell’uso dell’AI in tribunale. L’ultimo risale a pochi giorni fa, quando un avvocato a New York per costruire una causa si era affidato a ChatGpt, che ha fornito sei casi precedenti, tutti risultati completamente inesistenti. Brantley Starr, giudice federale del Texas, sta adottando misure per garantire proprio che non si verifichino nella sua aula casi del genere.
Il magistrato ha aggiunto un requisito secondo cui qualsiasi avvocato che compare nella sua corte deve attestare che “nessuna parte della causa è stata redatta dall’intelligenza artificiale generativa” o, se lo è, che è stata controllata “da un essere umano”.
Tutti gli avvocati che compaiono davanti alla Corte devono quindi mettere agli atti un certificato appositamente redatto e dichiarare che qualsiasi eventuale contenuto prodotto dall’AI sia stato controllato accuratamente da una persona in carne e ossa utilizzando i database legali tradizionali o fonti stampa.