LA PROPOSTA

Intelligenza artificiale, obblighi per i foundation model

La presidenza spagnola del Consiglio Ue presenta l’architettura di governance. Più poteri alla Commissione europea sui sistemi di machine learning che addestrano le AI generative. Prevista l’istituzione di un AI Office. Intanto la Germania battezza l’Action Plan: 1,6 miliardi per competere con Usa e Cina

Pubblicato il 08 Nov 2023

intelligenza artificiale 2

La governance dei foundation model dell’AI inizia a prendere forma in Europa. I foundation model sono modelli di Machine Learning pre-addestrati su grandi quantità di dati e utilizzati come punto di partenza per addestrare modelli specifici per compiti particolari.

La presidenza spagnola del Consiglio dei ministri dell’Ue ha presentato una proposta di architettura di governance sia per foundation model “generici” sia per quelli ad alto impatto.

 L’Artificial intelligenge Act

Gli obblighi specifici sui foundation model come il Gpt-4 di OpenAI, che supporta il funzionamento ChatGpt ad esempio, sono già in discussione nel contesto della legge europea sull’intelligenza artificiale (Artificial intelligence Act – AI Act) che mira, appunto, a regolamentare la tecnologia secondo un approccio basato sui livelli di rischio.

L’AI Act è nell’ultima fase del processo legislativo, essendo iniziati i triloghi tra Consiglio, Parlamento e Commissione dell’Ue. In questo contesto l’approccio proposto dalla presidenza spagnola  in materia di governance, potrebbe influenzare non poco l’esito della discussione in corso.

La supervisione dei foundation model, cosa prevede la proposta spagnola

La proposta spagnola prevede che la Commissione europea abbia poteri esclusivi di supervisione degli obblighi, compresi quelli ad “alto impatto” soggetti a un regime più severo. L’esecutivo dell’Ue  avrebbe il potere di aprire indagini e chiedere di applicare le disposizioni di legge di propria iniziativa o anche a seguito di un reclamo da parte di un provider di AI che ha un contratto con un fornitore di foundation model.

Bruxelles avrebbe anche il compito di definire, tramite atti di esecuzione, le procedure per il monitoraggio dell’applicazione degli obblighi per i fornitori dei foundation model. Prevista la costitizione di un AI Office e la nomina di un gruppo scientifico.

Gli audit in mano a Bruxelles

A Bruxelles anche la definizione delle modalità di conduzione degli audit che verranno espletati “tenendo nella massima considerazione il parere del gruppo di esperti scientifici” per valutare la conformità del fornitore alla legge sull’AI o per indagare sui rischi per la sicurezza. La Commissione potrà effettuare gli audit direttamente o delegarli a revisori indipendenti o a personale interno. I revisori potrebbero richiedere l’accesso al modello attraverso un’interfaccia di programmazione delle applicazioni (Api).

Per i foundation model ad alto impatto, la presidenza spagnola ha proposto valutazioni in contraddittorio da parte di red team ovvero gruppi di esperti che simulano attacchi aziendali. I ted team potrebbero essere scelti dal fornitore. Tuttavia, se la decisione politica è di sceglierli fuori dal perimetro aziendale, nel testo si autorizza la Commissione a conferire lo status di “red-teamer verificato”.

Questi tester verificati devono dimostrare una particolare competenza, indipendenza dai fornitori di modelli di fondazione, accuratezza e obiettività nel loro lavoro. La Commissione dovrà istituire un registro dei tester verificati e definire la procedura di selezione tramite atti delegati.

Inoltre la bozza di testo autorizza l’esecutivo dell’Ue, a seguito di un dialogo con i fornitori di foundation model, a richiedere loro di implementare misure per conformarsi ai requisiti della legge sull’AI e misure di mitigazione del rischio quando vengono riscontrate serie preoccupazioni attraverso gli audit.

L’esecutivo dell’Ue potrà richiedere anche la documentazione sulle capacità e sui limiti dei modelli. Se la documentazione dovesse sollevare dubbi su potenziali rischi, la Commissione potrebbe richiedere ulteriori informazioni, avviare un dialogo con il fornitore ed eventualmente imporre misure correttive.

Madrid ha inoltre proposto un regime sanzionatorio per i fornitori che violano gli obblighi previsti dalla legge sull’AI o non rispettano le richieste di documentazione, audit o non adottano misure correttive. Non è stato però  ancora fissato l’ammontare dell’eventuale sanzione per le imprese inadempienti rispetto al loro fatturato totale.

La governance

La presidenza spagnola ha proposto la creazione di un “quadro di governance” per il monitoraggio dei foundation model, compresi quelli ad “alto impatto”, che comprende l’AI Office e una task force scientifica che sosterrà le attività della Commissione.

Tra le attività svolte da questi organismi la consultazione regolare della comunità scientifica, delle organizzazioni della società civile e degli sviluppatori sullo stato della gestione dei rischi dei modelli di AI e la promozione della cooperazione internazionale.

La task force di esperti

I compiti della task force riguardano il contributo allo sviluppo di metodologie per la valutazione delle capacità foundation model, la consulenza sul design e l’analisi di modelli emergenti ad alto impatto nonché il monitoraggio dei possibili rischi per la sicurezza.

I membri del gruppo dovrebbero essere selezionati in base alle competenze scientifiche o tecniche riconosciute nell’ambito dell’AI, agire in modo obiettivo e dichiarare qualsiasi potenziale conflitto di interessi.

Sistemi non conformi

Infine la presidenza ha proposto una procedura per trattare i sistemi di AI non conformi che rappresentano un rischio significativo a livello dell’Ue. In circostanze eccezionali in cui potrebbe essere in gioco il buon funzionamento del mercato interno, la Commissione potrebbe effettuare una valutazione di emergenza e imporre misure correttive, compreso il ritiro dal mercato della soluzione di AI.

AI, la Germania affila le armi

Intanto la Germania punta a potenziare lo sviluppo dell’intelligenza artificiale a livello nazionale ed europeo. Il ministero dell’Istruzione e della Ricerca ha presentato un action plan in cui sono delineate 12 aree chiave di intervento, tra cui il rafforzamento dell’intera catena del valore dell’AI a livello nazionale ed europeo, concentrandosi sulla connessione tra istruzione, scienza e ricerca.

Per implementare il piano, il ministero si è impegnato a investire 1,6 miliardi di euro. In particolare, promuoverà 50 misure incentrate sulla ricerca, sulle competenze e sullo sviluppo delle infrastrutture e le completerà con ulteriori 20 iniziative sull’AI.

“Se vogliamo stare al passo con gli Stati Uniti e la Cina, possiamo farlo solo con i nostri partner europei – ha spiegato la ministra della Ricerca Bettina Stark-Watzinger – Se vogliamo competere a livello globale, l’Europa è un fattore chiave. Ecco perché vogliamo migliorare significativamente la cooperazione europea”.

Il progetto olandese

L’Olanda invece si prepara a sviluppare il proprio modello di linguaggio aperto, Gpt-NL. Il modello sarà sviluppato dall’organizzazione di ricerca indipendente Tno, dal Netherlands Forensic Institute e da Surf, un’associazione cooperativa di istituzioni educative e di ricerca olandesi. Il Ministero degli Affari Economici e del Clima sta destinando 13,5 milioni di euro per lo sviluppo del modello di linguaggio olandese.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati