Dopo mesi di trattative tra gli eurodeputati, il Parlamento europeo ha raggiunto un accordo politico provvisorio sull’Artificial Intelligence Act, il primo regolamento al mondo sull’Intelligenza Artificiale.
Si tratta di una proposta legislativa volta a regolamentare l’Intelligenza Artificiale in base al suo potenziale di danno. L’accordo dopo che i legislatori dell’Ue hanno raggiunto un accordo politico ieri, giovedì 27 aprile.
Il provvedimento potrebbe ancora essere cambiato con modifiche di livello tecnico prima del voto in plenaria previsto per metà giugno.
Norme più severe per le AI “senza scopo”
Il Parlamento Ue ha confermato le proposte della Commissione di imporre obblighi più severi ai modelli di base, una categoria dell’AI generica che comprende anche ChatGpt. Per quanto riguarda l’AI generativa, Strasburgo ha deciso che questi sistemi dovranno essere progettati nel rispetto del diritto dell’Ue e delle libertà fondamentali.
Le applicazioni vietate
Il Parlamento ha inoltre esteso il divieto sui software di identificazione biometrica, prima vietati solo per l’uso in real time, per i quali adesso ne è previsto un suo ex post solo per reati gravi e previa autorizzazione del giudice.
Inoltre l’uso del software di riconoscimento delle emozioni è vietato nei settori dell’applicazione della legge, della gestione delle frontiere, del lavoro e dell’istruzione.
Il divieto di controllo predittivo è stato esteso dai reati penali a quelli amministrativi, sulla base dello scandalo olandese degli assegni familiari, che ha visto migliaia di famiglie incriminate erroneamente per frode a causa di un algoritmo.
La classificazione dei sistemi ad alto rischio
La proposta della Commissione definiva sistemi di AI a rischio elevato quelli applicati, ad esempio, alle reti critiche, all’occupazione, all’istruazione e alla formazione nonché ai servizi pubblici essenziali.
Gli eurodeputati hanno introdotto un livello aggiuntivo e considerato ad alto rischio anche i sistemi che possono provocare danni alla salute, alla sicurezza o ai diritti fondamentali.
Il rischio significativo è definito come “risultato della combinazione della sua gravità, intensità, probabilità di accadimento e durata dei suoi effetti, e della capacità di colpire un individuo, una pluralità di persone o di colpire un particolare gruppo di persone”, si legge nel testo approvato.
Infine sono considerati ad alto rischio anche i sistemi di raccomandazione delle piattaforme online di grandi dimensioni, come definiti dal Digital Services Act.
Più tutele per i dati sensibili
Aumentate le tutele per i dati sensibili: controlli più stretti su come i provider di sistemi ad alto rischio possono elaborare dati sensibili, ad esempio l’orientamento sessuale o quello politico e religioso. In pratica, per poter elaborare questo tipo informazioni i pregiudizi non devono essere rilevabili attraverso l’elaborazione di dati sintetici, anonimizzati, pseudonimizzati o criptati.
E il procedimento deve deve avvenire in un ambiente controllato mentre i dati non potranno essere trasmessi e dovranno essere cancellati dopo la valutazione dei pregiudizi. I fornitori devono inoltre documentare i motivi per cui è stato effettuato il trattamento dei dati.
L’appello di Enisa
Nella giornata in cui il Parlamento Ue trova l’accordo politico, l’Enisa pubblica un documento sulla sicurezza applicata all’AI in cui si sottolinea la necessità di standard comuni per garantire la sicurezza dei sistemi di intelligenza artificiale.
“L’utilizzo di standard comuni adeguati contribuirà a garantire la sicurezza dei sistemi a intelligenza artificiale e dei dati che tali sistemi devono elaborare per poter funzionare. Confido che questo sia l’approccio che dobbiamo adottare se vogliamo massimizzare i vantaggi dei sistemi ad intelligenza artificiale”, spiega il direttore esecutivo, Juhan Lepassaar.
Il documento
Nel documento si sottolinea come un approccio all’Intelligenza artificiale che tenga conto dei rischi relativi alla cybersicurezza debba includere il ricorso a una terminologia standardizzata per la sicurezza informatica, lo sviluppo di orientamenti tecnici su come gli standard di sicurezza informatica debbano essere applicati all’intelligenza artificiale e la cooperazione e il coordinamento tra i comitati tecnici degli organismi nazionali e internazionali di normazione sulla cybersicurezza.
SCARICA QUI IL DOCUMENTO ENISA
Il costo della legge Ue sull’AI
La maggiore regolamentazione imposta dal nuovo quadro normativo sull‘intelligenza artificiale in Europa comporterà però un aumento dei costi di conformità per le Pmi che sviluppano, utilizzano, importano e rivendono soluzioni di Ai, dovute a diverse attività, dalla conoscenza delle nuove procedure all’acquisizione ed elaborazione dati, dalle procedure amministrative all’auditing esterno. Ma, rispetto alle prime stime dello studio a supporto di una valutazione dell’impatto della regolamentazione sull’AI che ha previsto un costo totale pari al 17,3% del fatturato, i costi reali di adeguamento all’AI Act sarebbero oltre dieci volte inferiori, quantificabili in circa 300 mila euro, pari all’1,3% del fatturato di una Pmi “tipo” produttrice di soluzioni di intelligenza artificiale, secondo una ricerca di Intellera Consulting. E potrebbero scendere ulteriormente, se si riuscissero ad attivare con successo la rete europea dei Poli di innovazione digitale (gli “European Digital Innovation Hubs”) e gli strumenti di prova e sperimentazione dell’intelligenza artificiale (i cosiddetti “Testing and Experimentation Facilities” Tefs) per assorbire parte dei costi e attivare importanti economie di scala.
L’indagine Intellera ha applicato a una Pmi produttrice di soluzioni di Ai “modello” con 150 dipendenti e un fatturato da 23,2 milioni di euro le stime dello “Studio a supporto di una valutazione dell’impatto della regolamentazione sull’Ai” della Commissione Europea che calcola i costi di conformità in proporzione diretta al valore di mercato dell’Ai: ne risulta un costo di adeguamento pari al 17,3% del fatturato, che corrisponde a circa 4 milioni di euro, con l’impiego di oltre 70 risorse equivalenti a tempo pieno (Fte), chiaramente insostenibile per il business della maggiore parte delle realtà.
Secondo la società di consulenza, però, calcolando più correttamente i costi di conformità all’Ai Act sulla base delle attività e degli strumenti effettivamente necessari all’adeguamento, questi possono scendere a circa 300 mila euro, pari all’1,3% del fatturato della Pmi tipo, impiegando mediamente 2,7 risorse Fte.
E possono ridursi ulteriormente, fino a un valore di circa 230 mila euro a Pmi, in uno scenario ancora più ottimistico, che prevede il supporto dei Poli di innovazione digitale (Edih), in grado di assorbire il 27% dei costi di requisiti di una Pmi (tutti i costi di conservazione di documenti e registri, metà dei costi di fornitura di informazioni) e il 21% dei costi per le procedure di valutazione della conformità.