L'INTERVISTA

Benifei: “Con l’AI Act l’Ue sarà avanguardia nella regolazione”

L’eurodeputato Pd e relatore del provvedimento: “Con le nuove norme più sicurezza, più tutele per gli utilizzatori e assist alle startup”. Ma tra Consiglio e Parlamento non c’è ancora l’accordo su foundation model e copyright: pesa la posizione di Francia, Germania e Italia che chiedono un approccio più light. “Sull’impianto generale del pacchetto l’intesa c’è, confidiamo di trovare la quadra a breve”

Pubblicato il 04 Dic 2023

benifei_brando

Sono settimane decisive per l’Artficial Intelligence Act che, una volta approvato, renderà il Vecchio Continente avanguardia nella regolazione della tecnologia. Sono in corso le riunioni del trilogo – Commissione, Consiglio e Parlamento Ue – per raggiungere l’accordo sulla proposta legislativa.

Il 6 dicembre è prevista la prossima riunione in cui i co-legislatori proveranno a trovare l’intesa su un tema critico ovvero quello dei foundation model, i modelli di Machine Learning pre-addestrati su grandi quantità di dati e utilizzati come punto di partenza per realizzare sistemi specifici per compiti particolari.

Su questo aspetto Francia, Germania e Italia si sono opposte a quella che considerano una iper-regolazione contrariamente alla posizione del Parlamento che, invece, punta a regole stringenti.

La presidenza spagnola aveva inizialmente proposto un approccio graduale, un po’ simile a quello americano, che sottopone a vigilanza e scrutinio i modelli più avanzati.

Di quello che sta succedendo ne parliamo con Brando Benifei, eurodeputato del PD e relatore dell’AI Act.

Benifei, cosa sta succedendo a livello di trilogo?

Esiste una diversità di vedute per quanto riguarda i modelli di base. Il Parlamento europeo è convinto che, se il livello di impatto è più elevato, sia necessario fare ricorso a obblighi di sicurezza più stringenti. Anche perché in questo modo si sosterrebbe l’innovazione e la nascita di startup, dato che le responsabilità dei rischi non ricadrebbero su queste ultime. Diversa invece è la posizione di alcuni Stati, come Germania e Francia, che per ora hanno continuato a preferire un approccio legato solamente al rischio applicato. Anche l’Italia si è allineata su questa posizione.

Cosa propongono in alternativa?

In pratica secondo la lettera sottoscritta da Parigi, Berlino e Roma sarebbe meglio regolamentare i sistemi General Purpose con meri obblighi di trasparenza. Per fare questo sarebbe sufficiente definire una documentazione tecnica che riassuma le informazioni sui modelli addestrati.

Perché questo approccio non convince il Parlamento Ue?

Perché non tiene in debita considerazione il rischio sistemico dell’evoluzione tecnologica. Mi spiego: per i foundation model più potenti non è possibile, ad oggi, prevedere come si svilupperanno. Per questo vanno previste delle regole pre-mercato che ne verifichino i requisiti di sicurezza prima della trasposizione in sistemi e della commercializzazione. Altro punto riguarda i divieti di utilizzo. Vanno vietati – di questo il Parlamento Europeo è fortemente convinto – la sorveglianza e il controllo tramite AI negli spazi pubblici, ad eccezione delle indagini su crimini specifici col via libera di un giudice, così come strumenti di polizia predittiva che in teoria dovrebbero prevedere chi potrebbe commettere un reato. Sistemi usati negli Stati Uniti che stanno mostrando tutti i limiti legati alla presenza di bias, andando a rafforzare pregiudizi di razza e genere.

C’è poi la questione del copyright e della corretta informazione: sistemi di intelligenza artificiale possono violare il diritto d’autore e anche veicolare notizie false. Lì come siete messi?

L’AI Act mira a garantire trasparenza sui contenuti prodotti dall’intelligenza artificiale tramite l’utilizzo obbligatorio da parte degli sviluppatori dei cosiddetti watermarks, ossia “filigrane digitali” nascoste appositamente “seminate” nei testi, video o immagini generate dall’AI, che rendono conoscibile da un qualunque device l’origine non umana del contenuto. Si tratta di un obbligo fondamentale per combattere disinformazione e deep fake. E su questo l’accordo con il Consiglio c’è. Dove ancora non c’è, è sulla questione del copyright dove anche le big tech hanno espresso più di qualche dubbio.

Cosa ha previsto il Parlamento sul diritto d’autore?

Invece di ricorrere a una semplice procedura di opt out per dire “non potete usare i miei contenuti” – crediamo che non sia sufficiente per proteggere gli autori – si chiede agli sviluppatori maggiore trasparenza e dunque li si obbliga a rendere noti “quali” contenuti protetti da copyright sono stati usati nell’addestramento, così da permettere agli autori di chiedere una compensazione se ne ricorrono i presupposti. La questione è complessa tecnicamente e ancora non vede un accordo fra Parlamento Europeo e Consiglio.

Qualcuno, soprattutto tra i giuristi, ha evidenziato un eccessivo ricorso alla parola “accountability” nell’AI Act che rischierebbe di annacquare la normativa. Lei che idea si è fatto?

Stiamo lavorando sul testo per garantire la maggiore certezza legale possibile senza soffocare un mercato che comunque deve crescere. È un tema molto sentito dal Parlamento.

Questo scontro Consiglio-Parlamento rischia di fare deragliare tutto il regolamento?

Come Parlamento auspichiamo che il pacchetto venga varato prima della fine della legislatura (ad aprile 2024 ndr), anche perché il tempo c’è, ma soprattutto c’è già l’accordo sull’impianto generale che individua settori sensibili, ad esempio giustizia, scuole e sanità. Si tratta di ambiti di uso di sistema di intelligenza artificiale considerati ad “alto rischio” e, dunque, richiedono una procedura di verifica di conformità da parte degli sviluppatori che riguarda varie caratteristiche come la qualità e appropriatezza dei dati usati per l’addestramento o ancora la cybersicurezza e l’impatto ambientale. Confidiamo dunque di trovare una quadra complessiva il prossimo 6 dicembre.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4