La Commissione europea ha adottato la proposta di strategia sull’intelligenza artificiale, “il nostro primo quadro legale” sull’Ai, come sottolineato dalla vice presidente esecutiva Margrethe Vestager nel suo speech di presentazione. “L’intelligenza artificiale è una fantastica opportunità per l’Europa. E i cittadini meritano tecnologie di cui possono fidarsi”, ha twittato la presidente della Commissione Ursula von der Leyen. “Oggi presentiamo nuove regole per un’Ai affidabile. Stabiliscono standard elevati in base ai diversi livelli di rischio. Presentiamo anche un piano coordinato per delineare le riforme e gli investimenti di cui abbiamo bisogno per garantire la nostra posizione di leader in Ai, a livello mondiale”, ha continuato la presidente dell’esecutivo Ue. “Con quasi 150 miliardi di euro di investimenti digitali – il 20% del budget – Next Generation Eu contribuirà a rafforzare l’eccellenza nell’Ai dell’Unione europea”.
“Un ecosistema di fiducia e di eccellenza”
Il trust è il primo pilastro dell’approccio europeo all’intelligenza artificiale, ha sottolineato da Vestager: “Il nostro obiettivo è fare dell’Europa la leader globale nello sviluppo di un’intelligenza artificiale sicura, affidabile e centrata sull’essere umano”.
“Un ecosistema di fiducia va a braccetto con un ecosistema di eccellenza”, ha proseguito la vice presidente della Commissione europea. “Da un lato la nostra regolamentazione affronta i rischi per le società e le persone associati a specifici utilizzi dell’Ai. E questo serve a creare il trust. Dall’altro lato, il nostro piano coordinato indica i passi necessari per gli Stati membro per aumentare gli investimenti e l’innovazione. E questo è per garantire l’eccellenza. Insieme questi due elementi servono ad assicurare che rafforziamo l’adozione dell’Ai in Europa”.
Solo costruendo sistemi Ai di cui si si fida arriveranno gli attesi benefici sociali ed economici. Per questo la proposta della Commissione non prende in considerazione l’Ai come tecnologia in sé e per sé ma per i suoi utilizzi. Le applicazioni sono classificate in quattro categorie, dalle meno alle più rischiose. Più alti i rischi più severe le regole: “È un approccio proporzionale e basato sul rischio che l’Ai può avere sulle nostre vite”, ha spiegato Vestager.
Quattro Ai in base al rischio. Multe per chi viola le regole
Come in una piramide, la base dell’Ai è formata dalla maggioranza delle applicazioni, con rischi minimi o inesistenti. Per esempio, i filtri nella casella di posta che bloccano i messaggi spam. Oppure, in un’azienda, le tecnologie che minimizzano i rifiuti per evitare lo spreco delle risorse. Bruxelles intende permettere un libero uso di tali applicazioni, senza restrizioni se non le norme già vigenti per la protezione dei consumatori.
Un secondo gradino è rappresentato dagli usi dell’Ai con rischi limitati, come la chatbot di un sito web che ci guida nell’acquisto di un prodotto. Sono applicazioni permesse ma soggette ad obblighi di trsparenza, affinché sia sempre chiaro all’utente che sta interagendo con un software.
Avvicinandosi alla cima della piramide troviamo le applicazioni ad “alto rischio”. Queste sono il focus principale della proposta normativa della Commissione europea. Questi usi sono considerati rischiosi perché interferiscono con aspetti importanti delle nostre vite. Per esempio, l’Ai che filtra i curricumulum dei candidati a un psoto di lavoro o la richiesta di un prestito o un mutuo dal cliente di una banca. O ancora, i software per le auto a guida autonoma o per i dispositivi medici. Questi sistemi Ai saranno soggetti a un nuovo set di regole.
Saranno i singoli Stati membro ad occuparsi di valutare se i sistemi Ai soddisfano i necessari obblighi. Gli stessi Stati individueranno l’autorità competente a vigilare sulla compliance – anche più autorità, a seconda dei casi, come il Garante privacy o l’Antitrust.
In caso di fornitori di sistemi Ai che più volte violano le regole sono previste sanzioni. La multa potrà arrivare fino al 6% del suo fatturato annuo globale.
Le regole per l’Ai “rischioso”
Sono cinque gli obblighi fondamentali cui dovrà sottostare l’Ai negli utilizzi ad alto rischio. I fornitori di queste soluzioni dovranno immettere in questi sistemi dati di altissima qualità per evitare risultati discriminatori; dovranno fornire documentazione dettagliata sul funzionamento dei loro sistemi Ai alle autorità competenti; dovranno condividere con gli utenti le informazioni fondamentali per permettere loro di usare appropriatamente i sistemi Ai; dovranno garantire un livello adeguato di supervisione umana nella progettazione e uso di questi sistemi; e infine dovranno rispettare i più alti standard di cybersicurezza e accuratezza.
Gli usi dell’Ai proibiti e la biometria
Ma esiste anche la punta della piramide. Pochi – limitati – usi dell’Ai così rischiosi che la Commissione ha deciso di proibirli in quanto “inaccettabili”.
Sono i sistemi Ai che usano tecniche subliminali per arrecare danno fisico o psicologico alle persone; per esempio, l’assistente vocale di un giocattolo che manipola la mente di un bambino e lo induce a un comportamento pericoloso. “Questi usi non hanno alcun posto in Europa”, ha affermato Vestager. “Proponiamo di vietarli”.
Allo stesso modo la Commissione europea mette al bando le applicazioni Ai che sono contrarie ai valori fondamentali dell’Europa, come i sistemi di social scoring che classificano le persone in base al comportamento sociale. Per esempio, un cittadino che accumula multe o ritardi nei pagamenti avrebbe uno score sociale basso e ciò potrebbe influire sulla decisione delle autorità di interagire con queste persone o portare le banche a respingere richieste di credito. Anche questi sistemi non avranno posto in Ue.
Tra la categoria ad alto rischio e quella degli usi proibiti si colloca l’identificazione biometrica. La Commissione ritiene accettabile, ma soggetta a stringenti requisiti, la biometria per i controlli alle dogane o per la firma tramite riconoscimento facciale.
È invece inaccettabile e vietata la sorveglianza di massa, ovvero l’uso dell’identificazione biometrica remota da parte delle forze dell’ordine nei luoghi pubblici. Questa applicazione, nella proposta di Bruxelles va vietata. Avrà pochissime deroghe, come per la ricerca di minori scomparsi.