Un trattato vincolante sull’AI in Europa. Lo chiede la Germania, che detiene la presidenza del comitato dei ministri del Consiglio d’Europa, nelle conclusioni della conferenza “I diritti umani nell’era dell’AI” organizzata dal governo tedesco insieme al Consiglio d’Europa.
Berlino “sostiene con forza la necessità di elaborare un trattato vincolante che ponga le basi per qualsiasi applicazione d’intelligenza artificiale” (AI) e testi per aree specifiche “che potranno essere vincolanti o meno sulla base del rischio che queste rappresentano per i diritti umani, la democrazia e lo stato di diritto”.
“Abbiamo bisogno di una cooperazione multilaterale per fissare standard internazionali”, ha spiegato il ministro degli Esteri tedesco, Heiko Maas, sottolineando che “l’Europa deve costruire un suo modello digitale che ponga al centro gli esseri umani” per offrire un’alternativa ai modelli della Cina e della Silicon Valley.
La Germania ritiene che un futuro testo vincolante debba contenere requisiti specifici per l’AI che assicurino la trasparenza, la qualità dei dati usati, l’autonomia umana, un numero sufficiente di opzioni per ricorrere e ottenere giustizia in caso di violazioni dei diritti, e un meccanismo efficace che garantisca il rispetto delle regole. Berlino chiede inoltre di considerare la possibilità di vietare o sospendere le applicazioni AI che possono costituire un rischio grave o ignoto per i diritti umani, la democrazia e lo stato di diritto.
Le preoccupazione circa gli sviluppi dell’AI hanno messo in allarme anche le istituzioni europee. Nei giorni scorsi il Parlamento Ue ha approvato in plenaria una risoluzione che chiede l’adozione di una strategia per proibire “sistemi d’arma se non soggetti al controllo umano”, in particolare i “robot assassini”.
Inoltre i deputati lanciano un allarme sui pericoli del deepfake e chiedono di vietare “applicazioni invasive che attribuiscono un punteggio sociale” da parte di autorità pubbliche.
Nello specifico, la risoluzione approvata mercoledì chiede un quadro giuridico comunitario sull’AI “con definizioni e principi etici, che coprano anche il suo impiego in campo militare”. Il testo è stato adottato con 364 voti favorevoli, 274 contrari e 52 astensioni.
Ruolo guida della Ue sul settore AI
“Di fronte alle molteplici sfide poste dallo sviluppo dell’AI, abbiamo bisogno di risposte legali – dice il relatore Gilles Lebreton (ID, FR) -. Per preparare la proposta legislativa della Commissione sul tema, questa relazione mira a mettere in atto un quadro che ricordi essenzialmente che in qualsiasi ambito, e specialmente in campo militare e nei settori gestiti dallo Stato come la giustizia e la salute, l’AI deve sempre rimanere uno strumento utilizzato solo per assistere il processo decisionale o per aiutare ad agire. Non deve mai sostituire o sollevare gli esseri umani dalla loro responsabilità”.
Il Parlamento sottolinea che “la dignità umana e i diritti dell’uomo devono essere rispettati in tutte le attività Ue nel campo della difesa. I sistemi abilitati all’IA devono permettere agli esseri umani di esercitare un controllo significativo, in modo da esserne i responsabili dell’utilizzo”.
L’uso di sistemi d’arma autonomi e letali (Laws, Lethal Autonomous Weapon System) solleva questioni etiche e legali fondamentali. I deputati ribadiscono la richiesta di una strategia Ue che li proibisca e la messa al bando dei cosiddetti “robot assassini”. La decisione di selezionare un bersaglio e di compiere un’azione letale utilizzando un sistema d’arma autonomo deve sempre essere presa da un essere umano con adeguato livello di controllo e giudizio, in linea con i principi di proporzionalità e necessità.
“L’Unione – si legge nel testo – deve inoltre assumere un ruolo guida nella creazione e nella promozione di un quadro globale che regoli l’uso militare dell’IA, a fianco dell’Onu e della comunità internazionale”.
L’AI nel settore pubblico
L’aumento dell’uso dei sistemi di IA nei servizi pubblici, specialmente nella sanità e nella giustizia, “non dovrebbe sostituire il contatto umano o generare discriminazioni – spiega il testo -. Le persone dovrebbero essere sempre informate allorché sono soggette a una decisione basata sull’IA e dovrebbero avere la possibilità di fare ricorso”.
Quando l’AI viene utilizzata nell’ambito della salute pubblica (ad esempio, chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato. “Nel settore della giustizia, invece – chiede ancora la risoluzione -, l’uso delle tecnologie dell’IA può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, ma le decisioni finali dei tribunali devono essere prese da esseri umani, rigorosamente verificate da una persona e sottoposte ad un giusto processo”.
Sorveglianza di massa e deepfake
Il testo richiama, inoltre, l’attenzione sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall’uso delle tecnologie di IA nella sorveglianza civile e militare di massa. Il Parlamento europeo chiede che alle autorità pubbliche sia vietato l’uso di “applicazioni altamente invasive di punteggio sociale” (per il monitoraggio e la valutazione dei cittadini).
I deputati sono anche preoccupati dalle tecnologie di deepfake, in quanto hanno il potenziale di “destabilizzare i paesi, diffondere la disinformazione e influenzare le consultazioni elettorali”. I creatori dovrebbero essere obbligati ad etichettare tale materiale come “non originale” e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno.