L’Intelligenza artificiale non può sostituire il processo decisionale umano. Sia in campo militare che in quello civile. Per questo una risoluzione approvata in plenaria dal Parlamento europeo chiede l’adozione di una strategia per proibire “sistemi d’arma se non soggetti al controllo umano”, in particolare i “robot assassini”. Non basta: i deputati lanciano un allarme sui pericoli del deepfake e chiedono di vietare “applicazioni invasive che attribuiscono un punteggio sociale” da parte di autorità pubbliche.
Nello specifico, la risoluzione approvata mercoledì chiede un quadro giuridico comunitario sull’AI “con definizioni e principi etici, che coprano anche il suo impiego in campo militare”. Il testo è stato adottato con 364 voti favorevoli, 274 contrari e 52 astensioni.
Ruolo guida della Ue sul settore AI
“Di fronte alle molteplici sfide poste dallo sviluppo dell’AI, abbiamo bisogno di risposte legali – dice il relatore Gilles Lebreton (ID, FR) -. Per preparare la proposta legislativa della Commissione sul tema, questa relazione mira a mettere in atto un quadro che ricordi essenzialmente che in qualsiasi ambito, e specialmente in campo militare e nei settori gestiti dallo Stato come la giustizia e la salute, l’AI deve sempre rimanere uno strumento utilizzato solo per assistere il processo decisionale o per aiutare ad agire. Non deve mai sostituire o sollevare gli esseri umani dalla loro responsabilità”.
Il Parlamento sottolinea che “la dignità umana e i diritti dell’uomo devono essere rispettati in tutte le attività Ue nel campo della difesa. I sistemi abilitati all’IA devono permettere agli esseri umani di esercitare un controllo significativo, in modo da esserne i responsabili dell’utilizzo”.
L’uso di sistemi d’arma autonomi e letali (Laws, Lethal Autonomous Weapon System) solleva questioni etiche e legali fondamentali. I deputati ribadiscono la richiesta di una strategia Ue che li proibisca e la messa al bando dei cosiddetti “robot assassini”. La decisione di selezionare un bersaglio e di compiere un’azione letale utilizzando un sistema d’arma autonomo deve sempre essere presa da un essere umano con adeguato livello di controllo e giudizio, in linea con i principi di proporzionalità e necessità.
“L’Unione – si legge nel testo – deve inoltre assumere un ruolo guida nella creazione e nella promozione di un quadro globale che regoli l’uso militare dell’IA, a fianco dell’Onu e della comunità internazionale”.
L’AI nel settore pubblico
L’aumento dell’uso dei sistemi di IA nei servizi pubblici, specialmente nella sanità e nella giustizia, “non dovrebbe sostituire il contatto umano o generare discriminazioni – spiega il testo -. Le persone dovrebbero essere sempre informate allorché sono soggette a una decisione basata sull’IA e dovrebbero avere la possibilità di fare ricorso”.
Quando l’AI viene utilizzata nell’ambito della salute pubblica (ad esempio, chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato. “Nel settore della giustizia, invece – chiede ancora la risoluzione -, l’uso delle tecnologie dell’IA può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, ma le decisioni finali dei tribunali devono essere prese da esseri umani, rigorosamente verificate da una persona e sottoposte ad un giusto processo”.
Sorveglianza di massa e deepfake
Il testo richiama, inoltre, l’attenzione sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall’uso delle tecnologie di IA nella sorveglianza civile e militare di massa. Il Parlamento europeo chiede che alle autorità pubbliche sia vietato l’uso di “applicazioni altamente invasive di punteggio sociale” (per il monitoraggio e la valutazione dei cittadini).
I deputati sono anche preoccupati dalle tecnologie di deepfake, in quanto hanno il potenziale di “destabilizzare i paesi, diffondere la disinformazione e influenzare le consultazioni elettorali”. I creatori dovrebbero essere obbligati ad etichettare tale materiale come “non originale” e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno.