Chiarire i ruoli dei produttori e fornitori di sistemi di intelligenza artificiale per consentire “una corretta attribuzione di responsabilità sia in termini di protezione dei dati sia in termini di responsabilità civile”.
Il Comitato europeo per la protezione dei dati personali (Edpb) ha inviato alla Commissione Europea una lettera nella quale ha rivolto alcune raccomandazioni riguardo all’Artificial Intelligence Act (AI Act) proposto recentemente dalla Commissione Ue anche richiamandosi al recente parere congiunto adottato sull’AI Act con l’Edps (Garante europeo della protezione dei dati).
I Garanti europei hanno accolto con favore l’iniziativa che mira ad adeguare le norme in materia di responsabilità civile nell’era digitale e alla luce dell’impiego dell’intelligenza artificiale ma hanno sottolineato, in primo luogo, la necessità di chiarire i ruoli di produttori e fornitori di questi sistemi.
La lettera evidenzia inoltre l’opportunità di assicurare agli utenti la trasparenza riguardo all’impiego di sistemi di AI attraverso idonee informazioni sui meccanismi di elaborazione dei dati.
I Garanti ricordano infatti che, poiché non sempre risulta possibile illustrare in modo chiaro ed esaustivo il funzionamento di sistemi di AI, “vi è la necessità di progettare questi sistemi in modo conforme ai principi di protezione dati, verificando costantemente la qualità dei dati e dei processi di elaborazione”, spiegano.
In terzo luogo, è essenziale per il Comitato europeo per la protezione dei dati personali la valutazione preliminare della qualità dei dati utilizzati dagli algoritmi.
“Per creare un ambiente tecnologico affidabile e limitare gli effetti negativi di decisioni errate, la misurabilità del grado di equità e causalità delle decisioni algoritmiche dovrebbe costituire un pilastro delle nuove regole”, sottolineano.
L’Edpb sottolinea, infine, che la nuova normativa sulla responsabilità civile dovrà essere efficace come legislazione a sé stante e non ricalcare semplicemente gli obblighi previsti dal futuro AI Act.
L’AI Act, cos’è e cosa prevede
L’AI Act, attualmente al vaglio istituzioni dell’Unione Europea, proposto dalla Commissione Europea e in attesa di approvazione da parte del Parlamento e Consiglio Europeo prima della partenza definitiva, è nato per promuovere sistemi tecnologici “sicuri, trasparenti, etici, imparziali e sotto il controllo umano” e mira a categorizzare i sistemi di AI, dal rischio minimo a quello più elevato (inaccettabile) per i quali sono previsti diversi livelli di “limitazioni”.
Rischio inaccettabile. Tutto ciò che è considerato una chiara minaccia per i cittadini dell’Ue sarà vietato: dai sistemi di credito sociale utilizzati dai governi ai giocattoli con assistenza vocale che incoraggia comportamenti pericolosi dei bambini.
Rischio elevato.
- Infrastrutture critiche (ad es. i trasporti) che potrebbero mettere a rischio la vita e la salute dei cittadini
- Istruzione o formazione professionale, che può condizionare l’accesso all’istruzione e alla vita professionale di una persona (ad es. punteggio degli esami)
- Componenti di sicurezza dei prodotti (ad es. applicazione dell’IA nella chirurgia robotica)
- Occupazione, gestione dei lavoratori e accesso al lavoro autonomo (ad es. software di selezione dei CV per le procedure di assunzione)
- Servizi pubblici e privati essenziali (ad es. sistemi di credito sociale che negano ai cittadini l’opportunità di ottenere un prestito)
- Attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad es. valutazione dell’affidabilità delle prove)
- Gestione della migrazione, dell’asilo e del controllo delle frontiere (ad es. verifica dell’autenticità dei documenti di viaggio)
- Amministrazione della giustizia e processi democratici (ad es. applicazione della legge a una serie concreta di fatti)
Questi aspetti saranno attentamente valutati prima di essere immessi sul mercato e durante tutto il loro ciclo di vita.
Rischio limitato. I sistemi di AI come i chatbot sono soggetti a obblighi minimi di trasparenza, intesi a consentire a coloro che interagiscono con il contenuto di prendere decisioni informate. L’utente può quindi decidere di continuare o di rinunciare all’utilizzo dell’applicazione.
Rischio minimo. Uso gratuito di applicazioni quali videogiochi o filtri spam che sfruttano l’IA. La grande maggioranza dei sistemi di AI rientra in questa categoria in cui le nuove norme non intervengono in quanto tali sistemi rappresentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.