Tra i pericoli maggiori legati alla diffusione delle soluzioni di intelligenza artificiale ci sono possibili disuguaglianze sociali, che potrebbero far sì che i nuovi sistemi creino scompiglio. A dirlo è Sam Altman che, intervenendo al World Government Summit di Dubai in videochiamata, ha ribadito la sua proposta di creare un organismo simile all’Agenzia Internazionale per l’Energia Atomica per supervisionare lo sviluppo della tecnologia, che probabilmente sta avanzando più velocemente di quanto il mondo si aspetti.
Un piano d’azione con un consenso a livello mondiale
“Ci sono alcuni scenari facili da immaginare in cui le cose potrebbero andare davvero male. E non penso ai robot assassini che camminano per le strade”, ha detto l’amministratore delegato di OpenAI, a cui si deve ChatGpt. “Sono molto più interessato ai sottili disallineamenti sociali che potrebbero, senza particolari intenzioni, creare effetti terribili”. Ecco perché, secondo Altman, sebbene la collaborazione delle aziende sia cruciale, l’industria dell’AI non dovrebbe essere al posto di guida quando si tratta di stabilire le norme che regolano il settore. “Siamo ancora in una fase di grande discussione, e questo va bene. Penso che siamo ancora in un momento in cui il dibattito è necessario e salutare, ma a un certo punto, nei prossimi anni, credo che dovremo passare a un piano d’azione con un reale consenso a livello mondiale“.
Del resto, lo sviluppo dell’AI è ancora agli inizi. “La tecnologia attuale è paragonabile al primo cellulare con lo schermo in bianco e nero“, ha continuato Altman. “Quindi, dateci un po’ di tempo. Ma credo che tra qualche anno sarà molto meglio di adesso. E tra un decennio dovrebbe essere davvero notevole”.
Via libera all’AI Act dalle Commissioni di Bruxelles
Nel frattempo gli eurodeputati delle commissioni Imco (Mercato interno) e Libe (Libertà civili) hanno approvato l’accordo raggiunto nel trilogo con il Consiglio sull’Artificial Intelligence Act, che mira a far sì che la nuova tecnologia venga usata nell’Unione in modo sicuro e rispettando i diritti fondamentali, calibrando gli obblighi sulla base dei rischi potenziali e del livello di impatto. L’accordo è passato con 71 sì, 8 no e 7 astensioni. Si tratta di uno degli ultimi passaggi: dopo il voto in plenaria e l’approvazione finale da parte del Consiglio, le norme si applicheranno in toto 24 mesi dopo l’entrata in vigore.
L’accordo, ricorda il Parlamento Europeo, vieta alcune applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini, tra le quali i sistemi di categorizzazione biometrica basati su caratteristiche sensibili, lo scraping (una tecnica di estrazione dei dati) non mirato di immagini facciali da Internet o filmati Cctv (a circuito chiuso) per database di riconoscimento facciale, riconoscimento delle emozioni sul posto di lavoro e a scuola, punteggio sociale, polizia predittiva basata esclusivamente sulla profilazione di una persona o sulla valutazione delle sue caratteristiche e l’intelligenza artificiale che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.
L’utilizzo di sistemi di identificazione biometrica (Rbi) da parte delle forze dell’ordine è in linea di principio vietato, tranne che in situazioni tassativamente elencate e strettamente definite. L’Rbi ”in tempo reale” può essere attuato solo con rigorose garanzie: per esempio, deve essere limitato nel tempo e nell’ambito geografico, e solo dopo autorizzazione giudiziaria o amministrativa. Questi usi riguardano, per esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. Anche l’utilizzo di questi sistemi successivamente al fatto (‘post-remote Rbi’), considerato ad alto rischio, richiede l’autorizzazione giudiziaria e deve essere collegato a un reato penale.
I vincoli per gli usi ad alto rischio
Sono stati concordati obblighi chiari anche per altri sistemi di AI ad alto rischio, che potrebbero avere un impatto significativo sulla salute, sulla sicurezza, sui diritti fondamentali, sull’ambiente, sulla democrazia e sullo Stato di diritto. Gli usi ad alto rischio includono quelli nelle infrastrutture critiche, nell’istruzione e nella formazione professionale, nell’occupazione, nei servizi essenziali (ad esempio assistenza sanitaria e finanza), nella gestione della migrazione e delle frontiere, nella giustizia e nei processi democratici (ad esempio influenzando le elezioni). I cittadini avranno il diritto di presentare reclami sui sistemi di intelligenza artificiale e ricevere spiegazioni sulle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che ledono i loro diritti.
Le norme dedicate all’AI per scopi generali
I sistemi di intelligenza artificiale per scopi generali (Gpai) e i modelli su cui si basano devono inoltre soddisfare determinati requisiti di trasparenza e rispettare la normativa Ue sul diritto d’autore durante la loro formazione. Modelli Gpai più potenti che potrebbero comportare rischi sistemici dovranno avere requisiti aggiuntivi, tra cui l’esecuzione della valutazione di modello, la valutazione del rischio e la segnalazione degli incidenti. Inoltre, immagini, contenuti audio o video artificiali o manipolati (deepfake) devono essere chiaramente etichettati come tali. Saranno istituite a livello nazionale sandbox normative e test nel mondo reale, offrendo alle Pmi e alle start-up opportunità di sviluppare e formare un’intelligenza artificiale innovativa prima del collocamento sul mercato.