Una task force europea su ChatGpt. A seguito del provvedimento di limitazione provvisoria del trattamento, adottato dal Garante per la protezione dei dati personali italiano lo scorso 30 marzo nei confronti di ChatGpt, gestita dalla società statunitense OpenAI, i Garanti della privacy europei, riuniti nel Comitato europeo per la protezione dei dati (Edpb), hanno deciso di lanciare una task force su ChatGpt.
L’obiettivo della task force
L’obiettivo della task force è di promuovere la cooperazione e lo scambio di informazioni su eventuali iniziative per l’applicazione del Regolamento europeo condotte dalle Autorità di protezione dati.
Ieri, dopo una serie di interlocuzioni con i rappresentati di OpenAI, il Garante italiano ha indicato alcune prescrizioni su trasparenza, diritti degli interessati e base giuridica del trattamento effettuato da ChatGpt, da adempiere entro il 30 aprile 2023.
L’appello di 50 esperti alla Ue
Più di 50 tra esperti e firmatari istituzionali stanno sollecitando i legislatori europei a includere l’intelligenza artificiale (AI) “per uso generale” (Gpai) nei suoi regolamenti, piuttosto che la più ristretta definizione di “AI ad alto rischio”.
Il gruppo, in particolare, suggerisce che i responsabili politici europei prendano provvedimenti per rendere la legislazione future-proof, ad esempio evitando di limitare le regole a determinati tipi di prodotti, come i chatbot. E avvertono che gli sviluppatori non dovrebbero essere in grado di sottrarsi alla responsabilità incollando un disclaimer legale standard.
Regolamentare “lungo tutto il ciclo di vita” della tecnologia
L’appello, che guarda in particolare alla stesura dell’AI Act dell’Unione europea, è contenuto in un policy brief (SCARICA QUI IL DOCUMENTO) sottoscritto da soggetti di varia natura, fra cui istituzioni come la Mozilla Foundation ed esperti come Timnit Gebru. Nella sostanza, il documento afferma che, anche se gli strumenti generici potrebbero non essere progettati pensando a usi ad alto rischio, potrebbero essere utilizzati in contesti diversi che li rendono più rischiosi. Il gruppo indica, a tal proposito, strumenti di intelligenza artificiale generativa che sono diventati popolari negli ultimi mesi, come ChatGpt.
Secondo Mehtab Khan, firmatario e capo della Yale/Wikimedia Initiative su intermediari e informazioni, la regolamentazione dovrebbe prendere in considerazione il modo in cui viene sviluppata l’intelligenza artificiale, incluse le modalità di raccolta dei dati, chi è stato coinvolto nella raccolta e nella formazione della tecnologia e altro ancora.
“La Gpai dovrebbe essere regolamentata durante tutto il ciclo del prodotto e non solo a livello di applicazione”, ha affermato Khan, aggiungendo che le semplici etichette di rischio alto e basso “non catturano intrinsecamente il dinamismo” della tecnologia.
Un precedente per tutto il mondo
“L’AI dell’Ue è pronta a diventare, per quanto ne sappiamo, il primo regolamento omnibus per l’intelligenza artificiale”, ha affermato Sarah Myers West, amministratore delegato dell’AI Now Institute che ha contribuito a guidare il policy brief. “E quindi, dato questo, diventerà il precedente globale. Ed è per questo che è particolarmente importante che metta in campo bene questa categoria di intelligenza artificiale, perché potrebbe diventare il modello che altri seguiranno”.