Creare un “bollino” per identificare i contenuti generati dall’intelligenza artificiale e limitare così la disinformazione. È quanto la Commissione europea chiederà ai rappresentanti di oltre quaranta organizzazioni che hanno aderito al codice di condotta dell’Ue contro la disinformazione, nel corso di un incontro con la vice presidente della Commissione europea per i valori e la trasparenza, Vera Jourova, e il commissario per il mercato interno Thierry Breton.
Twitter fra i grandi assenti
Tra le aziende hi-tech coinvolte anche Microsoft, Google, Meta, TikTok, Twitch, ma non Twitter, che ha lasciato il codice. “Chiederà ai firmatari di creare una traccia dedicata e separata all’interno del codice” per affrontare la disinformazione generata dall’intelligenza artificiale, ha detto Jourova. “Dovrebbe mirare a identificare i rischi specifici di disinformazione presentati dall’AI generativa e adottare misure appropriate per affrontarli”, ha spiegato.
“I firmatari che integrano l’AI generativa nei loro servizi come Bingchat per Microsoft, Bard per Google dovrebbero creare le necessarie garanzie affinché questi servizi non possano essere utilizzati da attori malintenzionati per generare disinformazione”, ha aggiunto Jourova.
Che ha criticato anche la scelta di Twitter. “Twitter ha fatto un errore ad abbandonare il Codice di condotta Ue sulla disinformazione scegliendo la strada più difficile, quella dello scontro – ha detto la commissaria – La Commissione ne prende atto: il Codice è volontario, ma abbandonandolo Twitter ha attirato molta attenzione e le sue azioni e il rispetto delle regole Ue saranno controllate vigorosamente e urgentemente”.
Approccio congiunto Usa-Ue sull’AI
Nei giorni scorsi, in occasione della quarta riunione ministeriale del Consiglio per il commercio e la tecnologia (Ttc) Ue-Usa che si è tenuta a Lulea, in Svezia, Unione europea e Stati Uniti hanno intanto siglato una dichiarazione congiunta in cui si afferma che, per cogliere le potenzialità dell’intelligenza artificiale, le due sponde dell’oceano hanno prima di tutto il compito di mitigare i rischi legati allo sviluppo della nuova tecnologia.
“L’Unione europea e gli Stati Uniti riaffermano il loro impegno a favore di un approccio all’AI basato sul rischio, per far progredire tecnologie di AI affidabili e responsabili – si legge nel documento congiunto -. La cooperazione sui nostri approcci è fondamentale per promuovere un’innovazione responsabile, che rispetti i diritti e la sicurezza e garantisca che l’AI fornisca benefici in linea con i nostri valori democratici condivisi”.
La open letter contro i rischi dell’AI
Il tutto mentre, in una breve open letter (sottoscrivibile online dai membri della comunità scientifica internazionale), alcuni esperti del settore e leader tecnologici, tra cui lo stesso Sam Altman, ceo di OpenAI, che ha dato vita alla piattaforma di intelligenza artificiale generativa ChatGpt, hanno affermato che l’intelligenza artificiale potrebbe portare all’estinzione umana, e la riduzione dei rischi associati a questa tecnologia dovrebbe essere una priorità globale.
“Mitigare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale, insieme ad altri rischi a livello di società come le pandemie e la guerra nucleare”, si legge nella dichiarazione. Altman e i dirigenti del ramo AI di Google DeepMind e di Microsoft sono stati tra coloro che hanno sostenuto e firmato la dichiarazione del Center for AI Safety.