L’INTERVENTO

Gentiloni: “Visione ingenua sui social media”. E scatta l’allarme sui software che riproducono volti e voci



Indirizzo copiato

Il commissario Ue accende i riflettori sulla disinformazione dilagante, altro che democratizzazione. E con l’intelligenza artificiale aumentano i pericoli cyber. Federprivacy si appella alle istituzioni: “Serve un approfondimento giuridico su una pericolosa situazione che rischia di minare alle fondamenta la tutela della privacy”. Nel mirino le piattaforme che consentono la “clonazione” virtuale

Pubblicato il 27 ago 2024



gentiloni

“Nelle speranze di molti, l’ascesa dei social media avrebbe dovuto democratizzare l’accesso alle informazioni e fornire un nuovo mercato digitale delle idee. Oggi vediamo fin troppo chiaramente che questa visione era a dir poco ingenua. La diffusione della disinformazione online ha prodotto l’incapacità di mettersi d’accordo persino sui fatti di base, con algoritmi che premiano chi fa appello alle nostre emozioni peggiori – alla paura, all’odio”. Lo ha dichiarato Paolo Gentiloni, il commissario europeo per gli Affari economici e monetari, durante il suo intervento a Venezia, alla quinta conferenza del Soft Power Club, organizzata da Francesco Rutelli.

Social e fake news rischiano minare le nostre democrazie, ha proseguito il commissario: “La nostra democrazia si basa su un confronto pacifico tra idee. Si tratta di convincere una maggioranza a sostenere questa o quella politica non attraverso la paura o l’intimidazione, ma attraverso il potere della persuasione – un soft power per eccellenza”, ha detto Gentiloni.

AI, deepfake e disinformazione: democrazie a rischio

Particolarmente insidiosi sono i progressi dell’intelligenza artificiale, che, insieme a grandi promesse, portano con sé anche i “video deepfake indistinguibili dalla realtà”, ha sottolineato Gentiloni, “troppo spesso sfruttati da attori malintenzionati, intenzionati a seminare discordia nelle nostre società. Questa maggiore polarizzazione rischia di creare campi contrapposti che vivono nelle proprie torri d’avorio, incapaci di trovare un terreno comune”.

Il trend preoccupa soprattutto negli Stati Uniti, ma non va sottovalutato anche in Europa. “La fiducia, come ha detto Robert Putnam, è una componente essenziale della coesione sociale. Se non ci si può più fidare di ciò che si vede e si sente, anche questo può iniziare a incrinarsi. Questi sviluppi, se non controllati, rischiano in definitiva di minare le nostre democrazie”, ha affermato Gentiloni.

Non a caso, nell’ultimo sondaggio di Eurobarometro l’86% degli intervistati ha rilevato che la rapida diffusione della disinformazione è un grosso problema per la democrazia. “Credo che dobbiamo tornare ad Aristotele e al valore dell’ethos”, ha indicato Gentiloni. “Le nostre istituzioni rimarranno credibili se saranno in grado di affrontare le grandi sfide economiche e sociali del nostro tempo: crescita sostenibile, clima, sicurezza, IA”.

Il soft power dell’Ue: “La prossima Commissione sia ambiziosa”

Gentiloni ha poi citato l’AI Act, “che ha reso l’Ue la prima giurisdizione al mondo a regolamentare l’intelligenza artificiale e a richiedere, tra l’altro, un’etichetta chiara per i contenuti audio e video artificiali o manipolati. Dare l’esempio è fondamentale per mantenere la capacità di persuasione e quindi esercitare il nostro soft power. Le altre giurisdizioni prestano molta attenzione a ciò che facciamo in Europa. Lo abbiamo visto chiaramente anche nella nostra legislazione sul clima”.

Per questo, ha concluso Gentiloni, “è importante che la prossima Commissione abbia un programma ambizioso, che rafforzi la posizione economica europea all’interno e quella geopolitica all’estero. Con il potere di persuasione, che deriva dai nostri valori e dalle nostre politiche, l’Ue può continuare a svolgere il suo ruolo di soft power preminente a livello mondiale”.

Federprivacy alle istituzioni: “Serve un approfondimento giuridico”

La rapida evoluzione dell’intelligenza artificiale rende sempre più difficile riconoscere un “fake” dalla realtà e le nuove tecnologie possono talvolta essere sfruttate anche dai malintenzionati: lo ribadisce Federprivacy, l’associazione dei professionisti della protezione dei dati, in una nota in cui mette in evidenza il caso di “Deep-Live-Cam”, un software che permette all’utente di sostituirsi a qualunque persona usandone il volto, non solo per realizzare un video statico, ma anche per fare una diretta streaming in tempo reale.

Il caso allarma sui fronte privacy e compliance: questo programma è scaricabile liberamente sul web e non servono particolari competenze informatiche, basta una semplice foto di chi si desidera impersonare. A parte generiche raccomandazioni di utilizzarlo “in modo responsabile rispettando le leggi locali”, e “ottenendo il consenso della persona interessata”, il fornitore non dà alcuna documentazione che ne indichi la conformità alla normativa sulla privacy, come evidenzia Nicola Bernardi, presidente di Federprivacy. “Gli sviluppatori devono fornire chiare istruzioni per utilizzare il software in modo lecito e dare evidenza in modo trasparente della loro conformità alle normative vigenti, altrimenti gli utenti saranno indotti a pensare che possono fare tutto ciò che quella tecnologia consente loro”, afferma Bernardi. “La possibilità di sostituirsi così facilmente a un’altra persona spalanca la porta a criminali che possono facilmente truffare persone in buona fede, e anche a predatori sessuali che possono adescare minori camuffandosi da loro coetanei semplicemente recuperando delle foto dai social”.

Ovviamente, coloro che usano questi programmi non possono fare indiscriminatamente tutto ciò che vogliono pensando di rimanere impuniti, anche se le normative esistenti da sole potrebbero non bastare, come spiega l’Avv. Vittorio Lombardi, membro del Consiglio Direttivo di Federprivacy: “L’assunzione abusiva dell’identità altrui integra il delitto di sostituzione di persona punito dall’art. 494 del Codice penale, oltre a tutti gli altri deprecabili reati che conseguono potenzialmente da una condotta illecita attuata con l’ausilio di un software di intelligenza artificiale, come la truffa, la pedofilia, il revenge porn, nonché i reati informatici di cui all’art 615 bis. La diffusione di programmi come Deep-Live-Cam impone alle istituzioni l’obbligo di un approfondimento giuridico su una pericolosa situazione che rischia di minare alle fondamenta la tutela della privacy, l’identità personale, e soprattutto i minimali princìpi su cui si fonda l’intera coesione sociale”.

Già dal 2018 esiste il Gdpr che tutela la privacy dei cittadini europei e di recente l’Ue ha anche approvato un nuovo Regolamento sull’intelligenza artificiale (AI Act), che però assumerà piena efficacia tra due anni, ma nel frattempo per Federprivacy è auspicabile che le istituzioni si attivino per arginare il rischio di vedere un boom di truffe e furti d’identità.

Articoli correlati

Articolo 1 di 5