LA RELAZIONE ANNUALE

Intelligenza artificiale, Stanzione: “No all’uomo di vetro”

Il Garante Privacy: “Bisogna definire un limite alla tecnica, al diritto, al potere e all’ideologia del controllo”. Riflettori sulla tech war Usa-Cina sui chip: “Sembra delinearsi una nuova, ma non meno temibile, guerra fredda, sempre più ‘privatizzata’ e ibrida per l’incidenza delle big tech nelle dinamiche belliche”

Pubblicato il 06 Lug 2023

pasquale stanzione

L’impatto dell’intelligenza artificiale sulla vita delle persone, l’effetto delle tensioni geopolitiche sulla privacy e il ruolo che giocano le big tech in questo contesto di profonda trasformazione. Sono i punti chiave della Relazione Annuale del Garante Privacy.

“La relazione che oggi presento espone alcune delle sfide cui l’Autorità è stata chiamata nel corso di quest’anno, di particolare rilevanza sotto il profilo sociale, etico, giuridico, persino democratico – ha esordito il presidente dell’Autorità, Pasquale Stanzione alla Camera – mentre altre, non meno importanti, iniziano a delinearsi con la forza delle grandi questioni epocali”.

Privacy, la sfida tecnica e geopolitica

Stanzione ha ricordato come la privacy negli anni si sia affermata come potente strumento di redistribuzione del potere informativo, di fronte al quale la persona rischia di divenire sempre più vulnerabile. E oggi la sfida è rendere questo diritto di libertà protagonista di uno sviluppo inclusivo e umano-centrico del digitale.  

“Con l’urgenza delle più forti istanze democratiche emerge infatti, progressivamente più chiara, la necessità di uno statuto, giuridico ma anche etico, delle neotecnologie, che ne promuova massimamente lo sviluppo, ma al servizio della persona, della solidarietà, dei diritti fondamentali”, ha evidenziato Stanzione.

Con il ritorno, alle porte dell’Europa, della guerra e l’inasprirsi della tarde war Usa-Cine, che ha effetti anche sulla Ue, sembra infatti delinearsi – secondo Stanzione –  una nuova, ma non meno temibile, guerra fredda, sempre più “privatizzata” e ibrida per l’incidenza delle big tech nelle dinamiche belliche.  

Basti pensare all’intelligenza artificiale. “L’autonomia decisionale che taluni sistemi d’intelligenza artificiale sono pronti a sviluppare preoccupa dunque, anche in campo militare, soprattutto in uno scenario internazionale ancora dominato dalla guerra – ha spiegato – Si temono, infatti, rischi non fronteggiabili neppure con quel, pur innovativo, “codice etico” per un’intelligenza artificiale, “responsabile” in campo bellico, adottato dagli Usa già due anni fa, all’insegna della trasparenza e della supervisione umana”.

Di qui la necessità e l’urgenza di regolare questi sistemi. E Stanzione fa riferimento anche l’effetto attrattivo delle norme europee nel promuovere la regolazione delle nuove tecnologie a livello globale, sottolineando ancora una volta l’importanza di garantire la protezione dei dati e la tutela della persona rispetto al potere della tecnica a livello universale.

Verso il futuro

AI Act, Digital Markets Act e Digital Services Act sono esempi di un modello regolamentare tutto europeo: si tratta di provvedimenti accomunati dall’esigenza di riequilibrare il rapporto tra Stato e mercato, persona e tecnica, libertà e innovazione.  

“Anche nel metodo, la regolazione europea delinea un modello notevolmente distante, tanto da quello liberista americano, quanto da quello statalista cinese, regolando non la tecnica, ma i suoi vari usi, in una prospettiva il più possibile “future-proof”, ha sottolineato Stanzione.

La regolamentazione europea infatti si basa su una tassonomia dei livelli di rischio dei diversi usi dell’intelligenza artificiale, vietando quelli che potenzialmente violano la dignità umana o amplificano le discriminazioni. Ad esempio, sono vietate le tecniche subliminali o manipolative che sfruttano le vulnerabilità delle persone o i sistemi di social scoring.

Tuttavia, come ha ricordato il Garante, alcune applicazioni che mirano a favorire l’inclusione sociale possono invece contribuire a creare ulteriori divisioni, a causa di discriminazioni algoritmiche sempre più opache e difficili da individuare. La classificazione delle persone in base al comportamento sociale, alla condizione socio-economica o alle caratteristiche soggettive può essere problematica se affidata a un algoritmo con bias che possono distorcerne i risultati.

Nel campo della ricerca, inoltre, l’uso dell’intelligenza artificiale  può essere valorizzato grazie alla condivisione dei dati a fini solidaristici e di promozione della ricerca, come previsto dal Data Governance Act, che introduce l’innovativo concetto di “altruismo dei dati”.

Nel settore investigativo, il Regolamento sull’intelligenza artificiale impone limiti rigorosi per evitare un eccesso di potere investigativo e la delega acritica all’algoritmo. Ad esempio, è vietato l’uso del riconoscimento facciale in luoghi pubblici.

“L’utilizzo dell’intelligenza artificiale nel settore investigativo necessita, infatti i cautele tali da scongiurare il rischio della delega all’algoritmo – tutt’altro che immune da errori – di attività potenzialmente incidenti sulla libertà personale e della sorveglianza massiva”.

Il timore, dunque, non riguarda solo quel “pendio scivoloso” verso una società ipercontrollata, ma anche e soprattutto il fatto che una limitazione progressiva della libertà venga accettata acriticamente dalla società.

L’uomo di vetro 

Stanzione ha poi messo in risalto l’importanza di garantire protezioni adeguate per evitare gli effetti negativi dell’intelligenza artificiale (AI) sulla società. Le norme di protezione dei dati, come il divieto di discriminazione e il diritto alla spiegazione, rappresentano un elemento cruciale per limitare l’uso scorretto dei dati personali e preservare la libertà e la dignità delle persone, soprattutto dei minori.  

Il caso Chat Gpt è, in questo senso, significativo. “L’intervento del Garante ha, infatti, consentito di indirizzare lo sviluppo di questa forma d’intelligenza artificiale generativa in una direzione compatibile con la tutela della persona, contrastando lo sfruttamento di quei frammenti dell’io che sono i dati personali”, ha spiegato riferendosi al blocco temporaneo della app. Secondo Stanzione dunque l’uso dell’intelligenza artificiale, non presidiato da alcune necessarie garanzie, avrebbe esposto gli utenti, soprattutto se minori, a rischi non irrilevanti.  

Questo vale anche per le ulteriori frontiere dell’intelligenza artificiale nel campo, ad esempio, delle neuroscienze, dove si è realizzato un decoder “semantico” dell’attività neurale a partire dai dati forniti da una risonanza magnetica funzionale, combinando scansione cerebrale e database di modelli linguistici, come quelli usati da Chat Gpt.

“Si tratta di un’innovazione potenzialmente rivoluzionaria, capace di apportare benefici senza precedenti per la cura di stati neurodegenerativi e, per ciò, meritevole di sviluppo, purché con l’adozione di ogni misura necessaria a impedire derive post-umaniste”, ha chiarito.  

Serve dunque porre un indirizzo e un limite etico e giuridico alla “volontà di potenza della tecnica” altrimenti  il rischio è che “le tecniche divengano sempre più opache, mentre le persone sempre più trasparenti, secondo l’idea dell’uomo di vetro cara a sistemi tutt’altro che democratici”.

Il metaverso  

Rischi non meno trascurabili pone il metaverso, destinato ad avere implicazioni dirimenti sulla società e sulla stessa antropologia contemporanea. “Rispetto al metaverso, andranno adottate tutte le misure necessarie ad impedire un’eccessiva dipendenza, soprattutto dei giovani, da questa dimensione quasi onirica, capace di alienarli dalla realtà e di svincolarli dal rapporto con essa, proiettandoli nello spazio dell’infinitamente possibile”.  

La solitudine digitale  

“Se confondiamo la persona con la sua immagine, se non interveniamo sul male che si compie, ma lo filmiamo, rinunciamo a cogliere, della tecnica, le sue straordinarie potenzialità inclusive e ci condanniamo a un’inconsapevole solitudine digitale, celata da una malintesa idea di connessione totale – ha avvertito Stanzione – Perché, nel rapporto impari con la tecnica e la sua potenza geometrica, la più grande vulnerabilità della persona (soprattutto, ma non solo minorenne) è la sua solitudine, il suo confrontarsi, quasi inerme, con un potere che rischia di divenire insindacabile e totalizzante, più dei vecchi arcana imperii”   

La disciplina di protezione dei dati mira a colmare questo vuoto, riequilibrando il rapporto tra uomo e tecnica nel segno della tutela dei diritti e delle libertà.

E questo anche rispetto a un’altra accezione della solitudine digitale: l’autismo informativo e relazionale cui, paradossalmente, ci costringe la rete, relegandoci in “filter bubbles” alimentate dei soli contenuti ritenuti affini al profilo di utente stilato, con il pedinamento digitale, dall’algoritmo.

“Ed è significativo che nell’Artificial Intelligence Act i sistemi di raccomandazione con valenza condizionante le scelte elettorali siano compresi tra quelli ad alto rischio, per gli effetti potenzialmente distorsivi sulle garanzie democratiche che possono avere, come insegna il caso Cambridge Analytica”, ha ricordato.

Capitalismo digitale e remunerazione del consenso

Un’ulteriore criticità del capitalismo delle piattaforme riguarda la tendenza alla remunerazione del consenso al trattamento dei dati personali, assunto come parte di uno scambio tra dati e servizi. “Per non derubricare i dati personali, oggetto di un fondamentale diritto di libertà a mera risorsa economicamente sfruttabile, va delineato un confine tra data-economy  e monetizzazione della privacy, con tutti i rischi, in termini di libertà ed eguaglianza, suscettibili di derivarne”.

Nonostante il modello capitalistico attuale si fondi sempre più sulla deduzione dei dati nel sinallagma negoziale, “bisogna evitare ogni deriva che renda la privacy un lusso per pochi, contraddicendo quel percorso che l’ha resa, da tradizionale prerogativa borghese, uno straordinario presidio di tutela di tutte e tutti, soprattutto dei più vulnerabili”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati