relazione garante privacy

Intelligenza artificiale, Stanzione: “La politica tracci le colonne d’Ercole da non varcare”



Indirizzo copiato

“La tecnologia deve essere un fattore di progresso non solo tecnico ma sociale, temperando con l’algoretica gli eccessi dell’algocrazia. L’uomo resti il dominus dei processi di innovazione”

Pubblicato il 3 lug 2024

Federica Meta

Giornalista



pasquale stanzione

È l’intelligenza artificiale il tema chiave della Relazione del Garante Privacy, presentata alle Camera dal presidente dell’Autorità, Pasquale Stanzione. Il quale ha subito evidenziato la potenza disruptive di questa tecnologia che viaggia e si diffonde molto più velocemente del diritto.

SCARICA QUI LA RELAZIONE DEL GARANTE PRIVACY

Il diritto argine all’algocrazia

Stanzione sottolineato come “l’intelligenza artificiale sia ormai entrata a far parte del nostro orizzonte quotidiano di vita e sempre più ne sarà elemento costitutivo, con effetti della cui portata (in senso lato antropologica) non siamo, forse, del tutto consapevoli”.

Il diritto ha il compito di colmare questo vuoto di consapevolezza, fornendoci gli strumenti per capire come porre realmente al servizio dell’uomo ciò che può rappresentare tanto uno straordinario fattore di sviluppo, benessere, promozione del pubblico interesse quanto anche, se non ben governato, una fonte di rischi tutt’altro che trascurabili, per la persona, la società, la democrazia. “La sfida principale che si delinea all’orizzonte è tutta nel rendere l’evoluzione tecnologica davvero mimetica e non soltanto protesica (capace cioè di simulare l’uomo e la sua razionalità, prima e oltre che colmarne le carenze) un fattore di progresso non solo tecnico ma sociale, temperando – per riprendere le parole del Pontefice – con l’algoretica gli eccessi dell’algocrazia”, ha avvisato Stanzione.

In questo contesto diventa necessario un governo democraticamente sostenibile della tecnica, “che tracci il confine oltre il quale, per riprendere Nietzsche, non si può fare tutto ciò che si può fare, ponendo limiti a una volontà di potenza che, altrimenti, non ne conoscerebbe e che, anzi, tenderebbe a spostare sempre più

in là la frontiera delle possibilità”. Va, dunque, delineato un futuro dove l’innovazione trovi un limite giuridico, politico, sociale, prima ancora etico di sostenibilità. Una necessità che diventa più urgente anche alla luce dell’uso che si fa dell’AI negli scenari di guerra – le armi autonome possono diventare la nuova atomica – e in campo neuroscientifico.

Si impone dunque di tracciare – e questo è il compito principale della politica – “un limite di sostenibilità, delle colonne d’Ercole da non varcare perché il progresso non divenga, paradossalmente, socialmente regressivo”, ha spiegato il Garante.

“Quello del limite e dello scopo (o, meglio, di uno scopo diverso dalla mera volontà di potenza) è, dunque, il principale obiettivo da perseguire nel governo della tecnica, perché l’uomo non divenga, paradossalmente, egli stesso strumento della macchina anziché suo dominus, al “servizio della manovella”, come nell’icastica immagine pirandelliana di Serafino Gubbio operatore”.

Il ruolo del Garante Privacy

In questo quadro di innovazione galoppante come mai prima, si delinea un ruolo chiave per il Garante, in linea con quanto previsto dall’AI Act. “L’AI Act, nel delineare il sistema di governance dell’intelligenza artificiale, sancisce una specifica riserva di competenza in favore delle Autorità di protezione dei dati, in particolare in settori nei quali la potenza algoritmica rischia di amplificare la strutturale asimmetria del rapporto in cui si inscrive o le vulnerabilità proprie, per condizione soggettiva o circostanza, degli interessati – precisa il presidente – Ed è anche questa la ragione per cui, l’individuazione nel Garante dell’Autorità competente per l’AI Act sarebbe la più coerente con l’incidenza, profonda e trasversale, dell’intelligenza artificiale, sui diritti fondamentali”.

“Essa suggerisce infatti di attribuirne la competenza ad Autorità caratterizzate da requisiti d’indipendenza – ha aggiunto Stanzione -, in ragione dei ‘limiti e delle aporie’ che la regola maggioritaria presenta, come insegnava Norberto Bobbio, di fronte a quel ‘territorio di frontiera’ rappresentato dai diritti di libertà; la sfera dell’indecidibile, appunto”

Fisco e trattamento dati

Sul fronte del Fisco, Stanzione ha avvisato sui rischi del webscraping. “I limiti del webscraping sono stati sottolineati anche rispetto alla riforma fiscale, nel cui ambito il ricorso all’intelligenza artificiale esige requisiti stringenti di affidabilità ed esattezza dei dati utilizzati per la profilazione del contribuente – ha spiegato – Se addestrato su dati anche soltanto parzialmente inesatti, infatti, l’algoritmo restituirà risultati errati in proporzione geometrica”.

Per Stanzione, “basare le procedure accertative su informazioni ‘rastrellate’ dal web, come tali in larga misura inesatte, e’ infatti estremamente rischioso, potendo avere effetti fortemente distorsivi sulla corretta rappresentazione della capacità fiscale dei contribuenti. Le garanzie di protezione dei dati rappresentano quindi, anche in quest’ambito, presupposti di efficacia dell’azione di contrasto dell’evasione fiscale”. Non solo: la stessa “disciplina del Gdpr sulla decisione algoritmica è funzionale ad evitare che il legittimo controllo del territorio, a fini di sicurezza, degeneri, sia pur preterintenzionalmente, in sorveglianza massiva”.

La Giustizia e il digitale

Focus anche sulla digtalizzazione della Giustizia e sugli strumenti informatici a supporto delle indagini. “Si dovrebbero rafforzare ulteriormente le garanzie per le intercettazioni mediante captatore, la cui applicazione sta mostrando tutti i limiti della delega, alla tecnica, di uno strumento potenzialmente ‘onnivoro’ quale il trojan, tanto più se utilizzato ‘a strascico'” – ha detto – Se si limita la pubblicabilità delle intercettazioni ai soli contenuti riprodotti dal giudice in propri provvedimenti, si circoscrive notevolmente il novero dei dati suscettibili di circolazione al di fuori del giudizio, ammettendola soltanto per le informazioni rilevanti a fini processuali. E “ciò che si può auspicare – anche rispetto alla delega legislativa sul divieto di pubblicazione integrale o per estratto dell’ordinanza di custodia in fase di indagini – è che si contenga la tendenza a scambiare l’interesse sociale della notizia con il gossip. La sfida della democrazia è, infatti, proprio nel coniugare la ‘pietra angolare’ del diritto di (e all’) informazione con la dignità personale (di cui la protezione dei dati è peculiare espressione): tanto più in un ordinamento, come il nostro, dalla vocazione intrinsecamente personalista”.

La Sanità e il digitale

“Con riguardo alla digitalizzazione della Sanità, sono particolarmente rilevanti le criticità segnalate al Governo rispetto alle difformità riscontrate, tra le varie Regioni, nella realizzazione del Fascicolo sanitario elettronico 2.0 (Fse 2.0), concepito invece proprio per assicurare omogeneità nelle garanzie di fruizione tra le varie aree del Paese. Diritti fondamentali come quello alla salute – e, per altro verso, la protezione dei dati – non possono, infatti, tollerare garanzie a geometria variabile, con le diseguaglianze ratione loci suscettibili di derivarne – ha sottolineato – È quanto, del resto, ha recentemente ribadito la Corte costituzionale nel dichiarare illegittima, per violazione del riparto di attribuzione della potestà legislativa tra Stato e Regioni, una legge regionale volta a legittimare la videosorveglianza nelle strutture di cura, in assenza di norme legislative statali in materia” ha ricordato Stanzione, sottolineando che “quest’esigenza è tanto maggiore in ragione della progressiva integrazione dei sistemi (soprattutto) informativi in ambito sanitario prevista dal Regolamento sullo spazio europeo dei dati sanitari”. Esso, infatti, pur promuovendo la destinazione a fini solidaristici dei dati sanitari – ha concluso – introduce tuttavia significative garanzie anche per la c.d. group privacy, con specifici divieti di utilizzo discriminatorio dei dati sanitari nei confronti di singoli o gruppi di persone, anche per quanto riguarda offerte di lavoro o condizioni contrattuali”.

SCARICA QUI IL REPORT SULLE ATTIVITA’ 2023

Articoli correlati

Articolo 1 di 5