IL CASO

Ibm si sfila dal business del riconoscimento facciale: “No alla profilazione razziale”

Lo scrive il ceo Arvind Krishna in una lettera al Congresso. L’azienda non fornirà più software per l’analisi dei volti e chiede più giustizia ed equità in America, lo stop alla sorveglianza di massa e nuove leggi federali sulla cattiva condotta della Polizia

Pubblicato il 09 Giu 2020

riconoscimento-facciale

Ibm non offrirà più software per il riconoscimento facciale: lo ha comunicato la stessa azienda in una lettera al Congresso degli Stati Uniti firmata dal nuovo ceo Arvind Krishna. Ibm chiede anche alle autorità federali di potenziare gli sforzi per ottenere  in America più giustizia ed equità contro ogni discriminazione razziale. La lettera arriva in un momento critico per gli States, scossi dall’uccisione del cittadino afro-americano George Floyd durante un fermo della Polizia a Minneapolis e infiammati dalle proteste che si sono susseguite in tutti gli stati dell’unione.

Krishna afferma che Ibm non offrirà più alcun software per il riconoscimento facciale e si oppone a qualunque utilizzo di tale tecnologia per scopo di sorveglianza di massa e profilazione razziale. Il ceo ha chiesto al Congresso di lavorare a nuove regole federali che rendano gli agenti della polizia penalmente responsabili per condotte contrarie alla legge.

Ibm non ha collegato la sua decisione ai fatti di cronaca, ma Krishna ha scritto ai parlamentari che “adesso è il momento per avviare un dialogo nazionale per definire se e come la tecnologia di riconoscimento facciale debba essere utilizzata dalle nostre forze di Polizia”.

La tecnologia non è al servizio della discriminazione

“Ibm si oppone con forza e non condonerà gli utilizzi di nessuna tecnologia, inclusa quella di riconoscimento facciale offerta da altri fornitori, per scopi di sorveglianza di massa, profilazione razziale, violazione dei diritti e delle libertà fondamentali dell’uomo”, ha scritto il ceo Krishna.  “La tecnologia può aumentare la trasparenza e aiutare le forze di Polizia a proteggere i cittadini ma non deve promuovere la discriminazione o l’ingiustizia razziale”.

Diversi esponenti dei governi degli Stati Usa hanno proposto una riforma della Polizia per affrontare l’annoso problema della brutalità di alcuni agenti e dell’ingiustizia razziale. Molti hanno chiesto più controlli sulla condotta dei membri delle forze dell’ordine.

Anche Microsoft dice no

Secondo Reuters, la decisione  di Ibm è maturata negli scorsi mesi: i prodotti per il riconoscimento facciale di Big Blue non generano fatturato significativo e l’azienda stava da tempo pensando di dismettere questa attività. D’ora in poi Ibm non venderà nuovi prodotti né aggiornerà quelli esistenti,  anche se continuerà col supporto per i clienti.

Ibm non si occuperà più nemmeno di ricerca e sviluppo o fornitura di API nel settore del riconoscimento facciale. La tecnologia di Ibm sarà d’ora in poi limitata al rilevamento degli oggetti visivi, ma sarà esclusa l’identificazione e l’analisi dei volti.

A  fine marzo Microsoft ha annunciato la cessione della sua partecipazione in AnyVision, una startup israeliana specializzata in soluzioni di riconoscimento facciale e che, secondo i media locali, ha utilizzato la sua tecnologia per sorvegliare i palestinesi nella Cisgiordania occupata. Microsoft ha dichiarato che non farà più investimenti di minoranza in società che si occupano dello sviluppo di sistemi di facial recognition. La decisione, come riportato da Reuters, segna un deciso cambio di rotta per Redmond, che d’ora in poi si muoverà in questo settore solo in funzione di determinati principi, a partire da quello che sancisce che il riconoscimento dei volti deve poter funzionare senza pregiudizi e non deve interferire con le libertà democratiche.

Lo scorso dicembre un’indagine realizzata dal National Institute of Standards and Technology (Nist) ha messo in evidenza che diversi sistemi di riconoscimento facciale identificano erroneamente le persone di colore più spesso di quanto succeda coi bianchi. Quando si conduce nel database un particolare tipo di ricerca nota come corrispondenza “one-to-one”, molti algoritmi di riconoscimento facciale hanno infatti identificato erroneamente volti afro-americani e asiatici da dieci a cento volte più di quanto accade coi volti caucasici. Lo studio ha anche scoperto che le donne afro-americane hanno maggiori probabilità di essere erroneamente identificate nell’abbinamento “uno-a-molti”, che può essere utilizzato per identificare una persona di interesse in un’indagine penale.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati