Le tecniche di riconoscimento facciale sono sempre più diffuse, ma per alcuni sono pericolose “come la bomba atomica”. L’opposizione alla loro adozione da parte delle autorità sta crescendo soprattutto negli Stati Uniti, dove sono arrivate a tre le città che le hanno messe al bando e un’organizzazione no profit ne ha chiesto il bando totale nel Paese. Dopo San Francisco e Somerville, la terza città a decidere lo stop è stata Oakland, in California: ha bandito ufficialmente la tecnologia, che non potrà più essere utilizzata dalle autorità.
Alla base della decisione c’è soprattutto la preoccupazione per il rischio di discriminazioni. “Una ricerca ha concluso che il software è meno accurato per le donne e le persone con la pelle scura, e particolarmente inaccurato per le donne di colore”, spiega la sindaca di Oakland, Libby Schaaf. Poiché questa tecnologia riconosce i volti in video o foto, confrontandoli in tempo reale con quelle contenuti nelle banche dati, in molte città americane è largamente utilizzata dalla polizia o negli aeroporti. Ciò fa crescere la preoccupazione, tanto che la American Civil Liberties Union, insieme a 70 organizzazioni, ha chiesto alle aziende non vendere più la tecnologia al governo. Per Luke Stark, dell’università di Harvard, il riconoscimento facciale è “il plutonio dell’intelligenza artificiale: queste tecnologie – ha rilevato – hanno delle falle insormontabili dovute al modo in cui schematizzano i volti, rinforzando categorizzazioni negative su razza e genere, con effetti sociali tossici. Proprio questi problemi di base fanno sì che i rischi superino enormemente i benefici, in un modo che ricorda il nucleare”.
Le preoccupazione è lecita, commenta il direttore dell’Istituto di Informatica e Telematica del Consiglio nazionale delle Ricerche (Cnr), Domenico Laforenza, ma la demonizzazione deve essere evitata. “Il principio generale è che la tecnologia non è mai neutra: dipende dall’uso che se ne fa. Questo vale sempre, che si tratti di intelligenza artificiale o di riconoscimento facciale, che ne è una delle applicazioni. Demonizzare un approccio è stupido, se si pensa che la stessa tecnologia può essere d’aiuto per trovare i tumori o per aiutare i medici a fare una diagnosi. Deve essere sotto controllo, regolata per evitare usi distorti”.
Il riconoscimento facciale può essere d’aiuto anche per le forze dell’ordine. “L’importante è sapere che fine fanno i dati e che ci sia un responsabile che eviti che vengano venduti a terzi o usati per altri scopi”. Anche il rischio di discriminazioni è reale. “C’è questa possibilità ma non dipende dagli algoritmi, è un problema legato ai dati con cui vengono ‘istruiti’. Se questi contengono pregiudizi e stereotipi si rifletteranno poi nei risultati. Si pensi all’effetto in un’applicazione che prevede in quali aree è più probabile che avvenga un delitto”.