L’uguaglianza di genere e l’emancipazione femminile sono tra gli obiettivi chiave dell’Agenda 2030 per lo Sviluppo Sostenibile promossa dall’Onu. Le tecnologie informatiche, soprattutto quelle di nuova generazione come IA e blockchain, possono essere uno straordinario strumento per accelerare il raggiungimento dell’obiettivo ma al contempo introducono nuove forme di esclusione e marginalizzazione. Una criticità evidenziata anche dall’Unesco in un recente rapporto su Uguaglianza di Genere ed Intelligenza Artificiale.
Ne parliamo con Francesca Alessandra Lisi, docente e ricercatrice in Intelligenza Artificiale, Dipartimento di Informatica, Università degli studi di Bari “Aldo Moro” e membro del Direttivo di AIxIA.
Quali sono le questioni aperte sulla dimensione di genere relativamente all’intelligenza artificiale?
Le questioni aperte sono sostanzialmente due. Innanzitutto, vi è la questione legata alla presenza di pregiudizi – noi addetti ai lavori li chiamiamo bias – legati al genere che si riscontrano nei dati utilizzati nei sistemi basati su Intelligenza Artificiale (IA), in particolare, nei sistemi che apprendono grazie ad algoritmi cosiddetti di machine learning. Particolarmente significativo è il caso degli algoritmi di visione artificiale, ampiamente utilizzati, per esempio, nei sistemi di riconoscimento facciale. Tali algoritmi vengono addestrati su enormi collezioni di immagini di volti umani, spesso purtroppo sbilanciate rispetto non solo al genere ma anche alla razza. Vi è quindi una questione di inadeguata rappresentatività del campione fornito rispetto alla varietà della popolazione.
La seconda questione?
Più complessa è la questione di metodo, ovvero la possibilità di tener conto della dimensione di genere nel modo stesso di fare scienza e di produrre tecnologie in questo settore. In tal caso, si parlerebbe di “innovazione di genere” (gendered innovation), una forma di innovazione promossa da Londa Schiebinger ed il suo gruppo di ricerca alla Stanford University per trasformare profondamente settori che vanno dalla medicina all’ingegneria. Un’innovazione di genere in IA produrrebbe una trasformazione culturale del settore analoga a quella in atto da tempo nell’ambito medico, dove ormai si parla sempre più di medicina di genere.
E concretamente quali effetti determinano?
Tali questioni aperte hanno molteplici effetti deleteri. Per quanto riguarda la questione del bias di genere, la sua presenza nei dati di addestramento per gli algoritmi di Machine Learning determina un effetto di amplificazione dei pregiudizi di genere, già riscontrabili nella società. Se poi le raccomandazioni prodotte da questi algoritmi sono successivamente utilizzate come supporto ai processi decisionali, assistiamo all’instaurarsi di un vero e proprio circolo vizioso. I pregiudizi si rafforzano sempre più, e con essi la discriminazione di genere in molti ambiti applicativi. Relativamente alla tematica della gendered innovation, il non tener conto della dimensione di genere già in fase di ricerca e sviluppo produce tecnologie inaffidabili perché poco rispondenti ai bisogni e alle aspettative di ampie fette della popolazione mondiale. Secondo i criteri definiti per la cosiddetta “IA affidabile” (trustworthy AI), sanciti in un documento della Unione Europea pubblicato ad aprile 2019, questa scollatura non è accettabile, e va fortemente contrastata.
Come intervenire per superare il problema della sotto-rappresentazione delle donne?
Si può intervenire in diversi modi, ma tenendo in considerazione che gli interventi sono tanto più efficaci quanto più sono tempestivi. L’ideale sarebbe agire sulle bambine e sui bambini in età scolare, con programmi mirati di educazione alla uguaglianza di genere. Tali iniziative dovrebbero proporre modelli di ruolo (role models) non stereotipati e promuovere lo studio delle cosiddette discipline Stem. Sono particolarmente importanti anche i progetti che si pongono l’obiettivo di avvicinare le ragazze alla programmazione dei calcolatori – come, per esempio, CodingGirls – e iniziative che incoraggiano e supportano le giovani donne che studiano o lavorano in area informatica – si veda, ad esempio, la conferenza ACM WomENcourage.
Quanto è importante fare rete?
È fondamentale. In questa direzione si muove, per esempio, la neonata rete di cooperazione internazionale Eigain (European Network For Gender Balance in Informatics), promossa da Informatics Europe e finanziata dal programma Cost della Unione Europea. Nel comitato di gestione di questa rete ho l’onore di rappresentare l’Italia come membro supplente.
Perché serve anche una visione “femminile” sull’intelligenza artificiale?
La visione femminile sull’IA serve a garantire maggiormente la correttezza (fairness) rispetto alla dimensione di genere non solo degli algoritmi di Machine Learning ma anche del metodo seguito dalla scienza e dalla tecnologia in ambito IA. Un incremento della presenza femminile nel settore, sia in ambito accademico che in quello aziendale, non può che rappresentare un arricchimento, in termini di competenze e capacità. Più in generale, la diversità è il vero motore del cambiamento. Tecnologie dirompenti come quelle basate su IA, destinate a mutare profondamente il mondo, non possono prescindere dalla salvaguardia della diversità se lo scopo è la loro accettazione.
L’Italia ha le carte in regola per abbattere il gender gap nel settore?
L’Italia sta promuovendo diverse azioni di contrasto al divario di genere in molteplici settori, azioni che sono, da un lato, il frutto di una maggiore maturità (e sensibilità) della classe politica e dirigente del Paese e, dall’altro, rappresentano la risposta alle sollecitazioni che provengono da organismi internazionali come l’Onu e l’Unesco. Tali attività devono però essere accompagnate da un cambiamento culturale, come dicevo. Insieme alla collega Silvana Badaloni dell’Università di Padova, mi sto facendo promotrice di una gendered innovation presso la comunità italiana di ricerca in IA.