L’evoluzione dell’intelligenza artificiale pone quesiti etici complessi e per questo Google sosterrà il suo sviluppo tecnologico con le conoscenze e i pareri forniti da un pool di esperti mondiali. Il colosso americano ha infatti messo insieme l’Advanced technology external advisory council (Ateac), un gruppo di otto esperti di tutto il mondo chiamato a fornire, nella forma di consulenza esterna, pareri e raccomandazioni al colosso di Mountain View su Ai e etica digitale. I riflettori sono puntati soprattutto sul riconoscimento facciale e la non-discriminazione nel machine learning
Il council, che dovrà pubblicare un report a fine anno, include esperti di tecnologia, etica e politiche pubbliche. Del gruppo fanno parte anche gli italiani Luciano Floridi, professore di Filosofia e etica dell’informazione all’University of Oxford, dove dirige anche il laboratorio di Digital ethics dell’Oxford Internet Institute, e Alessandro Acquisti, ecomomista comportamentale e ricercatore in tema di privacy, che insegna Information techonology e public policy all’Heinz College della Carnegie Mellon University.
Il comitato di consulenti “esaminerà alcune delle sfide più complesse per Google”, scrive in un blog post Kent Walker, senior vice president for global affairs di Google. Gli esperti forniranno un punto di vista prezioso, dice Walker, per portare avanti il lavoro del colosso americano ma anche per aumentare le conoscenze su etica e Ai nell’intero settore hitech.
L’anno scorso proprio le implicazioni etiche dell’Ai, in particolare l’uso dell’intelligenza artificiale a scopi militari, hanno scatenato le proteste dei dipendenti di Google. L’entrata del colosso americano nel progetto Maven della Difesa Usa, che sfrutta le piattaforme Ai per analizzare le immagini catturate dai droni, è stata attaccata da molti sviluppatori di Big G come una violazione dei valori di Google, visto che il software veniva messo al servizio di un programma governativo “che prevede l’uccisione di esseri umani attraverso l’uso di velivoli a pilotaggio remoto”. Il top management di Mountain View ha sempre replicato che il programma era “inoffensivo”, ma ha infine deciso di chiudere la collaborazione con il Pentagono.
Oggi il lancio dell’advisory council cerca di rafforzare l’impegno di Google su etica e Ai, complementando la pubblicazione degli Ai Principles, un sorta di carta etica “per guidare lo sviluppo e l’uso responsabile dell’Ai nei nostri prodotti e nella nostra ricerca”, secondo quanto scrive Walker. L’Ateac sostiene così la struttura di governance interna di Google e i processi che aiutano l’azienda a mettere in pratica i suoi principi sull’Ai.
Gli altri componenti del council sono Bubacarr Bah, esperto in matematica applicata e computazionale dell’African Institute for mathematical sciences (Aims) South Africa, De Kai, uno dei principali ricercatori nel campo dell’elaborazione del linguaggio naturale e del machine learning e professore alla Hong Kong University of science and technology, Dyan Gibbens, imprenditrice ed esperta di ingegneria industriale e sistemi automatizzati, Joanna Bryson, esperta di psicologia, Ai e etica della University of Bath, Kay Coles James, esperta di public policy con una lunga carriera nel governo locale e federale Usa, oggi presidente della Heritage Foundation, e William Joseph Burns, ex vice segretario di Stato americano, diplomatico e esperto di politica estera, attualmente presidente del Carnegie endowment for international peace.
Il council resterà in servizio per tutto il 2019 e si riunirà quattro volte, a cominciare da aprile; il report conclusivo riassumerà i temi dibattuti e i punti di vista emersi. “Siamo consapevoli che lo sviluppo responsabile dell’Ai è un campo molto vasto con molti portatori di interesse”, conclude il post di Google. “Oltre a consultarci con gli esperti dell’Ateac continueremo a scambiare idee e a raccogliere feedback da partner e organizzazioni in tutto il mondo”.