“Do the right thing”, recita il nuovo motto di Google. E sembra ispirarsi a questa filosofia la decisione del colosso di Mountain View di non dar seguito alla collaborazione con il Pentagono per l’uso di intelligenza artificiale a scopi militari. Il contratto da 9 milioni di dollari siglato con il Dipartimento della difesa, in scadenza alla fine del prossimo anno, non verrà rinnovato.
Dopo mesi di polemiche interne e una dozzina di dimissioni, Big G lascia il progetto Maven. Il programma che sfrutta le piattaforme AI per analizzare le immagini catturate dai droni è stato a lungo difeso come “assolutamente inoffensivo” dai vertici dell’azienda. Una definizione che non ha trovato d’accordo dipendenti e ricercatori Google: in 4 mila hanno firmato una lettera aperta al Ceo Sundar Pichai, chiedendo di abbandonare il progetto. Si sono detti “oltraggiati” dal fatto che la compagnia stesse usando loro stessi e il software che avevano aiutato a sviluppare per sostenere un programma governativo che prevede l’uccisione di esseri umani attraverso l’uso di velivoli a pilotaggio remoto.
Nonostante il progetto Maven non contempli l’uso del software di Google per pilotare droni o partecipare in modo attivo al loro impiego militare, il contratto ha messo in discussione la reputazione pacifista della compagnia di Mountain View. Il programma di intelligenza artificiale TensorFlow permette infatti il riconoscimento automatico dei potenziali obiettivi dei droni utilizzati in missioni militari o antiterrorismo.
Google ha sempre ridimensionato il suo ruolo nel progetto. Secondo le rivelazioni della testata The Intercept, però, la compagnia avrebbe stimato ricavi in crescita dai 15 milioni di dollari ai 250 milioni l’anno dai progetti di AI per uso militare. Non è poi un segreto che il segretario alla difesa Usa, l’ex generale James Mattis, sia da tempo in pressing sui big dell’alta tecnologia per mettere l’intelligenza artificiale al centro dello sviluppo di nuovi armamenti. È la nuova strategia del Pentagono dell’era Trump, mal digerita dai ricercatori di Mountain View. “Google – si legge nella lettera-appello inviata a Pichai – non dovrebbe occuparsi della guerra e non è nata per uccidere. Costruire la tecnologia per aiutare il governo Usa in una sorveglianza militare dagli esiti potenzialmente letali non è accettabile”.
Alla fine i ricercatori hanno convinto i vertici della compagnia. Alla sua scadenza, a fine 2019, il contratto con il Pentagono non sarà rinnovato, come annunciato dalla responsabile di Google Cloud, Diane Greene. Big G ha promesso anche l’adozione di un codice etico per l’uso dell’intelligenza artificiale. Le nuove regole dovrebbero esser rivelate la prossima settimana. A molti è sembrata “the right thing”, “la cosa giusta” a cui invita il codice di condotta modificato il 18 maggio. La versione precedente richiamava il vecchio motto della compagnia, ancora più netto: “Don’t be evil”.