DIFESA

AI nelle operazioni militari: il Pentagono adotta il “codice etico”

I sistemi di intelligenza artificiale dovranno essere usati in modo “appropriato, trasparente e tracciabile” e sotto controllo umano. Così la Difesa Usa prova a riguadagnare il sostegno delle Big Tech

Pubblicato il 25 Feb 2020

intelligenza-ai-robotica-

L’uso dell’intelligenza artificiale nelle operazioni belliche deve avvenire in base a un preciso codice etico. È per questo che il dipartimento della Difesa americano ha adottato dei nuovi principi che da un lato accelerano l’uso dell’Ai sul campo di battaglia, dall’altro definiscono le linee guida per tale utilizzo.

Le linee guida messe nero su bianco dal Pentagono indicano che le persone dovranno sempre “applicare un appropriato livello di attenzione e giudizio” quando impiegano e usano sistemi Ai in operazioni militari. Un esempio è quando l’Ai permette di passare al vaglio immagini aeree per rilevare eventuali obiettivi da colpire.

Il codice etico del Pentagono parla ancora di usi “espliciti e ben definiti” dell’Ai e di “affidabilità” dei sistemi. Inoltre, le decisioni prese dai sistemi automatizzati dovrebbero essere “tracciabili”, “trasparenti” e “governabili”. Questo significa che “ci deve sempre essere un modo per disattivarli o disinnescarli” se hanno un comportamento diverso da quello atteso e deviano dagli scopi previsti, come ha spiegato il tenente generale dell’Air Force americana Jack Shanahan, direttore del Joint artificial intelligence center del Pentagono.

Innovazione nella Difesa

Una direttiva militare del 2012 già impone che le persone controllino le armi gestite automaticamente, ma non affronta gli ampi utilizzi dell’Ai. Col nuovo codice etico gli Usa cercano di fornire una guida per le applicazioni sia in guerra che fuori dal campo di battaglia, quindi anche per operazioni di sorveglianza e intelligence e manutenzione preventiva su aerei e navi.

L’approccio presentato dal Pentagono segue le raccomandazioni fornite lo scorso anno dal Defense innovation board, un gruppo di esperti di innovazione guidato dall’ex ceo di Google Eric Schmidt.

Il Pentagono vuole la collaborazione delle Big Tech

Non è la prima volta che il Pentagono cerca di aumentare l’impiego della tecnologia Ai nelle sue operazioni. Nel 2018, però, le iniziative della Difesa americana si sono scontrate con le critiche dell’opinione pubblica e dei lavoratori di Google. Il colosso digitale era infatti entrato nel progetto Maven, che usa algoritmi per interpretare immagini aeree dalle zone di guerra, ma le proteste dei dipendenti, che non volevano che le tecnologie di Google venissero usate per applicazioni belliche, hanno costretto Big G a ritarsi.

Il Pentagono si è rivolto ad altri fornitori ma ora, ha affermato Shanahan, le nuove regole aiuteranno a riguadagnare sostegno dai big dell’industria tecnologica, che chiedevano una maggiore attenzione alle implicazioni etiche dell’Ai e della loro partecipazione ai progetti della Difesa.

Shanahan ha anche detto che il codice etico aiuta a dare all’America un vantaggio tecnologico rispetto alla Cina e alla Russia, che – ha affermato il tenente generale – usano l’Ai nelle operazioni militari e di sorveglianza senza alcuna considerazione per gli impatti etici.

Per i critici occorre una vera regulation

Il Pentagono ha ammesso che l’Ai “crea nuove ambiguità e rischi etici” e Shanahan ha affermato che i principi sono volutamente “generici” per evitare di creare restrizioni per le forze militari Usa che potrebbero presto essere inadeguate se non obsolete. “La tecnologia evolve in continuazione”, ha detto Shanahan.

“L’intelligenza artificiale cambierà molte cose sul campo di battaglia del futuro, ma non cambia il continuo impegno americano a comportarsi in modo responsabile e lecito”, ha dichiarato il ministro della Difesa Mark Esper in una nota per la stampa.

Tuttavia per alcuni commentatori il codice etico sull’Ai della Difesa Usa manca proprio di quelle restrizioni che riuscirebbero efficacemente a controllare l’utilizzo dei sistemi impiegati nelle operazioni militari. Lucy Suchman, antropologa che studia il ruolo dell’Ai nel warfare, ha definito i principi presentati dal Pentagono un’operazione di “ethics-washing”: ovvero poche linee guida vaghe che evitano una necessaria regulation. “Dire ‘uso appropriato’ apre a infinite interpretazioni”, ha sottolineato la Suchman.

L’iniziativa americana “è un passo in avanti”, ha commentato la professoressa di legge dell’Università di Richmond, Rebecca Crootof, e potrebbe aprire la strada a norme internazionali sull’uso dell’Ai nella difesa. Tuttavia per la Crootof le forze militari Usa dovranno dimostrare di avere le competenze e la capacità di valutare in modo critico l’enorme quantità di dati usati dai sistemi Ai e i rischi di cybersecurity correlati.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati