Intelligenza artificiale: molteplici chance. Ma anche molti rischi. La AI rischia di trasformarsi in un’arma in mano a cybercriminali e Stati canaglia. L’allarme arriva da uno studio condotto da un gruppo di ricercatori delle Università di Cambridge, Oxford e Yal, coadiuvati dal gruppo di ricerca OpenAI fondato dall’imprenditore Elon Musk e da esperti di privacy e questioni militari.
Dagli attacchi alle infrastrutture critiche agli scontri di automobili a guida autonoma, fino alla creazione di campagne di disinformazione, l’intelligenza artificiale – se violata dagli hacker – rischia di prestarsi ad una serie di usi criminosi che minacciano la sicurezza. Secondo lo studio la tecnologia potrebbe essere usata per insegnare alle macchine a diventare hacker, sferrando cyberattacchi automatizzati più potenti.
Ma la minaccia è anche alla sicurezza fisica: i criminali potrebbero prendere il controllo delle auto autonome, causando incidenti. Ma anche dei droni, trasformandoli in armi rivolte verso obiettivi mirati. Infine, l’Intelligenza artificiale minaccia la sicurezza politica, attraverso una sorveglianza che azzera la privacy o la repressione. Ancora, potrebbe essere usata per creare video falsi, ma realistici, che vedono i politici come ignari protagonisti, allo scopo di fare propaganda. “Viviamo in un mondo che potrebbe diventare irto di pericoli quotidiani a causa di un uso cattivo dell’AI – avverte Sean O hEigeartaigh, direttore del Centro per lo studio del rischio esistenziale dell’ateneo di Cambridge -. I rischi sono reali. Ci sono scelte che dobbiamo fare ora: il nostro rapporto è una chiamata all’azione per governi, istituzioni e singoli individui in tutto il mondo”.