“Sicurezza fisica e sicurezza digitale sono ormai legate e il campo è talmente esteso che occorre presidiare attentamente lo sviluppo della domanda e soprattutto delle competenze”: Giorgio Mosca, direttore Strategia e Tecnologie Divisione Cyber Security di Leonardo accende i riflettori sulle sfide che il mondo della “sicurezza” dovrà affrontare tenendo conto dell’avvento dell’intelligenza artificiale, uno dei grandi temi dell’edizione 2019 di Itasec al via il 13 febbraio a Pisa.
Ingegner Mosca, come l’intelligenza artificiale impatterà sulla cybersecurity?
La sicurezza fisica e logica richiedono entrambe capacità di elaborazione dei dati provenienti da software dedicati – riconoscimento facciale, di targhe, di comportamenti, anche online – che possono essere analizzati in tempi utili solo mediante algoritmi di AI in grado di fornire agli analisti un supporto significativo. Questo richiede l’addestramento di sistemi di machine learning che opereranno sui big data forniti dalla sensoristica. C’è quindi una sicurezza fisica che non può prescindere dai temi AI, big data e cybersecurity. Inoltre, molti rischi possono essere individuati e fronteggiati solo se si ha la capacità di elaborare correlazioni tra “segnali deboli”, come quando il monitoraggio delle targhe di automobili, esteso su ampi territori, consente di individuare comportamenti anomali molto specifici, come presenze in aree inusuali e in orari non prevedibili. A tal proposito Leonardo sta allargando le sue competenze in materia di sicurezza sia sul piano tecnologico che sul piano organizzativo, compiendo scelte coerenti con l’esigenza di potenziamento della presenza del Gruppo in questo settore decisivo del mercato.
Dunque i segnali deboli devono essere considerati “forti”?
La disponibilità di segnali deboli deriva dalla disponibilità di sensori: la diffusione dei sistemi di videosorveglianza, di telerilevamento, l’allargamento dell’internet delle cose in ambito trasporti, logistica, gestione produttiva e commerciale oltre che domotica e personale, amplia enormemente la cosiddetta superficie di attacco ed offre nuove opportunità di sfruttare vulnerabilità, ad esempio creando botnet controllate dagli attaccanti. La cybersecurity è tecnologia, ma anche cultura e servizio: miglioramento delle difese tramite la creazione o la fornitura di competenze. Sul fronte dei segnali deboli, nel Regno Unito abbiamo realizzato un sistema di analisi delle targhe, rilevate da sensori diversi, per poterle leggere su veicoli in rapido movimento in ogni condizione di luce e meteo. Abbiamo sviluppato algoritmi di riconoscimento ottico molto avanzati. Se un veicolo risulta sospetto, un sistema centralizzato può avvisare le forze dell’ordine in millisecondi. Un unico servizio a livello nazionale che supporta le forze dell’ordine nel dissuadere e bloccare attività criminali e terroristiche.
Attacco e difesa sono aspetti interconnessi nella strategia di sviluppo della AI applicata alla sicurezza?
In primo luogo serve capacità di analisi delle criticità che si manifestano all’interno dei processi operativi. Poiché le informazioni che originano dai processi e dai clienti stessi sono sempre in aumento, gli strumenti di AI che realizziamo forniscono un supporto agli analisti per indagarle e trovare casistiche significative, ad esempio attacchi recenti, tramite cui individuare l’origine del problema. Altre categorie di strumenti di intelligenza artificiale possono essere usate dagli attaccanti per invalidare i processi di apprendimento sistemici, inficiandone i risultati. Se un processo di riconoscimento di volti o di oggetti viene alterato da un attacco, la possibilità che l’algoritmo fornisca risultati utili viene compromessa: ecco che per difenderci dobbiamo studiare l’attacco, le sue modalità, le sue risorse. E’ un tema che stiamo sviluppando con centri di ricerca e università e che ricorrerà anche nei challenge e negli incontri ad Itasec19, con l’obiettivo di individuare e stimolare giovani talenti che desiderino entrare in questo settore cruciale, dinamico e sfidante.