A garantire la sicurezza informatica saranno sempre più le tecnologie di machine learning e l’intelligenza artificiale: è il parere del 75% del campione di responsabili IT aziendali interpellati per il nuovo studio di Eset, 900 persone in tutto tra Usa, UK e Germania. Dallo studio è emerso inoltre che gli statunitensi sono più propensi a pensare che le armi vincenti contro gli hacker siano tecnologiche (82%), contro il 67% nel Regno Unito e il 66% in Germania.
Sia il machine learning sia l’AI, secondo gli intervistati, sarebbero utili per velocizzare i tempi di rilevazione delle minacce e i tempi di risposta, oltre che per contribuire a risolvere la carenza di competenze adeguate nel campo della cybersecurity per le aziende.
Ma la fiducia incondizionata nei confronti delle nuove tecnologie potrebbe anche rappresentare un rischio: “Nell’ambiente aziendale odierno – si legge in una nota di Eset, società specializzata nella produzione di software per la sicurezza digitale, – non sarebbe saggio affidarsi esclusivamente a una tecnologia per costruire una solida difesa informatica e la ML è senza dubbio uno strumento importante nella lotta contro il crimine informatico, ma dovrebbe rappresentare solo una parte della strategia generale di sicurezza informatica di un’organizzazione”.
Il machine learning sarebbe tra l’altro, secondo i dati del sondaggio, già ampiamente presente nelle strategie di cybersecurity delle aziende: infatti ha dichiarato di servirsene l’89% del campione tedesco, l’87% degli intervistati statunitensi e il 78% di quelli britannici. Qualche confusione però è ancora presente quando si tratta di distinguere tra il significato di machine learning e quello di intelligenza artificiale: il 53% del campione ha infatti ammesso che in azienda i confini tra le due tecnologie non siano ben chiari al management, anche a causa – secondo la lettura di Eset, delle semplificazioni utilizzate dal marketing.
Quanto ai limiti del machine learning, che è certamente molto utile per la scansione del malware, essendo rapidamente in grado di analizzare e identificare la maggior parte delle potenziali minacce per gli utenti e agire in modo proattivo per sconfiggerle, c’è però da essere ben consapevoli dei mitici di questa tecnologia, che per essere efficace deve essere affiancata dalla verifica umana per la classificazione iniziale, per l’analisi di campioni potenzialmente dannosi e per la riduzione del numero di falsi positivi. Inoltre, evidenzia Eset in una nota, gli algoritmi di ML hanno un focus ristretto e un criminale informatico creativo può introdurre scenari completamente nuovi per la ML e quindi ingannare il sistema: “Gli algoritmi di apprendimento automatico possono essere ingannati e gli hacker possono sfruttare questa debolezza creando un codice dannoso che la ML classificherà come oggetto benigno”.
Da qui deriva la necessità di un approccio “strategico”, con soluzioni a più livelli, unite a persone di talento e competenti: “l’unico modo – sottolinea Eset – per rimanere un passo avanti agli hacker mentre il panorama delle minacce informatiche continua ad evolversi”.