SCENARI

I robot del futuro saranno “insecure by design”?

Secondo una ricerca dell’università di Ghent e Kaspersky gli sviluppatori escludono consapevolmente i meccanismi di sicurezza per concentrarsi, invece, sullo sviluppo del comfort e dell’efficienza. Ecco quali potrebbero essere gli effetti

Pubblicato il 15 Ott 2019

robot-tech

Chi poteva immaginare che le persone si fidassero dei robot? Ad esempio, i robot possono entrare facilmente nelle aree vietate alle persone non autorizzate. Soprattutto se sembra che debbano consegnare una pizza. Non c’è nessun problema: il 100% degli addetti alla sicurezza fisica di un edificio aperto al pubblico ma con un’area riservata li lasciano passare senza battere ciglio, anzi gli danno una mano a chiamare l’ascensore.

«È un errore delle policy di sicurezza epico», dice Tony Belpaeme, professore di IA e Robotica alla Ghent University, in Belgio, che ha realizzato in collaborazione con la società russa di sicurezza digitale Kaspersky una ricerca che è in realtà un esperimento di social engineering: il rapporto delle persone con i robot e i potenziali rischi per la sicurezza. Ma non è finita.
I bambini, ad esempio, sono convinti che i robot non mentano. E sono pronti a cambiare idea sulle possibili risposte all’esperimento organizzato da Belpaeme se fanno così anche i robot. Ancora, se un robot prova a fare conversazione, le persone non hanno problemi a rivelare una serie di informazioni che possono risultare strategiche ad esempio per hackerare i loro profili online, e che comunque non rivelerebbero mai a uno straniero.

Quello che nessuno ricorda o immagina è che dietro ogni robot ci sono delle persone, e che i robot non sono più apparecchi automatici e solitari, offline: sono connessi e programmati per ottenere informazioni che possono essere rubate o peggio che possono essere richieste da malintenzionati.
Nel corso della conferenza in corso a Lisbona, in Portogallo, Kasperksy ha presentato i risultati della ricerca svolta assieme all’università di Ghent per cercare di sondare i limiti della sicurezza nell’epoca dei robot autonomi. Le persone non credono che i robot possano rubare i dati perché non si presentano come dei Terminator armati e pronti a sterminare l’umanità. Invece, stanno cominciando a entrare nelle nostre vite come strumenti per le consegne di quartiere, come assistenti per la casa o per le persone anziane, come mezzi per guidare i viaggiatori negli aeroporti o nelle grandi stazioni.

I robot sono in fase di sviluppo, ancora gli scenari disegnati dalla ricerca non sono attuali, però ci sono parecchi aspetto che già oggi dovrebbero far riflettere. Dice Dmitry Galov, Security Researcher di Kaspersky: «All’inizio della ricerca abbiamo esaminato il software utilizzato nello sviluppo dei sistemi robotici. È stato interessante osservare come gli sviluppatori decidano consapevolmente di escludere i meccanismi di sicurezza per concentrarsi, invece, sullo sviluppo del comfort e dell’efficienza. Tuttavia, come hanno dimostrato i risultati del nostro esperimento, una volta che la fase di ricerca è stata completata, gli sviluppatori non si dovrebbe dimenticarsi della sicurezza. Quando si parla di sicurezza robotica ci sono aspetti chiave di cui preoccuparsi che vanno ben oltre le considerazioni di tipo tecnico».

I rischi e le vulnerabilità di domani fioriranno se oggi vengono piantati i semi di una rivoluzione tecnologica in cui la “security by design” non è stata presa in considerazione e in cui gli adulti e i bambini non imparano a trattare i robot come potenziali minacce per la sicurezza. La fiducia nei “piccoli amici”, una specie immagine mentale di animali domestici meccanici innocui e gradevoli, non dovrebbe essere spesa tanto facilmente. Anzi, ci dovrebbe essere un percorso critico per evitare che i robot abbiano un impatto sociale negativo sul comportamento delle persone e come questo rappresenti un potenziale pericolo e un vettore di attacco vero e proprio. Qualunque computer può essere attaccato e compromesso, anche un robot simpatico che fa il suo lavoro.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati