L’allarme arriva dall’Europol, l’agenzia per le forze dell’ordine dell’Unione europea: ChatGpt e altri sistemi di intelligenza artificiale generativa possono essere utilizzati per frodi online e varie tipologie di crimini informatici.
Da quando è stato lanciato alla fine di novembre 2022, ChatGpt è diventato uno dei servizi internet in più rapida crescita, superando i 100 milioni di utenti nei primi due mesi. Come ormai tutti sanno, il modello è diventato virale grazie alla sua capacità di generare, a partire da richieste anche molto specifiche, contenuti testuali simili a quelli che potrebbe redigere un utente umano. E questo, secondo l’Innovation Lab di Europol, rappresenta una potenziale minaccia, in quanto tali strumenti potrebbero essere sfruttati da malintenzionati.
“I criminali sono in genere rapidi nello sfruttare le nuove tecnologie e si sono visti rapidamente proporre sfruttamenti criminali concreti, fornendo i primi esempi pratici già poche settimane dopo il rilascio pubblico di ChatGpt”, si legge in un rapporto flash stilato dall’agenzia.
La pubblicazione è il risultato di una serie di workshop organizzati dall’Innovation Lab di Europol per discutere i potenziali usi criminali di ChatGpt, l’esempio più importante di modelli linguistici di grandi dimensioni, e di come questi modelli potrebbero essere utilizzati per supportare il lavoro investigativo.
Gli attuali bug del sistema
L’agenzia europea sottolinea che le regole di moderazione di ChatGpt possono essere aggirate attraverso il cosiddetto prompt engineering, la pratica di fornire input a un modello di intelligenza artificiale proprio per ottenere un risultato specifico.
Poiché ChatGpt è una tecnologia relativamente recente, vengono continuamente trovate delle falle nonostante la costante distribuzione di patch. Queste falle possono consistere nel chiedere all’AI di fornire il prompt, nel chiedere all’intelligenza artificiale di fingere di essere un personaggio immaginario o nel fornire la risposta in codice.
Altri aggiramenti potrebbero sostituire le parole d’ordine o cambiare il contesto durante le interazioni. L’Europol ha sottolineato che le soluzioni più efficaci, che riescono a liberare il modello da qualsiasi vincolo, si evolvono costantemente e diventano più complesse.
Le possibili applicazioni criminali
Gli esperti hanno identificato una serie di casi d’uso illegali per ChatGpt che persistono anche nel modello più avanzato di OpenAi, Gpt-4, dove il potenziale delle risposte dannose del sistema era ancora più avanzato in alcuni casi.
Poiché ChatGpt è in grado di generare informazioni di lettura, l’Europol avverte che la tecnologia emergente può accelerare il processo di ricerca di un attore malintenzionato senza una conoscenza preliminare di un’area di potenziale criminalità come l’irruzione in una casa, il terrorismo, il crimine informatico o l’abuso sessuale su minori.
“Sebbene tutte le informazioni fornite da ChatGpt siano liberamente disponibili su Internet, la possibilità di utilizzare il modello per fornire passaggi specifici ponendo domande contestuali significa che è significativamente più facile per gli attori malintenzionati comprendere meglio e successivamente realizzare vari tipi di reato“, si legge nel rapporto.
Il phishing, la pratica di inviare una falsa e-mail per indurre gli utenti a cliccare su un link, è un’area di applicazione cruciale. In passato, queste truffe erano facilmente individuabili a causa di errori grammaticali o linguistici, mentre il testo generato dall’intelligenza artificiale permette di impersonare queste persone in modo estremamente realistico.
Allo stesso modo, è possibile dare alle frodi online un’immagine di maggiore legittimità utilizzando ChatGpt per creare un falso coinvolgimento sui social media che possa far passare per legittima un’offerta fraudolenta. In altre parole, grazie a questi modelli, “questi tipi di phishing e di frodi online possono essere creati più velocemente, in modo molto più autentico e su scala significativamente maggiore”.
Inoltre, la capacità dell’intelligenza artificiale di impersonare lo stile e il linguaggio di personaggi pubblici può portare a diversi casi di abuso in materia di propaganda, incitamento all’odio e disinformazione.
Oltre al testo, ChatGpt può anche produrre codice in diversi linguaggi di programmazione, ampliando la capacità di attori malintenzionati con poca o nessuna conoscenza dello sviluppo informatico di trasformare il linguaggio naturale in malware.
Poco dopo il rilascio pubblico di ChatGpt, la società di sicurezza Check Point Research ha dimostrato come il modello di intelligenza artificiale possa essere utilizzato per creare un flusso di infezione completo, creando e-mail di phishing, dallo spear-phishing all’esecuzione di una reverse shell che accetta comandi in inglese.
Le prospettive per il futuro
Mentre il Parlamento europeo sta ultimando la sua posizione sulla legge sulle AI, i deputati hanno discusso l’introduzione di alcuni requisiti rigorosi per questo modello di base, come la gestione del rischio, la robustezza e il controllo di qualità.
Tuttavia, Europol sembra ritenere che la sfida posta da questi sistemi non potrà che aumentare man mano che diventeranno sempre più disponibili e sofisticati, ad esempio con la generazione di falsi profondi altamente convincenti.
Un altro rischio è che questi modelli linguistici di grandi dimensioni possano diventare disponibili sul dark web senza alcuna protezione ed essere “addestrati” con dati particolarmente dannosi. Il tipo di dati che alimenteranno questi sistemi e il modo in cui potrebbero essere controllati sono punti interrogativi importanti per il futuro.
Musk e 1.000 altri manager chiedono pausa sui sistemi avanzati
Elon Musk e altri 1.000 fra ricercatori e manager chiedono una pausa di sei mesi nello sviluppo dei sistemi di intelligenza artificiale avanzati a partire da ChatGpt per fermare quella che definiscono una “pericolosa” corsa agli armamenti. In una lettera aperta pubblicata da Future of Life Institute, e riportata dal Financial Times, gli oltre 1.100 firmatari spiegano come “negli ultimi mesi c’è stata una corsa fuori controllo dei laboratori per l’intelligenza artificiale a sviluppare e dispiegare potenti menti digitali che nessuno, neanche i creatori, possono capire, prevedere e controllare”. “Chiediamo a tutti i laboratori di intelligenza artificiale di fermarsi immediatamente per almeno sei mesi nell’addestrare i sistemai di IA più potenti come Gpt-4. La pausa dovrebbe essere pubblica, verificabile e includere tutti. Se non sarà attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria”