INTELLIGENZA ARTIFICIALE

ChatGpt fa già gola al cybercrime: ecco i 5 scenari di azione

Nonostante la presenza di protezioni all’interno della release 4, alcune restrizioni possono essere facilmente aggirate, consentendo agli hacker di raggiungere i loro obiettivi senza grandi problemi. L’analisi di Check Point Research

Pubblicato il 22 Mar 2023

hacker-161117113606

Check Point Research (Cpr) punta l’attenzione su ChatGpt4 e, in un’analisi dedicata al chatbot di intelligenza artificiale, rivela che alcune restrizioni possono essere facilmente aggirate nonostante la presenza di protezioni, consentendo agli aggressori di raggiungere i loro obiettivi senza grandi problemi.

Non solo: in alcuni casi, anche gli attaccanti meno esperti possono creare strumenti pericolosi. Sulla base di queste rilevazioni, Cpr fa emergere cinque scenari che facilitano e ottimizzano gli sforzi degli aggressori, consentendo loro di ottenere risultati più rapidi e precisi per accelerare le operazioni di criminalità informatica.

I cinque scenari di potenziale uso malevolo

I cinque scenari di utilizzo potenzialmente malevolo sfruttando ChatGpt sono i seguenti: Malware basato su codice C++ che raccoglie file pdf, inviandoli poi all’Ftp (File Transfer Protocol); attacco phishing personificando una banca; e-mail phishing ai dipendenti di un’azienda; Php Reverse Shell; programma Java che scarica ed esegue un PuTTY (client per SSH) che può essere lanciato come powershell nascosto.

In alcuni casi, questi scenari consentono anche agli attaccanti meno esperti di creare tool dannosi, come se il processo di codifica, costruzione e configurazione avesse una formula semplice. Nonostante la presenza di protezioni, alcune restrizioni di ChatGpt4 possono essere facilmente aggirate, consentendo agli aggressori di raggiungere facilmente i loro obiettivi.

Piattaforma migliorata, ma ancora vulnerabile

“Dopo aver individuato molteplici modi in cui ChatGpt può essere sfruttato dai criminali informatici abbiamo trascorso gli ultimi giorni a verificare se qualcosa fosse cambiato con l’arrivo dell’ultima versione del tool – afferma Oded Vanunu, Head of products vulnerabilities research di Check Point Software -. Sebbene la nuova piattaforma sia chiaramente migliorata su molti livelli, possiamo tuttavia segnalare che esistono potenziali scenari in cui gli aggressori possono accelerare le loro operazioni criminali. Gli aggressori, che siano esperti o meno, possono anche utilizzare le risposte rapide di ChatGpt4 per superare le sfide più tecniche così da creare malware”.

“ChatGpt4 – prosegue Vanunu – può essere utile sia a degli attori buoni, ma anche a quelli pericolosi. Gli utenti con buone intenzioni possono usare ChatGpt per creare e distribuire codici utili alla società, ma al contempo gli aggressori possono servirsi di questa tecnologia AI per commettere crimini informatici. Dato che l’AI svolge un ruolo significativo e crescente negli attacchi e nella difesa informatica, ci aspettiamo che questa piattaforma venga sfruttata nuovamente, e passeremo i prossimi giorni a capire meglio come”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati