ChatGPT è letteralmente sulla bocca di tutti. Il modello di linguaggio realizzato da OpenAI sta mostrando al mondo le potenzialità dell’intelligenza artificiale applicata alla vita di tutti i giorni.
Migliaia di persone si sono divertite a stimolare ChatGPT, chiedendogli di realizzare i contenuti più differenti. Ma ci sono anche coloro che potrebbero sfruttare l’AI nell’ambito di una truffa informatica.
Da questo punto di vista ChatGPT sembra perfettamente in grado di contribuire alla realizzazione di attacchi phishing e spear-phishing. Per fortuna però le cose non stanno esattamente come sembrano.
I pericoli di ChatGPT
ChatGPT (spesso scritto erroneamente Chat GPT) si sta affermando come uno dei modelli di intelligenza artificiale più performanti realizzati fino ad ora. Da un punto di vista tecnico, è un modello di linguaggio AI: riceve degli input ed è in grado di realizzare autonomamente testi piuttosto simili a quelli realizzati dall’essere umano.
Il principale pericolo di ChatGPT è rappresentato dalla sua facilità d’uso, mista all’assenza di costi, che caratterizza questa fase della sua vita. Grazie all’AI i criminali informatici potrebbero realizzare rapidamente email di phishing persuasive su scala industriale. Tra l’altro senza dover rinunciare in alcun modo alla loro personalizzazione.
Per questo ChatGPT potrebbe finire col sostenere vere e proprie campagne del cosiddetto spear-phishing: un attacco che porta l’utente a condividere informazioni sensibili utilizzando argomenti credibili e mirati. A ciò si aggiunge il fatto che questo modello di linguaggio non si limita a scrivere email. È anche in grado di generare codice.
Questo aspetto è potenzialmente ancora più preoccupante. In un futuro non troppo lontano, un malintenzionato senza alcuna competenza di programmazione potrebbe creare un malware infostealer per una truffa informatica, semplicemente chiedendolo a un’intelligenza artificiale.
Come cambia la cyber security
Lo scenario descritto nei capoversi precedenti sembra davvero molto preoccupante. Per fortuna però gli esperti di cyber security hanno già a disposizione tutti gli strumenti necessari a combattere email di phishing o malware realizzati con ChatGPT.
I codici dannosi scritti da bot dovrebbero venire rapidamente rilevati e neutralizzati dai sistemi di sicurezza informatica. Esattamente lo stesso destino che aspetta la stragrande maggioranza dei bot realizzati dall’uomo.
La minaccia dovrebbe venire gestita anche nel caso in cui l’AI venga utilizzata per realizzare malware personalizzati. Infine ad oggi i contenuti scritti da ChatGPT presentano incongruenze di vario genere. È quindi probabile che questa percentuale di errore o difetto logico vada a intaccare anche eventuali codici malevoli.
In conclusione, la cyber security non sembra ancora dover temere l’uso di ChatGPT da parte dei criminali del web. Anzi, ad oggi l’AI è una fonte di aiuto e informazioni, molto più di quanto non sia un potenziale pericolo.
Ad esempio, è in grado di spiegare in pochi secondi come funzionano e quali effetti hanno tutti gli elementi che compongono i codici. Questa caratteristica rende ChatGPT l’alleato perfetto in condizioni di SOC. E in futuro l’AI potrebbe specializzarsi in prodotti mirati: da quelli per la risoluzione di CFT a quelli per la ricerca di vulnerabilità.