Non ci è voluto molto. Pochi mesi dopo l’avvento di ChatGPT che ha sconvolto l’economia delle startup e semplificato i compiti di molte persone, i criminali informatici e gli hacker si sono dati da fare e hanno creato le proprie versioni.
Si tratta di sistemi che potrebbero, almeno in teoria, potenziare la capacità dei criminali di scrivere malware o e-mail di phishing, che poi inducono le persone a consegnare le proprie informazioni o, nel peggiore dei casi, i propri dati bancari.
Le prime avvisaglie sono cominciate ad inizio luglio, quando sul dark web si sono intravisti due nuovi modelli linguistici (LLM). Questi sistemi imitano le funzionalità di ChatGPT e Bard di Google, generando un testo per rispondere alle domande. Ma a differenza degli LLM, realizzati da aziende legittime, questi chatbot sono commercializzati per attività illegali.
Secondo i ricercatori di sicurezza che monitorano le attività, nei forum del dark web sono comparsi WormGPT e FraudGPT
La differenza principale, tra queste “new entry” e i noti ChatGPT e simili, sono principalmente nell’eliminazione dei filtri. Mentre gli LLM sviluppati da grandi aziende tecnologiche come Google, Microsoft e OpenAI, dispongono di una serie di guardrail e misure di sicurezza per impedire che vengano utilizzati in modo improprio, quelli provenienti dal dark web eliminano qualsiasi tipo di protezione della sicurezza o barriere etiche.
WormGPT è stato individuato per la prima volta dal ricercatore di sicurezza informatica Daniel Kelley. Secondo i suoi sviluppatori, questo strumento offre un numero illimitato di caratteri e una formattazione del codice: “I modelli di intelligenza artificiale sono particolarmente utili per il phishing, in particolare perché abbassano le barriere d’ingresso per molti criminali informatici alle prime armi”, afferma Kelley, “molte persone sostengono che la maggior parte dei criminali informatici può comporre un’e-mail in inglese, ma questo non è necessariamente vero per molti truffatori”.
Durante un test sul sistema è stato chiesto di produrre un’e-mail che potesse essere utilizzata come parte di una truffa, con un presunto CEO che scriveva a un account manager per dire che era necessario un pagamento urgente. “I risultati sono stati inquietanti”, conferma Kelley, “Il sistema ha prodotto un’e-mail che non solo era straordinariamente persuasiva, ma anche strategicamente astuta”.
In alcuni post su dei forum, lo sviluppatore di WormGPT ha affermato che il sistema è stato costruito sul modello di linguaggio GPTJ, un modello open source sviluppato nel 2021 dal gruppo di ricerca sull’intelligenza artificiale EleutherAI.
Per quanto riguarda invece FraudGPT, il creatore ha rivendicato un potenziale ancora più elevato per il proprio sistema, suggerendo che potrebbe “creare malware non rilevabili”, oltre a creare testi che potrebbero essere utilizzati nelle truffe online.
Rakesh Krishnan, analista senior per le minacce presso la società di sicurezza Netenrich, e colui che ha scoperto FraudGPT, ha affermato che la persona che l’ha messa sul mercato, ha pubblicizzato il prodotto su più forum nel dark web, oltre che sui canali di Telegram.
Krishnan afferma che il creatore ha pubblicato un video dove mostra il funzionamento del chatbot e come poter generare un’e-mail fraudolenta: “stavano anche cercando di vendere l’accesso al sistema per $200 al mese, o ad un costo annuale di $1.700”.
Ma non è tutto, nelle conversazioni con lo sviluppatore dietro la creazione di FraudGPT, si è venuto a sapere come alcune centinaia di abbonati abbiamo già cercato di acquistare il prodotto, mentre il creatore di WormGPT sembra invece aver già ricevuto pagamenti in criptovalute: “Tutti questi progetti sono agli albori”, afferma Krishnan, “non abbiamo molti feedback sul fatto che le persone acquistino o utilizzino i sistemi”.
Sicuramente non si tratta di una sorpresa che i criminali informatici vogliano partecipare al boom LLM, come confermato anche dall’FBI e dall’agenzia di polizia europea Europol. Ogni volta che un nuovo prodotto, servizio o evento attira l’attenzione del pubblico, come ad esempio il film Barbie, o la pandemia di Covid-19, i truffatori si affrettano a includerlo nella loro artiglieria di hacking.
Finora hanno indotto le persone a scaricare malware per il furto di password attraverso annunci falsi per ChatGPT, Bard, Midjourney e altri sistemi di intelligenza artificiale generativa su Facebook.
Nel suo rapporto su WormGPT, Kelley osserva come i criminali informatici spesso condividono dei jailbreak, un termine che sta a significare un qualcosa che consente alle persone di aggirare le restrizioni di sicurezza messe in atto dai creatori degli LLM.
Di tutta questa storia, la nota positiva sta nel fatto che le versioni non vincolate di questi modelli, nella loro forma attuale potrebbero non essere così utili a questi malfattori, essendo ancora ai primi stadi. Sicuramente migliorabili, con l’esperienza e il passare del tempo, ma non ancora effettive.
Quindi tenete gli occhi aperti e fate sempre molta attenzione a cosa cliccate.