Cisco Talos: Criminali e Modelli Linguistici

cisco talos

I cybercriminali stanno iniziando a sfruttare l'intelligenza artificiale per fini illegali, utilizzando modelli linguistici avanzati. Questi strumenti, se non monitorati o creati appositamente per scopi criminali, vengono utilizzati in attività come l'invio di email truffaldine, la ricerca automatica di vulnerabilità nei siti web e la verifica di carte di credito rubate. In alcuni casi, riescono anche a eludere le protezioni dei sistemi di IA legittimi per ottenere risposte che altrimenti verrebbero bloccate.

L’intelligenza artificiale generativa sta rapidamente cambiando il nostro mondo, ma i cybercriminali cercano di sfruttarla per scopi illeciti. I modelli linguistici avanzati (LLM), come quelli alla base di ChatGPT, sono ormai impiegati per scrivere testi, risolvere problemi, creare codice e altro ancora. Secondo Hugging Face, esistono oltre 1,8 milioni di modelli diversi disponibili.

Leggi anche Report trimestrale Cisco Talos

Per prevenire abusi, questi sistemi sono progettati con misure di sicurezza robuste come l’allineamento, ovvero un tipo di addestramento che aiuta i modelli a rispettare valori etici e sociali, o come il “guardrail”: sistemi di controllo che bloccano risposte pericolose, come nel caso in cui si chieda a un LLM di scrivere un’email di phishing.

Tuttavia, i criminali cercano sempre nuovi stratagemmi per aggirare queste protezioni. Alcuni utilizzano versioni "senza filtri" di questi modelli o addirittura sviluppano LLM pensati per attività illegali. Altri tentano di forzare le versioni legittime per ottenere risposte che normalmente verrebbero bloccate.

Quando l'IA non ha freni: i modelli "non censurati" nel mirino dei cybercriminaliAlcuni modelli di intelligenza artificiale, chiamati LLM non censurati, operano senza i consueti filtri di sicurezza, permettendo la generazione di contenuti pericolosi, sensibili o illegali. Questa caratteristica li rende strumenti ideali per attività criminali online. Trovare questi modelli è semplice. Piattaforme come Ollama consentono di scaricarli e utilizzarli direttamente sul proprio computer. Una volta installati, questi modelli rispondono a richieste che sistemi come ChatGPT rifiuterebbero per motivi di sicurezza. L’unico vero limite è la necessità di un computer potente per farli funzionare. Un altro strumento popolare tra i criminali è WhiteRabbitNeo, un modello che si presenta come assistente per esperti di sicurezza, ma che può essere facilmente usato per creare email di phishing o software dannoso per attacchi informatici.

Inoltre, alcuni ricercatori hanno dimostrato che è possibile rimuovere i meccanismi di sicurezza anche da modelli open source esistenti, modificando i dati con cui sono stati addestrati. In questo modo, chi possiede le giuste competenze può costruire il proprio modello “senza filtri” e sfruttarlo per scopi illeciti.

Quando i criminali creano la loro intelligenza artificiale: i modelli progettati per il crimine

Poiché i modelli di intelligenza artificiale più conosciuti sono protetti da filtri di sicurezza, alcuni cybercriminali hanno scelto di aggirare questi limiti creando i propri modelli "senza regole". Questi LLM, in grado di generare testo, codice e contenuti, sono progettati appositamente per attività illegali e venduti ad altri criminali online. Uno degli esempi più emblematici è FraudGPT, un modello che offre una serie di funzionalità pensate per i criminali informatici, tra cui:

  • Creare virus e malware
  • Scrivere email ingannevoli e pagine di phishing
  • Trovare vulnerabilità nei siti web
  • Generare credenziali false
  • Automatizzare attacchi informatici
  • Costruire bot e strumenti per rubare dati
  • Offuscare codice per eludere i controlli di sicurezza
  • Accedere a migliaia di esempi di codice dannoso

Questi modelli rappresentano una minaccia crescente, poiché permettono ai criminali di compiere attacchi sempre più sofisticati e automatizzati.

Quando si forzano le regole: il “jailbreak” dell’intelligenza artificiale

Poiché i modelli di intelligenza artificiale creati per scopi criminali possono essere poco affidabili o difficili da usare, molti cybercriminali hanno trovato una soluzione: manipolare gli LLM legittimi, quelli utilizzati ogni giorno da aziende e privati. Questi modelli sono progettati per rifiutare richieste pericolose o illegali grazie a sistemi di sicurezza chiamati guardrail e grazie a un addestramento chiamato allineamento, che li guida a comportarsi eticamente. Tuttavia, i criminali stanno imparando a "ingannarli" utilizzando tecniche di jailbreak.

Il jailbreak consiste nel formulare richieste in modo da confondere l’IA e spingerla a ignorare le sue regole. In pratica, una domanda pericolosa viene abilmente camuffata per farla sembrare innocua, inducendo il sistema a rispondere comunque.

Gli hacker usano l’intelligenza artificiale come chiunque altro — ma per fare danni

Nel dicembre 2024, la società Anthropic, creatrice dell’assistente AI Claude, ha pubblicato uno studio sull’utilizzo della propria tecnologia. Analizzando migliaia di conversazioni in modo anonimo, ha rilevato che i tre principali impieghi erano: scrivere codice, creare contenuti, fare ricerche. Curiosamente, questi sono esattamente gli stessi usi che emergono tra coloro che sfruttano i modelli AI per scopi criminali.

Molti modelli non censurati o progettati appositamente da criminali offrono funzioni simili, ma con obiettivi pericolosi:

  • Programmazione: creare virus informatici, trojan, ransomware o offuscare il codice per nasconderne le vere intenzioni;
  • Creazione di contenuti: generano testi per truffe via email e pagine web di phishing;
  • Ricerca: verificare carte di credito rubate e trovare vulnerabilità nei siti web.

In breve, l'intelligenza artificiale è uno strumento potente e, come ogni tecnologia, nelle mani sbagliate può diventare un'arma.

L’intelligenza artificiale non crea nuovi attacchi, ma li rende più facili e veloci

Con il continuo sviluppo dell'intelligenza artificiale, Cisco Talos prevede che i criminali informatici sfrutteranno sempre più i modelli linguistici (LLM) per automatizzare gli attacchi, creare strumenti per colpire gli utenti e generare contenuti che superano le difese digitali con maggiore efficacia.

Questa tecnologia non introduce nuovi tipi di attacchi, ma agisce come un potenziatore, rendendo più rapidi, efficaci e accessibili quelli già esistenti. In altre parole, l'IA non cambia le regole del gioco, ma rende i criminali molto più veloci nel compiere i loro attacchi.