L’uso dei modelli di linguaggio di grandi dimensioni nell’ambito della sicurezza informatica ha destato preoccupazione tra gli esperti del settore. Recenti studi, in particolare quello condotto da Unit 42 di Palo Alto, mettono in luce come queste potenti tecnologie possano evolvere e adattarsi, contribuendo all’aumento delle minacce cibernetiche. Gli LLM, benché non progettati per creare malware ex novo, dimostrano un notevole potenziale nell’affinare e modificare le varianti esistenti di software malevolo, rendendo più complesso il compito di rilevarli.
L'evoluzione dei malware con l'uso degli LLM
Secondo l’analisi di Unit 42, i modelli di linguaggio mostrano un’efficacia sorprendente nel riscrivere software dannosi già noti. Questo approccio non solo consente di camuffare gli agenti malevoli, ma permette anche ai criminali informatici di generare varianti che sfuggono ai radar dei sistemi di sicurezza. Gli strumenti come WormGPT, che facilitano la creazione di e-mail di phishing, stanno diventando sempre più comuni nel panorama della criminalità digitale.
L’abilità degli LLM di generare iterazioni di codice consente di produrre, ad esempio, fino a 10.000 nuove varianti di codice JavaScript mantenendo il funzionamento dei componenti malevoli. Questa capacità di mascheramento rende estremamente difficile l'individuazione da parte dei sistemi di sicurezza, che non sempre sono pronti a gestire le versioni modificate dei malware preesistenti.
L’impatto sulle difese informatiche
L’inefficienza nel rilevare le nuove varianti di malware rappresenta una preoccupazione per gli specialisti della sicurezza. Le stime hanno dimostrato che la diversificazione portata dagli LLM consente ai malware di risultare irrilevabili nell'88% dei casi. Ciò significa che anche i sistemi più avanzati possono trovarsi in difficoltà nel distinguere tra il codice dannoso e quello innocuo, esponendo le reti a rischi in continua crescita.
Non è un caso che gli esperti di cybersicurezza si sentano sotto pressione e rilevino come questa tendenza non sia frutto di un fenomeno recente. Solo poche settimane fa, OpenAI aveva già lanciato segnali d’allerta sull’abuso dei propri strumenti, come ChatGPT, nel contesto criminale. Nonostante tali avvertimenti e i tentativi di limitare le attività illecite, il numero di incidenti associati all’uso improprio degli LLM continua a salire.
Vulnerabilità degli altri modelli AI
Oltre a ChatGPT, anche altri modelli di intelligenza artificiale, come Claude, non sembrano essere esenti da rischi. Le potenziali vulnerabilità legate ad attacchi di tipo prompt injection e simili pongono ulteriori interrogativi sulla sicurezza degli LLM e sulle modalità attraverso cui possono essere utilizzati per scopi malevoli. I continui sviluppi in questo settore richiedono una costante vigilanza e l’adozione di misure proattive da parte degli esperti di sicurezza informatica.
Mentre l'innovazione tecnologica avanza, è fondamentale rimanere informati riguardo all'uso e agli abusi dell'intelligenza artificiale nel campo della cybersecurity. Solo attraverso l’aggiornamento e la formazione continua si può sperare di contrastare efficacemente queste minacce emergenti.