Una nuova analisi diffusa da OpenAI mette in luce i recenti sforzi dell’azienda per combattere l’uso improprio della sua famosa intelligenza artificiale ChatGPT. Negli ultimi tempi, i cybercriminali hanno sfruttato questa tecnologia per orchestrare truffe sempre più sofisticate. La rimozione di molti account da parte di OpenAI dimostra l’impegno dell’azienda nel mantenere un ambiente digitale sicuro per gli utenti.
L’aumento delle truffe assistite dall’intelligenza artificiale
Secondo il report di OpenAI, sempre più truffatori stanno integrando l’intelligenza artificiale nelle loro operazioni. I criminali informatici stanno usando ChatGPT per svolgere una varietà di compiti, che vanno dalla scrittura di testi ingannevoli alla creazione di codice malevolo. Questa situazione ha portato a una crescita esponenziale delle account sospetti, complicando ulteriormente le sue attività di monitoraggio. Attualmente, ChatGPT vanta oltre 400 milioni di utenti attivi a settimana, il che aumenta il rischio di utilizzi impropri della piattaforma.
OpenAI ha segnalato che ha riscontrato frequentemente attori malevoli impegnati in più attività simultaneamente, approfittando delle potenzialità offerte dall’AI. Gli attacchi sono stati talmente sofisticati che l’azienda è stata in grado di identificare modelli di comportamento ricorrenti, permettendo l’emersione di connessioni fra gruppi di attività che apparivano isolati.
Esempi di attività fraudolente scoperte
Nella sua lotta contro le truffe, OpenAI ha messo in evidenza diversi casi emblematici di account problematici rimossi. Uno di questi ha riguardato un profilo di ChatGPT che generava articoli di stampa denigratori nei confronti degli Stati Uniti, pubblicati in importanti testate latinoamericane con una firma riconducibile a un’azienda cinese. Questo caso ha messo in evidenza le potenziali ripercussioni deleterie quando l’AI viene impiegata in modo errato.
Un’altra azione significativa di OpenAI ha riguardato la rimozione di account, apparentemente originari dalla Corea del Nord, che utilizzavano la tecnologia per creare falsi curricula e profili online. Questi profili fittizi sembravano essere concepiti per ottenere impieghi presso aziende occidentali, rivelando un uso subdolo della piattaforma per affrontare il mercato del lavoro in modo fraudolento.
In modo simile, è stato scoperto un gruppo di account potenzialmente legati alla Cambogia, che utilizzava ChatGPT per generare commenti ingannevoli all’interno di una rete di scam romantici su social media come X, Facebook e Instagram.
La posizione di OpenAI sulle truffe e il futuro della tecnologia
OpenAI ha chiarito che non tollererà alcun utilizzo improprio della sua tecnologia. Nel report, l’azienda reitera che le proprie politiche vietano esplicitamente l’uso dei contenuti generati dai suoi strumenti per scopi fraudolenti. “Abbiamo identificato e rimosso decine di account legati a schemi occupazionali ingannevoli,” ha affermato OpenAI, evidenziando la proattività nella lotta contro tali pratiche illecite.
Collaborando con altre realtà del settore come Meta, OpenAI ha intenzione di migliorare le strategie per rilevare e prevenire frodi, cercando di rafforzare la sicurezza collettiva di tutti gli utenti e, al contempo, mantenendo alti standard di integrità nel suo operato.
Di fronte a sfide crescenti e un panorama sempre più complesso, OpenAI rimane impegnata a garantire un utilizzo etico della propria tecnologia, lavorando per contrastare minacce e comportamenti fraudolenti attraverso forti iniziative di monitoraggio e collaborazione.