OpenAI blocca utenti in Cina: il caso del chatbot usato per sorveglianza

OpenAI banna utenti cinesi che abusano di ChatGPT per attività illecite, evidenziando i rischi legati all’uso delle tecnologie AI per la sorveglianza e la disinformazione.

In un contesto complicato e in continua evoluzione, OpenAI ha recentemente preso una decisione significativa, bannando un numero considerevole di utenti cinesi che cercavano di utilizzare ChatGPT per scopi non autorizzati. Questo episodio, rivelato da Engaged, getta un’ombra sul modo in cui le tecnologie di intelligenza artificiale possono essere distorte per attività illecite. In particolare, il chatbot sarebbe stato impiegato per eseguire debugging e modificare codice all’interno di uno strumento di sorveglianza mirato a monitorare il sentiment anti-cinese su piattaforme social come Facebook, YouTube, Instagram e X.

Dettagli sul tentativo di abuso di ChatGPT

Secondo quanto ricostruito da OpenAI, la compagnia ha identificato una rete di account ChatGPT il cui utilizzo coincideva con orari di lavoro in Cina, suggerendo che queste operazioni fossero eseguite manualmente piuttosto che essere automatizzate. L’impiego del chatbot per tali finalità si configura come una grave violazione delle politiche di utilizzo stabilite dalla società. Questo porta a riflettere sull’effettivo controllo sulle tecnologie AI e sui potenziali rischi che comportano, soprattutto quando si tratta di paesi dove la sorveglianza è già una pratica consolidata.

I precedenti dell’uso improprio del chatbot

Ben Nimmo, ricercatore principale di OpenAI, ha confermato che questo non è il primo episodio di manipolazione riscontrato negli ultimi giorni. La compagnia ha precedentemente bloccato un account che utilizzava ChatGPT per generare contenuti ostili nei confronti di Cai Xia, un noto scienziato e politico cinese in esilio. Questo caso dimostra chiaramente come le potenzialità dei chatbot possano essere sfruttate per diffondere disinformazione e attacchi mirati.

In aggiunta, l’account in questione avrebbe elaborato articoli in lingua spagnola, successivamente pubblicati da diverse testate sudamericane, che attaccavano la politica degli Stati Uniti. Queste attività sottolineano l’urgente necessità di implementare sistemi di sicurezza più robusti per prevenire l’abuso delle tecnologie emergenti.

Il rischio della manipolazione delle tecnologie AI

Il fenomeno dell’abuso delle tecnologie AI come ChatGPT è un chiaro segnale del pericolo insito nell’uso di strumenti così potenti se nelle mani sbagliate. Nonostante le misure correttive adottate da OpenAI, rimane evidente che i rischi restano concreti e attuali. Le dinamiche di utilizzo in paesi come la Cina pongono interrogativi su come le aziende tecnologiche possano gestire e monitorare efficacemente l’uso delle loro innovazioni, specialmente quando queste vengono utilizzate per fini di controllo sociale e disinformazione.

In questo scenario complesso, è fondamentale trovare un equilibrio tra innovazione tecnologica e responsabilità etica, per garantire che strumenti come i chatbot vengano utilizzati in modo sicuro e costruttivo, piuttosto che come veicoli di manipolazione e inganno.