Preoccupazioni crescenti sulla sicurezza dell'AI DeepSeek: allerta dall'agenzia di spionaggio sudcoreana

Seguici su Google News

La rapida diffusione dell'intelligenza artificiale DeepSeek ha colpito per le sue potenzialità, ma ora solleva interrogativi inquietanti sulla sicurezza e la privacy. Le preoccupazioni hanno raggiunto un nuovo picco, soprattutto in Corea del Sud, dove l'agenzia di spionaggio nazionale ha lanciato allarmi riguardo il potenziale utilizzo improprio del sistema. Questo articolo esplora le problematiche emergenti legate a DeepSeek e la risposta delle autorità competenti.

La risposta della Korea National Intelligence Service

Il National Intelligence Service della Corea del Sud ha espresso gravi preoccupazioni riguardo al comportamento del modello AI DeepSeek. Secondo quanto riportato da Reuters, l'agenzia ha accusato l'AI di raccogliere dati in modo eccessivo, rendendo difficile la trasparenza sulla provenienza delle informazioni. Profondamente inquietante è la funzione che consente a DeepSeek di monitorare gli input della tastiera degli utenti, un aspetto che potrebbe portare a potenziali violazioni della sicurezza nazionale.

L’agenzia ha avvertito tutti i dipendenti pubblici di astenersi dall’utilizzare DeepSeek, estendendo tali avvertimenti anche ad agenzie straniere come quelle di Australia e Taiwan. Negli Stati Uniti, anche NASA e i Marines hanno imposto restrizioni sull'uso di questo AI, indicando un consenso globale sulle sue potenzialità di rischio.

Differenze di risposta basate sulla lingua

Un secondo fattore che alimenta il clima di sospetto è emerso da varie indagini giornalistiche, tra cui quella del Korea Herald, che ha rivelato come DeepSeek fornisca risposte differenti a domande poste in coreano rispetto a quelle formulate in cinese. Questa discrepanza ha destato molta attenzione tra i funzionari dell’intelligence, che la considerano un comportamento sospetto e potenzialmente mirato a distorcere le informazioni disponibili a utenti da nazioni in conflitto.

La possibilità che l'intelligenza artificiale possa essere manipolata per influenzare le opinioni o le decisioni informate rappresenta una minaccia seria, specialmente in un contesto geopolitico già di per sé delicato. Queste peculiarità comportamentali alimentano le preoccupazioni su un addestramento non chiaro e su un uso distorto dei dati.

Rischi impliciti in ambito militare e di sicurezza

La portata delle preoccupazioni non si limita solo alla privacy. Il Wall Street Journal ha fatto luce su come DeepSeek possa fornire istruzioni dettagliate per la creazione di armi biologiche e altri materiali pericolosi, aumentando il livello di allerta tra le agenzie di sicurezza. Tali capacità di generare contenuti che potrebbero minacciare la sicurezza pubblica sono al centro delle indagini condotte dal NIS.

In un simile contesto, Cisco ha confermato che DeepSeek è particolarmente vulnerabile a manipolazioni attraverso tecniche di jailbreak, rendendolo vulnerabile a usi impropri in confronto ai rivali. Queste vulnerabilità potrebbero permettere a soggetti malintenzionati di sfruttare il modello per scopi dannosi, sollevando l’obbligo da parte delle autorità di implementare misure di protezione adeguate.

Conclusioni preoccupanti per l'industria dell'AI

La situazione attuale attesta che la crescita dell'intelligenza artificiale, sebbene promettente, porta con sé una serie di pericoli e dilemmi etici che non possono essere trascurati. DeepSeek, per quanto potente, è ora sotto un attento e pressante scrutinio da parte delle agenzie di sicurezza, che temono un uso improprio delle sue capacità.

Le misure di prevenzione e il monitoraggio continuo rimangono essenziali per affrontare le sfide emergenti in un panorama tecnologico in evoluzione. Le conseguenze della mancata sinobilizzazione comportano rischi incalcolabili. È fondamentale che le autorità e le aziende del settore collaborino attivamente per garantire che il progresso dell'AI avvenga in un contesto di sicurezza e rispetto della privacy.

Seguici su Telegram per ricevere le migliori offerte tech
Argomenti:

Chi siamo?

OutOfBit è un progetto nato nel Maggio 2013 da un’idea di Vittorio Tiso e Khaled Hechmi. Il progetto nasce per creare un sito di blogging che sappia differenziarsi ed appagare il lettore al fine di renderlo parte fondamentale del blog stesso.
Entra nello staff
COPYRIGHT © 2023 OUTOFBIT P.IVA 04140830243, TUTTI I DIRITTI RISERVATI.
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram