Un episodio tragico è avvenuto a Las Vegas, dove un Cybertruck di Tesla è stato fatto esplodere in prossimità del Trump Hotel. Questo atto di violenza ha portato al ferimento di sette persone e alla morte di uno dei presenti. La peculiarità di questo caso è rappresentata dall'affermazione della polizia locale riguardo all'uso di ChatGPT, un'intelligenza artificiale generativa, nell'organizzazione dell'attentato. L'episodio ha sollevato preoccupazioni serie riguardo all'abuso della tecnologia e ai suoi potenziali rischi.
Il contesto dell'esplosione
Circa una settimana fa, Las Vegas è stata testimone di un grave evento: un Cybertruck di Tesla è stato distrutto da un'esplosione orchestrata da Matthew Livelsberger, un ex soldato di 37 anni, che ha compiuto l'atto violento nei pressi del Trump Hotel. Le conseguenze immediate sono state devastanti, con sette feriti e un decesso. Livelsberger ha successivamente preso la decisione di togliersi la vita, utilizzando l'arma con cui aveva provocato l'esplosione. Questo tragico episodio ha messo in luce l'importanza di comprendere le motivazioni e le modalità attraverso cui si sono verificati tali eventi.
L'analisi delle prove ha rivelato una connessione inquietante: Livelsberger, prima di compiere l'atto, ha effettuato numerose ricerche su ChatGPT riguardo a esplosivi e altre informazioni pertinenti che potrebbero essere state utilizzate per pianificare l'attentato. Le domande poste all'intelligenza artificiale includevano richieste su esplosivi, la velocità di vari proiettili e la legalità dei fuochi d'artificio in Arizona.
Reazioni da parte delle autorità
La scoperta di utilizzare un'intelligenza artificiale per supportare atti violenti ha colpito le autorità locali. Kevin McMahill, sceriffo del dipartimento di polizia metropolitana di Las Vegas, ha descritto l'uso di ChatGPT come un “punto di svolta”. Ha sottolineato l'importanza della situazione, dichiarando: "Abbiamo prove chiare che il sospettato ha utilizzato questa intelligenza artificiale per pianificare il suo attacco." Questo fatto ha incentivato un'azione immediata da parte delle forze dell'ordine, che hanno condiviso informazioni con altre agenzie per affrontare una problematica così grave.
Lo sceriffo ha rivelato che non ci sono precedenti simili negli Stati Uniti, in cui un AI abbia svolto un ruolo attivo nell'aiutare un individuo a costruire un dispositivo esplosivo. La comunità di polizia si trova ora di fronte a una nuova sfida: come gestire e prevenire l'abuso delle tecnologie emergenti in contesti criminali.
La posizione di OpenAI
Il caso ha attratto anche l'attenzione di OpenAI, che ha rilasciato una dichiarazione in merito all'uso di ChatGPT nel crimine. L'organizzazione ha ribadito il proprio impegno per garantire che i propri strumenti vengano utilizzati in modo responsabile e per prevenire istruzioni potenzialmente dannose. OpenAI ha affermato che le risposte fornite da ChatGPT in questo caso erano basate su informazioni pubblicamente disponibili su Internet, sottolineando che il sistema ha anche fornito avvertimenti contro attività illegali o dannose.
In un'epoca in cui l'intelligenza artificiale sta assumendo un ruolo sempre più significativo nella vita quotidiana, eventi come quello di Las Vegas pongono interrogativi cruciali sul confine tra innovazione e rischio. La collaborazione tra sviluppatori di tecnologie e forze dell'ordine diventa essenziale per proteggere la società da possibili abusi e lidi inquietanti in cui la tecnologia potrebbe essere utilizzata.