Una segnalazione per violazione della privacy è stata presentata contro OpenAI da un cittadino norvegese, il quale sostiene che ChatGPT lo avrebbe etichettato erroneamente come un assassino condannato per aver ucciso due dei suoi figli e per aver tentato di uccidere un terzo. La vicenda solleva interrogativi sulle responsabilità di intelligenze artificiali nella diffusione di informazioni non veritiere.
Indice dei contenuti
Richiesta di verifica e risposta inutile
Arve Hjalmar Holmen ha deciso di verificare cosa avrebbe prodotto ChatGPT riguardo alla sua persona. La sorprendente risposta ricevuta riportava false accuse di omicidio e tentato omicidio, affermando che l’uomo stesse scontando una pena di 21 anni in un carcere norvegese. Delirante è la mescolanza di fatti e dettagli inventati, che includono anche la sua città natale e il numero e genere dei suoi figli. Questa situazione ha colto di sorpresa Holmen, in quanto non solo le sue informazioni personali sono state compromesse, ma anche la sua reputazione è stata pesantemente lesinata da tali affermazioni.
L’agenzia austriaca Noyb ha intrapreso azioni legali a nome di Holmen, presentando una denuncia al Datatilsynet norvegese. La denuncia punta il dito contro OpenAI, accusata di inosservanza delle normative sulla protezione dei dati personali previste dal Regolamento Generale sulla Protezione dei Dati dell’Unione Europea . Il gruppo chiede che la società subisca una multa e venga obbligata a rimuovere il contenuto diffamatorio, oltre a fare miglioramenti nel modello per prevenire tale scorretta diffusione di dati.
La difesa della privacy degli utenti
Joakim Söderberg, avvocato specializzato in protezione dei dati di Noyb, ha commentato la situazione affermando che il GDPR stabilisce chiaramente che i dati personali debbano essere accurati. Secondo lui, se i dati non sono veritieri, gli utenti hanno il diritto di chiedere che vengano corretti affinché rispecchino la verità. “Fornire un piccolo avviso che ChatGPT possa commettere errori non è sufficiente. Non si può semplicemente diffondere informazioni false e poi alla fine aggiungere una piccola avvertenza indicando che tutto potrebbe non essere vero,” ha dichiarato Söderberg.
Le circostanze legate alla richiesta di Holmen non sono state rese pubbliche da Noyb, sebbene il dato sia presente nella denuncia ufficiale ma omesso per la diffusione pubblica. Tuttavia, è stato specificato che la query è stata effettuata prima dell’ultima aggiornamento locale di ChatGPT, che ora include ricerche web nei risultati. Ora, digitare lo stesso quesito genera risposte relative esclusivamente al reclamo di Noyb.
Contesto e conseguenze di un altro reclamo
Quella di Holmen non è la prima azione legale intrapresa da Noyb nei confronti di ChatGPT. Nel mese di aprile 2024, il gruppo aveva già presentato una denuncia riguardante un personaggio pubblico il cui nome corretto era stato riportato in modo errato dallo strumento AI. In quell’occasione, Noyb si era opposta all’affermazione di OpenAI secondo cui i dati errati non possano essere corretti, ma solo bloccati rispetto a richieste specifiche. Questo aspetto viene ritenuto in contrasto con i requisiti del GDPR, secondo cui i dati inaccurati devono essere “cancellati o rettificati senza indugi”.
La situazione attuale implica che OpenAI si trovi di fronte a potenziali sanzioni e a un’importante riflessione sulla gestione della verità nei modelli di intelligenza artificiale. Con il crescente utilizzo di queste tecnologie, il rispetto delle normative sulla privacy e sull’accuratezza delle informazioni è diventato cruciale per tutelare i diritti degli utenti e la loro reputazione.