Le recenti scoperte del professor Jonathan Zittrain dell'Università di Harvard hanno sollevato interrogativi significativi sull'intelligenza artificiale. Si è scoperto che ChatGPT, il noto modello di linguaggio sviluppato da OpenAI, presenta un comportamento particolare che manca di chiarezza. Infatti, quando il sistema è chiamato a menzionare il proprio nome, compare un messaggio che indica l'incapacità di fornire una risposta. Questo fenomeno è emerso in seguito a un post che ha guadagnato virale popolarità sui social media, portando alla ribalta questioni fondamentali riguardanti il controllo e la trasparenza dei modelli di intelligenza artificiale.
Come funziona il blocco di ChatGPT
La questione di ChatGPT che si blocca su determinati nomi è stata confermata da OpenAI, l'azienda responsabile della sua creazione. Si osserva che solo pochi nomi suscitano questo tipo di reazione. Le motivazioni potenziali includono il rispetto della privacy e la prevenzione nella generazione di informazioni inaccurate riguardo a specifiche persone. Uno degli esempi noti riguarda il professor Jonathan Turley, il quale non è più menzionato dopo che ChatGPT lo ha erroneamente accusato di molestie sessuali.
Questa restrizione è stata implementata all'inizio del 2023, a pochi mesi dal lancio di ChatGPT, e ciò è avvenuto tramite una modifica del sistema, descritta dalla stessa OpenAI come una “patch”. L'azienda ha riconosciuto che la soluzione adottata è piuttosto limitata e ha in programma di migliorare il meccanismo di blocco in futuro. Questa situazione ha portato a riflessioni su come i sistemi di IA, pur avendo il potenziale per fornire risposte e informazioni, possono anche subire restrizioni a seconda dei nomi coinvolti.
La complessità dei modelli di IA conversazionale
Il professor Zittrain ha messo in evidenza due aspetti contraddittori dei modelli di intelligenza artificiale, come ChatGPT. Da un lato, i modelli sono caratterizzati da una forte imprevedibilità; piccole variazioni nelle domande possono portare a risultati completamente diversi. Questa incertezza può rendere difficile per gli utenti ottenere risposte consistenti. Dall'altro lato, esistono metodi attraverso i quali gli sviluppatori possono influenzare attivamente il comportamento dei chatbot. Tali tecniche includono il fine-tuning, cioè un addestramento specifico per migliorare la capacità di risposta e garantire la sicurezza, e i prompt di sistema, che sono istruzioni fornite al modello prima che inizi l'interazione con l'utente.
Un altro aspetto interessante è la capacità dei modelli di IA di effettuare conversazioni interne. Questo significa che, in determinate circostanze, il modello può "parlare con se stesso" per accertare fatti o pianificare risposte più precise. Tuttavia, resta il dubbio su quanto questi meccanismi dovrebbero essere resi trasparenti al pubblico. Zittrain sottolinea l'importanza di rendere pubbliche queste forme di controllo, poiché esse non rappresentano solo decisioni tecniche, ma anche giudizi morali e sociali.
L'importanza della trasparenza nell'intelligenza artificiale
La questione sollevata da Zittrain pone l'accento sulla necessità di una maggiore trasparenza nelle pratiche operative delle aziende tecnologiche. La mancanza di chiarezza sulle modalità di funzionamento dei modelli di intelligenza artificiale potrebbe conferire a queste aziende un potere silenzioso come arbitri della verità. Questo non è solo un tema di pratiche aziendali etiche, ma anche di responsabilità sociale. Infatti, la possibilità che pressioni esterne possano influenzare le decisioni delle aziende è una preoccupazione crescente.
In un'epoca in cui l'intelligenza artificiale gioca un ruolo sempre più centrale nelle decisioni quotidiane, la trasparenza diventa una richiesta fondamentale per gli utenti. La scarsa apertura sul funzionamento dei modelli può generare sfiducia e preoccupazioni su come tali tecnologie possano influenzare le informazioni e le interazioni quotidiane. Pertanto, è essenziale che le aziende prendano in considerazione l'opinione pubblica e sviluppino metodologie più chiare riguardo alla loro tecnologia. A tal fine, l'adozione di pratiche di informazione più trasparenti potrebbe rivelarsi vantaggiosa per tutti, creando un ecosistema in cui la trasparenza e l'affidabilità siano al centro dello sviluppo tecnologico.