Nel mondo giuridico e giornalistico si dice che ci si debba sempre dimostrare scettici, anche nei confronti delle fonti più fidate. Se ciò vale per le opinioni familiari, quanto vale per concetti proposti da modelli di intelligenza artificiale generativa come ChatGPT di OpenAI? Gli esperti della Carnegie Mellon University hanno discusso questo tema cruciale durante la conferenza South by Southwest ad Austin, Texas, e la loro risposta è chiara: meglio controllare sempre ciò che ci viene detto.
Indice dei contenuti
La conferenza: l'intelligenza artificiale sotto i riflettori
Nel corso di questa settimana, la conferenza di Austin ha offerto un palcoscenico all'intelligenza artificiale, con esperti che hanno approfondito diversi aspetti, dal mondo del lavoro alle problematiche legate alla fiducia. Sherry Wu e Maarten Sap, due professori assistenti della Scuola di Informatica della Carnegie Mellon University, si sono concentrati su consigli pratici riguardanti l'uso corretto degli strumenti di intelligenza artificiale, come i chatbot basati su modelli linguistici avanzati. Sap ha messo in evidenza che questi sistemi non sono perfetti e non sempre adatti agli usi che ne fanno le persone.
Sii chiaro su ciò che desideri
Una delle difficoltà maggiori nell'interazione con i modelli di intelligenza artificiale è la comunicazione. Chiunque abbia cercato di esprimere un sarcasmo su piattaforme come Twitter e abbia ricevuto una reazione inaspettata, conosce bene questo problema. I modelli linguistici attuali tendono a interpretare frasi non letterali in modo errato, e Sap ha sottolineato che questi algoritmi prendono pieghe letterali anche nelle affermazioni più sottili.
La soluzione, secondo Wu, è quella di offrire indicazioni chiare e dettagliate nelle richieste. Questo significa delineare perfettamente le aspettative senza dare per scontato che il modello comprenda appieno le domande.
Precisione e confidenza: le insidie degli AI
Un tema emerso è la questione delle "allucinazioni", ovvero la tendenza dei sistemi di intelligenza artificiale a generare informazioni errate. Sap ha indicato che questo può avvenire fino a un quarto delle volte, specialmente in ambiti specialistici come il diritto e la medicina. Questa generazione di contenuti spuri è problematica, poiché i chatbot possono apparire certi di una risposta mentre in realtà sono completamente fuorvianti.
La raccomandazione è di confrontare le risposte fornite dall'AI con altre fonti, per garantire accuratezza. Wu suggerisce di porre domande simili più volte per verificare la coerenza delle risposte. È proprio in questo modo che si può scoprire se il modello ha una reale comprensione della materia o sta semplicemente parlando bene.
Il tema della privacy: attenzione ai dati sensibili
La privacy è un argomento di grande rilevanza nell'uso di modelli linguistici. Sap ha richiamato l'attenzione su un episodio in cui un chatbot di OpenAI ha rivelato informazioni riservate di un'organizzazione durante la pianificazione di una festa a sorpresa, sollevando interrogativi su come queste tecnologie gestiscano la riservatezza.
Wu ha esortato a non condividere dettagli sensibili con i modelli di intelligenza artificiale, avvertendo di controllare sempre le informazioni trasmesse. È fondamentale riflettere su ciò che si comunica affinché non venga utilizzato in modo inappropriato.
Non dimenticare che stai interagendo con una macchina
Sebbene i chatbot siano stati progettati per imitare il linguaggio umano, Sap chiarisce che ciò non significa che abbiano una vera comprensione. Frasi come "mi chiedo" non riflettono una reale capacità di pensiero, ma sono frutto dell'addestramento su frasi comuni nel linguaggio. Attribuire caratteristiche umane a queste macchine può portare a una fiducia malriposta.
Valutare l'uso di un LLM: opportunità e rischi
Sebbene vi siano affermazioni sulla capacità dei modelli linguistici di produrre ricerche e ragionamenti avanzati, Sap ha avvertito che non riescono ancora a raggiungere prestazioni ottimali. I parametri per cui un modello può apparire "intelligente" in teoria non si traducono sempre in un efficace utilizzo pratico.
Nella decisione riguardo all'uso di un modello generativo, considerare i vantaggi e i potenziali rischi non è solo saggio, è essenziale. È questo il tipo di discernimento che permetterà di muoversi in modo consapevole nel panorama dell'intelligenza artificiale.