Rivelazioni inquietanti sui chatbot: un'analisi della loro veridicità nelle notizie

Seguici su Google News

Un’indagine della BBC ha recentemente messo in luce problematiche significative riguardo l’accuratezza di alcuni dei più noti chatbot di intelligenza artificiale, come ChatGPT di OpenAI, Copilot di Microsoft, Gemini di Google e Perplexity AI. Questi strumenti, utilizzati per sintetizzare articoli di notizie, presentano con frequenza evidenti imprecisioni e distorsioni, con potenziali implicazioni sulla fiducia del pubblico verso l’informazione.

L’indagine della BBC e i risultati emersi

La BBC ha condotto un’apposita valutazione, presentando cento articoli dal proprio sito a quattro chatbot e richiedendo loro di fornire un sommario di ciascuno. A questo punto, esperti del settore della BBC hanno successivamente analizzato la qualità e l’affidabilità delle risposte generate. I risultati sono stati allarmanti: oltre la metà delle risposte fornite dai chatbot conteneva errori significativi, ciò includeva imprecisioni fattuali, citazioni errate e informazioni obsolete.

Non meno preoccupante è emerso che il 51% delle risposte generate presentava tali mancanze, mettendo in evidenza una tendenza comune alla distorsione delle notizie. Il campione esaminato ha rivelato una serie di problematiche, come ad esempio il 19% delle risposte contenenti affermazioni errate e il 13% delle citazioni attribuite in modo scorretto o ampliate rispetto agli articoli originali.

Errori specifici rilevati nei chatbot

Tra i diversi errori, uno dei più significativi appartiene a Gemini, con il 46% delle sue risposte segnalate per problematiche di accuratezza. Un esempio concreto è relativo alle linee guida del Servizio Sanitario Nazionale britannico , dove Gemini ha erroneamente affermato che il NHS sconsiglia l’utilizzo del vaping come metodo per smettere di fumare, quando in realtà promuove questo approccio come valido sostegno per chi desidera interrompere l’abitudine al fumo.

Ulteriori errori hanno riguardato informazioni politiche datate, come quando ChatGPT e Copilot hanno erroneamente riportato che Rishi Sunak e Nicola Sturgeon ricoprivano ancora i ruoli di Primo Ministro del Regno Unito e Primo Ministro della Scozia. Altri esempi hanno incluso citazioni errate sulla situazione in Medio Oriente, con Perplexity che ha descritto le azioni di Israele in maniera inaccurata.

Reazioni dell’industria e l’appello alla trasparenza

Deborah Turness, CEO di BBC News, ha espresso preoccupazione riguardo ai risultati dell’indagine. In un post sul blog, ha sottolineato che, sebbene l'intelligenza artificiale offra opportunità enormi, attualmente la sua applicazione nel campo della sintesi delle notizie è carica di rischi. Turness ha sollevato interrogativi sul potenziale danno reale che potrebbe derivare da titoli distorti generati dall’AI, esortando gli sviluppatori a ripensare l’uso dei loro strumenti nell’informazione.

Ciò ha portato alla richiesta di una maggiore collaborazione tra i fornitori di tecnologia AI e le istituzioni giornalistiche. OpenAI ha risposto a queste preoccupazioni dichiarando l’impegno nella scoperta di contenuti di qualità, sottolineando di aver lavorato con partner per migliorare l’accuratezza e il rispetto delle preferenze dei pubblicatori.

Verso un futuro di maggiore accuratezza e collaborazione

Le scoperte della BBC evidenziano le sfide legate all’uso dell’AI nella comunicazione delle notizie. Le imprecisioni non solo danneggiano la fiducia del pubblico, ma possono comportare rischi notevoli, specialmente in ambiti delicati. Un dirigente della BBC ha enfatizzato la necessità di dare ai pubblicatori il controllo sui contenuti utilizzati e ha sottolineato l'importanza della trasparenza da parte delle aziende di AI riguardo ai metodi di elaborazione delle notizie.

Con l'AI che accelera la sua integrazione in diversi settori, questa ricerca sottolinea l'urgenza di una supervisione rigorosa, una cooperazione costante e un chiaro impegno verso l’accuratezza. Solo così si potrà garantire che i progressi tecnologici siano in linea con il bene pubblico e preservino l’integrità delle informazioni.

Seguici su Telegram per ricevere le migliori offerte tech
Argomenti:

Chi siamo?

OutOfBit è un progetto nato nel Maggio 2013 da un’idea di Vittorio Tiso e Khaled Hechmi. Il progetto nasce per creare un sito di blogging che sappia differenziarsi ed appagare il lettore al fine di renderlo parte fondamentale del blog stesso.
Entra nello staff
COPYRIGHT © 2023 OUTOFBIT P.IVA 04140830243, TUTTI I DIRITTI RISERVATI.
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram