Riflessioni sui limiti dell’intelligenza artificiale generativa: cosa ci dicono i ricercatori

L’intelligenza artificiale generativa, nonostante i progressi, affronta sfide significative legate alle allucinazioni e alla fiducia nelle informazioni, con esperti scettici su rapidi miglioramenti futuri.

Negli ultimi anni, l’intelligenza artificiale generativa ha attirato notevole attenzione, specialmente dopo il lancio di strumenti come ChatGPT nel 2022. Tuttavia, emergono preoccupazioni serie riguardo ai margini di errore di questi modelli, noti come “allucinazioni”, che possono fornire informazioni inventate anziché dati veritieri. Un recente rapporto redatto da esperti nel campo dell’intelligenza artificiale offre una panoramica sui progressi e le sfide che il settore deve affrontare.

Gli errori di intelligenza artificiale: cosa sono le allucinazioni?

I cosiddetti errori di “allucinazione” rappresentano un aspetto critico dell’AI generativa, poiché si riferiscono a situazioni in cui il modello genera informazioni false oppure fondate su dati inconsistenti. Gli esperti avvertono che, nonostante i legami con l’entusiasmo degli sviluppatori, il miglioramento delle capacità di queste tecnologie non è previsto nel breve termine. Secondo un panel di esperti dell’Associazione per il progresso dell’intelligenza artificiale , ci sono poche speranze di vedere una risoluzione rapida ai problemi di affidabilità.

Seguici su Google News

Ricevi i nostri aggiornamenti direttamente nel tuo feed di
notizie personalizzato

Seguici ora

Vincent Conitzer, professore di informatica alla Carnegie Mellon University e membro del panel, ha sottolineato l’approccio cauteloso degli studiosi: “si tende a verificare un’innovazione solo quando si dimostra effettivamente efficiente.” Questa cautela è riflessa anche nell’analisi delle aspettative sugli sviluppi futuri della tecnologia, che appaiono piuttosto prudenti.

Velocità di sviluppo dell’intelligenza artificiale

Il report pubblicato da Francesca Rossi, presidente dell’AAAI, ha come obiettivo principale quello di sostenere la ricerca nell’ambito dell’intelligenza artificiale, affinché la tecnologia si evolva in modo da supportare realmente le necessità umane. Non si tratta solo di fornire informazioni corrette; la questione della fiducia e della responsabilità è centrale, poiché un’AI mal gestita potrebbe generare conseguenze indesiderate considerevoli.

Conitzer ha affermato che l’accelerazione dell’AI è stata sorprendente, evidenziando che le tecniche utilizzate hanno raggiunto risultati inaspettati persino per gli esperti. Tuttavia, ci sono ambiti di ricerca dove l’entusiasmo trova giustificazione, come nei settori scientifici o matematici, dove è possibile verificare i risultati forniti dai modelli.

Affidabilità e precisione dell’AI generativa

Migliorare la fiducia nelle informazioni generate dai modelli AI è una delle fattezze principali della ricerca attuale. Da un’indagine condotta, è emerso che i chatbot tendono frequentemente a rispondere anche quando le loro informazioni sono inaccurate, creando una falsa sicurezza negli utenti. La Columbia Journalism Review ha rilevato che questi strumenti possono addirittura citare fonti inventate per sostenere affermazioni errate.

Il report dell’AAAI identifica tre metodi principali per incrementare la precisione dei sistemi di AI: il fine-tuning, ovvero l’apprendimento assistito da feedback umani; la generazione di contenuti arricchita da recupero di documenti specifici; e la catena di pensiero, che prevede di scomporre le domande in passaggi più piccoli. Ciò non significa che i chatbot diventeranno affidabili in tempi brevi. Il 60% degli esperti è scettico riguardo a una rapida risoluzione delle questioni legate alla verità e all’affidabilità.

Il futuro dell’intelligenza artificiale e l’AGI

Una delle principali controversie nel settore dell’AI è la ricerca dell’intelligenza artificiale generale , che rappresenterebbe una tecnologia in grado di eguagliare o superare le capacità umane. Secondo il rapporto, la maggioranza degli esperti considera improbabile che l’AGI possa derivare dall’ampliamento delle tecniche attuali. Questo scetticismo si estende anche alla richiesta di rendere pubblici i sistemi di AGI sviluppati da aziende private, per rispondere a preoccupazioni etiche riguardo alle possibili conseguenze di un’intelligenza superiore.

La questione di cosa rappresenti l’AGI è complessa: per alcuni, si tratta di un sistema capace di svolgere molteplici compiti a livello umano; per altri, è un modello in grado di sostituire completamente l’essere umano. Nonostante scetticismo e interrogativi, l’evoluzione dell’AI negli ultimi anni ha stupito molti, e gli esperti avvertono che non si può escludere la possibilità di sorprese future.

In sintesi, mentre le tecnologie di intelligenza artificiale continuano a progredire, è fondamentale mantenere un approccio critico e scettico, non solo per sfruttare al meglio le potenzialità del settore, ma anche per garantire un impatto positivo sulla società.

Seguici su Telegram

Seguici su Telegram per ricevere le Migliori Offerte Tech

Unisciti ora