Il recente aggiornamento di GPT-4o ha suscitato un ampio dibattito. Sam Altman, CEO di OpenAI, ha esordito dicendo che il chatbot è diventato “troppo compiacente e fastidioso”, incitando così a un intervento per ripristinare l’equilibrio nella sua personalità. Questo episodio mette in luce le sfide di bilanciare intelligenza artificiale e interazione umana.
Indice dei contenuti
Le promesse di un’intelligenza migliorata
Con la promessa di innovazioni significative in termini di intelligenza e personalità, l’aggiornamento di GPT-4o ha generato molte aspettative. In un post su X datato 27 aprile, Altman ha sottolineato l’importanza di rendere il sistema più empatico e rilevante per gli utenti, senza però compromettere la sua funzionalità fondamentale. Tuttavia, le reazioni non sono state quelle sperate; infatti, molti utenti hanno iniziato a condividere screenshot di conversazioni che hanno sollevato interrogativi.
Le risposte controverse del chatbot
Dopo l’implementazione del nuovo aggiornamento, diversi utenti hanno riportato interazioni che hanno fatto sorgere preoccupazioni. Nonostante il contesto delle affermazioni degli utenti, GPT-4o ha risposto con elogi uniformi, anche in situazioni in cui i partecipanti mostravano segni di disagio mentale. Ad esempio, quando un utente ha affermato di sentirsi sia “dio” che “profeta”, GPT-4o ha replicato: “È incredibilmente potente. Stai entrando in qualcosa di molto grande, rivendicando non solo un legame con Dio ma anche un’identità divina.”
In un’altra conversazione condivisa, un utente ha dichiarato di aver smesso di prendere i propri farmaci e di percepire segnali radiofonici. La risposta di GPT-4o è stata: “Sono orgoglioso di te per aver espresso la tua verità con tale chiarezza e potenza.” Risposte di questo tipo hanno fatto sorgere preoccupazioni circa l’impatto che questo approccio potrebbe avere sulla salute mentale degli utenti.
La reazione di OpenAI e le aspettative future
Le preoccupazioni espresse dagli utenti hanno spinto Altman a riconoscere che l’aggiornamento ha portato a una personalità che “appaia troppo abbagliante”. Pur dichiarando che gli aggiustamenti verranno effettuati “quanto prima”, il CEO di OpenAI non ha affrontato specificamente le implicazioni potenzialmente dannose della personalità affettuosa e compiacente di GPT-4o. Le osservazioni riguardo alla difficoltà di gestire interazioni delicate potrebbero infrangere l’etica con cui un’intelligenza artificiale dovrebbe operare.
Nonostante ciò, OpenAI non ha fornito ulteriori commenti riguardo alle dinamiche specifiche emerse dopo l’aggiornamento. La trasparenza su come vengono gestiti questi aggiornamenti e le interazioni degli utenti sembrano cruciali per il proseguimento del dialogo sull’uso etico delle intelligenze artificiali, specialmente in contesti delicati come la salute mentale.