I vincitori del premio Turing avvertono: attenzione ai rischi dell’intelligenza artificiale

Andrew Barto e Richard Sutton, vincitori del premio Turing, avvertono sui rischi dell’intelligenza artificiale non testata, sottolineando l’importanza di responsabilità e sicurezza nello sviluppo tecnologico.

L’attenzione si concentra su Andrew Barto e Richard Sutton, due scienziati che hanno ricevuto il prestigioso premio Turing per il loro lavoro innovativo nei metodi di addestramento dell’intelligenza artificiale. Questo premio, considerato il “Nobel della Informatica“, porta con sé un riconoscimento di un milione di dollari. Entrambi hanno deciso di usare la loro visibilità per fare un appello alla cautela riguardo ai potenziali pericoli connessi al lancio precipitoso di modelli di AI senza adeguate verifiche.

Seguici su Google News

Ricevi i nostri aggiornamenti direttamente nel tuo feed di notizie personalizzato

Seguici ora

Le preoccupazioni per l’uso irresponsabile dell’AI

Barto, ricercatore presso l’Università del Massachusetts, e Sutton, ex scienziato di ricerca presso DeepMind, non hanno risparmiato critiche alle pratiche degli sviluppatori di intelligenza artificiale. Hanno paragonato il rilascio di software di intelligenza artificiale non testati a “costruire un ponte e testarlo mentre la gente cammina sopra“. Secondo quanto riportato dal Financial Times, questa mancanza di test approfonditi prima della commercializzazione rappresenta una grave carenza nelle pratiche ingegneristiche attuali.

Le due menti brillanti hanno sottolineato che esistono protocolli e metodi di ingegneria consolidati per minimizzare le conseguenze negative delle nuove tecnologie, eppure le realtà aziendali sembrano ignorare questa responsabilità. “Non è buona pratica ingegneristica rilasciare software a milioni di persone senza salvaguardie,” ha affermato Barto. Per lui, le aziende che sviluppano AI dovrebbero prioritizzare la sicurezza e la responsabilità, invece di lasciarsi guidare da incentivi puramente commerciali.

L’innovazione alla base del successo dell’AI

Il premio Turing è stato assegnato a Barto e Sutton per il loro contributo fondamentale allo sviluppo dell’apprendimento per rinforzo. Questo approccio, uno dei metodi di machine learning più influenti, consente ai sistemi di intelligenza artificiale di ottimizzare le proprie decisioni imparando attraverso tentativi ed errori. La tecnologia è stata descritta da Jeff Dean, vicepresidente senior di Google, come “il pilastro centrale del progresso nell’AI“. Grazie a questa innovazione sono emersi modelli rivoluzionari come ChatGPT di OpenAI e AlphaGo di Google.

Francamente, i due scienziati ritengono che le aziende di AI stiano trascurando i pericoli di rilasciare software non testati al pubblico. Barto ha espresso preoccupazione per una mancanza di attenzione alla responsabilità sociale da parte di molte realtà aziendali. La crescita del settore non deve avvenire a spese della sicurezza e del benessere collettivo.

Appelli da esperti del settore

Le critiche sullo sviluppo insicuro dell’intelligenza artificiale non sono isolate. Figures di spicco nel mondo dell’AI, come Yoshua Bengio e Geoffrey Hinton, che sono stati parte fondamentale della sua evoluzione, hanno espresso preoccupazioni simili. Entrambi, precedenti vincitori del premio Turing, hanno segnalato l’importanza di affrontare i rischi esistenti con un approccio responsabile.

Nel 2023, un gruppo di ricercatori, ingegneri e amministratori delegati delle principali aziende di intelligenza artificiale ha firmato una dichiarazione in cui si affermava che “mitigare il rischio di estinzione causato dall’AI dovrebbe essere una priorità globale“. Queste dichiarazioni hanno suscitato un ampio dibattito sulla necessità di una governance più rigorosa e di standard più elevati per la ricerca e lo sviluppo nel campo dell’AI.

Le motivazioni commerciali nella creazione dell’AI

Andrew Barto ha anche chiamato in causa i motivi che spingono le aziende di intelligenza artificiale, sottolineando come spesso siano orientate più ai profitti che al progresso della ricerca. OpenAI, ad esempio, ha annunciato nel mese di dicembre un cambiamento nella propria struttura aziendale per trasformarsi in una compagnia profittevole, nonostante le promesse precedenti di prestare attenzione alla sicurezza dell’AI. Questa mossa ha destato preoccupazioni, dato che il CEO Sam Altman è stato allontanato, in parte, per aver “commercializzato eccessivamente i progressi” senza comprendere appieno le conseguenze di tali azioni.

La crescente pressione economica sul settore dell’intelligenza artificiale potrebbe minacciare l’equilibrio tra innovazione e responsabilità. Mentre i progressi in questo ambito continuano a riscrivere le regole, la necessità di una regolamentazione rigorosa e di un approccio etico rimane un tema cruciale nel dibattito contemporaneo.

Seguici su Telegram

Seguici su Telegram per ricevere le Migliori Offerte Tech

Unisciti ora