AgID avvia consultazione pubblica sull’uso dell’intelligenza artificiale nella pubblica amministrazione

L’Agenzia per l’Italia Digitale avvia una consultazione pubblica sull’uso dell’intelligenza artificiale nella pubblica amministrazione, puntando a definire linee guida che garantiscano efficienza e rispetto dei diritti fondamentali.

L’Agenzia per l’Italia Digitale ha avviato il 18 febbraio un’importante consultazione pubblica con l’obiettivo di raccogliere suggerimenti e modifiche relative all’uso dell’intelligenza artificiale nella pubblica amministrazione. Questa iniziativa, rivolta a esperti e a cittadini, si inserisce nel Piano Triennale per l’Informatica nella Pubblica Amministrazione 2024-2026 e si concluderà il 20 marzo. La consultazione mira a definire un quadro normativo che permetta agli enti pubblici di sfruttare al meglio le potenzialità dell’IA, rispettando al contempo le regolazioni già esistenti in materia, dal GDPR all’AI Act.

Obiettivi delle nuove linee guida

Il documento presentato da AgID delinea un contesto nel quale l’intelligenza artificiale non è solo una tecnologia emergente, ma una vera opportunità per rivoluzionare i servizi pubblici. Le linee guida intendono fissare dei paletti precisi per l’adozione dell’IA, promuovendo una maggiore efficienza operativa e un miglioramento della qualità dei servizi resi al pubblico. Oltre a garantire la sicurezza e la tutela dei diritti fondamentali, gli enti pubblici saranno chiamati a garantire un’adeguata supervisione umana nell’uso dell’IA, con l’intento di mantenere un alto standard di trasparenza.

Seguici su Google News

Ricevi i nostri aggiornamenti direttamente nel tuo feed di notizie personalizzato

Seguici ora

Nel documento di 119 pagine, si sottolinea l’importanza di un adattamento costante alle innovazioni rapide del panorama tecnologico. Questo approccio si traduce in allegati e appendici che potranno essere aggiornati in funzione delle evoluzioni della tecnologia, assicurando così che le linee guide siano sempre al passo con i tempi.

Tipologie di utilizzo dell’IA

Nelle linee guida sono delineati chiaramente gli ambiti di utilizzo dell’intelligenza artificiale da parte della pubblica amministrazione. In primo luogo, l’IA potrà essere impiegata per automatizzare attività semplici e ripetitive, il che consentirà di liberare risorse umane per compiti di maggiore valore strategico. Inoltre, le amministrazioni potranno utilizzare l’IA per migliorare le proprie capacità predittive, contribuendo a decisioni più informate e basate su dati concreti.

Un altro aspetto fondamentale riguarda la personalizzazione dei servizi, dove l’intelligenza artificiale può giocare un ruolo chiave per rispondere in modo più efficace alle esigenze degli utenti. Le linee guida insistono sulla necessità di promuovere rituali di innovazione nei servizi pubblici e nelle procedure amministrative, rispettando dei principi di conformità normativa e gestione del rischio. La protezione dei dati personali, la trasparenza e la non discriminazione sono alcuni dei principi chiave che dovranno essere rispettati in questo nuovo contesto.

Limitazioni e divieti nell’uso dell’IA

L’AgID ha messo in chiaro anche le attività che non saranno consentite nell’ambito dell’intelligenza artificiale. In particolare, sarà vietato l’impiego di sistemi di scoring sociale che valutano i cittadini in base ai loro comportamenti o caratteristiche personali. Inoltre, l’uso dell’IA per approfittare della vulnerabilità di determinati gruppi, come i minori, è rigorosamente proibito. Anche il riconoscimento biometrico è sottoposto a severe restrizioni, a meno che non sia strettamente necessario per motivi di sicurezza nazionale.

In questo panorama normativo, è fondamentale un intervento umano nelle decisioni critiche. I sistemi di intelligenza artificiale dovranno essere progettati in modo da consentire la loro verifica e correzione da parte di operatori umani, per garantire la responsabilità e l’affidabilità delle decisioni prese.

Un approccio di gestione del rischio

Le linee guida si fondano su un approccio che tiene conto dei diversi livelli di rischio legati all’uso dell’IA, come indicato dall’AI Act. Questo implica che le pubbliche amministrazioni debbano essere flessibili e pronte ad adattarsi ai diversi gradi di rischio associati ai sistemi di intelligenza artificiale, classificandoli in base alla loro pericolosità per la società.

L’AgID raccomanda l’implementazione di procedure di gestione del rischio specifiche, comprese valutazioni preliminari e monitoraggi continui, per evitare eventuali problemi. Si suggerisce che i progetti pilota siano condotti in fasi prima di un’implementazione totale, in modo da mitigare le problematiche e garantire una transizione efficace all’uso dell’IA. Sarà cruciale anche la formazione del personale coinvolto, affinché possa gestire e supervisionare adeguatamente i sistemi di intelligenza artificiale.

Questa iniziativa rappresenta un passo significativo nel processo di modernizzazione della pubblica amministrazione, ma richiederà un impegno costante per garantire un equilibrio tra innovazione e rispetto dei diritti fondamentali.

Seguici su Telegram

Seguici su Telegram per ricevere le Migliori Offerte Tech

Unisciti ora