Preoccupazioni crescenti sul fenomeno delle immagini deepfake: lettere del Congresso agli esperti di tecnologia

Seguici su Google News

Negli ultimi mesi, la questione delle immagini intime non consensuali, in particolare quelle prodotte attraverso tecnologie deepfake, ha attirato l'attenzione di diverse istituzioni negli Stati Uniti. Con il Congresso che rivolge la sua attenzione ai grandi nomi del settore della tecnologia, come Apple, Microsoft, Google, Facebook, TikTok e Snapchat, il problema sembra essere diventato un tema centrale nel dibattito sulla sicurezza online e la protezione delle persone vulnerabili.

La diffusione dei deepfake e le preoccupazioni del Congresso

Le immagini e i video deepfake sono contenuti in cui volti di persone comuni, soprattutto donne, vengono sostituiti con quelli di attori di film per adulti grazie all'uso dell'intelligenza artificiale. Questa pratica ha suscitato ondate di indignazione e ansia, specialmente in relazione alla loro diffusione non consensuale. I membri del Congresso statunitense, in una lettera firmata da rappresentanti di diversi partiti, hanno messo in evidenza le gravi problematiche legate alla disponibilità di applicazioni mobili che consentono la creazione di tali contenuti.

Le tecnologie utilizzate per generare deepfake hanno aperto la porta a nuove forme di abusiva rappresentazione sessuale, spingendo a richiedere ai leader delle aziende tech di affrontare con serietà queste problematiche. La lettera contiene domande dirette relative alle misure che le compagnie stanno adottando per prevenire la diffusione di immagini create in modo fraudolento e per proteggere le persone dalla violazione della privacy e dell'integrità personale.

La risposta di Apple e la rimozione delle app problematiche

Tra le misure più recenti menzionate nel documento, si fa riferimento alla decisione di Apple di rimuovere tre app dal suo App Store, utilizzate principalmente per la creazione di deepfake. La compagnia ha adottato questa decisione in seguito a un'indagine condotta da 404 Media, che ha rivelato le problematiche relative alla proliferazione di contenuti sessuali espliciti non consensuali.

Tuttavia, il Congresso ha manifestato preoccupazione sul fatto che Apple non abbia rilevato autonomamente la presenza di tali app nel suo store. Nonostante l'App Store preveda un accurato processo di selezione per gli sviluppatori, la continuità della presenza di applicazioni problematiche evidenzia la necessità di rivedere e rafforzare le politiche di monitoraggio. Le richieste ai vertici di Apple, come Tim Cook, si concentrano su quali misure siano in fase di sviluppo per garantire una protezione adeguata e quali linee guida saranno implementate affinché episodi simili non possano ripetersi.

Le misure adottate da Google e il ruolo della pubblicità

Il tema delle immagini deepfake non si limita a Apple, ma coinvolge anche altre grandi aziende tecnologiche come Google. Nella lettera inviata a Sundar Pichai, CEO di Google, il Congresso ha sottolineato il ruolo di Big G nella diffusione di annunci pubblicitari che promuovono applicazioni capaci di generare contenuti sessualmente espliciti.

A inizio anno, Google aveva annunciato la decisione di interrompere la pubblicità per servizi che consentono la produzione di pornografia deepfake. Tuttavia, nonostante queste promesse, sono emerse preoccupazioni relative alla continua promozione di apparenti contenuti dannosi nel motore di ricerca. Diverse segnalazioni hanno evidenziato che Google continua a mostrare risultati per app che utilizzano l'AI generativa per la produzione di immagini di nudità non consensuale. Questa scoperta ha sollevato interrogativi sulla responsabilità e sull'impatto di Google nel facilitare la proliferazione di tali contenuti. Il Congresso chiede chiarimenti su come siano stati implementati i cambiamenti nelle politiche pubblicitarie e se ulteriori azioni siano pianificate per rimuovere le applicazioni di deepfake dai risultati di ricerca.

Problematiche relative alla diffusione di contenuti non consensuali su diverse piattaforme

Non si ferma qui l'interesse del Congresso, che ha indirizzato comunicazioni simili a Facebook, TikTok e Snapchat. Queste piattaforme social sono diventate un terreno fertile per la diffusione di contenuti non consensuali, suscitando allerta per la sicurezza degli utenti. Gli organi legislativi desiderano sapere come queste aziende stiano affrontando il problema della pornografia deepfake e se siano state adottate misure efficaci per arginare la situazione.

I membri del Congresso stanno spingendo per tener conto non solo del problema delle immagini sessuali, ma anche di fenomeni legati alle frode finanziarie e ad altri crimini informatici che possono essere alimentati dall'uso delle tecnologie deepfake. Queste preoccupazioni allargano il panorama della discussione, richiedendo un cambiamento significativo nelle politiche di gestione dei contenuti online e una maggiore responsabilità da parte delle piattaforme.

È evidente che la questione delle immagini deepfake è ben lontana dall'essere risolta, sollecitando un'azione collettiva e congiunta tra governi e aziende tecnologiche. La strada da percorrere è lunga, ma i segnali di attenzione da parte del Congresso rappresentano un passo importante verso una maggiore tutela degli utenti online.

Seguici su Telegram per ricevere le migliori offerte tech
Argomenti:

Chi siamo?

OutOfBit è un progetto nato nel Maggio 2013 da un’idea di Vittorio Tiso e Khaled Hechmi. Il progetto nasce per creare un sito di blogging che sappia differenziarsi ed appagare il lettore al fine di renderlo parte fondamentale del blog stesso.
Entra nello staff
COPYRIGHT © 2023 OUTOFBIT P.IVA 04140830243, TUTTI I DIRITTI RISERVATI.
crossmenu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram