OpenAI sotto accusa: il giudice respinge la richiesta di archiviazione della causa del New York Times

La controversia legale tra OpenAI e il New York Times riguarda l’uso non autorizzato di articoli per addestrare ChatGPT, con implicazioni significative per i diritti d’autore nell’era digitale.

La controversia legale tra OpenAI e il New York Times è diventata un tema caldo nel 2025, dopo che il quotidiano ha accusato l’azienda di intelligenza artificiale di violazione dei diritti d’autore. L’argomento principale è il presunto utilizzo non autorizzato degli articoli del NYT per il training del modello ChatGPT. La questione ha preso piede a dicembre 2023, quando il New York Times ha avviato una causa legale che ha portato a uno sviluppo significativo ormai evidente nelle aule di tribunale.

La posizione di OpenAI e le argomentazioni legali

OpenAI ha cercato di difendersi affermando che il New York Times avrebbe dovuto essere a conoscenza del fatto che i suoi articoli venivano utilizzati per addestrare ChatGPT. Secondo l’azienda, la causa legale sarebbe dovuta essere presentata già nel 2020, in parte basandosi su notizie già riportate dal quotidiano. A sostegno di questa difesa, OpenAI ha menzionato un articolo del novembre 2020, nel quale il NYT aveva reso noto che OpenAI stava analizzando un trilione di parole presenti su Internet. Tuttavia, il giudice statunitense Sidney Stein ha respinto questa richiesta, dichiarando che la tesi di OpenAI, volte a dimostrare l’adeguatezza temporale della causa, non era valida.

Seguici su Google News

Ricevi i nostri aggiornamenti direttamente nel tuo feed di
notizie personalizzato

Seguici ora

Secondo il giudice, OpenAI ha la responsabilità di dimostrare che il New York Times fosse consapevole del rischio di violazione dei diritti d’autore circa due anni prima del lancio di ChatGPT, avvenuto nel novembre 2022. Stein ha enfatizzato che, per ora, l’azienda non ha soddisfatto questo onere probatorio.

Il parere del giudice e la sua interpretazione

Il giudice Sidney Stein ha chiarito che il semplice fatto che un giornalista del New York Times avesse discusso del training di AI da parte di OpenAI non costituisce prova del fatto che il quotidiano fosse a conoscenza delle eventuali violazioni relative agli output di ChatGPT. La sua opinione ha delineato che non basta un articolo o una semplice informativa di un reporter per stabilire una consapevolezza giuridica sulle possibili infrazioni.

Inoltre, anche l’argomentazione proposta da OpenAI, secondo cui fosse “un sapere comune” che il modello fosse stato addestrato su articoli del NYT, è stata considerata inadeguata. Stein ha specificato che OpenAI non ha fornito motivazioni sufficienti riguardo al perché i lettori o i giornalisti del NYT dovessero essere avvisati in merito ai comportamenti specifici di violazione dei diritti d’autore condotti da OpenAI.

Conseguenze legali e future implicazioni

Il giudice ha confermato la posizione del New York Times, sostenendo che OpenAI non ha ancora dimostrato che il quotidiano fosse informato sui potenziali utilizzi dannosi dei suoi articoli fino al momento della reale disponibilità di ChatGPT sul mercato. Di conseguenza, ha negato l’archiviazione della causa.

La questione centrale rimane quindi quella dell’obbligo del New York Times di intraprendere azioni legali nel momento in cui sospetta violazioni. Stein ha etichettato come “straw man” un argomento presentato da OpenAI, dove si affermava che il NYT, in quanto “editore esperto”, avesse il dovere di reagire prontamente a quanto ora considerato una presunta violazione.

L’evolversi di questa controversia legale avrà ripercussioni significative non solo per OpenAI, ma per l’intero settore dell’editoria e dell’intelligenza artificiale. Sarà fondamentale seguire gli sviluppi futuri e come evolveranno le normative sui diritti d’autore nell’era digitale.

Seguici su Telegram

Seguici su Telegram per ricevere le Migliori Offerte Tech

Unisciti ora