Il panorama dell’intelligenza artificiale è in continua trasformazione e, recentemente, un’indagine ha sollevato interrogativi significativi riguardo alla provenienza dei contenuti generati dal modello cinese DeepSeek. Questo sistema, infatti, mostra sorprendenti affinità stilistiche con il noto ChatGPT, lasciando intravedere possibili pratiche poco ortodosse nel suo sviluppo. L’analisi condotta da Copyleaks, specializzata nel rilevamento del plagio e nell’identificazione dei contenuti generati da AI, ha rivelato che il 74% del suo output risulta simile a quello di ChatGPT.
Indice dei contenuti
La tecnologia alla base dell’analisi
Il sistema Copyleaks utilizza sofisticate tecnologie di screening e classificazione per analizzare gli stili di scrittura di vari modelli di intelligenza artificiale. Questa indagine non ha solo messo a confronto DeepSeek e ChatGPT, ma ha incluso altri modelli noti, quali Google Gemini, Claude di Anthropic e Llama di Meta. L’obiettivo era quello di individuare e attribuire correttamente i testi generati a ciascun modello AI. I risultati sono stati chiari: gran parte dei contenuti generati da DeepSeek sono stati erroneamente identificati come creati da ChatGPT.
L’efficacia del sistema di riconoscimento di Copyleaks ha dimostrato che l’attribuzione dei testi è non solo possibile, ma anche precisa, suggerendo che DeepSeek si sta avvalendo di metodologie di addestramento derivanti da ChatGPT per produrre i suoi contenuti.
Tecniche di distillazione e la questione della proprietà intellettuale
Una delle modalità attraverso cui DeepSeek potrebbe aver ottimizzato il suo modello è la tecnica chiamata “distillazione”. Questa strategia consente ai modelli di apprendere da altri sistemi, migliorando le prestazioni mantenendo costi di addestramento relativamente bassi. È una pratica comune nel settore dell’AI, ma finora è stata applicata principalmente all’interno delle singole aziende, utilizzando solo i propri modelli.
Le preoccupazioni riguardo a questa pratica non sono nuove e sono state sollevate in precedenza da figure di spicco come OpenAI e Microsoft. Ci si interroga se DeepSeek stia sfruttando i risultati di altre aziende per perfezionare il proprio modello e, se così fosse, ciò comporterebbe violazioni della proprietà intellettuale. Questo sviluppo potrebbe non solo compromettere gli interessi di OpenAI e Microsoft, ma anche generare dibattiti più ampi sulle fonti dei dati utilizzati nell’addestramento dei modelli AI in generale.
Necessità di regolamentazione nel settore dell’AI
Il problema della trasparenza riguardo ai dati utilizzati per addestrare i modelli di AI è diventato sempre più rilevante. In passato, anche aziende come OpenAI e Meta sono state sottoposte a critiche per l’uso indiscriminato di dati disponibili in rete. Di fronte a questo panorama, l’analisi di Copyleaks suggerisce l’urgente bisogno di una normativa che obblighi le aziende a divulgare i set di dati impiegati nei loro processi di addestramento. Tale legge potrebbe tutelare meglio i diritti di proprietà intellettuale e fornire maggiore chiarezza per i consumatori.
L’impatto di DeepSeek sul mercato tecnologico
La comparsa di DeepSeek ha avuto ripercussioni significative sul mercato tecnologico statunitense, colpendo i titoli delle maggiori aziende del settore. I motivi di questo crollo sono legati alle preoccupazioni sollevate dai risultati dell’analisi e alla crescente consapevolezza riguardo alla somiglianza nei contenuti generati da questo nuovo modello AI rispetto a quello di ChatGPT. La situazione mette in luce come la tecnologia stia evolvendo rapidamente e come le aziende debbano adattarsi per affrontare le sfide emergenti.
Per approfondire ulteriormente come funziona DeepSeek e le sue implicazioni, gli interessati possono consultare la sezione dedicata all’intelligenza artificiale di Macitynet, dove sono disponibili articoli e approfondimenti sull’argomento.