CODA solleva dubbi sul funzionamento di Sora 2
Il 27 ottobre 2025, l’organizzazione giapponese CODA (Content Overseas Distribution Association) ha presentato una richiesta formale a OpenAI riguardo al funzionamento di Sora 2 – la piattaforma video generativa lanciata il 30 settembre 2025 su sora.chatgpt.com.
Secondo CODA, numerosi contenuti generati da Sora 2 presentano forti somiglianze con opere giapponesi protette da copyright, suggerendo che dati visivi e audiovisivi provenienti dal Giappone siano stati utilizzati per l’addestramento del modello.
Possibile utilizzo di opere protette nei dati di addestramento
Dalle analisi di CODA emergerebbe che Sora 2 avrebbe appreso da materiali coperti da diritto d’autore, portando a risultati che riproducono o imitano opere esistenti.
Secondo l’organizzazione, questo tipo di replicazione durante il processo di apprendimento automatico può configurare una violazione del copyright in base alla normativa giapponese.
“Nei casi in cui specifiche opere protette vengono generate in modo simile come output, l’atto di replicazione durante l’apprendimento può costituire violazione del copyright.”
— CODA
Il nodo dell’opt-out e la posizione giapponese sul copyright
CODA ha inoltre commentato le recenti dichiarazioni dei media secondo cui Sora 2 applicherebbe un sistema di opt-out per i titolari dei diritti d’autore.
Tuttavia, la legge giapponese richiede un’autorizzazione preventiva per l’utilizzo di opere protette, e non riconosce sistemi di esclusione retroattiva che consentano di evitare responsabilità dopo l’uso.
Le richieste ufficiali di CODA a OpenAI
CODA ha quindi formulato due richieste principali a OpenAI:
- Non utilizzare contenuti appartenenti ai membri CODA per l’apprendimento automatico di Sora 2 senza previa autorizzazione.
- Fornire risposte chiare e trasparenti alle domande e alle preoccupazioni espresse dalle aziende associate circa la possibile violazione del copyright da parte di Sora 2.
L’associazione ha ribadito la necessità di trovare un equilibrio tra innovazione tecnologica e tutela dei diritti dei creatori, sottolineando l’importanza di uno sviluppo “etico e sostenibile” dell’intelligenza artificiale.
Un confronto che potrebbe influenzare l’intero settore AI
Questa iniziativa di CODA potrebbe avere ripercussioni significative sul dibattito globale riguardante l’uso di dati protetti per addestrare modelli di intelligenza artificiale.
Il caso evidenzia le differenze tra il sistema di copyright giapponese e quello di altri Paesi, oltre a riaccendere la discussione sulla trasparenza dei dataset utilizzati dalle aziende AI.




0 commenti