Home / News / Giappone contro Sora 2: perché Studio Ghibli, Square Enix e Bandai Namco chiedono a OpenAI di fermarsi

Giappone contro Sora 2: perché Studio Ghibli, Square Enix e Bandai Namco chiedono a OpenAI di fermarsi

I colossi nipponici del Gaming vogliono mettere un freno all’IA generativa

Esempio grafico: stile anime e videogame giocano al centro del dibattito su Sora 2
Il dibattito sulla somiglianza degli output di Sora 2 con opere giapponesi è alla base della protesta.

In sintesi

Una coalizione di importanti editori e produttori giapponesi, rappresentati dall’associazione Content Overseas Distribution Association (CODA), ha chiesto a OpenAI di cessare l’uso non autorizzato delle loro opere per l’addestramento del modello video generativo Sora 2. La contestazione si basa su osservazioni che molti output del sistema sarebbero troppo simili a contenuti protetti (anime, manga, personaggi di videogiochi) e su interpretazioni della legge sul copyright in Giappone che richiede autorizzazioni preventive.

Che cosa è successo (fatti)

Secondo le comunicazioni pubbliche, CODA ha formalmente sollecitato OpenAI a confermare che le opere dei suoi membri non siano state usate per addestrare Sora 2 senza permesso e a rispondere “sinceramente” alle richieste di chiarimento. L’accusa principale è che il sistema è stato addestrato su contenuti protetti, producendo risultati che riproducono o richiamano in modo riconoscibile personaggi e stili.

Fonti principali

La nostra ricostruzione si basa su indagini giornalistiche e sulle comunicazioni pubbliche di CODA, come riportato da GamesIndustry, un approfondimento internazionale su The Verge e un’analisi settoriale su GameDeveloper.

Perché CODA è preoccupata (aspetti legali)

Il punto caldo è la differenza tra due approcci pratici e legali:

  • Opt-out post-uso: l’azienda dichiara di offrire strumenti per escludere determinati contenuti dopo che sono stati identificati o segnalati;
  • Autorizzazione preventiva: la legge giapponese e le richieste di CODA sostengono che, per proteggere gli autori, serve il consenso prima di usare le opere per addestramento.

CODA sostiene che l’opt-out (o sistemi simili) non sia sufficiente e che l’uso retroattivo esponga a responsabilità legali.

Implicazioni per creatori e industria

Se la posizione di CODA trovasse accoglimento in sede legale, le piattaforme di AI potrebbero essere obbligate a modificare radicalmente le pratiche di raccolta dati e i meccanismi di licenza: dallo scorporo di dataset protetti alla negoziazione di accordi di remunerazione o revenue-share con case editrici e autori.

Gioco popolare: grandi IP videoludici sono al centro del dibattito sui diritti e l'intelligenza artificiale
IP di successo e proprietà intellettuale diventano punto di contesa con i modelli generativi: il mondo del gaming osserva con attenzione.

Reazioni dalla community

Su Reddit (r/gaming) c’è molto tumulto per la tempistica delle azioni legali e sostegno alla necessità di compensare i creatori. Un commento rappresentativo su Reddit recita: “It’s honestly surprising that IP holders are not going after generative AI yet.” (link Reddit).

Su X/Twitter l’attenzione si è concentrata sull’impatto pratico di Sora 2, alcuni post parlano della qualità tecnica del modello. Esempio di tweet che ha raccolto reazioni: “Sora 2 is here. Now it talks. And hears. And reacts like it knows you.”.

Contesto e precedenti

Non si tratta del primo scontro legale tra editori e operatori AI: in altre giurisdizioni si sono viste cause o accordi (alcuni grandi accordi sugli archivi di testi e immagini), e recenti cause in Giappone contro motori AI o aggregatori di contenuti indicano che la sensibilità su questo tema è in crescita.

Opere anime e manga: la protezione dei creator è al centro delle richieste di CODA a OpenAI
Anime e manga: CODA definisce queste opere «tesori insostituibili» del Giappone.

Cosa potrebbe succedere dopo (sviluppi possibili)

  1. OpenAI potrebbe rispondere con misure tecniche (filtri e opt-out più stringenti) o con proposte di licenza e revenue share.
  2. Potrebbero avviarsi azioni legali o negoziazioni tra editori e piattaforme AI per definire regole di utilizzo e compensazione.
  3. Governi e regolatori potrebbero intervenire con norme più chiare sull’uso di contenuti protetti per l’addestramento dei modelli.

Commenta, condividi e seguici su Telegram o Instagram.

Nota: questo articolo si basa su dichiarazioni ufficiali, fonti giornalistiche e opinioni pubbliche. I dati sono aggiornati al momento della pubblicazione.

Tag:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *