La “più potente intelligenza artificiale” del Giappone è collassata! Il suo codice è interamente basato su DeepSeek, gettando gli internauti giapponesi nel panico.

"È finalmente giunta l'era in cui il Giappone utilizza l'intelligenza artificiale cinese per imitare un'intelligenza artificiale di produzione giapponese."

La questione ha recentemente suscitato scalpore nelle discussioni relative a X in Giappone. Il motivo è che ieri, Rakuten Group, un'azienda tecnologica giapponese, con il supporto del progetto GENIAC (il progetto di intelligenza artificiale finanziato dal governo giapponese) del Ministero dell'Economia, del Commercio e dell'Industria (METI), ha presentato in anteprima Rakuten AI 3.0, pubblicizzato come il modello "più grande e potente del Giappone" con 700 miliardi di parametri.

Tuttavia, poco dopo il suo rilascio, la comunità open-source ha rapidamente scoperto che l'architettura di base del modello derivava in realtà dal nostro DeepSeek-V3 e che Rakuten aveva apportato solo piccole modifiche ai dati giapponesi.

Nella nota libreria open-source di intelligenza artificiale Hugging Face, Rukuten AI 3.0 dichiara esplicitamente nel suo file di configurazione che la sua architettura deriva da DeepSeek V3.

Il comunicato stampa relativo al modello Rakuten AI 3.0 non menzionava DeepSeek, limitandosi ad affermare vagamente che "incorpora il meglio della comunità open-source", portando molti utenti a credere che il modello fosse stato sviluppato in modo indipendente in Giappone.

Ancor più grave, Rakuten ha segretamente rimosso il file della licenza open source MIT di DeepSeek al momento del suo rilascio al pubblico, nel tentativo di insabbiare il fatto. Solo dopo essere stati smascherati dalla comunità, lo hanno timidamente riaggiunto con il nome file "NOTICE".

▲È possibile visualizzare la cronologia dei commit dei file di progetto su Hugging Face, che mostra le modifiche.

Gli utenti giapponesi di internet hanno espresso il loro disappunto, affermando: "Questo è inaccettabile". Hanno sottolineato che il governo giapponese stava sovvenzionando l'app, mentre aveva apportato solo piccole modifiche all'app cinese DeepSeek. Alcuni hanno persino detto che usare DeepSeek di nascosto era davvero patetico.

L'affermazione autoingannevole di "il più forte del Giappone"

A giudicare dal solo comunicato stampa di Rakuten, questo modello può essere considerato a tutti gli effetti un lancio di notevole rilievo nel settore dei LLM in Giappone.

Si tratta di un modello ibrido esperto (MoE) con circa 700 miliardi di parametri. Confermato dalla comunità open-source, ha lo stesso numero totale di 671 miliardi di parametri di DeepSeek V3, con 37 miliardi di parametri attivi. Il Chief AI Officer di Rakuten, Ting Cai, lo ha descritto come "una straordinaria combinazione di dati, ingegneria e architettura innovativa su larga scala".

Il nome Ting Cai non suona affatto come quello di una persona giapponese. Alcuni utenti giapponesi di internet hanno commentato che l'utilizzo di DeepSeek era eccessivo, e la cosa ancora più scandalosa è che il capo che ha ideato questo modello è un intransigente in materia di immigrazione.

Abbiamo scoperto che Ting Cai ha lavorato presso Google e Apple negli Stati Uniti e ha trascorso oltre 15 anni in Microsoft. Ha studiato informatica alla Stony Brook University, sempre negli Stati Uniti. In un'intervista, ha dichiarato di essere andato all'estero per la prima volta a diciotto anni, in Giappone, e di essere effettivamente un " convinto sostenitore dell'immigrazione ".

Per quanto riguarda le prestazioni di Rakuten AI 3.0, nei vari test di benchmark ufficialmente pubblicati, ha ottenuto risultati eccellenti in ambiti quali la conoscenza della cultura giapponese, la storia, il ragionamento a livello universitario e persino la matematica competitiva e la capacità di seguire le istruzioni, dimostrando un forte potenziale per conquistare la vasta comunità di modellisti in Giappone.

Tuttavia, i modelli utilizzati per il confronto sono il GPT 4o (ora non più supportato), il GPT OSS con soli 120 miliardi di parametri e il modello ABEJA QwQ 32b sviluppato da ABEJA, un'altra azienda emergente nello sviluppo di intelligenza artificiale in Giappone, basato su Qianwen.

Rispetto a un massimo di 120 miliardi di yen, 700 miliardi di yen rappresentano un vantaggio significativo per Rakuten AI 3.0. Inoltre, in quanto beneficiario chiave del progetto GENIAC del Ministero dell'Economia, del Commercio e dell'Industria, Rakuten ha ricevuto ingenti risorse di calcolo. L'obiettivo iniziale del progetto GENIAC era quello di creare in Giappone un ecosistema di intelligenza artificiale generativa sviluppato internamente, alleviando le preoccupazioni relative alla dipendenza dalla tecnologia di colossi stranieri.

Grazie alla sua vastissima gamma di parametri, unita al filtro "squadra nazionale", Rakuten AI 3.0 si è guadagnata fin dal suo lancio l'aura di "speranza dell'intero villaggio".

Deve ancora essere DeepSeek

Ma l'alone è svanito più rapidamente del previsto.

Tralasciando i 700 miliardi di parametri e l'architettura MoE, queste parole chiave, messe insieme, sono incredibilmente rilevanti nell'attuale comunità open-source di modelli big data. Quando gli sviluppatori della comunità open-source hanno esaminato i file di configurazione dettagliati del codice di Hugging Face, sono rimasti sorpresi di scoprire che veniva menzionato esplicitamente DeepSeek V3.

Da un punto di vista fondamentale, si tratta di una combinazione di "architettura cinese e adattamenti giapponesi". DeepSeek fornisce l'architettura di base e le capacità di inferenza, validate a livello globale e altamente efficienti, mentre Rakuten sfrutta i suoi vantaggi locali per adattarle con corpus giapponesi di alta qualità, rendendole più rispondenti alla cultura giapponese.

Obiettivamente parlando, prendere un modello open-source e apportare delle modifiche localizzate è una pratica perfettamente normale e ragionevole nella comunità tecnologica. Proprio come nel caso del modello ABEJA QwQ 32b utilizzato per il confronto, non hanno nemmeno cambiato il nome in codice, usando direttamente QwQ di Qwen.

▲Nikkei ha riferito che sei dei dieci modelli migliori sviluppati da aziende giapponesi erano basati su DeepSeek o Qwen e sono stati successivamente modificati.

Se Rakuten ammettesse apertamente di utilizzare la piattaforma di DeepSeek questa volta, si tratterebbe solo di una mediocre operazione di marketing, e potrebbero persino sfruttare la popolarità di DeepSeek.

Ma scelsero di nascondersi.

In precedenza, quando abbiamo condiviso informazioni sull'utilizzo di progetti open source da parte di Meituan Browser, abbiamo menzionato diverse licenze open source. Tra queste, la licenza MIT di DeepSeek è considerata la licenza "più umile e tollerante" nel mondo open source. Consente agli utenti di utilizzarla per scopi commerciali, modificarla e persino monetizzarla tramite mezzi proprietari, il tutto gratuitamente. L'unica richiesta è che le dichiarazioni di copyright e di licenza dell'autore originale vengano mantenute all'interno del progetto.

▲Rakuten Models pubblica un comunicato stampa|
https://global.rakuten.com/corp/news/press/2026/0317_01.html

Rakuten non solo ha completamente omesso DeepSeek dal suo blog sulle release modello, ma ha anche rimosso il documento di licenza dal suo codice sorgente e ha annunciato pubblicamente di utilizzare la licenza Apache 2.0 per il suo software open source. Sebbene anche Apache 2.0 sia una licenza open source estremamente favorevole al commercio, è più formale e viene spesso utilizzata da grandi aziende per costruire i propri ecosistemi open source e proteggersi con i brevetti.

▲Confronto tra diverse licenze open-source: la licenza MIT è più permissiva e concisa della licenza Apache. Pur garantendo libertà, Apache 2.0 include esplicitamente la protezione tramite licenze di brevetto e clausole di esonero da responsabilità più rigorose, rendendola adatta a progetti commerciali di grandi dimensioni con requisiti più stringenti in materia di prevenzione dei rischi legali. | Immagine tratta da Internet

Il piano di Rakuten era astuto: rimuovere il nome DeepSeek, applicare la propria licenza Apache 2.0 e poi presentarsi come il salvatore dell'intelligenza artificiale in Giappone, "rendendo generosamente open source un modello enorme con 700 miliardi di parametri".

Le versioni europea e americana di DeepSeek, di cui si parla da oltre un anno, sembrano non essere mai state realizzate.

Anche Rakuten vorrebbe creare una versione giapponese di DeepSeek, ma, sotto la pressione della potenza di calcolo e dei costi di formazione, e nell'attuale contesto di rapido sviluppo di modelli su larga scala a livello globale, è ovviamente difficile raggiungere l'efficienza in termini di costi della tecnologia cinese senza rinunciare allo status di "gigante locale".

Perché non aspettiamo insieme DeepSeek V4?

#Vi invitiamo a seguire l'account WeChat ufficiale di iFanr: iFanr (ID WeChat: ifanr), dove troverete al più presto contenuti ancora più interessanti.