L’arte della guerra artificiale: il caso gli agenti spia cinesi accusati di copiare i modelli di Antropic

Conosci il tuo nemico, diceva Sun Tzu in L'arte della guerra. Ed è più o meno quello che sembra stiano facendo gli agenti IA cinesi nella nuova guerra dell'intelligenza artificiale. La start up Anthropic infatti, ha accusato tre laboratori di aver creato oltre 24.000 account falsi per sfruttare il modello AI Claude e migliorare i propri sistemi. Secondo quanto riportato dall’azienda, DeepSeek, Moonshot AI e MiniMax – tutte aziende cinesi– avrebbero generato oltre 16 milioni di interazioni con il modello Claude utilizzando una tecnica chiamata distillazione. Proviamo a capire meglio, avrebbero copiato le capacità avanzate del modello di Antropic per applicarle ai loro modelli.
Il caso si inserisce in un contesto complesso. La guerra è in corso e se finora gli Usa hanno dominato il mercato dell'IA generativa, ora la Cina con nuovi modelli potrebbe ridurre il distacco entrando nel vivo della competizione. Con mezzi leciti o meno è ancora da verificare. Intanto il dubbio Antropic, l'ha sollevato.
La tecnica della distillazione: cosa è successo
La distillazione in realtà è una tecnica ampiamente utilizzata nell’ambito dell’intelligenza artificiale per creare versioni più leggere e meno costose di modelli complessi. L’idea è di trasferire la "conoscenza" acquisita da un modello di grandi dimensioni a uno più piccolo, senza ricorrere a un addestramento completo. Sebbene questa pratica sia legittima se utilizzata per ottimizzare i propri sistemi, Anthropic sostiene che DeepSeek, Moonshot e MiniMax l'abbiano utilizzata in modo illecito per copiare il modello Claude senza autorizzazione.
DeepSeek, che lo scorso anno ha attirato l’attenzione con il suo modello open source R1, avrebbe generato oltre 150.000 scambi con Claude, concentrandosi principalmente sul miglioramento della logica di base e sull’allineamento dei modelli.
Moonshot AI, invece, avrebbe registrato oltre 3,4 milioni di interazioni con Claude, puntando a perfezionare il ragionamento agentico, l’uso degli strumenti, la programmazione, l’analisi dei dati e lo sviluppo di agenti per il computer. MiniMax avrebbe generato oltre 13 milioni di scambi, concentrandosi su un’area simile, ossia il miglioramento del ragionamento agentico e l’orchestrazione degli strumenti.
Il contesto politico e le implicazioni internazionali
Non è un caso isolato, anche OpenAI recentemente ha accusato DeepSeek di aver utilizzato questa tecnica per copiare i suoi modelli. Ma le accuse si inseriscono in un contesto più ampio: la politica statunitense sui controlli all’esportazione dei chip per l'intelligenza artificiale. L'amministrazione Trump ha infatti deciso di allentare le restrizioni sull’esportazione di chip avanzati verso la Cina, permettendo a colossi come Nvidia di vendere chip come l’H200, utilizzati per l’addestramento di modelli di AI.
Anthropic sostiene che l’uso di queste tecnologie da parte di aziende come DeepSeek e MiniMax non sarebbe stato possibile senza l'accesso a chip avanzati. Secondo l'azienda il controllo sulle esportazioni di chip è cruciale non solo per proteggere la proprietà intellettuale, ma anche per limitare l'accesso a risorse necessarie per eseguire distillazioni illecite su larga scala.
Non solo, secondo l'azienda la distillazione di modelli avanzati da parte di attori statali o non statali potrebbe compromettere gravemente la sicurezza globale. In particolare, i modelli di IA costruiti tramite distillazione illegale potrebbero non avere le stesse protezioni di sicurezza dei modelli originali, esponendo così a rischi potenzialmente enormi. Per esempio utilizzare l'intelligenza artificiale per lo sviluppo di armi biologiche o attività di cyberattacco.