Il Dipartimento di Stato USA ha ordinato alle sue sedi diplomatiche nel mondo di avvertire i governi stranieri sui presunti furti di proprietà intellettuale AI attribuiti a DeepSeek AI e ad almeno altre 2 aziende cinesi, secondo un cable diplomatico visto da Reuters.
Per chi usa modelli AI in azienda, la notizia conta perché sposta il confronto tra Stati Uniti e Cina dal prezzo dei chip alla fiducia nei modelli. Non si parla più solo di chi costruisce l'AI più potente, ma di come quella potenza viene ottenuta, copiata, difesa e regolata.
Perché DeepSeek AI è finita nel mirino USA
Reuters riferisce che il cable del Dipartimento di Stato chiede a diplomatici e funzionari consolari di sollevare con i governi partner le “preoccupazioni” americane sull'estrazione e la distillazione dei modelli AI statunitensi. Nel documento vengono citate DeepSeek, Moonshot AI e MiniMax, tre società cinesi attive nello sviluppo di modelli generativi.
La mossa arriva il giorno dopo un memorandum della Casa Bianca firmato da Michael Kratsios, consigliere scientifico e tecnologico dell'amministrazione Trump. Il memo accusa entità straniere, “principalmente con sede in Cina”, di campagne coordinate per estrarre capacità dai modelli AI di frontiera americani.
“foreign entities, principally based in China, are engaged in deliberate, industrial-scale campaigns” Michael Kratsios, direttore dell'Ufficio per la politica scientifica e tecnologica della Casa Bianca.
La Cina respinge le accuse. L'ambasciata cinese a Washington ha definito infondate le affermazioni americane, mentre il ministero degli Esteri cinese ha accusato gli Stati Uniti di voler ostacolare lo sviluppo tecnologico del Paese. AP riporta anche che Washington intende lavorare con le aziende AI americane per identificare queste attività, costruire difese e valutare punizioni contro i responsabili.
Come funziona la distillazione dei modelli AI
La distillazione non è illegale di per sé. In termini semplici, significa addestrare un modello più piccolo usando le risposte di un modello più grande e costoso. È una tecnica nota, utile quando un'azienda vuole creare sistemi più leggeri, meno cari da eseguire e più facili da integrare in prodotti commerciali. Per una spiegazione più ampia dei termini tecnici, il riferimento naturale resta il Glossario AI.
Il problema nasce quando questa tecnica viene usata senza autorizzazione su modelli chiusi, cioè sistemi proprietari non distribuiti liberamente. Secondo la Casa Bianca, gli attori coinvolti avrebbero usato decine di migliaia di proxy, cioè account o canali intermedi, e tecniche di jailbreaking, cioè richieste costruite per aggirare i limiti di sicurezza del modello.
Il cable citato da Reuters sostiene che modelli ottenuti con distillazione non autorizzata possono sembrare competitivi su alcuni benchmark, cioè test standardizzati, a una frazione del costo, senza però replicare davvero l'intera qualità del sistema originale. Il documento aggiunge anche un'accusa più delicata: questi modelli potrebbero rimuovere protocolli di sicurezza e meccanismi pensati per mantenere le risposte neutrali e affidabili.
La domanda che nessun comunicato ufficiale pone fino in fondo è questa: gli Stati Uniti stanno difendendo la proprietà intellettuale dei propri laboratori o stanno anche cercando di rallentare concorrenti che hanno trovato un modo più economico per avvicinarsi alle stesse prestazioni?
La partita non è solo tecnica
Il caso non nasce nel vuoto. DeepSeek aveva già scosso il mercato AI con modelli a basso costo capaci di competere, almeno su alcuni test, con sistemi sviluppati da grandi laboratori americani. Questo ha reso più credibile, e politicamente più urgente, la paura di Washington: se il vantaggio americano può essere ridotto copiando output e comportamenti dei modelli, allora il fossato competitivo diventa meno profondo.
AP segnala un altro elemento chiave: la commissione Esteri della Camera USA ha dato sostegno bipartisan a una proposta di legge per identificare attori stranieri che estraggono caratteristiche tecniche da modelli AI chiusi americani e colpirli anche con sanzioni.
Qui il confine è sottile. La stessa AP ricorda che la distillazione può essere legittima e che anche aziende occidentali possono basarsi su modelli open source cinesi. Il caso Cursor, costruito usando un modello aperto di Moonshot AI, mostra che il flusso tecnologico non va in una sola direzione.
Per questo la vicenda è più ampia di DeepSeek AI. Riguarda il controllo dell'intera catena del valore: dati, modelli, chip, cloud, API e sicurezza. In pratica, il nuovo terreno della competizione AI non è solo chi pubblica il modello migliore, ma chi può dimostrare come lo ha costruito.
Cosa cambia per aziende e utenti italiani
Per le aziende italiane, il punto operativo è semplice: la scelta di un modello AI non può basarsi solo su costo, velocità e qualità apparente delle risposte. Diventa importante chiedere dove gira il modello, chi lo controlla, quali dati vengono inviati, quali policy di sicurezza applica e se il fornitore può documentare la provenienza tecnica del sistema.
Questo non significa evitare automaticamente strumenti cinesi, americani o open source. Significa però trattare l'AI come infrastruttura critica, soprattutto quando entra in processi aziendali, assistenza clienti, sviluppo software, ricerca interna o gestione di documenti riservati.
Per il lettore italiano il cambiamento concreto è questo: nei prossimi mesi i modelli AI potrebbero essere valutati sempre meno come semplici prodotti digitali e sempre più come fornitori strategici. Chi li adotta dovrà guardare non solo alle prestazioni, ma anche alla filiera tecnica e geopolitica che c'è dietro ogni risposta generata.
Fonte: Reuters, White House accuses China of industrial-scale theft of AI technology