DeepSeek ha rilasciato il 24 aprile la preview di DeepSeek V4, una famiglia di modelli open-source che porta la versione Pro a 1,6 trilioni di parametri totali 49 miliardi attivi e una finestra di contesto da 1 milione di token. Il rilascio è sotto licenza MIT, con i pesi disponibili al download su Hugging Face dal giorno stesso dell'annuncio.
Il dato che conta non è la dimensione in sé la corsa ai parametri è ormai un esercizio noto. Il punto è che V4-Pro è oggi il più grande modello open-weights di livello frontier mai rilasciato, addestrato con un mix che include i chip Ascend di Huawei al posto delle GPU Nvidia di fascia alta, e usabile da chiunque abbia infrastruttura sufficiente per gestire i suoi 865 GB di peso. Per la prima volta un modello cinese open replica lo stack hardware-software interamente fuori dall'ecosistema americano.
DeepSeek V4: meno calcolo per più contesto
DeepSeek ha pubblicato il paper tecnico contestualmente al rilascio. La novità architetturale principale è una nuova attenzione ibrida basata su DeepSeek Sparse Attention e compressione token-wise, che riduce drasticamente il costo computazionale del contesto lungo. Sui prompt da 1 milione di token, V4-Pro richiede solo il 27% dei FLOPs per token e il 10% della cache KV rispetto a V3.2 il modello rilasciato a dicembre 2025.
L'architettura è una Mixture of Experts di nuova generazione, dove solo 49 miliardi di parametri su 1,6 trilioni vengono attivati per ogni token processato. La variante più piccola, V4-Flash, attiva 13 miliardi di parametri su 284 miliardi totali e mantiene capacità di ragionamento che si avvicinano a quelle di V4-Pro secondo i benchmark interni dell'azienda.
Il pre-training ha utilizzato oltre 32 trilioni di token, seguito da una pipeline di post-training in due fasi: prima specializzazione di esperti per dominio tramite reinforcement learning con algoritmo GRPO, poi consolidamento via distillazione on-policy in un modello unico capace di operare in modalità Thinking o Non-Thinking con un singolo set di pesi.
“Welcome to the era of cost-effective 1M context length.” Annuncio ufficiale DeepSeek, 24 aprile 2026
Quanto è davvero competitivo
Sui benchmark dichiarati da DeepSeek, V4-Pro guida tutti i modelli open-source disponibili sui task di ragionamento matematico, STEM e coding. Sul piano del world knowledge è secondo solo a Gemini 3.1 Pro di Google. Confrontato con i frontier closed GPT-5.4 di OpenAI, Claude Opus 4.6 di Anthropic, lo stesso Gemini il gap è dichiarato dalla stessa azienda nel paper tecnico: il modello “trails state-of-the-art frontier models by approximately three to six months”.
I limiti onesti vanno detti. I benchmark sono auto-pubblicati e terze parti indipendenti dovranno confermarli nelle prossime settimane. La preview non è la versione finale, e DeepSeek ha annunciato che deepseek-chat e deepseek-reasoner saranno ritirati il 24 luglio 2026, con il routing che già oggi punta a V4-Flash. Restano inoltre i pattern di censura sui temi politicamente sensibili che hanno caratterizzato tutte le versioni precedenti, e che nessun aggiornamento architetturale risolve.
C'è poi un effetto collaterale interessante: dopo l'annuncio, le azioni di Semiconductor Manufacturing International Corporation il produttore che fabbrica i chip Ascend di Huawei sono salite del 10% a Hong Kong. Il segnale che il mercato legge non è “DeepSeek è più potente”, ma “il software cinese può girare su silicio cinese a livello frontier”.
Cosa cambia per chi lavora in Italia
Chi segue il settore da vicino sa che ogni rilascio DeepSeek ha un sottotesto geopolitico e questa volta arriva con una complicazione specifica per il mercato italiano. Il Garante per la privacy aveva bloccato DeepSeek nel gennaio 2025, citando il trasferimento illecito di dati utente verso server cinesi. Quella decisione riguardava l'app e l'API ufficiali, non i pesi del modello.
E qui sta la differenza pratica con V4. Il modello è rilasciato sotto licenza MIT con pesi scaricabili: significa che un'azienda italiana può, in linea di principio, eseguirlo su infrastruttura europea senza che alcun dato lasci il continente, restando fuori dal perimetro che ha portato al ban. Lo stesso vale per i provider cloud europei che volessero offrirlo come servizio gestito su data center sul territorio. È la prima volta che un modello open-source di scala frontier rende questo scenario tecnicamente concreto, anche se rimane aperto come il Garante interpreterà i deployment self-hosted di un modello la cui versione gestita è stata bandita.
Sul piano economico, DeepSeek ha dichiarato che prevede ulteriori ribassi sui prezzi API entro fine anno, man mano che Huawei aumenta la produzione dei processori Ascend 950. Per chi sviluppa su API e fa benchmark dei costi per token, il momento di rivalutare lo stack è ora non a fine 2026, quando i prezzi saranno probabilmente diversi e le alternative europee avranno avuto sei mesi in più per recuperare.
Per guardare i benchmark: Deepseek v4.