Mentre Anthropic perde contratti milionari per non cedere sull'etica, OpenAI firma con il Pentagono nel giro di poche ore. E gli utenti rispondono con il portafoglio.
OpenAI ha un problema. Non è un problema tecnologico, non riguarda la potenza di calcolo o la fuga di talenti verso i concorrenti. È un problema molto più banale e molto più rivelatore: le parole, per loro, hanno smesso di avere un significato.
Sul sito ufficiale campeggiano cinque princìpi. “Democratizzazione”. “Empowerment”. “Prosperità universale”. “Resilienza”. “Adattabilità”. Parole scelte con cura da un team di comunicazione, levigate fino a brillare, pronte per essere stampate su brochure patinate e proiettate sui maxischermi delle conferenze. Leggendole, si potrebbe quasi credere che OpenAI sia l'ultimo baluardo dell'umanesimo digitale, un'isola felice dove l'intelligenza artificiale serve l'umanità intera e non gli interessi di pochi.
Peccato che la realtà abbia smentito questa favola in meno di 48 ore.
Il rifiuto di Anthropic: quando l'etica costa cara
Per capire la portata del tradimento, bisogna prima raccontare chi ha detto di no. A febbraio 2026, il Dipartimento della Guerra statunitense o il rinominato Department of Defense voluto da Trump bussa alla porta di Anthropic con una richiesta che definire “indecente” è un eufemismo: utilizzo dei modelli Claude “per qualsiasi scopo lecito”, senza la possibilità per l'azienda di porre veti su sorveglianza domestica di massa o impieghi in armi autonome non controllate dall'uomo. In palio, un contratto fino a 200 milioni di dollari.Anthropic, azienda che piaccia o no, ha dimostrato di prendere sul serio i propri valori, risponde con un secco rifiuto.
“Non possiamo, in coscienza, accondiscendere alla loro richiesta”, scrive il CEO Dario Amodei.
Non è un no facile:
il Segretario alla Difesa Pete Hegseth la etichetta immediatamente come “rischio per la catena di approvvigionamento“.
La prima volta nella storia che il governo USA usa questa designazione contro un'azienda americana per ritorsione. Il Presidente Trump, in un post su Truth Social scritto in maiuscolo, la bolla come “AZIENDA RADICALE DI SINISTRA, WOKE” e ordina a tutte le agenzie federali di smettere immediatamente di utilizzare la sua tecnologia, con una dismissione progressiva di sei mesi.
Anthropic viene estromessa, messa all'angolo, punita per aver osato anteporre l'etica al denaro.
L'occasione d'oro di OpenAI
È a questo punto che entra in scena OpenAI, e lo fa con la rapidità di chi stava aspettando proprio quel momento. Nel giro di poche ore dall'estromissione di Anthropic, annuncia trionfalmente l'accordo con il Pentagono. Valore: fino a 200 milioni di dollari.
Ora, chiunque abbia seguito le vicende finanziarie di OpenAI sa che quei soldi non sono un “extra” gradito. Sono un tassello in un puzzle molto più grande, e molto più fragile. I numeri raccontano una verità che le brochure aziendali preferiscono nascondere: ricavi 2025 stimati intorno ai 13 miliardi di dollari, a fronte di una perdita netta di 13,5 miliardi nel solo primo semestre. Il cash burn proiettato dai documenti finanziari interni supera i 115 miliardi cumulativi entro il 2029, e il flusso di cassa positivo non è atteso prima del 2030. Tradotto:
OpenAI brucia denaro più velocemente di quanto ne incassi, e ogni mese che passa la dipendenza dai grandi capitali pubblici, privati e militari, diventa più strutturale.
In questo quadro, un contratto da nove zeri con il Dipartimento della Guerra non è un'opportunità tra le tante. È un segnale ai mercati, una rassicurazione agli investitori, una prova di “rilevanza strategica” da sbandierare al prossimo round di finanziamento. Non è un'azienda che può permettersi di dire di no a Washington. È un'azienda che ha bisogno di Washington.

Sam Altman prova a metterci una pezza dichiarando “linee rosse” contro la sorveglianza di massa e le armi letali autonome.
Ma chi può credergli? La cronaca racconta una verità più scomoda: un'azienda che ha appena rimosso la parola “safely” dalla propria missione ufficiale, modificata nel modulo IRS reso pubblico a novembre 2025 e non ha più alcuna credibilità quando parla di confini etici. E inserire clausole in un contratto militare suona come esercizio di stile giuridico se il committente è lo stesso Dipartimento della Guerra che ha appena preteso da Anthropic la rimozione totale di ogni restrizione.
Lo ha ammesso, alla fine, lo stesso Altman. Il 3 marzo, dopo l'ondata di critiche, ha riconosciuto in un memo interno poi pubblicato su X che l'azienda “non avrebbe dovuto avere fretta” e che l'operazione “è sembrata opportunistica e sloppy”. Una confessione che vale più di qualsiasi analisi esterna: l'ha detto chi quell'accordo l'ha firmato.
Il verdetto del pubblico: il movimento QuitGPT
C'è un dettaglio che rende questa storia ancora più bruciante per OpenAI: il pubblico ha reagito. Non a chiacchiere, non con petizioni online, ma con l'unico linguaggio che un'azienda capisce davvero: i soldi.
Nelle prime 48 ore dall'annuncio, il movimento di boicottaggio #QuitGPT nato sul dominio quitgpt.org poche ore dopo le dichiarazioni di Altman ha rivendicato oltre 1,5 milioni di adesioni tra cancellazioni di abbonamento, disinstallazioni dell'app e impegni pubblici a passare a piattaforme concorrenti. I dati di Sensor Tower hanno confermato un picco indipendente: le disinstallazioni dell'app mobile ChatGPT negli Stati Uniti sono aumentate del 295% su base giornaliera. Sui social è esploso l'hashtag #QuitGPT, e l'app di Anthropic ha scalato le classifiche degli store, beneficiando di una migrazione che pochi analisti avrebbero pronosticato in tempi così rapidi. Anthropic ha colto il momento aggiornando Claude per facilitare l'importazione delle conversazioni precedenti da ChatGPT.
È il mercato che ha emesso la sua sentenza. Quei “princìpi nobili” che OpenAI sbandiera sul proprio sito sono stati giudicati per quello che sono: un manifesto di facciata, bello da leggere ma privo di qualsiasi valore nel momento in cui viene messo alla prova.
Etica fragile, infrastruttura fragile
Non è la prima volta, del resto, che la solidità di OpenAI viene messa in discussione. Solo poche settimane fa, il disservizio globale del 20 aprile 2026 ha bloccato ChatGPT, Codex e l'API Platform per ore, tagliando fuori migliaia di sviluppatori e team aziendali nel pieno della giornata operativa, con oltre 8.000 segnalazioni di errore solo nel Regno Unito. Etica fragile, infrastruttura fragile: il filo conduttore è lo stesso. Quando la priorità è correre verso la prossima funzionalità, il prossimo contratto, la prossima valutazione, qualcosa, prima o poi, si rompe.
E a pagarne il prezzo, sistematicamente, sono gli utenti finali e l'ecosistema che ha scelto di costruire su quelle fondamenta.
La domanda che resta
Alla fine di questa vicenda, ciò che rimane è un contrasto istruttivo. Da un lato Anthropic, che ha perso un contratto da 200 milioni ma ha mantenuto integra la propria reputazione e che, secondo il Financial Times, è già tornata al tavolo delle trattative con il Pentagono da una posizione di forza morale. Dall'altro OpenAI, che ha incassato il contratto e ha perso qualcosa di molto più prezioso: la fiducia di una fetta significativa della propria base utenti, e la coerenza tra ciò che dichiara e ciò che fa.
I princìpi, cari lettori, non si misurano nei PDF pubblicati sul sito aziendale. Si misurano nelle scelte che si fanno quando il denaro bussa alla porta e chiede, in cambio, di spegnere la coscienza.
OpenAI ha fatto la sua scelta.
E 1,5 milioni di persone, almeno secondo QuitGPT, hanno fatto la loro.
Fonti
- NPR, “President Trump bans Anthropic from use in government systems“, 27 febbraio 2026.
- Fortune, “OpenAI sweeps in to snag Pentagon contract after Anthropic labeled ‘supply chain risk'“, 28 febbraio 2026.
- CNBC, “OpenAI's Altman admits defense deal ‘looked opportunistic and sloppy' amid backlash“, 3 marzo 2026.
- The Conversation, “OpenAI has deleted the word ‘safely' from its mission“, 13 febbraio 2026.
- Common Dreams, “ChatGPT Subscribers Vow Mass Cancellations After Pentagon Deal“, 3 marzo 2026.
- Fortune, “OpenAI plans stunning annual losses through 2028“, 12 novembre 2025.