Business e Mercati

I princìpi di ? Carta straccia da 200 milioni di dollari

OpenAI , accordo da 200 milioni di dollari dopo il rifiuto di Anthropic

Mentre perde contratti milionari per non cedere sull'etica, firma con il nel giro di poche ore. E gli utenti rispondono con il portafoglio.

OpenAI ha un problema. Non è un problema tecnologico, non riguarda la potenza di calcolo o la fuga di talenti verso i concorrenti. È un problema molto più banale e molto più rivelatore: le parole, per loro, hanno smesso di avere un significato.

Sul sito ufficiale campeggiano cinque princìpi. “Democratizzazione”. “Empowerment”. “Prosperità universale”. “Resilienza”. “Adattabilità”. Parole scelte con cura da un team di comunicazione, levigate fino a brillare, pronte per essere stampate su brochure patinate e proiettate sui maxischermi delle conferenze. Leggendole, si potrebbe quasi credere che OpenAI sia l'ultimo baluardo dell'umanesimo digitale, un'isola felice dove l'intelligenza artificiale serve l'umanità intera e non gli interessi di pochi.

Peccato che la realtà abbia smentito questa favola in meno di 48 ore.

Il rifiuto di : quando l'etica costa cara

Per capire la portata del tradimento, bisogna prima raccontare chi ha detto di no. A febbraio 2026, il Dipartimento della Guerra statunitense o il rinominato Department of Defense voluto da bussa alla porta di Anthropic con una richiesta che definire “indecente” è un eufemismo: utilizzo dei modelli “per qualsiasi scopo lecito”, senza la possibilità per l'azienda di porre veti su sorveglianza domestica di massa o impieghi in armi autonome non controllate dall'uomo. In palio, un contratto fino a 200 milioni di dollari.Anthropic, azienda che piaccia o no, ha dimostrato di prendere sul serio i propri valori, risponde con un secco rifiuto.

“Non possiamo, in coscienza, accondiscendere alla loro richiesta”, scrive il CEO Dario Amodei.

Non è un no facile:

il Segretario alla Difesa Pete Hegseth la etichetta immediatamente come “rischio per la catena di approvvigionamento“.

La prima volta nella storia che il governo USA usa questa designazione contro un'azienda americana per ritorsione. Il Presidente , in un post su Truth Social scritto in maiuscolo, la bolla come “AZIENDA RADICALE DI SINISTRA, WOKE” e ordina a tutte le agenzie federali di smettere immediatamente di utilizzare la sua tecnologia, con una dismissione progressiva di sei mesi.

Anthropic viene estromessa, messa all'angolo, punita per aver osato anteporre l'etica al denaro.

L'occasione d'oro di OpenAI

È a questo punto che entra in scena OpenAI, e lo fa con la rapidità di chi stava aspettando proprio quel momento. Nel giro di poche ore dall'estromissione di Anthropic, annuncia trionfalmente l'accordo con il . Valore: fino a 200 milioni di dollari.

Ora, chiunque abbia seguito le vicende finanziarie di OpenAI sa che quei soldi non sono un “extra” gradito. Sono un tassello in un puzzle molto più grande, e molto più fragile. I numeri raccontano una verità che le brochure aziendali preferiscono nascondere: ricavi 2025 stimati intorno ai 13 miliardi di dollari, a fronte di una perdita netta di 13,5 miliardi nel solo primo semestre. Il cash burn proiettato dai documenti finanziari interni supera i 115 miliardi cumulativi entro il 2029, e il flusso di cassa positivo non è atteso prima del 2030. Tradotto:

OpenAI brucia denaro più velocemente di quanto ne incassi, e ogni mese che passa la dipendenza dai grandi capitali pubblici, privati e militari, diventa più strutturale.

In questo quadro, un contratto da nove zeri con il Dipartimento della Guerra non è un'opportunità tra le tante. È un segnale ai mercati, una rassicurazione agli investitori, una prova di “rilevanza strategica” da sbandierare al prossimo round di finanziamento. Non è un'azienda che può permettersi di dire di no a Washington. È un'azienda che ha bisogno di Washington.

OpenAI sovrapposto al Pentagono - accordo da 200 milioni di dollari dopo il rifiuto di Anthropic

Sam Altman prova a metterci una pezza dichiarando “linee rosse” contro la sorveglianza di massa e le armi letali autonome.

Ma chi può credergli? La cronaca racconta una verità più scomoda: un'azienda che ha appena rimosso la parola “safely” dalla propria missione ufficiale, modificata nel modulo IRS reso pubblico a novembre 2025 e non ha più alcuna credibilità quando parla di confini etici. E inserire clausole in un contratto militare suona come esercizio di stile giuridico se il committente è lo stesso Dipartimento della Guerra che ha appena preteso da Anthropic la rimozione totale di ogni restrizione.

Lo ha ammesso, alla fine, lo stesso Altman. Il 3 marzo, dopo l'ondata di critiche, ha riconosciuto in un memo interno poi pubblicato su X che l'azienda “non avrebbe dovuto avere fretta” e che l'operazione “è sembrata opportunistica e sloppy”. Una confessione che vale più di qualsiasi analisi esterna: l'ha detto chi quell'accordo l'ha firmato.

Il verdetto del pubblico: il movimento QuitGPT

C'è un dettaglio che rende questa storia ancora più bruciante per OpenAI: il pubblico ha reagito. Non a chiacchiere, non con petizioni online, ma con l'unico linguaggio che un'azienda capisce davvero: i soldi.

Nelle prime 48 ore dall'annuncio, il movimento di boicottaggio #QuitGPT nato sul dominio quitgpt.org poche ore dopo le dichiarazioni di Altman ha rivendicato oltre 1,5 milioni di adesioni tra cancellazioni di abbonamento, disinstallazioni dell'app e impegni pubblici a passare a piattaforme concorrenti. I dati di Sensor Tower hanno confermato un picco indipendente: le disinstallazioni dell'app mobile ChatGPT negli Stati Uniti sono aumentate del 295% su base giornaliera. Sui social è esploso l'hashtag #QuitGPT, e l'app di Anthropic ha scalato le classifiche degli store, beneficiando di una migrazione che pochi analisti avrebbero pronosticato in tempi così rapidi. Anthropic ha colto il momento aggiornando per facilitare l'importazione delle conversazioni precedenti da ChatGPT.

È il mercato che ha emesso la sua sentenza. Quei “princìpi nobili” che OpenAI sbandiera sul proprio sito sono stati giudicati per quello che sono: un manifesto di facciata, bello da leggere ma privo di qualsiasi valore nel momento in cui viene messo alla prova.

Etica fragile, infrastruttura fragile

Non è la prima volta, del resto, che la solidità di OpenAI viene messa in discussione. Solo poche settimane fa, il disservizio globale del 20 aprile 2026 ha bloccato ChatGPT, Codex e l'API Platform per ore, tagliando fuori migliaia di sviluppatori e team aziendali nel pieno della giornata operativa, con oltre 8.000 segnalazioni di errore solo nel Regno Unito. Etica fragile, infrastruttura fragile: il filo conduttore è lo stesso. Quando la priorità è correre verso la prossima funzionalità, il prossimo contratto, la prossima valutazione, qualcosa, prima o poi, si rompe.

E a pagarne il prezzo, sistematicamente, sono gli utenti finali e l'ecosistema che ha scelto di costruire su quelle fondamenta.

La domanda che resta

Alla fine di questa vicenda, ciò che rimane è un contrasto istruttivo. Da un lato Anthropic, che ha perso un contratto da 200 milioni ma ha mantenuto integra la propria reputazione e che, secondo il Financial Times, è già tornata al tavolo delle trattative con il Pentagono da una posizione di forza morale. Dall'altro OpenAI, che ha incassato il contratto e ha perso qualcosa di molto più prezioso: la fiducia di una fetta significativa della propria base utenti, e la coerenza tra ciò che dichiara e ciò che fa.

I princìpi, cari lettori, non si misurano nei PDF pubblicati sul sito aziendale. Si misurano nelle scelte che si fanno quando il denaro bussa alla porta e chiede, in cambio, di spegnere la coscienza.

OpenAI ha fatto la sua scelta.

E 1,5 milioni di persone, almeno secondo QuitGPT, hanno fatto la loro.


Fonti

Potrebbe interessarti

Etica e Governance

2 Mag 2026

READ TIME : 5 MIN

Il Super PAC AI che paga influencer per raccontare la minaccia cinese

Super PAC AI: offerte da 5.000 dollari a influencer per spingere messaggi anti-Cina negli USA. Ecco perché conta anche per l'Italia ora.

C. Petrolillo

Sicurezza

2 Mag 2026

READ TIME : 13 MIN

Anthropic esclusa dal Pentagono: come otto contratti IL6/IL7 ridisegnano la governance dell'IA militare USA

Il DoD ha siglato 8 accordi IL6/IL7 con OpenAI, Google e xAI ma non con Anthropic. Cosa dice il caso sulla governance reale dell'IA in difesa.

C. Petrolillo

Sviluppo e Ingegneria AI

1 Mag 2026

READ TIME : 5 MIN

Mac mini AI: segnale potente per gli agenti locali

Il Mac mini AI è passato da nicchia per sviluppatori a problema di supply chain: Apple prevede che Mac mini e Mac Studio possano richiedere “diversi mesi” per tornare in equilibrio tra domanda e offerta, mentre chiude un trimestre da 111,2 miliardi di dollari, +17% su base annua. Secondo Wired, Tim Cook ha collegato la […]

C. Petrolillo