Etica e Governance

Accordo -: AI classificata da 200 milioni

Google Pentagono, accordo AI classificata da 200 milioni

ha firmato con il Dipartimento della Difesa statunitense, ribattezzato Department of War dall'amministrazione , un accordo che autorizza il a usare i suoi modelli di intelligenza artificiale per “qualsiasi scopo governativo lecito”, con un tetto contrattuale fino a 200 milioni di dollari. La notizia, riportata da The Information il 28 aprile 2026, allinea Google a e xAI, già firmatarie di accordi simili.

L'accordo mette fine a una distanza dichiarata che durava dal 2018, quando oltre quattromila dipendenti firmarono una lettera contro Project Maven costringendo l'azienda a non rinnovare il contratto sull'analisi delle riprese da drone. La svolta odierna è arrivata un giorno dopo una nuova lettera firmata da più di 560 dipendenti, ignorata dai vertici. Per il lettore italiano la notizia può sembrare distante, ma gli effetti reali sull'uso quotidiano dei modelli che usiamo per lavorare e per studiare arriveranno più tardi: non oggi, in un domani in cui le scelte fatte ora a Washington avranno già definito il perimetro di ciò che è normale chiedere a un'AI commerciale.

Cosa prevede l'accordo Google-Pentagono e il suo limite etico

Il contratto è un emendamento a un accordo preesistente firmato nel 2024 per usi non classificati. La novità è l'estensione alle reti classificate, quelle che gestiscono compiti come pianificazione di missioni e selezione di obiettivi militari. Una clausola specifica che l'AI non è destinata a sorveglianza interna di massa o ad armi autonome senza supervisione umana, ma il documento chiarisce esplicitamente che Google non ha potere di veto sulle decisioni operative del governo:

«L'accordo non conferisce alcun diritto di controllo o veto.»

Resta la domanda più scomoda, e il documento non la affronta. Cosa significa “lecito” oggi e cosa significherà domani?

La definizione operativa di scopo governativo legittimo è tracciata dalla legge americana corrente, non da un principio etico iscritto nel contratto. Se quella legge cambia per direttiva esecutiva, per emendamento legislativo, per riclassificazione interna del Dipartimento della Difesa, cambia anche il perimetro di ciò che Google è contrattualmente tenuta a fornire. La seconda clausola spinge nella stessa direzione: obbliga l'azienda a modificare i filtri di sicurezza dei modelli su richiesta governativa. È esattamente la flessibilità che il Pentagono non era riuscito a ottenere da , classificata “” dal Segretario Pete Hegseth a febbraio 2026 proprio per il rifiuto di rimuovere i guardrail su sorveglianza domestica e armi autonome.

La domanda non è retorica. Una volta che un'amministrazione ridefinisce, in modo eticamente e poi giuridicamente vincolante, ciò che rientra nel “lecito”, la società civile ha ancora lo spazio per tornare indietro? La leva democratica resta efficace, oppure il perimetro lo decide caso per caso l'esecutivo in carica?

La lettera dei 560 dipendenti e il precedente QuitGPT

Il quadro dei principi etici di Google è cambiato in silenzio. A febbraio 2025 l'azienda ha eliminato dalle proprie AI Principles l'impegno esplicito a non sviluppare tecnologie destinate ad armi o a sorveglianza che violino norme accettate a livello internazionale. La rimozione ha aperto giuridicamente lo spazio per gli accordi successivi.

La lettera dei 560 dipendenti del 27 aprile 2026, firmata anche da ricercatori di DeepMind, chiede a Sundar Pichai di rifiutare l'estensione classificata. I firmatari rivendicano un'AI che vada a beneficio dell'umanità e non sia impiegata, come hanno scritto, in «modi disumani o estremamente dannosi». Non sono numeri, sono persone che dentro l'azienda rifiutano un uso dell'intelligenza artificiale considerato eticamente insostenibile. Il loro argomento operativo è preciso: su reti air-gapped Google perde la capacità tecnica di monitorare come Gemini viene effettivamente utilizzato.

Dall'articolo: I princìpi di ? Carta straccia da 200 milioni di dollari

Il precedente più immediato dice che la pressione pubblica può funzionare, ma in finestre strette. A inizio marzo 2026, dopo che OpenAI aveva preso il posto di Anthropic nei contratti classificati del Pentagono, il movimento #QuitGPT ha mobilitato tra 1,5 e 2,5 milioni di utenti tra cancellazioni di abbonamento e azioni di protesta, secondo le rilevazioni di Sensor Tower e Appfigures.

è diventata per la prima volta l'app gratuita più scaricata negli Stati Uniti, con un'impennata delle disinstallazioni di ChatGPT del 295% su base giornaliera. Sam Altman è stato costretto a riscrivere pubblicamente l'accordo, aggiungendo clausole esplicite contro sorveglianza di massa e uso da parte delle agenzie di intelligence. Per Google la domanda è se un'ondata simile sia ancora possibile su un consumatore Gemini integrato in Workspace, Android, Search che ha molte meno alternative immediate di chi paga 20 dollari al mese per ChatGPT.

La triade industriale e il piano americano

L'accordo di oggi va letto dentro un disegno più ampio. Il Pentagono sta consolidando un'architettura industriale per l'AI militare basata su tre pilastri: il Maven Smart System di Palantir come piattaforma integratrice, OpenAI come fornitore del livello LLM dopo l'estromissione di , e ora Google come secondo fornitore di modelli per le reti classificate. A marzo 2026 il Maven Smart System è stato designato programma di record dal

Vice Segretario Steve Feinberg, con investimenti cresciuti da 480 milioni nel 2024 fino a 13 miliardi previsti, e oltre 25.000 account attivi in tutti i comandi combattenti americani. Durante l'Operazione Epic Fury, partita il 28 febbraio 2026, il sistema ha contribuito a identificare e colpire oltre 11.000 bersagli in Iran in poche settimane.

Sul piano commerciale, l'obiettivo interno dichiarato di Google è generare circa sei miliardi di dollari di valore contrattuale nel settore pubblico tra il 2025 e il 2027. A luglio 2025 il Chief Digital and AI Office aveva già firmato contratti fino a 200 milioni ciascuno con Google, OpenAI, xAI e Anthropic. A dicembre 2025 il programma Gemini for Government ha esteso l'accesso ai modelli Google a circa tre milioni di dipendenti militari e civili. Nel cloud di difesa Google è inoltre attiva dal dicembre 2022 come uno dei quattro vincitori del Joint Warfighting Cloud Capability da nove miliardi di dollari, accanto ad AWS, Microsoft e Oracle.

L'America vuole arrivare per prima sui sistemi autonomi. La triade industriale che si sta formando è lo strumento operativo di questa scelta strategica.

Cosa cambia per chi guarda dall'Europa

Il segnale per il mercato europeo è duplice. Il primo è regolatorio: l'AI Act europeo esclude dal proprio perimetro i sistemi sviluppati o usati esclusivamente per scopi militari, ma lascia aperta la zona grigia degli usi dual-use e dei modelli commerciali successivamente adattati a finalità di sicurezza nazionale. Quello che il legislatore europeo non ha normato in modo netto è la modalità americana e i modelli generali con guardrail rimovibili contrattualmente.

Il secondo è competitivo. I principali fornitori di AI da cui dipendono pubbliche amministrazioni e grandi imprese italiane: , Microsoft Azure con OpenAI e AWS stanno tutti definendo la propria postura militare nei confronti del committente americano. La domanda concreta per chi acquista servizi cloud e modelli AI in Italia non è più se questi fornitori operino nel settore difesa, ma quali clausole contrattuali separino l'uso commerciale civile da quello classificato e se quelle separazioni reggano sotto pressione governativa diretta.

 

Illustrazione editoriale generata con IA: veduta immaginaria del Pentagono al crepuscolo con simbolo astratto sovrapposto.

Potrebbe interessarti

Business e Mercati

1 Mag 2026

READ TIME : 10 MIN

Processo OpenAI: svolta decisiva per il mercato AI

Processo OpenAI: dopo 3 giorni di testimonianza e 7 crepe nel caso Musk, governance, cloud, safety e aziende italiane entrano in gioco ora davvero nel 2026.

C. Petrolillo

Business e Mercati

30 Apr 2026

READ TIME : 5 MIN

Valutazione Anthropic: cifra shock da 900 miliardi

Valutazione Anthropic fino a 900 miliardi: il nuovo round da 50 miliardi mostra quanto costa davvero competere nell'AI frontier per aziende e sviluppatori.

C. Petrolillo

Analisi dati

30 Apr 2026

READ TIME : 16 MIN

Allineamento AI: il caso goblin di OpenAI Codex e il 66,7%

OpenAI vieta a Codex di parlare di goblin: dietro il meme un caso di allineamento AI con il 66,7% degli output concentrati in una sola personality.

C. Petrolillo