Istruzione e Lavoro

Sindacato DeepMind: smuove i princìpi sull'AI

viso astratto digitale rappresenta il sindacato DeepMind

Il sindacato DeepMind prende forma a Londra: il 98% dei membri della Communication Workers Union nell'unità britannica ha votato a favore della richiesta di riconoscimento sindacale, in una mobilitazione legata ai contratti militari AI di Google, della quale abbiamo già discusso qui.

La notizia conta perché sposta il dibattito sull'AI dal terreno dei princìpi aziendali a quello del potere contrattuale. Se chi sviluppa i modelli riesce a negoziare su usi militari, sorveglianza e automazione del lavoro, anche chi compra o integra questi sistemi dovrà leggere le policy AI come documenti operativi, non come pagine reputazionali.

Sindacato DeepMind: cosa hanno votato i lavoratori

Secondo quanto emerso da Wired e Guardian, i lavoratori di Google DeepMind nel Regno Unito hanno chiesto all'azienda di riconoscere CWU e Unite the Union come rappresentanti congiunti del personale britannico del laboratorio. In caso di riconoscimento, la rappresentanza riguarderebbe almeno 1.000 persone legate alla sede londinese di King's Cross, il cuore storico di DeepMind dentro Alphabet.

Il voto non nasce da una vertenza salariale tradizionale. La richiesta riguarda il modo in cui Google commercializza e rende disponibili le sue tecnologie AI a governi e apparati militari. La piattaforma UTAW@Google, collegata alla campagna sindacale, chiede di rafforzare i princìpi AI dell'azienda, creare supervisione indipendente, proteggere chi segnala violazioni e riconoscere il diritto individuale a rifiutare progetti incompatibili con standard morali o etici personali.

“We will not pursue weapons, technologies or contracts whose principal purpose, implementation or impact causes harm or directly facilitates injury to people.”

Questa frase, proposta dai lavoratori come nuovo princìpio AI, chiarisce il punto: non si chiede l'ascolto o una semplice trasparenza, ma un vincolo esplicito sui contratti e sugli impieghi finali della tecnologia.

Che cosa c'entra l'AI militare

Il contesto immediato ed è il Pentagono, il nuovo accordo pubblicato il 1 maggio 2026 sul sito governativo war.gov. Il comunicato ufficiale parla di otto aziende: SpaceX, OpenAI, Google, , Reflection, Microsoft, Amazon Web Services e Oracle, chiamate a distribuire capacità AI avanzate su reti classificate per “lawful operational use”.

Il documento cita l'integrazione in ambienti Impact Level 6 e 7, reti usate per dati classificati e operazioni sensibili. Non è quindi un semplice contratto cloud generico: significa portare modelli generativi e sistemi di supporto decisionale dentro infrastrutture dove l'accesso, i log, il monitoraggio e la catena di responsabilità sono molto diversi da quelli di un prodotto enterprise pubblico.

Google sostiene nei suoi AI Principles aggiornati di voler sviluppare e distribuire AI con supervisione umana, due diligence e rispetto dei princìpi internazionali sui diritti umani. Ma proprio qui nasce lo scontro: dopo la rimozione, nel 2025, delle vecchie formule esplicite contro armi e sorveglianza, una parte dei dipendenti ritiene che le garanzie siano diventate troppo elastiche.

Il nodo tecnico: controllare i modelli dopo la consegna

La questione tecnica non è se Gemini o altri sistemi AI possano “decidere da soli” in ambito militare. Il punto più concreto è come si controlla un modello quando viene distribuito in una rete classificata, adattato a procedure interne e usato da personale governativo con finalità operative il quale punta al “any lawful use” e togliere ogni princìpio etico e morale alle big tech.

In teoria, un fornitore può imporre policy d'uso, filtri, audit e clausole contrattuali. In pratica, più l'ambiente è sensibile e separato dai sistemi pubblici, più diventa difficile verificare ogni prompt, ogni integrazione e ogni decisione a valle. Per un laboratorio AI, questo cambia la natura del rischio: non basta dire cosa il modello “non dovrebbe” fare, bisogna dimostrare chi può fermarne l'uso quando il caso diventa ambiguo.

La domanda che nessuno nei comunicati ufficiali si pone è semplice: se un modello viene distribuito in una rete militare classificata, chi ha davvero il potere tecnico e contrattuale di bloccarne un uso discutibile quando quell'uso resta formalmente legale?

Perché cambia il panorama AI europeo

Per il settore AI, il caso DeepMind è rilevante perché arriva dentro un laboratorio di frontiera, non in una società di outsourcing o in una divisione periferica. DeepMind non è solo un marchio: è uno dei centri da cui Google costruisce la propria posizione nei modelli avanzati, nella ricerca scientifica e nei prodotti come Gemini.

Finora la governance AI è stata raccontata soprattutto come un triangolo tra aziende, regolatori e utenti. Il sindacato introduce un quarto soggetto: i lavoratori che conoscono i sistemi dall'interno e chiedono voce sugli impieghi finali. Non è detto che possano bloccare contratti militari, ma possono aumentare il costo reputazionale, organizzativo e operativo di scelte presentate finora come decisioni di management.

Per chi lavora in Italia con fornitori AI internazionali, l'implicazione è concreta. Nei contratti enterprise, nelle gare pubbliche e nei progetti con dati sensibili non basta più chiedere dove sono ospitati i dati o quale modello viene usato. Serve chiedere quali esclusioni d'uso sono vincolanti, quali audit sono possibili, chi decide in caso di uso duale e cosa succede se il fornitore cambia i propri princìpi etici dopo la firma.

Il caso del sindacato DeepMind dice questo: l'AI militare non è più un tema separato dalla normale adozione aziendale dell'AI. Entra nella valutazione del rischio, nella compliance e nella fiducia verso i fornitori che oggi vendono produttività e domani potrebbero vendere capacità operative allo Stato.

Potrebbe interessarti

Analisi dati

6 Mag 2026

READ TIME : 6 MIN

Letteratura scientifica: il dato allarmante sull'AI

La letteratura scientifica contiene testi AI in crescita: +42% submission e 43% dei review preprint CS nel 2025. Ecco il rischio per università e imprese.

C. Petrolillo

Ambiente e Sostenibilità

6 Mag 2026

READ TIME : 6 MIN

Data center AI in mare: la scommessa da 140 milioni

Data center AI in mare: Panthalassa raccoglie 140 milioni e porta l'inferenza sulle onde. Energia, satellite e manutenzione decidono se scala davvero.

C. Petrolillo

AI Generativa

6 Mag 2026

READ TIME : 6 MIN

GPT-5.5 Instant: svolta concreta per ChatGPT

GPT-5.5 Instant arriva su ChatGPT con il 52,5% di allucinazioni in meno nei test OpenAI: cosa cambia per lavoro, memoria e aziende italiane nel 2026, adesso?

C. Petrolillo