Business e Mercati

Notizie AI della settimana: Google-Anthropic, Musk-OpenAI e GPT-5.5

notizie ai settimana: investimenti record, contenziosi legali e nuovi modelli AI di aprile 2026

Le notizie AI settimana 19-25 aprile sono dominate da cifre vertiginose e decisioni legali: Musk ha ottenuto dal giudice statunitense la cancellazione delle accuse di frode contro OpenAI, ma il processo per violazione dell'obbligo fiduciario verso il charitable trust procederà comunque; nello stesso momento Google ha annunciato un investimento fino a 40 miliardi di dollari nell'avversario Anthropic per potenziare l'infrastruttura di calcolo, mentre Related Digital ha quasi finalizzato un finanziamento da 16 miliardi per costruire un mega data center Oracle da oltre un gigawatt in Michigan.

Il Dipartimento di Giustizia ha inoltre deciso di intervenire nella causa di xAI contro la legge del Colorado che impone di mitigare la “discriminazione algoritmica”, definendo incostituzionale l'obbligo di integrare criteri di diversità negli algoritmi.

Questi quattro fatti rappresentano la cartina di tornasole di una corsa all'AI sempre più polarizzata fra colossi tech, investitori e regolatori. Chi segue il settore sa che non si tratta di notizie isolate: la stessa settimana ha visto l'arrivo di GPT-5.5 di OpenAI, il governo statunitense accusare la cinese DeepSeek AI di spionaggio industriale e un nuovo report dello Stanford AI Index fotografare una crescita degli investimenti a 581 miliardi di dollari. Ciò che cambia per aziende e professionisti italiani è la combinazione fra potenza di calcolo, governance dei dati e reputazione dei fornitori. Vediamo perché.

Corsa al calcolo: investimenti e modelli da frontiera

Logo alphabet for google, per notizie AI settimana

Immagine: Alphabet Investor Relations.

Il dato più clamoroso arriva dal fronte finanziario: Alphabet metterà fino a 40 miliardi di dollari in Anthropic. L'accordo prevede 10 miliardi immediati a una valutazione di 350 miliardi e altri 30 miliardi legati al raggiungimento di determinati risultati. La cifra s'inserisce in una serie di mosse simili: Amazon, il 20 aprile, aveva impegnato 5 miliardi immediati nella stessa startup con altri 20 miliardi vincolati a milestone commerciali per un totale potenziale di 25 miliardi e un commitment parallelo di Anthropic a spendere oltre 100 miliardi in servizi AWS nel prossimo decennio. Blackstone, dal canto suo, sta contribuendo con 2 miliardi al finanziamento del data center da 16 miliardi di Related Digital.

Questa pioggia di denaro non è marketing: serve a costruire infrastrutture di calcolo che consumano gigawatt e che rappresentano il collo di bottiglia per i large language model (LLM) e i sistemi di reinforcement learning. Nel suo nuovo AI Index 2026, Stanford nota che la capacità di calcolo globale in termini di H100-equivalenti è triplicata ogni anno dal 2022 e che detiene oltre il 60% del mercato.

I modelli non stanno fermi. GPT-5.5, presentato da OpenAI il 23 aprile e disponibile via Codex, promette prestazioni dell'82,7% su Terminal-Bench 2.0 e del 58,6% su SWE-Bench Pro. Secondo OpenAI, oltre l'85% dei suoi dipendenti usa Codex su base settimanale e il modello è già nelle mani di circa 4 milioni di sviluppatori esterni alla settimana. GPT-5.5 è stato co-progettato, addestrato e servito sui sistemi GB200 e GB300 NVL72, con ottimizzazioni di load balancing scritte dal modello stesso che hanno aumentato di oltre il 20% la velocità di generazione dei token.

La piattaforma sfrutta agenti AI in grado di pianificare, usare strumenti e correggere errori in ambienti aziendali con permessi limitati; in altre parole, non è un semplice suggeritore di codice ma un co-worker autonomo. La nostra redazione nota che questo sposta il baricentro della professione: scrivere codice resta fondamentale, ma cresce il valore di chi sa definire compiti, verificare log e orchestrare agenti in sandbox sicure. Approfondimento dedicato qui.

Un'altra innovazione sottotraccia riguarda la WebSocket API di OpenAI: introdotta nella Responses API, riduce del 40% la latenza degli agenti consentendo velocità di oltre 1.000 token al secondo. Non è una finezza tecnica: per gli sviluppatori la differenza tra interazioni lente e reattive può determinare l'adozione di un servizio. L'API mantiene in memoria lo stato della conversazione, elimina il lavoro ridondante di tokenizzazione e abbassa il Time to First Token del 45%. Un test condotto su Codex ha mostrato che l'uso di WebSocket ha reso i workflow multi-file fino al 39% più veloci.

Le mosse dei laboratori e delle aziende

 Nec Corporation + Anthropic per notizie AI settimana

Immagine: NEC Corporation, comunicato stampa ufficiale del 23 aprile 2026.

Nel nostro panorama, non passano inosservate due operazioni di adozione aziendale: NEC ha firmato un accordo strategico con Anthropic per portare Claude a 30.000 dipendenti in Giappone. L'azienda giapponese svilupperà soluzioni verticali per finanza, manifattura e pubblica amministrazione, aprendo un centro di eccellenza e integrando Claude Code nelle operazioni interne. L'obiettivo non è solo tecnologico: è una scommessa sulla creazione di un'organizzazione AI-native in un contesto industriale tradizionale.

Lo stesso articolo ricorda però una settimana nera per la reputazione di Anthropic sul fronte sicurezza: il 31 marzo un errore di packaging nel pacchetto npm di Claude Code ha esposto pubblicamente circa 512.000 righe di codice sorgente in TypeScript , il codice è stato forkato decine di migliaia di volte su GitHub prima che i takedown DMCA potessero avere effetto. Cinque giorni prima, una misconfigurazione del CMS aveva già reso accessibili quasi 3.000 asset interni non pubblicati, inclusi i draft dell'annuncio di Claude Mythos, un modello inedito orientato alla cybersecurity che Anthropic mantiene a circolazione ristretta come asset strategico difensivo.

Questi incidenti non sono gossip: un deployment da 30.000 licenze come quello NEC rende la sicurezza operativa un requisito di contratto, non un'aspirazione.

Sul fronte sanitario, lo Stanford Human-Centered AI Lab ha presentato Bloom, un'AI health coach basata su LLM testata su 54 partecipanti. Lo studio ha dimostrato che il coaching conversazionale produce un cambiamento significativo nel mindset verso l'attività fisica, pur senza aumentare la quantità di esercizio. Bloom usa una doppia prompt chain che combina dialog state e motivational interviewing, con filtri di sicurezza per evitare consigli dannosi. La vera svolta è nell'approccio: l'AI non prescrive ma ascolta e supporta l'autonomia; per le startup italiane di digital health, il messaggio è che il valore sta nel design dell'interazione, non nella potenza del modello.

Limiti, tensioni e attacchi: quando l'AI si scontra con la realtà

Interfaccia verifica utenti AI OpenAI Project World su app dating Keyword Principale: verifica utenti AI

Dietro i trionfi ci sono frizioni reali. La causa di Elon Musk contro OpenAI non verrà archiviata: il giudice ha acconsentito a cancellare le accuse di frode su richiesta dello stesso Musk, ma ha deciso di andare a processo per la violazione dell'obbligo fiduciario verso il charitable trust e l'arricchimento senza causa. Musk sostiene che la trasformazione di OpenAI in una società for-profit ha tradito la missione originaria, arrivando a chiedere 150 miliardi di dollari di danni da destinare alla fondazione benefica dell'azienda.

Per i nostri lettori questo non è un litigio personale: testimonia la tensione tra modelli aperti e logiche di profitto e potrebbe influenzare l'IPO da 1.000 miliardi di dollari (un trilione) che si vocifera per la fine dell'anno.

Sul fronte normativo, il Dipartimento di Giustizia degli Stati Uniti ha deciso di intervenire a favore di xAI, la società di Musk, nella causa contro la legge del Colorado sulla “discriminazione algoritmica”. Secondo l'ente federale, la legge viola la Clausola di eguale protezione perché impone alle aziende AI di prevenire impatti disparitari involontari ma esenta gli algoritmi che favoriscono la diversità.

La dichiarazione usa termini accesi: richiamare la “woke DEI ideology” e sostenere che norme simili “minacciano la sicurezza nazionale ed economica”. La domanda che nessun legislatore sembra farsi fino in fondo è: come si concilia la tutela contro le discriminazioni con la necessità di non imporre bias ideologici ai modelli? Nel frattempo, l'Europa discute ancora i dettagli finali dell'AI Act, dimostrando quanto le tempistiche politiche siano diverse su ciascun lato dell'Atlantico.

I limiti non sono solo legali. Il report dello Stanford AI Index sottolinea che gli Stati Uniti hanno rilasciato 50 modelli AI notable nel 2025 contro i 30 della Cina, mentre l'Europa resta marginale, e gli investimenti globali hanno superato i 581 miliardi di dollari. Questo gap non è un dettaglio statistico: si traduce in ritardi nell'adozione, nella difficoltà di attrarre talenti e nell'aumento della dipendenza da fornitori stranieri. Inoltre, il co-direttore del report, Ray Perrault, avverte che i benchmark non misurano come un agente si comporta in contesti specifici e che dunque non dovrebbero essere usati per valutazioni normative.

Nel frattempo, la Casa Bianca ha ordinato a tutte le ambasciate di avvertire i governi stranieri dei presunti furti di proprietà intellettuale da parte della cinese DeepSeek AI e di altre due aziende. Il cable diplomatico cita l'uso della distillazione per addestrare un modello più piccolo usando le risposte di un modello più grande e tecniche di jailbreaking per aggirare le protezioni. Pechino ha respinto le accuse definendole infondate, ma la questione solleva un problema per chi acquista modelli: come verificare la provenienza e la sicurezza del sistema? Noi che monitoriamo questo spazio sappiamo che la distillazione non è di per sé illegale, ma senza permesso diventa appropriazione indebita e può rimuovere barriere di sicurezza.

Per le aziende italiane la scelta di un modello non può basarsi solo su costo e velocità: deve includere domande su dove gira, chi lo controlla e quali policy applica.

Quando la vulnerabilità diventa notizia

Schema della partnership TPU Anthropic con Google e Broadcom per il compute AI dal 2027

Se la sicurezza dei modelli è un tema, la sicurezza dell'infrastruttura non è da meno. Le vulnerabilità scoperte in Claude Code e l'esposizione dei draft di Claude Mythos via CMS, insieme al recente attacco supply-chain che ha coinvolto Vercel (e che ha compromesso API key di vari clienti), ricordano che l'adozione enterprise deve essere accompagnata da pratiche di hardening, audit e gestione delle chiavi.

Notizie AI settimana: implicazioni per l'Italia e per le imprese

Per professionisti e aziende italiane, il quadro che emerge da questo recap settimanale è duplice. Da una parte, i grandi investimenti e le partnership transoceaniche mostrano che il controllo della compute e dei modelli fondamentali sarà sempre più concentrato in poche mani. Questo implica che PMI e startup dovranno scegliere partner infrastrutturali affidabili, negoziare contratti che garantiscano indipendenza e valutare alternative europee o open-source quando disponibili. L'adozione di modelli come GPT-5.5 o Claude non può essere solo una decisione tecnica: richiede una governance dei dati, valutazioni di rischio e capacità di integrazione con sistemi legacy.

Dall'altra parte, emergono opportunità specifiche. I progressi nei coach digitali come Bloom dimostrano che l'AI può supportare il cambiamento comportamentale in contesti sanitari senza sostituire il giudizio clinico. Le API WebSocket di OpenAI offrono a sviluppatori e team un modo per ridurre costi e latenza, mentre l'esempio di NEC suggerisce che un deployment su larga scala richiede un Center of Excellence interno, un blueprint utile per grandi aziende italiane nei settori regolamentati. Infine, il caso DeepSeek invita a trattare l'AI come infrastruttura critica: scegliere un modello implica valutare la catena del valore, dai dati ai chip, dal cloud alle API.

Chiudiamo con un dato concreto che riassume l'urgenza della settimana: secondo lo Stanford AI Index, la capacità di calcolo derivante dai principali produttori di GPU è aumentata di 30 volte dal 2021. Per chi lavora con l'AI in Italia, questo significa che la prossima generazione di modelli richiederà infrastrutture che oggi non esistono sul territorio nazionale. Investire in formazione, sicurezza e infrastrutture locali non è un'opzione futuristica è una necessità immediata se si vuole mantenere competitività nel 2026 e oltre.

Approfondimenti correlati

DeepSeek AI, allarme USA: 2 mosse che contano

Stanford AI Index 2026: l'AI corre, l'Europa arranca

GPT 5.5, svolta potente per Codex su NVIDIA

WebSocket API OpenAI: agenti AI 40% più veloci

NEC adotta Claude per 30.000 dipendenti in Giappone

AI health coach: Bloom cambia il mindset, non i workout

Potrebbe interessarti

Business e Mercati

27 Apr 2026

READ TIME : 7 MIN

I princìpi di OpenAI? Carta straccia da 200 milioni di dollari

Anthropic dice no e perde tutto. OpenAI dice sì e incassa 200 milioni. Tra le due risposte, 1,5 milioni di utenti hanno scelto da che parte stare.

C. Petrolillo

AI Generativa

27 Apr 2026

READ TIME : 5 MIN

Grok Voice: il nuovo sorpasso di xAI nella voce AI

Grok Voice arriva al 67,3% su τ-voice Bench e supera Gemini e GPT Realtime: cosa cambia per aziende e sviluppatori italiani ora

C. Petrolillo

Sviluppo e Ingegneria AI

27 Apr 2026

READ TIME : 7 MIN

Benchmark AI: 7 test decisivi per gli agenti

Benchmark AI: 7 test separano agenti utili e hype. Da SWE-bench ad ARC-AGI-3, i numeri mostrano perché servono nuove prove per scegliere modelli affidabili ora.

C. Petrolillo