In un campo nel Nevada, sotto un cielo che non aspetta, un robot ha avvitato l’ultimo pannello di un impianto solare da 100 megawatt. Nessun operaio accanto. Nessun supervisore a correggere la traiettoria. Solo un sistema autonomo sviluppato da Maximo — la startup di robotica solare incubata da AES Corporation — che ha completato un’installazione utility-scale interamente con una flotta di macchine addestrate in simulazione e poi liberate nel mondo reale.
È questa la settimana della physical AI: l’intelligenza artificiale che smette di elaborare testo e immagini e comincia a muovere oggetti, navigare spazi, raccogliere frutta, assistere chirurghi. In occasione della National Robotics Week 2026, NVIDIA ha pubblicato un aggiornamento sistematico su ricerche, startup e tecnologie che stanno portando i robot fuori dai laboratori — e i numeri e i casi emersi disegnano un’industria che ha accelerato oltre le previsioni più ottimistiche di tre anni fa.
Physical AI: dal simulatore al campo
Il problema storico della robotica non era la meccatronica. Era il dato. Addestrare un robot a eseguire un compito richiedeva migliaia di ore di dimostrazioni reali, raccolte a costo altissimo, in ambienti difficilmente riproducibili. Oggi quel collo di bottiglia si sta aprendo, e il meccanismo alla base è un loop preciso: simulazione fotorealistica → addestramento su dati sintetici → trasferimento al robot fisico.
Al GTC 2026 di marzo, NVIDIA ha annunciato una serie di strumenti che rendono questo loop più veloce e più affidabile.
I nuovi modelli Isaac GR00T — foundation model aperti per la robotica, ovvero modelli pre-addestrati su cui costruire sistemi specializzati — permettono ai robot di interpretare istruzioni in linguaggio naturale ed eseguire sequenze di azioni complesse.
Newton 1.0, il motore fisico open source ora disponibile in forma stabile, simula con precisione la manipolazione di oggetti rigidi e flessibili, il contatto tra superfici e le collisioni — il tipo di fisica che un braccio robotico deve padroneggiare prima di toccare un oggetto reale. Isaac Sim 6.0 e Isaac Lab 3.0 completano l’infrastruttura, permettendo di testare comportamenti in ambienti virtuali prima del deployment fisico.
Il risultato concreto di questa architettura lo mostra Mimic Robotics con il suo sistema mimic-video: un modello video-action che abbina un modello video pre-addestrato , cercalo sul nostro Glossario AI, su scala internet a un decoder per le azioni fisiche. Rispetto ai sistemi tradizionali, raggiunge 10 volte più efficienza nel campionamento dei dati e 2 volte più velocità di convergenza su compiti di manipolazione reale — tradotto: i robot imparano a fare le stesse cose con una frazione dei dati necessari fino a ieri.
Un altro esempio arriva dalla comunità di sviluppatori: Umang Chudasama, developer nell’ecosistema NVIDIA Omniverse, ha integrato NemoClaw — lo stack che traduce istruzioni testuali in script Python eseguibili — con Isaac Sim per controllare un robot autonomo Nova Carter usando comandi in linguaggio naturale. L’istruzione “muoviti due metri in avanti” diventa movimento reale, senza una riga di codice scritta manualmente. È un cambio di paradigma nella prototipazione: invece di programmare il robot, si conversa con lui.
“Developers can now simply talk to them, marking a meaningful shift toward truly collaborative, language-driven robotics.” — NVIDIA Blog, National Robotics Week 2026
Tre settori, una trasformazione
La settimana NVIDIA non ha presentato una tecnologia sola. Ha mostrato dove la robotica fisica sta già atterrando — e i tre settori più rappresentati raccontano una geografia precisa della trasformazione in corso.
Energia. Maximo ha completato l’installazione da 100 megawatt usando robot sviluppati con NVIDIA Omniverse e Isaac Sim. Il sistema risolve un problema reale: la domanda di installazioni solari cresce più veloce della forza lavoro specializzata disponibile. I robot non sostituiscono gli operai in astratto — colmano un gap concreto di capacità costruttiva che sta rallentando la transizione energetica.
Agricoltura. Aigen ha sviluppato rover solari autonomi che usano computer vision — la capacità di interpretare e classificare immagini in tempo reale — per distinguere le colture dalle erbe infestanti e rimuovere queste ultime senza erbicidi. Ogni rover elabora l’inferenza localmente su un modulo NVIDIA Jetson Orin, un chip edge progettato per eseguire modelli AI direttamente sul dispositivo senza connessione al cloud. Il sistema è addestrato su NVIDIA Cosmos, i world foundation model che generano scenari sintetici di ambienti agricoli — perché ogni campo è diverso e raccogliere dati reali per ogni variabile sarebbe impossibile. Terra Robotics percorre la stessa strada con robot laser per la diserbatura sostenibile.
Chirurgia. PeritasAI sta integrando intelligenza multi-agente — sistemi in cui più agenti AI cooperano in tempo reale — nelle sale operatorie, in collaborazione con Lightwheel e Advent Health Hospitals. Usando NVIDIA Isaac for Healthcare e il blueprint Rheo per l’automazione ospedaliera, il sistema supporta i team chirurgici con consapevolezza situazionale, coordinamento sterile e gestione intelligente di strumenti e impianti. Non sostituisce il chirurgo: riduce il carico cognitivo nelle operazioni più complesse.
La prova che il settore è maturo: nove startup al lavoro
Il segnale più sottile — ma forse il più significativo — della settimana è la composizione della seconda coorte del MassRobotics Fellowship, il programma AWS che seleziona startup robotiche con casi d’uso industriali concreti. I nove team ammessi — tra cui Burro per la raccolta automatizzata di uva, Telexistence per la logistica retail, WiRobotics per i robot indossabili che assistono la mobilità umana, e Haply Robotics per i dispositivi aptico che funzionano da “volanti” per i sistemi di physical AI — non stanno costruendo prototipi da fiera. Stanno risolvendo problemi operativi in ambienti che non perdonano gli errori.
Tutti usano l’ecosistema NVIDIA. Tutti sono parte del programma NVIDIA Inception per le startup AI. Questo concentramento non è casuale: indica che l’infrastruttura di sviluppo si è standardizzata abbastanza da permettere a team piccoli di costruire robot capaci in tempi che tre anni fa avrebbero richiesto aziende di medie dimensioni.
L’Università del Maryland, con un grant del programma accademico NVIDIA, sta sviluppando foundation model per robot domestici — sistemi in grado di unificare percezione, pianificazione e controllo in un’unica architettura. I robot vengono addestrati in ambienti domestici virtuali con milioni di variazioni di oggetti e layout, usando NVIDIA RTX PRO 6000 Blackwell GPU per il training e Jetson AGX Thor per il deployment fisico. La distanza tra ricerca accademica e prodotto deployabile si sta accorciando — e non per un salto tecnologico singolo, ma per l’accumulo di strumenti, modelli e piattaforme che abbassano la soglia di ingresso a ogni iterazione.
Per i professionisti italiani che lavorano in logistica, manifattura, agricoltura o sanità, il dato rilevante non è la spettacolarità dei robot. È questo: il costo e il tempo necessari per sviluppare un sistema robotico capace in un dominio specifico sono scesi in modo strutturale. Le barriere che rendevano la robotica avanzata accessibile solo ai grandi player stanno cedendo — e le nove startup del MassRobotics Fellowship sono la dimostrazione che il cambiamento è già operativo, non in arrivo.
Fonte: NVIDIA