Panthalassa ha raccolto 140 milioni di dollari per costruire data center AI galleggianti alimentati dalle onde dell'oceano, con i primi nodi Ocean-3 previsti nel Pacifico settentrionale nel 2026. Non riguarda solo una startup: riguarda il punto in cui l'infrastruttura dell'AI comincia a uscire dai confini tradizionali di rete elettrica, terreni industriali e acqua per il raffreddamento.
Nel panorama AI attuale, il collo di bottiglia non è più soltanto il modello. È la capacità di alimentare, raffreddare e connettere i sistemi che eseguono addestramento e inferenza AI, cioè la fase in cui un modello già addestrato produce risposte, classificazioni o previsioni. Panthalassa prova a ribaltare il problema: non portare energia rinnovabile verso un data center a terra, ma portare il data center AI dove l'energia è già disponibile.
Perché i data center AI cercano il mare
Chi segue il settore da vicino sa che la battaglia sull'AI è diventata anche una battaglia su megawatt, trasformatori, autorizzazioni e comunità locali. Secondo il rapporto Energy and AI dell'International Energy Agency, i data center hanno consumato circa 415 TWh nel 2024, pari all'1,5% dell'elettricità globale, e la domanda è destinata a crescere rapidamente.
“Il consumo elettrico dei data center è destinato a più che raddoppiare, arrivando a circa 945 TWh entro il 2030.” — International Energy Agency
Questo dato spiega perché un'idea apparentemente eccentrica, come mettere compute in mezzo all'oceano, trovi capitali seri. Il round Series B di Panthalassa, annunciato nel comunicato ufficiale, è guidato da Peter Thiel e include investitori come John Doerr, TIME Ventures di Marc Benioff, SciFi Ventures di Max Levchin e Super Micro Computer. La società dichiara di voler usare i fondi per completare una fabbrica pilota vicino a Portland e accelerare il dispiegamento dei nodi Ocean-3.
La logica industriale è semplice: i data center AI tradizionali competono con città, industrie e famiglie per connessioni alla rete, acqua, terreni e tempi autorizzativi. In molte aree degli Stati Uniti, la domanda dei data center è già abbastanza concentrata da creare colli di bottiglia locali. Il mare promette tre risorse che la terra fatica a offrire insieme: spazio, raffreddamento e moto ondoso.
Come funzionano i data center AI di Panthalassa
Il cuore tecnico del progetto è un nodo galleggiante autonomo. Ocean-3 è descritto come una struttura in acciaio prodotta in serie, con una parte sferica in superficie e un lungo corpo verticale sotto il livello dell'acqua. Secondo Ars Technica, l'ultima versione raggiunge circa 85 metri di lunghezza, una scala più vicina a un'infrastruttura navale che a un semplice prototipo energetico.
Il principio è quello dell'energia del moto ondoso. Quando le onde sollevano e abbassano la struttura, l'acqua viene spinta attraverso un sistema interno; il flusso aziona turbine che generano elettricità. L'energia non viene inviata a terra con cavi sottomarini. Viene consumata sul posto per alimentare chip AI a bordo, mentre i risultati dell'elaborazione vengono trasmessi via satellite.
“Le tre fonti con decine di terawatt di nuova capacità potenziale sono solare, nucleare e oceano aperto.” — Garth Sheldon-Coulson, Panthalassa
Energia sul posto, dati via satellite
Questa è la parte più interessante del progetto: Panthalassa trasforma un problema di trasmissione elettrica in un problema di trasmissione dati. Spostare elettricità per centinaia di chilometri in mare aperto è costoso e complesso; inviare token di inferenza via satellite è, almeno in teoria, più gestibile. Per casi d'uso come batch di inferenza, analisi asincrone, generazione non critica in tempo reale o alcuni carichi distribuiti, il modello potrebbe avere senso.
Il raffreddamento è il secondo vantaggio. Nei data center tradizionali, i sistemi termici pesano su consumi e acqua. In mare, l'oceano diventa un enorme dissipatore. Microsoft lo aveva già esplorato con Project Natick, un data center sottomarino sperimentale installato al largo delle Orcadi e poi recuperato nel 2020.
“I server in Natick Northern Isles mostrarono un tasso di guasto pari a 1/8 del gruppo di controllo a terra.” — Microsoft Project Natick
Il precedente è importante perché dimostra che l'ambiente marino può ridurre alcune forme di stress operativo. Ma Natick era connesso via cavi e non è diventato una linea commerciale globale. Panthalassa aggiunge due difficoltà: generare energia a bordo e operare lontano dalla costa.
I limiti dei data center AI galleggianti
La parte fragile della promessa non è l'esistenza dell'energia marina. Il Dipartimento dell'Energia statunitense stima per le onde nella zona economica esclusiva degli Stati Uniti una risorsa teorica di 3.300 TWh/anno e una risorsa tecnica di 1.400 TWh/anno. Il problema è trasformare quel potenziale in compute affidabile, economico e manutenibile.
Il primo limite è la latenza. Un data center moderno vive di fibra ottica: bassa latenza, alta capacità, sincronizzazione continua tra cluster. Un nodo offshore basato su satelliti può restituire output di inferenza, ma fatica a sostituire un hyperscale data center dove GPU, storage e rete lavorano come un unico sistema. La latenza non è un dettaglio: decide quali applicazioni possono girare in mare e quali no.
Il secondo limite è la manutenzione. Panthalassa assume ingegneri per strutture, turbine, generatori, sicurezza e produzione perché il nodo deve funzionare per lunghi periodi in condizioni oceaniche difficili. Corrosione salina, biofouling, tempeste, vibrazioni e accesso fisico non sono rischi teorici. Ogni intervento in mare costa più di un intervento in un capannone vicino a una rete elettrica.
Il terzo limite è ambientale e regolatorio. Evitare consumo d'acqua dolce e nuove centrali a terra è un vantaggio, ma migliaia di piattaforme autonome in oceano aprirebbero domande su rotte, habitat marini, sicurezza, giurisdizione e responsabilità in caso di guasti. Il fatto che l'infrastruttura sia lontana dallo sguardo pubblico non elimina il bisogno di controlli pubblici.
Cosa cambia per aziende e professionisti italiani
Per le aziende italiane, Panthalassa non cambia domani la scelta del provider cloud. Cambia però il modo in cui va letta la filiera AI. Il prezzo di un modello, di un'API o di una piattaforma di applicazioni AI non dipende solo dal software: dipende sempre più da energia, cooling, localizzazione del compute e disponibilità di capacità.
Chi compra servizi AI dovrebbe iniziare a fare domande più precise ai fornitori: dove gira l'inferenza, quale latenza è garantita, quali regioni cloud sono disponibili, quali metriche PUE e WUE vengono misurate, quanta parte del carico è spostabile senza degradare il servizio. Per banche, sanità, manifattura e pubblica amministrazione, il tema non è inseguire il data center in mare. È capire se la propria strategia AI resta sostenibile quando la capacità cloud diventa più cara, più regolata e più contesa.
C'è anche una lezione industriale per l'Italia. Il paese discute di sovranità digitale, poli cloud nazionali e data center regionali, ma spesso separa questi temi dall'energia. La notizia Panthalassa mostra che la prossima fase dell'AI sarà decisa da architetture ibride: compute vicino agli utenti quando serve latenza, compute remoto quando il lavoro è differibile, infrastrutture specializzate quando energia e raffreddamento dominano il costo.
La scommessa da 140 milioni non prova che i data center AI galleggianti funzioneranno su scala. Prova che il mercato considera ormai l'energia un vincolo strategico dell'AI, non una voce tecnica secondaria. Per chi compra o costruisce AI in Italia, il numero operativo resta 945 TWh: la soglia IEA al 2030 che trasforma il cloud da scelta IT a scelta energetica.
Nota: immagine generata con intelligenza artificiale a scopo illustrativo. Non rappresenta un render ufficiale di Panthalassa o del progetto Ocean-3.