Mentre gli investitori scommettono miliardi su modelli e agenti, c'e' un pezzo dell'AI che si gioca lontano dai riflettori: il raffreddamento. Il 14 maggio 2026 Iceotope Group, azienda britannica specializzata in raffreddamento liquido di precisione per data center, ha chiuso un round di Serie B da 26 milioni di dollari. I capitali andranno in espansione del prodotto, brevetti e rete di partner, in vista della nuova generazione di rack AI che superera' il megawatt.
La notizia, riportata da Tech Startups, e' meno appariscente di un round da un miliardo per un foundation model, ma indica che gli investitori AI stanno cambiando bersaglio: dopo lo storage e i chip, ora si finanzia chi risolve i problemi fisici di un'infrastruttura che non si scala piu' con l'aria.
Perche' i rack AI superano i limiti dell'aria
I sistemi GPU di ultima generazione – NVIDIA Blackwell NVL72 e i prossimi Rubin – consumano in un singolo rack quanto vent'anni fa un intero corridoio di server. Si parla di densita' che si avvicinano al megawatt per rack, ben oltre i 30-40 kilowatt che le sale dati tradizionali sapevano gestire con ventole e CRAC unit.
L'aria, sopra una certa soglia, non basta piu'. O si usa il liquido a contatto con il chip (direct-to-chip) o si immerge il server in un fluido dielettrico (immersione totale). Iceotope ha sviluppato una variante intermedia, definita precision liquid cooling: un involucro sigillato per scheda madre con micro-circuito di fluido che porta via il calore solo dai componenti caldi, senza inondare tutto il rack.
I 26 milioni e a cosa serviranno
La Serie B vede tra gli investitori asiatici, fondi infrastrutturali europei e nuovi LP industriali. Il piano di Iceotope, come riassunto da Crunchbase, e' su quattro fronti.
- Prodotto: nuova generazione di chassis compatibili con i prossimi rack a 1,2 MW, certificati per OCP e per l'edge.
- Engineering: assunzioni in UK e Polonia, con focus su simulazione termica.
- Brevetti: espansione del portafoglio IP, soprattutto su materiali e sigillanti dei moduli a immersione parziale.
- Partner: integrazione con i big dell'hardware – HPE, Dell, Supermicro – e con i provider di data center modulari per il deployment in container.
Il contesto: HBM esaurito, energia limitata
La Serie B di Iceotope arriva in un momento in cui i veri colli di bottiglia dell'AI non sono piu' le GPU. NVIDIA ha esaurito la disponibilita' della famiglia Blackwell fino al 2027 perche' la memoria HBM e' contingentata; le grid di Virginia, Dublino e Francoforte hanno congelato nuove connessioni per data center; il prezzo dell'acqua di raffreddamento e' diventato una voce di bilancio rilevante.
In questo scenario, ridurre del 30-40% il consumo energetico del raffreddamento – come Iceotope sostiene di ottenere rispetto all'aria forzata – significa liberare capacita' utile in megawatt. E' la ragione per cui Sutter Hill, Sequoia e i grandi fondi infrastrutturali hanno finanziato nelle ultime settimane GridCARE, le startup di geotermia e perfino chi recupera calore di scarto per il teleriscaldamento urbano.
Cosa cambia per gli operatori italiani
Il tema del raffreddamento e' sul tavolo anche del Tecnopolo di Bologna, candidato a ospitare la Frontier AI Facility europea. La macchina Leonardo di CINECA usa gia' un sistema di raffreddamento ad acqua diretta sul chip sviluppato con Atos e ha permesso di abbattere il PUE (Power Usage Effectiveness) sotto 1,2 – tra i migliori al mondo. Aziende come Iceotope propongono una via diversa, modulare, adatta anche per i piccoli data center regionali italiani e per gli edge gateway delle PMI.
Il punto e' politico: chi controlla il raffreddamento controlla il margine. E in un mondo in cui ogni kilowatt risparmiato e' un'inferenza in piu' venduta, 26 milioni in una startup britannica di liquid cooling possono valere quanto un round da un miliardo in un foundation model.




