Infinity Cube: 224 GPU B200 e 86 TB di spazio per "abbellire" i data center
Il sistema supporta 56 CPU AMD EPYC per un totale di 8.960 core
- L'Odinn Infinity Cube combina più supercomputer Omnia in un'unica struttura in vetro.
- La capacità di memoria raggiunge gli 86 TB di RAM DDR5 ECC registrata.
- Lo storage NVMe nel cubo tocca l'incredibile quota di 27,5 PB.
Odinn, startup californiana, ha presentato l'Infinity Cube nel tentativo di racchiudere il computing di classe data center in una struttura visivamente integrata.1
Al CES 2026, l'azienda ha svelato Odinn Omnia, un supercomputer AI trasportabile; tuttavia, un sistema di tale portata da solo dovrebbe affrontare evidenti limiti di throughput, ed è qui che entra in gioco il Cube.2
L'Infinity Cube è un cluster AI da circa 4 x 4 metri in grado di aggregare molteplici supercomputer Omnia AI in un unico involucro di vetro.+1
Scalabilità dell'intelligenza artificiale tramite clustering modulare
Questo dispositivo punta sulla densità estrema dei componenti piuttosto che su miglioramenti incrementali dell'efficienza.
Secondo Odinn, una configurazione core interamente personalizzabile permette al Cube di scalare fino a 56 processori AMD EPYC 9845, per un totale di 8.960 core CPU. La capacità lato GPU si estende fino a 224 unità Nvidia HGX B200, abbinate a 43 TB di VRAM complessiva. Per quanto riguarda la memoria, il dispositivo supporta fino a 86 TB di RAM DDR5 ECC registrata, mentre la capacità di storage NVMe raggiunge i 27,5 PB.
Questi numeri presuppongono una domanda considerevole in termini di interconnessioni interne e distribuzione dell'energia, su cui l'azienda non ha ancora fornito dettagli pubblici. Il sistema adotta il raffreddamento a liquido, con ogni unità Omnia che gestisce i propri requisiti termici senza la necessità di un'infrastruttura esterna condivisa. Questo design evita, almeno in teoria, la dipendenza da pavimenti flottanti o impianti di raffreddamento centralizzati.
L'Infinity Cube si affida a un layer software proprietario chiamato NeuroEdge per coordinare i carichi di lavoro nel cluster. Il software si integra con l'ecosistema AI di Nvidia e con i framework più comuni, gestendo automaticamente scheduling e distribuzione. Tale astrazione mira a ridurre la necessità di ottimizzazione manuale, sebbene crei una dipendenza operativa dalla maturità del software di Odinn.
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
Le istituzioni che già si appoggiano a infrastrutture cloud per i carichi AI potrebbero chiedersi se l'orchestrazione locale semplifichi davvero l'amministrazione in condizioni reali. L'azienda afferma che l'Infinity Cube è adatto a organizzazioni con rigorosi requisiti di privacy, sicurezza o latenza che scoraggiano l'uso del cloud. Posizionare l'infrastruttura più vicino ai carichi di lavoro può ridurre i ritardi di rete, ma sposta nuovamente sul proprietario la responsabilità di uptime, manutenzione e gestione del ciclo di vita.
L'idea di presentare hardware da data center all'interno di compatti involucri di vetro può risultare esteticamente accattivante. Tuttavia, i compromessi pratici tra densità, accessibilità e resilienza rimangono irrisolti in assenza di prove di implementazione sul campo.

Efosa has been writing about technology for over 7 years, initially driven by curiosity but now fueled by a strong passion for the field. He holds both a Master's and a PhD in sciences, which provided him with a solid foundation in analytical thinking.