Microsoft svela Maia 200, il suo acceleratore "potenza di calcolo" che punta a sbloccare il potenziale dell'IA su larga scala

Microsoft Azure Maia 200 chip
(Immagine:: Microsoft)

  • Microsoft ha presentato l'hardware AI Maia 200.
  • Secondo quanto riferito, Maia 200 offre prestazioni ed efficienza superiori rispetto ai rivali di AWS e GCP.
  • Microsoft lo utilizzerà internamente per migliorare Copilot, ma sarà disponibile anche per i clienti.

Microsoft ha presentato Maia 200, la sua "prossima pietra miliare" nel supporto alla generazione futura di tecnologie IA e di inferenza.

Il nuovo hardware dell'azienda, successore di Maia 100, "cambierà drasticamente l'economia dell'IA su larga scala", offrendo un aggiornamento significativo in termini di prestazioni ed efficienza nel tentativo di affermarsi sul mercato.

Il lancio punta inoltre a promuovere Microsoft Azure come luogo ideale per eseguire modelli di IA in modo più rapido ed efficiente, sfidando i suoi grandi rivali Amazon Web Services e Google Cloud.

Microsoft Maia 200

Microsoft afferma che Maia 200 contiene oltre 140 miliardi di transistor realizzati con processo TSMC a 3nm, con tensor core nativi FP8/FP4, un sistema di memoria riprogettato con 216 GB di HBM3e a 7 TB/s e 272 MB di SRAM on-chip.

Tutto questo contribuisce alla capacità di erogare oltre 10 PFLOPS in precisione a 4 bit (FP4) e circa 5 PFLOPS di prestazioni a 8 bit (FP8): una potenza ampiamente sufficiente per eseguire anche i più grandi modelli di IA attuali, con ampi margini di crescita man mano che la tecnologia si evolve.

Microsoft dichiara che Maia 200 offre prestazioni FP4 tre volte superiori rispetto all'hardware Amazon Trainium di terza generazione e prestazioni FP8 superiori alla TPU di settima generazione di Google, rendendolo il sistema di inferenza più efficiente mai realizzato dall'azienda.

Grazie al suo design ottimizzato — che vede il sottosistema di memoria incentrato su tipi di dati a precisione ridotta, un motore DMA specializzato, SRAM integrata e una struttura NoC (Network-on-Chip) dedicata per il movimento di dati ad alta larghezza di banda — Maia 200 è in grado di mantenere localmente una parte maggiore dei pesi e dei dati del modello, riducendo così il numero di dispositivi necessari per l'esecuzione.

Microsoft sta già utilizzando il nuovo hardware per alimentare i propri carichi di lavoro IA in Microsoft Foundry e Microsoft 365 Copilot, mentre la disponibilità per una clientela più ampia arriverà a breve.

L'azienda sta inoltre distribuendo Maia 200 nella regione dei data center US Central, con ulteriori implementazioni previste a breve nella regione US West 3 vicino a Phoenix, in Arizona, seguite da altre aree.

Per chi desiderasse un'anteprima, Microsoft invita accademici, sviluppatori, laboratori di IA di frontiera e contributori di progetti di modelli open source a iscriversi fin da ora per la versione preview del nuovo software development kit (SDK) di Maia 200.

Mike Moore
Deputy Editor, TechRadar Pro

Mike Moore is Deputy Editor at TechRadar Pro. He has worked as a B2B and B2C tech journalist for nearly a decade, including at one of the UK's leading national newspapers and fellow Future title ITProPortal, and when he's not keeping track of all the latest enterprise and workplace trends, can most likely be found watching, following or taking part in some kind of sport.