Skip to main content

Nvidia har fuldstændig knust AMD indenfor dette vitale chipområde

AI
(Foto: Shutterstock)

På trods af fortsat voksende konkurrence har Nvidia formået at fastholde sin førerposition på det globale marked for kunstig intelligens (AI) chips, der bruges i cloud- og datacentre.

Nvidia har også formået at bevare sit store forspring mellem sig selv og resten, ifølge en ny rapport fra teknologiresearchvirksomheden Omdia, der hævder, at Nvidia tog 80,6 % af den globale omsætning i 2020.

Sidste år genererede virksomheden 3,2 milliarder dollars i omsætning, hvilket var en stigning fra 1,8 milliarder dollars året før. Hovedparten af indtjeningen kom fra GPU-baserede chips, som Omdia siger er de førende type AI-processorer, der bruges i cloud- og datacenterudstyr.

Om Nvidia beholder sin dominerende position i fremtiden, skal må tiden vise, da Omdia forventer, at markedet for AI-processorer hurtigt vokser og tiltrækker mange nye leverandører. De globale markedsindtægter for cloud- og datacenter AI-processorer steg sidste år med 79 % og nåede op på 4 mia. dollars.

Når vi kommer til 2026, forventer virksomheden, at omsætningen er ni-doblet til 37,6 milliarder dollars.

For Jonathan Cassell, hovedanalytiker inden for avanceret computing hos Omdia, er en fordel, Nvidia har i forhold til konkurrenterne, det kendskab kunderne allerede har til Nvidia.

"NVIDIA's Compute Unified Device Architecture (CUDA) Toolkit bruges næsten universelt indenfor AI-softwareudvikling, hvilket giver virksomhedens GPU-baserede chips en enorm fordel på markedet," bemærkede han.

"Omdia forudser dog, at andre chipleverandører vil vinde betydelige markedsandele i de kommende år, efterhånden som markedsaccepten stiger i forhold til alternative GPU-baserede chips og andre typer AI-processorer."

Voksende konkurrence

Omdia anser Xilinx, Google, Intel og AMD for at være de største udfordrere til mindst et større stykke af AI-lagkagen. Xilinx tilbyder feltprogrammerbare gate array FPGA-produkter, Googles Tensor Processing Unit (TPU) AI ASIC bruges i vid udstrækning i Googles egne hyperscale cloud-løsninger, mens Intels bud kommer i form af virksomhedens Habana AI proprietære AI ASSP'er og FPGA-produkter til AI cloud og datacenterservere.

AMD, der i øjeblikket er nummer fem, tilbyder GPU-baserede AI ASSP'er til cloud- og datacenterservere.