Skip to main content

Nvidia har fuldstændig knust AMD indenfor dette vitale chipområde

AI
(Foto: Shutterstock)

På trods af fortsat voksende konkurrence har Nvidia formået at fastholde sin førerposition på det globale marked for kunstig intelligens (AI) chips, der bruges i cloud- og datacentre.

Nvidia har også formået at bevare sit store forspring mellem sig selv og resten, ifølge en ny rapport fra teknologiresearchvirksomheden Omdia, der hævder, at Nvidia tog 80,6 % af den globale omsætning i 2020.

Sidste år genererede virksomheden 3,2 milliarder dollars i omsætning, hvilket var en stigning fra 1,8 milliarder dollars året før. Hovedparten af indtjeningen kom fra GPU-baserede chips, som Omdia siger er de førende type AI-processorer, der bruges i cloud- og datacenterudstyr.

Om Nvidia beholder sin dominerende position i fremtiden, skal må tiden vise, da Omdia forventer, at markedet for AI-processorer hurtigt vokser og tiltrækker mange nye leverandører. De globale markedsindtægter for cloud- og datacenter AI-processorer steg sidste år med 79 % og nåede op på 4 mia. dollars.

Når vi kommer til 2026, forventer virksomheden, at omsætningen er ni-doblet til 37,6 milliarder dollars.

For Jonathan Cassell, hovedanalytiker inden for avanceret computing hos Omdia, er en fordel, Nvidia har i forhold til konkurrenterne, det kendskab kunderne allerede har til Nvidia.

"NVIDIA's Compute Unified Device Architecture (CUDA) Toolkit bruges næsten universelt indenfor AI-softwareudvikling, hvilket giver virksomhedens GPU-baserede chips en enorm fordel på markedet," bemærkede han.

"Omdia forudser dog, at andre chipleverandører vil vinde betydelige markedsandele i de kommende år, efterhånden som markedsaccepten stiger i forhold til alternative GPU-baserede chips og andre typer AI-processorer."

Voksende konkurrence

Omdia anser Xilinx, Google, Intel og AMD for at være de største udfordrere til mindst et større stykke af AI-lagkagen. Xilinx tilbyder feltprogrammerbare gate array FPGA-produkter, Googles Tensor Processing Unit (TPU) AI ASIC bruges i vid udstrækning i Googles egne hyperscale cloud-løsninger, mens Intels bud kommer i form af virksomhedens Habana AI proprietære AI ASSP'er og FPGA-produkter til AI cloud og datacenterservere.

AMD, der i øjeblikket er nummer fem, tilbyder GPU-baserede AI ASSP'er til cloud- og datacenterservere.

Sead is a seasoned freelance journalist based in Sarajevo, Bosnia and Herzegovina. He writes about IT (cloud, IoT, 5G, VPN) and cybersecurity (ransomware, data breaches, laws and regulations). In his career, spanning more than a decade, he’s written for numerous media outlets, including Al Jazeera Balkans. He’s also held several modules on content writing for Represent Communications.