Brengt ChatGPT de voorraad van grafische kaarten weer in gevaar?

ChatGPT AI-chatbot
(Beeld: NMStudio789 / Shutterstock)

Dankzij Microsoft Bing lijkt iedereen het tegenwoordig over ChatGPT te hebben, maar bij gamers kunnen dit soort 'large language models' (LLM's) zorgen voor een (vervelende) déjà vu.

LLM's draaien in principe op grote cloudservers, maar ze gebruiken wel speciale grafische kaarten tijdens hun training. Daarbij wordt er over het algemeen een ongelofelijk grote hoeveelheid data bij een neuraal netwerk gedumpt en dat neurale netwerk draait dan weer op hele hoop grafische kaarten met geavanceerde 'tensor cores'. Dat kost niet alleen heel veel stroom, maar het vereist dus ook heel veel GPU's om dit soort technologie op een grote schaal te gebruiken. 

Dit klinkt je misschien bekend in de oren als je je het tijdperk van 'crypto mining' nog herinnert, maar het verschilt toch ook wel een beetje van die situatie. Crypto mining heeft niets te maken met algoritmes voor 'machine learning' en de enige waarde die je bij crypto mining produceert zijn de digitale tokens (met een arbitraire waarde). 

Tijdens de 'crypto bubble' ontstond er een enorm tekort aan grafische kaarten, omdat cryptominers tussen 2020 en 2022 vrijwel alle Nvidia Ampere-GPU's opkochten. Daardoor was het voor gamers erg lastig om nog (voor een normale prijs) aan een nieuwe grafische kaart te komen. Die crypto bubble is nu gebarsten en de voorraad van grafische kaarten is dan ook weer redelijk stabiel. 

Maar gaan we dan met de opkomst van ChatGPT weer opnieuw een GPU-tekort meemaken? Dat is gelukkig onwaarschijnlijk, maar het is ook weer niet zo heel vergezocht.

Jouw grafische kaart kan toch geen grote LLM aansturen

Een Nvidia RTX 4090

(Image credit: Future)

Je denkt misschien dat dit soort LLM's gebruik zouden maken van de beste grafische kaarten die je momenteel kan kopen, maar dat is (gelukkig) niet het geval. Als je op een universiteit onderzoek doet naar machine learning-algoritmes, dan zou je nog wel een grafische kaart voor consumenten kunnen gebruiken, maar voor die geavanceerde LLM's is zo'n kaart niet krachtig genoeg. 

De meeste LLM's en andere AI-modellen, die bijvoorbeeld afbeeldingen of muziek genereren, leggen echt de nadruk op die eerste 'L' van Large. ChatGPT moet echt een enorm grote hoeveelheid tekst doorspitten en een grafische kaart voor consumenten is daarbij niet zo effectief als een industriële GPU, die is ontworpen voor gebruik in servers. 

Er zal dus vooral veel vraag zijn naar die industriële grafische kaarten en daarom is Nvidia ook erg blij met ChatGPT. Het bedrijf is niet per se geïnteresseerd in hoe ChatGPT mensen kan helpen, maar wel in het feit dat de AI-chatbot waarschijnlijk gebruik gaat maken van enorm veel van Nvidia's industriële grafische kaarten. Nvidia zal dus goed gaan verdienen door al deze interesse in ChatGPT.

De volgende ChatGPT bevindt zich waarschijnlijk in de cloud

ChatGPT

(Image credit: CHUAN CHUAN via Shutterstock)

Behalve als je Google of Microsoft bent, zorg je waarschijnlijk niet zelf voor de infrastructuur voor je LLM. De meeste LLM-ontwikkelaars maken waarschijnlijk gebruik van de infrastructuur van iemand anders (een ander bedrijf) en daarbij zal het veelal om clouddiensten gaan. De kans is dus ook zeer klein dat we ineens een hele hoop startups zullen zien verschijnen, die alle grafische kaarten opkopen voor de ontwikkeling van hun LLM's. 

Het is waarschijnlijker dat we meer 'LLMaaS' zien verschijnen, ofwel 'Large Language Models as a Service'. Je ziet dan waarschijnlijk dat er servers met krachtige GPU's uit Microsoft Azure- of Amazon Web Services-datacenters worden verhuurd aan dit soort startups voor het draaien van hun machine learning-algoritmes. Startups geven over het algemeen ook liever geen geld uit aan eigen apparatuur als het niet nodig is. 

Dat betekent dat wanneer ChatGPT en andere AI-modellen nog breder gebruikt worden, ze waarschijnlijk ook niet op consumenten-hardware zullen draaien, zelfs niet AI-modellen van een klein team ontwikkelaars. Deze modellen gaan op server-hardware draaien, dus jouw (toekomstige) grafische kaart is veilig.

Toch zijn gamers nog niet helemaal veilig

Dus, niets om je zorgen over te maken? Nou, misschien toch wel. Je RTX 4090 is misschien wel veilig, maar de vraag is hoeveel RTX 5090's Nvidia nog kan produceren als ze maar een bepaalde hoeveelheid chips hebben en er ook een groter deel naar de industriële grafische kaarten gaat. Die kaarten kunnen Nvidia namelijk veel meer opleveren dan de GeForce-kaarten die gamers kopen. 

Het echte gevaar dat ontstaat door de opkomst van ChatGPT is dus de mogelijkheid dat er minder grafische kaarten voor consumenten worden geproduceerd, omdat aandeelhouders vooral willen inzetten op de industriële grafische kaarten als deze meer winst opleveren. Dat is ook niet echt heel vergezocht, want binnen het huidige kapitalistische systeem hebben bedrijven vaak als prioriteit om winst op te leveren voor de aandeelhouders. Investeren in de cloud zal dan ook altijd meer opleveren dan het verkopen van GPU's aan gamers. 

Nou hebben we het natuurlijk alleen maar over Nvidia, maar dat is natuurlijk niet het enige bedrijf dat grafische kaarten maakt voor consumenten. We komen dus niet volledig zonder normale GPU's te zitten als Nvidia zich op server-GPU's gaat richten. 

AMD's RDNA 3-GPU's hebben ook nieuwe AI-hardware aangekondigd, maar die hardware komt nog niet echt in de buurt van de tensor cores van Nvidia. Voor machine learning is Nvidia dus nog steeds de meest logische keuze. Dat zou ervoor zorgen dat AMD overblijft voor gamers als Nvidia zijn focus gaat verleggen. 

Dat is zeker een mogelijkheid en AMD is niet, net als bij crypto mining, een goede tweede keuze voor als je geen Nvidia-kaart kan krijgen. AMD is echt niet geschikt voor machine learning, zeker niet op het niveau van LLM's, dus dit bedrijf zal op dat vlak niet snel een concurrent van Nvidia worden. Dat is goed nieuws voor gamers, want dan blijven we toch nog grafische kaarten voor consumenten krijgen en ook nog steeds echt goede GPU's. Het zijn er misschien alleen minder van Nvidia dan we gewend zijn. 

Dat is misschien geen geweldig nieuws voor fans van 'Team Green', maar het zou zomaar kunnen met de opkomst van ChatGPT. 

Cas Kulk
Redacteur TechRadar Benelux

Cas schrijft het liefst over gaming en alles wat met Samsung te maken heeft. Hij heeft recent zijn Steam Deck ingeruild voor een ASUS ROG Ally, dus ook over gaming handhelds kan hij je alles vertellen.

Met ondersteuning van