Vad är en Tensor Core? Vi förklarar Nvidias GPU-teknologi

Nvidia A100 Tensor Core GPU
(Foto: Nvidia)

Om du någonsin har undrat vad en Tensor Core är, så är du inte ensam. Oavsett om du letar efter ett nytt grafikkort eller vill förstå din Nvidia-GPU bättre, är denna teknologi avgörande för att driva dagens krävande spel.

Tensor Cores finns i alla de bästa grafikkorten och de bästa 4K-grafikkorten, eftersom tekniken använder det som kallas mixed computing – en kombination av algoritmstyrd (eller AI-driven) beräkning och inbyggd hårdvara. Detta ger resultat som långt överträffar standardrasterisering och möjliggör högre bildfrekvenser i högre upplösningar.

Kort sagt är Tensor Cores den hårdvara som driver Nvidias AI-baserade uppskalningsteknik DLSS (Deep Learning Super Sampling). Men hur fungerar de? Och hur viktiga är de för PC-spel och krävande produktivitetsuppgifter? Det är precis vad vi är här för att besvara.

Vad är en Tensor Core?

Nvidia GeForce RTX 5080 under vår testprocess.

(Image credit: Nvidia)

Tensor Cores är specialutvecklade hårdvaruenheter i ett Nvidia-grafikkort som möjliggör mixed-precision computing genom att accelerera AI-beräkningar inom deep learning. Dessa enheter är tränade över ett omfattande neuralt nätverk och är betydligt mer energieffektiva än CUDA-kärnorna i ditt grafikkort. De kan hantera mixed-precision-beräkningar, vilket annars skulle ta avsevärt längre tid att slutföra.

Historien bakom Tensor Cores

Nvidia-logo mot en mörk bakgrund.

(Image credit: Konstantin Savusia / Shutterstock)

Nvidia använde Tensor Cores för första gången i Volta-serien för datacenter år 2017 och tekniken expanderades senare till grafikkort. De första GPU:erna som använde Tensor Cores var Nvidia Titan V, Nvidia Quadro GB100 och Nvidia Titan V CEO Edition, som alla använde 640 Tensor Cores av första generationen för att accelerera AI-beräkningar, begränsade till FP16 (16-bitars flyttal).

Andra generationens Tensor Cores introducerades med Turing-arkitekturen (RTX 20-serien) och utökade precisionerna till Int1, Int4 och Int8 samt FP16. Turing-GPU:erna var även de första att använda Ray Tracing-kärnor (RT Cores), vilket möjliggjorde raytracing i realtid i spel. Kombinationen av dessa teknologier blev senare känd som "RTX On".

För produktivitetsanvändning implementerades dessa snabbare och mer mångsidiga Tensor Cores i RTX Quadro-grafikkort, som främst används i arbetsstationer för CAD, innehållsskapande, vetenskapliga beräkningar och maskininlärning.

Tredje generationens Tensor Cores introducerades med Ampere-arkitekturen (RTX 30-serien). Förutom Int1, Int4, Int8 och F16 utökades beräkningskapaciteten till att inkludera TF32, FP64 och bfloat16, vilket drastiskt förbättrade typerna av maskininlärning och deep learning. TF32-formatet var upp till 20 gånger snabbare än tidigare mixed-learning-modeller.

Dessa Tensor Cores spelade också en avgörande roll i Nvidia DLSS 2.0, då AI-baserad temporal anti-aliasing (TAA) blev betydligt mer effektiv och mer allmänt använd. Medan den första versionen av DLSS, som lanserades i februari 2019, kunde vara inexakt, möjliggjorde den förbättrade precisionen i denna generation av Tensor Cores högre bildfrekvenser i hårdvaruintensiva program och raytracing-spel, särskilt i högre upplösningar som 1440p och 4K.

När Nvidia övergick från att vara ett företag fokuserat på datorkomponenter till att bli en AI-mjukvaruutvecklare, kunde en liknande trend ses med fjärde generationens Tensor Cores. En av de primära användningarna av accelererad AI-teknologi är generativ AI, stora språkmodeller, chatbots och Natural Language Processing (NLP).

I spelvärlden möjliggjorde dock fjärde generationens Tensor Cores även DLSS 3:s Frame Generation, en teknik som blev exklusiv för Ada (RTX 40-serien) och inte stöds av tidigare RTX-GPU:er. Om utvecklare samarbetade med Nvidia för att finjustera en specifik hårdvarualgoritm för sina spel, kunde denna teknik analysera och generera extra bildrutor utöver den traditionella rasteriseringen. Resultatet blev högre bildfrekvenser, även om det är en omdebatterad fråga huruvida dessa genererade bildrutor faktiskt är "riktiga" eller inte.

Tensor Core-användning inom gaming

Cyberpunk 2077 med RTX On

(Image credit: Nvidia/CD Projekt Red)

Det leder oss fram till 2025 och den senaste introduktionen av Blackwell-arkitekturen, där grafikkort med femte generationens Tensor Cores har lanserats. Nvidia har uppgett att deras senaste arkitektur "levererar en 30x hastighetsökning" jämfört med den tidigare generationen, tack vare stöd för nya precisionformat.

För gaming innebär denna utveckling att Multi Frame Generation (MFG) nu är möjligt, en funktion som är exklusiv för RTX 50-seriens grafikkort (såsom RTX 5090 och RTX 5080). Vi har konsekvent blivit imponerade av vad MFG kan göra för 8K-gaming.

Tensor Cores samarbetar med CUDA-kärnor i spel (AI-mjukvara i kombination med hårdvara) för att rendera spel i en lägre upplösning och sedan skala upp dem till en högre upplösning. Det är just därför RTX-grafikkort kan leverera spelbara bildfrekvenser på 60 FPS och högre i 4K och 8K, samtidigt som de hanterar hårdvaruintensiva renderingstekniker som ray tracing.

Hur fungerar Tensor Cores?

Ett Nvidia chip

(Image credit: Nvidia)

Tensor Cores är specialdesignade hårdvaruenheter som finns i Nvidia-grafikkort och används främst för att accelerera AI-beräkningar, såsom matrismultiplikation, vilket möjliggör maskininlärning och deep learning.

Sedan teknologin introducerades 2017 och fram till 2025 – från första till femte generationen av Tensor Cores – har de gjort det möjligt att uppnå avsevärt snabbare prestanda jämfört med traditionella GPU-kärnor.

Den huvudsakliga funktionen hos Tensor Cores är mixed precision computing, vilket gör att beräkningar kan utföras med högre noggrannhet än tidigare. Allt eftersom teknologin har utvecklats, har de högprecisionsformat som stöds utökats avsevärt.

Utöver detta är Tensor Cores optimerade för Matrix Multiply-Accumulate-operationer (komplexa matematiska ekvationer) genom deras tile-baserade bearbetning. Dessa tiles staplas, vilket gör det möjligt att utföra parallella beräkningar istället för linjära, vilket leder till snabbare arbetsbelastningar totalt sett. Tensor Cores utför sina beräkningar i tre distinkta steg:

1. Data laddas in
2. Beräkningar utförs med mixed-precision
3. Resultatet sammanställs genom ackumulering

Allt detta samverkar för att uppnå AI-acceleration, vilket har en mängd användningsområden, från gaming (DLSS, Frame Generation, MFG och Ray Reconstruction) till träning av neurala nätverk, maskininlärning, deep learning och stora språkmodeller (LLM).

Skaffa TechRadars topprankade VPN-tjänst idag

NordVPN – världens bästa VPN-tjänstavblockerade alla streamingtjänster
Exklusiv deal

NordVPN – världens bästa VPN-tjänst
Vi granskar regelbundet alla de största och bästa VPN-leverantörerna och NordVPN är just nu vårt absoluta toppval. Tjänsten avblockerade alla streamingtjänster i våra tester och är dessutom väldigt enkelt att använda. Hastighet, säkerhet och support dygnet runt finns tillgängligt om du behöver – den har allt.

Den mest prisvärda planen är det tvååriga alternativet som sätter priset på 3,99 dollar per månad och inkluderar ytterligare 3 månader helt GRATIS. Det finns också en 30-dagars återbetalningsgaranti om du bestämmer dig för att det inte är något för dig.

- Så prova NordVPN 100 % helt riskfritt i 30 dagar

Läs vidare

TOPICS
Amanda Westberg
Chefsredaktör TechRadar Norden

Amanda Westberg har varit en del av TechRadar-projektet sedan starten 2018 och sitter nu på rollen som chefsredaktör för TechRadar i Norden. Under sin tid på hemsidan har hon hunnit skriva tusentals artiklar och håller noggrann koll på teknikvärlden och dess trender. Som en gamer och träningsentusiast har hon en förkärlek för allt gaming- och fitnessrelaterat, där bland annat smartklockor är en favoritkategori att skriva om.

Bidrag från