TeraFLOPS (TFLOPS) is een eenheid die aangeeft hoeveel biljoenen be­re­ke­nin­gen met drijvende-kom­ma­ge­tal­len een computer in één seconde kan uitvoeren. De waarde dient als maatstaf voor de pres­ta­ties van pro­ces­sors, met name GPU’s en su­per­com­pu­ters. TFLOPS zijn vooral relevant voor toe­pas­sin­gen waarbij veel be­re­ke­nin­gen nodig zijn, zoals kunst­ma­ti­ge in­tel­li­gen­tie, we­ten­schap­pe­lij­ke si­mu­la­ties en machine learning.

Wat zijn FLOPS en waarvoor worden ze gebruikt?

FLOPS staat voor floatingpoint ope­ra­ti­onsper second(drijvende-kom­ma­be­wer­kin­gen per seconde) en is een eenheid voor re­ken­kracht. Een drijvende-kom­ma­be­wer­king is een wis­kun­di­ge be­re­ke­ning waarbij decimale punten worden gebruikt. Deze zijn vooral be­lang­rijk voor re­ken­in­ten­sie­ve toe­pas­sin­gen die een hoge mate van precisie vereisen.

FLOPS worden vooral gebruikt voor we­ten­schap­pe­lij­ke be­re­ke­nin­gen, si­mu­la­ties, kunst­ma­ti­ge in­tel­li­gen­tie, machine learning en grafische toe­pas­sin­gen. Ze spelen een centrale rol op ver­schil­len­de gebieden, zoals medische beeld­ver­wer­king en fysische si­mu­la­ties. Ze zijn ook be­lang­rijk in de fi­nan­ci­ë­le wereld, bij­voor­beeld bij de analyse van markt­ge­ge­vens. In de ga­ming­in­du­strie worden FLOPS gebruikt om de grafische pres­ta­ties van moderne GPU’s te bepalen. Met een steeds grotere FLOPS-ca­pa­ci­teit kunnen moderne computers steeds re­a­lis­ti­sche­re fysieke effecten en grafische weergaven met een hoge resolutie leveren.

FLOPS worden doorgaans gemeten met behulp van speciaal ont­wik­kel­de ben­ch­mark­tests die het aantal drijvende-kom­ma­be­wer­kin­gen per seconde bepalen. Veel­ge­bruik­te ben­ch­marks zijn onder meer LINPACK, dat vooral voor su­per­com­pu­ters wordt gebruikt, en FP32/FP64, dat de re­ken­kracht van GPU’s be­oor­deelt. Tijdens tests worden complexe wis­kun­di­ge be­re­ke­nin­gen uit­ge­voerd om te bepalen hoeveel be­wer­kin­gen per seconde een systeem kan verwerken. Fa­bri­kan­ten geven vaak the­o­re­ti­sche FLOPS-waarden op basis van de ar­chi­tec­tuur van een computer. In de praktijk kunnen de toe­pas­sin­gen echter variëren, af­han­ke­lijk van de werklast en ef­fi­ci­ën­tie.

Hoeveel FLOPS zitten er in een teraFLOPS?

Eén teraFLOPS is gelijk aan één biljoen (1.000.000.000.000 of1012) drijvende-kom­ma­be­wer­kin­gen per seconde. Dat betekent dat een processor met 1 TFLOPS per seconde een biljoen wis­kun­di­ge be­wer­kin­gen met drijvende-kom­ma­ge­tal­len kan uitvoeren.

Ter ver­ge­lij­king: een computer met slechts 1 FLOPS zou 31.000 jaar nodig hebben om een biljoen drijvende-kom­ma­be­wer­kin­gen uit te voeren. Computers die in TFLOPS werken, zijn dus krachtige systemen die in staat zijn om moderne toe­pas­sin­gen in realtime uit te voeren.

Welke andere FLOPS-eenheden bestaan er en hoe worden ze om­ge­re­kend naar TFLOPS?

Er zijn veel FLOPS-eenheden, die ver­schil­len in het aantal be­wer­kin­gen per seconde waarnaar ze verwijzen.

Eenheid FLOPS-waarde Om­re­ke­ning naar TFLOPS
KiloFLOPS 103 FLOPS (1.000) 10-9 TFLOPS
MegaFLOPS 106 FLOPS (1 miljoen) 10-6 TFLOPS
GigaFLOPS 109 FLOPS (1 miljard) 10-3 TFLOPS
TeraFLOPS 1012 FLOPS (1 biljoen) 1 TFLOP
PetaFLOPS 1015 FLOPS (1 biljoen) 103 TFLOPS
ExaFLOPS 1018 FLOPS (1 biljoen) 106 TFLOPS

De pres­ta­ties van su­per­com­pu­ters worden gemeten in petaFLOPS en zelfs exaFLOPS, terwijl high-end grafische kaarten meestal worden be­oor­deeld in teraFLOPS.

Hoeveel FLOPS halen moderne computers en GPU’s?

GPU’s en moderne computers op het gebied van high-per­for­man­ce computing hebben in­druk­wek­ken­de FLOPS-waarden bereikt. De NVIDIA H100, een van de krach­tig­ste GPU’s voor AI en da­ta­cen­ters, haalt tot 989 teraFLOPS voor FP32 Tensor Core-be­re­ke­nin­gen. Dat maakt hem ideaal voor grote neurale netwerken en si­mu­la­ties.

De NVIDIA A30, een GPU die is ge­op­ti­ma­li­seerd voor da­ta­cen­ters, haalt 10 TFLOPS en is bijzonder geschikt voor AI-training en -in­fe­ren­ties. Ter ver­ge­lij­king: de op gamers gerichte NVIDIA RTX 4090 kan worden over­ge­klokt tot meer dan 100 TFLOPS en maakt zeer re­a­lis­ti­sche graphics mogelijk.

Su­per­com­pu­ters zijn nog krach­ti­ger: de Frontier-su­per­com­pu­ter heeft de grens van 1 exaFLOPS over­schre­den en wordt gebruikt voor zeer complexe we­ten­schap­pe­lij­ke si­mu­la­ties. Andere krachtige su­per­com­pu­ters die in onderzoek worden gebruikt, zoals de Japanse computer Fugaku, werken ook in dit bereik.

Ga naar hoofdmenu