De NVIDIA H100 is een high-end GPU die speciaal is ontworpen voor AI-, deep learning- en HPC-toe­pas­sin­gen. De H100 GPU is gebaseerd op de in­no­va­tie­ve Hopper-ar­chi­tec­tuur en maakt gebruik van krachtige Tensor Cores van de vierde generatie voor uit­zon­der­lij­ke pres­ta­ties. Dankzij zijn enorme re­ken­ca­pa­ci­teit is de NVIDIA H100 ideaal voor het trainen van complexe neurale netwerken, data-in­ten­sie­ve cloud­wor­klo­ads en in­ge­wik­kel­de HPC-si­mu­la­ties.

Wat zijn de kenmerken van de NVIDIA H100?

De NVIDIA H100 biedt uit­zon­der­lij­ke pres­ta­ties op basis van de nieuwe Hopper-ar­chi­tec­tuur. Deze com­bi­neert Tensor Core-tech­no­lo­gie met een trans­for­ma­tor-engine voor meer re­ken­kracht en een aan­zien­lij­ke ver­snel­ling van de training van AI-modellen. NVIDIA biedt de H100 GPU aan in twee varianten: H100 SXM en H100 NVL.

De twee versies ver­schil­len qua vorm­fac­tor, pres­ta­ties, ge­heu­gen­band­breed­te en con­nec­ti­vi­teit. De H100 SXM is voor­na­me­lijk ontworpen voor gebruik in servers met hoge dichtheid en hy­pers­ca­le-om­ge­vin­gen. De H100 NVL daar­en­te­gen is ontworpen voor PCIe-slots, waardoor de GPU ge­mak­ke­lij­ker in bestaande ser­ver­struc­tu­ren kan worden ge­ïn­te­greerd. De volgende tabel geeft een ge­de­tail­leerd overzicht van de pres­ta­tie­ken­mer­ken van de twee NVIDIA H100-varianten:

Pres­ta­tie­ken­merk NVIDIA H100 SXM NVIDIA H100 NVL
FP64 34 TFLOPS 30 TFLOPS
FP64 Tensor Core 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
TF32 Tensor Core 989 TFLOPS 835 TFLOPS
BFLOAT16 Tensor Core 1.979 TFLOPS 1.671 TFLOPS
FP16 Tensor Core 1.979 TFLOPS 1.671 TFLOPS
FP8 Tensor Core 3.958 TFLOPS 3.341 TFLOPS
INT8 Tensor Core 3.958 TOPS 3.341 TOPS
GPU-geheugen 80 GB 94 GB
GPU-ge­heu­gen­band­breed­te 3,35 TB/s 3,9 TB/s
Decoder 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG
Maximaal thermisch ont­werp­ver­mo­gen (TDP) 700 W (con­fi­gu­reer­baar) 350-400 W (con­fi­gu­reer­baar)
Multi-instance GPU (MIG) Maximaal 7 MIG’s met elk 10 GB Maximaal 7 MIG’s met elk 12 GB
Form factor SXM PCIe met twee slots en lucht­koe­ling
Interface NVIDIA NVLink 900 GB/s, PCIe Gen5: 120 GB/s NVIDIA NVLink: 600 GB/s, PCIe Gen5 128 GB/s
Ser­ver­op­ties NVIDIA HGX H100-partners en NVIDIA-ge­cer­ti­fi­ceer­de systemen met 4 of 8 GPU’s, NVIDIA DGX H100 met 8 GPU’s Partners en NVIDIA-ge­cer­ti­fi­ceer­de systemen met maximaal 8 GPU’s
NVIDIA AI voor bedrijven Add-on Inclusief
Opmerking

TFLOPS (TeraFloatingPoint Ope­ra­ti­onsPerSecond) is een eenheid om de ver­wer­kings­snel­heid van computers (floating point) te be­schrij­ven. Eén TFLOPS komt overeen met één biljoen be­re­ke­nin­gen per seconde. Hetzelfde geldt voor de eenheid TOPS (TeraOpe­ra­ti­onsPerSecond), met dit verschil dat hier gehele getallen worden weer­ge­ge­ven.

Wat zijn de voor- en nadelen van de NVIDIA H100?

De NVIDIA H100 is een van de krach­tig­ste GPU’s op de markt en is uitgerust met tal van ge­a­van­ceer­de tech­no­lo­gie­ën en functies. De be­lang­rijk­ste voordelen van de H100 GPU zijn:

  • Zeer hoge re­ken­kracht: De H100 biedt geweldige FP8- en FP16-Tensor Core-pres­ta­ties, waardoor hij ideaal is voor complexe, data-in­ten­sie­ve taken zoals grote taal­mo­del­len (LLM’s). De com­bi­na­tie van vierde generatie Tensor Cores en trans­for­ma­tor-engine kan de ef­fi­ci­ën­tie van AI-be­wer­kin­gen aan­zien­lijk verhogen.
  • NVLink en NVSwitch: De NVIDIA H100 on­der­steunt de vierde generatie NVLink, waarmee meerdere server-GPU’s met elkaar kunnen worden verbonden met een bi­di­rec­ti­o­ne­le band­breed­te van 900 GB/s. Dankzij NVSwitch is het ook mogelijk om over­een­kom­sti­ge clusters flexibel te schalen.
  • Multi-instance GPU (MIG): De GPU kan worden opgedeeld in maximaal zeven on­af­han­ke­lij­ke GPU-in­stan­ties, waardoor meerdere workloads te­ge­lij­ker­tijd kunnen worden uit­ge­voerd met speciale resources. Dit verbetert de flexi­bi­li­teit en ef­fi­ci­ën­tie in gedeelde com­pu­ter­om­ge­vin­gen.
  • Ver­trou­we­lijk com­pu­ter­ge­bruik: dankzij de ge­ïn­te­greer­de be­vei­li­gings­func­tie worden de ver­trou­we­lijk­heid en in­te­gri­teit van gegevens gedurende de gehele workload beschermd.
  • HBM3-geheugen en PCIe Gen5-on­der­steu­ning: met maximaal 94 GB HBM3-geheugen en een band­breed­te van maximaal 3,9 TB/s biedt de NVIDIA H100 een van de krach­tig­ste ge­heu­gen­op­los­sin­gen voor data-in­ten­sie­ve workloads. In com­bi­na­tie met PCIe Gen5 maakt dit zeer snelle ge­ge­vens­over­dracht mogelijk.

Dit blijkt echter een nadeel te zijn, aangezien de hoge pres­ta­ties van de NVIDIA H100 ook tot uiting komen in de prijs. Af­han­ke­lijk van de versie kosten de GPU’s tussen de 25.000 en 35.000 pond. H100-in­stan­ties zijn daarom ook relatief duur in cloudom­ge­vin­gen. Een ander nadeel is de beperkte be­schik­baar­heid. Door de grote vraag zijn er altijd le­ve­rings­pro­ble­men en lange wacht­tij­den.

Voor welke toe­pas­sin­gen is de H100 GPU van NVIDIA het meest geschikt?

De NVIDIA GPU H100 is speciaal ont­wik­keld voor re­ken­in­ten­sie­ve workloads en is bijzonder geschikt voor veel­ei­sen­de AI- en HPC-toe­pas­sin­gen. Het volgende overzicht toont de be­lang­rijk­ste toe­pas­sings­ge­bie­den voor de H100 GPU:

  • Training van grote AI-modellen: dankzij zijn hoge re­ken­kracht versnelt de GPU aan­zien­lijk de mo­del­trai­ning van complexe neurale netwerken en grote taal­mo­del­len zoals GPT of LLaMA.
  • Real-time AI-in­fe­ren­tie: De H100 kan vooraf getrainde AI-modellen op top­snel­heid uitvoeren, wat een voordeel is op gebieden zoals spraak­ver­wer­king en beeld­her­ken­ning.
  • Cloud en da­ta­cen­ters: GPU’s vormen de basis van veel GPU-servers door de re­ken­kracht te leveren die nodig is voor complexe workloads.
  • High-per­for­man­ce computing (HPC): We­ten­schap­pe­lij­ke be­re­ke­nin­gen en si­mu­la­ties pro­fi­te­ren van de hoge FP64-pres­ta­ties van de H100 grafische pro­ces­sors.
  • Ge­ne­ra­tie­ve AI: De H100 van NVIDIA is ideaal voor het genereren van tekst, af­beel­din­gen en video’s met AI-modellen. De GPU maakt een snelle en ef­fi­ci­ën­te ver­wer­king mogelijk van grote datasets die nodig zijn voor ge­ne­ra­tie­ve AI.
  • Data-analyse: De Hopper GPU’s on­der­steu­nen bedrijven in ver­schil­len­de sectoren, zoals logistiek en financiën, bij het afleiden van nauw­keu­ri­ge prognoses en voor­spel­lin­gen uit grote hoe­veel­he­den data.

Wat zijn de mogelijke al­ter­na­tie­ven voor de H100 GPU?

Hoewel de NVIDIA H100 een van de krach­tig­ste GPU’s voor AI en HPC is, kunnen er af­han­ke­lijk van het gebruik en het budget al­ter­na­tie­ve op­los­sin­gen be­schik­baar zijn. Bij­voor­beeld vanwege een hogere kos­ten­ef­fi­ci­ën­tie. Mogelijke al­ter­na­tie­ven zijn onder andere:

  • NVIDIA A100: Het voor­gaan­de model biedt ook solide pres­ta­ties voor AI-training, in­fe­ren­tie en HPC, maar is minder duur.
  • NVIDIA A30: De A30 com­bi­neert hoge pres­ta­ties met een be­taal­ba­re prijs.
  • NVIDIA H200: De H200 is een licht ver­be­ter­de versie van de NVIDIA H100, met een nog hogere ge­heu­gen­band­breed­te.
  • Intel Gaudi 3: De AI-ver­snel­ler levert hoge pres­ta­ties voor AI-in­fe­ren­tie.
Opmerking

In ons artikel waarin we server-GPU’s ver­ge­lij­ken, gaan we dieper in op de grafische pro­ces­sors die momenteel het meest worden gebruikt.

Ga naar hoofdmenu