NVIDIA H100 er en avanceret GPU, der er specielt designet til AI, deep learning og HPC-ap­pli­ka­tio­ner. H100 GPU’en er baseret på den in­nova­ti­ve Hopper-ar­ki­tek­tur og bruger kraft­ful­de Tensor Cores af fjerde ge­ne­ra­tion til at levere ene­stå­en­de ydeevne. Takket være sin enorme reg­ne­ka­pa­ci­tet er NVIDIA’s H100 ideel til træning af komplekse neurale netværk, da­ta­kræ­ven­de cloud-workloads og kom­pli­ce­re­de HPC-si­mu­le­rin­ger.

Hvad er funk­tio­ner­ne i NVIDIA H100?

NVIDIA H100 tilbyder en ene­stå­en­de ydeevne baseret på den nye Hopper-ar­ki­tek­tur. Denne kom­bi­ne­rer Tensor Core-teknologi med en trans­for­mer­motor for at give mere reg­ne­kraft og be­ty­de­ligt frem­skyn­de træningen af AI-modeller. NVIDIA tilbyder H100 GPU i to varianter, nemlig H100 SXM og H100 NVL.

De to versioner adskiller sig i form­fak­tor, ydeevne, hukom­mel­ses­bånd­bred­de og til­slut­nings­mu­lig­he­der. H100 SXM er primært designet til brug i servere med høj densitet og hy­per­sca­le-miljøer. H100 NVL er derimod designet til PCIe-slots, hvilket gør det nemmere at integrere GPU’en i ek­si­ste­ren­de ser­ver­struk­tu­rer. Ne­den­stå­en­de tabel giver et de­tal­je­ret overblik over yde­ev­ne­e­gen­ska­ber­ne for de to NVIDIA H100-varianter:

Ydeevne NVIDIA H100 SXM NVIDIA H100 NVL
FP64 34 TFLOPS 30 TFLOPS
FP64 Tensor Core 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
TF32 Tensor Core 989 TFLOPS 835 TFLOPS
BFLOAT16 Tensor Core 1.979 TFLOPS 1.671 TFLOPS
FP16 Tensor Core 1.979 TFLOPS 1.671 TFLOPS
FP8 Tensor Core 3.958 TFLOPS 3.341 TFLOPS
INT8 Tensor Core 3.958 TOPS 3.341 TOPS
GPU-hukom­mel­se 80 GB 94 GB
GPU-hukom­mel­ses­bånd­bred­de 3,35 TB/s 3,9 TB/s
Dekoder 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG
Maksimal termisk de­sign­kraft (TDP) 700 W (kon­fi­gu­rer­bar) 350-400 W (kon­fi­gu­rer­bar)
Multi-instance GPU (MIG) Op til 7 MIG’er med hver 10 GB Op til 7 MIG’er med hver 12 GB
Form­fak­tor SXM PCIe med to slots og luft­køling
Interface NVIDIA NVLink 900 GB/s, PCIe Gen5: 120 GB/s NVIDIA NVLink: 600 GB/s, PCIe Gen5 128 GB/s
Ser­ve­rindstil­lin­ger NVIDIA HGX H100-partnere og NVIDIA-cer­ti­fi­ce­re­de systemer med 4 eller 8 GPU’er, NVIDIA DGX H100 med 8 GPU’er Partnere og NVIDIA-cer­ti­fi­ce­re­de systemer med op til 8 GPU’er
NVIDIA AI En­ter­pri­se Til­fø­jel­se In­klu­de­ret
Note

TFLOPS (TeraFloatingPoint Ope­ra­tionsPerSecond) er en enhed, der beskriver com­pu­te­res be­hand­lings­hastig­hed (flydende komma). En TFLOPS svarer til en billion be­reg­nin­ger pr. sekund. Det samme gælder enheden TOPS (TeraOpe­ra­tionsPerSecond) – med den forskel, at her er det hel­ta­l­o­pe­ra­tio­ner, der er tale om.

Hvad er fordelene og ulemperne ved NVIDIA H100?

NVIDIA H100 er en af de mest kraft­ful­de GPU’er på markedet og er udstyret med en lang række avan­ce­re­de tek­no­lo­gi­er og funk­tio­ner. De vigtigste fordele ved H100 GPU’en er:

  • Meget høj reg­ne­kraft: H100 tilbyder ene­stå­en­de FP8- og FP16-Tensor Core-ydeevne, hvilket gør den ideel til komplekse, da­ta­kræ­ven­de ar­bejds­op­ga­ver såsom store sprog­mo­del­ler (LLM’er). Kom­bi­na­tio­nen af fjerde ge­ne­ra­tion af Tensor Cores og trans­for­mer-engine kan øge ef­fek­ti­vi­te­ten af AI-ope­ra­tio­ner be­ty­de­ligt.
  • NVLink og NVSwitch: NVIDIA H100 un­der­støt­ter fjerde ge­ne­ra­tion af NVLink, som gør det muligt at forbinde flere server-GPU’er med hinanden med en tovejs­bånd­bred­de på 900 GB/s. Takket være NVSwitch er det også muligt at skalere til­sva­ren­de klynger flek­si­belt.
  • Multi-instance GPU (MIG): GPU’en kan opdeles i op til syv uaf­hæn­gi­ge GPU-instanser, hvilket muliggør samtidig udførelse af flere ar­bejds­be­last­nin­ger med de­di­ke­re­de res­sour­cer. Dette forbedrer flek­si­bi­li­te­ten og ef­fek­ti­vi­te­ten i delte com­pu­ter­mil­jø­er.
  • Fortrolig computing: Takket være den in­te­gre­re­de sik­ker­heds­funk­tion beskyttes dataenes for­tro­lig­hed og in­te­gri­tet gennem hele ar­bejds­byr­den.
  • HBM3-hukom­mel­se og PCIe Gen5-un­der­støt­tel­se: Med op til 94 GB HBM3-hukom­mel­se og en bånd­bred­de på op til 3,9 TB/s tilbyder NVIDIA H100 en af de mest kraft­ful­de hukom­mel­ses­løs­nin­ger til da­ta­kræ­ven­de ar­bejds­be­last­nin­ger. I kom­bi­na­tion med PCIe Gen5 muliggør det meget hurtig da­ta­over­før­sel.

Dette viser sig dog at være en ulempe, da NVIDIA H100’s høje ydeevne også afspejles i prisen. Afhængigt af versionen koster GPU’erne mellem 25.000 og 35.000 pund. H100-instanser er derfor også for­holds­vis dyre i cloud-miljøer. En anden ulempe er den be­græn­se­de til­gæn­ge­lig­hed. På grund af den store ef­ter­spørgsel er der altid le­ve­rings­pro­ble­mer og lange ven­te­ti­der.

Hvilke ap­pli­ka­tio­ner er NVIDIA’s H100 GPU bedst egnet til?

NVIDIA GPU H100 er specielt udviklet til be­reg­nings­in­ten­si­ve ar­bejds­op­ga­ver og er særligt velegnet til krævende AI- og HPC-ap­pli­ka­tio­ner. Følgende oversigt viser de vigtigste an­ven­del­ses­om­rå­der for H100 GPU:

  • Træning af store AI-modeller: Takket være sin høje reg­ne­kraft ac­ce­le­re­rer GPU’en markant mo­del­træ­nin­gen af komplekse neurale netværk og store sprog­mo­del­ler såsom GPT eller LLaMA.
  • AI-inferens i realtid: H100 kan køre for­ud­dan­ne­de AI-modeller med højeste hastighed, hvilket er en fordel inden for områder som ta­le­be­hand­ling og bil­led­gen­ken­del­se.
  • Cloud og da­ta­cen­tre: GPU’er danner grund­la­get for mange GPU-servere ved at levere den nød­ven­di­ge reg­ne­kraft til komplekse ar­bejds­op­ga­ver.
  • Højty­den­de computing (HPC): Vi­den­ska­be­li­ge be­reg­nin­ger og si­mu­le­rin­ger drager fordel af den høje FP64-ydeevne i H100-gra­fik­pro­ces­so­rer.
  • Generativ AI: NVIDIA’s H100 er ideel til ge­ne­re­ring af tekst, billeder og video med AI-modeller. GPU’en muliggør hurtig og effektiv be­hand­ling af store datasæt, der kræves til generativ AI.
  • Da­ta­a­na­ly­se: Hopper GPU’erne un­der­støt­ter virk­som­he­der i for­skel­li­ge brancher – såsom logistik og finans – i at udlede præcise prognoser og for­ud­si­gel­ser fra store da­ta­mæng­der.

Hvad er de mulige al­ter­na­ti­ver til H100 GPU?

Selvom NVIDIA H100 er en af de mest kraft­ful­de GPU’er til AI og HPC, kan der være al­ter­na­ti­ve løsninger afhængigt af an­ven­del­ses­for­må­let og budgettet. For eksempel på grund af højere om­kost­nings­ef­fek­ti­vi­tet. Mulige al­ter­na­ti­ver omfatter blandt andet:

  • NVIDIA A100: Den tidligere model tilbyder også solid ydeevne til AI-træning, inferens og HPC, men er billigere.
  • NVIDIA A30: A30 kom­bi­ne­rer høj ydeevne med en over­kom­me­lig pris.
  • NVIDIA H200: H200 er en let forbedret version af NVIDIA H100, som har en endnu højere hukom­mel­ses­bånd­bred­de.
  • Intel Gaudi 3: AI-ac­ce­le­ra­to­ren leverer høj ydeevne til AI-inferens.
Note

Vi præ­sen­te­rer de aktuelt mest anvendte gra­fik­pro­ces­so­rer mere de­tal­je­ret i vores artikel, hvor vi sam­men­lig­ner server-GPU’er.

Gå til ho­ved­me­nu­en