Hvad er en Hopper GPU?
Hopper GPU’er repræsenterer NVIDIAs nyeste generation af højtydende grafikprocessorer, der er specialbygget til AI og højtydende computing (HPC). Med en banebrydende arkitektur med avancerede Tensor Cores integrerer de flere innovative teknologier for at levere maksimal effektivitet. Hopper GPU’er er ideelle til en bred vifte af arbejdsopgaver og understøtter AI-inferens, deep learning-træning, generativ AI og meget mere.
Hvordan er NVIDIA’s Hopper GPU’er konstrueret?
Navnet ‘Hopper GPU’ stammer fra Hopper-arkitekturen, som er den GPU-mikroarkitektur, der danner grundlaget for højtydende grafikprocessorer og er optimeret til AI-arbejdsbelastninger og HPC-applikationer. Hopper GPU’er fremstilles af TSMC ved hjælp af 4-nanometerprocessen og har over 80 milliarder transistorer, hvilket gør dem til nogle af de mest avancerede grafikkort på markedet.
Med Hopper-arkitekturen kombinerer NVIDIA den nyeste generation af Tensor Cores med fem banebrydende innovationer: transformer engine, NVLink/NVSwitch/NVLink switch-systemer, fortrolig computing, anden generation af multi-instance GPU’er (MIG’er) og DPX-instruktioner. Disse teknologier gør det muligt for Hopper GPU’er at opnå op til 30 gange hurtigere AI-inferens i forhold til den forrige generation (baseret på NVIDIA’s Megatron 530B chatbot – verdens mest omfattende generative sprogmodel).
Hvad er de innovative funktioner ved Hopper GPU’er?
Hopper GPU’er har flere nye funktioner, der bidrager til at forbedre ydeevne, effektivitet og skalerbarhed. Nedenfor præsenterer vi de vigtigste innovationer:
- Transformermotor: Med hjælp fra transformermotoren kan Hopper GPU’er træne AI-modeller op til ni gange hurtigere. Til inferensopgaver inden for sprogmodeller opnår GPU’erne op til 30 gange hurtigere acceleration end den forrige generation.
- NVLink-switchesystem: Fjerde generation af NVLink leverer en tovejs GPU-båndbredde på 900 GB/s, mens NVSwitch sikrer bedre skalerbarhed af H200-klynger. Dette sikrer, at AI-modeller med billioner af parametre kan behandles effektivt.
- Fortrolig databehandling: Hopper-arkitekturen sikrer, at dine data, AI-modeller og algoritmer også er beskyttet under behandlingen.
- Multi-instance GPU (MIG) 2.0: Anden generation af MIG-teknologi gør det muligt at opdele en enkelt Hopper GPU i op til syv isolerede instanser. Dette gør det muligt for flere personer at behandle forskellige arbejdsbelastninger samtidigt uden at forstyrre hinanden.
- DPX-instruktioner: DPX-instruktioner gør det muligt at beregne dynamisk programmerede algoritmer op til syv gange hurtigere end med GPU’er i Ampere-arkitekturen.
Hvilke anvendelsestilfælde er Hopper GPU’er velegnede til?
NVIDIA GPU’er baseret på Hopper-arkitekturen er designet til en bred vifte af højtydende arbejdsopgaver. De vigtigste anvendelsesområder for Hopper GPU’er er: ¬
- Inferensopgaver: GPU’erne er blandt de brancheførende løsninger til produktiv brug af AI-inferens. Uanset om det drejer sig om anbefalingssystemer inden for e-handel, medicinsk diagnostik eller realtidsforudsigelser til autonom kørsel, kan Hopper GPU’er behandle enorme mængder data hurtigt og effektivt.
- Generativ AI: De avancerede GPU’er leverer den nødvendige regnekraft til at træne og udføre værktøjer med generativ AI. Parallel behandling muliggør mere effektive beregninger til kreative opgaver såsom tekst-, billed- og videogenerering.
- Deep learning-træning: Med deres høje regnekraft er Hopper GPU’er ideelle til træning af store neurale netværk. Hopper-arkitekturen forkorter træningstiden for AI-modeller betydeligt.
- Konversations-AI: Hopper GPU’er er optimeret til naturlig sprogbehandling (NLP) og er ideelle til AI-drevne sprogssystemer, såsom virtuelle assistenter og AI-chatbots. De fremskynder behandlingen af store AI-modeller og sikrer responsiv interaktion, der kan integreres problemfrit i forretningsprocesser, såsom support.
- Dataanalyse og big data: Hopper GPU’er håndterer enorme mængder data med høj hastighed og accelererer komplekse beregninger gennem massiv parallelbehandling. Dette gør det muligt for virksomheder at evaluere big data hurtigere for at kunne lave prognoser og iværksætte de rigtige foranstaltninger.
- Videnskab og forskning: Da GPU’erne er designet til HPC-applikationer, er de ideelle til meget komplekse simuleringer og beregninger. Hopper GPU’er bruges for eksempel inden for astrofysik, klimamodellering og beregningskemisk.
Nuværende modeller fra NVIDIA
Med lanceringen af NVIDIA H100 og NVIDIA H200 har det amerikanske firma introduceret to Hopper-GPU’er på markedet. Derimod er NVIDIA A30 stadig baseret på den tidligere Ampere-arkitektur. Teknisk set er H200 ikke en helt ny model, men snarere en forbedret version af H100. Følgende oversigt fremhæver de vigtigste forskelle mellem disse to GPU’er:
- Hukommelse og båndbredde: Mens NVIDIA H100 er udstyret med en 80 GB HBM3-hukommelse, har H200 GPU en HBM3e-hukommelse med en kapacitet på 141 GB. H200 er også klart foran med hensyn til hukommelsesbåndbredde med 4,8 TB/s sammenlignet med 2 TB/s for H100.
- Ydeevne til AI-inferens: Til sammenligning leverer NVIDIA H200 dobbelt så høj inferensydelse for modeller som LLaMA 2-70 B. Dette muliggør ikke kun hurtigere behandling, men også effektiv skalering.
- HPC-applikationer og videnskabelig databehandling: H100 tilbyder allerede en førsteklasses ydeevne til komplekse beregninger, som H200 overgår. Inferenshastigheden er op til dobbelt så høj, og HPC-ydeevnen er omkring 20 procent højere.