A NVIDIA H100 é uma GPU de alto de­sem­pe­nho, projetada es­pe­ci­fi­ca­mente para apli­ca­ções de IA, apren­di­za­gem profunda e HPC. A GPU H100 baseia-se na inovadora ar­qui­te­tura Hopper e conta com potentes núcleos Tensor de quarta geração, que oferecem um de­sem­pe­nho ex­ce­ci­o­nal. Graças à sua grande ca­pa­ci­dade de cálculo, a NVIDIA H100 é ideal para treinar redes neurais complexas, cargas de trabalho na nuvem em que são geridos grandes volumes de dados e si­mu­la­ções exigentes de HPC.

Ca­rac­te­rís­ti­cas da NVIDIA H100

A NVIDIA H100 oferece um nível de de­sem­pe­nho ex­ce­ci­o­nal baseado na inovadora ar­qui­te­tura Hopper, que combina a tec­no­lo­gia Tensor Core com um motor Trans­for­mer para aumentar a ca­pa­ci­dade de cálculo e acelerar sig­ni­fi­ca­ti­va­mente o treino de modelos de IA. A GPU H100 está dis­po­ní­vel em duas versões: H100 SXM e H100 NVL.

As duas versões diferem em formato, de­sem­pe­nho, largura de banda de memória e co­nec­ti­vi­dade. O H100 SXM foi projetado prin­ci­pal­mente para ser­vi­do­res de alta densidade e ambientes hi­pe­res­ca­lá­veis. Por outro lado, o H100 NVL é otimizado para slots PCIe, o que facilita a sua in­te­gra­ção em in­fra­es­tru­tu­ras de ser­vi­do­res exis­ten­tes. A tabela a seguir oferece uma análise detalhada das ca­rac­te­rís­ti­cas de ambas as versões do NVIDIA H100:

Ca­rac­te­rís­tica NVIDIA H100 SXM NVIDIA H100 NVL
FP64 34 TFLOPS 30 TFLOPS
Núcleo Tensor FP64 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
Núcleo Tensor TF32 989 TFLOPS 835 TFLOPS
Núcleo Tensor BFLOAT16 1979 TFLOPS 1671 TFLOPS
Núcleo Tensor FP16 1979 TFLOPS 1671 TFLOPS
Núcleo Tensor FP8 3958 TFLOPS 3341 TFLOPS
Núcleo Tensor INT8 3958 TOPS 3341 TOPS
Memória da GPU 80 GB 94 GB
Largura de banda da memória da GPU 3,35 TB/s 3,9 TB/s
De­co­di­fi­ca­dor 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG
Potência máxima de design térmico (TDP) 700 W (con­fi­gu­rá­vel) 350-400 W (con­fi­gu­rá­vel)
GPU de múltiplas ins­tân­cias (MIG) Até 7 MIG com 10 GB cada Até 7 MIG com 12 GB cada
Formato SXM PCIe de duas ranhuras com re­fri­ge­ra­ção a ar
Interface NVIDIA NVLink 900 GB/s, PCIe Gen5: 120 GB/s NVIDIA NVLink: 600 GB/s, PCIe Gen5 128 GB/s
Opções de servidor Parceiros NVIDIA HGX H100 e sistemas cer­ti­fi­ca­dos pela NVIDIA com 4 ou 8 GPUs, NVIDIA DGX H100 com 8 GPUs Parceiros e sistemas cer­ti­fi­ca­dos pela NVIDIA com até 8 GPUs
NVIDIA AI En­ter­prise Com­ple­mento opcional Incluído
Nota

TFLOPS (TeraFloatingPoint Ope­ra­ti­onsperSecond) é uma unidade que mede a ve­lo­ci­dade de pro­ces­sa­mento de um com­pu­ta­dor em cálculos de ponto flutuante. Um TFLOP equivale a um trilhão de operações por segundo. De forma se­me­lhante, a unidade TOPS (TeraOpe­ra­ti­onsperSecond) também mede o de­sem­pe­nho com­pu­ta­ci­o­nal, mas neste caso refere-se a operações com números inteiros em vez de cálculos em ponto flutuante.

Vantagens e des­van­ta­gens da NVIDIA H100

A NVIDIA H100 é uma das GPUs mais potentes do mercado e conta com múltiplas tec­no­lo­gias e funções avançadas. Estas são algumas das suas prin­ci­pais vantagens:

  • De­sem­pe­nho de cálculo ex­cep­ci­o­nal: o H100 oferece um de­sem­pe­nho ex­cep­ci­o­nal em operações com núcleos Tensor FP8 e FP16, tornando-o uma opção ideal para cargas de trabalho complexas e com grande volume de dados, como Modelos de Linguagem Extensos (LLM). Além disso, a com­bi­na­ção desses núcleos Tensor de quarta geração com o motor Trans­for­mer melhora sig­ni­fi­ca­ti­va­mente a efi­ci­ên­cia em operações de IA.
  • NVLink e NVSwitch: o NVIDIA H100 é com­pa­tí­vel com NVLink de quarta geração, per­mi­tindo in­ter­li­gar várias GPUs dentro de um servidor com uma largura de banda bi­di­re­ci­o­nal de 900 GB/s. Além disso, o NVSwitch facilita a es­ca­la­bi­li­dade de clusters.
  • GPU de múltiplas ins­tân­cias (MIG): o pro­ces­sa­dor gráfico pode ser dividido em até sete ins­tân­cias in­de­pen­den­tes de GPU, per­mi­tindo a execução si­mul­tâ­nea de várias cargas de trabalho com recursos dedicados. Isso otimiza a fle­xi­bi­li­dade e a efi­ci­ên­cia da GPU em ambientes de com­pu­ta­ção par­ti­lha­dos.
  • Com­pu­ta­ção con­fi­den­cial: incorpora funções de segurança para proteger a con­fi­den­ci­a­li­dade e a in­te­gri­dade dos dados ao longo de todo o pro­ces­sa­mento das cargas de trabalho.
  • Memória HBM3 e com­pa­ti­bi­li­dade com PCIe Gen5: com até 94 GB de memória HBM3 e uma largura de banda de até 3,9 TB/s, a NVIDIA H100 oferece uma das soluções de ar­ma­ze­na­mento mais avançadas para cargas de trabalho com grandes volumes de dados. Quando combinada com PCIe Gen5, permite trans­fe­rên­cias rápidas de dados.

No entanto, este alto de­sem­pe­nho da NVIDIA H100 tem o seu con­tra­ponto: um preço elevado. De­pen­dendo do modelo, estas GPUs podem custar entre 30 000 e 40 000 euros (entre 35 000 e 45 000 dólares), o que também encarece sig­ni­fi­ca­ti­va­mente a sua uti­li­za­ção em ambientes de nuvem em com­pa­ra­ção com outras al­ter­na­ti­vas. A isso se soma outra des­van­ta­gem: a sua dis­po­ni­bi­li­dade limitada. Devido à alta demanda, costumam ocorrer problemas de estoque e longos tempos de espera.

Em que áreas é utilizada a GPU NVIDIA H100?

A GPU NVIDIA H100 foi projetada es­pe­ci­fi­ca­mente para cargas de trabalho de com­pu­ta­ção intensiva e se destaca em apli­ca­ções exigentes de in­te­li­gên­cia ar­ti­fi­cial (IA) e com­pu­ta­ção de alto de­sem­pe­nho (HPC). A tabela a seguir resume suas prin­ci­pais áreas de uso.

  • Trei­na­mento de modelos de IA em grande escala: graças ao seu grande poder de pro­ces­sa­mento, esta GPU acelera sig­ni­fi­ca­ti­va­mente o trei­na­mento de redes neurais complexas e Modelos de Linguagem Extensos (LLM), como GPT ou LLaMA.
  • In­fe­rên­cia de IA em tempo real: a H100 executa modelos de IA já treinados em altas ve­lo­ci­da­des, o que é uma vantagem em áreas como pro­ces­sa­mento de linguagem e re­co­nhe­ci­mento de imagens.
  • Ambientes de nuvem e centros de dados: estes pro­ces­sa­do­res gráficos são a base de vários ser­vi­do­res GPU, for­ne­cendo a potência ne­ces­sá­ria para cargas de trabalho complexas.
  • Com­pu­ta­ção de alto de­sem­pe­nho (HPC): os cálculos ci­en­tí­fi­cos e as si­mu­la­ções be­ne­fi­ciam do alto de­sem­pe­nho FP64 dos pro­ces­sa­do­res gráficos H100.
  • IA ge­ne­ra­tiva: a NVIDIA H100 é uma fer­ra­menta perfeita para gerar texto, imagens e vídeos com modelos de IA. O seu design permite processar grandes volumes de dados de forma rápida e eficiente, algo fun­da­men­tal para a IA ge­ne­ra­tiva.
  • Análise de dados: com as GPUs Hopper, empresas de setores como logística ou finanças podem extrair previsões e prog­nós­ti­cos precisos a partir de grandes quan­ti­da­des de dados.

Quais são as al­ter­na­ti­vas à GPU H100?

Embora a NVIDIA H100 seja uma das GPUs mais potentes para IA e HPC, de­pen­dendo do orçamento ou das ne­ces­si­da­des, pode haver soluções al­ter­na­ti­vas mais adequadas, es­pe­ci­al­mente no que diz respeito à ren­ta­bi­li­dade. Algumas delas são:

  • NVIDIA A100: embora seja o modelo anterior, continua a oferecer um de­sem­pe­nho sólido para treino em IA, in­fe­rên­cia, bem como para HPC, com um custo mais acessível.
  • NVIDIA A30: o A30 combina alto de­sem­pe­nho com um preço com­pe­ti­tivo.
  • NVIDIA H200: uma versão otimizada da NVIDIA H100, com melhorias como maior largura de banda de memória.
  • Intel Gaudi 3: um ace­le­ra­dor de IA projetado para oferecer grande de­sem­pe­nho em tarefas de in­fe­rên­cia de IA.
Nota

No nosso guia“Com­pa­ra­tiva de GPU para ser­vi­do­res”, falamos mais de­ta­lha­da­mente sobre os pro­ces­sa­do­res gráficos mais populares atu­al­mente.

Ir para o menu principal