A NVIDIA H100 é uma GPU de alto de­sem­pe­nho, de­sen­vol­vida es­pe­ci­fi­ca­mente para apli­ca­ções de IA, Deep Learning e HPC. A GPU H100 é baseada na inovadora ar­qui­te­tura Hopper e opera com poderosos núcleos Tensor de quarta geração, que oferecem um de­sem­pe­nho acima da média. Graças à sua enorme ca­pa­ci­dade de pro­ces­sa­mento, a H100 da NVIDIA é ideal para o trei­na­mento de redes neurais complexas, workloads in­ten­si­vos em dados na nuvem e si­mu­la­ções HPC complexas.

O que di­fe­ren­cia o de­sem­pe­nho da NVIDIA H100?

A NVIDIA H100 oferece um nível de de­sem­pe­nho ex­cep­ci­o­nal, baseado na nova ar­qui­te­tura Hopper. Esta combina a tec­no­lo­gia Tensor-Core com um Trans­for­mer-Engine, para fornecer mais poder de com­pu­ta­ção e acelerar sig­ni­fi­ca­ti­va­mente o trei­na­mento de modelos de IA. A GPU H100 é oferecida pela NVIDIA em duas variantes: H100 SXM e H100 NVL.

As duas versões di­fe­ren­ciam-se tanto no seu formato quanto em de­sem­pe­nho, largura de banda de memória e co­nec­ti­vi­dade. A H100 SXM é es­pe­ci­al­mente projetada para uso em ser­vi­do­res de alta densidade e em ambientes hy­pers­cale. Por outro lado, a H100 NVL foi de­sen­vol­vida para slots PCIe, fa­ci­li­tando assim a in­te­gra­ção da GPU em es­tru­tu­ras de ser­vi­do­res exis­ten­tes. A tabela a seguir oferece uma visão detalhada das ca­rac­te­rís­ti­cas de de­sem­pe­nho das duas variantes NVIDIA H100:

Ca­rac­te­rís­tica de de­sem­pe­nho NVIDIA H100 SXM NVIDIA H100 NVL
FP64 34 TFLOPS 30 TFLOPS
FP64-Tensor-Core 67 TFLOPS 60 TFLOPS
FP32 67 TFLOPS 60 TFLOPS
TF32 Tensor Core 989 TFLOPS 835 TFLOPS
BFLOAT16 Tensor Core 1.979 TFLOPS 1.671 TFLOPS
FP16 Tensor Core 1.979 TFLOPS 1.671 TFLOPS
FP8 Tensor Core 3.958 TFLOPS 3.341 TFLOPS
INT8 Tensor Core 3.958 TOPS 3.341 TOPS
Memória da GPU 80 GB 94 GB
Largura de banda de memória da GPU 3,35 TB/s 3,9 TB/s
Decoder 7 NVDEC, 7 JPEG 7 NVDEC, 7 JPEG
Potência de Projeto Térmico (TDP) 700 W (con­fi­gu­rá­vel) 350-400 W (con­fi­gu­rá­vel)
Multi-Instance-GPU (MIG) Até 7 MIGs com 10 GB cada Até 7 MIGs com 12 GB cada
Fator de forma SXM PCIe com dois slots e res­fri­a­mento a ar
Interface NVIDIA NVLink 900 GB/s, PCIe Gen5: 120 GB/s NVIDIA NVLink: 600 GB/s, PCIe Gen5 128 GB/s
Opções de servidor Parceiros NVIDIA HGX H100 e sistemas cer­ti­fi­ca­dos NVIDIA com 4 ou 8 GPUs, NVIDIA DGX H100 com 8 GPUs Parceiros e sistemas cer­ti­fi­ca­dos NVIDIA com até 8 GPUs
NVIDIA AI En­ter­prise Add-on Incluído
Nota

TFLOPS (Tera Floating Point Operations per Second) é uma unidade de medida que descreve a ve­lo­ci­dade de pro­ces­sa­mento de com­pu­ta­do­res (ponto flutuante). Um TFLOPS equivale a um trilhão de cálculos por segundo. O mesmo se aplica a unidade TOPS (Tera Operations Per Second), com a diferença de que estas são re­pre­sen­ta­das por operações de números inteiros.

Quais são as vantagens e des­van­ta­gens da NVIDIA H100?

A NVIDIA H100 é uma das GPUs mais poderosas do mercado e vem equipada com várias tec­no­lo­gias e fun­ci­o­na­li­da­des avançadas. As prin­ci­pais vantagens da GPU H100 são:

  • De­sem­pe­nho com­pu­ta­ci­o­nal muito alto: A H100 oferece um de­sem­pe­nho im­pres­si­o­nante em FP8 e FP16 com Tensor Cores, tornando-a ideal para workloads complexos e in­ten­si­vos em dados, como Large Language Models (LLMs). A com­bi­na­ção dos núcleos Tensor de quarta geração com a Trans­for­mer Engine pode aumentar sig­ni­fi­ca­ti­va­mente a efi­ci­ên­cia das operações de IA.
  • NVLink e NVSwitch: A NVIDIA H100 suporta NVLink de quarta geração, per­mi­tindo que várias GPUs de servidor se conectem com uma largura de banda bi­di­re­ci­o­nal de 900 GB/s. Graças ao NVSwitch, também é possível escalar clusters de forma flexível.
  • Multi-Instance-GPU (MIG): O pro­ces­sa­dor gráfico pode ser par­ti­ci­o­nado em até sete ins­tân­cias de GPU in­de­pen­den­tes, per­mi­tindo a execução si­mul­tâ­nea de várias cargas de trabalho com recursos dedicados. Dessa forma, a fle­xi­bi­li­dade e a efi­ci­ên­cia em ambientes de com­pu­ta­ção com­par­ti­lha­dos são apri­mo­ra­das.
  • Con­fi­den­tial Computing: Graças à função de segurança integrada, a con­fi­den­ci­a­li­dade e a in­te­gri­dade dos dados são pro­te­gi­das ao longo de toda a carga de trabalho.
  • Suporte para Memória HBM3 e PCIe Gen5: De­pen­dendo da variante, a NVIDIA H100 oferece até 94 GB de memória HBM3 e uma largura de banda de até 3,9 TB/s, snedo uma das soluções de memória mais poderosas para cargas de trabalho in­ten­si­vas em dados. Em com­bi­na­ção com PCIe Gen5, ela permite uma trans­fe­rên­cia de dados ex­tre­ma­mente rápida.

No entanto, esse alto de­sem­pe­nho da NVIDIA H100 também re­pre­senta uma des­van­ta­gem: o preço elevado. De­pen­dendo da versão, as GPUs custam entre 30.000 e 40.000 euros. Portanto, as ins­tân­cias H100 também são re­la­ti­va­mente caras em nuvem. Outra des­van­ta­gem é a dis­po­ni­bi­li­dade limitada. Devido à alta demanda, há fre­quen­tes escassez de su­pri­men­tos e longos tempos de espera.

Para quais áreas de aplicação a GPU NVIDIA H100 é adequada?

A GPU NVIDIA H100 foi de­sen­vol­vida es­pe­ci­fi­ca­mente para cargas de trabalho in­ten­si­vas em com­pu­ta­ção e é es­pe­ci­al­mente adequada para apli­ca­ções exigentes de IA e HPC. A visão geral a seguir destaca os prin­ci­pais campos de aplicação da GPU H100:

  • Trei­na­mento de grandes modelos de IA: Graças ao seu alto poder de pro­ces­sa­mento, a GPU acelera sig­ni­fi­ca­ti­va­mente o trei­na­mento de modelos complexos de redes neurais e Large Language Models como GPT ou LLaMA.
  • In­fe­rên­cia de IA em tempo real: A H100 pode executar modelos de IA já treinados em ve­lo­ci­da­des máximas, o que se mostra vantajoso em áreas como pro­ces­sa­mento de linguagem e re­co­nhe­ci­mento de imagens.
  • Nuvens e data centers: Os pro­ces­sa­do­res gráficos formam a base de muitos ser­vi­do­res GPU, for­ne­cendo a ca­pa­ci­dade de pro­ces­sa­mento ne­ces­sá­ria para cargas de trabalho complexas.
  • High-per­for­mance computing (HPC): Cálculos ci­en­tí­fi­cos e si­mu­la­ções se be­ne­fi­ciam do alto de­sem­pe­nho FP64 dos pro­ces­sa­do­res gráficos H100.
  • IA ge­ne­ra­tiva: O H100 da NVIDIA é excelente para a geração de texto, imagem e vídeo com modelos de IA. A GPU permite um pro­ces­sa­mento rápido e eficiente de grandes conjuntos de dados, ne­ces­sá­rios para a IA ge­ne­ra­tiva.
  • Análise de dados: As GPUs Hopper ajudam empresas de di­fe­ren­tes setores, como logística e finanças, com previsões e projeções precisas a partir de grandes volumes de dados.

Existem al­ter­na­ti­vas para a GPU NVIDIA H100?

Embora a NVIDIA H100 esteja entre as GPUs mais poderosas para IA e HPC, de­pen­dendo do caso de uso e do orçamento, podem ser ofe­re­ci­das soluções al­ter­na­ti­vas, por exemplo, devido a uma maior efi­ci­ên­cia de custo. Algumas das al­ter­na­ti­vas possíveis incluem:

  • NVIDIA A100: O modelo anterior também oferece um de­sem­pe­nho sólido para trei­na­mento de IA, in­fe­rên­cia e HPC, mas é mais econômico.
  • NVIDIA A30: O A30 combina alto de­sem­pe­nho com um preço acessível.
  • NVIDIA H200: A H200 é uma versão li­gei­ra­mente apri­mo­rada da NVIDIA H100, que, por exemplo, possui uma largura de banda de memória ainda maior.
  • Intel Gaudi 3: O ace­le­ra­dor de IA oferece alta per­for­mance para in­fe­rên­cia de IA.
Nota

Os pro­ces­sa­do­res gráficos mais uti­li­za­dos atu­al­mente são apre­sen­ta­dos, em detalhes, neste nosso artigo com­pa­ra­tivo entre ser­vi­do­res GPU.

Ir para o menu principal