As GPUs com ar­qui­te­tura Hopper, mais co­nhe­ci­das como Hopper GPU, são a última geração de GPUs de alto de­sem­pe­nho da NVIDIA, pro­je­ta­das es­pe­ci­fi­ca­mente para in­te­li­gên­cia ar­ti­fi­cial (IA) e com­pu­ta­ção de alto de­sem­pe­nho (HPC), per­mi­tindo a es­ca­la­bi­li­dade de uma ampla variedade de cargas de trabalho. Elas são baseadas em uma ar­qui­te­tura inovadora com poderosos núcleos Tensor e combinam várias tec­no­lo­gias avançadas para alcançar a máxima efi­ci­ên­cia. As Hopper GPU da NVIDIA são ideais para tarefas como in­fe­rên­cia de IA, treino de apren­di­za­gem profunda e in­te­li­gên­cia ar­ti­fi­cial ge­ne­ra­tiva.

A ar­qui­te­tura das GPUs Hopper da NVIDIA

O termo “Hopper GPU” vem da ar­qui­te­tura Hopper, uma mi­cro­ar­qui­te­tura de GPU que constitui a base desses pro­ces­sa­do­res gráficos de alto de­sem­pe­nho. É otimizada para cargas de trabalho de in­te­li­gên­cia ar­ti­fi­cial (IA) e apli­ca­ções de com­pu­ta­ção de alto de­sem­pe­nho (HPC). As Hopper GPU são fa­bri­ca­das pela TSMC com tec­no­lo­gia de 4 na­nó­me­tros e contam com 80 mil milhões de tran­sís­to­res, o que as coloca entre as placas gráficas mais avançadas do mercado.

Com a ar­qui­te­tura Hopper, a NVIDIA combina a última geração de núcleos Tensor com cinco inovações prin­ci­pais: Trans­for­mer Engine, NVLink/NVSwitch/NVLink Switch, com­pu­ta­ção con­fi­den­cial, GPU de múltiplas ins­tân­cias (MIG) de segunda geração e ins­tru­ções DPX. Graças a essas tec­no­lo­gias, as GPUs Hopper alcançam até 30 vezes mais ve­lo­ci­dade em tarefas de in­fe­rên­cia de IA em com­pa­ra­ção com a geração anterior (de acordo com testes baseados no chatbot Megatron 530B da NVIDIA, o maior modelo de linguagem ge­ne­ra­tiva do mundo).

As funções ino­va­do­ras das GPUs Hopper

As GPUs Hopper in­cor­po­ram várias fun­ci­o­na­li­da­des avançadas que melhoram o de­sem­pe­nho, a efi­ci­ên­cia e a es­ca­la­bi­li­dade. A seguir, apre­sen­ta­mos as prin­ci­pais inovações:

  • Trans­for­mer Engine: esta tec­no­lo­gia permite treinar modelos de in­te­li­gên­cia ar­ti­fi­cial até nove vezes mais rápido. Em tarefas de in­fe­rên­cia com modelos de linguagem, as GPUs Hopper alcançam uma ace­le­ra­ção de até 30 vezes em com­pa­ra­ção com a geração anterior.
  • NVLink Switch System: a quarta geração do NVLink fornece uma largura de banda bi­di­re­ci­o­nal de 900 GB/s entre GPUs, enquanto o NVSwitch melhora a es­ca­la­bi­li­dade dos clusters H200. Isso permite processar modelos de IA com trilhões de pa­râ­me­tros de forma eficiente.
  • Com­pu­ta­ção con­fi­den­cial: a ar­qui­te­tura Hopper garante a segurança dos dados, modelos de IA e al­go­rit­mos, mesmo durante o seu pro­ces­sa­mento.
  • GPU de múltiplas ins­tân­cias (MIG) 2.0: a segunda geração desta tec­no­lo­gia permite dividir uma GPU Hopper em até sete ins­tân­cias isoladas, per­mi­tindo que vários uti­li­za­do­res executem cargas de trabalho si­mul­ta­ne­a­mente sem in­ter­fe­rên­cias.
  • Ins­tru­ções DPX: estas ins­tru­ções otimizam o pro­ces­sa­mento de al­go­rit­mos pro­gra­ma­dos di­na­mi­ca­mente e atingem uma ve­lo­ci­dade até sete vezes maior do que com as GPUs de ar­qui­te­tura Ampere.

Para que servem as GPUs Hopper?

As GPUs da NVIDIA baseadas na ar­qui­te­tura Hopper são pro­je­ta­das para cargas de trabalho de alto de­sem­pe­nho em diversas áreas. As suas prin­ci­pais apli­ca­ções incluem:

  • In­fe­rên­cia de IA: estas GPUs estão entre as soluções líderes para a im­ple­men­ta­ção de modelos de in­fe­rên­cia de in­te­li­gên­cia ar­ti­fi­cial. São ideais para sistemas de re­co­men­da­ção em comércio ele­tró­nico, di­ag­nós­tico médico ou previsões em tempo real para condução autónoma, pois podem processar grandes volumes de dados de forma rápida e eficiente.
  • In­te­li­gên­cia ar­ti­fi­cial ge­ne­ra­tiva: as GPUs Hopper fornecem o poder de com­pu­ta­ção ne­ces­sá­rio para treinar e executar fer­ra­men­tas de IA ge­ne­ra­tiva. Graças ao pro­ces­sa­mento em paralelo, elas facilitam cálculos mais efi­ci­en­tes na geração de texto, imagens e vídeos.
  • Treino de apren­di­za­gem profunda: o seu alto de­sem­pe­nho com­pu­ta­ci­o­nal torna-as ideais para treinar grandes redes neurais. A ar­qui­te­tura Hopper reduz sig­ni­fi­ca­ti­va­mente os tempos de treino de modelos de IA.
  • IA con­ver­sa­ci­o­nal: graças à sua oti­mi­za­ção para o pro­ces­sa­mento de linguagem natural (NLP), as GPUs Hopper são ideais para sistemas de con­ver­sa­ção baseados em IA, como as­sis­ten­tes virtuais e chatbots de IA. Aceleram o pro­ces­sa­mento de modelos avançados e garantem in­te­ra­ções fluidas que podem ser in­te­gra­das em processos em­pre­sa­ri­ais, como o aten­di­mento ao cliente.
  • Análise de dados e big data: estas GPUs podem lidar com enormes volumes de dados a grande ve­lo­ci­dade e acelerar cálculos complexos através do pro­ces­sa­mento paralelo em massa. Isto permite às empresas analisar dados massivos ou big data mais ra­pi­da­mente para fazer previsões e tomar decisões es­tra­té­gi­cas.
  • Ciência e in­ves­ti­ga­ção: por serem pro­je­ta­das para apli­ca­ções de com­pu­ta­ção de alto de­sem­pe­nho (HPC), as GPUs Hopper são perfeitas para si­mu­la­ções e cálculos complexos. São uti­li­za­das em campos como as­tro­fí­sica, modelagem climática e química com­pu­ta­ci­o­nal.

Modelos atuais da NVIDIA

A NVIDIA lançou no mercado duas GPUs baseadas na ar­qui­te­tura Hopper: a NVIDIA H100 e a NVIDIA H200. Por outro lado, a NVIDIA A30 continua a utilizar a ar­qui­te­tura Ampere. A H200, no entanto, não é um modelo com­ple­ta­mente novo, mas sim uma evolução da H100. A seguir, com­pa­ra­mos as suas prin­ci­pais di­fe­ren­ças:

  • Memória e largura de banda: a NVIDIA H100 possui 80 GB de memória HBM3, enquanto a H200 incorpora 141 GB de memória HBM3e. Além disso, a H200 oferece uma largura de banda maior de 4,8 TB/s em com­pa­ra­ção com os 2 TB/s da H100.
  • De­sem­pe­nho em in­fe­rên­cia de IA: a NVIDIA H200 duplica o de­sem­pe­nho em in­fe­rên­cia para modelos como o LLaMA 2-70B, per­mi­tindo maior ve­lo­ci­dade de pro­ces­sa­mento e es­ca­la­bi­li­dade mais eficiente.
  • Apli­ca­ções HPC e cálculos ci­en­tí­fi­cos: a H100 já oferece um de­sem­pe­nho ex­cep­ci­o­nal em cálculos complexos, mas a H200 supera-a com uma ve­lo­ci­dade de in­fe­rên­cia até duas vezes mais rápida e um de­sem­pe­nho em HPC 20% superior.
Ir para o menu principal