Hopper GPUs são a mais recente geração de GPUs de alto de­sem­pe­nho da NVIDIA, de­sen­vol­vi­das es­pe­ci­fi­ca­mente para in­te­li­gên­cia ar­ti­fi­cial (IA) e HPC (High Per­for­mance Computing), para pos­si­bi­li­tar a es­ca­la­bi­li­dade de diversos workloads. Elas são baseadas em uma ar­qui­te­tura inovadora, com núcleos Tensor poderosos, e combinam diversas tec­no­lo­gias avançadas para máxima efi­ci­ên­cia. As Hopper GPUs da NVIDIA são adequadas, entre outras coisas, para in­fe­rên­cia de IA, trei­na­mento de Deep Learning e IA ge­ne­ra­tiva.

Ar­qui­te­tura das Hopper GPUs da NVIDIA

O termo “Hopper GPU” vem da ar­qui­te­tura Hopper, que serve como a mi­cro­ar­qui­te­tura base para os pro­ces­sa­do­res gráficos de alto de­sem­pe­nho, oti­mi­za­dos para cargas de trabalho de IA e apli­ca­ções de HPC. Hopper GPUs são fa­bri­ca­das pela TSMC, no processo de 4 nanô­me­tros, e possuem 80 bilhões de tran­sis­to­res, o que as torna uma das placas gráficas mais avançadas dis­po­ní­veis no mercado.

Na ar­qui­te­tura Hopper, a NVIDIA combina a mais recente geração de núcleos Tensor com cinco inovações pioneiras: Trans­for­mer-Engine, sistemas NVLink/NVSwitch/NVLink-Switch, Com­pu­ta­ção Con­fi­den­cial, GPUs de Múltiplas Ins­tân­cias (MIGs) de segunda geração e ins­tru­ções DPX. Graças a essas tec­no­lo­gias, as Hopper GPUs oferecem até 30 vezes mais de­sem­pe­nho em in­fe­rên­cia de IA em com­pa­ra­ção com a geração anterior. Esse dado é baseado no Megatron 530B Chatbot da NVIDIA, con­si­de­rado o maior modelo de linguagem ge­ne­ra­tiva do mundo.

Funções ino­va­do­ras das Hopper GPUs

As Hopper GPUs possuem várias funções ino­va­do­ras que con­tri­buem para a melhoria do de­sem­pe­nho, da efi­ci­ên­cia e da es­ca­la­bi­li­dade. A seguir, apre­sen­ta­mos as prin­ci­pais novidades:

  • Trans­for­mer Engine: Com a ajuda da Trans­for­mer Engine, as Hopper GPUs tornam-se capazes de treinar modelos de IA até nove vezes mais rápido. Em tarefas de in­fe­rên­cia na área de modelos de linguagem, essas GPUs alcançam uma ace­le­ra­ção de até 30 vezes em com­pa­ra­ção com a geração anterior.
  • NVLink-Switch-System: A quarta geração do NVLink oferece uma largura de banda bi­di­re­ci­o­nal de GPU de 900 GB/s, ao passo que o NVSwitch garante uma melhor es­ca­la­bi­li­dade dos clusters H200. Isso assegura que modelos de IA com trilhões de pa­râ­me­tros possam ser pro­ces­sa­dos de forma eficiente.
  • Con­fi­den­tial Computing: A ar­qui­te­tura Hopper garante que seus dados, modelos de IA e al­go­rit­mos estejam pro­te­gi­dos mesmo durante o pro­ces­sa­mento.
  • GPU de Múltiplas Ins­tân­cias (MIG) 2.0: A segunda geração da tec­no­lo­gia MIG permite dividir uma única Hopper GPU em até sete ins­tân­cias isoladas, o que pos­si­bi­lita que várias pessoas processem di­fe­ren­tes cargas de trabalho si­mul­ta­ne­a­mente, sem in­ter­fe­rir umas nas outras.
  • Ins­tru­ções DPX: Com as ins­tru­ções DPX, é possível calcular al­go­rit­mos pro­gra­ma­dos di­na­mi­ca­mente até sete vezes mais rápido do que com GPUs da ar­qui­te­tura Ampere.

Para que casos de uso Hopper GPUs são adequadas?

As GPUs da NVIDIA baseadas na ar­qui­te­tura Hopper são pro­je­ta­das para workloads de alto de­sem­pe­nho dos mais diversos tipos. Os prin­ci­pais campos de aplicação das Hopper GPUs incluem:

  • Tarefas de in­fe­rên­cia: Pro­ces­sa­do­res gráficos estão entre as soluções líderes do setor para o uso produtivo de in­fe­rên­cia de IA. Seja em sistemas de re­co­men­da­ção no e-commerce, di­ag­nós­tico médico ou previsões em tempo real para condução autônoma, Hopper GPUs podem processar grandes volumes de dados de forma rápida e eficiente.
  • In­te­li­gên­cia ar­ti­fi­cial ge­ne­ra­tiva: GPUs de alto de­sem­pe­nho fornecem o poder de com­pu­ta­ção ne­ces­sá­rio para treinar e executar fer­ra­men­tas com in­te­li­gên­cia ar­ti­fi­cial ge­ne­ra­tiva. O pro­ces­sa­mento paralelo permite cálculos mais efi­ci­en­tes em tarefas criativas, como geração de texto, imagem e vídeo.
  • Trei­na­mento de Deep Learning: Com um alto poder de pro­ces­sa­mento, Hopper GPUs são ideais para treinar grandes redes neurais. A ar­qui­te­tura Hopper pro­por­ci­ona uma redução sig­ni­fi­ca­tiva nos tempos de trei­na­mento de modelos de IA.
  • IA de con­ver­sa­ção: Devido à sua oti­mi­za­ção para o pro­ces­sa­mento de linguagem natural (PLN), as Hopper GPUs são ideais para sistemas de linguagem as­sis­ti­dos por IA, como as­sis­ten­tes virtuais e chatbots com in­te­li­gên­cia ar­ti­fi­cial. Elas aceleram o pro­ces­sa­mento de grandes modelos de IA e garantem uma interação res­pon­siva que se integra per­fei­ta­mente aos processos em­pre­sa­ri­ais.
  • Análise de dados e Big Data: Hopper GPUs lidam com enormes volumes de dados em alta ve­lo­ci­dade e aceleram cálculos complexos por meio de pro­ces­sa­mento paralelo massivo. Isso permite que empresas analisem Big Data mais ra­pi­da­mente, para fazer previsões e tomar as medidas cabíveis.
  • Ciência e pesquisa: Como essas GPUs são pro­je­ta­das para apli­ca­ções de HPC, elas são ideais para si­mu­la­ções e cálculos altamente complexos. Hopper GPUs são uti­li­za­das, por exemplo, na as­tro­fí­sica, na modelagem climática e na química com­pu­ta­ci­o­nal.

Modelos atuais da NVIDIA

Com a NVIDIA H100 e a NVIDIA H200, a empresa norte-americana já lançou duas Hopper GPUs no mercado. A NVIDIA A30, por outro lado, ainda se baseia na ar­qui­te­tura Ampere. Na verdade, a H200 não é exa­ta­mente um modelo in­de­pen­dente, mas uma evolução da H100. As di­fe­ren­ças entre as duas GPUs são ilus­tra­das pela lista a seguir:

  • Ar­ma­ze­na­mento e largura de banda: A NVIDIA H100 é equipada com uma memória HBM3 de 80 GB, já a GPU H200 tem memória HBM3e com ca­pa­ci­dade de 141 GB. Em termos de largura de banda de memória, a H200 também está à frente com 4,8 TB/s em com­pa­ra­ção com 2 TB/s da H100.
  • De­sem­pe­nho para in­fe­rên­cia de IA: Em com­pa­ra­ção, a NVIDIA H200 oferece o dobro de de­sem­pe­nho de in­fe­rên­cia para modelos como o LLaMA 2-70 B. Isso permite não apenas um pro­ces­sa­mento mais rápido, mas também uma es­ca­la­bi­li­dade eficiente.
  • Apli­ca­ções HPC e cálculos ci­en­tí­fi­cos: A H100 já oferece um nível de de­sem­pe­nho de primeira classe para cálculos complexos, que a H200 supera ainda mais. A ve­lo­ci­dade de in­fe­rên­cia é até duas vezes maior, e o de­sem­pe­nho HPC é cerca de 20% superior.
Ir para o menu principal