Las GPU con ar­qui­te­c­tu­ra Hopper, más conocidas como Hopper GPU, son la última ge­ne­ra­ción de GPU de alto re­n­di­mie­n­to de NVIDIA, diseñadas es­pe­cí­fi­ca­me­n­te para in­te­li­ge­n­cia ar­ti­fi­cial (IA) y co­mpu­tación de alto re­n­di­mie­n­to (HPC), lo que permite la es­ca­la­bi­li­dad de una amplia variedad de cargas de trabajo. Se basan en una ar­qui­te­c­tu­ra in­no­va­do­ra con potentes núcleos Tensor y combinan diversas te­c­no­lo­gías avanzadas para lograr la máxima efi­cie­n­cia. Las Hopper GPU de NVIDIA son ideales para tareas como in­fe­re­n­cia de IA, en­tre­na­mie­n­to de apre­n­di­za­je profundo e in­te­li­ge­n­cia ar­ti­fi­cial ge­ne­ra­ti­va.

La ar­qui­te­c­tu­ra de las Hopper GPU de NVIDIA

El término “Hopper GPU” proviene de la ar­qui­te­c­tu­ra Hopper, una mi­cro­ar­qui­te­c­tu­ra de GPU que co­n­s­ti­tu­ye la base de estos pro­ce­sa­do­res gráficos de alto re­n­di­mie­n­to. Está op­ti­mi­za­da para cargas de trabajo de in­te­li­ge­n­cia ar­ti­fi­cial (IA) y apli­ca­cio­nes de co­mpu­tación de alto re­n­di­mie­n­to (HPC). Las Hopper GPU se fabrican por TSMC con te­c­no­lo­gía de 4 na­nó­me­tros y cuentan con 80 000 millones de tra­n­si­s­to­res, lo que las sitúa entre las tarjetas gráficas más avanzadas del mercado.

Con la ar­qui­te­c­tu­ra Hopper, NVIDIA combina la última ge­ne­ra­ción de núcleos Tensor con cinco in­no­va­cio­nes clave: Tra­n­s­fo­r­mer Engine, NVLink/NVSwitch/NVLink Switch, co­mpu­tación co­n­fi­de­n­cial, GPU de múltiples in­s­ta­n­cias (MIG) de segunda ge­ne­ra­ción y las in­s­tru­c­cio­nes DPX. Gracias a estas te­c­no­lo­gías, las Hopper GPU logran hasta 30 veces más velocidad en tareas de in­fe­re­n­cia de IA en co­m­pa­ra­ción con la ge­ne­ra­ción anterior (según pruebas basadas en el chatbot Megatron 530B de NVIDIA, el modelo de lenguaje ge­ne­ra­ti­vo más grande del mundo).

Las funciones in­no­va­do­ras de las Hopper GPU

Las Hopper GPU in­co­r­po­ran diversas funciones avanzadas que mejoran el re­n­di­mie­n­to, la efi­cie­n­cia y la es­ca­la­bi­li­dad. A co­n­ti­nua­ción, pre­se­n­ta­mos las pri­n­ci­pa­les in­no­va­cio­nes:

  • Tra­n­s­fo­r­mer Engine: esta te­c­no­lo­gía permite entrenar modelos de in­te­li­ge­n­cia ar­ti­fi­cial hasta nueve veces más rápido. En tareas de in­fe­re­n­cia con modelos de lenguaje, las Hopper GPU alcanzan una ace­le­ra­ción de hasta 30 veces en co­m­pa­ra­ción con la ge­ne­ra­ción anterior.
  • NVLink Switch System: la cuarta ge­ne­ra­ción de NVLink pro­po­r­cio­na un ancho de banda bi­di­re­c­cio­nal de 900 GB/s entre GPU, mientras que NVSwitch mejora la es­ca­la­bi­li­dad de los clústeres H200. Esto permite procesar modelos de IA con billones de pa­rá­me­tros de forma eficiente.
  • Co­mpu­tación co­n­fi­de­n­cial: la ar­qui­te­c­tu­ra Hopper garantiza la seguridad de los datos, modelos de IA y al­go­ri­t­mos incluso durante su pro­ce­sa­mie­n­to.
  • GPU de múltiples in­s­ta­n­cias (MIG) 2.0: la segunda ge­ne­ra­ción de esta te­c­no­lo­gía permite dividir una Hopper GPU en hasta siete in­s­ta­n­cias aisladas, pe­r­mi­tie­n­do que múltiples usuarios ejecuten cargas de trabajo si­mu­l­tá­nea­me­n­te sin in­te­r­fe­re­n­cias.
  • In­s­tru­c­cio­nes DPX: estas in­s­tru­c­cio­nes optimizan el pro­ce­sa­mie­n­to de al­go­ri­t­mos pro­gra­ma­dos di­ná­mi­ca­me­n­te y alcanzan una velocidad hasta siete veces mayor que con las GPU de ar­qui­te­c­tu­ra Ampere.
Nota

En nuestro artículo “Co­m­pa­ra­ción de GPU para se­r­vi­do­res” ana­li­za­mos los mejores pro­ce­sa­do­res gráficos para tu servidor. Además, en la Digital Guide en­co­n­tra­rás toda la in­fo­r­ma­ción sobre los se­r­vi­do­res con GPU.

¿Para qué sirven las Hopper GPU?

Las GPU de NVIDIA basadas en la ar­qui­te­c­tu­ra Hopper están diseñadas para cargas de trabajo de alto re­n­di­mie­n­to en diversas áreas. Sus pri­n­ci­pa­les apli­ca­cio­nes incluyen:

  • In­fe­re­n­cia de IA: estas GPU se en­cue­n­tran entre las so­lu­cio­nes líderes para la im­ple­me­n­ta­ción de modelos de in­fe­re­n­cia de in­te­li­ge­n­cia ar­ti­fi­cial. Son ideales para sistemas de re­co­me­n­da­ción en comercio ele­c­tró­ni­co, dia­g­nó­s­ti­co médico o pre­di­c­cio­nes en tiempo real para la co­n­du­c­ción autónoma, ya que pueden procesar grandes volúmenes de datos de forma rápida y eficiente.
  • In­te­li­ge­n­cia ar­ti­fi­cial ge­ne­ra­ti­va: las Hopper GPU pro­po­r­cio­nan la potencia de cálculo necesaria para entrenar y ejecutar he­rra­mie­n­tas de IA ge­ne­ra­ti­va. Gracias al pro­ce­sa­mie­n­to en paralelo, facilitan cálculos más efi­cie­n­tes en la ge­ne­ra­ción de texto, imágenes y vídeos.
  • En­tre­na­mie­n­to de apre­n­di­za­je profundo: su alto re­n­di­mie­n­to co­mpu­tacio­nal las hace ideales para entrenar grandes redes neu­ro­na­les. La ar­qui­te­c­tu­ra Hopper reduce si­g­ni­fi­ca­ti­va­me­n­te los tiempos de en­tre­na­mie­n­to de modelos de IA.
  • IA co­n­ve­r­sa­cio­nal: gracias a su op­ti­mi­za­ción para el pro­ce­sa­mie­n­to del lenguaje natural (NLP), las Hopper GPU son ideales para sistemas de co­n­ve­r­sa­ción basados en IA, como asi­s­te­n­tes virtuales y chatbots de IA. Aceleran el pro­ce­sa­mie­n­to de modelos avanzados y ga­ra­n­ti­zan in­ter­ac­cio­nes fluidas que pueden in­te­grar­se en procesos em­pre­sa­ria­les, como la atención al cliente.
  • Análisis de datos y big data: estas GPU pueden manejar enormes volúmenes de datos a gran velocidad y acelerar cálculos complejos mediante pro­ce­sa­mie­n­to masivo en paralelo. Esto permite a las empresas analizar datos masivos o big data con mayor rapidez para realizar pre­di­c­cio­nes y tomar de­ci­sio­nes es­tra­té­gi­cas.
  • Ciencia e in­ve­s­ti­ga­ción: al estar diseñadas para apli­ca­cio­nes de co­mpu­tación de alto re­n­di­mie­n­to (HPC), las Hopper GPU son perfectas para las si­mu­la­cio­nes y los cálculos complejos. Se utilizan en campos como la as­tro­fí­si­ca, la mo­de­li­za­ción climática y la química co­mpu­tacio­nal.

Modelos actuales de NVIDIA

NVIDIA ha lanzado al mercado dos GPU basadas en la ar­qui­te­c­tu­ra Hopper: la NVIDIA H100 y la NVIDIA H200. Por otra parte, la NVIDIA A30 sigue uti­li­za­n­do la ar­qui­te­c­tu­ra Ampere. La H200, sin embargo, no es un modelo co­m­ple­ta­me­n­te nuevo, sino una evolución de la H100. A co­n­ti­nua­ción, co­m­pa­ra­mos sus pri­n­ci­pa­les di­fe­re­n­cias:

  • Memoria y ancho de banda: la NVIDIA H100 cuenta con 80 GB de memoria HBM3, mientras que la H200 incorpora 141 GB de memoria HBM3e. Además, la H200 ofrece una mayor anchura de banda de 4,8 TB/s frente a los 2 TB/s de la H100.
  • Re­n­di­mie­n­to en in­fe­re­n­cia de IA: la NVIDIA H200 duplica el re­n­di­mie­n­to en in­fe­re­n­cia para modelos como LLaMA 2-70B, lo que permite una mayor velocidad de pro­ce­sa­mie­n­to y una es­ca­la­bi­li­dad más eficiente.
  • Apli­ca­cio­nes HPC y cálculos cie­n­tí­fi­cos: la H100 ya ofrece un re­n­di­mie­n­to ex­ce­p­cio­nal en cálculos complejos, pero la H200 la supera con una velocidad de in­fe­re­n­cia hasta el doble de rápida y un re­n­di­mie­n­to en HPC un 20 % superior.
Ir al menú principal