A quan­ti­dade de TeraFLOPS (TFLOPS) indica quantos trilhões de operações ma­te­má­ti­cas com números de ponto flutuante um com­pu­ta­dor é capaz de executar por segundo. Esse valor é usado como métrica para avaliar a ca­pa­ci­dade de pro­ces­sa­do­res, es­pe­ci­al­mente GPUs e su­per­com­pu­ta­do­res. TFLOPS são par­ti­cu­lar­mente re­le­van­tes em apli­ca­ções com alta demanda com­pu­ta­ci­o­nal, como in­te­li­gên­cia ar­ti­fi­cial, si­mu­la­ções ci­en­tí­fi­cas e apren­di­zado de máquina.

O que são FLOPS e para que servem?

FLOPS é a sigla para Floating Point Operations per Second (operações de ponto flutuante por segundo). Trata-se de uma unidade de medida usada para expressar o de­sem­pe­nho com­pu­ta­ci­o­nal de um sistema. Uma operação de ponto flutuante é um cálculo com números reais (decimais), diferente das operações com números inteiros. Esse tipo de cálculo é essencial em apli­ca­ções in­ten­si­vas em pro­ces­sa­mento, nas quais é exigido um alto grau de precisão.

FLOPS são uti­li­za­dos prin­ci­pal­mente em cálculos ci­en­tí­fi­cos, si­mu­la­ções, in­te­li­gên­cia ar­ti­fi­cial (IA), apren­di­zado de máquina e apli­ca­ções gráficas. Eles de­sem­pe­nham um papel central em áreas como pro­ces­sa­mento de imagens médicas e si­mu­la­ções físicas. No setor fi­nan­ceiro, FLOPS são fun­da­men­tais na análise de grandes volumes de dados de mercado. Já na indústria de jogos, de­ter­mi­nam o de­sem­pe­nho gráfico das GPUs modernas. Graças ao aumento contínuo nos valores de FLOPS, os com­pu­ta­do­res atuais conseguem simular com mais precisão com­por­ta­men­tos físicos complexos e gráficos de alta definição.

A medição de FLOPS é nor­mal­mente feita por meio de testes de benchmark es­pe­cí­fi­cos, de­sen­vol­vi­dos para calcular a quan­ti­dade de operações de ponto flutuante re­a­li­za­das por segundo. Entre os mais usados estão o LINPACK, focado em su­per­com­pu­ta­do­res, e os ben­ch­marks voltados a cálculos FP32/FP64, aplicados a GPUs. Esses testes envolvem operações ma­te­má­ti­cas complexas que medem quantas operações por segundo um sistema é capaz de realizar. Os fa­bri­can­tes ge­ral­mente divulgam o de­sem­pe­nho teórico com base na ar­qui­te­tura do hardware, mas o de­sem­pe­nho real pode variar conforme a carga de trabalho e a efi­ci­ên­cia da aplicação.

Dedicated Servers
Per­for­mance through in­no­va­tion

O encontro do hardware com a nuvem: servidor dedicado com nuvem integrada e cobrança por minuto, incluindo as­sis­tente pessoal!

  • Dedicated en­ter­prise hardware
  • Con­fi­gu­ra­ble hardware equipment
  • ISO-certified data centers

Quantos FLOPS equivalem a um TFLOPS?

Um TeraFLOPS equivale exa­ta­mente a um trilhão (1.000.000.000.000 ou 1012) de operações de ponto flutuante por segundo. Isso significa que um pro­ces­sa­dor com 1 TFLOPS é capaz de executar um trilhão de operações ma­te­má­ti­cas com números reais em apenas um segundo.

Para efeito de com­pa­ra­ção: um com­pu­ta­dor que re­a­li­zasse apenas 1 FLOP por segundo levaria mais de 31.000 anos para atingir esse volume de cálculos. Por isso, TFLOPS é uma unidade ex­tre­ma­mente poderosa, que permite a execução de apli­ca­ções modernas em tempo real.

Quais são as outras unidades de FLOPS e como converter para TFLOPS?

Existem di­fe­ren­tes unidades de FLOPS, conforme a ca­pa­ci­dade de pro­ces­sa­mento dos sistemas. A conversão para TFLOPS segue potências de base 10:

Unidade Valor em FLOPS Equi­va­lên­cia em TFLOPS
KiloFLOPS 103 FLOPS (1.000) 10-9 TFLOPS
MegaFLOPS 106 FLOPS (1 milhão) 10-6 TFLOPS
GigaFLOPS 109 FLOPS (1 bilhão) 10-3 TFLOPS
TeraFLOPS 1012 FLOPS (1 trilhão) 1 TFLOPS
PetaFLOPS 1015 FLOPS (1 qua­tri­lhão) 103 TFLOPS
ExaFLOPS 1018 FLOPS (1 quin­ti­lhão) 106 TFLOPS

Hoje, os su­per­com­pu­ta­do­res são avaliados em PetaFLOPS ou até mesmo ExaFLOPS, enquanto GPUs de alto de­sem­pe­nho costumam operar na faixa dos TeraFLOPS.

Qual é a ca­pa­ci­dade de FLOPS dos com­pu­ta­do­res e GPUs modernos?

Atu­al­mente, com­pu­ta­do­res voltados para com­pu­ta­ção de alto de­sem­pe­nho (HPC) e GPUs alcançam valores im­pres­si­o­nan­tes em FLOPS. A NVIDIA H100, uma das GPUs mais potentes para apli­ca­ções de IA e data centers, chega a até 989 TeraFLOPS em cálculos FP32 com Tensor Cores. Isso a torna ideal para grandes redes neurais e si­mu­la­ções complexas.

A NVIDIA A30, otimizada para centros de dados, entrega cerca de 10 TFLOPS e é es­pe­ci­al­mente adequada para tarefas de trei­na­mento e in­fe­rên­cia em IA. Em com­pa­ra­ção, a NVIDIA RTX 4090, voltada ao público gamer, ul­tra­passa os 100 TFLOPS com overclock, per­mi­tindo gráficos ex­tre­ma­mente realistas.

Su­per­com­pu­ta­do­res operam em uma escala ainda maior: o Frontier ul­tra­passa a marca de 1 ExaFLOPS e é usado em si­mu­la­ções ci­en­tí­fi­cas de altíssima com­ple­xi­dade. Outros sistemas de ponta, como o Fugaku, do Japão, também estão nesse patamar de de­sem­pe­nho e são em­pre­ga­dos em pesquisas ci­en­tí­fi­cas avançadas.

Ir para o menu principal