A quan­ti­dade de TeraFLOPS (TFLOPS) indica quantos biliões de operações ma­te­má­ti­cas com números de vírgula flutuante um com­pu­ta­dor pode realizar por segundo. Este valor serve como medida do de­sem­pe­nho dos pro­ces­sa­do­res, es­pe­ci­al­mente das GPUs e dos su­per­com­pu­ta­do­res. Os TFLOPS são es­pe­ci­al­mente re­le­van­tes para apli­ca­ções que requerem cálculos in­ten­si­vos, como in­te­li­gên­cia ar­ti­fi­cial, si­mu­la­ções ci­en­tí­fi­cas e apren­di­za­gem au­to­má­tica.

O que são FLOPS e para que servem?

FLOPS é a abre­vi­a­tura de Floating Point Ope­ra­ti­ons per Second(operações de ponto flutuante por segundo). Trata-se de uma unidade de medida do de­sem­pe­nho com­pu­ta­ci­o­nal de um com­pu­ta­dor. Uma operação de ponto flutuante é um cálculo ma­te­má­tico com números que podem ter decimais, ao contrário dos números inteiros. Isto é es­pe­ci­al­mente im­por­tante em apli­ca­ções que exigem alta precisão nos cálculos.

Os FLOPS são usados prin­ci­pal­mente em cálculos ci­en­tí­fi­cos, si­mu­la­ções, in­te­li­gên­cia ar­ti­fi­cial, apren­di­za­gem au­to­má­tica e apli­ca­ções gráficas. De­sem­pe­nham um papel central em diversas áreas, como o pro­ces­sa­mento de imagens médicas e si­mu­la­ções físicas. Também são fun­da­men­tais no setor fi­nan­ceiro, por exemplo, na análise de dados de mercado. Na indústria de vi­de­o­jo­gos, os FLOPS de­ter­mi­nam o de­sem­pe­nho gráfico das GPUs modernas. Graças ao aumento do número de FLOPS, os com­pu­ta­do­res atuais podem calcular efeitos físicos cada vez mais realistas e gráficos em alta resolução.

A medição dos FLOPS é nor­mal­mente realizada através de testes de de­sem­pe­nho (ben­ch­marks) con­ce­bi­dos es­pe­ci­fi­ca­mente para esse fim, que de­ter­mi­nam a quan­ti­dade de operações de ponto flutuante por segundo. Alguns dos ben­ch­marks mais uti­li­za­dos são o LINPACK, utilizado prin­ci­pal­mente para su­per­com­pu­ta­do­res, e os ben­ch­marks FP32/FP64, que avaliam o de­sem­pe­nho das GPUs. Estes testes executam cálculos ma­te­má­ti­cos complexos para verificar quantas operações por segundo um sistema pode realizar. Os fa­bri­can­tes costumam indicar os valores de FLOPS de forma teórica, com base na ar­qui­te­tura do hardware, embora em apli­ca­ções reais estes valores possam variar de acordo com a carga de trabalho e a efi­ci­ên­cia do sistema.

Quantos FLOPS equivalem a um TeraFLOPS?

Um TeraFLOPS equivale exa­ta­mente a um bilião (1.000.000.000.000 ou1012) de operações de ponto flutuante por segundo. Isto significa que um pro­ces­sa­dor com uma ca­pa­ci­dade de 1 TFLOPS pode realizar um bilião de operações ma­te­má­ti­cas com números decimais em apenas um segundo.

Explicado de outra forma: um com­pu­ta­dor que exe­cu­tasse apenas uma operação de ponto flutuante por segundo levaria mais de 31 000 anos para realizar a mesma quan­ti­dade de cálculos. Por isso, um TeraFLOPS é uma unidade de pro­ces­sa­mento ex­tre­ma­mente potente, que permite executar apli­ca­ções modernas em tempo real.

Que outras unidades de FLOPS existem e como se convertem em TFLOPS?

Existem di­fe­ren­tes unidades de FLOPS que variam de acordo com a ca­pa­ci­dade de pro­ces­sa­mento de um sistema. A conversão para TFLOPS é feita por meio de potências de dez:

Unidade Valor em FLOPS Equi­va­lên­cia em TFLOPS
KiloFLOPS 103 FLOPS (1.000) 10-9 TFLOPS
MegaFLOPS 106 FLOPS (1 milhão) 10-6 TFLOPS
GigaFLOPS 109 FLOPS (1000 milhões) 10-3 TFLOPS
TeraFLOPS 1012 FLOPS (1 bilião) 1 TFLOP
PetaFLOPS 1015 FLOPS (1000 biliões) 103 TFLOPS
ExaFLOPS 1018 FLOPS (1 trilhão) 106 TFLOPS

Hoje em dia, os su­per­com­pu­ta­do­res são medidos em PetaFLOPS e até mesmo em ExaFLOPS, enquanto as placas gráficas de gama alta são nor­mal­mente avaliadas em TeraFLOPS.

Quantos FLOPS atingem os com­pu­ta­do­res e GPUs modernos?

Os com­pu­ta­do­res modernos na área de High Per­for­mance Computing e GPUs al­can­ça­ram valores im­pres­si­o­nan­tes de FLOPS. Por exemplo, a NVIDIA H100, uma das GPUs mais potentes para apli­ca­ções de in­te­li­gên­cia ar­ti­fi­cial e centros de dados, chega a 989 TeraFLOPS em cálculos com Tensor Cores FP32. Isso a torna ideal para grandes redes neurais e si­mu­la­ções.

A NVIDIA A30, uma GPU otimizada para centros de dados, atinge apro­xi­ma­da­mente 10 TFLOPS e é es­pe­ci­al­mente adequada para trei­na­mento e in­fe­rên­cia em IA. Em com­pa­ra­ção, uma NVIDIA RTX 4090, voltada para gamers, pode ul­tra­pas­sar 100 TFLOPS com over­cloc­king e permite gráficos ex­tre­ma­mente realistas.

Os su­per­com­pu­ta­do­res são ainda mais potentes: o su­per­com­pu­ta­dor Frontier ul­tra­passa a marca de 1 ExaFLOPS e é utilizado para si­mu­la­ções ci­en­tí­fi­cas altamente complexas. Outros su­per­com­pu­ta­do­res de alto de­sem­pe­nho, como o Fugaku no Japão, também uti­li­za­dos na in­ves­ti­ga­ção, situam-se em faixas de de­sem­pe­nho se­me­lhan­tes.

Ir para o menu principal