TeraFLOPS (TFLOPS)
A quantidade de TeraFLOPS (TFLOPS) indica quantos biliões de operações matemáticas com números de vírgula flutuante um computador pode realizar por segundo. Este valor serve como medida do desempenho dos processadores, especialmente das GPUs e dos supercomputadores. Os TFLOPS são especialmente relevantes para aplicações que requerem cálculos intensivos, como inteligência artificial, simulações científicas e aprendizagem automática.
O que são FLOPS e para que servem?
FLOPS é a abreviatura de Floating Point Operations per Second(operações de ponto flutuante por segundo). Trata-se de uma unidade de medida do desempenho computacional de um computador. Uma operação de ponto flutuante é um cálculo matemático com números que podem ter decimais, ao contrário dos números inteiros. Isto é especialmente importante em aplicações que exigem alta precisão nos cálculos.
Os FLOPS são usados principalmente em cálculos científicos, simulações, inteligência artificial, aprendizagem automática e aplicações gráficas. Desempenham um papel central em diversas áreas, como o processamento de imagens médicas e simulações físicas. Também são fundamentais no setor financeiro, por exemplo, na análise de dados de mercado. Na indústria de videojogos, os FLOPS determinam o desempenho gráfico das GPUs modernas. Graças ao aumento do número de FLOPS, os computadores atuais podem calcular efeitos físicos cada vez mais realistas e gráficos em alta resolução.
A medição dos FLOPS é normalmente realizada através de testes de desempenho (benchmarks) concebidos especificamente para esse fim, que determinam a quantidade de operações de ponto flutuante por segundo. Alguns dos benchmarks mais utilizados são o LINPACK, utilizado principalmente para supercomputadores, e os benchmarks FP32/FP64, que avaliam o desempenho das GPUs. Estes testes executam cálculos matemáticos complexos para verificar quantas operações por segundo um sistema pode realizar. Os fabricantes costumam indicar os valores de FLOPS de forma teórica, com base na arquitetura do hardware, embora em aplicações reais estes valores possam variar de acordo com a carga de trabalho e a eficiência do sistema.
Quantos FLOPS equivalem a um TeraFLOPS?
Um TeraFLOPS equivale exatamente a um bilião (1.000.000.000.000 ou1012) de operações de ponto flutuante por segundo. Isto significa que um processador com uma capacidade de 1 TFLOPS pode realizar um bilião de operações matemáticas com números decimais em apenas um segundo.
Explicado de outra forma: um computador que executasse apenas uma operação de ponto flutuante por segundo levaria mais de 31 000 anos para realizar a mesma quantidade de cálculos. Por isso, um TeraFLOPS é uma unidade de processamento extremamente potente, que permite executar aplicações modernas em tempo real.
Que outras unidades de FLOPS existem e como se convertem em TFLOPS?
Existem diferentes unidades de FLOPS que variam de acordo com a capacidade de processamento de um sistema. A conversão para TFLOPS é feita por meio de potências de dez:
| Unidade | Valor em FLOPS | Equivalência em TFLOPS |
|---|---|---|
| KiloFLOPS | 103 FLOPS (1.000) | 10-9 TFLOPS |
| MegaFLOPS | 106 FLOPS (1 milhão) | 10-6 TFLOPS |
| GigaFLOPS | 109 FLOPS (1000 milhões) | 10-3 TFLOPS |
| TeraFLOPS | 1012 FLOPS (1 bilião) | 1 TFLOP |
| PetaFLOPS | 1015 FLOPS (1000 biliões) | 103 TFLOPS |
| ExaFLOPS | 1018 FLOPS (1 trilhão) | 106 TFLOPS |
Hoje em dia, os supercomputadores são medidos em PetaFLOPS e até mesmo em ExaFLOPS, enquanto as placas gráficas de gama alta são normalmente avaliadas em TeraFLOPS.
Quantos FLOPS atingem os computadores e GPUs modernos?
Os computadores modernos na área de High Performance Computing e GPUs alcançaram valores impressionantes de FLOPS. Por exemplo, a NVIDIA H100, uma das GPUs mais potentes para aplicações de inteligência artificial e centros de dados, chega a 989 TeraFLOPS em cálculos com Tensor Cores FP32. Isso a torna ideal para grandes redes neurais e simulações.
A NVIDIA A30, uma GPU otimizada para centros de dados, atinge aproximadamente 10 TFLOPS e é especialmente adequada para treinamento e inferência em IA. Em comparação, uma NVIDIA RTX 4090, voltada para gamers, pode ultrapassar 100 TFLOPS com overclocking e permite gráficos extremamente realistas.
Os supercomputadores são ainda mais potentes: o supercomputador Frontier ultrapassa a marca de 1 ExaFLOPS e é utilizado para simulações científicas altamente complexas. Outros supercomputadores de alto desempenho, como o Fugaku no Japão, também utilizados na investigação, situam-se em faixas de desempenho semelhantes.