Por que a IA usa tanta energia? Há duas partes focais: treinamento e inferência
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

Por trás da praticidade de ferramentas como os chatbots, existe um custo energético enorme. Centros de dados que sustentam a inteligência artificial já representam mais de 1,5% do consumo global de energia, e especialistas projetam que esse número pode dobrar até 2030. Mas afinal, por que a IA consome tanta eletricidade? A resposta se resume a dois processos principais: treinamento e inferência.
- A OpenAI tem uma solução para as alucinações do ChatGPT, mas você não vai gostar
- Avaliadores de IA | Como trabalham os humanos que treinam o Gemini do Google
Treinar um modelo de inteligência artificial é como ensinar um cérebro artificial a reconhecer padrões e prever respostas. Para isso, são utilizados conjuntos massivos de dados que precisam ser processados repetidamente até que o sistema consiga aprender.
Treinamento: o que antecede o lançamento da IA
Esse processo não é nada leve. Os modelos atuais são tão grandes que não cabem em apenas uma GPU ou em um único servidor. Por isso, é necessário utilizar vários servidores equipados com múltiplas placas gráficas, que funcionam em paralelo durante semanas ou até meses.
Um exemplo ajuda a dimensionar: treinar o GPT-4 consumiu cerca de 50 gigawatt-horas de energia, o equivalente a abastecer uma cidade como São Francisco por três dias inteiros. Isso acontece porque cada servidor pode demandar até 6,5 quilowatts de potência contínua, e centenas deles são utilizados ao mesmo tempo. Quanto maior o modelo, maior a conta de energia.
O treinamento é a fase em que mais se consome eletricidade, principalmente porque existe uma crença de que “quanto maior o modelo, melhor o resultado”. Esse paradigma ainda guia a indústria, elevando a cada ano a escala dos modelos e, consequentemente, do consumo energético.
Inferência: a energia gasta em cada interação
Se o treinamento é a fase de preparação, a inferência é o momento da prática, quando a IA gera respostas para perguntas dos usuários. Embora a inferência demande menos poder de processamento do que o treinamento, o grande volume de interações faz dela outro ponto crítico de consumo.
Para ter uma ideia, apenas o ChatGPT processa hoje mais de 2,5 bilhões de prompts por dia. Cada solicitação, aparentemente simples, exige que o modelo percorra redes complexas de cálculos antes de entregar uma resposta instantânea. Isso significa que milhares de servidores precisam estar sempre ativos, em funcionamento contínuo, para atender à enorme demanda global.
E não é apenas a OpenAI que consome essa energia: outras empresas, como Google, Microsoft e Meta, também operam modelos semelhantes em grande escala. O problema é que esses gigantes do setor não divulgam números detalhados, dificultando a real compreensão do impacto ambiental da IA.
Responsabilidade no uso da IA
Um dos maiores desafios atuais é a falta de transparência sobre o consumo energético das grandes plataformas. Sem informações claras, fica difícil para os usuários e para os formuladores de políticas públicas entenderem o real impacto ambiental da inteligência artificial. A responsabilidade não é só das empresas de tecnologia, e envolve também os usuários e dos governos.
Leia também:
- IA consegue prever doenças até 20 anos antes dos sintomas começarem a aparecer
- ChatGPT vai 'prever idade' de usuários para filtrar respostas a adolescentes
VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita? É de graça mesmo? E a paga?
Fonte: Live Science