Publicidade

Por que a IA usa tanta energia? Há duas partes focais: treinamento e inferência

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
Airam Dato-on/Unsplash
Airam Dato-on/Unsplash

Por trás da praticidade de ferramentas como os chatbots, existe um custo energético enorme. Centros de dados que sustentam a inteligência artificial já representam mais de 1,5% do consumo global de energia, e especialistas projetam que esse número pode dobrar até 2030. Mas afinal, por que a IA consome tanta eletricidade? A resposta se resume a dois processos principais: treinamento e inferência.

Treinar um modelo de inteligência artificial é como ensinar um cérebro artificial a reconhecer padrões e prever respostas. Para isso, são utilizados conjuntos massivos de dados que precisam ser processados repetidamente até que o sistema consiga aprender.

Treinamento: o que antecede o lançamento da IA

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Esse processo não é nada leve. Os modelos atuais são tão grandes que não cabem em apenas uma GPU ou em um único servidor. Por isso, é necessário utilizar vários servidores equipados com múltiplas placas gráficas, que funcionam em paralelo durante semanas ou até meses.

Um exemplo ajuda a dimensionar: treinar o GPT-4 consumiu cerca de 50 gigawatt-horas de energia, o equivalente a abastecer uma cidade como São Francisco por três dias inteiros. Isso acontece porque cada servidor pode demandar até 6,5 quilowatts de potência contínua, e centenas deles são utilizados ao mesmo tempo. Quanto maior o modelo, maior a conta de energia.

O treinamento é a fase em que mais se consome eletricidade, principalmente porque existe uma crença de que “quanto maior o modelo, melhor o resultado”. Esse paradigma ainda guia a indústria, elevando a cada ano a escala dos modelos e, consequentemente, do consumo energético.

Inferência: a energia gasta em cada interação

Se o treinamento é a fase de preparação, a inferência é o momento da prática, quando a IA gera respostas para perguntas dos usuários. Embora a inferência demande menos poder de processamento do que o treinamento, o grande volume de interações faz dela outro ponto crítico de consumo.

Para ter uma ideia, apenas o ChatGPT processa hoje mais de 2,5 bilhões de prompts por dia. Cada solicitação, aparentemente simples, exige que o modelo percorra redes complexas de cálculos antes de entregar uma resposta instantânea. Isso significa que milhares de servidores precisam estar sempre ativos, em funcionamento contínuo, para atender à enorme demanda global.

E não é apenas a OpenAI que consome essa energia: outras empresas, como Google, Microsoft e Meta, também operam modelos semelhantes em grande escala. O problema é que esses gigantes do setor não divulgam números detalhados, dificultando a real compreensão do impacto ambiental da IA.

Continua após a publicidade

Responsabilidade no uso da IA

Um dos maiores desafios atuais é a falta de transparência sobre o consumo energético das grandes plataformas. Sem informações claras, fica difícil para os usuários e para os formuladores de políticas públicas entenderem o real impacto ambiental da inteligência artificial. A responsabilidade não é só das empresas de tecnologia, e envolve também os usuários e dos governos. 

Leia também:

Continua após a publicidade

VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita? É de graça mesmo? E a paga?

Fonte: Live Science