Sozinha, IA generativa do Google poderá gastar tanta energia quanto a Irlanda
Por Augusto Dala Costa • Editado por Luciana Zaramela |
Quando falamos de inteligência artificial e modelos de linguagem, geralmente somos lembrados da quantidade de dados usados para treinar e alimentar seus sistemas. Outro elemento que aparece em abundância, no entanto, é o consumo de energia — só para o treinamento do ChatGPT, por exemplo, que roda em cerca de 10.000 placas de vídeo NVIDIA, o uso de energia chegou a 1.287 megaWatt/hora, suficiente para alimentar 121 casas por um ano.
O avanço das IAs e de seus chatbots traz diversas possibilidades tecnológicas, possibilitando cálculos e automatizações inéditas que poderão ajudar o ser humanos cada vez mais. Segundo um novo estudo, publicado na revista científica Joule, precisamos pensar não apenas nos prós, mas também nos contras, como as demandas energéticas criadas pela tecnologia.
Apenas em 2021, por exemplo, o uso de energia da Google foi de 18,3 TWh (TeraWatt/hora, que são 10¹² Watts/hora), com a IA ocupando de 10% a 15% do total. No pior cenário com o uso da IA generativa Bard ou outras criadas pela empresa, como calculado na pesquisa, a Google chegaria a usar 29,3 TWh por ano, consumindo tanta energia quanto a Irlanda — um aumento considerável em relação ao seu histórico de consumo.
Chatbots e seu gasto energético
Desde a chegada do ChatGPT, em 2022, a demanda por chips de IA cresceu muito. A líder no setor, NVIDIA, reportou um retorno de US$ 16 bilhões (cerca de R$ 82 bilhões) no trimestre que terminou em julho, com tendência de crescer ainda mais. Esses requerimentos têm feito as empresas correr atrás de desenvolver chips próprios.
Google e Amazon já têm os seus chips, e especula-se que a Microsoft esteja próxima de lançar um hardware proprietário na área, dado o alto investimento com a OpenAI. Com isso, a pegada energética da indústria de IA deve subir exponencialmente.
Na Google, por exemplo, integrar IA generativa em cada pesquisa no seu buscador aumentaria muito a demanda energética. Estima-se que fazer isso iria requerer milhares de servidores, usando o processamento de mais de 4 milhões de placas de vídeo (GPUs). Levando em conta que um servidor NVIDIA A100 HGX gasta 6,5 kW, o consumo diário de eletricidade seria de 80 GWh, ou 29,2 TWh anuais. O cálculo foi feito pelo blog SemiAnalysis, e bate com as estimativas da pesquisa da Joule.
O autor ainda lembra que ferramentas de IA têm uma fase inicial de treinamento, seguida por uma fase de inferência. A primeira fase é a que gasta mais energia, e foi o foco das pesquisas em sustentabilidade e IA até hoje. Já na fase de inferência, as ferramentas geram respostas baseadas nos dados com os quais foram treinados. A questão é que essa segunda fase é mais longa, e mesmo antes de chegar ao usuário final, pode acabar gastando 500 vezes mais energia, segundo o estudo.
O autor, Alex de Vries, termina a pesquisa alertando a comunidade científica para prestar atenção na fase de inferência das IAs e seu consumo energético — segundo ele, seria otimista demais pensar que melhoras em hardware e software conseguiriam reduzir os gastos de energia de modelos de linguagem.
Esforços como o Instituto de Tecnologia de Massachusetts (MIT) já conseguiram reduzir o consumo de um modelo de IA de 12% a 15% ao colocar limites nas GPUs, mas pode não ser o bastante. Vries ainda sugere reutilizar GPUs antigas e aposentadas usadas na mineração de criptomoedas para economizar.
Fonte: Joule, SemiAnalysis, EIA