Para além das expectativas de revolução na sociedade e otimização de tarefas, há uma série de críticas envolvendo certos aspectos do campo da inteligência artificial (IA). Um deles é a relação entre IA e consumo energia — e, mais especificamente, o aumento dele.
A segunda atividade é o resfriamento desses mesmos equipamentos, que atingem altas temperaturas justamente pelo funcionamento intenso e contínuo, exigindo mecanismos de controle de calor que também consomem eletricidade e outros recursos, como água.
O consumo de energia, portanto, é alto tanto na fase de treinamento prévio desses grandes modelos quanto no uso cotidiano das plataformas.
Quais são os impactos ambientais da IA?
Aumento no consumo de milhares de Megawatts/hora (MWh) de eletricidade, que pode prejudicar redes elétricas regionais por causa de picos ou sobrecargas de uso, causar problemas no fornecimento de energia e até exigir a construção de mais usinas ou estruturas geradoras;
Maior quantidade de emissões de carbono, que são gerados justamente pelo uso intenso de eletricidade e as operações frequentes de interação entre os equipamentos ou da IA atendendo usuários humanos;
Redução em reservas de água pelos gastos altos em resfriamento de sistemas, elevando o risco de escassez e conflitos especialmente em regiões que apresentam períodos de seca;
Ocupação de grandes áreas de terra para a construção dos data centers — às vezes envolvendo terrenos antes preservados, que concentram vegetação local ou próximos de comunidades que podem;
Quanto de energia a IA consome atualmente?
Não há números totais a respeito do gasto global com IA em termos de eletricidade, mas estimativas de analistas do mercado trazem estimativas do atual panorama e ele aponta para um cenário de alto consumo.
Um relatório da União Internacional de Telecomunicações aponta que o consumo de eletricidade em data centers de IA aumentou 12% a cada ano de 2017 a 2023. Contando servidores em geral e em 2024, eles demandavam mais de 460 TWh para funcionar — aproximadamente 1,5% de toda a eletricidade consumida globalmente.
A Nvidia fornece GPUs e chips como o H200, especializados para alimentar sistemas de IA. (Imagem: Divulgação/Nvidia)
Para efeitos de comparação, é um consumo de eletricidade maior que o de toda a Arábia Saudita e pouco abaixo da França. E esse número deve aumentar para 945 TWh até o fim desta década, com Estados Unidos e China sendo os países com maior consumo médio no setor.
O próprio uso convencional desses serviços é também mais custoso. Segundo a Agência Internacional de Energia (IEA), um pedido ao ChatGPT requer “dez vezes mais eletricidade do que uma busca tradicional no Google“, já que o processamento que essa tarefa demanda é consideravelmente maior.
É possível reduzir o consumo energético da IA?
O cenário parece pessimista, mas há soluções em idealização, desenvolvimento ou implementação que, se combinadas, podem ajudar a cortar gastosenergéticos de data centers de larga escala.
Uma dessas ações é técnica: viabilizar a construção de LLMs que sejam mais econômicos tanto na fase de treinamento quanto durante a operação, ou então utilizar GPUs e outros chips mais eficientes e que demandem menor eletricidade.
A IA chinesa DeepSeek, por exemplo, ficou famosa no começo de 2025 não apenas pela alta capacidade, mas também por considerada mais econômica do ponto de vista energético do que outros modelos parecidos.
Outra solução é adotar energias renováveis ou ao menos com danos reduzidos ao ambiente — caso da energia solar, eólica, hidrelética ou até nuclear, como algumas companhias já estão cogitando. O data center do TikTok no Ceará, por exemplo, tem um consumo energético de 300 megawatts (MW), mas garante que vai utilizar apenas energia renovável eólica e não terá impactos na rede elétrica local, além de resultar também em menos emissões.
Além disso, o projeto prevê a adoção de um sistema de resfriamento “baseado em circuito fechado de reuso de água”, com menor consumo ou perdas por evaporação. Já a Anthropic, da IA Claude, garantiu que vai ajudar parcialmente a pagar as contas de luz de pessoas afetadas pelos novos data centers que atendem a companhia.
O futuro da IA é o desafio energético
A relação entre Inteligência Artificial e o consumo de energia é bastante próxima e, ao mesmo tempo, arriscada. O presente e o futuro dessa tecnologia tão em alta dependem de acesso a muito mais energia, já que esse mercado está em expansão acelerada e já traz impactos significativos em vários setores da sociedade.
Porém, esse consumo também carrega uma série de riscos e cria um cenário desafiador para sistemas elétricos e metas climáticas globais, que atualmente traçam objetivos de transição energética que agora podem não ser mais cumpridos. Até mesmo acionistas já estão questionando grandes empresas sobre os possíveis impactos dessa alta no consumo.
Reduzir a adoção massiva da IA ou a construção de data centers ao redor do mundo seriam ações mais efetivas, mas de difícil implementação. Por isso, projetos de compensação energética, garantias de uso de fontes menos danosas ao ambiente e a priorização na criação de sistemas cada vez mais econômicos são soluções mais palpáveis para o cenário atual.
O que é a atual corrida pelos chips que pode decidir os vencedores na era da IA? Entenda melhor sobre esse debate nesta coluna!