Uma simples pergunta a um chatbot pode parecer um ato simples, inofensivo, sem custo. No entanto, por trás da resposta instantânea, existe uma infraestrutura física enorme e com uma sede imensa e largamente invisível: a de água.
A revolução da inteligência artificial (IA) é baseada por centros de dados que consomem milhares de milhões de litros de água anualmente, um custo ambiental que começa a gerar alarme em meio a uma crise climática global. Mas por que a IA precisa de tanta água?
Computação = Calor
A resposta está num princípio básico da física: toda operação computacional gera calor. Os grandes modelos de linguagem (LLMs), como os que alimentam o ChatGPT, o Gemini e outros, realizam trilhões de cálculos por segundo, transformando as fileiras de servidores em fornos industriais.
Para evitar a falha dos equipamentos, esses centros de dados precisam ser resfriados de forma contínua. A forma mais comum e energeticamente eficiente de o fazer é através de sistemas de arrefecimento evaporativo.
Esse método funciona de forma bastante parecida com a transpiração humana:
A água, muitas vezes potável e retirada da rede de abastecimento público, é bombeada para grandes torres de arrefecimento.
Ao evaporar, a água absorve o calor dos servidores, arrefecendo o sistema.
Essa água não é devolvida para a fonte; ela é permanentemente consumida e liberada na atmosfera como vapor.
Esta procura por eficiência energética criou um dilema: os sistemas que usam evaporação (e consomem muita água) são mais eficientes em termos de eletricidade do que os sistemas a ar (que funcionam como ares-condicionados gigantes). No mundo atual — no qual tudo gira em torno das chamadas pegadas de carbono — a busca por emitir menos carbono levou a indústria a aumentar muito pegada hídrica.
O custo de uma conversa
Uma conversa com um chatbot, com cerca de 20 a 50 perguntas, pode usar aproximadamente meio litro de água — o equivalente a uma garrafa padrão — segundo estimativas do site Goop e reportagens do Yahoo/Tech.
Quando olhamos para a escala maior, o impacto é ainda mais impressionante. O treino de um modelo como o GPT‑3, por exemplo, consumiu cerca de 700 000 litros de água doce, segundo pesquisa da Universidade da Califórnia (Riverside) publicada por Pengfei Li e colaboradores no Arxiv.
Em termos de operação anual, grandes empresas de tecnologia também têm um consumo relevante: em 2022, a Google utilizou quase 23 bilhões de litros de água, enquanto a Microsoft consumiu 6,4 bilhões, um aumento de 20% e 34% em relação ao ano anterior, conforme reportagem do China Daily.
E a projeção para o futuro é ainda mais preocupante. Até 2027, estima-se que a demanda global de água pelo setor de IA possa ultrapassar a retirada anual de água de países inteiros, como a Dinamarca, segundo o mesmo estudo de Li.
Consumo direto e indireto
A sede da IA não fica limitada à água evaporada no local. A pegada hídrica total inclui componentes indiretos bem significativos:
Geração de eletricidade: Os centros de dados são (quase) literalmente famintos por energia. A maioria das centrais elétricas (a carvão, gás ou nuclear) são termoelétricas, o que significa que elas também fervem água para mover turbinas, exigindo enormes volumes pro seu próprio arrefecimento.
Cadeia de fornecimento: A fabricação do hardware, especialmente os semicondutores e microchips, requer milhares de litros de água ultrapura para a limpeza dos componentes.
O impacto em terras áridas
O problema é fica ainda mais complicado quando a localização é colocada na balança. Muitos centros de dados são construídos em regiões que já sofrem de escassez hídrica, como o Nevada, o estado mais seco dos EUA. As empresas são atraídas por terrenos baratos e incentivos fiscais, criando uma competição direta por água com as populações locais e a agricultura.
No Condado de Newton, na Geórgia, residentes locais relataram problemas graves nos seus poços privados — água turva e diminuição da pressão — após a construção de um enorme centro de dados da Meta nas proximidades.
Este cenário cria uma “cascata de competição por recursos”, onde a procura por mais energia exige novas centrais elétricas, que por sua vez consomem mais água, num ciclo vicioso de esgotamento.
No Brasil, por exemplo, a empresa Casa dos Ventos, parceira do TikTok, quer instalar um data center em Caucaia, no Ceará. A população local, já sofre com a escassez de água. Nesse cenário, os moradores teriam de competir pelo recurso com com a multinacional, como denunciado pelo Intercept Brasil.
Promessas corporativas e a “armadilha local”
Em resposta, gigantes como Google, Microsoft e Meta estabeleceram metas para se tornarem “água positiva” até 2030, prometendo reabastecer mais água do que consomem.
Porém, essa é uma abstração de contabilidade global que mascara o impacto local. A água é um recurso essencialmente local. Restaurar uma zona húmida na Irlanda não resolve o problema de esgotar um aquífero no Arizona, onde um centro de dados está a operar. A comunidade no Arizona experiencia uma perda líquida e real.
A falta de transparência agrava o problema. Empresas como a OpenAI, criadora do ChatGPT, não divulgam publicamente os seus dados de consumo de água.
O futuro deve ser menos sedento
Soluções existem, mas exigem uma mudança de postura das empresas. Tecnologias como o arrefecimento líquido de circuito fechado ou o arrefecimento por imersão (onde os servidores são submersos em fluidos especiais) são muito mais eficientes e quase não usam água.
Outras estratégias incluem a reutilização de águas residuais tratadas em vez de água potável, ou a localização de centros de dados em climas árticos ou mesmo subaquáticos.
Para que a revolução da IA seja sustentável, o setor precisa de transparência sobre o consumo e de uma responsabilidade que seja local, abordando os impactos diretos onde eles ocorrem.










