The Washington Post; Cerca de um quarto dos americanos usou o ChatGPT desde o lançamento do chatbot em 2022, de acordo com o Pew Research Center – e cada consulta tem um custo climático.
Os chatbots usam uma quantidade imensa de energia para responder às perguntas dos usuários, e o simples fato de manter os servidores dos bots refriados o suficiente para funcionar nos data centers afeta o meio ambiente. Embora seja quase impossível quantificar o ônus exato, o The Washington Post trabalhou com pesquisadores da Universidade da Califórnia, em Riverside, para entender quanta água e energia o ChatGPT da OpenAI, usando o modelo de linguagem GPT-4 lançado em março de 2023, consome para escrever uma mensagem de 100 palavras.
Vamos dar uma olhada primeiro na água. Um e-mail de 100 palavras gerado pelo ChatGPT, por meio do GPT-4, consome 519 milímetros de água, pouco mais do que uma garrafa de meio litro. Fazer isso uma vez por semana durante um ano, consome 27 litros de água, quase dois galões e meio água.
Se 1 em cada 10 trabalhadores americanos (cerca de 16 milhões de pessoas) fizerem isso uma vez por semana durante um ano, isso exigirá 435.235.476 litros. É o equivalente ao consumo de todas as casas de Rhode Island durante 1 dia e meio.
Cada prompt no ChatGPT passa por um servidor que executa milhares de cálculos para determinar as melhores palavras a serem usadas em uma resposta.
Ao realizar esses cálculos, esses servidores, normalmente alojados em centros de dados, geram calor. Muitas vezes, sistemas de água são usados para resfriar o equipamento e mantê-lo funcionando. A água transporta o calor gerado nos data centers para as torres de resfriamento para ajudá-lo a sair do prédio, de forma semelhante à maneira como o corpo humano usa o suor para se refrescar, de acordo com Shaolei Ren, professor associado da UC Riverside.
Onde a eletricidade é mais barata ou a água é comparativamente escassa, a eletricidade é frequentemente usada para resfriar esses armazéns com grandes unidades semelhantes a aparelhos de ar-condicionado, disse ele. Isso significa que a quantidade de água e eletricidade que uma consulta individual exige pode depender da localização do data center e variar muito.
Mesmo em condições ideais, os data centers geralmente estão entre os maiores usuários de água nas cidades onde estão localizados, dizem os defensores do meio ambiente. Mas os data centers com sistemas de resfriamento elétrico também estão causando preocupações, pois aumentam as contas de energia dos moradores e sobrecarregam a rede elétrica.
Consumo de energia elétrica
Veja a seguir quanto uma consulta consome de energia elétrica. Um e-mail de 100 palavras gerado pelo ChatGPT, por meio do GPT-4, consome 0,14 quilowatts hora (kWh), equivalente ao consumo de 14 lâmpadas de LED por uma hora. Fazer isso uma vez por semana durante um ano, consome 7,5 kWh, equivalente ao consumo de 9,3 lares da cidade de Washington por uma hora.
Se 1 em cada 10 trabalhadores americanos (cerca de 16 milhões de pessoas) fizerem isso uma vez por semana durante um ano, isso exigirá 121.517 megawatts hora (mWh), equivalente à eletricidade consumida por todas as residências da cidade de Washington por 20 dias.
Os data centers também exigem grandes quantidades de energia para dar suporte a outras atividades, como a computação em nuvem, e a IA só aumentou essa carga, diz Ren. Se um data center estiver localizado em uma região quente – e depender de ar condicionado para resfriamento – será necessária muita eletricidade para manter os servidores em uma temperatura baixa. Se os data centers que dependem de resfriamento a água estiverem localizados em áreas propensas a secas, eles correm o risco de esgotar a área de um recurso natural precioso.
Na Virgínia do Norte, que abriga a maior concentração de data centers do mundo, grupos de cidadãos protestaram contra a construção desses edifícios, afirmando que eles não apenas consomem muita energia e não geram empregos suficientes a longo prazo, mas também são uma paisagem que prejudica o valor das casas. Em West Des Moines, Iowa, um foco emergente de data centers, os registros do departamento de água mostraram que as instalações administradas por empresas como a Microsoft usavam cerca de 6% de toda a água do distrito.
Depois de uma longa batalha judicial, o jornal Oregonian forçou o Google a revelar quanto seus centros de dados estavam usando em The Dalles, a leste de Portland; o resultado foi quase um quarto de toda a água disponível na cidade, revelaram os documentos.
Custo do treinamento
Antes mesmo que os chatbots possam atender a uma solicitação, uma enorme quantidade de energia é gasta para treiná-los. Os grandes modelos de linguagem (LLM) que permitem que os chatbots, como o ChatGPT, gerem respostas realistas exigem que os servidores analisem milhões de dados.
Pode levar meses para treinar esses modelos avançados de computador, de acordo com especialistas em IA e documentos de pesquisa, e empresas de tecnologia como Google, Meta e Microsoft estão se esforçando para construir centros de dados.
Mas, cada um deles produz calor continuamente.
Os centros de dados da Microsoft consumiram 700 mil litros de água para treinar o GPT-3. É necessário cerca de 6,7 mil litros de água para produzir meio quilo de carne bovina, usados para pastagem, limpeza de fazendas e hidratação do gado. Treinar o GPT-3 consumiu a mesma quantidade de água necessária para produzir 50 kg de carne vermelha, o dobro da média do consumo anual de cada cidadão americano.
A Meta usou 22 milhões de litros de água para treinar o modelo Llama 3. São necessários 4.956 litros de água para produzir meio quilo de arroz, que é produzido quase completamente submerso em água. O consumo de água do Llama 3 é equivalente a 2 toneladas de arroz, o consumo anual de 164 americanos.
O que dizem as empresas
As grandes empresas de tecnologia fizeram várias promessas para tornar seus data centers mais ecológicos usando novos métodos de resfriamento. Essas promessas climáticas geralmente não são cumpridas.
Em julho, o Google divulgou seu relatório ambiental mais recente, mostrando que sua pegada de emissão de carbono aumentou em 48%, em grande parte devido à IA e aos data centers. Também reabasteceu apenas 18% da água que consumiu – muito longe dos 120% que estabeleceu como meta até 2030. “O Google tem um compromisso de longa data com a sustentabilidade, orientado por nossas metas ambiciosas, que incluem atingir emissões líquidas zero até 2030″, diz Mara Harris, porta-voz do Google.
“A IA pode consumir muita energia e é por isso que estamos trabalhando constantemente para melhorar a eficiência”, disse Kayla Wood, porta-voz da OpenAI. Ashley Settle, porta-voz da Meta, disse em um comunicado que a empresa prioriza “operar nossos data centers de forma sustentável e eficiente, garantindo que as pessoas possam depender de nossos serviços”. Craig Cincotta, gerente geral da Microsoft, disse que a empresa “continua comprometida em reduzir a intensidade com que retiramos recursos” e acrescentou que a Microsoft está trabalhando para instalar métodos de resfriamento de data center que “eliminarão completamente o consumo de água”.
Empresas de tecnologia como a Nvidia continuarão criando chips de computador que geram mais quilowatts de energia por servidor para fazer mais cálculos, disseram os especialistas. A IA está criando demandas sem precedentes nos data centers que superam em muito qualquer outra na história recente, disse Ren.
“O rápido crescimento da IA mudou drasticamente essa trajetória”, disse Ren, ‘e apresentou novos desafios que o setor nunca enfrentou antes’.