SÃO PAULO, SP (FOLHAPRESS) – O Google reduziu em 97% o consumo de eletricidade do Gemini para responder a um pedido, com avanços em eficiência de software e hardware, segundo relatório inédito divulgado pela empresa nesta quinta-feira (21).

O estudo analisou os gastos de consumo de energia entre maio de 2024 e o mesmo mês neste ano. No mesmo período, o processamento de dados se multiplicou 49 vezes, de acordo com dados apresentados por Sundar Pichai em evento para programadores -subiu de 9,7 trilhões mensais de tokens (pequenos fragmentos de texto que a IA processa no lugar das palavras completas) para 480 trilhões por mês.

Em apresentação para investidores em julho, Pichai disse que o valor já subiu para 980 trilhões.

De acordo com o diretor do Centro de Excelência em Inteligência Artificial (Ceia) da UFG (Universidade Federal de Goiás), Anderson Gomes, o principal esforço da ciência da computação neste momento está em reduzir o custo de inferência -o processamento de dados do modelo para gerar uma resposta ao comando do usuário. Um dos maiores gastos é com eletricidade.

A redução dos preços é essencial para permitir a ampla adoção de inteligência artificial, diz Gomes.

De acordo com o balanço do Google, havia em julho mais de 85 mil negócios usando o Gemini para empresas, incluindo a gigante do luxo LVMH e a Salesforce. O uso empresarial cresceu 35 vezes em um ano, disse Pichai.

O relatório de sustentabilidade da empresa mostra que o consumo de eletricidade do Google segue tendência de alta desde 2011.

Segundo a big tech, o gasto de energia de um pedido em texto mediano para o Gemini ficou em 0,24 Wh, o que equivale ao consumo de eletricidade de assistir à televisão por nove segundos. Em uma sequência de valores ordenados de forma crescente, a mediana é o número ao centro -o quinto número em uma sequência de nove dígitos, por exemplo.

No artigo, o Google afirma que escolheu a mediana porque alguns poucos prompts gastam muito mais energia e distorceriam o valor médio do comando para a inteligência artificial. O artigo também desconsidera a geração de imagens e vídeos, que, de acordo com artigos científicos, gastam dezenas de vezes mais de energia.

Porém pesquisadores ouvidos pela reportagem dizem que a escolha da mediana pode gerar distorções.

O professor de ciência da computação da UFRGS Anderson Rocha Tavares diz que a mediana é mais útil quando a distribuição fica mais concentrada em uma parte, o contrário do que acontece no caso do uso do consumo de energia dos modelos de IA.

“Se eles reportassem a média, também seria útil, pois daria para ter essa noção da influência dos prompts ‘caros’”, afirma Tavares. “Se a média é muito superior à mediana, é um sinal que há alguns prompts que custam muito mais caro que a maioria”, acrescenta.

Além disso, o método escolhido pelo Google torna impossível comparar os gastos com estimativas feitas anteriormente por pesquisadores e outras empresas. Isso porque os autores propõem uma nova metodologia na qual não consideram o tamanho do pedido nem se houve o uso do chamado “reasoning”, técnica em que a IA testa vários resultados até chegar a um mais adequado.

O Google trabalhou com a curva de gastos de energia por pedido feito ao Gemini, de forma que só a empresa pode aferir esses dados. A IA da big tech é de modelo fechado e só roda nos servidores da companhia.

“Nesse modelo, a sociedade fica dependente do quão verdadeiros são os dados que o Google está mostrando”, diz o professor da UFRGS.

O artigo da big tech foi divulgado pouco antes da regulação europeia começar a impor critérios de transparência ambiental, como a divulgação do consumo de energia conhecido e estimado, e é visto como um sinal para o mercado. A Comissão Europeia ainda definirá qual será a metodologia de medição a ser cobrada.

Mesmo com essas limitações, na única comparação confiável apresentada no estudo, o Google mostra que o Gemini é mais de duas vezes mais eficiente do que o modelo da Meta Llama 3.1 70b. Como o modelo da companhia de Mark Zuckerberg é aberto, o Google pôde reproduzir seus testes com ele.

De acordo com a chefe dos laboratórios de energia avançada do Google, Savannah Goodman, o Google teve muito cuidado para divulgar um número que refletisse a realidade operacional de seu serviço de IA. “O valor é muito mais baixo do que estimativas que circulavam anteriormente na academia”, disse.

Essa diferença, diz o Google, é motivada por usos mais eficientes de data centers, avanços em projetos de chips mais eficientes e avanços de engenharia nos modelos de linguagem -uma delas, por exemplo, foi a destilação de dados popularizada pela Deepseek.

Ainda segundo Goodman, o gigante das buscas escolheu trabalhar apenas com os modelos geradores de texto, por causa da maior quantidade de pesquisa disponível. A geração de imagens e vídeos pode ser tema de trabalhos futuros.

O vice-presidente da equipe de engenharia do Google, Partha Ranganathan, afirmou que o estudo do Google avançou ao considerar toda a cadeia de IA em seus cálculos, desde a fabricação dos chips. Por isso, o valor encontrado passou de 0,14 watt hora para 0,24 watt hora.

As equipes do Google ainda calcularam a pegada hídrica de um pedido mediano ao Gemini, que seria de 0,26 ml -o que equivale a cinco gotas de água.

No acumulado de todas as atividades do Google, seus data centers gastaram 27% mais energia em 2024 do que em 2023, mostra o relatório de sustentabilidade mais recente da companhia. Apesar disso, a empresa reduziu suas emissões de carbono ligadas à eletricidade em 12%, graças à adoção de energia limpa.

Em 2024, o Google já tinha mais de 25 projetos de geração de energia renovável -a maioria é de usinas eólicas nos EUA-, que repuseram as redes de distribuição que abastecem a big tech com 2,5 GW de potência instalada. Além disso, a empresa comprou, entre 2010 e 2024, 22 GW de eletricidade renovável de outros fornecedores, sendo que 400 MW tiveram origem na América Latina.

Para esse ganho em eficiência nos data centers, Ranganathan disse que o uso de sistemas de refrigeração líquida também contribuiu. Em 2024, o Google gastou 306,6 bilhões de litros de água em seus data centers, em uma alta de 75,7 bilhões de litros em relação ao ano anterior.

No ano passado, 28% das fontes de água potável que abastecem o Google estavam em áreas com risco de escassez hídrica.