Um estudo recente da Universidade da Califórnia, Riverside e da Universidade do Texas em Arlington, nos Estados Unidos, estudou a "pegada hídrica" deixada pelos grandes modelos de inteligência artificial, como o ChatGPT da OpenAI, durante seu treinamento.
A água consumida para executar o ChatGPT, que é utilizado por bilhões de usuários em todo o mundo, é "extremamente grande", disse o estudo em um artigo intitulado "Tornando a IA menos 'sedenta': descobrindo e abordando a pegada hídrica secreta dos modelos de IA".
Por exemplo, o treinamento do GPT-3 nos data centers de última geração da Microsoft nos EUA pode consumir diretamente 700.000 litros de água doce limpa e o consumo de água teria triplicado se o treinamento tivesse sido realizado nos data centers asiáticos da Microsoft, mas essa informação foi mantida em segredo, conforme o estudo.
"Isso é extremamente preocupante, já que a escassez de água doce se tornou um dos desafios mais urgentes compartilhados por todos nós devido ao rápido crescimento da população, à exaustão dos recursos hídricos e ao envelhecimento das infraestruturas de água", afirmam. Para responder aos desafios globais da água, os modelos de IA podem, e devem, assumir a responsabilidade social e dar o exemplo abordando sua própria pegada hídrica.
A pesquisa ainda não revisada por pares, publicada como pré-impressão no arXiv, também estima que uma conversa que envolve de 20 a 50 perguntas com o chatbot de IA em um único sistema pode "beber" uma "garrafa de água de 500 ml". "Embora uma garrafa de água de 500 ml possa não parecer muito, a pegada hídrica total combinada para a inferência ainda é extremamente grande, considerando os bilhões de usuários do ChatGPT", disseram os pesquisadores.
A água consumida também se refere à água doce limpa (para evitar corrosão e desenvolvimento bacteriano) que os data centers usam para gerar eletricidade, bem como para resfriar os servidores para executar modelos de IA, que foram estudados usando um framework criado pelos pesquisadores.