Un estudio reciente de la Universidad de California, Riverside y la Universidad de Texas en Arlington en Estados Unidos estudió la “huella hídrica” que dejan los grandes modelos de inteligencia artificial como el ChatGPT de OpenAI durante su entrenamiento. El agua consumida para ejecutar ChatGPT, que utilizan miles de millones de usuarios en todo el mundo, es "extremadamente grande", dijo el estudio en un artículo titulado Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models.
Por ejemplo, el entrenamiento de GPT-3 en los data centers de última generación de Microsoft en EE.UU. puede consumir directamente 700 000 litros de agua dulce limpia y el consumo de agua se habría triplicado si la formación se realizaron en los centros de datos asiáticos de Microsoft, pero dicha información se ha mantenido en secreto, según indican en el estudio. "Esto es extremadamente preocupante, ya que la escasez de agua dulce se ha convertido en uno de los desafíos más apremiantes compartidos por todos nosotros a raíz del rápido crecimiento de la población, el agotamiento de los recursos hídricos, y el envejecimiento de las infraestructuras de agua", aseguran. Para responder a los desafíos globales del agua, los modelos de IA pueden, y también deben, asumir la responsabilidad social y predicar con el ejemplo al abordar su propia huella hídrica.
La investigación aún por revisar por pares, publicada como preimpresión en arXiv, también estima que una conversación que comprende de 20 a 50 preguntas con el chatbot de IA en un solo sistema puede "beber" una "botella de agua de 500 ml". “Si bien una botella de agua de 500 ml puede no parecer demasiado, la huella hídrica combinada total para la inferencia sigue siendo extremadamente grande, considerando los miles de millones de usuarios de ChatGPT”, dijeron los investigadores.
El agua consumida también se refiere al agua dulce limpia (para evitar la corrosión y el desarrollo bacteriano) que los centros de datos utilizan para generar electricidad, así como para enfriar los servidores para ejecutar modelos de IA, que se estudió utilizando un marco creado por los investigadores.