Para mantener activos los servidores de ChatGPT se necesita un alto consumo de recursos, tanto de energía como de agua, según un estudio de la Universidad de Colorado Riverside y la Universidad de Texas Arlington.
La investigación buscaba medir el impacto ambiental que generan estas tecnologías para enfriar los sistemas en los que funciona y como primera conclusión encontraron que una sesión con el chatbot, que tenga entre 20 y 50 preguntas, equivale a consumir una botella de agua de 500 ml.
En el estudio se tomó como referencia lo que sucede con Microsoft en sus centros de datos de Estados Unidos. Allí se encontró que para mantener activo el sistema de refrigeración de los servidores donde se hace el entrenamiento de GPT-3, la tecnología detrás de ChatGPT, se consumen cerca de 700.000 litros de agua dulce.
Para dimensionar este consumo, los investigadores aseguran que con esa cantidad de agua que se gastó, se pudo haber fabricado en BMW al rededor de 370 carros y en Tesla cerca de 320.
Ante estas cifras, los científicos hicieron un llamado de atención a las empresas encargadas de estas tecnologías para que asuman “su responsabilidad social” y prediquen “con el ejemplo abordando su propia huella hídrica”.