La inteligencia artificial no solo busca replicar procesos humanos de pensamiento, sino que además lo hace con el poder de una máquina, lo que implica un conocimiento de diferentes campos y disciplinas, así como una capacidad de generar imágenes, predicciones, categorías y análisis desde una memoria vastísima. Entrenar estos modelos tiene un costo energético alto: el MIT Technology Review comparte la estimación de que el entrenamiento de GPT-4, de OpenAI, costó alrededor de $100 millones de dólares y 50 GWh (es decir, más de 40 veces lo que se usa en Volver al Futuro para… volver al futuro).
Pero no es el único procedimiento costoso. Daniel Morillo, investigador javeriano y doctor en Informática de la Universidad Politécnica de Valencia, explica que el otro costo es el más grave: “el almacenamiento y la infraestructura que requiere, o sea, la energía de los servidores, los ventiladores, el incremento de líquido que se utiliza muchas veces, las conexiones, los cables, las pérdidas que ocurren por calor. El calor es su enemigo”.
Los servidores donde las empresas dueñas de IA almacenan la información y entrenan estos modelos son conocidos como centros de procesamiento de datos (CPDs). En ellos, nos explicó Andrés Pérez Uribe, profesor de ciencia computacional de la Universidad de Ciencias Aplicadas de Suiza, “hay computadores que están en salas con aire acondicionado, pero el aire acondicionado necesita electricidad para poder enfriar los computadores, entonces, los data centers de las grandes empresas como Amazon, Apple y Google tienen un sistema de refrigeración con agua para enfriar los computadores y permitirles que trabajen”.
El costo ambiental de la inteligencia artificial viene, pues, de su entrenamiento, su almacenamiento y su funcionamiento. Sobre este último, Pérez nos dice que “por cada kilovatio hora de consumo de una máquina se necesitan o se consumen en realidad 1,8L de agua”. Pero esto se entiende mejor puesto en perspectiva: se estima que ChatGPT recibe aproximadamente mil millones de consultas diarias (según la cuenta oficial de OpenAI Newsroom). El profesor Pérez explica que, si en promedio cada usuario realiza 50 consultas diarias estas resultan en un gasto de unos 20 millones de litros de agua cada día.
Detengámonos en esa cifra. Hablamos del equivalente a que casi todos los habitantes de Alemania se preparen una taza de café a la vez. Y esa cifra es baja a comparación de otros estimados, como los de Business Energy UK, que calculan que Chat GPT puede consumir hasta 140 millones de litros de agua y unos 40 millones de kilovatios hora en un solo día. Es decir, lo equivalente a bajar la cisterna del baño 24 millones de veces y cargar los celulares de todos los habitantes de Suiza.
Una conversación más o menos larga y sin demasiados procesos complejos con Chat GPT puede llegar a consumir una botella de agua.

¿De dónde salen esta agua y energía?
Los centros de procesamiento suelen estar ubicados en amplias zonas rurales con acceso a cuerpos de agua, pero que estas cantidades de recursos sean puestas a su servicio a menudo lleva al desabastecimiento en las comunidades aledañas. Así ocurrió en Georgia, al sudeste de los Estados Unidos: un lugar rico en espacio y agua, en donde las redes eléctricas y las fuentes hídricas no están siendo capaces de abastecer a los vecinos de los centros de procesamientos de datos de Meta.
En palabras del profesor Pérez, “la nube no existe, la nube son servidores que están interconectados un poquito por allá, otro poquito por allá… Están conectados y puede que tu información esté en varios lugares del mundo guardados, pero tienen que estar físicamente en algún lado y eso es costoso de mantener”. Es costoso, claro, y aunque empresas como Microsoft y Google están dispuestas a hacer inversiones multimillonarias en el desarrollo de energía nuclear y reposición del agua consumida, vale la pena que nos preguntemos si lo que entendemos como el “costo” del desarrollo es algo que puede pagarse con dinero.
Las herramientas basadas en inteligencia artificial, sin embargo, también pueden ser utilizadas en pro de la sostenibilidad, como se menciona en un artículo publicado en Processes, del que participó el profesor Morillo. Junto a un grupo de colegas trabajaron en un modelo matemático, para reordenar las rutas de camiones de reciclaje en Chile viendo, en palabras del profesor, “cómo optimizar el uso de combustible teniendo en cuenta la pendiente, la carga, la eficiencia, el cumplimiento de ventanas de tiempo… Todo eso, aprovechando la ruta para recoger la basura, clasificarla y llevarla a los diferentes depósitos. O sea, es hacer lo que hacían antes, pero mejor y gastando menos recursos”. Gracias a su velocidad y capacidad de procesamiento de datos, la IA es capaz de aprender patrones, hacer predicciones y generar contenido que optimice procesos de este tipo.
De igual forma, asegura el profesor Morillo, la IA puede servir como una “herramienta para generar empatía”. Esto lo menciona a propósito de una experiencia educativa que se llevó a cabo en la Javeriana Cali, en la que entrevistaron a varios jóvenes de diferentes carreras para, con ayuda de herramientas basadas en IA, desarrollar un avatar. Cuenta Morillo que este “interactuaba con nosotros porque le dimos toda esa información y pudimos hablar con una ‘persona’ que representaba un montón de personas de la universidad”. Esta experiencia educativa buscaba generar conciencia sobre el consumo energético de lo aires acondicionados en la Universidad, por lo que contar con un perfil de los estudiantes hecho con IA podía hacer más cercano el mensaje que querían transmitir.

¿Es solo la Inteligencia Artificial?
Es claro que el entrenamiento y el almacenamiento de tantos datos tiene un costo elevado, pero el verdadero problema radica en su uso masificado, como ha ocurrido con otras tecnologías. “Este problema es algo que ya hemos visto antes en la mayoría de las plataformas que tenemos: el correo electrónico, Teams de Microsoft, Gmail, todas tienen una cantidad de información impresionante. El propio YouTube es costosísimo a nivel de recursos y energía, lo que pasa es que es rentable”, explica Morillo.
Según National Geographic, el 1% de las emisiones globales de CO2 son generadas por ver videos en línea. Una publicación de la Association for Computing Machinery encontró que desde 2012 la energía utilizada para entrenar modelos de inteligencia artificial se ha duplicado en promedio cada 3.4 meses. Nuestra huella digital, las redes sociales que visitamos, los videos que compartimos y también, los modelos basados en inteligencia artificial a los que acudimos contribuyen al calentamiento del planeta.
La solución para reducir este gasto no es dejar de usar Chat GPT, borrar todas las cuentas de Google ni sembrar un árbol cada vez que tengamos ganas de ver un reel. Morillo dice que, “sí es un problema significativo en el medio ambiente, por supuesto, y a largo plazo hay que empezar a mejorar. El entrenamiento se puede mejorar, los algoritmos de entrenamiento ya se han hecho más eficientes”.
En ese sentido, es muy probable que el gasto energético de estas tecnologías descienda con el tiempo, pues su consumo será más eficiente. Sin embargo, un informe de Goldman Sachs estima que, hacia finales de la década, los centros de procesamiento de datos en Estados Unidos aumentarán su demanda de energía en hasta 160%. Esto ocurre porque un consumo más eficiente no representará un cambio si a la vez su uso continúa masificándose.
La tecnología va a continuar su evolución con un consumo energético que solo crece en un mundo que tiene recursos finitos. Amerita que pensemos en los usos de la IA y que sus capacidades se vuelquen a resolver este tipo de problemas, para que la balanza de costos y beneficios esté más equilibrada.
