Los centros de datos de IA conllevan un coste medioambiental oculto: ¿es posible la sostenibilidad?

hace 1 mes

Los centros de datos de IA conllevan un coste medioambiental oculto: ¿es posible la sostenibilidad?

La inteligencia artificial se ha entrelazado profundamente con todo tipo de actividades humanas. Impregna los negocios, la medicina, la investigación científica y, cada vez más, la vida cotidiana. OpenAI, la compañía detrás de ChatGPT, afirmó recientemente que su plataforma procesa 2.500 millones de consultas cada día, o 29.000 por segundo.

Todo ese procesamiento informático, por intangible que parezca, requiere una enorme cantidad de energía. A medida que se dispara la demanda de una IA cada vez más potente, las principales empresas tecnológicas como Amazon, Google y Microsoft compiten por construir centros de datos, que albergan los servidores que sustentan la actividad digital mundial. Estas instalaciones consumen vastas cantidades de electricidad para hacer funcionar los equipos informáticos, y también vastas cantidades de agua para refrigerarlos, con crecientes consecuencias para las comunidades cercanas y para el planeta en general.

“El coste medioambiental de los centros de datos, impulsado por la IA, está aumentando realmente rápido”, afirma Shaolei Ren, ingeniero informático de la Universidad de California, Riverside. “Es probablemente el sector de más rápido crecimiento”.

Más información: Los pros y los contras de la inteligencia artificial

Índice
  1. ¿Por qué consume tanta energía la IA?
  2. La huella ambiental de los centros de datos
    1. Consumo energético: la magnitud del crecimiento
    2. El dilema del agua: la refrigeración necesaria
    3. La falta de transparencia
  3. Los impactos se distribuyen de forma desigual
  4. La injusticia ambiental de la IA
    1. La carga del aire y el calor
    2. El agotamiento de recursos locales
  5. ¿Cómo podemos hacer la IA más sostenible?
    1. Optimización de Hardware y Software
    2. El reto de la refrigeración líquida
  6. Progreso, paradojas y el futuro
    1. La paradoja de Jevons
  7. Fuentes

¿Por qué consume tanta energía la IA?

Los centros de datos no son nada nuevo; el primero se construyó en 1945 para albergar el ENIAC, el primer ordenador de uso general del mundo, según Enconnex. Sin embargo, la naturaleza peculiar de la computación de IA, que implica rastrear inmensos conjuntos de datos para aprender patrones subyacentes, la hace mucho más intensiva en energía que la informática tradicional.

“Extraer patrones de los datos es, en cierto sentido, ineficiente”, explica Priya Donti, investigadora de aprendizaje automático en el Instituto Tecnológico de Massachusetts (MIT). “Para que funcione bien, también quieres ampliar los datos y ampliar el modelo, y eso termina con una carga computacional mucho mayor”.

Esta ineficiencia se debe a que los modelos de IA, especialmente los grandes modelos de lenguaje (LLMs) como GPT-4, requieren un proceso de “entrenamiento” que implica miles de millones o incluso billones de parámetros. Este entrenamiento se lleva a cabo durante semanas o meses utilizando miles de Unidades de Procesamiento Gráfico (GPUs) trabajando en paralelo. Solo la fase de entrenamiento de un modelo de última generación puede consumir la energía equivalente a la que usarían cientos de hogares durante un año.

Aunque la fase de “inferencia” (cuando tú o yo usamos ChatGPT para hacer una consulta) consume mucha menos energía individualmente que el entrenamiento, la escala es tan masiva (2.500 millones de consultas al día) que el consumo agregado sigue siendo astronómico. Para que la IA siga avanzando y ofreciendo más precisión, los modelos deben seguir creciendo, lo que asegura que la demanda de recursos energéticos continuará aumentando exponencialmente, superando las mejoras en eficiencia del hardware actual.

La huella ambiental de los centros de datos

El impacto de esta carrera tecnológica no se mide solo en teravatios-hora; se mide en emisiones de carbono y en estrés hídrico para las comunidades que rodean estas infraestructuras. Los centros de datos se han convertido en voraces depredadores de recursos, y las cifras de consumo son alarmantes a escala global.

Consumo energético: la magnitud del crecimiento

Actualmente, los centros de datos representan alrededor del 4% de la electricidad consumida en EE. UU. Para 2028, el Laboratorio Nacional Lawrence Berkeley (LBNL) estima que su participación aumentará a entre el 7% y el 12%. A escala global, se proyecta que el uso de electricidad de los centros de datos este año alcance los 1.050 teravatios-hora (TWh), un aumento considerable desde los 460 TWh en 2022, según la Agencia Internacional de la Energía (IEA). Eso es más o menos el equivalente al consumo total de un país industrializado como Japón.

Este crecimiento meteórico de la IA conlleva un aumento de las emisiones de carbono porque la mayoría de las redes eléctricas en EE. UU. y en el extranjero todavía dependen de combustibles fósiles. Aunque las empresas podrían elegir ubicaciones con redes más limpias y alimentadas por renovables, Ren señala que eso suele ser más costoso. La realidad es que, a menudo, la velocidad de despliegue y el coste de la energía pesan más que la sostenibilidad pura en las decisiones de localización. Si bien muchas empresas tecnológicas se comprometen públicamente con la neutralidad de carbono, la dificultad reside en asegurar que el nuevo consumo, que crece a un ritmo nunca visto, provenga genuinamente de nuevas fuentes de energía renovable, y no solo de la compra de créditos de carbono.

El dilema del agua: la refrigeración necesaria

Los centros de datos también generan cantidades masivas de calor. Los servidores que trabajan sin descanso para entrenar y ejecutar modelos de IA se calientan rápidamente, y si la temperatura supera un umbral crítico, el equipo se dañará. Por ello, los sistemas de refrigeración de estos centros a menudo extraen agua de las mismas reservas municipales que utilizan los hogares y las empresas cercanas.

En 2023, los centros de datos de EE. UU. consumieron más de 17.000 millones de galones de agua. Las instalaciones más grandes, conocidas como hyperscalers (hiperescaladores), pueden llegar a usar hasta 5 millones de galones en un día caluroso, una cantidad comparable a las necesidades de una gran ciudad, según el Instituto de Estudios Ambientales y Energéticos (EESI). En regiones propensas a la sequía, como el suroeste de EE. UU. o partes de Europa, el impacto de desviar este volumen de agua puede exacerbar las tensiones locales y amenazar el suministro agrícola y doméstico. Este conflicto hídrico está llevando a un escrutinio cada vez mayor por parte de los organismos reguladores locales y los activistas ambientales.

La falta de transparencia

Estos datos deben tomarse con cautela, según Donti, porque las empresas tecnológicas no son particularmente transparentes. “La transparencia de los datos en esta área es un gran problema”, afirma. “Los hiperescaladores no están proporcionando información granular sobre los patrones de uso”. Esta opacidad dificulta enormemente que investigadores, reguladores y comunidades locales evalúen el verdadero impacto ambiental y planifiquen la infraestructura de manera adecuada. Sin datos precisos sobre cuánta energía y agua se consume específicamente para las cargas de trabajo de IA frente a las cargas de trabajo de computación tradicionales, es casi imposible implementar políticas de sostenibilidad efectivas y específicas.

Los impactos se distribuyen de forma desigual

El problema, según Ren, no es tanto que los centros de datos sean inherentemente insostenibles. Más bien, dice, es que “el coste medioambiental se concentra más en torno a algunas comunidades locales”.

Como civilización global, él cree que podemos absorber el impacto del creciente uso de la IA. La producción de carbono de la industria es solo una pequeña fracción del total de emisiones mundiales, después de todo. Y en cuanto al agua, Ren dice: “Hay suficiente, solo que no en todas partes ni en todo momento”.

Con esto en mente, su enfoque se centra en cómo distribuir los efectos negativos de manera más equitativa. Actualmente, los centros de datos están surgiendo en regiones mal equipadas para acogerlos, como Arizona o Chile, propensos a la sequía, o en países con normativas ambientales laxas y mano de obra barata. El impacto en las infraestructuras locales puede ser devastador, obligando a las ciudades a invertir en nuevas plantas de energía o sistemas de agua para apoyar a corporaciones gigantes, mientras que el beneficio local (empleo, impuestos) no siempre compensa el daño ambiental.

Además de contribuir al calentamiento global, las centrales eléctricas de combustibles fósiles que alimentan estos centros de datos también crean contaminación atmosférica local. En muchos casos, la reducción de la calidad del aire perjudica desproporcionadamente a las personas ya desfavorecidas económicamente, en lo que se conoce como injusticia ambiental. Estas poblaciones suelen carecer de la voz política o los recursos legales para oponerse eficazmente a la instalación de nuevas infraestructuras contaminantes en sus vecindarios, perpetuando un ciclo de desigualdad.

La injusticia ambiental de la IA

El concepto de que el coste de la innovación y la comodidad digital recaiga sobre los hombros de las comunidades marginadas subraya una falla ética en el despliegue de la IA.

La carga del aire y el calor

Los centros de datos no solo necesitan energía; necesitan energía fiable. Cuando una red eléctrica local no puede satisfacer la demanda constante de un hyperscaler, se recurre a menudo a las llamadas "plantas pico" (peaker plants). Estas plantas, que se encienden rápidamente para satisfacer picos de demanda, suelen ser menos eficientes y más contaminantes que las centrales de base, y a menudo se encuentran ubicadas cerca de vecindarios de bajos ingresos. El resultado es un aumento localizado de contaminantes atmosféricos nocivos, como óxidos de nitrógeno y partículas finas. Mientras que los beneficios de la IA son globales o recaen en corporaciones ricas, los costes de salud asociados con la mala calidad del aire se pagan localmente por comunidades que ya sufren otras carencias.

El agotamiento de recursos locales

Otro aspecto de la distribución desigual es el agotamiento de los recursos locales de agua. El uso masivo de agua por los centros de datos en épocas de sequía obliga a las autoridades locales a imponer restricciones a la agricultura o al consumo doméstico. Esto crea un conflicto directo entre la necesidad de una gran tecnología para mantener sus servidores refrigerados y las necesidades esenciales de las poblaciones humanas y los ecosistemas locales. Un caso paradigmático es la escasez de agua en la cuenca del río Colorado, donde incluso en medio de restricciones severas, la construcción y operación de nuevos centros de datos continúa, gracias a acuerdos energéticos y hídricos a menudo opacos y favorables a las grandes empresas.

La solución, por lo tanto, no es solo hacer que los centros de datos sean más eficientes, sino obligar a las empresas a internalizar los costes ambientales que actualmente externalizan en estas comunidades.

¿Cómo podemos hacer la IA más sostenible?

Dejando a un lado el riesgo de daño a la reputación, las empresas tecnológicas tienen pocos incentivos para buscar la sostenibilidad por sí misma. Pero, señala Ren, “sí tienen incentivos para reducir el coste de la energía”.

Las reducciones de costes pueden provenir de una mejora del hardware, como las Unidades de Procesamiento Gráfico (GPUs) que realizan los cálculos para la computación de IA, así como de la optimización algorítmica.

Optimización de Hardware y Software

La optimización algorítmica acelera tanto el proceso de entrenamiento de los modelos de IA como el tiempo que tardan esos modelos en completar tareas. Si un algoritmo puede alcanzar la misma precisión utilizando la mitad de las iteraciones de entrenamiento, el consumo de energía se reduce drásticamente. Las mejoras en hardware incluyen el desarrollo de chips más específicos y eficientes, como las Unidades de Procesamiento Tensorial (TPUs) de Google, diseñadas para la alta demanda de cálculos de machine learning.

Otro avance prometedor es el equilibrio geográfico de la carga (geographical load balancing), que dirige el tráfico de usuarios a los servidores que rinden con mayor eficiencia en un momento dado. Esto puede implicar dirigir el tráfico a un centro de datos en una región donde la energía renovable sea abundante en ese momento (por ejemplo, aprovechando el exceso de energía eólica nocturna o solar diurna) o donde la temperatura ambiente sea más baja, reduciendo la necesidad de refrigeración. Este enfoque es crucial para hacer un uso más inteligente de las redes ya existentes.

El reto de la refrigeración líquida

Una de las áreas de mayor innovación es la refrigeración. Los sistemas de refrigeración por aire tradicionales son ineficaces para las densidades de potencia de los servidores modernos, que generan cantidades extremas de calor. La refrigeración líquida, ya sea por contacto directo (sumergiendo los componentes en un fluido dieléctrico) o mediante sistemas de placa fría, está ganando terreno. Estos métodos pueden reducir significativamente la necesidad de agua potable municipal y mejorar la eficiencia energética del centro en general. Sin embargo, su despliegue requiere una inversión inicial alta y una remodelación completa de la infraestructura existente.

Progreso, paradojas y el futuro

Existen algunas señales alentadoras. En cuanto al agua, Amazon, Google y Microsoft se han comprometido a reponer más agua de la que consumen para 2030, a través de proyectos de restauración de cuencas. En cuanto a la energía, la efectividad del uso de energía (PUE), una medida de la eficiencia energética de los centros de datos, ha mejorado constantemente durante las últimas dos décadas, según informes internos de empresas como Google.

Sin embargo, el ritmo de mejora se ha ralentizado en los últimos años. Básicamente, explica Donti, la demanda de IA “está superando la medida en que el hardware se vuelve más eficiente”. Esto nos lleva a una de las mayores trampas ambientales de la tecnología moderna.

La paradoja de Jevons

Desde un punto de vista medioambiental global, existe otro problema crítico: los centros de datos más eficientes, que necesitan menos agua y electricidad para el mismo nivel de funcionamiento, pueden conducir en realidad a más consumo total de energía y agua, no a menos.

Esto se conoce como la paradoja de Jevons: la reducción de costes estimula una mayor demanda y, por lo tanto, un mayor uso general de los recursos. Si la computación de IA se vuelve más barata y rápida, se encontrará automáticamente con nuevas aplicaciones y mercados que antes eran inviables. Los desarrolladores y usuarios se acostumbrarán a usar modelos más grandes y a realizar consultas más frecuentes. Sin un cambio significativo hacia las energías renovables y un uso más cuidadoso del agua, una mayor eficiencia no resolverá necesariamente el problema de la huella de carbono total. La eficiencia, por sí sola, no es un camino hacia la sostenibilidad si el volumen de la demanda es ilimitado.

El resultado final, en opinión de Donti, es que tenemos que ser “clarividentes cuando consumimos recursos” relacionados con la IA. Conocemos, aunque de forma imprecisa, cuáles serán los costes ambientales. Por ello, el uso responsable de la IA exige un diálogo reflexivo y democrático sobre qué aplicaciones merecen el riesgo y cómo moldear el campo en el futuro.

“Es un campo extremadamente moldeable”, dice Donti. “Hay mucho que podemos hacer para cambiar el aspecto de este panorama. La responsabilidad recae en la regulación, en las decisiones de inversión corporativas, y en cada uno de nosotros, los usuarios finales, que estamos consumiendo estos vastos recursos con cada consulta que hacemos a una IA”. Es imperativo que, como sociedad, definamos los límites y prioridades, asegurando que la IA sirva al bienestar humano sin comprometer irrevocablemente la estabilidad de nuestro planeta y la justicia para las comunidades locales.

Más información: La IA fomenta la deshonestidad en los humanos, facilitando que los usuarios hagan trampas con un cómplice

Fuentes

https://www.iea.org/energy-system/buildings/data-centres-and-data-transmission-networks

https://etd.lbl.gov/ea/pdf/lbnl-2007204-v1.pdf

https://www.eesi.org/articles/view/data-centers-growing-demand-for-water-and-energy

https://www.nature.com/articles/s41586-024-07174-8 (Referencia a la ineficiencia de los modelos de IA)

https://www.time.com/6276807/ai-data-centers-climate-change-environmental-justice/ (Referencia a la inequidad de la contaminación local)

https://www.theatlantic.com/technology/archive/2023/08/ai-data-center-water-use-us/674991/ (Referencia a la ubicación en zonas de sequía)

https://cloud.google.com/sustainability/reports (Referencia a informes de eficiencia PUE y compromisos hídricos)

https://www.science.org/doi/10.1126/science.ade6781 (Estudios sobre el impacto ambiental del entrenamiento de grandes modelos de lenguaje)

https://enconnex.com/blog/data-center-timeline/ (Referencia a la historia del ENIAC)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir
Esta web utiliza cookies propias para su correcto funcionamiento. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad