Las empresas tecnológicas estadounidenses están invirtiendo miles de millones en inteligencia artificial. Esto crea un problema de energía.


Más y mejor inteligencia artificial (IA): ese es el objetivo que persiguen las grandes empresas tecnológicas de Estados Unidos. En las últimas semanas, Open AI, Amazon y Meta han anunciado miles de millones de dólares en inversiones en IA. Incluso Donald Trump habló sobre el tema en su segundo día en el cargo. Una gran parte de este dinero se destinará a la infraestructura que forma la columna vertebral de la IA: los centros de datos.
NZZ.ch requiere JavaScript para funciones importantes. Su navegador o bloqueador de anuncios actualmente está impidiendo esto.
Por favor ajuste la configuración.
Open AI y Microsoft invertirán 100.000 millones de dólares en el proyecto "Stargate", Alphabet planea invertir 75.000 millones en el desarrollo de IA este año, Amazon invertirá 86.000 millones en infraestructuras y Meta 65.000 millones. También se construirán nuevos centros de datos en Europa, especialmente en Francia. El presidente francés, Emmanuel Macron, anuncia inversiones de 109.000 millones de euros en una cumbre sobre inteligencia artificial en París. La demanda de energía aumentará con la expansión de la infraestructura de IA, pero aún no se sabe en qué medida.
Hay muchos más centros de datos en EE.UU. que en Europa. Allí, chips altamente especializados entrenan y operan modelos de IA las 24 horas del día. Estos centros de datos consumen mucha electricidad. En el estado de Virginia, los centros de datos ya representan una cuarta parte de la demanda total de electricidad. Pero ¿de dónde debería proceder esta energía de la forma más respetuosa con el medio ambiente y fiable posible?
La inteligencia artificial aumenta la demanda energéticaLa IA consume electricidad varias veces: grandes cantidades cuando se entrena el modelo de IA. Y cada vez que un usuario realiza una solicitud al modelo. Dependiendo de si se trata de crear texto, imágenes o vídeos, cada solicitud a un chatbot como Chat-GPT consume entre diez y treinta veces más energía que una búsqueda online mediante un motor de búsqueda.
Los chips de computadora necesarios para entrenar y utilizar IA también consumen más energía que los chips tradicionales necesarios para aplicaciones en la nube, por ejemplo. Para entrenar un modelo de IA o procesar una consulta, un chip debe, ante todo, calcular, no solo almacenar información. Esto también genera calor adicional. Por lo tanto, los centros de datos deben estar especialmente refrigerados. Especialmente en regiones cálidas como Texas o Arizona, esto requiere mucha electricidad adicional.
Esto también se refleja en las proyecciones del consumo energético futuro de los centros de datos. Un estudio de la consultora McKinsey estima que en EE.UU. se alcanzarán los 80 gigavatios en 2030. El año pasado, esta cifra fue de 25 gigavatios. El Boston Consulting Group (BCG) también espera que la demanda de energía se triplique. El hecho de que la IA se está volviendo cada vez más eficiente se tiene en cuenta en el cálculo, informó BCG. Los centros de datos no sólo se están construyendo en EE.UU.; países y empresas de todo el mundo están invirtiendo en su expansión. La consultora Bain escribe que el consumo de energía en los centros de datos a nivel mundial aumentó un 72 por ciento entre 2019 y 2023 y se espera que se duplique nuevamente para 2027.
Hoy en día, los centros de datos representan el uno por ciento del consumo energético mundial. Si las estimaciones son correctas, los centros de datos representarían el 2,6 por ciento de la demanda energética mundial en 2027. Puede que todavía sea una proporción pequeña, pero el rápido aumento pone de relieve la necesidad de fuentes de energía fiables.
Básicamente, los chips se han vuelto cada vez más eficientes en los últimos años. Pero, especialmente con los chips de IA, la tendencia es hacia un mayor consumo de energía. El último chip Blackwell de Nvidia requerirá 15 kilovatios de energía. Si se llenara un centro de datos entero con estos chips, consumiría fácilmente tanta energía como una ciudad de tamaño mediano. Babak Falsafi es profesor en la EPFL y estudia la eficiencia de los centros de datos. Dice: “Con chips desarrollados específicamente para IA, el consumo de energía se duplica con cada nueva generación”.
Hace un año, Sam Altman, CEO de Open AI, advirtió que una escasez de energía pondría en peligro el desarrollo de la IA.
Los mejores chips pueden hacer que la IA sea más eficienteEl éxito de la IA de la startup china Deepseek generó dudas sobre la suposición de que la IA realmente necesita cada vez más potencia de procesamiento. Según la empresa, Deepseek entrenó su chatbot con menos chips y menos potentes y aún así logró un rendimiento similar al del modelo superior de Open AI. En un artículo de investigación, Deepseek explica las técnicas que utilizaron para lograr una IA más eficiente. Otros desarrolladores de IA pueden adoptar estas innovaciones para sus propios modelos.
Si se puede ahorrar potencia informática, los centros de datos también consumen menos electricidad. Babak Falsafi también dice: “Mejoras en los algoritmos podrían hacerlos más eficientes y así ahorrar energía”.
De hecho, los algoritmos que entrenan a la IA de manera más eficiente no necesariamente reducen la energía requerida para las aplicaciones de IA en general. Hacen que la IA sea más barata y, por tanto, más atractiva para los usuarios. A medida que más personas y empresas utilicen IA, el consumo de electricidad volverá a aumentar. Los costes y los requerimientos energéticos luego sólo se trasladan de la formación a la aplicación.
Las empresas tecnológicas están invirtiendo en nuevas tecnologías energéticasPor eso Microsoft apuesta por la energía nuclear y financia la reanudación de las actividades de la central nuclear de Three Mile Island, cerrada en 2019. La central eléctrica ya no era rentable. Amazon y Google anunciaron en otoño importantes inversiones en los llamados “pequeños reactores modulares”. Estas pequeñas centrales nucleares modulares generan hasta 300 megavatios de energía y pueden suministrar electricidad directamente a los centros de datos. Ninguna de estas minicentrales nucleares está todavía en la red eléctrica de los EE.UU. ni siquiera cerca de estar operativa.
El propio Sam Altman confía en empresas emergentes como Oklo, que desarrolla pequeños reactores nucleares que funcionan con residuos nucleares como combustible. También invierte en Helion, una empresa especializada en fusión nuclear. Altman está invirtiendo cientos de millones de dólares en apuestas energéticas con la esperanza de lograr un gran avance.
Pero este avance aún está muy lejos. Podrían pasar años o incluso décadas antes de que nuevas formas de producción de energía proporcionen suficiente electricidad. Hasta entonces, los centros de datos a menudo funcionarán con energía procedente de combustibles fósiles. Porque la moda de la IA está consumiendo electricidad hoy en día.
nzz.ch