debido a la enorme demanda de inteligencia artificial – .

debido a la enorme demanda de inteligencia artificial – .
debido a la enorme demanda de inteligencia artificial – .
  • La inferencia de IA consume 33 veces más energía que las máquinas que ejecutan un algoritmo tradicional

  • La demanda de electricidad de los centros de datos se multiplicará por seis en los próximos 10 años

Cuando enviamos una solicitud a una inteligencia artificial como ChatGPT, los servidores de un centro de datos calculan la respuesta. Hasta este punto, el proceso es similar a cualquier servicio en la nube, pero los modelos generativos de IA, que han sido entrenados para predecir respuestas, utilizan 33 veces más energía que las máquinas que ejecutan un algoritmo tradicional para realizar tareas específicas.

“Es tremendamente ineficiente desde una perspectiva computacional”, dijo a la BBC la investigadora de Hugging Face, Sasha Luccioni.

La advertencia de los especialistas en ética de la IA

Un estudio prepublicado por Luccioni y otros autores advierte del alto coste medioambiental de los grandes modelos de IA, tanto por la cantidad de energía que demandan como por las toneladas de carbono que emiten.

Cuando empresas como Meta, OpenAI y Google entrenan sus grandes modelos de lenguaje (Llama 3, GPT-4o, Gemini 1.5 Ultra), los ponen a trabajar. cientos de miles de tarjetas gráficas o TPU que consumen enormes cantidades de electricidad, especialmente a medida que crecen en tamaño (de millones a cientos de miles de millones de parámetros).

1.000 teravatios-hora en centros de datos

Sin embargo, esto es sólo una parte de la historia. La IA generativa es cada vez más popular, lo que significa que millones de personas hacen consultas en cada momento que pone en funcionamiento la maquinaria de inferencia: el proceso mediante el cual los modelos de aprendizaje automático hacen predicciones o generalizaciones a partir de cualquier consulta. .

Este proceso es igualmente costoso porque generar contenido desde cero en centros de datos de todo el mundo. Los centros de datos utilizan cada vez más electricidad: de 460 TWh en 2022 a más de 1.000 TWh proyectados para 2026; aproximadamente el consumo de electricidad de Japón, que tiene una población de 125 millones de personas.

En National Grid, el operador de la red eléctrica del Reino Unido, están preocupados. Estiman que la demanda de electricidad de los centros de datos se sextuplicará en los próximos 10 años debido al uso de la IA, a lo que hay que sumar la electrificación del transporte y la calefacción.

En Estados Unidos, los operadores de redes ya están empezando a resentirseDice la consultora Wood Mackenzie: “Están siendo afectados por las demandas de los centros de datos exactamente al mismo tiempo que se produce el resurgimiento (gracias a la política gubernamental) de la fabricación nacional”.

Coqueteando con la energía nuclear

Nuevos modelos pequeños como Phi-3 o Gemini Nano, que funcionan directamente en nuestros dispositivos, puede aliviar parte del problema. Al mismo tiempo, el rendimiento del hardware está mejorando, lo que ahorra energía tanto en el entrenamiento como en la inferencia.

Pero a medida que el hardware mejora, las grandes tecnológicas también compiten para entrenar modelos más grandes y más capaces, lo que requiere más centros de datos para almacenar los datos de entrenamiento y más energía para alimentar toda la potencia informática.

Es una pescadilla que se muerde la cola. Y aunque los centros de datos suelen contar con instalaciones de autoconsumo, esto requerirá soluciones más drásticas. Por eso empresas como Microsoft están empezando a apostar por los reactores nucleares modulares mientras Sam Altman, CEO de OpenAI, invierte en la fusión nuclear.

Imagen | microsoft

En Xataka | La respuesta de un ejecutivo del Meta sobre cuánto consume la IA: “sólo harían falta dos reactores nucleares para cubrirlo”

 
For Latest Updates Follow us on Google News
 

PREV Así utilizan las marcas la IA para descifrar nuestras emociones
NEXT Las aerolíneas se rebelan contra la multa de 150 millones y advierten que “no habrá cambios” en el cobro por equipaje de cabina