El medio ambiente se puede resentir de la feroz competencia por el desarrollo de la IA
Las redes neuronales, base del actual desarrollo de la inteligencia artificial, suelen ahorrar tiempo y energía si se les da un buen uso. En otro artículo de este dossier se constata que predecir el tiempo con GraphCast u otros sistemas de IA requiere de un poder de cómputo (y de gasto energético) mucho menor que el del superordenador que utiliza el centro europeo de predicción. Pero la generalización del uso y la feroz competencia entre los grandes modelos de lenguaje que ha seguido a la irrupción de ChatGPT va a suponer todo lo contrario: un fuerte aumento del gasto mundial en electricidad.
Sobre la base de las previsiones de venta de Nvidia, el fabricante de más del 90% de los procesadores específicos para la IA, el investigador holandés Alex de Vries publicó en octubre un estudio en el que se calcula que en 2027 el funcionamiento de los ordenadores que incorporen esos chips supondrá un gasto energético equivalente al de los Países Bajos, Irlanda o Suecia. Traducido a otros téminos, comportaría toda la producción eléctrica de 15 centrales de 1.000 megawatios. En unos momentos en que el mundo está empeñado en reducir las emisiones de gases de efecto invernadero, este gasto extra de energía no va a ayudar.
Los impulsores de los grandes modelos de IA son plenamente conscientes del derroche energético, básicamente porque en esta fase inicial van a ser ellos los que paguen la factura. Y probablemente para no ser acusados de contribuir al cambio climático se suelen mostrar favorables al desarrollo de la energía nuclear, que no emite dióxido de carbono en su fase de funcionamiento.
Aceleración
En la reciente reunión de Davos, Sam Altman, el controvertido CEO de OpenAI, la empresa creadora de ChatGPT, abogó por un «avance rompedor” en la generación nuclear. Significativamente, Altman ha invertido mucho dinero en Helion, una empresa que trata de desarrollar reactores comerciales de fusión nuclear, y en Oklo, que diseña minirreactores de fisión.
El aumento del gasto energético se produce a dos niveles: en el consumo que comporta el entrenamiento del modelo de IA en sí mismo y en el que se produce en cada consulta una vez puesto al servicio del público.
Los impulsores de estos modelos suelen mostrarse favorables a la energía nuclear
En el primer apartado puede apreciarse la aceleración del consumo comparando dos modelos de OpenAI. El GPT3, creado en 2020, lo formaba una red neuronal con 175.000 millones de parámetros y se estima (la empresa no da datos precisos) que consumió para su entrenamiento 78.437 Kwh con un coste de al menos 4,6 millones de dólares. Del modelo GPT4, puesto en marcha tres años después, aún hay menos datos pero se estima que está dotado de una red neuronal con un billón de parámeros y ha costado entrenarla 20 veces más que la anterior, unos 100 millones de dólares, según el semanario The Economist.
En el segundo nivel, los cálculos difundidos son también poco precisos, pero es seguro que una consulta en el buscador clásico de Google gasta bastante menos energía que si se utiliza su hermano mayor Gemini, dotado de IA. Este último y GPT4, los dos grandes sistemas polivalentes, consumen mucho más que si se utiliza uno creado para una tarea específica: por ejemplo, Google Translate es más eficiente traduciendo que los grandes modelos multitarea.
Consume también mucho más generar una imagen que un texto. Un estudio efectuado por investigadoras de la empresa Hugging Face y de la Universidad Carnegie Mellon concluye que una imagen utiliza el equivalente al total de la carga de una batería de móvil, mientras que en el caso del texto es aproximadamente el 16%, la sexta parte.
Resumiendo: juguetear con ChatGPT para que genere haikus sobre la primavera es un despilfarro energético, pero si lo que se pide al sistema es que genere la imagen de Pedro Sánchez colgado por los pies cabe cabe hablar ya de atentado contra el clima.
Fuente: https://alternativaseconomicas.coop/articulo/dossier/una-carrera-que-derrocha-la-energia