Pese a que las aplicaciones de inteligencia artificial (IA) ayudarán a proteger el clima, el consumo energético de los centros de datos está aumentando considerablemente, advirtió hoy Ralf Herbrich, director del Instituto Hasso Plattner (HPI) de Potsdam, cerca de Berlín.

“Las herramientas de IA consumen mucha electricidad y la tendencia va en aumento”, aseguró Herbrich a dpa.

El jefe del departamento de Inteligencia Artificial y Sostenibilidad del HPI destacó que el entrenamiento de un único modelo de IA por sí solo es un proceso que consume mucha energía con complejos cálculos de predicción.

Por su parte, el científico de datos Alex de Vries, de la Universidad Libre de Ámsterdam, comparó el consumo de energía de un motor de búsqueda que utiliza la IA con el de países enteros. Entretanto, científicos y empresas de Internet trabajan para mejorar la huella medioambiental de la IA.

“Hoy en día, los centros de datos consumen entre el 4 y el 5% de la energía mundial”, destaca Herbrich. Agrega que si se añade el uso de tecnologías digitales como ordenadores portátiles y teléfonos inteligentes alcanza el 8%.

“Hay estimaciones de que el consumo aumentará hasta el 30% en los próximos años”, comenta el experto, quien equipara este desarrollo con un horno.

Según Herbrich, para entrenar un modelo de IA, los procesadores de cientos de tarjetas gráficas, cada una de las cuales consume unos 1.000 vatios, funcionaron durante varias semanas. “Mil vatios es tanto como un horno”, detalló.

En su opinión, el objetivo de la investigación es que los cálculos salgan bien con menos parámetros. Por lo tanto, con menos gasto energético, al tiempo que se reduce mínimamente la precisión de las predicciones.

Las empresas tecnológicas también están impulsando la investigación sobre el ahorro de energía en la IA. Pero se necesitan varios años para desarrollar soluciones.

De Vries, que acaba de publicar un comentario en la revista científica Joule, quiere demostrar que no solamente el entrenamiento de la IA consume una gran cantidad de energía.

De acuerdo con su trabajo, la necesidad de energía también se produce cada vez que la herramienta genera un texto o una imagen. “Por ejemplo, hacer funcionar ChatGPT puede costar 564 megavatios hora de electricidad al día”, explica.

Sin embargo, el científico neerlandés comenta que es difícil predecir el futuro del consumo energético de la IA.

Google, que este año lanzó el redactor de texto de inteligencia artificial Bard, declaró que, según sus investigaciones y su propia experiencia, la energía necesaria para hacer funcionar la tecnología está aumentando a un ritmo mucho más lento del que muchos pronósticos habían previsto.

La empresa de tecnología estadounidense declara que aplicó métodos probados para reducir en gran medida el consumo de energía para entrenar a un modelo.

Además, destaca la utilización de la inteligencia artificial para la protección del clima y menciona, por ejemplo, una “planificación de rutas que ahorra combustible” a través de Google Maps, como así también un programa de predicción de crecidas de ríos.

dpa