Cómo impacta el crecimiento de la Inteligencia Artificial en el consumo energético

Una investigación de Alex De Vries (fundador de Digiconomist, una empresa de investigación dedicada a exponer las consecuencias no deseadas de las tendencias digitales) realizó un informe sobre la creciente huella energética que deja detrás suyo la Inteligencia Artificial (IA).

La investigación publicada en Joule se centra en el impacto ambiental de las nuevas tecnologías, específicamente de las IA, que han sido testigo de una expansión acelerada y a gran escala entre los años 2022 y 2023. El lanzamiento de ChatGPT de OpenAI fue un trampolín para que otras empresas (como Microsoft y Alphabet) incrementaran su inversión en sus propios modelos de Inteligencia Artificial. ChatGPT, por su parte, alcanzó los 100 millones de usuarios en sólo dos meses desde su lanzamiento.

El autor pone el foco en la preocupación creciente sobre el consumo de energía eléctrica y el posible impacto que las IA generan en el ambiente y los centros de datos. El consumo de electricidad de los centros de datos en los últimos años, afirma, «ha representado un 1% relativamente estable del uso mundial de electricidad, excluyendo la minería de criptomonedas. Entre 2010 y 2018, el consumo mundial de electricidad de los centros de datos puede haber aumentado solo un 6%». Sin embargo, también aclara que existe una preocupación cada vez mayor sobre los recursos necesarios a nivel informático para el desarrollo y mantenimiento de modelos basados en IA que aumentarían el consumo mundial de energía eléctrica. 

En primer lugar define a la Inteligencia Artificial como «una variedad de tecnologías y métodos que permiten a las máquinas exhibir un comportamiento inteligente. Dentro de este dominio, la IA generativa, utilizada para crear contenido nuevo (por ejemplo, texto, imágenes o videos), tiene ejemplos destacados, como la herramienta de generación de texto ChatGPT y DALL-E de OpenAI (…) ambas herramientas utilizan el procesamiento del lenguaje natural y, aunque emplean técnicas distintas, comparten un proceso común: una fase de entrenamiento inicial seguida de una fase de inferencia».

Es la fase de entrenamiento la que, se cree, consume mayor cantidad de energía, ya que es cuando el modelo de Inteligencia Artificial recibe grandes cantidades de datos para dar como resultado el aprendizaje, que le permite predecir palabras u oraciones específicas en función de un contexto determinado. La empresa estadounidense Hugging Face, por ejemplo, reportó que su modelo BigScience Large Open-Science Open-Access Multilingual (BLOOM) consumió 433 MWh de electricidad durante el entrenamiento, mientras que otros como GTP-3, Gopher y Open Pre-trained Transformer (OPT), utilizaron 1.287, 1.066 y 324 MWh, respectivamente, para su formación.

Por su parte, la etapa de inferencia aún no arroja una gran cantidad de resultados e informes sobre sus posibles consecuencias ambientales y sobre el consumo medio de energía de la misma. El autor aclara que hay indicios sobre cómo esta fase podría contribuir significativamente al consumo energético de estos modelos, pero que es un tema que aún debe investigarse en conjunto con la fase inicial para brindar más datos.

Otro punto clave, es la creciente demanda de productos de IA, como los chips y servidores, que podría conducir también a un aumento significativo en la huella energética. Citando el ejemplo de Google, el autor afirma que una de las estimaciones que encontró sobre la posibilidad de que este buscador utilizara la misma tecnología que ChatGPT, es que el consumo eléctrico diario del mismo sería de 80 GWh y un consumo anual de 29,2 TWh. Sugiere que el peor de los escenarios sería que «la IA de Google por sí sola podría consumir tanta electricidad como un país como Irlanda (29,3 TWh por año), lo que representa un aumento significativo en comparación con su consumo histórico de energía relacionado con la IA. Sin embargo, este escenario supone una adopción de IA a gran escala utilizando hardware y software actuales, lo que es poco probable que suceda rápidamente. Aunque la Búsqueda de Google tiene un alcance global con miles de millones de usuarios, es poco probable que se produzca una curva de adopción tan pronunciada». 

Las conclusiones de De Vries

Si bien cree que es posible que el suministro de servidores de IA siga siendo un cuello de botella por algunos años más, De Vries considera que está en camino a lograr un crecimiento proyectado pero que se deben «oderar las expectativas», ya sean pesimistas u optimistas. Incluso ante la posibilidad de una mejora en la tecnología y los distintos tipos de software utilizados en modelos IA  (lo que los volvería más eficientes), puede generarse también un efecto rebote que produzca que esta mayor eficiencia demande más IA, aumentando en lugar de reducir el uso total de recursos. Es por esto que aconseja que quienes desarrollen IA también consideren la necesidad real de su utilización, ya que cree poco probable que todas las aplicaciones se beneficien con el uso de Inteligencia Artificial. También pone el foco en la posibilidad de introducir requisitos de divulgación ambiental para mejorar la transparencia en toda la cadena de suministros de IA, con el fin de comprender mejor los costos ambientales de esta tecnología en auge.

—————————————————————————————————————————-

En Dynamic Energy Argentina ofrecemos soluciones energéticas para grandes empresas e industrias. Contamos con un servicio de Consultoría en Energía Eléctrica y Gas que ayuda a optimizar costos en la cadena productiva, Auditorías en Eficiencia Energética para realizar diagnósticos sobre el consumo energético y poder reducirlo y contamos con un exclusivo Software de Gestión de Energía, que brinda información del comportamiento actual de la red eléctrica, para prevenir fallas y mejorar su uso.¿Querés conocer sobre los servicios que brinda Dynamic Energy? Hace click aquí o contactanos al mail info@dynamicenergy.com.ar

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *