
Para reducir el consumo de recursos energéticos, es necesario centrarse en varias áreas. Estos incluyen el desarrollo de chips más eficientes, la investigación de eficiencia energética de IA que considera tanto el hardware como los algoritmos, y prácticas de entrenamiento modelo.
El Inteligencia artificial (AI) representa una tecnología que requiere enormes cantidades de energía, tanto en su fase de entrenamiento como en su operación.
A medida que la IA se vuelve más avanzada, sus demandas de energía aumentan significativamente, llegando al punto en que una consulta sobre ChatGPT consume tres veces más energía que uno realizado en el buscador de Google.
Una de las empresas más destacadas en el campo de la AI es IA abierta, creador del ‘chatbot’ ChatGPT. Se estima que el modelo de lenguaje GPT-3 requirió la asombrosa cantidad de 78.437 kWh de electricidad para su entrenamiento, una cifra comparable al consumo energético medio de una vivienda en España durante 23 años.
¿Qué tan malo es?
Este dato, proporcionado por el Instituto de Ingeniería de España (IIE), pone de manifiesto el enorme gasto energético asociado a la IA, ya que su entrenamiento requiere grandes cantidades de datos y recursos computacionales, lo que repercute también en la necesidad de una cantidad considerable de energía para su funcionamiento. A medida que los modelos de IA se vuelven más complejos, estos requisitos de energía pueden aumentar aún más.
El consumo de energía también se traduce en el uso de una gran cantidad de agua para enfriar los servidores que alimentan los diversos productos y sistemas de IA. Según investigadores de las universidades de Riverside y Arlington, el entrenamiento de GPT-3 en uno de los centros de datos avanzados de Microsoft, socio de OpenAI en el desarrollo de IA, consumió directamente 700.000 litros de agua dulce limpia, equivalente a la producción de 370 automóviles BMW o 320 vehículos eléctricos Tesla.
En el caso de centros de datos propiedad de Google en Estados Unidos se estima que consumieron 12.700 millones de litros de agua dulce en 2021 para los procesos de enfriamiento de sus equipos de cómputo.
El uso diario de esta tecnología también implica un alto consumo de recursos. Por ejemplo, una sola conversación de entre 20 y 50 preguntas con ChatGPT requiere aproximadamente 500 ml de agua para su enfriamiento, según el citado estudio. En cuanto a la electricidad, una búsqueda media en Google consume 0,0003 kWh, mientras que una consulta en ChatGPT necesita entre 0,001 y 0,01 kWh, según datos del Instituto de Ingeniería de España.
En este contexto, las grandes empresas tecnológicas comienzan a tomar medidas para abordar el impacto ambiental de sus operaciones, además de buscar beneficios económicos y satisfacer las demandas del mercado. José Andrés López de Fez, miembro del Comité de Sociedad Digital del Instituto IIE, destaca que estas empresas están adoptando energías renovables para alimentar sus centros de datos, mejorando la eficiencia energética de los servidores y estableciendo programas de reciclaje de productos electrónicos.
Para reducir el consumo de recursos energéticos, es necesario centrarse en varias áreas. Estos incluyen el desarrollo de chips más eficientes, la investigación sobre la eficiencia energética de la IA que considera algoritmos y prácticas de entrenamiento tanto de hardware como de modelos, el uso de sistemas de energía renovable y neutral en carbono, mejoras en la infraestructura de datos y la implementación de políticas de reciclaje para dispositivos electrónicos y economía circular. Estos temas son esenciales para garantizar un uso más sostenible de la tecnología de Inteligencia Artificial en el futuro.
TAMBIÉN TE PUEDE INTERESAR: Criptomonedas: las noticias más importantes de la semana
HoyCripto, es sitio un web dedicado a compartir lo último en noticias e información relacionada con criptomonedas, NFTs y Metaverso en general.
