.

Dean Mouhtaropoulos | Getty

Cambio Climático

La IA podría ser la próxima gran amenaza del cambio climático

1

Varios expertos advierten de que el consumo de energía de la inteligencia artificial podría dispararse si no logramos reinventar los chips. No obstante, estos pronósticos no tienen en cuenta otras mejoras que podrían contrarrestar el aumento de la electricidad requerida

  • por Martin Giles | traducido por Ana Milutinovic
  • 02 Agosto, 2019

En una reciente conferencia en San Francisco (EE. UU.), el director ejecutivo de la empresa proveedora de la industria de los semiconductores Applied Materials, Gary Dickerson, subió al escenario e hizo una predicción audaz. Advirtió que si no se produce una importante innovación en los materiales, en la fabricación y en el diseño de los chips, para 2025 el volumen de trabajo de inteligencia artificial (IA) de los centros de datos podría representar una décima parte del consumo de electricidad al nivel mundial.

Hoy en día, la cifra de consumo energético de los millones de centros de datos que hay en todo el mundo no alcanza el 2 %, un volumen que abarca todo tipo de cargas de trabajo manejadas en sus vastas matrices de servidores. Applied Materials estima que los servidores de IA actualmente solo representan el 0,1 % del consumo mundial de la electricidad.

Pero Dickerson no es el único que está haciendo sonar esta alarma. El experto de Huawei Anders Andrae también cree que los centros de datos podrían acabar consumiendo una décima parte de la electricidad del mundo para 2025, aunque su estimación cubre todos sus usos, no solo la inteligencia artificial. Por su parte, el asesor especial del científico principal del Instituto Rocky Mountain Jonathan Koomey es más optimista. Espera que el consumo de energía de los centros de datos se mantenga relativamente estable en los próximos años, a pesar de ese incremento en la actividad relacionada con la IA.

Estas predicciones tan dispares resalta la incertidumbre sobre el impacto de la IA en el futuro de la informática a gran escala y sobre su impacto sobre la demanda global de energía.

Otras predicciones

La IA, sin duda, consume mucha electricidad. Entrenar y ejecutar modelos de aprendizaje profundo implica procesar grandes cantidades de datos, algo que retiene la memoria y los procesadores. Un estudio realizado por el grupo de investigación OpenAI afirma que, actualmente, la cantidad de potencia informática necesaria para ejecutar grandes modelos de IA se duplica cada tres meses y medio.

Applied Materials reconoce que su pronóstico se basa en los peores escenarios y que está diseñado para resaltar lo que podría suceder en ausencia de nuevas ideas en hardware y software. El director de Estrategia Corporativa e Inteligencia de Negocio de la compañía, Sundeep Bajikar, explica que, con el tiempo, habrá un cambio en la combinación de información que se usa para entrenar los modelos de IA, con una presencia cada vez mayor de vídeos y otras imágenes frente al texto y audio. Procesar datos visuales requiere más potencia computacional y, por lo tanto, consume más energía.

Los vehículos autónomos y los sensores integrados en otros dispositivos inteligentes también generarán cada vez más datos para procesar. Y la extensión de la conectividad superrápida inalámbrica 5G hará que sea aún más fácil transportar datos hacia y desde los centros de datos.

Bajikar cree que estas y otras tendencias destacan la urgente necesidad de lo que su compañía llama "un nuevo libro de reglas" sobre materiales y fabricación para la era de la IA. Algunos investigadores creen que la demanda de energía por parte de la IA podría incluso convertirse en un gran problema para el medio ambiente: un equipo de la Universidad de Massachusetts en Amherst (EE. UU.), publicó recientemente un estudio que muestra que entrenar a varios modelos grandes y comunes de IA produce casi cinco veces más emisiones que las que hace un coche estadounidense medio durante toda su vida útil.

Posibles soluciones

Pero los pronósticos más pesimistas ignoran varios desarrollos importantes que podrían limitar la demanda de energía de IA. Uno de ellos es el aumento de los centros de datos a "hiperescala" promovidos por compañías como Facebook y Amazon.

Estas infraestructuras usan grandes matrices de servidores básicos diseñados para tareas específicas. Las máquinas son más eficientes a nivel energético que los servidores de los centros convencionales diseñados para una gama más amplia de funciones. Un cambio continuo hacia la hiperescala, combinado con los avances en refrigeración y otras tecnologías, es una gran razón por la cual el consumo de energía de los nuevos centros de datos ha sido básicamente eliminado por las mejoras de eficiencia logradas en los últimos años.

La creación de nuevos tipos de microchips también podría aliviar el problema. El pronóstico de Applied Materials supone que las cargas de trabajo de IA continuarán ejecutándose en el hardware existente cuya eficiencia mejorará gradualmente en los próximos años. Pero muchas start-ups y grandes empresas como Intel y AMD, están desarrollando semiconductores que aprovechan tecnologías como la fotónica para alimentar las redes neuronales y otras herramientas de inteligencia artificial y que consumen mucha menos energía.

Koomey opina que las proyecciones alarmistas también pasan por alto el hecho de que, para algunos tipos de tareas de IA, como el reconocimiento de patrones, los resultados aproximados de los modelos son suficientes. Eso significa que no es necesario gastar energía en calcular cientos de decimales.

Irónicamente, la propia IA podría ofrecer un mayor control sobre su consumo de energía. Google ya utiliza la tecnología desarrollada por DeepMind, la compañía que adquirió en 2014, para enfriar sus centros de datos de manera más eficiente. La IA ya había ayudado a la empresa a reducir su factura de refrigeración en un 40 % mediante recomendaciones a los operadores humanos; ahora , controla los sistemas de refrigeración en los centros de forma autónoma.

La IA también podrá utilizarse para optimizar otros aspectos de las operaciones de los centros de datos. Y, como el sistema de refrigeración de Google, esto beneficiará a todo tipo de cargas de trabajo. Eso no significa que los centros de datos no terminen consumiendo mucha más energía debido a la creciente demanda de la magia de la inteligencia artificial, pero es una razón más para concluir que hacer pronósticos en este campo es muy difícil.

Cambio Climático

  1. La paradoja de la reducción del dióxido de azufre sobre el cambio climático

    A medida que el aire se vuelve más limpio, el mundo también pierde un importante efecto refrigerante.

    Un gran carguero de contenedores surca el océano
  2. Prolongar la vida útil de los reactores nucleares para limpiar la red eléctrica

    Un parque nuclear envejecido aún puede contribuir a reducir las emisiones de gases de efecto invernadero

    Un turbogenerador en el Centro Energético de Indian Point de 2021
  3. El incierto futuro de la geoingeniería solar tras el fracaso del experimento de Harvard

    Algunos observadores sostienen que el fin de SCoPEx debería marcar el final de tales propuestas. Otros afirman que cualquier experimento futuro debería desarrollarse de forma muy distinta

    Un diagrama del globo SCoPEx tachado con una "X" roja flota sobre un fondo azul con partículas negras