¿QUÉ NECESITAMOS PARA CONSTRUIR SISTEMAS DE AI MÁS SOSTENIBLES?

https://greensoftware.foundation/articles/what-do-we-need-to-build-more-sustainable-ai-systems

Probablemente haya oído hablar de la intersección entre la inteligencia artificial (IA) y el medio ambiente. Sí, podemos crear soluciones de IA para abordar el cambio climático y otros problemas medioambientales. Pero los propios sistemas de IA tienen un impacto medioambiental. En este artículo hablaremos de esto último, sobre todo porque la escala de los sistemas de IA crece enormemente y corremos el riesgo de sufrir graves daños ambientales y sociales si no encontramos la manera de hacer que estos sistemas sean más ecológicos. No todas las esperanzas están perdidas en la incesante búsqueda de la construcción de sistemas más avanzados (SOTA); podemos hacer cambios para ayudar a mitigar el impacto ambiental. En concreto, la contabilidad del carbono puede ayudar a orientar nuestras acciones. De hecho, ¡hay cosas que podemos empezar a hacer esta semana que pueden ayudar! 

Contabilidad del carbono: una posible solución

En primer lugar, necesitamos conocer el impacto medioambiental de nuestros sistemas antes de poder realizar cambios. La contabilidad del carbono es una herramienta de diagnóstico esencial que puede ayudar a orientar nuestras acciones. No es en absoluto la solución completa, pero nos proporciona una base muy sólida para ponernos en marcha. Esto incluye cosas como cuándo ejecutar el entrenamiento de nuestros sistemas de IA, dónde ejecutarlos, y reunir esos conocimientos para evaluar los costes y beneficios de construir y desplegar dicho sistema. 

Entonces, ¿por qué la contabilidad del carbono para los sistemas de IA no es una práctica generalizada hoy en día? Es un campo incipiente con problemas en dos categorías: datos y práctica. 

Problemas actuales 

Problemas con los datos

En la actualidad, las fuentes de datos de entrada son muy poco ricas. Sólo unas pocas regiones del mundo disponen de conjuntos de datos bien surtidos y actualizados en tiempo real por proveedores como WattTime y ElectricityMap. En otros casos, nos quedamos con datos estáticos y gruesos en formatos a menudo no interoperables y no legibles por máquinas, procedentes de fuentes de datos gubernamentales. Esto impide que los que quieren modificar sus patrones de consumo de energía, como la programación de trabajos de entrenamiento de IA en períodos más verdes del día y en regiones del mundo, puedan obtener información procesable.

Esta falta de riqueza y de actualizaciones en tiempo real también tiene implicaciones para los lugares en los que las redes cuentan con fuentes de energía renovable conectadas, lo que ocurre cada vez más en muchas partes del mundo, ¡algo estupendo! Pero, dada su gran variabilidad -con qué intensidad brilla el sol y con qué fuerza sopla el viento-, la composición real de la energía de la red puede cambiar de forma imprevisible. Esto repercute en la capacidad de elegir regiones y periodos más verdes para ejecutar las cargas de trabajo computacionales. 

Por último, los datos publicados por los proveedores de computación en la nube, hasta ahora, no tienen la suficiente granularidad -al menos en los datos publicados públicamente- para permitir a los profesionales tomar decisiones independientes. Tienen que confiar en la información proporcionada por los propios proveedores de la nube para elegir los periodos y regiones adecuados para ejecutar las cargas de trabajo. Esto podría no ser malo, sobre todo porque los proveedores de la nube tienen los conocimientos más profundos sobre la composición real de la energía que consumen y, por tanto, sobre el impacto de las emisiones de carbono al ejecutar una carga de trabajo en un sistema concreto en la nube. 

Y todo esto se ve agravado por el hecho de que las diferentes metodologías de medición proponen diferentes métricas y formas de medir el impacto del carbono, junto con diferentes proxies cuando no se dispone de datos directos para evaluar el impacto del carbono de las cargas informáticas. Estas discrepancias dificultan las comparaciones y confunden al consumidor sobre qué soluciones son realmente más ecológicas.  

Por encima de todo, debemos considerar cómo todos los datos que se recopilen y utilicen cambiarán significativamente los comportamientos de los profesionales. Podemos reunir los conjuntos de datos más detallados del mundo y ofrecer análisis complejos, pero si eso no hace que los profesionales cambien su forma de diseñar, desarrollar e implantar los sistemas de IA, todo eso no sirve para nada.

Cuestiones prácticas

Si usted es un profesional, seguramente habrá detestado tener que escribir documentación y rellenar informes. La primera generación de herramientas para informar sobre el impacto del carbono de los sistemas de IA estaba plagada de una desconexión entre el modo de trabajar de los profesionales y lo que se les ofrecía como posibles soluciones. En concreto, estas herramientas solían implicar tener que visitar un sitio web, introducir información sobre el tipo de máquina virtual que utilizaban, la configuración que tenía, la región en la que se ejecutaba y el tiempo de ejecución del trabajo. Si el profesional no guardaba toda esa información, tenía que reconstruirla de memoria. O incluso si eran lo suficientemente diligentes como para ir y hacerlo justo después, se encontraban abandonando el esfuerzo después de unas cuantas ejecuciones. La razón: este enfoque les pedía que salieran de sus flujos de trabajo naturales. 

*** Translated with http://www.DeepL.com/Translator (free version) ***

La IA tiene una enorme huella de carbono. Esto es lo que podemos hacer para reducirlo

https://www.msn.com/en-us/news/technology/ai-has-a-huge-carbon-footprint-here-s-what-we-can-do-to-reduce-it/ar-BB1c0DQV

Entre los riesgos está la gran huella de carbono de desarrollar este tipo de tecnología de IA. Según algunas estimaciones, entrenar un modelo de IA genera tantas emisiones de carbono como se necesitan para construir y conducir cinco automóviles durante su vida útil.

Soy un investigador que estudia y desarrolla modelos de inteligencia artificial, y estoy muy familiarizado con los costos energéticos y financieros vertiginosos de la investigación de la inteligencia artificial. ¿Por qué los modelos de IA se han vuelto tan hambrientos de energía y en qué se diferencian de la computación tradicional del centro de datos?

El entrenamiento de hoy es ineficiente

Los trabajos tradicionales de procesamiento de datos realizados en centros de datos incluyen transmisión de video, correo electrónico y redes sociales. La IA es más computacionalmente intensiva porque necesita leer una gran cantidad de datos hasta que aprende a comprenderlos, es decir, se entrena.

Esta formación es muy ineficaz en comparación con la forma en que aprenden las personas. La IA moderna utiliza redes neuronales artificiales, que son cálculos matemáticos que imitan a las neuronas del cerebro humano. La fuerza de conexión de cada neurona con su vecina es un parámetro de la red llamado peso. Para aprender a entender el lenguaje, la red comienza con pesos aleatorios y los ajusta hasta que el resultado coincide con la respuesta correcta.

Oculto a la vista: las infraestructuras que apoyan la inteligencia artificial

 La joya de la corona de la economía de los intangibles, la IA necesita infraestructuras electrónicas expansivas que tengan impactos y costes tangibles. Las estimaciones sugieren que «la huella de carbono de entrenar una sola IA es de hasta 284 toneladas de dióxido de carbono equivalente», cinco veces las emisiones de por vida de un automóvil promedio.

Si optamos por explotar el “petróleo del siglo XXI”, tendremos que construir grandes centros computacionales poderosos y granjas de servidores considerables. La inteligencia artificial requiere redes y infraestructuras en la nube para capturar, analizar, compartir y archivar grandes cantidades de datos.

Cuando se involucran técnicas de aprendizaje profundo, el entrenamiento es un paso clave que consiste en alimentar el algoritmo con conjuntos de datos grandes y en su mayoría no estructurados. El entrenamiento de una sola aplicación basada en IA puede dividirse en decenas de chips y puede requerir meses para completarse.

Aunque solo se necesita un toque de baja energía en un teléfono inteligente para usar una aplicación, su desarrollo requiere mucha energía y las fuentes de energía no renovables tienen un impacto ambiental mucho mayor.

Energía para entrenar

Afortunadamente, los científicos de datos están comenzando a calcular la energía necesaria para desarrollar herramientas de IA antes de que estén disponibles para su uso. Por ejemplo, un proceso involucrado en la automatización del diseño de una red neuronal a través de prueba y error, llamado Búsqueda de Arquitectura Neural (NAS), consume mucha energía. Sin NAS, entrenar la herramienta de IA Transformer lleva 84 horas, pero con NAS lleva más de 270.000 horas, por lo que «requiere 3000 veces la cantidad de energía».

Reducir la huella de carbono de la IA requiere un «esfuerzo concertado de la industria y el mundo académico para promover la investigación de algoritmos más eficientes desde el punto de vista informático» y el uso de hardware y estrategias de desarrollo de modelos más sostenibles.

https://theconversation.com/hidden-in-plain-sight-the-infrastructures-that-support-artificial-intelligence-146087

El documento que obligó a Timnit Gebru a salir de Google

 Gebru, una líder ampliamente respetada en la investigación de la ética de la IA, es conocida por ser coautora de un artículo innovador que mostró que el reconocimiento facial es menos preciso para identificar a las mujeres y las personas de color, lo que significa que su uso puede terminar discriminándolas. También cofundó el grupo de afinidad Black in AI y defiende la diversidad en la industria tecnológica. El equipo que ayudó a construir en Google es uno de los más diversos en inteligencia artificial e incluye muchos expertos líderes por derecho propio. Sus compañeros en el campo la envidiaban por producir un trabajo crítico que a menudo desafiaba las prácticas convencionales de IA.

https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/

Artificial intelligence development is starting to slow down, Facebook head of AI says

It may seem like artificial intelligence is quickly seeping into just about everything. While that might raise concerns about a Skynet-style takeover, the quiet secret about AI is that it isn’t taking over. In fact, some experts believe that AI in its current form is starting to slow down, reaching its maximum capacity — at least for the time being. In an interview with Wired, Facebook’s head of AI, Jerome Pesenti, theorized that the development of artificial intelligence and machine learning is about to «hit the wall.»

https://www.mic.com/p/artificial-intelligence-development-is-starting-to-slow-down-facebook-head-of-ai-says-19424331

https://www.wired.com/story/facebooks-ai-says-field-hit-wall/#

Crea tu sitio web con WordPress.com
Comenzar