El AI de Google podría pronto consumir tanta electricidad como Irlanda, revela estudio

La Inteligencia Artificial de Google podría pronto requerir la misma cantidad de electricidad que todo Irlanda, según un estudio revelador

En medio del debate sobre los peligros del desarrollo generalizado de IA, puede haberse pasado por alto una preocupación importante: la enorme cantidad de energía requerida para entrenar estos grandes modelos de lenguaje.

Un nuevo estudio publicado esta semana sugiere que la industria de la IA podría consumir tanta energía como un país como Argentina, Países Bajos o Suecia para el año 2027. Además, la investigación estima que si Google solo cambiara todo su negocio de búsqueda a IA, terminaría utilizando 29.3 teravatios-hora al año, equivalente al consumo de electricidad de Irlanda.

El artículo fue publicado por Alex de Vries en la Escuela de Negocios y Economía de la VU de Ámsterdam.

En 2021, el consumo total de electricidad de Google fue de 18.3 TWh, y la IA representó entre el 10% y el 15% de ese consumo. Sin embargo, el gigante tecnológico está escalando rápidamente las partes de IA de su negocio, especialmente con el lanzamiento de su chatbot Bard, pero también con la integración de IA en su motor de búsqueda.

Sin embargo, el escenario estipulado por el estudio asume la adopción a gran escala de IA utilizando hardware y software actuales, lo cual es poco probable que ocurra rápidamente, dijo de Vries. Uno de los principales obstáculos para una adopción tan generalizada es la oferta limitada de unidades de procesamiento gráfico (GPU) lo suficientemente potentes como para procesar todos esos datos.

Aunque completamente hipotético, el estudio arroja luz sobre un impacto a menudo no declarado del aumento de escala de las tecnologías de IA. Los centros de datos ya utilizan entre el 1% y el 1.3% de la electricidad mundial, y agregar IA a aplicaciones existentes como los motores de búsqueda podría aumentar rápidamente esa proporción.

“Sería recomendable que los desarrolladores no solo se centren en optimizar la IA, sino que también consideren críticamente la necesidad de utilizar IA en primer lugar, ya que es poco probable que todas las aplicaciones se beneficien de la IA o que los beneficios siempre superen los costos”, aconsejó de Vries.