
Computer parts in order line equipment shelves generated by artificial intelligence
El consumo eléctrico de la inteligencia artificial amenaza con duplicarse para 2030
La expansión acelerada de la inteligencia artificial (IA) ha disparado el consumo energético de los centros de datos, que podrían absorber el 3% de la electricidad mundial en siete años, según la Agencia Internacional de Energía. Expertos como Mosharaf Chowdhury, profesor de informática, advierten que sin soluciones eficientes, la demanda superará la capacidad de generación. Empresas como Amazon ya implementan sistemas de enfriamiento líquido para reducir el gasto, pero el desafío persiste: equilibrar avances tecnológicos con sostenibilidad.
Soluciones técnicas: algoritmos y hardware para frenar el derroche
Chowdhury lidera investigaciones que optimizan el uso energético en chips de IA mediante algoritmos predictivos, logrando ahorros de hasta el 30%. Además, el enfriamiento líquido —adoptado por gigantes como AWS— ha reducido el consumo en un 90% comparado con métodos tradicionales. Sin embargo, la industria enfrenta resistencia: fabricantes de hardware prefieren modelos que incentiven la renovación constante de equipos, incluso si son menos eficientes.
- Riesgo climático: El aumento del 3% en el consumo eléctrico global agravaría la huella de carbono.
- Competitividad geopolítica: China avanza en IA con menor gasto energético, usando fuentes renovables y nucleares.
- Innovación vs. obsolescencia: Los avances en eficiencia podrían chocar con intereses comerciales de la industria tecnológica.
La carrera por la eficiencia apenas comienza
Mientras EE.UU. y China compiten por liderar la IA, la clave está en reducir el consumo sin sacrificar rendimiento. Amazon y Nvidia ya prueban chips de bajo voltaje, pero su adopción masiva depende de regulaciones y cooperación internacional. El próximo año será crucial para definir si la tecnología prioriza la sostenibilidad o la velocidad.