Inteligencia artificial

ChatGPT podría ser menos demandante en energía de lo que se pensaba

Un reciente estudio sugiere que el consumo energético de ChatGPT es inferior a lo estimado. Sin embargo, la demanda de energía depende en gran medida del uso que se haga del modelo y del tipo de tareas que ejecute.

Un informe publicado por Epoch AI, un instituto de investigación en inteligencia artificial sin fines de lucro, ha puesto en entredicho algunas estimaciones previas sobre el consumo de energía de ChatGPT. Aunque durante un tiempo se difundió la idea de que cada consulta requería aproximadamente 3 vatios-hora, la nueva evaluación sugiere que esta cifra podría haber sido sobreestimada.

El estudio utilizó como referencia el modelo más reciente de OpenAI, GPT-4o, y concluyó que, en promedio, una interacción con ChatGPT consume alrededor de 0,3 vatios-hora, una cantidad significativamente menor a la estimada anteriormente y comparable con el consumo de algunos electrodomésticos comunes.

El impacto real del consumo de energía de la IA.

Joshua You, analista de datos en Epoch AI y autor principal del estudio, declaró a TechCrunch que, en comparación con otras actividades diarias como el uso de electrodomésticos o la calefacción, el impacto de ChatGPT en el consumo eléctrico es relativamente bajo.

El uso de energía en inteligencia artificial ha generado un debate creciente en un contexto donde las compañías tecnológicas están expandiendo rápidamente sus infraestructuras. La semana pasada, más de 100 organizaciones firmaron una carta abierta instando a la industria y a los reguladores a garantizar que los nuevos centros de datos de IA no ejerzan una presión excesiva sobre los recursos naturales ni promuevan el uso de energías no renovables.

Factores que influyen en el consumo de energía de ChatGPT.

You explicó que las estimaciones anteriores pudieron haberse basado en datos desactualizados. Por ejemplo, se asumió que OpenAI operaba con chips menos eficientes que los actuales, lo que podría haber llevado a conclusiones erróneas. “Mucha de la discusión sobre el alto consumo de energía de la IA se fundamenta en proyecciones futuras, pero no necesariamente refleja el consumo actual”, indicó el analista.

Es importante señalar que, si bien la cifra revisada de 0,3 vatios-hora es una mejor aproximación, sigue siendo una estimación, ya que OpenAI no ha publicado datos precisos sobre el consumo energético de sus modelos.

Expectativas sobre el consumo futuro.

El estudio también destaca que algunas funciones avanzadas de ChatGPT, como la generación de imágenes o el procesamiento de texto con archivos adjuntos extensos, podrían incrementar el gasto energético por consulta. Sin embargo, el consumo básico de respuestas sigue siendo relativamente bajo.

A pesar de los avances en eficiencia, se espera que el consumo total de energía de la inteligencia artificial aumente a medida que estos modelos evolucionen y sean utilizados en tareas más complejas. Un informe de Rand estima que, en los próximos dos años, los centros de datos de IA podrían requerir una capacidad energética equivalente a toda la electricidad utilizada en California en 2022 (68 GW). Para 2030, entrenar un modelo avanzado podría necesitar el equivalente a la potencia de ocho reactores nucleares (8 GW).

El crecimiento de la infraestructura y los modelos de razonamiento.

OpenAI, junto con otros inversores, planea destinar miles de millones de dólares a la construcción de nuevos centros de datos para soportar la creciente demanda de IA. Además, la industria está enfocándose en modelos de razonamiento, que requieren más procesamiento y, por ende, un mayor consumo energético.

A diferencia de GPT-4o, que ofrece respuestas instantáneas, estos nuevos modelos pueden tardar segundos o incluso minutos en generar una respuesta, lo que aumenta el uso de recursos. “A medida que los modelos de razonamiento asuman tareas más exigentes, la necesidad de centros de datos también crecerá”, comentó You.

Recomendaciones para reducir el impacto.

OpenAI ya está trabajando en modelos de IA más eficientes en términos de consumo de energía, como o3-mini. Sin embargo, el crecimiento acelerado del uso de estas tecnologías podría contrarrestar las mejoras en eficiencia.

Para quienes estén preocupados por el consumo energético de la IA, You sugiere utilizar modelos más livianos, como GPT-4o-mini, o reducir el uso de herramientas de IA en tareas innecesarias. “Si quieres minimizar el impacto, lo ideal es elegir modelos más eficientes y emplearlos solo cuando realmente sea necesario”, concluyó.


Descubre más desde TecnoAp21

Suscríbete y recibe las últimas entradas en tu correo electrónico.

1 respuesta »

Deja un comentario