ChatGPT, la plataforma de chatbot de OpenAI, podría no consumir tanta energía como se pensaba anteriormente. Sin embargo, su consumo depende de cómo se utilice y de los modelos de inteligencia artificial que respondan a las consultas, según un nuevo estudio. Un análisis reciente de Epoch AI, un instituto de investigación de inteligencia artificial sin fines de lucro, intentó calcular cuánta energía consume una consulta típica de ChatGPT. Se ha mencionado comúnmente que ChatGPT requiere alrededor de 3 vatios-hora de energía para responder a una sola pregunta, lo que es 10 veces más que una búsqueda en Google. Epoch cree que esta cifra es una sobreestimación. Usando el modelo más reciente de OpenAI para ChatGPT, GPT-4o, como referencia, Epoch encontró que la consulta promedio de ChatGPT consume alrededor de 0.3 vatios-hora, menos que muchos electrodomésticos.
Joshua You, el analista de datos de Epoch que realizó el análisis, comentó que “el uso de energía realmente no es un gran problema en comparación con el uso de electrodomésticos normales, calentar o enfriar tu hogar, o conducir un automóvil”. El uso de energía de la inteligencia artificial y su impacto ambiental es un tema de debate, ya que las empresas de IA buscan expandir rápidamente su infraestructura. La semana pasada, más de 100 organizaciones publicaron una carta abierta pidiendo a la industria de IA y a los reguladores que aseguren que los nuevos centros de datos de IA no agoten los recursos naturales y no obliguen a las empresas de servicios a depender de fuentes de energía no renovables.
You mencionó que su análisis fue impulsado por lo que él considera investigaciones anteriores desactualizadas. Por ejemplo, el autor del informe que llegó a la estimación de 3 vatios-hora asumió que OpenAI utilizaba chips más antiguos y menos eficientes para ejecutar sus modelos. You también señaló que aunque ha habido avances notables en la eficiencia de la IA en los últimos meses, la escala de despliegue de la IA se espera que impulse una enorme expansión de infraestructura que consume mucha energía. Según un informe de Rand, en los próximos dos años, los centros de datos de IA podrían necesitar casi toda la capacidad de energía de California en 2022 (68 GW). Para 2030, entrenar un modelo de frontera podría requerir una producción de energía equivalente a la de ocho reactores nucleares (8 GW).
ChatGPT llega a un número enorme y creciente de personas, lo que hace que sus demandas de servidor sean igualmente masivas. OpenAI, junto con varios socios de inversión, planea gastar miles de millones de dólares en nuevos proyectos de centros de datos de IA en los próximos años. La atención de OpenAI y de la industria de IA también se está desplazando hacia modelos de razonamiento, que son generalmente más capaces en términos de las tareas que pueden realizar, pero requieren más computación para funcionar. A diferencia de modelos como GPT-4o, que responden a consultas casi instantáneamente, los modelos de razonamiento “piensan” durante segundos a minutos antes de responder, un proceso que consume más computación y, por lo tanto, más energía.
OpenAI ha comenzado a lanzar modelos de razonamiento más eficientes en términos de energía, como o3-mini. Sin embargo, parece poco probable que, al menos en este momento, las ganancias de eficiencia compensen las crecientes demandas de energía del proceso de “pensamiento” de los modelos de razonamiento y el creciente uso de la IA en todo el mundo. You sugirió que las personas preocupadas por su huella energética de IA utilicen aplicaciones como ChatGPT con poca frecuencia o seleccionen modelos que minimicen la computación necesaria, en la medida de lo posible. “Podrías intentar usar modelos de IA más pequeños como [el de OpenAI] GPT-4o-mini”, dijo You, “y usarlos de manera esporádica de una manera que requiera procesar o generar una gran cantidad de datos”.