El debate sobre el consumo energético de la inteligencia artificial suele empezar y terminar en una cifra: cuánta electricidad hace falta para entrenar un modelo como ChatGPT. Sam Altman, CEO de OpenAI, ha intentado mover el foco. En una entrevista pública en un evento organizado por The Indian Express, defendió que la comparación habitual es injusta porque enfrenta el coste de entrenamiento de una IA con el coste de “una sola respuesta” de un humano.
Su contraargumento fue tan llamativo como polémico: formar a una persona también requiere décadas de energía, comida y un proceso evolutivo colectivo de miles de millones de individuos. La analogía tiene trampa, pero apunta a una distinción clave que suele perderse en el debate: entrenar un sistema y usarlo no son lo mismo.
Entrenar vs. usar: el matiz que cambia el marco del debate
Altman insistió en que la comparación “justa” no es entre el entrenamiento de una IA y la capacidad instantánea de un humano, sino entre el coste de responder una pregunta una vez el modelo ya está entrenado. En ese punto, sostiene, la IA podría ser incluso más eficiente energéticamente que una persona.
No es una afirmación lanzada al vacío. Un estudio de Epoch AI apunta en esa dirección: el consumo energético asociado a la inferencia —es decir, cuando realmente interactuamos con un modelo como ChatGPT— es relativamente bajo en comparación con el coste inicial de entrenarlo. Dicho de otro modo, el gran pico energético ocurre antes de que el sistema llegue al usuario final.
El problema es que esta narrativa no resuelve la pregunta incómoda: ¿cuánto cuesta, en términos absolutos, entrenar y operar estos modelos a escala planetaria?
El elefante en la habitación: la falta de datos

Altman también abordó el debate sobre el consumo de agua en centros de datos, negando cifras virales que circulan sobre supuestos litros por consulta y recordando que muchos centros han dejado atrás la refrigeración evaporativa. El patrón se repite: desmentir exageraciones, pero sin ofrecer números propios verificables.
Aquí está el núcleo del problema. Ni OpenAI ni la mayoría de grandes empresas de IA publican datos detallados y auditables sobre el consumo energético y de agua de sus modelos en entrenamiento e inferencia. En países como Estados Unidos, donde se concentra buena parte de la infraestructura, no existe una obligación legal clara de transparencia. Eso deja el debate en una zona gris donde conviven exageraciones alarmistas y defensas corporativas sin cifras concretas.
Eficiencia creciente, impacto creciente
Es cierto que los chips, los modelos y los sistemas de refrigeración son cada vez más eficientes. Estudios como los de Epoch AI muestran mejoras constantes en rendimiento por vatio. El problema es que el uso de la IA crece todavía más rápido. Cada punto de eficiencia ganado se ve compensado por más usuarios, más modelos, más centros de datos y más inferencias diarias.
En ese contexto, la comparación con el “entrenamiento” de un humano funciona más como recurso retórico que como métrica útil. Sirve para relativizar el coste puntual de entrenar un modelo, pero no para responder a la pregunta que preocupa a reguladores y científicos del clima: cuál es la huella real, acumulada y futura de la IA en el sistema energético global.
Lo que queda claro (y lo que no)
Altman tiene razón en una cosa: no todo el impacto de la IA está en el entrenamiento, y la inferencia puede ser sorprendentemente eficiente. Pero mientras las empresas no publiquen datos claros y comparables, el debate seguirá moviéndose entre titulares llamativos y estudios parciales.
La IA no es “gratis” en términos energéticos, aunque cada consulta lo parezca. Y la comparación con el cerebro humano, por ingeniosa que sea, no sustituye a lo que falta en este debate: transparencia.
#Entrenar #una #consume #mucho #pero #Sam #Altman #cree #problema #está #mal #planteado #Esta #pregunta #incómoda #todavía #sigue #sin #respuesta



