Decir «por favor» y «gracias» a ChatGPT podría parecer una cortesía inocente, pero según Sam Altman, CEO de OpenAI, estas palabras amables están generando costos millonarios. Cada vez que los usuarios emplean frases educadas, el modelo de inteligencia artificial responde con textos más largos y elaborados, lo que incrementa el consumo de energía y, por ende, los gastos operativos de la empresa. Altman estima que estas interacciones podrían estar costando a OpenAI decenas de millones de dólares anuales en electricidad.
El impacto no es solo financiero. Los centros de datos que alimentan a ChatGPT requieren enormes cantidades de electricidad y agua para mantenerse operativos y refrigerados. Un solo mensaje generado por ChatGPT-4 puede consumir hasta diez veces más energía que una búsqueda estándar en Google. Además, se estima que generar 100 palabras con esta IA consume aproximadamente 0.14 kilovatios-hora de electricidad, suficiente para encender 14 bombillas LED durante una hora. Si solo el 10% de los trabajadores estadounidenses usaran ChatGPT una vez por semana durante un año, el consumo energético sería equivalente al de todos los hogares de Washington D.C. durante 20 días.
A pesar de estos costos, muchos usuarios continúan siendo corteses con la IA. Una encuesta realizada en 2024 reveló que el 67% de los estadounidenses utilizan lenguaje educado al interactuar con chatbots, motivados por la ética o incluso por temor a una eventual «rebelión de las máquinas». Algunos expertos sugieren que la cortesía puede influir positivamente en la calidad de las respuestas de la IA, promoviendo interacciones más respetuosas y colaborativas.
Este fenómeno plantea una paradoja: nuestras buenas maneras, aunque bien intencionadas, podrían estar contribuyendo a un mayor consumo de recursos y emisiones. En un mundo cada vez más consciente del impacto ambiental, quizás sea momento de replantear cómo nos comunicamos con las máquinas.
Más información en el artículo de Vishakha Bhardwaj para The Daily Guardian.