Decir "gracias" a ChatGPT le cuesta millones a OpenAI, según Sam Altman
¿Y si decir «gracias» a una inteligencia artificial costara millones? Sam Altman, CEO de OpenAI, revela que las muestras de cortesía en las consultas dirigidas a ChatGPT tienen un gran impacto en los costos operativos. Detrás de estas interacciones humanas triviales se esconde una tensión inesperada entre la convivialidad y el rendimiento técnico. Esta paradoja plantea preguntas esenciales sobre el diseño de las IA, sus usos cotidianos y la sostenibilidad económica de un modelo en plena expansón.
En resumen
- Sam Altman revela que las muestras de cortesía dirigidas a ChatGPT generan costos operativos significativos para OpenAI.
- Cada palabra adicional en las consultas hace más pesado el procesamiento, aumenta el consumo energético y afecta la infraestructura.
- A pesar de estos costos adicionales, OpenAI elige mantener una experiencia de usuario fluida y natural.
- La empresa apunta a un crecimiento rápido de sus ingresos, pero no contempla rentabilidad antes de varios años.
La cortesía digital, una carga muy real para OpenAI
Durante una intervención difundida por Bloomberg, Sam Altman reveló una consecuencia inesperada de los usos lingüísticos en los intercambios con ChatGPT:
Las personas dicen por favor y gracias a ChatGPT, lo cual es encantador, pero nos cuesta muchísimo dinero.
Según el CEO de OpenAI, estas frases de cortesía, aunque socialmente valoradas, ralentizan el procesamiento de las consultas y generan gastos adicionales estimados en varias decenas de millones de dólares. Señaló el 17 de abril de 2025 en la red social X (antes Twitter) cómo los comportamientos humanos, incluso los bienintencionados, pueden impactar los modelos económicos de los gigantes tecnológicos.
Varios elementos técnicos explican esta situación:
- Cada palabra cuenta: las formulaciones corteses alargan las consultas y aumentan la cantidad de tokens procesados, lo que exige más recursos de cálculo.
- Un mayor consumo energético: aunque algunas estimaciones indican 3 vatios-hora por consulta, evaluaciones más recientes señalan un consumo de aproximadamente 0,3 vatios-hora gracias a mejoras en la eficiencia. Este debate sobre el impacto energético recuerda al del Bitcoin, frecuentemente criticado por el alto consumo de energía asociado con su proceso de minería.
- El impacto en la escalabilidad: con millones de interacciones diarias, la repeticiones de consultas más largas amplifica el impacto en las infraestructuras.
- Un efecto acumulativo: este costo adicional se manifiesta en todo el ecosistema de uso, desde usuarios gratuitos hasta clientes que pagan.
En resumen, la cortesía en las interacciones digitales, valorada desde el punto de vista ético y humano, representa un desafío concreto en términos de rendimiento técnico y control presupuestario para los actores del sector de la IA.
¿Por qué tanta amabilidad hacia una IA?
Más allá de las cifras, las motivaciones de los usuarios para dirigirse con respeto a una inteligencia artificial son múltiples y a veces inesperadas. Una encuesta realizada en diciembre de 2024 por el think tank Future revela que el 67 % de los usuarios estadounidenses se muestran corteses con los asistentes IA.
Entre ellos, el 55 % afirma que es simplemente «lo correcto para hacer», mientras que el 12 % admite temer ser juzgados o penalizados en el futuro si se dotara a la IA de alguna forma de conciencia o memoria.
El ingeniero, Carl Youngblood, explica su postura en la plataforma X este 17 de abril:
Tratar a las inteligencias artificiales con cortesía es para mí un imperativo moral. Lo hago por interés personal.
Considera que la falta de respeto hacia una máquina podría reflejarse en sus propias habilidades relacionales humanas.
Esta percepción de un vinculo ético con las máquinas revela una tendencia de fondo: los usuarios proyectan normas sociales sobre las tecnologías, como si la IA mereciera ser tratada como un igual. Además, algunos internautas explican que quieren «practicar» la amabilidad, incluso en un entorno digital, para mantener una forma de civilidad en su día a día.
Otros, más pragmáticos, piensan que esta postura podría traerles buena suerte si algún día la IA llegara a ser capaz de recordar las interacciones pasadas. Esta proyección interroga sobre nuestra relación con las tecnologías y la ilusión de reciprocidad que puede inducir un chatbot eficaz.
Por ahora, OpenAI no prevé ninguna medida técnica para filtrar o ignorar las palabras de cortesía, pero la cuestión podría surgir en los próximos meses. A medida que la IA se integra en los usos diarios y la demanda mundial explota, la necesidad de optimización energética se volverá crítica. Entre la humanización de las interfaces y la racionalización de los costos, los desarrolladores podrían tener que decidir: ¿la cortesía tiene su lugar en las consultas dirigidas a una máquina? Y si es así, ¿cuánto cuesta?
¡Maximiza tu experiencia en Cointribune con nuestro programa "Read to Earn"! Por cada artículo que leas, gana puntos y accede a recompensas exclusivas. Regístrate ahora y comienza a acumular beneficios.
Diplômé de Sciences Po Toulouse et titulaire d'une certification consultant blockchain délivrée par Alyra, j'ai rejoint l'aventure Cointribune en 2019. Convaincu du potentiel de la blockchain pour transformer de nombreux secteurs de l'économie, j'ai pris l'engagement de sensibiliser et d'informer le grand public sur cet écosystème en constante évolution. Mon objectif est de permettre à chacun de mieux comprendre la blockchain et de saisir les opportunités qu'elle offre. Je m'efforce chaque jour de fournir une analyse objective de l'actualité, de décrypter les tendances du marché, de relayer les dernières innovations technologiques et de mettre en perspective les enjeux économiques et sociétaux de cette révolution en marche.
Las ideas y opiniones expresadas en este artículo pertenecen al autor y no deben tomarse como consejo de inversión. Haz tu propia investigación antes de tomar cualquier decisión de inversión.