¿Le dices “gracias” a ChatGPT? Esto podría salirle muy caro a OpenAi, según Sam Altman

ChatGPT, plataforma de IA, gasta energía al momento de procesar y crear cada palabra, pero ¿cuánto dinero gasta en electricidad al decirle “gracias”?

Escrito por: Fernanda Benítez

ChatGPT: Decir “gracias” cuesta millones, alerta Sam Altman
¿Cuánto dinero cuesta decirle “gracias” a ChatGPT?|PEXELS

¡Atención, usuarios! Aunque decirle “por favor” y “gracias” a ChatGPT parece una acción insignificante, esto podría ser un gasto millonario para OpenAI, compañía de Inteligencia Artificial. Esto dijo Sam Altman, CEO de la empresa.

¿Cuánto cuesta decirle “gracias” a ChatGPT?

A través de redes sociales, un usuario le preguntó a Sam Altman, CEO de OpenAI, cuánto dinero ha gastado la compañía en electricidad debido al número de veces que la gente escribe “por favor” y “gracias” en la plataforma de IA.

Minutos después de la publicación, Sam Altman, le respondió al usuario que la compañía suele gastar decenas de millones de dólares, y con un toque irónico, el empresario respondió con un “nunca se sabe”.

Decenas de millones de dólares bien gastados: Nunca se sabe”, comentó en X, antes Twitter.

ChatGPT, una de las plataformas de Inteligencia Artificial más populares del mundo, gasta energía al procesar y generar cada palabra, pues expertos aseguran que, aunque las “frases de cortesía” sean breves, el modelo realiza cálculos para poder entenderlas y responderlas, lo que incrementa la actividad de los servidores, lo que aumenta el consumo de electricidad.

¿Cómo se gasta energía con cada palabra en ChatGPT?

De acuerdo con ChatGPT, cada palabra del servidor de Inteligencia Artificial, tiene un procedimiento , el cual suele gastar energía eléctrica dividiéndose en distintos factores, ¿cuáles son?

El primer factor es el procesamiento de servidores, esto ocurre cada vez que los usuario escribe una palabra o frase y la IA lo responde; se activan servidores con unidades gráficas (GPUs) especializadas, estas maquinas consumen mucha energía.

Por otro lado, el segundo factor son los Token, OpenAI se mide por tokens, por ejemplo “gracias” es 1 token. Recuerda que cada uno de estos implica un trabajo computacional, por lo que entre más tokens existen, más energía se gastará.

Aunque no existe una cifra exacta por palabra, se estima que operar modelos grandes como ChatGPt, Gemini, entre otros, cuesta varios centavos de dólar por cada mil tokens, si esto lo traducimos a un nivel mundial, se traduce a millones de dólares al año.

¡No te pierdas nuestro contenido, sigue a Fuerza Informativa Azteca en Google News!

Otras Noticias

×