ChatGPT

ChatGPT: Usar estos tipos de sistemas cuesta 10 veces más que las búsquedas tradicionales

John Hennessy, cabeza de Alphabet, confirma a Reuters que la implementación de Bard reducirá sus beneficios drásticamente.

Los buscadores con modelos de inteligencia artificial integrada parecen ser la próxima gran revolución de internet. Google ya ha dado los primeros pasos con su chatbot Bard –aunque le ha salido caro-, mientras que Microsoft se enfrenta a un éxito sin precedentes en Bing gracias a su integración con ChatGPT. Sin embargo, aunque todo pueda parecer ganancias, un reciente reporte de Reuters confirma que estas inteligencias artificiales traen más costes que beneficios, al menos a día de hoy.

Ha sido el propio John Hennessy, presidente de Alphabet -compañía padre de Google-, quien ha dado respuesta a las preguntas del citado medio. Aquí, asegura que «un intercambio con las IAs conocidas como grandes modelos lingüísticos cuesta probablemente 10 veces más que una búsqueda estándar de palabras clave«. Esto se podría traducir en «varios miles de millones de dólares adicionales» para Google.

¿De cuántos miles de millones estamos hablando, precisamente? Según un análisis de Morgan Stanley para Reutersel coste adicional generado por un chatbot como ChatGPT podría ser de hasta 6.000 millones de dólares. Un aproximado del 10% a los ingresos anuales de Google de 60.000 millones de dólares. Mientras tanto, reportes de compañías como SemiAnalisis sitúan este número en 3.000 millones de dólares.

Este es el motivo de los grandes costes generados por ChatGPT en Google

La razón es sencilla de entender. Las búsquedas habituales de Google funcionan escaneando un enorme índice previamente construido. Dichas entradas posteriormente son escaneadas, clasificadas y categorizadas según su relevancia y posicionamiento. Todo esto sucede en una fracción de segundo, e incluso la propia Google te deja ver cuánto ha tomado justo debajo de su barra de búsqueda.

Mientras tanto, las búsquedas llevadas a cabo en ChatGPT o modelos parecidos tienen un trasfondo mucho más complicado. Cada una de ellas implica accionar el modelo de red neuronal de enormes proporciones, intentando imitar un cerebro humano. Esto sucede cada vez que buscas, y sus respuestas generan un montón de texto que después tiene que ser categorizado para ofrecer la información más objetiva. Además, su naturaleza de chatbot implica que las personas querrán interactuar con él por mucho más rato, contrario a lo visto en las búsquedas tradicionales.

¿Cómo planea Google solucionar estos costes extra? De momento, parece que la compañía tiene intenciones de lanzar una versión ligera de su chatbot Bard al mercado, algo que vimos en ChatGPT hace poco. Al ser mucho más pequeño en escala, también requiere un menor poder de computación, permitiendo que más usuarios puedan utilizarlo.

Microsoft lleva un poco de ventaja en este apartado

Por su parte, los de Redmond se encuentran en una posición mucho más privilegiada, y todo tiene que ver con la baja popularidad de su buscador. Mientras que Google cuenta con el 93% de cuota de mercado en búsquedas, Microsoft Bing apenas alcanza el 3%. Esto se traduce en una menor cantidad de personas usando el ChatGPT al mismo tiempo, concluyendo en un coste incremental bastante más bajo que la de Google con sus 8.500 millones de búsquedas diarias.

Otro de los problemas a los que se enfrentan ambas compañías es hacer de su integración con ChatGPT algo rentable. Según John Hennessy, Google se siente optimista, y cree que este problema solo durará un par de años como mucho. Después de todo, ya lo hicieron una vez con YouTube, y crearon una auténtica máquina de hacer dinero.


Comentarios


Suscríbete a nuestro Newsletter

Recibe nuestro Newsletter diariamente registrándote con tu email y mantente informado con las noticias más relevantes del día.

Suscribirme



También te puede interesar


Mas articulos

Gaceta Ucayalina Radio - Música y Noticias
0:000:00