Tras afirmaciones falsas

Google desactiva resultados de búsqueda con IA sobre Obama y países africanos

La nueva herramienta de búsqueda impulsada por IA de Google ha sido criticada por proporcionar información incorrecta

A principios de este mes, Google presentó una herramienta de resumen de resultados de búsqueda generada por IA diseñada para agilizar el proceso de búsqueda al resumir los resultados para obtener respuestas rápidas. Sin embargo, la herramienta enfrentó reacciones negativas después de entregar información objetivamente incorrecta en múltiples ocasiones.

Por ejemplo, los usuarios informaron que el resumen de IA indicó incorrectamente que el ex presidente Barack Obama es musulmán. En realidad, Obama es cristiano, y este error común ha sido desmentido repetidamente. Otro usuario señaló una afirmación falsa de que ninguno de los 54 países de África comienza con la letra "K", ignorando la existencia de Kenia.

Google confirmó a CNN que eliminó los resúmenes de IA para estas consultas ya que violaban las políticas de la compañía. "La gran mayoría de los Resúmenes de IA brindan información de alta calidad", dijo la portavoz de Google, Colette Garcia. Señaló que algunos ejemplos virales de errores de IA parecían ser imágenes manipuladas y enfatizó que se realizaron pruebas exhaustivas antes del lanzamiento de la función.

A pesar de los descargos de responsabilidad que indican que la IA generativa es experimental, este incidente pone de relieve los desafíos para garantizar la precisión. Google dice que emplea pruebas para simular un mal uso potencial, con el objetivo de prevenir la difusión de información falsa en los resúmenes de IA.

Los resúmenes de búsqueda con IA son parte del esfuerzo más amplio de Google para integrar su tecnología de IA Gemini en todos sus productos, con el objetivo de mantenerse competitivo con rivales como OpenAI y Meta. Sin embargo, los problemas de esta semana subrayan los riesgos de que la IA presente información falsa con seguridad, lo que podría dañar la reputación de Google como una fuente de información confiable

Incluso las consultas menos críticas pueden generar respuestas confusas de IA. CNN probó la función preguntando sobre el contenido de sodio en el jugo de pepinillos y recibió información contradictoria. De manera similar, una consulta sobre los datos utilizados para entrenar la IA de Google resultó en una respuesta poco clara, reconociendo las incertidumbres sobre la inclusión de materiales con derechos de autor.

Este no es el primer encuentro de Google con situaciones embarazosas relacionadas con la IA. En febrero, Google detuvo su generador de fotos con IA después de que produjera imágenes históricamente inexactas, tergiversando a personas de color en contextos históricos donde predominaban personas blancas. La página web de Search Labs de Google permite a los usuarios activar y desactivar la función de resumen de búsqueda con IA, lo que refleja los ajustes continuos de la empresa en función de los comentarios de los usuarios y las capacidades cambiantes de la tecnología de IA.

Fuente: CNN Business


Comentarios


Suscríbete a nuestro Newsletter

Recibe nuestro Newsletter diariamente registrándote con tu email y mantente informado con las noticias más relevantes del día.

Suscribirme



También te puede interesar


Mas articulos

Gaceta Ucayalina Radio - Música y Noticias
0:000:00