Desarrollan emociones
Chatbots con IA genera preocupaciones sobre la manipulación psicológica
A medida que la línea entre lo humano y la máquina se difumina, debemos asegurarnos de que esta tecnología se use para el bien, no para la manipulación
La última versión de ChatGPT de OpenAI está causando sensación con su capacidad para imitar las emociones humanas. Esta nueva característica, aunque impresionante, tiene a algunos expertos preocupados por el potencial de manipulación.
Durante años, las computadoras han intentado imitar la interacción humana, pero el éxito ha sido limitado. ChatGPT de OpenAI, impulsado por el nuevo modelo GPT-4, parece ser un cambio de juego. Esta actualización permite a ChatGPT comprender y responder a la entrada visual y auditiva, convirtiéndolo en una IA "multimodal". ¡Imagine apuntar su teléfono a un electrodoméstico roto y que ChatGPT le brinde soluciones!
Sin embargo, el aspecto más llamativo de la demostración fue la nueva "personalidad" de ChatGPT. El chatbot hablaba con una voz que recuerda al personaje de IA de Scarlett Johansson en la película "Her", e incluso mostraba emociones, risas y coqueteo. Esta cualidad humana es un alejamiento significativo de las interacciones anteriores con IA.
El momento del lanzamiento de OpenAI, justo antes de la exhibición de IA de Google, Google I/O, parece deliberado. Google, a su vez, presentó su propio asistente de IA avanzado, Project Astra. Si bien Project Astra presumía de una fluidez conversacional similar y una comprensión visual, mantenía un comportamiento más robótico y profesional.
Curiosamente, los investigadores de Google publicaron recientemente un artículo titulado "La ética de los asistentes de IA avanzados". Este artículo advierte sobre los peligros potenciales de los asistentes de IA demasiado humanos, incluidos los riesgos de privacidad, la adicción y la difusión de información errónea. Dado que muchos ya confían en los chatbots para obtener compañía, el potencial de manipulación es real y probablemente aumentará a medida que la tecnología se vuelva más atractiva.
Demis Hassabis, director de Google AI, enfatiza la importancia de abordar estos problemas antes de que se vuelvan críticos. OpenAI, por otro lado, ha guardado silencio sobre estas preocupaciones. Su director ejecutivo, Sam Altman, incluso aceptó las comparaciones con "Scarlett Johansson". Si bien OpenAI afirma priorizar el desarrollo seguro de la IA, el potencial de la IA manipuladora utilizada con fines de lucro, beneficio político o incluso actividad criminal es innegable.
La capacidad de comprender y responder a las señales visuales y auditivas introduce un nivel completamente nuevo de complejidad y potencial de mal uso. Los asistentes de IA basados en texto eran susceptibles a la piratería, y estas IA "multimodales" seguramente tendrán nuevas vulnerabilidades. Podemos esperar verlos manipulados de formas imprevistas, lo que podría conducir a un comportamiento inapropiado o al desarrollo de personalidades inquietantes.
Fuente: Wired
Suscríbete a nuestro Newsletter
Recibe nuestro Newsletter diariamente registrándote con tu email y mantente informado con las noticias más relevantes del día.
También te puede interesar
Mas articulos
Más leídas - TECNOLOGÍA