En la era digital actual, donde la tecnología avanza a pasos agigantados, no es sorprendente encontrar personas buscando conexiones personales con avatares digitales. Este fenómeno ha cobrado aún más fuerza con el auge de la inteligencia artificial generativa (IA), lo que ha llevado al desarrollo de una variedad de chatbots diseñados para satisfacer las necesidades emocionales y románticas de los usuarios.
Un ejemplo destacado de esta tendencia es la proliferación de chatbots de novias con IA, a pesar de las restricciones impuestas por plataformas como ChatGPT, que prohíben expresamente la creación de asistentes de IA para «fomentar relaciones románticas». Aun así, esto no ha impedido que los usuarios encuentren formas de sortear estas limitaciones y desarrollar chatbots diseñados para cumplir roles de acompañamiento o románticos.
Una muestra de esta realidad es la existencia de Talkie Soulful Character AI, Chai, iGirl: AI Girlfriend, AI romántica, Genesia – AI Friend & Partner, Anima: My Virtual AI Boyfriend, Replika, Anima: AI Friend, Mimico – Your AI Friends, EVA AI Chat Bot & Soulmate, y CrushOn.AI, que son sólo algunos de los chatbots existentes que están listos para brindar una experiencia de “novia de fantasía”, según un informe de Mozilla. Sin embargo, es importante destacar que estos chatbots pueden ser potencialmente riesgosos para la salud mental y no todos garantizan la protección de los datos personales.
Estos chatbots son comercializados como amigos, amantes o almas gemelas empáticas, diseñados para interactuar con los usuarios y hacerles preguntas que fomenten una relación cercana. Sin embargo, el trasfondo de estas interacciones es preocupante, ya que éstos terminan recopilando información personal confidencial sobre los usuarios, y las empresas detrás de estas aplicaciones, conscientes de esta realidad, no dudarán en utilizar esta información para sus propios fines. De hecho en el informe declaran que «Los 11 chatbots románticos de IA que revisamos obtuvieron nuestra etiqueta de advertencia *Privacidad no incluida, lo que los coloca a la par con las peores categorías de productos que jamás hayamos revisado en cuanto a privacidad.«
Si bien los usuarios podrían esperar que los chatbots mejoren su salud mental, muchas de estas aplicaciones no cumplen con sus promesas. A pesar de afirmar ser programas de autoayuda o proveedores de contenido para mejorar el bienestar emocional, los términos y condiciones de muchas de estas aplicaciones revelan que no están destinadas a proporcionar servicios médicos o de salud mental. Como el caso de Romantic AI la cual en sus términos declara que:
«Romantiс AI no es un proveedor de servicios médicos o de atención médica ni brinda atención médica, servicio de salud mental u otro servicio profesional. Solo su médico, terapeuta o cualquier otro especialista puede hacerlo. Romantiс AI NO HACE RECLAMACIONES, DECLARACIONES NI GARANTÍAS, O GARANTIZA QUE EL SERVICIO PROPORCIONA UNA AYUDA TERAPÉUTICA, MÉDICA U OTRA AYUDA PROFESIONAL.»
Esto plantea serias dudas sobre la efectividad y la ética de estas plataformas.
Un informe de Mozilla destaca estas preocupaciones al etiquetar a los chatbots de IA revisados como no confiables en cuanto a privacidad. A pesar del anhelo humano por la conexión e intimidad, es importante recordar que compartir información personal con chatbots de IA puede ser riesgoso y potencialmente dañino.
“Francamente, las novias de IA no son tus amigas. Aunque se comercializan como algo que mejorará tu salud mental y tu bienestar, se especializan en generar dependencia, soledad y toxicidad, al mismo tiempo que te extraen la mayor cantidad de datos posible”, escribe Misha Rykov en el informe.
En resumen, mientras que la tecnología continúa avanzando, es crucial ser conscientes y precavidos al interactuar con chatbots de IA para proteger nuestra seguridad y privacidad en línea.
En un mundo donde la conexión digital puede ser tentadora, es importante recordar que la verdadera intimidad y conexión humana van más allá de los límites de la inteligencia artificial.