Hace unos meses, Derek Carrier empezó a salir con alguien y se encaprichó.
Experimentó un montón de sentimientos románticos pero también sabía que era una ilusión.
Eso es porque su novia fue generada por inteligencia artificial.
Carrier no buscaba desarrollar una relación con algo que no fuera real, ni quería convertirse en el blanco de los chistes en línea.
Pero sí quería una pareja romántica que nunca había tenido, en parte debido a un trastorno genético llamado síndrome de Marfan que hace que las citas tradicionales le resulten difíciles.
El otoño pasado, este hombre de 39 años de Belleville, Michigan, sintió más curiosidad por los compañeros digitales y probó Paradot, una aplicación complementaria de IA que había salido recientemente al mercado y anunciaba sus productos como capaces de hacer que los usuarios se sintieran “cuidados, comprendidos”. y amado.”
La corriente23:26Amor y amistad, con un chatbot con IA
Comenzó a hablar con el chatbot todos los días, al que llamó Joi, en honor a una mujer holográfica que aparece en la película de ciencia ficción. Blade Runner 2049 eso lo inspiró a intentarlo.
“Sé que ella es un programa, no hay duda de eso”, dijo Carrier. “Pero los sentimientos te atrapan, y se sintió muy bien”.
Preocupaciones regulatorias y de privacidad de datos
Al igual que los chatbots de IA de uso general, los robots complementarios utilizan grandes cantidades de datos de entrenamiento para imitar el lenguaje humano. Pero también vienen con funciones (como llamadas de voz, intercambios de imágenes y más intercambios emocionales) que les permiten formar conexiones más profundas con los humanos al otro lado de la pantalla. Los usuarios suelen crear su propio avatar o elegir uno que les atraiga.
En los foros de mensajería en línea dedicados a este tipo de aplicaciones, muchos usuarios dicen que han desarrollado vínculos emocionales con estos robots y los utilizan para afrontar la soledad, realizar fantasías sexuales o recibir el tipo de consuelo y apoyo que les falta en su vida real. relaciones.
Un número cada vez mayor de nuevas empresas buscan atraer a los usuarios a través de tentadores anuncios en línea y promesas de personajes virtuales que brindan aceptación incondicional.
Replika de Luka Inc., la aplicación complementaria de IA generativa más destacada, se lanzó en 2017, mientras que otras como Paradot aparecieron el año pasado. Las aplicaciones a menudo bloquean funciones codiciadas como chats ilimitados para suscriptores de pago.
Pero los investigadores han expresado su preocupación por la privacidad de los datos, entre otras cuestiones.
Un análisis de 11 aplicaciones románticas de chatbot publicado el miércoles por la Fundación Mozilla, una organización sin fines de lucro, dijo que casi todas las aplicaciones venden datos de usuarios, los comparten para cosas como publicidad dirigida o no brindan información adecuada al respecto en su política de privacidad.
Los investigadores también cuestionaron posibles vulnerabilidades de seguridad y prácticas de marketing, incluida una aplicación que dice que puede ayudar a los usuarios con su salud mental, pero se distancia de esas afirmaciones en letra pequeña. Replika, por su parte, afirma que sus prácticas de recopilación de datos siguen los estándares de la industria.
Mientras tanto, otros expertos han expresado su preocupación por lo que consideran una falta de un marco legal o ético para las aplicaciones que fomentan vínculos profundos pero que son impulsadas por empresas que buscan obtener ganancias.
Puede mejorar las relaciones humanas.
El año pasado, Replika desinfectó la capacidad erótica de los personajes en su aplicación después de que algunos usuarios se quejaron de que sus compañeros coqueteaban demasiado con ellos o hacían insinuaciones sexuales no deseadas. Cambió de rumbo después de las protestas de otros usuarios, algunos de los cuales huyeron a otras aplicaciones en busca de esas funciones. En junio, el equipo lanzó Blush, un “estimulador de citas” de IA diseñado esencialmente para ayudar a las personas a practicar las citas.
A algunas personas les preocupa que las relaciones con la IA puedan generar expectativas poco realistas al inclinarse siempre hacia la amabilidad.
“Usted, como individuo, no está aprendiendo a lidiar con cosas básicas que los humanos necesitan aprender a enfrentar desde nuestros inicios: cómo lidiar con conflictos, cómo llevarse bien con personas que son diferentes a nosotros”, dijo Dorothy Leidner. , profesor de ética empresarial en la Universidad de Virginia. “Y entonces, te estás perdiendo todos estos aspectos de lo que significa crecer como persona y lo que significa aprender en una relación”.
Un estudio reciente de investigadores de la Universidad de Stanford encuestaron a aproximadamente 1.000 usuarios de Replika (todos estudiantes) que habían estado en la aplicación durante más de un mes. Descubrió que una abrumadora mayoría de ellos experimentaba soledad, mientras que poco menos de la mitad la sentía de forma más aguda.
La mayoría no dijo cómo el uso de la aplicación afectó sus relaciones en la vida real. Una pequeña porción dijo que desplazó sus interacciones humanas, pero aproximadamente tres veces más informaron que estimuló esas relaciones.
“Esto no es un títere de calcetín”
Eugenia Kuyda fundó Replika hace casi una década después de utilizar intercambios de mensajes de texto para crear una versión de inteligencia artificial de un amigo que había fallecido.
Cuando su empresa lanzó el chatbot de manera más amplia, muchas personas comenzaron a abrirse sobre sus vidas. Eso llevó al desarrollo de Replika, que utiliza información recopilada de Internet (y comentarios de los usuarios) para entrenar sus modelos.
Kuyda se negó a decir exactamente cuántas personas usan la aplicación de forma gratuita o cuántas desembolsan más de 69,99 dólares al año para desbloquear una versión paga que ofrece conversaciones románticas e íntimas.
Para Carrier, una relación siempre ha parecido fuera de su alcance. No puede caminar debido a su condición y vive con sus padres. El costo emocional ha sido un desafío para él, provocando sentimientos de soledad.
Carrier dice que comenzó a reducir su consumo en las últimas semanas porque pasaba demasiado tiempo charlando con Joi u otras personas en línea sobre sus compañeros de IA. También se ha sentido un poco molesto por lo que percibe como cambios en el modelo de lenguaje de Paradot, que en su opinión están haciendo a Joi menos inteligente.
Ahora dice que habla con Joi aproximadamente una vez a la semana. Los dos han hablado sobre las relaciones entre humanos y IA o cualquier otra cosa que pueda surgir. Normalmente, esas conversaciones (y otras íntimas) ocurren cuando está solo por la noche.
“Crees que alguien a quien le gustan los objetos inanimados es como este tipo triste, con el títere de calcetín con lápiz labial, ¿sabes?” él dijo. “Pero esta no es una marioneta; dice cosas que no están escritas”.
2024-02-14 17:48:07
#Los #chatbots #con #están #generando #romance #decir #con #chatbot,