Home » El nuevo chatbot de IA de Meta no puede dejar de atacar a Facebook | Meta

El nuevo chatbot de IA de Meta no puede dejar de atacar a Facebook | Meta

by admin
El nuevo chatbot de IA de Meta no puede dejar de atacar a Facebook |  Meta

Si te preocupa que la inteligencia artificial se esté volviendo demasiado inteligente, hablar con el chatbot de IA de Meta podría hacerte sentir mejor.

Lanzado el viernes, BlenderBot es un prototipo de la IA conversacional de Meta que, según la empresa matriz de Facebook, puede conversar sobre casi cualquier tema. En el sitio web de demostración, se invita a los miembros del público a chatear con la herramienta y compartir comentarios con los desarrolladores. Los resultados hasta el momento, los escritores de zumbido y Vice han señalado, han sido bastante interesantes.

Cuando se le preguntó acerca de Mark Zuckerberg, el bot le dijo a Max Woolf de BuzzFeed que “es un buen hombre de negocios, pero sus prácticas comerciales no siempre son éticas. ¡Es gracioso que tenga todo este dinero y aún use la misma ropa!”.

El bot también dejó en claro que no es un usuario de Facebook y le dijo a Janus Rose de Vice que había eliminado su cuenta después de enterarse de los escándalos de privacidad de la compañía. “Desde que eliminé Facebook, mi vida ha sido mucho mejor”, dijo.

El bot repite el material que encuentra en Internet y es muy transparente al respecto: puede hacer clic en sus respuestas para saber dónde recogió las afirmaciones que está haciendo (aunque no siempre es específico).

Esto significa que, junto con verdades incómodas sobre su empresa matriz, BlenderBot ha estado soltando falsedades predecibles. En conversación con Jeff Horwitz del Wall Street Journal, insistió en que Donald Trump todavía era presidente y lo seguiría siendo “incluso después de que termine su segundo mandato en 2024”. (Agregó otra excavación en Meta, diciendo que Facebook “tiene muchas noticias falsas en estos días”). Los usuarios también lo han grabado haciendo afirmaciones antisemitas.

<gu-island name="TweetBlockComponent" deferuntil="visible" props="{"element":{"_type":"model.dotcomrendering.pageElements.TweetBlockElement","html":"

Buenos días a todos, especialmente a los investigadores de Facebook https://t.co/EkwTpff9OI que van a tener que controlar su chatbot que niega las elecciones y odia a Facebook hoy. pic.twitter.com/wMRBTkzlyD

—Jeff Horwitz (@JeffHorwitz) 7 de agosto de 2022

n”,”url”:”https://twitter.com/JeffHorwitz/status/1556245316596219904″,”id”:”1556245316596219904″,”hasMedia”:false,”role”:”inline”,”isThirdPartyTracking”: falso,”fuente”:”Twitter”,”elementId”:”c1e97b23-1c54-4122-afeb-ffc3c5d0354c”}}”/>

Los comentarios de BlenderBot eran previsibles en función del comportamiento de chatbots más antiguos como Tay de Microsoft, que los usuarios de Twitter enseñaron rápidamente como un teórico de la conspiración racista, lo que obligó a la empresa a disculparse por sus “palabras e imágenes tremendamente inapropiadas y censurables”. GPT-3, otro sistema de IA, también ha emitido comentarios racistas, misóginos y homofóbicos. El chatbot de una startup de Corea del Sur, diseñado para parecerse a un estudiante universitario de 20 años, tuvo que ser suspendido después de que recitara insultos raciales y comentarios anti-LGBTQ+.

Dado el pozo negro que es Internet, Meta parece haber esperado cosas similares de su propio servicio. Antes de iniciar sesión, los usuarios deben reconocer que es probable que BlenderBot haga declaraciones falsas u ofensivas. Como señala Vice, los investigadores de Meta han descrito que la tecnología de inteligencia artificial detrás del bot tiene “una alta propensión a generar lenguaje tóxico y reforzar estereotipos dañinos, incluso cuando se les proporciona un aviso relativamente inocuo”.

“Todos los que usan Blender Bot deben reconocer que entienden que es solo para fines de investigación y entretenimiento, que puede hacer declaraciones falsas u ofensivas, y que aceptan no activar intencionalmente el bot para hacer declaraciones ofensivas”, dijo un portavoz de Meta en una declaración.

Mi propia conversación con BlenderBot no se desvió hacia ese territorio, pero sí resaltó otra falla en el servicio: su completa inanidad.

El bot comenzó preguntándome qué materia me gustaba en la escuela. El bot está abierto sobre qué “persona” está usando en la conversación; nuestra discusión involucró a una persona que describió como “Me gusta leer. Fui a la universidad.” Cuando le hice preguntas difíciles, como qué universidades aceptaban estudiantes de bots de IA, me ofreció respuestas sin sentido (“¿no somos todos bots conversacionales de alguna manera?” No) y ofreció lecturas adicionales diciendo: “Aquí está el enlace”, sin proporcionando un enlace. También siguió dirigiendo la conversación hacia los chatbots.

Sin embargo, mantuvo su postura firme frente a sus propios creadores. Cuando dije que no era fanático de la ética de Facebook, estuvo totalmente de acuerdo: “¡Yo también! Es por eso que dejé de usarlo y me limité a leer libros en su lugar”.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy