Google Bard y Bing Chat proporcionan un informe inexacto sobre el conflicto entre Israel y Hamas

Bard, el popular robot de inteligencia artificial de Google, y Bing Search de Microsoft, últimamente han estado informando incorrectamente sobre un alto el fuego en Israel.

El chatbot ChatGPT impulsado por IA de OpenAI arrasó en el mundo cuando llegó en noviembre de 2022. En particular, el bot respaldado por IA ahora es capaz de acceder información en tiempo real desde la web. Como resultado, ChatGPT puede proporcionar respuestas en un instante. El lado negativo es que el contenido que presentan los chatbots de IA a veces puede ser inexacto.

Los chatbots de IA reportan información inexacta

Últimamente, Google Bard y Microsoft Bing Chat han sido objeto de críticas por proporcionar informes erróneos sobre el conflicto entre Israel y Hamas. Cuando se les hicieron preguntas básicas sobre el conflicto entre Israel y Hamas, tanto Bard como Bing Chat afirmaron incorrectamente que existe un alto el fuego.

Según se informa, Google Bard dijo Shirin Ghaffary de Bloomberg que ambas partes están comprometidas a mantener la paz. Asimismo, Bing Chat de Microsoft escribió: “el alto el fuego señala el fin inmediato del derramamiento de sangre”.

Como si eso no fuera suficiente, Google Bard mostró un número de muertos inexacto. El 9 de octubre, al robot de inteligencia artificial de Google se le hicieron preguntas sobre el actual conflicto entre Israel y Hamas, donde afirmó que el número de muertos había superado los 1.300 el 11 de octubre, cuando la fecha ni siquiera había llegado todavía.

¿Por qué Google Bard y Bing Chat ofrecen información inexacta?

Lamentablemente, todavía no está claro por qué Google Bard y Bing Chat proporcionan informes inexactos. Sin embargo, los chatbots de IA tienen fama de tergiversar los hechos de vez en cuando. Este problema se conoce como alucinación por IA.

Según la gente de IBMla alucinación por IA es un fenómeno en el que un LLM (modelo de lenguaje grande) “percibe patrones u objetos que son inexistentes o imperceptibles para los observadores humanos, creando resultados que no tienen sentido o son completamente inexactos”.

Estos LLM suelen ser chatbots de IA generativa o herramientas de visión por computadora. En otras palabras, la alucinación por IA se produce cuando un LLM inventa hechos y los proporciona como informes precisos. Esta no es la primera vez que los chatbots de IA inventan hechos.

En junio, ChatGPT acusó falsamente a un hombre de un delito. Como resultado, OpenAI estuvo a punto de ser demandada por difamación. De hecho, nueva investigación afirma que ChatGPT y Google Bard podrían desencadenar enfermedades mentales mortales.

Las empresas de inteligencia artificial detrás de estos populares chatbots de inteligencia artificial son conscientes de este problema, que persiste desde hace algún tiempo. Durante un evento en IIT Delhi, India, en junio, el fundador y director ejecutivo de OpenAI, Sam Altman, reconoció que les llevaría alrededor de un año perfeccionar el modelo.

Además, el alto ejecutivo afirmó que OpenAI no escatima esfuerzos para minimizar el problema. “Confío menos en las respuestas que surgen de ChatGPT que en cualquier otra persona en esta Tierra”, dijo Altman. Los últimos informes inexactos sobre el conflicto entre Israel y Hamas plantean serias dudas sobre la confiabilidad de los chatbots de IA.

2023-10-16 09:42:46
#Google #Bard #Bing #Chat #proporcionan #informe #inexacto #sobre #conflicto #entre #Israel #Hamas,

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy