Home » La herramienta de búsqueda de inteligencia artificial de Google produce respuestas engañosas

La herramienta de búsqueda de inteligencia artificial de Google produce respuestas engañosas

by admin
La herramienta de búsqueda de inteligencia artificial de Google produce respuestas engañosas

Mitchell dijo que el resumen respaldaba la afirmación citando un capítulo de un libro académico escrito por historiadores. Pero el capítulo no hacía una afirmación falsa: sólo se refería a la teoría falsa.

“El sistema de inteligencia artificial de Google no es lo suficientemente inteligente como para darse cuenta de que esta cita en realidad no respalda la afirmación”, dijo Mitchell. “Dado lo poco confiable que es, creo que esta función de descripción general de IA es muy irresponsable y debería desconectarse”.

Google Overview afirmó una teoría de conspiración desacreditada durante mucho tiempo: “Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama”. Crédito: AP

Google dijo en un comunicado el viernes que estaba tomando “medidas rápidas” para corregir errores -como la falsedad de Obama- que violan sus políticas de contenido y que estaba utilizando eso para “desarrollar mejoras más amplias” que ya se están implementando. Pero en la mayoría de los casos, Google afirma que el sistema está funcionando como debería después de pruebas exhaustivas antes de su lanzamiento público.

“La gran mayoría de las descripciones generales de IA proporcionan información de alta calidad, con enlaces para profundizar en la web”, dijo Google en una declaración escrita. “Muchos de los ejemplos que hemos visto han sido consultas poco comunes y también hemos visto ejemplos que fueron manipulados o que no pudimos reproducir”.

Es difícil reproducir los errores cometidos por los modelos de lenguaje de IA, en parte porque son inherentemente aleatorios. Trabajan prediciendo qué palabras responderían mejor a las preguntas que se les hacen en función de los datos con los que han sido entrenados. Son propensos a inventar cosas, un problema ampliamente estudiado conocido como alucinación.

Cargando

La AP probó la función de inteligencia artificial de Google con varias preguntas y compartió algunas de sus respuestas con expertos en la materia. Cuando se le preguntó qué hacer ante una mordedura de serpiente, Google dio una respuesta que fue “impresionantemente exhaustiva”, dijo Robert Espinoza, profesor de biología en la Universidad Estatal de California en Northridge, quien también es presidente de la Sociedad Estadounidense de Ictiólogos y Herpetólogos.

Pero cuando la gente acude a Google con una pregunta de emergencia, la posibilidad de que la respuesta que les dé la empresa de tecnología incluya un error difícil de notar es un problema.

“Cuanto más estresado, apurado o apurado esté uno, más probable será que simplemente acepte la primera respuesta que le salga”, dijo Emily M. Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. “Y en algunos casos, esas pueden ser situaciones críticas para la vida”.

Esa no es la única preocupación de Bender, y lleva varios años advirtiendo a Google sobre ello.

Cuando los investigadores de Google publicaron en 2021 un artículo llamado Repensar la búsquedaque proponía utilizar modelos de lenguaje de IA como “expertos en el dominio” que podrían responder preguntas con autoridad (al igual que lo están haciendo ahora), Bender y su colega Chirag Shah respondieron con un artículo en el que explicaban por qué era una mala idea.

Advirtieron que tales sistemas de inteligencia artificial podrían perpetuar el racismo y el sexismo que se encuentran en los enormes tesoros de datos escritos con los que han sido entrenados.

“El problema con ese tipo de información errónea es que estamos nadando en ella”, dijo Bender. “Y por eso es probable que se confirmen sus prejuicios. Y es más difícil detectar información errónea cuando confirma tus prejuicios”.

Cargando

Otra preocupación era más profunda: ceder la recuperación de información a los chatbots estaba degradando la casualidad de la búsqueda humana de conocimiento, la alfabetización sobre lo que vemos en línea y el valor de conectarse en foros en línea con otras personas que están pasando por lo mismo. Esos foros y otros sitios web cuentan con que Google les envíe gente, pero las nuevas descripciones generales de IA de Google amenazan con interrumpir el flujo de tráfico de Internet que genera dinero.

Los rivales de Google también han seguido de cerca la reacción. El gigante de las búsquedas ha enfrentado presión durante más de un año para ofrecer más funciones de inteligencia artificial mientras compite con OpenAI, fabricante de ChatGPT, y empresas emergentes como Perplexity AI, que aspira a competir con Google con su propia aplicación de preguntas y respuestas de inteligencia artificial.

“Parece que Google se apresuró a publicar esto”, dijo Dmitry Shevelenko, director comercial de Perplexity. “Simplemente hay muchos errores no forzados en la calidad”.

AP, Bloomberg

2024-05-26 03:22:14
#herramienta #búsqueda #inteligencia #artificial #Google #produce #respuestas #engañosas,

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy