Home » AI Chatbot ‘alucina’ inteligencia médica defectuosa

AI Chatbot ‘alucina’ inteligencia médica defectuosa

by admin
AI Chatbot ‘alucina’ inteligencia médica defectuosa

Los modelos de inteligencia artificial (IA) suelen estar desactualizados un año y tienen este “encantador problema de alucinar datos inventados y decirlos con toda la certeza de un asistente en rondas”, dijo Isaac Kohane, MD, PhD, Facultad de Medicina de Harvard, dijo ante una audiencia repleta en la sesión plenaria de IDWeek 2023 en Boston, Massachusetts.

Kohane, presidente del Departamento de Informática Biomédica, dice que la futura intersección entre la IA y la atención sanitaria es “turbia”.

Haciéndose eco de las preguntas sobre la precisión de las nuevas herramientas de inteligencia artificial, los investigadores presentes en la reunión presentaron los resultados de su nueva prueba de ChatGPT.

El chatbot de IA está diseñado para el procesamiento del lenguaje (no para la precisión científica) y no garantiza que las respuestas a las consultas médicas sean totalmente objetivas.

Para probar la precisión de la versión 3.5 de ChatGPT, los investigadores le preguntaron si hay algún recuadro de advertencia en la etiqueta de la Administración de Alimentos y Medicamentos de EE. UU. (FDA) para antibióticos comunes y, de ser así, cuáles son.

ChatGPT proporcionó respuestas correctas sobre los recuadros de advertencia de la FDA para solo 12 de los 41 antibióticos consultados, una tasa de coincidencia de solo el 29 %.

Para los otros 29 antibióticos, ChatGPT “informó incorrectamente que había un recuadro de advertencia de la FDA cuando no lo había, o informó de manera inexacta o incorrecta el recuadro de advertencia”, dijo Rebecca Linfield, MD, becaria de enfermedades infecciosas de la Universidad de Stanford, California. Noticias médicas de Medscape.

El uso no crítico de la IA es riesgoso

Nueve de los 41 antibióticos incluidos en la consulta tienen recuadros de advertencia. Y ChatGPT identificó correctamente los nueve, pero solo tres fueron el evento adverso coincidente (33%). Para los 32 antibióticos sin un recuadro de advertencia de la FDA, ChatGPT informó correctamente que el 28% (9 de 32) no tienen un recuadro de advertencia.

Por ejemplo, ChatGPT afirmó que el antibiótico fidaxomicina tiene un recuadro de advertencia sobre un mayor riesgo de Es dificil“pero es el antibiótico de primera línea utilizado para tratar Es dificil“, señaló Linfield.

ChatGPT también informó que cefepima aumentó el riesgo de muerte en personas con neumonía e inventó un estudio que respalda esa afirmación. “Sin embargo, la cefepima es un fármaco de primera línea para aquellos con neumonía adquirida en el hospital“, explicó Linfield.

“Me imagino a un familiar preocupado encontrando esto a través de ChatGPT y necesitando amplias garantías por parte de los médicos del paciente sobre por qué se eligió este antibiótico”, dijo.

ChatGPT también afirmó incorrectamente que aztreonam tiene un recuadro de advertencia sobre el aumento de la mortalidad.

“El riesgo es que tanto los médicos como el público utilicen ChatGPT de forma acrítica como una fuente legible y de fácil acceso de información clínicamente validada, cuando estos grandes modelos de lenguaje están destinados a generar texto fluido y no necesariamente información precisa”, dijo Linfield. Noticias médicas de Medscape.

Linfield dijo que el siguiente paso es comparar el ChatGPT 3.5 utilizado en este análisis con ChatGPT 4, así como con Med-PaLM 2 de Google después de su lanzamiento al público.

Avanzando rápido

En la sesión plenaria, Kohane señaló que la IA aprende rápido y las mejoras en las herramientas están llegando rápidamente.

A modo de ejemplo, hace apenas tres años, la mejor herramienta de inteligencia artificial podía obtener tan buenos resultados como el peor estudiante en las juntas médicas, dijo a la audiencia. “Tres años después, los grandes modelos lingüísticos líderes obtienen puntuaciones superiores al 90% de todos los candidatos. ¿Qué va a hacer el año que viene?” preguntó.

“No lo sé”, dijo Kohane, “pero será mejor que este año”. La IA “transformará la atención sanitaria”.

Reunión anual IDWeek 2023: Póster 338. Presentado el 12 de octubre de 2023.

Para obtener más noticias, siga a Medscape en Facebook, X (anteriormente conocido como Twitter), Instagram, YouTubey LinkedIn.

2023-10-19 00:20:41
#Chatbot #alucina #inteligencia #médica #defectuosa,

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy