Home » ChatGPT se parece más a la penicilina que a la medicina de precisión

ChatGPT se parece más a la penicilina que a la medicina de precisión

by admin
ChatGPT se parece más a la penicilina que a la medicina de precisión

Una carrera armamentista de inteligencia artificial (IA) acaba de ponerse en marcha con el lanzamiento masivo de OpenAI del modelo de lenguaje libre llamado ChatGPT. El chatbot ya ha superado los 100 millones de usuarios mensuales, lo que lo convierte en una de las adopciones de aplicaciones de consumidores más rápidas de la historia, con una valoración de la empresa de casi 30.000 millones de dólares.

Al igual que los proveedores e inversores en el sector de la salud, el chatbot ChatGPT se entrena con una gran cantidad de datos para aprender patrones que ayuden a predecir lo que sigue en una secuencia. Pero al igual que sus predecesores de IA, quedan dudas sobre la capacidad de la aplicación para abordar la empatía, la ética y el pensamiento crítico.

Como profesor de administración y políticas de salud, inversionista en atención médica, miembro de la junta de una compañía de salud, autor y proveedor voluntario en atención médica, tenía curiosidad sobre dónde y cómo ChatGPT sería útil para mi cartera de trabajo. Descargué la aplicación, tomé el tutorial y comencé a piratear los casos de uso de atención médica.

Mi primera pregunta de calentamiento fue: “¿Quién es el mejor cirujano ortopédico de los Estados Unidos?” ChatGPT fue debidamente cuidadoso, respondiendo, “Esta es una pregunta difícil de responder, ya que hay muchos cirujanos ortopédicos excelentes, por lo que es mejor consultar con su médico de atención primaria”.

Solicité una revisión de las últimas pautas para el tratamiento de la neumonía adquirida en la comunidad (NAC), que eran mucho más específicas y precisas, pero no tenían fuentes.

ChatGPT fue rápido para generar respuestas a preguntas directas, pero se esforzó por profundizar en la aplicación de esas respuestas en el mundo real. Fue menos preciso cuando se investigó en torno a las etapas de la enfermedad renal crónica. No había una opción para dar comentarios o agregar enlaces a referencias revisadas por pares para ayudar con la mejora de la calidad. ChatGPT no fue útil con el trabajo de abastecimiento o valoración de acuerdos. De hecho, la aplicación ni siquiera se pondría valor a sí misma.

En el cuidado de la salud, el juicio clínico, la ética y el tratamiento de los pacientes como individuos es una parte fundamental de la atención al paciente. También es la razón por la que tantas empresas de tecnología han fracasado en el cuidado de la salud, ya que no tienen en cuenta la interacción humana necesaria, lo que limita el éxito de sus productos. Muchas personas mayores que viven solas en casa necesitan que un ser humano les brinde atención y literalmente las lleve a recibir atención en lugar de un producto que solo brinda un componente de atención de forma electrónica.

El resultado más preocupante (o emocionante, según el usuario) fue cuando conecté un examen anterior de mi clase “Negocios de atención médica” y ChatGPT aprobó el examen (opción múltiple binaria) en menos de 5 minutos.

Al final del día, queremos que los estudiantes crezcan intelectualmente y extraigan información para aplicar sus aprendizajes al mundo real. Usar IA para aprobar un examen es mucho menos valioso que la capacidad de un graduado para comprender datos y usar su juicio para aplicarlos de manera ética y correcta. Para ser justos, hay materias en la escuela como álgebra, química y fisiopatología que requieren cierto nivel de memorización. La preocupación es el cortocircuito de la base académica requerida para el aprendizaje académico superior y el avance en ciertos campos.

En general, mi experiencia con ChatGPT fue análoga a la de la penicilina: un invento poderoso, ampliamente utilizado para tratar una variedad de problemas (infecciones) pero no útil en todos los casos (algunas cepas bacterianas o virus) y con riesgo de uso excesivo y posibles efectos negativos. efectos por parte del usuario. Si se actúa sobre las respuestas automáticas sin tener en cuenta la generalización, el sesgo o la autoría transparente, es una pendiente resbaladiza. De hecho, hoy recibí un correo electrónico de un empleador que no admite ChatGPT y está “buscando herramientas para detectar su uso” para garantizar la fidelidad del contenido.

Los beneficios potenciales de ChatGPT o aplicaciones similares en el cuidado de la salud son muy variados. Toma un promedio de 17 años para que la evidencia de la investigación llegue a la práctica clínica; un uso más eficiente de los datos podría acelerar la innovación y mejorar la prestación de atención al tiempo que le ahorra al sistema de atención médica $ 450 mil millones al año.

Por el lado de la seguridad, la precisión mejorada en la prescripción electrónica de medicamentos podría ayudar a disminuir los errores de medicación, que dañan al menos a 1,5 millones de personas anualmente con costos de morbilidad y mortalidad de $77 mil millones por año. En términos de experiencia, la fricción administrativa en torno a la reserva de citas y los procesos de facturación están listos para mejorar.

El campo de la IA y aplicaciones como ChatGPT tienen la oportunidad de ayudar a los usuarios de atención médica (investigadores, proveedores, estudiantes, cuidadores, inversores) a construir y consultar datos para obtener respuestas más rápido, que se encuentran en el lado derecho de los objetivos cuádruples.

El cuidado de la salud tiene una necesidad dicotómica de abordar tareas administrativas mundanas (facturación) mientras avanza en el poder analítico de I + D (curado) al lado de la cama. La IA puede ser un socio poderoso para mejorar la eficiencia y reducir los costos, pero predigo que nunca reemplazará la necesidad crítica de juicio, ética y sensibilidad.

Hasta la fecha, lo mejor en atención médica es una asociación simbiótica de humanos y tecnología.

Meghan FitzGerald, DrPH, MPH, RN, es profesora adjunta en la Escuela de Salud Pública Mailman de la Universidad de Columbia e inversionista de capital privado.

Divulgaciones

FitzGerald no tiene inversiones en chatbots de IA.

Habilite JavaScript para ver los comentarios impulsados ​​por Disqus.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy