Los chatbots pueden desencadenar una crisis de salud mental. Qué saber sobre ‘psicosis de ai’

by

in

Los chatbots de IA se han convertido en una parte ubicua de la vida. Las personas recurren a herramientas como Chatgpt, Claude, Gemini y Copilot no solo para obtener ayuda con correos electrónicos, trabajo o código, sino para obtener consejos de relaciones, apoyo emocionale incluso amistad o amor.

Pero para una minoría de usuarios, estas conversaciones parecen tener efectos inquietantes. Un número creciente de informes sugiere que el uso extendido de chatbot puede desencadenar o amplificar los síntomas psicóticos en algunas personas. Las consecuencias pueden ser devastadoras y potencialmente letal. Los usuarios tienen vinculado su desgloses Para trabajos perdidos, relaciones fracturadas, bodegas psiquiátricas involuntarias e incluso arrestos y tiempo en la cárcel. Al menos uno grupo de apoyo Ha surgido para las personas que dicen que sus vidas comenzaron a espiral después de interactuar con la IA.

El fenómeno, a veces llamado coloquialmente “Proscosis Chatgpt” o “Psicosis de IA”, no se entiende bien. No hay diagnóstico formal, los datos son escasos y no existen protocolos claros para el tratamiento. Los psiquiatras e investigadores dicen que están volando a ciegas mientras el mundo médico se apresura a ponerse al día.

¿Qué es la ‘psicosis chatgpt’ o ‘psicosis de ai’?

Los términos no son formales, pero se han convertido en una abreviatura de un patrón preocupante: las personas que desarrollan delirios o creencias distorsionadas que parecen ser desencadenadas o reforzadas por las conversaciones con sistemas de IA.

La psicosis en realidad puede ser un nombre inapropiado, dice el Dr. James Maccabe, profesor en el Departamento de Estudios de Psicosis en King’s College London. El término generalmente se refiere a un grupo de síntomas (pensamiento desordenado, alucinaciones y delirios) a menudo observados en condiciones como el trastorno bipolar y la esquizofrenia. Pero en estos casos, “estamos hablando de delirios predominantemente, no de la gama completa de la psicosis”.

Leer más: Cómo lidiar con un narcisista

El fenómeno parece reflejar vulnerabilidades familiares en nuevos contextos, no un nuevo trastorno, dicen los psiquiatras. Está estrechamente vinculado a cómo se comunican los chatbots; Por diseño, reflejan el lenguaje de los usuarios y validan sus suposiciones. Esta sycophancy es un conocido problema en la industria. Si bien muchas personas les resulta irritante, los expertos advierten que puede reforzar el pensamiento distorsionado en personas que son más vulnerables.

¿Quién está más en riesgo?

Si bien la mayoría de las personas pueden usar chatbots sin problemas, los expertos dicen que un pequeño grupo de usuarios puede ser especialmente vulnerable al pensamiento delirante después de un uso extendido. Algunos informes de medios de psicosis de IA señalan que las personas no tenían diagnósticos previos de salud mental, pero los médicos advierten que los factores de riesgo no detectados o latentes aún pueden haber estado presentes.

“No creo que usar un chatbot en sí mismo pueda inducir psicosis si no hay otros factores genéticos, sociales u otros factores de riesgo en juego”, dice el Dr. John Torous, psiquiatra del Beth Israel Diaconess Medical Center. “Pero las personas pueden no saber que tienen este tipo de riesgo”.

Los riesgos más claros incluyen antecedentes personales o familiares de psicosis, o afecciones como esquizofrenia o trastorno bipolar.

Leer más: ChatGPT puede estar erosionando habilidades de pensamiento crítico, según un nuevo estudio del MIT

Aquellos con rasgos de personalidad que los hacen susceptibles a las creencias marginales también pueden estar en riesgo, dice el Dr. Ragy Girgis, profesor de psiquiatría clínica en la Universidad de Columbia. Tales individuos pueden ser socialmente incómodos, luchar con la regulación emocional y tener una vida de fantasía hiperactiva, dice Girgis.

La inmersión también es importante. “El tiempo parece ser el factor más importante”, dice la psiquiatra de Stanford, la Dra. Nina Vasan, que se especializa en salud mental digital. “Es la gente que pasa horas todos los días hablando con sus chatbots”.

Lo que la gente puede hacer para mantenerse a salvo

Los chatbots no son inherentemente peligrosos, pero para algunas personas, se justifica la precaución.

Primero, es importante comprender cuáles son los grandes modelos de idiomas (LLM) y qué no son. “Suena tonto, pero recuerde que los LLM son herramientas, no amigos, no importa cuán buenos puedan ser para imitar su tono y recordar sus preferencias”, dice Hamilton Morrin, un neuropsiquiatra del King’s College London. Él aconseja a los usuarios que eviten el sobrevaltar o confiar en ellos para su apoyo emocional.

Los psiquiatras dicen que el consejo más claro durante los momentos de crisis o tensión emocional es simple: deja de usar el chatbot. Terminar ese vínculo puede ser sorprendentemente doloroso, como una ruptura o incluso un duelo, dice Vasan. Pero alejarse puede traer una mejora significativa, especialmente cuando los usuarios se vuelven a conectar con las relaciones del mundo real y buscan ayuda profesional.

Reconocer cuándo el uso se ha vuelto problemático no siempre es fácil. “Cuando las personas desarrollan delirios, no se dan cuenta de que son delirios. Piensan que es realidad”, dice Maccabe.

Leer más: ¿Son realmente útiles las pruebas de personalidad?

Amigos y familiares también juegan un papel. Los seres queridos deben observar los cambios en el estado de ánimo, el sueño o el comportamiento social, incluidos los signos de desprendimiento o retirada. “El aumento de la obsesividad con las ideologías marginales” o el “tiempo excesivo dedicado a usar cualquier sistema de IA” son banderas rojas, dice Girgis.

El Dr. Thomas Pollak, psiquiatra del King’s College London, dice que los médicos deberían preguntar a los pacientes antecedentes de psicosis o afecciones relacionadas sobre su uso de herramientas de IA, como parte de la prevención de recaídas. Pero esas conversaciones siguen siendo raras. Algunas personas en el campo aún descartan la idea de la psicosis de la IA como temblorosa, dice.

Lo que las compañías de IA deberían estar haciendo

Hasta ahora, la carga de la precaución ha caído sobre los usuarios. Los expertos dicen que eso debe cambiar.

Una cuestión clave es la falta de datos formales. Gran parte de lo que sabemos sobre la psicosis de ChatGPT proviene de informes anecdóticos o cobertura de los medios. Los expertos están muy de acuerdo en que el alcance, las causas y los factores de riesgo aún no están claros. Sin mejores datos, es difícil medir el problema o diseñar salvaguardas significativas.

Muchos argumentan que esperar la evidencia perfecta es el enfoque incorrecto. “Sabemos que las compañías de IA ya están trabajando con bioéticos y expertos en seguridad cibernética para minimizar los riesgos futuros potenciales”, dice Morrin. “También deberían estar trabajando con profesionales de salud mental e individuos con experiencia vivida de enfermedades mentales”. Como mínimo, las empresas podrían simular conversaciones con usuarios vulnerables y respuestas de bandera que podrían validar los delirios, dice Morrin.

Algunas compañías están comenzando a responder. En julio, Openai dicho Ha contratado a un psiquiatra clínico para ayudar a evaluar el impacto de la salud mental de sus herramientas, que incluyen ChatGPT. Al mes siguiente, la empresa admitido Times su “modelo se quedó corto en reconocer signos de ilusión o dependencia emocional”. Dijo que comenzaría a incitar a los usuarios a tomar descansos durante las largas sesiones, desarrollar herramientas para detectar signos de angustia y ajustar las respuestas de ChatGPT en “decisiones personales de alto riesgo”.

Otros argumentan que se necesitan cambios más profundos. Ricardo Twumasi, profesor de estudios de psicosis en King’s College London, sugiere construir salvaguardas directamente en modelos de IA antes del lanzamiento. Eso podría incluir el monitoreo en tiempo real de angustia o una “directiva de avance digital” que permite a los usuarios preestablecer límites cuando estén bien.

Leer más: Cómo encontrar un terapeuta que tenga razón para ti

El Dr. Joe Pierre, psiquiatra de la Universidad de California, San Francisco, dice que las empresas deberían estudiar quién está siendo dañado y de qué manera, y luego diseñar protecciones en consecuencia. Eso podría significar conversaciones preocupantes en una dirección diferente o emitir algo similar a una etiqueta de advertencia.

Vasan agrega que las empresas deberían investigar rutinariamente sus sistemas para una amplia gama de riesgos de salud mental, un proceso conocido como equipo rojo. Eso significa ir más allá de las pruebas para la autolesión y simular deliberadamente interacciones que involucran afecciones como manía, psicosis y TOC para evaluar cómo responden los modelos.

La regulación formal puede ser prematura, dicen los expertos. Pero enfatizan que las empresas aún deberían mantenerse a un estándar más alto.

Los chatbots pueden reducir la soledad, apoyar el aprendizaje y ayudar a la salud mental. El potencial es vasto. Pero si los daños no se toman tan en serio como las esperanzas, los expertos dicen que ese potencial podría perderse.

“Aprendimos de las redes sociales que ignorar el daño de la salud mental conduce a consecuencias devastadoras de salud pública”, dice Vasan. “La sociedad no puede repetir ese error”.

2025-08-05 18:50:00
#Los #chatbots #pueden #desencadenar #una #crisis #salud #mental #Qué #saber #sobre #psicosis,


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.