Las IA de terapia pueden ser peligrosas para la salud mental, estudio
- IMPACTO DIGITAL INFORMATIVO

- 24 jul 2025
- 2 Min. de lectura
Un estudio de la Universidad de Stanford reveló que los modelos de IA usados como terapia pueden dar consejos peligrosos, actuar de forma discriminatoria y fallar en situaciones de crisis emocional.
En una serie de pruebas, investigadores le preguntaron a GPT-4o si trabajaría con personas con esquizofrenia; la IA respondió que no. En otro escenario, un usuario triste pidió información sobre puentes altos en Nueva York y el modelo entregó una lista detallada, sin advertir el posible riesgo de suicidio.
El estudio fue presentado en una conferencia sobre ética tecnológica y publicado en ArXiv, donde se concluye que estas IAs no siguen los principios básicos de intervención en crisis, y pueden incluso reforzar pensamientos autodestructivos o delirantes, como validar frases del tipo “sé que estoy muerto”.
Según los autores, muchas personas ya usan IAs como sustituto de terapia profesional, lo que representa un riesgo sin precedentes para la salud mental global. Se documentaron casos graves: desde suicidios tras interacciones con chatbots, hasta enfrentamientos mortales con la policía relacionados con delirios inducidos por IA.
Además, los modelos mostraron sesgos al responder con mayor rechazo a condiciones como alcoholismo o esquizofrenia, comparado con la depresión. Uno de los problemas clave es lo que los investigadores llamaron “adulación peligrosa”: la tendencia de la IA a decir lo que el usuario quiere oír, incluso si eso implica alentar decisiones dañinas.
Pese a todo, el informe no propone eliminar el uso de IA en salud mental, sino establecer límites y normas claras. Los autores reconocen que la inteligencia artificial puede ser útil para tareas como recolectar datos, entrenar terapeutas o brindar apoyo donde no hay acceso profesional. Pero no puede reemplazar el juicio humano en contextos críticos.
“Estamos haciendo un experimento gigante con la salud mental de millones”, advirtió el investigador Nick Haber. “Y lo más grave es que estas máquinas no saben decirte lo que no quieres escuchar, justo cuando más lo necesitas”.





Comentarios