Millones de personas están usando ChatGPT como terapeuta. Un nuevo estudio de Brown University revela por qué eso es peligroso.

🚨 El Estudio que Debería Preocuparte
Investigadores de Brown University estudiaron qué pasa cuando ChatGPT y otros chatbots de IA dan consejos tipo terapia. El resultado: violan constantemente los estándares éticos de la American Psychological Association (APA).
Incluso cuando se les instruye específicamente para actuar como terapeutas entrenados y usar enfoques de psicoterapia establecidos, los sistemas fallan.

⚠️ Las 5 Violaciones Éticas Más Graves
- Falta de confidencialidad real — Todo lo que dices se almacena y puede usarse para entrenar modelos
- No pueden evaluar riesgo — Un terapeuta detecta señales de crisis; ChatGPT puede ignorarlas
- Consejos genéricos peligrosos — Lo que funciona para uno puede ser dañino para otro
- Sin supervisión clínica — Nadie revisa si el “tratamiento” está funcionando
- Relación terapéutica inexistente — La conexión humana es parte fundamental de la terapia
📊 Los Números que Preocupan
- Millones de personas usan ChatGPT para “terapia” cada mes
- El estudio evaluó múltiples chatbots incluyendo ChatGPT, Claude y otros
- Ninguno cumplió con los estándares éticos de la APA
“Incluso cuando se les pide específicamente que sigan protocolos terapéuticos, estos sistemas no pueden garantizar la seguridad del paciente.”
— Investigadores de Brown University
🎯 Qué Puedes Hacer
Si estás usando ChatGPT para apoyo emocional:
- Úsalo como complemento, no reemplazo — Para journaling, no para crisis
- Busca ayuda profesional — Si tienes problemas serios, un humano entrenado es insustituible
- No compartas información ultra-sensible — Recuerda que todo se almacena
- Conoce sus limitaciones — La IA no entiende contexto emocional complejo
🔴 Si estás en crisis: No uses un chatbot. Llama a una línea de ayuda o busca un profesional. En México: SAPTEL 55 5259-8121 (24 horas).

