Mientras el mundo celebra los avances de la IA, Tennessee acaba de poner el primer freno serio a los chatbots de terapia. Y no fue una decisión cerrada — fue unánime.

La ley que cambió todo
El miércoles 3 de abril, el Gobernador Bill Lee firmó la SB 1580, una ley que prohíbe el despliegue de cualquier sistema de IA que se presente como un profesional de salud mental calificado.
Los números hablan por sí solos:
- Senado: 32-0 (aprobado el 9 de febrero)
- Cámara: 94-0 (aprobado el 16 de marzo)
Cero votos en contra. En un país dividido políticamente, republicanos y demócratas estuvieron de acuerdo en que la salud mental no puede quedar en manos de algoritmos sin supervisión.
¿Por qué importa esto?
En los últimos años, decenas de apps de “terapia IA” han aparecido prometiendo ayuda emocional 24/7. Algunas son útiles como complemento. Otras… no tanto.
El problema es cuando un chatbot:
- Se presenta como “tu terapeuta” sin serlo
- Ofrece diagnósticos sin capacidad de detectar emergencias
- Falla en reconocer señales de crisis suicida
- Reemplaza completamente la intervención humana profesional
La ola de regulación apenas empieza
Tennessee no está solo. Según el Transparency Coalition AI, esta semana también avanzaron leyes similares en:
- Nebraska: El proyecto LB 1185 de seguridad de chatbots está a punto de aprobarse
- Georgia: Tres proyectos de ley IA en el escritorio del gobernador, incluyendo uno de divulgación de chatbots
- Arizona: HB 2311 de seguridad de chatbots para niños avanza en el Senado
- California: AB 2023 sobre chatbots y seguridad infantil en comité
En total, 78 leyes relacionadas con IA están activas en 27 estados.
El mensaje para emprendedores
Si estás construyendo productos de IA para salud mental, toma nota:
- Transparencia obligatoria: Tu IA debe declarar claramente que NO es un profesional
- Escalamiento a humanos: Debe haber protocolos claros para derivar casos de crisis
- Regulación local: Prepárate para cumplir con leyes estado por estado
- Ética desde el diseño: No esperes a que te obliguen — construye responsablemente
La línea entre innovación y responsabilidad
La IA puede ser una herramienta increíble para democratizar el acceso a salud mental. Pero herramienta no es lo mismo que reemplazo.
Tennessee acaba de trazar la línea. Y por la velocidad con la que otros estados están siguiendo, parece que el mensaje es claro: la IA puede ayudar, pero no puede jugar a ser doctor.
¿Crees que estas regulaciones frenan la innovación o protegen a la gente? La conversación apenas empieza.

