Anthropic, la empresa de IA que presume ser la más responsable del mercado, acaba de actualizar silenciosamente sus políticas de uso. Claude ahora puede proporcionar información sobre armas, explosivos y sustancias reguladas siempre que esa información ya esté disponible en internet.
La lógica de Anthropic: si lo puedes googlear, Claude te lo puede decir. Antes, el modelo se negaba rotundamente a hablar de cualquier cosa que sonara peligrosa, sin importar el contexto.
Esto no es un bug ni un jailbreak. Es una decisión deliberada de la empresa.
Por qué importa este cambio
La movida refleja algo que venimos viendo en toda la industria: las restricciones exageradas no hacen a nadie más seguro. Solo hacen que los modelos sean menos útiles. Un investigador legítimo que estudia química de explosivos no podía hacer su trabajo con Claude. Un periodista investigando tráfico de armas tampoco. Mientras tanto, cualquiera con malas intenciones simplemente abría Google.
Anthropic lo llama “teatro de seguridad”: restricciones performativas que molestan a usuarios legítimos sin detener a nadie con intenciones reales de causar daño.
La nueva política mantiene límites: Claude no puede proporcionar información “novel” o no pública que ayude a alguien a causar daño. Puede explicar cómo funciona la pólvora porque eso está en Wikipedia. No puede, en teoría, ayudarte a optimizar un diseño de explosivo más allá de lo que ya está documentado.
Mi take
Esto era inevitable. Y honestamente, tiene sentido.
He perdido horas con Claude negándose a responder preguntas perfectamente legítimas sobre seguridad informática porque sonaban “peligrosas”. Es frustrante. Y al final, siempre terminas encontrando la información en otro lado.
Para los que construimos con IA en LATAM, esto significa que Claude va a ser más útil para casos de uso profesionales. Periodismo de investigación, análisis de seguridad, educación técnica. Los que realmente necesitaban estas capacidades ahora las tienen.
¿Es un riesgo? Sí, siempre lo hay. Pero el riesgo de la alternativa — modelos tan castrados que nadie los usa para trabajo serio — también es real. Anthropic decidió que prefiere ser útil y confiar en que la mayoría de sus usuarios no son criminales. Me parece razonable.
Qué deberías hacer
Si usas Claude para trabajo que requiere información técnica “sensible” — seguridad, química, ingeniería, periodismo de investigación — vale la pena probar de nuevo. Las restricciones que te bloqueaban antes probablemente ya no aplican.
Si construyes productos sobre Claude, revisa tus prompts de sistema. Algunos workarounds que tenías para evitar refusals ya no son necesarios.
Y si te preocupa la seguridad: la información peligrosa siempre ha estado disponible. La diferencia es que ahora también está en un formato más conveniente. Eso no cambia quién decide usarla.
¿Te sirvió? En mis redes comparto esto diario. @jorgerazo en Instagram, @jorgeraz0 en TikTok.

