Anthropic, la empresa de IA que presume ser la más responsable del mercado, acaba de actualizar silenciosamente sus políticas de uso. Claude ahora puede proporcionar información sobre armas, explosivos y sustancias reguladas siempre que esa información ya esté disponible en internet.

La lógica de Anthropic: si lo puedes googlear, Claude te lo puede decir. Antes, el modelo se negaba rotundamente a hablar de cualquier cosa que sonara peligrosa, sin importar el contexto.

Esto no es un bug ni un jailbreak. Es una decisión deliberada de la empresa.

Por qué importa este cambio

La movida refleja algo que venimos viendo en toda la industria: las restricciones exageradas no hacen a nadie más seguro. Solo hacen que los modelos sean menos útiles. Un investigador legítimo que estudia química de explosivos no podía hacer su trabajo con Claude. Un periodista investigando tráfico de armas tampoco. Mientras tanto, cualquiera con malas intenciones simplemente abría Google.

Anthropic lo llama “teatro de seguridad”: restricciones performativas que molestan a usuarios legítimos sin detener a nadie con intenciones reales de causar daño.

La nueva política mantiene límites: Claude no puede proporcionar información “novel” o no pública que ayude a alguien a causar daño. Puede explicar cómo funciona la pólvora porque eso está en Wikipedia. No puede, en teoría, ayudarte a optimizar un diseño de explosivo más allá de lo que ya está documentado.

Mi take

Esto era inevitable. Y honestamente, tiene sentido.

He perdido horas con Claude negándose a responder preguntas perfectamente legítimas sobre seguridad informática porque sonaban “peligrosas”. Es frustrante. Y al final, siempre terminas encontrando la información en otro lado.

Para los que construimos con IA en LATAM, esto significa que Claude va a ser más útil para casos de uso profesionales. Periodismo de investigación, análisis de seguridad, educación técnica. Los que realmente necesitaban estas capacidades ahora las tienen.

¿Es un riesgo? Sí, siempre lo hay. Pero el riesgo de la alternativa — modelos tan castrados que nadie los usa para trabajo serio — también es real. Anthropic decidió que prefiere ser útil y confiar en que la mayoría de sus usuarios no son criminales. Me parece razonable.

Qué deberías hacer

Si usas Claude para trabajo que requiere información técnica “sensible” — seguridad, química, ingeniería, periodismo de investigación — vale la pena probar de nuevo. Las restricciones que te bloqueaban antes probablemente ya no aplican.

Si construyes productos sobre Claude, revisa tus prompts de sistema. Algunos workarounds que tenías para evitar refusals ya no son necesarios.

Y si te preocupa la seguridad: la información peligrosa siempre ha estado disponible. La diferencia es que ahora también está en un formato más conveniente. Eso no cambia quién decide usarla.

¿Te sirvió? En mis redes comparto esto diario. @jorgerazo en Instagram, @jorgeraz0 en TikTok.

Avatar de Jorge Razo

Jorge Razo

⚡️ Entrenador de emprendedores digitales | 🤯 Growth Hacker | 🎙️ Podcast “Capos Digitales” | 🌎 Viajo por el mundo | Emprendimientos en IG: @ekoos_mx @pasedirectomx @cursocie @la_conciertera

Ver todo
0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x