Anthropic publicó hoy una actualización de su Usage Policy
para aclarar cómo se deben usar sus productos y qué queda prohibido. ¿Por qué importa si usas Claude, sus agentes o cualquier sistema de IA que haga tareas automáticas? Porque estas reglas cambian la forma en que empresas, desarrolladores y equipos de producto deben diseñar controles, transparencia y supervisión humana. (anthropic.com)
Qué cambia y por qué tiene impacto
La actualización busca dar más claridad tras recibir retroalimentación de usuarios, cambios en el producto y desarrollos regulatorios. Las modificaciones entran en vigor el 15 de septiembre de 2025, así que hay tiempo para ajustar procesos y contratos. (anthropic.com)
En términos prácticos, el cambio no es solo de redacción: apunta a especificar riesgos reales que ya vemos en el día a día, como agentes que ejecutan acciones en servicios externos o modelos que generan instrucciones para tareas técnicas.
Abordando ciberseguridad y uso agentico
Anthropic reconoce el avance rápido de las capacidades agenticas y añade secciones que prohíben actividades relacionadas con comprometer computadoras, redes o infraestructuras. Al mismo tiempo, deja claro que apoya usos legítimos de seguridad, por ejemplo encontrar vulnerabilidades con el consentimiento del propietario del sistema. Esto busca equilibrar innovación y riesgo. (anthropic.com)
Piensa en un equipo en Caracas que prueba un agente para desplegar actualizaciones: ahora debe evaluar controles para prevenir que ese agente sea manipulado para ejecutar código malicioso en producción.
Restricciones sobre contenido político más precisas
Antes la política tenía una prohibición amplia sobre contenido de campaña y lobby. Anthropic la cambia por una regla más dirigida: prohíbe actividades engañosas o disruptivas para procesos democráticos y el uso de IA para segmentación de votantes, pero permite investigación política legítima, educación cívica y escritura política responsable. Esto abre espacios útiles para investigadores y ONGs, manteniendo guard rails contra la manipulación. (anthropic.com)
Un ejemplo práctico: una ONG que usa Claude para explicar cambios legales a la ciudadanía probablemente quede permitida; el uso para crear campañas dirigidas y engañosas queda explícitamente prohibido.
Claridad sobre el uso por parte de fuerzas del orden
La actualización simplifica el lenguaje relativo a aplicaciones policiales y de seguridad. Según Anthropic, no cambia lo que está permitido o prohibido, pero facilita entenderlo: prohíben vigilancia, seguimiento, perfilado y monitoreo biométrico invasivo, y mantienen permitidos ciertos usos analíticos y administrativos siempre que no violen esos límites. (anthropic.com)
Si trabajas con gobiernos o proveedores de seguridad, revisa cómo tu caso de uso se alinea con estas definiciones; la redacción más clara ayuda a evitar malentendidos contractuales.
Requisitos para casos de alto riesgo de cara al consumidor
Para usos con impacto en bienestar público y equidad social (por ejemplo en salud legal, finanzas o empleo), la política exige salvaguardas adicionales: supervisión humana, divulgación de uso de IA y medidas técnicas para reducir sesgos y errores. Estos requisitos se aplican cuando las salidas del modelo llegan directamente a consumidores, no cuando son interacciones B2B internas. (anthropic.com)
Esto significa que si una fintech venezolana usa Claude para decisiones que afectan el acceso a crédito de personas, deberá implementar human-in-the-loop
y transparencia clara al usuario.
Qué puedes hacer ahora (lista práctica)
- Revisa los casos de uso actuales y marca cuáles son consumer-facing.
- Implementa supervisión humana donde las decisiones afecten la vida de personas.
- Actualiza términos y avisos al usuario para incluir divulgación del uso de IA.
- Refuerza controles de seguridad para agentes que ejecutan acciones externas.
- Prueba y audita salidas en escenarios sensibles (legal, empleo, finanzas).
Pequeños cambios ahora evitan sanciones, problemas de reputación o actividades prohibidas en el futuro.
La política es un documento vivo. Anthropic la ajusta con el pulso del riesgo y la adopción real, por lo que conviene revisarla periódicamente. (anthropic.com)
Mirada final
Esta actualización no es solo letra pequeña: obliga a responsables de producto, ingenieros y líderes a pensar en seguridad operativa, transparencia y salvaguardas humanas desde el diseño. ¿Te toca a ti? Si tu proyecto usa agentes o entrega resultados directos a usuarios, es buen momento para mapear riesgos y actualizar procesos antes del 15 de septiembre de 2025.