Anthropic actualiza términos: opción para usar datos en IA

4 minutos
ANTHROPIC
Anthropic actualiza términos: opción para usar datos en IA

Anthropic anunció una actualización de sus Términos de consumidor y su Política de privacidad para dar a los usuarios la opción de permitir que sus datos se usen para mejorar los modelos de IA. ¿Por qué debería importarte esto si usas Claude para preguntas diarias o para depurar código? Vamos por partes, sin tecnicismos innecesarios. (anthropic.com)

Qué cambió

La novedad principal es que ahora los usuarios pueden elegir si quieren que sus chats y sesiones de código se usen para entrenar y mejorar Claude. Esta opción se aplica a las cuentas Free, Pro y Max, incluyendo cuando utilizas Claude Code desde esas cuentas. No afecta a servicios bajo los Términos Comerciales, como Claude for Work, Claude Gov, Claude for Education, ni a usos vía API o integraciones con terceros. (anthropic.com)

Si eres usuario actual, Anthropic te mostrará una notificación dentro de la app para que tomes una decisión. Tienes hasta el 28 de septiembre de 2025 para aceptar los términos actualizados y seleccionar tu preferencia; si no decides antes de esa fecha, será necesario elegir para poder seguir usandoClaude. (anthropic.com)

Retención de datos: cuánto tiempo y qué pasa si eliges

Si aceptas que tus datos se usen para entrenamiento de modelos, Anthropic extenderá la retención de datos a cinco años para nuevas o reanudadas conversaciones y sesiones de código. Si no autorizas este uso, tu retención seguirá siendo la actual de 30 días. También se aplica a la retroalimentación que envíes sobre respuestas de Claude. (anthropic.com)

Importante: borrar una conversación evita que esa conversación se use en futuros entrenamientos, y cambiar tu configuración detendrá el uso de nuevos chats en entrenamientos futuros; sin embargo, la compañía aclara que datos ya incorporados en entrenamientos en curso o en modelos ya entrenados no se eliminarán retroactivamente. (anthropic.com)

¿Por qué lo hacen y qué beneficio promete esto?

Anthropic explica que los modelos aprenden de interacciones reales. Un ejemplo práctico: cuando usas Claude para depurar un fragmento de código, esa interacción puede enseñar al modelo a resolver problemas similares más adelante. También dicen que conservar datos por más tiempo ayuda a mejorar los clasificadores que detectan abuso, spam y fraude, lo que debería mejorar la seguridad de la plataforma. (anthropic.com)

Qué puedes hacer ahora (pasos prácticos)

Preguntas frecuentes y preocupaciones razonables

¿Venderán tus datos a terceros? Anthropic afirma que no venden los datos de los usuarios. Para proteger la privacidad usan procesos automáticos que filtran u ofuscan datos sensibles. Si te preocupa la privacidad, puedes optar por no compartir tus datos para entrenamiento y seguir usando Claude con la retención de 30 días. (anthropic.com)

¿Y si cambio de opinión después? Puedes actualizar tu selección cuando quieras; dejarán de usar nuevos chats para entrenamiento a partir del momento en que cambies la opción, aunque datos ya procesados pueden seguir formando parte de modelos existentes. (anthropic.com)

Reflexión final

Esta actualización plantea la pregunta clásica en IA: ¿más datos para mejores modelos o menos datos para mayor privacidad? No es blanco o negro. Anthropic te pone la decisión en la mano: si eres desarrollador o creador de contenido, compartir interacciones puede ayudar a que futuros modelos sean más útiles; si manejas información sensible, la opción de no compartir existe y es fácil de cambiar.

Al final, la mejor decisión depende de lo que valores más hoy: contribuir al entrenamiento para obtener mejores respuestas mañana, o mantener un ciclo de vida corto de tus conversaciones. Sea cual sea tu elección, ahora sabes dónde está el interruptor y qué efectos básicos tiene. Para más detalles y texto legal completo, revisa la nota oficial de Anthropic y la sección de preguntas frecuentes en su anuncio. (anthropic.com)

¡Mantente al día!

Recibe guías prácticas, hechos verificados y análisis de IA directo en tu correo, sin jerga técnica ni rodeos.

Tus datos están a salvo. Darse de baja es muy fácil en cualquier momento.