Dario Amodei, cofundador de Anthropic, publicó una declaración pública sobre las conversaciones de la empresa con el Departamento de Guerra. ¿Por qué te importa esto aunque no seas experto en defensa o en IA? Porque se trata de decisiones sobre límites éticos y técnicos que afectan cómo se usan sistemas de IA en seguridad nacional y, por extensión, en la vida de todos.
Qué dijo Anthropic y cuál es el conflicto
Amodei explica que Anthropic ha trabajado activamente con el gobierno de Estados Unidos: desplegó modelos en redes clasificadas, en laboratorios nacionales y ha entregado modelos personalizados para clientes de seguridad nacional. El asistente Claude está siendo usado en análisis de inteligencia, modelado y simulación, planificación operativa y ciberoperaciones.
Aun así, la empresa marca dos líneas rojas que nunca ha incluido en sus contratos y que no quiere aceptar ahora:
-
Vigilancia masiva doméstica. Anthropic apoya la inteligencia y contrainteligencia en el extranjero, pero considera que usar IA para vigilar masivamente a la población es incompatible con valores democráticos. Los datos fragmentados que hoy se venden y circulan pueden, con IA potente, ensamblarse en un retrato completo de la vida de una persona, y eso cambia radicalmente la amenaza contra libertades civiles.
-
Armas totalmente autónomas. Anthropic distingue entre armas parcialmente autónomas, que ya se usan y pueden ser críticas en defensa, y sistemas que quitan al humano del ciclo de decisión por completo. Hoy los modelos de frontera no son lo suficientemente confiables para tomar decisiones letales sin supervisión humana, y Anthropic no quiere proveer productos que pongan en riesgo militares o civiles.
"No podemos de buena fe acceder a su pedido", resume Amodei sobre la exigencia del Departamento de aceptar "cualquier uso legal" y eliminar esas salvaguardas.
Las presiones del Departamento y la respuesta de Anthropic
Según la declaración, el Departamento de Guerra exigió que los contratistas acepten "cualquier uso legal" y presionó para que Anthropic quitara sus límites. La empresa dice que le han amenazado con sacarla de sus sistemas, rotularla como "riesgo en la cadena de suministro" (una etiqueta reservada para adversarios) y hasta invocar la Defense Production Act para forzar cambios.
Es un juego con contradicciones: por un lado Anthropic es presentado como amenaza; por otro, se dice que sus modelos son indispensables. ¿Cómo se concilian ambas cosas? Anthropic responde manteniendo su postura y ofreciendo colaborar en investigación y desarrollo para mejorar la fiabilidad de sistemas que podrían necesitar uso militar, sin renunciar a sus salvaguardas.
¿Qué opciones plantea Anthropic? ¿Qué significa para la seguridad y la democracia?
La empresa deja claro que respeta que el Departamento decida con quién trabajar. Pero pide continuar sirviendo con los dos límites activos. Si el gobierno decide offboardearla, Anthropic se compromete a facilitar una transición suave para no interrumpir operaciones críticas.
Esto plantea preguntas que nos afectan a todos: ¿debe la innovación tecnológica quedar supeditada a exigencias de uso sin restricciones? ¿O es razonable que una empresa defina límites éticos y técnicos sobre cómo se usa su tecnología? La tensión entre seguridad nacional y protección de derechos civiles no es nueva, pero la potencia de estas IAs la hace más urgente.
Qué sigue y por qué debes estar pendiente
- Para el gobierno: decidir si prioriza acceso sin condiciones a la tecnología o si acepta salvaguardas que limiten ciertos usos.
- Para Anthropic: mantener su postura pública y ofrecer colaboración técnica para mejorar seguridad y fiabilidad.
- Para la sociedad: observar cómo se regulan estas tecnologías y exigir transparencia sobre usos que impactan libertades.
No es solo una disputa corporativa; es una conversación sobre hasta dónde dejamos que la IA actúe en decisiones que pueden modificar derechos y vidas. ¿Preferimos soluciones rápidas o construir guardrails sólidos ahora, antes de que el riesgo crezca?
