Dario Amodei, cofundador de Anthropic, publicó una declaración pública sobre las conversaciones de la empresa con el Departamento de Guerra. ¿Por qué te importa esto aunque no seas experto en defensa o en IA? Porque se trata de decisiones sobre límites éticos y técnicos que afectan cómo se usan sistemas de IA en seguridad nacional y, por extensión, en la vida de todos.
Qué dijo Anthropic y cuál es el conflicto
Amodei explica que Anthropic ha trabajado activamente con el gobierno de Estados Unidos: desplegó modelos en redes clasificadas, en laboratorios nacionales y ha entregado modelos personalizados para clientes de seguridad nacional. El asistente Claude está siendo usado en análisis de inteligencia, modelado y simulación, planificación operativa y ciberoperaciones.
Aun así, la empresa marca dos líneas rojas que nunca ha incluido en sus contratos y que no quiere aceptar ahora:
-
Vigilancia masiva doméstica. Anthropic apoya la inteligencia y contrainteligencia en el extranjero, pero considera que usar IA para vigilar masivamente a la población es incompatible con valores democráticos. Los datos fragmentados que hoy se venden y circulan pueden, con IA potente, ensamblarse en un retrato completo de la vida de una persona, y eso cambia radicalmente la amenaza contra libertades civiles.
