2028: Dos escenarios para liderazgo global en IA | Keryc
Anthropic publicó un ensayo técnico que plantea una pregunta inquietante: ¿quién mandará en la inteligencia artificial para 2028, las democracias o los regímenes autoritarios? Aquí te explico, sin tecnicismos innecesarios, qué está en juego, por qué el cómputo es la palanca clave y cómo dos futuros muy distintos dependerán de decisiones políticas y técnicas que podemos tomar hoy.
Por qué el cómputo es la variable decisiva
¿Sabías que el ingrediente más importante para las IA de frontera no es solo el talento ni los datos sino los chips sobre los que se entrenan los modelos? Compute significa tanto la potencia para entrenar modelos nuevos como la capacidad para servirlos en producción (inference). Sin suficiente compute, algoritmos brillantes y equipos talentosos no llegan muy lejos.
Hoy esa potencia proviene mayoritariamente de empresas y cadenas de suministro en países democráticos: NVIDIA, TSMC, ASML, Micron, Samsung y similares. Tecnologías como EUV, la fabricación de memoria de alta banda (HBM) y el equipo de manufactura avanzado (SME) son difíciles de replicar rápidamente. Además, las ganancias siguen las leyes de escala: aumentar mejora el rendimiento de forma predecible y además permite que la IA acelere su propia I+D.
compute
Cómo China ha estado cerrando la brecha (y por qué no es solo talento)
China tiene talento de primer nivel, datos enormes y energía barata. Entonces, ¿por qué no domina ya? Porque le falta compute de vanguardia. No obstante, ha ido reduciendo la distancia por dos rutas principales: acceso ilícito o evasivo a chips y ataques de destilación.
Acceso evasivo: chips importados ilegalmente, servidores con chips avanzados desviados a China, y el uso remoto de centros de datos en terceros países para entrenar modelos con hardware exportado legalmente a esos sitios.
Distillation attacks: crear miles de cuentas fraudulentas para consultar modelos de frontera, recolectar sus salidas y entrenar réplicas. Es una forma de apropiar capacidades sin comprar los chips ni aportar el esfuerzo de investigación original.
Casos y nombres salen en el ensayo: desde cargos por desvío de servidores hasta reportes que señalan a grandes empresas entrenando en chips controlados fuera del territorio continental. Y la llegada de modelos como Mythos Preview mostró lo rápido que esas capacidades se pueden aplicar (por ejemplo, en encontrar bugs de seguridad a un ritmo mucho mayor que antes).
Dos escenarios para 2028
Escenario 1: Democracias con ventaja amplia (12-24 meses de lead)
Si los aliados actúan para cerrar agujeros en los controles de exportación y frenan las destilaciones, las democracias pueden mantener y posiblemente ampliar un lead de 12 a 24 meses en capacidades de frontera. Ese margen importa: permite que normas, estándares y prácticas de seguridad se definan desde sociedades que protegen derechos y libertades.
En este mundo, las empresas de países democráticos dominan la oferta global de IA, colaboran en estándares de seguridad, y la adopción responsable de IA impulsa descubrimientos en salud, ciencia y ciberseguridad. El liderazgo técnico también refuerza la influencia diplomática para negociar reglas globales.
Escenario 2: Competencia pareja y riesgo autoritario
Si no se actúa, los mecanismos que hoy permiten a China acercarse —smuggling de chips, acceso a data centers offshore, y destilación— pueden dejar a las firmas PRC a pocos meses de paridad en inteligencia de modelos. Aunque sus chips no sean equivalentes, la adopción masiva y la integración estatal (AI+) pueden dar ventajas estratégicas.
En ese escenario, los modelos cercanos a frontera se usan para vigilancia automatizada, ciberofensiva y control social, y normas globales terminan conformadas por estados autoritarios. El riesgo no es solo tecnológico: es geopolítico y ético.
Qué políticas y medidas técnicas recomiendan y por qué funcionan
Anthropic propone tres frentes complementarios:
Cerrar los vacíos de exportación: no solo regular la venta de chips sino también el acceso remoto a centros de datos en terceros países y la cadena logística completa (SME, mantenimiento y servicing). Técnicamente, eso implica controles sobre la trazabilidad del hardware y cooperación internacional para inspección y cumplimiento.
Defender las innovaciones: dificultar las destilaciones mediante acciones legales, mejorar detección y compartición de inteligencia entre laboratorios y el Estado, y desplegar contramedidas técnicas como límites de tasa, detección de scraping masivo y trazabilidad en APIs. Esto ayuda a que las capacidades no se transfieran gratis a actores que no respetan normas.
Promover la adopción democrática de IA: exportar infraestructura confiable y modelos con estándares de seguridad y privacidad, para que mercados globales elijan soluciones alineadas con derechos civiles y no con la represión.
Estas medidas funcionan en conjunto: reducir el acceso ilícito a compute baja la capacidad máxima de aceleración; impedir destilaciones protege la propiedad intelectual y la ventaja competitiva; y exportar confianza desplaza la adopción global hacia democracias.
Riesgos técnicos y de gobernanza que no puedes ignorar
Dual use extremo: modelos de frontera pueden acelerar R&D en semiconductores, biotecnología y ciberarma. Un avance en IA acelera toda la pila tecnológica.
Open-weight y evaluación insuficiente: publicar pesos abiertos sin evaluaciones robustas (incluyendo riesgos CBRN) facilita el uso malicioso. En el documento se cita que pocos laboratorios en China publican evaluaciones de seguridad comparables a las prácticas de laboratorios líderes en democracias.
Carrera neck-and-neck: cuando ambas partes están cerca, la presión por lanzar productos reduce los incentivos para seguridad pre-despliegue. Es la peor combinación para la gobernanza responsable.
¿Qué puede hacer la comunidad técnica y tú como profesional o emprendedor?
Si trabajas en una empresa de IA: prioriza detección de abuso (monitorización de uso anómalo), hardening de APIs y colaboración en estándares abiertos de seguridad entre pares.
Si eres regulador o formulador de políticas: enfócate en cerrar vectores de evasión (logística, acceso remoto), financiar cumplimiento y crear marcos legales para deter distilación.
Si eres inversor o empresario: apuesta por infra confiable y por modelos que incorporen evaluaciones de riesgo en toda su cadena de valor.
El tiempo es corto: estamos en una ventana donde decisiones de política pública y técnicas pueden comprimir o ampliar la ventaja democrática.
La pregunta que queda es simple pero urgente: ¿vamos a proteger la ventaja tecnológica construida por años de inversión y colaboración, o la dejaremos diluirse por lagunas normativas y prácticas ilícitas? Actuar ahora no es solo una estrategia geopolítica, es una apuesta por cómo queremos que la IA afecte nuestras vidas.