El Google Threat Intelligence Group (GTIG) publicó el 5 de noviembre de 2025 un informe que marca un cambio claro en la seguridad digital. Ya no se trata solo de usar IA para ser más productivos: atacantes y actores estatales están probando capacidades nuevas impulsadas por modelos de lenguaje y otras técnicas de IA.
Qué encontró el informe
GTIG observa que los adversarios amplían su repertorio con herramientas de IA en varias fases del ataque. Entre los hallazgos más relevantes están:
-
Actores estatales de países como Corea del Norte, Irán y la República Popular China intentando usar IA para mejorar reconocimiento, crear cebos de phishing y facilitar exfiltración de datos.
-
Malware potenciado por IA capaz de generar scripts maliciosos y modificar su propio código en tiempo real para evadir sistemas de detección.
-
Personas que recurren a pretextos en prompts (hacerse pasar por estudiantes, investigadores u otros) para eludir las salvaguardas de los modelos y extraer información restringida.
-
Mercados clandestinos que ofrecen herramientas de IA sofisticadas para phishing, desarrollo de malware y búsqueda de vulnerabilidades.
La conclusión es sencilla: la IA amplifica tácticas conocidas y crea variantes que son más rápidas y difíciles de detectar.
Qué hizo Google y por qué te afecta
Google detalla acciones concretas para frenar estas operaciones: deshabilitar activos relacionados con actividad maliciosa y usar esa inteligencia para mejorar clasificadores y la seguridad de sus modelos. Eso ayuda a cortar cadenas de ataque, pero no elimina el problema.
¿Qué significa esto para ti o para tu empresa?
-
Si trabajas en tecnología o seguridad, es hora de revisar controles de acceso, registros y detección de comportamiento anómalo. La supervisión en tiempo real y el análisis de telemetría son clave.
-
Si manejas equipos o empleados, refuerza la formación contra phishing. Un email altamente personalizado creado por IA puede engañar incluso a usuarios experimentados.
-
Para individuos: activa la autenticación multifactor, mantén el software actualizado y desconfía de solicitudes inesperadas que pidan información sensible.
Un ejemplo concreto
Un atacante usa un modelo para generar mensajes de phishing hiperpersonalizados en minutos: referencias a nombres, proyectos y lenguaje propio de la víctima. El resultado: mayor tasa de clic y más chances de comprometer credenciales.
Contraataque práctico: filtros de correo que analicen patrones (no solo palabras clave), políticas de verificación de solicitudes de acceso a datos y procedimientos claros para confirmar cambios sensibles vía canales secundarios.
Qué queda por hacer
La IA es una herramienta: en manos legítimas mejora productividad y diagnóstico; en manos equivocadas amplifica daño. La respuesta debe combinar tecnología, buenas prácticas y colaboración entre empresas, investigadores y autoridades.
Esto implica implementar controles técnicos, educar a las personas y compartir inteligencia de amenazas para que lo que aprende una organización pueda ayudar a otras. La defensa tiene que usar la misma innovación que usan los atacantes.
Fuente original
https://blog.google/technology/safety-security/gtig-report-ai-malware
