Google ha alertado de que varios grupos de ciberamenazas ya usan inteligencia artificial a escala industrial para atacar, ocultarse y automatizar operaciones que hasta hace poco requerían equipos humanos y tiempos mucho más largos. El aviso figura en el informe AI Threat Tracker del Google Threat Intelligence Group, que repasa campañas atribuidas a actores vinculados a Corea del Norte, China y Rusia.
El salto no está en que la IA aparezca en incidentes aislados, sino en que sirve para ampliar el volumen de ataque y sostener campañas persistentes. Google sostiene además que un parche reciente frenó un ataque masivo que estaba planificado tras detectar una vulnerabilidad de día cero en un script de Python capaz de esquivar la autenticación de dos factores en una herramienta web y de código abierto para administración de sistemas.
Google detectó un fallo que permitía eludir la autenticación de dos factores
La compañía identificó esa vulnerabilidad de día cero en un script de Python integrado en una herramienta de administración de sistemas basada en web. El fallo permitía al usuario evitar la 2FA, una de las barreras más extendidas para contener accesos no autorizados.
Google cree que el parche aplicado evitó un ataque masivo planeado.
Los investigadores sí hallaron indicios de uso de inteligencia artificial alrededor del caso, aunque descartaron que los modelos Gemini y Mythos hubieran intervenido en el desarrollo de esa vulnerabilidad concreta. El informe sitúa el valor de esta tecnología en otras fases del ciclo ofensivo, como la explotación masiva de fallos, la ofuscación del código y la evasión de salvaguardias en modelos de lenguaje.
APT45 validó miles de exploits con ayuda de inteligencia artificial
Uno de los ejemplos que recoge el documento afecta al actor norcoreano APT45. Google le atribuye el uso de inteligencia artificial para validar miles de exploits y formar un arsenal de capacidades que, por volumen, no habría podido gestionar sin esa automatización.
En China, UNC2814 recurre a identidades falsas de supuestos expertos en seguridad para engañar a sistemas de inteligencia artificial y estudiar vulnerabilidades en hardware como routers. A esa actividad se suma otro actor vinculado a Pekín que utilizó herramientas de IA para sondear de forma autónoma y persistente los puntos débiles de una empresa tecnológica japonesa.
Promptspy actúa en Android y bloquea los intentos de desinstalación.
El informe también describe la incorporación de herramientas agénticas a la estrategia de los ciberdelincuentes. En ese apartado aparece Promptspy, un nuevo backdoor para Android que usa inteligencia artificial para moverse de forma autónoma por la interfaz del dispositivo y resistir su eliminación.
Las campañas prorrusas clonaron voces y ocultaron código malicioso
La dimensión de la amenaza no se limita al acceso técnico a sistemas. La campaña prorrusa Operation Overload clonó voces con inteligencia artificial para suplantar a periodistas reales mediante audios falsos insertados en clips de noticias legítimos, una táctica orientada a expandir desinformación en Estados Unidos, Ucrania y Francia.
Actores vinculados a Moscú también utilizaron código señuelo generado con IA para esconder funciones maliciosas frente a los escáneres de seguridad. A la vez, el framework OpenClaw se ha convertido en un objetivo para hackers que quieren probar y afinar capacidades ofensivas en entornos controlados.
TeamPCP centró parte de sus ataques en dependencias de software de inteligencia artificial como LiteLLM.
En ese frente, Google atribuye a TeamPCP ataques contra componentes de software ligados a la IA con el objetivo de robar secretos en la nube de alto valor y claves de AWS almacenadas en entornos de desarrollo.