Ciberseguridad e inteligencia artificial

Google detecta el primer exploit de Día Cero desarrollado con IA

La inteligencia artificial ha dejado de ser una herramienta experimental para los ciberdelincuentes y se ha convertido en un recurso operativo a gran escala. Así lo concluye el nuevo informe AI Threat Tracker del Google Threat Intelligence Group (GTIG), que documenta cómo actores estatales y redes criminales están empleando IA para descubrir vulnerabilidades, automatizar malware y amplificar campañas de desinformación.

Inteligencia Artificial - Foto de Alexandra Koch
photo_camera Inteligencia Artificial - Foto de Alexandra Koch

El hallazgo más relevante del informe es la identificación del primer caso documentado de una vulnerabilidad de Día Cero desarrollada con ayuda de inteligencia artificial.

Según Google, el exploit permitía sortear sistemas de autenticación en dos pasos (2FA) y presentaba indicios técnicos que apuntan al uso de modelos de IA, como la inclusión de una puntuación CVSS incorrecta o “alucinada”.

La compañía notificó la vulnerabilidad al desarrollador afectado, que publicó un parche antes de que pudiera ser utilizada en una campaña de gran escala.

China y Corea del Norte intensifican el uso estatal de la IA

El informe señala un aumento del uso de inteligencia artificial por parte de grupos vinculados a gobiernos.

El grupo norcoreano APT45 habría utilizado IA para validar miles de exploits y construir un arsenal de herramientas ofensivas.

Por su parte, actores relacionados con China, como UNC2814, emplean identidades falsas de supuestos expertos en ciberseguridad para inducir a modelos de IA a investigar vulnerabilidades en routers y otros dispositivos de hardware.

Malware autónomo y nuevas herramientas agénticas

GTIG también advierte sobre la aparición de malware capaz de actuar de forma autónoma.

Entre los ejemplos citados destaca PROMPTSPY, un backdoor para Android que utiliza IA para navegar por la interfaz del dispositivo y dificultar su desinstalación.

El informe menciona además el uso del framework de IA OpenClaw, convertido en un entorno de pruebas para que atacantes perfeccionen sus técnicas ofensivas.

Desinformación rusa con clonación de voz

Las campañas de influencia también están incorporando inteligencia artificial.

La operación prorrusa Operation Overload ha utilizado clonación de voz para suplantar a periodistas reales e insertar audios falsos en vídeos de noticias auténticas difundidos en Estados Unidos, Ucrania y Francia.

Otros grupos vinculados a Rusia han empleado código señuelo generado con IA para ocultar componentes maliciosos.

Ataques a la cadena de suministro del software de IA

El informe recoge también ataques dirigidos contra herramientas de desarrollo de inteligencia artificial.

Uno de los casos analizados es el de TeamPCP, que habría comprometido dependencias de software como LiteLLM con el objetivo de robar credenciales en la nube y claves de AWS.

Google refuerza su defensa con IA

El responsable de análisis de GTIG, John Hultquist, advierte de que “la carrera por la vulnerabilidad de la IA ya ha comenzado” y que los ciberdelincuentes están utilizando esta tecnología para incrementar la velocidad, la escala y la sofisticación de sus ataques.

Para responder a esta amenaza, Google emplea sistemas propios como Big Sleep, un agente de IA que detecta errores de software antes que los atacantes, y CodeMender, que utiliza Gemini para corregir automáticamente fallos críticos de seguridad.

GTIG, la unidad de Google especializada en ciberamenazas

Google Threat Intelligence Group integra los equipos de Mandiant Intelligence y Threat Analysis Group (TAG) y está especializado en identificar, analizar y neutralizar amenazas avanzadas, incluidas campañas de espionaje, vulnerabilidades de Día Cero, operaciones de desinformación y redes de ciberdelincuencia.