Google alerta de un nuevo salto del cibercrimen: la IA ya se usa para encontrar agujeros de seguridad

La inteligencia artificial ya no solo sirve para escribir correos falsos más creíbles o crear deepfakes. Google Threat Intelligence Group alerta de que los ciberdelincuentes están empezando a usar estos modelos para encontrar fallos de seguridad, desarrollar malware y preparar ataques más rápido. En su último informe, la compañía asegura que ha detectado por primera vez un fallo desconocido que, probablemente, fue descubierto y convertido en herramienta de ataque con ayuda de IA.
Qué ha descubierto GoogleEl caso más llamativo del informe es un fallo de seguridad de los llamados de 'día cero', es decir, un agujero que todavía no era conocido públicamente o que no contaba con una solución disponible cuando los atacantes lo encontraron. Este tipo de vulnerabilidades son especialmente delicadas porque dejan muy poco margen de reacción: si los ciberdelincuentes llegan antes que los equipos de seguridad, pueden aprovecharlas antes de que exista un parche.
Según Google, el fallo afectaba a una popular herramienta web de administración de código abierto y permitía saltarse la autenticación en dos pasos, aunque para hacerlo era necesario contar antes con unas credenciales válidas. La compañía asegura que trabajó con el proveedor afectado para comunicar el problema de forma responsable y frenar la actividad antes de que pudiera utilizarse en una campaña masiva.
Hasta ahora, muchas herramientas tradicionales de ciberseguridad estaban preparadas para detectar errores muy concretos en el código: fallos de memoria, problemas de validación o comportamientos anómalos. Pero Google apunta a otro tipo de riesgo: los modelos avanzados de IA pueden ayudar a encontrar errores más sutiles, relacionados con la lógica interna de un programa.
Dicho de forma sencilla: una IA puede leer grandes cantidades de código, entender qué intentaba hacer el desarrollador y detectar contradicciones que a simple vista no parecen un fallo evidente. En este caso, el problema no estaba en una puerta abierta de par en par, sino en una idea mal planteada dentro del sistema.
Para los ciberdelincuentes, esto supone un atajo. La IA no sustituye al atacante, pero puede acelerar tareas que antes exigían mucho más tiempo, más conocimientos técnicos y más pruebas manuales. Y ese es el salto que preocupa a Google: el uso de estos modelos como una especie de asistente avanzado para preparar ataques.
El aviso de Google llega en un momento en el que las grandes empresas de IA están compitiendo por llevar estos modelos al terreno de la ciberseguridad. Anthropic y OpenAI los presentan como herramientas para encontrar y corregir fallos antes de que sean explotados. Pero el informe de Google muestra la otra cara de esa misma capacidad: si una IA puede ayudar a un equipo de seguridad a descubrir un agujero, también puede ayudar a un ciberdelincuente a encontrarlo antes.
Google insiste en que la inteligencia artificial no es solo una herramienta para los atacantes. La compañía también la está utilizando para detectar vulnerabilidades, mejorar sus defensas y corregir fallos de seguridad. En el informe menciona herramientas como Big Sleep, un agente de IA desarrollado por Google DeepMind y Project Zero para buscar vulnerabilidades desconocidas, y CodeMender, un sistema experimental pensado para ayudar a corregir errores críticos en el código.
No solo buscan fallos: también crean malware más difícil de detectarEl informe de Google va más allá. La compañía también ha observado cómo distintos grupos están utilizando IA para desarrollar malware, ocultar mejor sus operaciones y automatizar partes del ataque.
Uno de los ejemplos más llamativos es PROMPTSPY, un malware para Android que utiliza la API de Gemini para interpretar lo que aparece en la pantalla del móvil y decidir qué acciones ejecutar. En lugar de limitarse a recibir órdenes humanas, este programa malicioso puede analizar la interfaz del dispositivo y simular gestos como pulsaciones o deslizamientos.
Además, Google señala que PROMPTSPY podía dificultar su propia desinstalación colocando una capa invisible sobre el botón de desinstalar, de forma que el usuario pensara que el botón no respondía. También contaba con mecanismos para volver a activarse y mantener el acceso al dispositivo comprometido.
La compañía asegura, no obstante, que no ha encontrado aplicaciones con PROMPTSPY en Google Play y que los usuarios de Android están protegidos frente a versiones conocidas de este malware mediante Google Play Protect, activado por defecto en dispositivos con servicios de Google.
Los ataques también pueden ser más personalizadosOtro uso que preocupa a los investigadores es más cotidiano, pero igual de peligroso: la IA como herramienta para investigar mejor a las víctimas. Según Google, algunos actores maliciosos están utilizando estos modelos para recopilar información sobre empresas, empleados, departamentos internos o relaciones con proveedores.
Esto permite crear ataques de phishing mucho más creíbles. Ya no se trata solo del típico correo mal escrito que pide pulsar en un enlace sospechoso, sino de mensajes más personalizados, dirigidos a personas concretas y con detalles que pueden hacerlos parecer legítimos.
En la práctica, la IA puede ayudar a los atacantes a entender quién trabaja en una empresa, qué cargo ocupa, con qué departamentos se relaciona o qué herramientas podría utilizar. Con esa información, un correo fraudulento puede resultar mucho más convincente.
También hay deepfakes y vídeos manipuladosEl informe también menciona campañas de desinformación en las que se habría usado IA para clonar voces y manipular vídeos. Google cita el caso de Operation Overload, una campaña prorrusa en la que se habrían utilizado voces generadas con IA para suplantar a periodistas reales y dar apariencia de credibilidad a contenidos falsos.
Este punto conecta con una preocupación cada vez más extendida: los deepfakes ya no son solo imágenes llamativas en redes sociales, sino una herramienta para manipular mensajes políticos, crear confusión y aprovechar la confianza que generan medios de comunicación, periodistas o instituciones reconocibles.
Qué pueden hacer los usuariosAunque buena parte de estas amenazas afectan sobre todo a empresas, administradores de sistemas y proveedores tecnológicos, los usuarios también pueden tomar algunas precauciones básicas. La primera es mantener siempre actualizados el móvil, el ordenador y las aplicaciones, porque muchos ataques se aprovechan de fallos que ya tienen solución pero que siguen funcionando en dispositivos desactualizados.
También conviene descargar aplicaciones solo desde tiendas oficiales, revisar con cuidado los permisos que se conceden —especialmente los de accesibilidad en Android— y desconfiar de mensajes que pidan actuar con urgencia, aunque parezcan personalizados o vengan de contactos conocidos.
La autenticación en dos pasos sigue siendo recomendable, aunque este caso demuestre que no es una barrera infalible. Añade una capa extra de protección y dificulta muchos ataques comunes. Pero, como recuerda este informe, ninguna medida funciona aislada: la seguridad depende de combinar varias defensas y de no bajar la guardia.
20minutos



