La inteligencia artificial ya no es solo una herramienta para crear chatbots amigables o automatizar emails. Ahora también es un arma. Y el primer disparo acaba de sonar.
PromptSpy se ha convertido en el primer malware para Android documentado que utiliza Gemini AI en runtime para garantizar su propia supervivencia en el dispositivo. No es ciencia ficción. Es febrero de 2026.
Qué hace PromptSpy (y por qué debería preocuparte)
PromptSpy no es un malware cualquiera. Los antivirus tradicionales detectan patrones conocidos: firmas de código, comportamientos predefinidos, URLs maliciosas hardcodeadas. PromptSpy se salta todo eso porque no tiene un comportamiento fijo.
En lugar de seguir instrucciones programadas, consulta a Gemini AI en tiempo real para decidir:
- Cómo ocultarse del software de seguridad instalado en el dispositivo
- Cuándo activarse para evitar detección durante análisis
- Qué técnicas usar para mantener persistencia según el modelo del teléfono
- Cómo mutar su propio código para evadir firmas de antivirus
Es como si el malware tuviera su propio consultor de estrategia. Un consultor que nunca duerme, que aprende de cada intento de eliminación y que se adapta en milisegundos.
No es un caso aislado: la IA como vector de ataque
PromptSpy no aparece en el vacío. Las últimas semanas han sido un festival de vulnerabilidades relacionadas con IA:
Microsoft Copilot tuvo un bug que expuso emails confidenciales de clientes durante semanas. No fue un ataque externo: fue la propia IA de Microsoft la que, por un error en los permisos de contexto, filtró información sensible a usuarios que no deberían tener acceso. Piensa en eso un momento: la herramienta diseñada para hacerte más productivo fue la que filtró tus datos.
RustFly 2.0, un framework ampliamente usado, reveló una vulnerabilidad crítica con CVSS 9.8 — prácticamente la puntuación máxima de severidad. El vector de ataque permite ejecución remota de código sin autenticación.
El patrón está claro: la superficie de ataque se está expandiendo a la misma velocidad que adoptamos nuevas tecnologías.
El problema real: usamos las mismas herramientas
Aquí está la ironía que nadie quiere admitir: el malware usa exactamente las mismas APIs que nosotros.
Cuando tu app llama a Gemini para generar un resumen, PromptSpy llama a Gemini para evadir tu antivirus. Misma API. Misma infraestructura. La diferencia es solo la intención.
Esto plantea preguntas incómodas:
- ¿Deberían las APIs de IA tener controles de uso más estrictos? Si Gemini puede detectar que un prompt busca evadir software de seguridad, ¿debería bloquearlo?
- ¿Quién es responsable? Si un malware usa tu API de IA para causar daño, ¿tienes responsabilidad como proveedor?
- ¿Estamos preparados? La mayoría de antivirus están diseñados para amenazas estáticas. Un malware que muta con IA es un paradigma completamente nuevo.
Qué deben hacer las empresas que integran IA
Si tu empresa está integrando IA en sus productos (y en 2026, ¿quién no?), esto te afecta directamente. No mañana. Hoy.
1. Auditoría de seguridad específica para IA
Los pentests tradicionales no cubren vectores de ataque basados en IA. Necesitas auditorías que evalúen:
- Prompt injection: ¿Se puede manipular tu IA para que ejecute acciones no autorizadas?
- Data poisoning: ¿Tus datos de entrenamiento están protegidos contra manipulación?
- Context leaking: ¿Tu IA puede filtrar información sensible del contexto? (El bug de Copilot debería ser suficiente motivación)
2. Monitorización de llamadas a APIs de IA
Si tu app usa APIs de IA, monitoriza el tráfico. Busca patrones anómalos: prompts que no coinciden con tu caso de uso, frecuencias de llamadas inusuales, respuestas que contienen código ejecutable.
3. Principio de mínimo privilegio para la IA
Tu IA no necesita acceso a todo. Limita qué datos puede ver, qué acciones puede ejecutar y qué APIs puede llamar. Si tu chatbot de soporte tiene acceso a la base de datos de producción, tienes un problema.
4. Actualizaciones de seguridad como prioridad absoluta
El caso de RustFly 2.0 es un recordatorio: las vulnerabilidades críticas aparecen en frameworks que usas a diario. Un CVSS 9.8 no espera a tu próximo sprint de mantenimiento.
5. Plan de respuesta para incidentes de IA
¿Qué haces si tu IA empieza a comportarse de forma inesperada? ¿Tienes un kill switch? ¿Puedes aislar el componente de IA sin tumbar todo el sistema? Si no tienes respuestas claras, necesitas un plan.
El futuro ya llegó (y trae malware)
PromptSpy es solo el principio. Si un desarrollador de malware ya ha descubierto cómo usar IA generativa para evasión, es cuestión de tiempo antes de que veamos:
- Phishing hiper-personalizado generado por IA que analiza tus redes sociales en tiempo real
- Malware polimórfico que reescribe su propio código en cada ejecución
- Ataques de ingeniería social donde la IA mantiene conversaciones completas haciéndose pasar por compañeros de trabajo
La buena noticia es que la misma IA que usan los atacantes también puede usarse para defensa. Pero para eso necesitamos actuar ahora, no cuando el siguiente PromptSpy llame a la puerta.
En CODX trabajamos con empresas que integran IA en sus productos y procesos. Si necesitas una auditoría de seguridad adaptada a los nuevos vectores de ataque, o quieres implementar IA de forma segura desde el diseño, hablemos.
La IA es una herramienta increíble. Pero como cualquier herramienta potente, puede cortar en ambas direcciones. Asegúrate de que corta a tu favor.



