La inteligencia artificial ya no es solo una herramienta de productividad o creatividad. En 2025, comienza a ser también una aliada peligrosa para el cibercrimen. Investigaciones recientes confirman que gran parte de los ataques de ransomware y fraudes digitales ya se apoyan en IA, y algunos incluso funcionan de manera casi autónoma. El futuro de la seguridad informática está cambiando, y más rápido de lo que imaginábamos.

Ransomware con piloto automático
El ransomware tradicional necesitaba equipos humanos organizando cada paso: reconocer objetivos, penetrar sistemas, cifrar archivos y negociar rescates. Hoy, modelos de lenguaje y agentes de IA pueden automatizar todo el proceso. Estudios del MIT Sloan señalan que hasta un 80 % de los ataques actuales ya usan IA en alguna fase. En pruebas de laboratorio, universidades como NYU han demostrado campañas de ransomware ejecutadas de principio a fin por modelos de lenguaje.Y lo más inquietante: ya existe un prototipo de malware, llamado PromptLock, desarrollado por investigadores de NYU, que integra un modelo local para esquivar detecciones y fue identificado por sistemas de seguridad como si se tratara de una amenaza real.
Estafas imposibles de distinguir
La IA también está detrás del auge de phishing y fraudes empresariales cada vez más creíbles. Correos falsos, llamadas y hasta deepfakes de voz o vídeo son tan realistas que incluso expertos tienen dificultades para diferenciarlos. El NCSC, el Centro Nacional de Ciberseguridad del Reino Unido, advierte que esta capacidad hace que la población y las empresas sean más vulnerables que nunca.
Riesgos ocultos en los propios modelos
No solo hablamos de ataques “externos”. Los modelos de IA pueden ser manipulados desde dentro:
- Jailbreaks que fuerzan a los sistemas a saltarse sus filtros de seguridad.
- Modelos envenenados en su entrenamiento, que introducen puertas traseras invisibles.
- Cadenas de suministro vulnerables, donde se distribuyen modelos alterados de fábrica listos para espiar o robar datos.
Estas amenazas convierten a la propia IA en un posible caballo de Troya. Y conviene recordar que esta es solo una faceta oscura de la tecnología: la gran mayoría de aplicaciones de IA sigue orientada a la productividad, la investigación y la innovación positiva. Comprender los riesgos no es alarmismo, sino un paso necesario para poder prevenirlos.
La defensa también se vuelve inteligente
Frente a ataques cada vez más veloces y autónomos, la respuesta no puede ser solo humana. Surgen nuevas estrategias como:
- AI-DR (AI Detection & Response): usar agentes de IA defensivos para detectar anomalías y responder en segundos.
- Red teams especializados en IA, que intentan “romper” los modelos de forma controlada para descubrir fallos antes de que lo hagan los delincuentes.
- Marcos internacionales como los de NIST, OWASP o ENISA, que establecen buenas prácticas para asegurar datos, entrenamientos y despliegues de IA.
Qué significa para ti
Para empresas y ciudadanos, el mensaje es claro: la superficie de ataque digital se amplía. Estafas más creíbles, malware más autónomo y riesgos en herramientas que antes parecían fiables. La defensa dependerá de combinar tecnología avanzada con educación digital y políticas sólidas de seguridad.
La IA ya no solo nos ayuda a trabajar o crear: también puede usarse para atacar sin supervisión humana. Y entender este nuevo escenario es el primer paso para no ser víctimas en la próxima gran ola del cibercrimen.
Mirando hacia adelante
Más allá de la protección técnica, será fundamental que las instituciones y los responsables políticos sepan legislar con rapidez y criterio. La tecnología avanza más rápido que las normas, y la sociedad necesita un marco legal que limite abusos, proteja a los usuarios y acompañe la innovación sin frenar su potencial positivo. La forma en que se tomen esas decisiones marcará el equilibrio entre riesgo y oportunidad en los próximos años.
Enlaces de interés
- Al Loro: Fraudes cripto con IA: el lado oscuro de la inteligencia artificial en el mundo digital
- MIT Sloan: 80% of ransomware attacks now use artificial intelligence
- NYU Tandon: Large language models can execute complete ransomware attacks autonomously
- Tom’s Hardware: The first AI-powered ransomware has been discovered – “PromptLock”
- Al Loro: Memecoins: del chiste al fraude viral
- Axios: Zero-day AI attack
- OWASP: 2025 Top 10 Risk & Mitigations for LLMs and Gen AI Apps