Los últimos dos años han sido diferentes en materia de seguridad, aunque me ha llevado tiempo comprender por qué. No ha habido un momento concreto que se pueda señalar. Ningún titular lo ha reflejado. Solo una sensación creciente de que algo sutil ha cambiado.
Cuando la IA generativa se hizo ampliamente accesible a finales de 2022, se percibía más como una novedad que como una amenaza. Útil, a veces impresionante, ocasionalmente preocupante, pero no algo que cambiara fundamentalmente el funcionamiento de los ataques. Los primeros indicios en 2023 reforzaron esa percepción. Phishing aumentó, la generación de contenidos se aceleró y se multiplicaron las campañas de bajo esfuerzo. Se trataba de patrones familiares, solo que acelerados.
Con el tiempo, el patrón se volvió más difícil de ignorar.
Dediqué mucho tiempo a intentar comprender lo que realmente estaba sucediendo bajo la superficie. No leí todos los informes de principio a fin, pero presté mucha atención a los que eran importantes: informes de incidentes, divulgaciones de proveedores, investigaciones académicas y, en ocasiones, debates en la web oscura, donde los delincuentes eran mucho más sinceros sobre lo que funcionaba y lo que no. Cuando se acumulan suficientes señales de este tipo, surge una trayectoria clara.
Este análisis se basa en documentos de inteligencia, incidentes documentados y pérdidas estimadas entre 30 000 y 40 000 millones de dólares en los países del G7. Los datos no son perfectos. Algunos casos se solapan. Algunas pérdidas son estimaciones. Pero cuando los mismos patrones aparecen en los informes de los proveedores, los estudios académicos, las revelaciones de las fuerzas del orden y la información ocasional sobre el mercado de la web oscura, la señal se vuelve difícil de ignorar.
La IA no llegó como un arma completamente desarrollada. Se adoptó gradualmente, primero como una ayuda, luego como un multiplicador y, finalmente, como algo parecido a un operador. Las capacidades que antes requerían tiempo, habilidad y coordinación se redujeron a un único flujo de trabajo. Las tareas que solían limitar a los atacantes dejaron de hacerlo silenciosamente.
Hace dos años, las campañas realistas, adaptables y de gran volumen requerían un esfuerzo considerable. Hoy en día, gran parte de ese esfuerzo ha desaparecido. No porque los atacantes se hayan vuelto repentinamente más capaces, sino porque la IA ha absorbido gran parte de la complejidad.
Por qué es importante este periodo
Ninguna de estas técnicas de ataque es nueva. Phishing, el fraude de voz, malware y la ingeniería social existen desde hace décadas.
Lo que cambió fue la eliminación simultánea de tres restricciones:
- El coste se ha desplomado. Las operaciones que antes requerían entre 50 000 y 100 000 dólares en infraestructura y conocimientos especializados ahora cuestan alrededor de 5000 dólares, lo que supone una reducción del 80-90 %. Las suscripciones a IA criminales cuestan a partir de 200 dólares al mes.
- El tiempo se colapsó. La preparación de una campaña de una semana se comprimió en minutos. Los ciclos de prueba y error que antes llevaban días ahora se completan en segundos.
- Las habilidades se desplomaron. Las capacidades que requerían años de experiencia se hicieron accesibles a través de interfaces de apuntar y hacer clic y comandos de lenguaje natural.
Cuando las limitaciones de coste, tiempo y habilidades se derrumban simultáneamente, el volumen y la sofisticación de los ataques aumentan exponencialmente. Eso es lo que hace que el periodo 2023-2025 sea estructuralmente diferente de las oleadas de automatización anteriores. Las técnicas no son nuevas. Lo que es nuevo es la ausencia de factores limitantes.
Lo que cambió no fue solo phishing.
La clonación de voz burló los sistemas de autenticación. Los vídeos deepfake engañaron a los equipos financieros en las conferencias telefónicas. Malware generar y adaptar técnicas de evasión de forma dinámica y en tiempo real. Los ataques multimodales combinaban texto, voz y vídeo para superar todas las capas de verificación simultáneamente. En septiembre de 2025, Anthropic evaluó que una operación de un Estado-nación había alcanzado un alto grado de autonomía — estimado en un 80-90 % de los pasos del ciclo de vida ejecutados sin intervención humana directa—, mientras que los humanos conservaban las puertas de aprobación y gestionaban la seguridad operativa.
Este blog es la primera parte de una serie de tres. El objetivo es establecer una cronología: quién adoptó primero la IA, cómo evolucionó su uso en múltiples ámbitos de ataque y dónde se produjo el cambio de la experimentación al uso real como arma. La segunda parte examinará las vulnerabilidades técnicas que hicieron posible esta progresión. La tercera parte se centrará en lo que los defensores pueden hacer de forma realista ahora que muchas de las antiguas suposiciones ya no son válidas.
Términos clave utilizados en este análisis
Autonomía
El porcentaje de pasos del ciclo de vida del ataque ejecutados por la IA sin intervención humana directa por decisión. Los seres humanos pueden seguir proporcionando orientación estratégica, aprobaciones y supervisión de la seguridad operativa.
Ejemplo: Anthropic evaluó que GTG-1002 funcionaba con una autonomía estimada de entre el 80 % y el 90 %, lo que significa que la mayoría de los pasos de reconocimiento, análisis de vulnerabilidades y explotación se llevaron a cabo sin necesidad de que los humanos tomaran decisiones entre cada acción, aunque estos conservaron la autoridad de supervisión y aprobación en los puntos clave de decisión.
Armatización
La IA se integra en los flujos de trabajo operativos de ataque en tiempo real, no solo en la generación de contenidos o la investigación. La IA armada ejecuta acciones directamente (escaneando redes, desplegando malware, exfiltrando datos) en lugar de generar informes para que los humanos actúen en consecuencia.
Ejemplo: PROMPTSTEAL consulta los modelos de lenguaje grande (LLM) en tiempo real durante infecciones activas para generar técnicas de evasión.
Ataque multimodal
Operaciones que combinan múltiples tipos de medios generados por IA ( texto, voz, vídeo) en un único esfuerzo coordinado.
Ejemplo: UNC1069 utilizó texto en español generado por IA para ingeniería social, vídeos deepfake para suplantar a ejecutivos y síntesis de voz para la verificación telefónica, superando así las barreras lingüísticas y las señales de confianza visuales al mismo tiempo.
Operador frente a multiplicador
Un multiplicador acelera las tareas dirigidas por humanos (2023: la IA ayudó a los atacantes a trabajar más rápido). Un operador ejecuta tareas de forma autónoma (2025: la IA lleva a cabo el reconocimiento y la explotación, mientras que los humanos proporcionan supervisión estratégica).
El cambio de multiplicador a operador es la tesis central de la Parte 1.
1. Los primeros días: cuando la IA no era más que ruido
El cambio no se anunció.
No hubo ninguna alerta, ningún punto de inflexión claro, ningún momento en el que nadie del equipo de seguridad pudiera afirmar con certeza que todo había cambiado. En cambio, se produjeron pequeñas inconsistencias. Phishing parecían ligeramente más limpios de lo habitual. Malware de forma ligeramente diferente a lo habitual. Los incidentes resultaban familiares, pero se desarrollaban más rápido de lo esperado.
En ese momento, era fácil ignorar estas señales. Los equipos de seguridad se encuentran con anomalías todos los días, y la mayoría de ellas no significan nada.
Mirando atrás, esta fue la primera señal, pero no se percibió como tal cuando estaba sucediendo.
Noviembre de 2022: Cuando la puerta se abrió silenciosamente
Cuando ChatGPT se lanzó a finales de 2022, no se planteó como un evento de seguridad. Era el lanzamiento de un producto. Una novedad. Un adelanto de cómo podría ser la IA conversacional en el futuro. Para los defensores, no había motivos inmediatos para preocuparse. El modelo tenía barreras de protección. Rechazaba las solicitudes maliciosas. Tenía alucinaciones. Cometía errores obvios.
Los atacantes se dieron cuenta de algo más.
Lo importante no era que el modelo fuera perfecto. No lo era. Lo importante era que era accesible, rápido y gratuito. En cuestión de semanas, phishing aumentó drásticamente. No porque los mensajes fueran sofisticados, sino porque eran fáciles de producir. Las barreras lingüísticas desaparecieron de la noche a la mañana. La gramática dejó de ser un factor limitante. El tiempo dejó de ser una restricción.
Esto aún no era armamento.
Fue una aceleración.
Y en esta fase, los defensores seguían teniendo ventaja.
2023: La IA como apoyo, no como amenaza
A lo largo de 2023, la IA se mantuvo firmemente en la categoría de«útil pero imperfecta». Los delincuentes la utilizaban de la misma manera que muchos usuarios legítimos: redactar correos electrónicos, traducir contenidos, resumir datos, acelerar la investigación.
Los estudios de ese periodo demostraron que phishing generado por IA seguía phishing significativamente menos eficaz que los mensajes creados por humanos. Más rápido, sí. Convincente, no.
Desde una perspectiva defensiva, esto reforzó los instintos correctos. Los modelos de detección se adaptaron. La formación en materia de seguridad evolucionó. Las señales familiares seguían presentes: contexto superficial, frases genéricas, sutiles torpezas. La IA aún no había aprendido los matices.
Lo más importante es que los humanos seguían teniendo claramente el control.
La IA ayudó a los atacantes a moverse más rápido, pero no los sustituyó. Esa distinción era importante. La amenaza parecía manejable.
Lo que subestimamos fue el gran impacto que tiene la velocidad cuando todo lo demás permanece constante. Supusimos que la calidad seguiría siendo el factor decisivo. Aún no veíamos lo rápido que la escala reescribiría las reglas.
2. El cambio: cuando la escala empezó a importar
A principios de 2024, algo sutil había cambiado.
La IA ya no se limitaba a la aceleración superficial. Comenzó a aparecer en partes de las operaciones donde la repetición era más importante que la creatividad. Este cambio no fue evidente en ningún incidente concreto. Surgió lentamente, a través de informes de inteligencia, revelaciones de proveedores y patrones que solo se hicieron visibles cuando se tomó la suficiente distancia.
Fue entonces cuando aparecieron las primeras señales graves.
A principios de 2024: la IA entra en funcionamiento.
En febrero de 2024, Microsoft y OpenAI publicaron la primera atribución pública de actores estatales que utilizaban la IA en operaciones reales. Se nombraron cinco grupos. En ese momento, las conclusiones fueron deliberadamente cautelosas. La IA se describió como un asistente, no como un operador, utilizado para la investigación, la ayuda en la codificación y la aceleración de OSINT, no para el despliegue autónomo.
Esa descripción era precisa, pero incompleta.
Lo importante no era lo que hacían los modelos, sino dónde se introducían.
Canales de reconocimiento. Investigación de vulnerabilidades. Flujos de trabajo Malware . En esos entornos, la IA no tenía por qué ser excepcional. Tenía que ser incansable.
Los grupos estatales trataban a la IA como a un becario competente. Los humanos seguían tomando las decisiones. Los humanos seguían ejecutando los ataques. Pero el lento y repetitivo trabajo preliminar se redujo drásticamente.
Este fue el momento en que la escala entró silenciosamente en la ecuación.
Los ecosistemas criminales se ponen al día
El cibercrimen organizado se movió aún más rápido.
Mientras los Estados-nación experimentaban con cautela, los mercados criminales se multiplicaban de forma agresiva. Las herramientas de la web oscura maduraron.
Las técnicas de jailbreak se volvieron confiables.
Un análisis independiente de GitHub identificó 285 repositorios de jailbreak documentados (noviembre de 2024-noviembre de 2025). Pruebas independientes realizadas por Cisco Talos revelaron que los ataques de jailbreak multivuelta alcanzaron tasas de éxito de entre el 25,86 % y el 92,78 % en diferentes modelos de peso abierto, siendo Mistral Large-2 y Alibaba Qwen3-32B los que alcanzaron la mayor vulnerabilidad, con un 92,78 % (noviembre de 2025). Las tasas de éxito varían según el modelo, el ajuste de seguridad y los criterios de evaluación (un solo intento frente a múltiples intentos, política de objetivos y equipo de pruebas), por lo que estas cifras describen el estado de las herramientas públicas y los resultados de las pruebas, y no garantizan un bypass universal.
Al mismo tiempo, los modelos sin restricciones eliminaron por completo la necesidad de eludir las barreras de seguridad. WormGPT, FraudGPT, DarkBERT. Diseñados específicamente para cometer delitos, sin necesidad de jailbreak. Los repositorios de código abierto se multiplicaron. Herramientas que antes requerían una gran experiencia se hicieron accesibles a través de interfaces de apuntar y hacer clic. Ninguno de estos avances fue noticia por sí solo, pero en conjunto redujeron las barreras de entrada a un ritmo alarmante.
Lo que cambió no fue la sofisticación.
Era el rendimiento.
Los operadores individuales ahora podían ejecutar varias campañas en paralelo. Las investigaciones que antes llevaban horas se redujeron a minutos. Los ciclos de prueba y error se acortaron. Los fracasos dejaron de ser costosos.
En esta etapa, los seres humanos aún controlaban la ejecución. La IA aceleró la preparación y la iteración, pero la toma de decisiones siguió estando a cargo de los seres humanos.
La economía cambió más rápido de lo que la mayoría percibió. Las operaciones que antes requerían entre 50 000 y 100 000 dólares en infraestructura y experiencia durante seis meses, ahora cuestan alrededor de 5000 dólares. Las suscripciones a la IA criminal comenzaron en 200 dólares al mes. La barrera de entrada se redujo en un 80-90 %, según las estimaciones.
Señales que subestimamos
Mirando atrás, las señales de advertencia estaban ahí.
Las tasas de éxito de los jailbreaks mejoraron rápidamente. Los modelos de peso abierto se degradaron bajo una interacción sostenida de múltiples giros. Las ventanas de contexto se expandieron mucho más allá de lo que la mayoría de las evaluaciones de seguridad tenían en cuenta. Al mismo tiempo, el volumen de ataques asistidos por IA aumentó sin que se produjera un aumento correspondiente en los indicadores obvios.
Los defensores notaron que los ataques se movían más rápido, pero la velocidad por sí sola rara vez activa las alarmas. Estamos entrenados para buscar novedades, no aceleraciones. Nos enfocamos en nuevas técnicas, no en la eliminación silenciosa de restricciones.
A finales de 2024, la IA aún no había sustituido a los atacantes humanos. Pero ya había transformado la economía de los ataques. La preparación se había abaratado. La iteración se había simplificado. La escala había dejado de estar limitada por el número de empleados.
El sistema estaba sometido a tensión mucho antes de que se rompiera visiblemente.
3. Marzo de 2025: cuando la IA superó a los humanos
En retrospectiva, es fácil pasar por alto marzo de 2025. No hubo ninguna violación dramática. Ninguna campaña singular que acaparara los titulares. Pero desde una perspectiva defensiva, ese fue el momento en que una de nuestras últimas suposiciones dejó de ser cierta. Por primera vez, phishing generado por IA phishing phishing creado por humanos phishing un estudio controlado a gran escala. Y no por un margen insignificante, sino en un 24%.
Dos años antes, ocurría lo contrario. En 2023, phishing con IA phishing aproximadamente un 31 % menos eficaz que los esfuerzos humanos. La oscilación entre esos dos puntos es lo que importa. Durante aproximadamente 24 meses, la brecha no se cerró. Se invirtió. Se produjo una oscilación de 55 puntos sin que se produjera ningún cambio correspondiente en el diseño de la mayoría de las defensas.
Esta fue la primera vez que un sistema de IA superó a los humanos en una tarea que considerábamos inherentemente humana.
Más allá Phishing: el patrón más amplio
phishing de marzo de 2025 no fue un caso aislado.
Era señal de algo más grande. La IA estaba superando los umbrales de eficacia en múltiples ámbitos casi al mismo tiempo. Phishing simplemente el primer caso en el que la medición resultó sencilla.
Clonación de voz y fraude con deepfakes
En 2025, la clonación de voz había pasado de ser una amenaza teórica a una amenaza operativa. Más de 3500 incidentes documentados. Más de 1000 millones de dólares en pérdidas confirmadas según informes conjuntos del FBI y Europol. Los requisitos de entrenamiento se redujeron de horas de audio a menos de un minuto. En pruebas controladas, la calidad se volvió indistinguible del habla humana.
El caso más significativo ocurrió en febrero de 2024. El equipo financiero de una multinacional participó en lo que creían que era una videoconferencia rutinaria con su director financiero y otros cuatro ejecutivos. Verificaron las identidades visualmente. Oyeron voces familiares. Siguieron los procedimientos de aprobación habituales.
Los cinco participantes en la llamada eran deepfakes. Los atacantes se llevaron 25,6 millones de dólares.
En noviembre de 2025, la superficie de ataque se expandió más allá del fraude financiero. El primer caso documentado de clonación de voz para comprometer un servicio de asistencia técnica informática ocurrió en España. Un atacante utilizó la voz clonada de un empleado para solicitar acceso al sistema. La amenaza ya no se limitaba a las transferencias bancarias.
Malware
Los actores estatales comenzaron a desplegar operativamente malware basados en inteligencia artificial .
El grupo ruso APT28 utilizó un sistema llamado PROMPTSTEAL, que consulta modelos de lenguaje de código abierto en tiempo real para adaptar su comportamiento evasivo. El Grupo de Inteligencia de Amenazas de Google documentó cinco familias similares a finales de 2025: PROMPTFLUX, PROMPTSTEAL, FRUITSHELL, PROMPTLOCK y QUIETVAULT. Estos sistemas no se basan en una lógica de evasión preprogramada. La generan de forma dinámica, lo que hace que la detección basada en firmas sea cada vez menos fiable.
Operaciones multimodales
El grupo UNC1069 de Corea del Norte llevó a cabo lo que parece ser el primer ataque de IA totalmente multimodal. Generación de texto para ingeniería social. Vídeo deepfake para verificación visual. Síntesis de voz para confirmación de audio. La operación se dirigió a ejecutivos del sector de las criptomonedas y superó tanto las barreras lingüísticas como las señales de confianza visuales en una única acción coordinada.
El punto phishing fue importante porque era medible.
Pero no era algo único. La IA estaba superando la eficacia humana en todo el ciclo de vida del ataque. Marzo de 2025 fue simplemente el momento en que ya no pudimos ignorar el patrón.
Phishing siempre se ha tratado como un problema humano. El lenguaje, el tono, el momento, el contexto. Los defensores crearon controles basándose en la idea de que los atacantes acabarían cometiendo errores. Frases poco naturales. Discrepancias culturales. Personalización descuidada.
Esas suposiciones fueron silenciosamente invalidadas.
Al mismo tiempo, la tecnología subyacente cambió de formas que agravaron el impacto. Llegaron los modelos de contexto largo. Las ventanas de contexto se ampliaron de miles de tokens a cientos de miles y, en algunos casos, a más de un millón. Eso no solo phishing , sino que lo hizo escalable.
Un modelo de IA podía analizar bandejas de entrada, perfiles públicos y documentos de una sola vez. Podía establecer relaciones. Realizar un seguimiento de las conversaciones. Generar mensajes únicos y altamente personalizados para grandes conjuntos de destinatarios a la vez. Lo que antes era un minucioso trabajo manual de ingeniería social se convirtió en un proceso por lotes.
Calidad y escala cruzaron juntos el umbral.
El silencioso colapso de una ventaja defensiva
Aquí es donde la ventaja defensiva comenzó a erosionarse estructuralmente.
No porque los ataques se volvieran más creativos, sino porque se volvieron indistinguibles de la comunicación legítima a gran escala. Las señales lingüísticas perdieron fiabilidad. La fatiga desapareció. El error humano ya no era un factor limitante.
En ese momento, este cambio no parecía catastrófico. Phishing ya Phishing un problema. Las pérdidas ya eran elevadas. Desde fuera, marzo de 2025 parecía otro dato más en una tendencia que se prolongaba desde hacía tiempo.
Desde dentro, fue el momento en que el sistema se desequilibró.
Todo lo que vino después, la autonomía, la economía, los ataques industrializados, fue consecuencia de esta ruptura.
4. De la asistencia a la autonomía
Una vez que la IA superó el umbral de eficacia humana, el resto se desarrolló de forma silenciosa y rápida. No porque los atacantes se volvieran de repente más ambiciosos, sino porque la moderación dejó de tener sentido desde el punto de vista económico.
A mediados de 2025, el ecosistema criminal de IA había madurado hasta convertirse en un mercado de IA en la web oscura que generaba entre 20 y 40 millones de dólares al año. Por unos pocos cientos de dólares al mes, los atacantes podían acceder a herramientas que automatizaban la investigación, generaban malware , personalizaban phishing gran escala y se adaptaban en tiempo real. Los costes de entrada se redujeron drásticamente. La habilidad dejó de ser el factor limitante.
En ese momento, los seres humanos ya no eran la parte más eficiente de la operación.
La autonomía no fue un salto. Fue una optimización.
¿Qué hizo posible la autonomía?
Los modelos de contexto largo proporcionaban escala, pero no eran suficientes para una verdadera autonomía operativa.
Eso requería infraestructura.
La operación GTG-1002 se basó en lo que se denomina Protocolo de contexto de modelo, un sistema que permite a la IA acceder a herramientas externas. No solo analiza texto, sino que invoca directamente escáneres de red, rastreadores web y marcos de explotación. La IA no solo recomendaba acciones, sino que las ejecutaba.
La generación aumentada por recuperación desempeñó un papel similar. En lugar de basarse exclusivamente en ventanas contextuales, estos sistemas consultan bases de conocimiento externas en tiempo real. Aprovechan bases de datos, repositorios CVE y documentación sobre técnicas de ataque. La base de conocimiento efectiva se vuelve ilimitada.
Los marcos de coordinación de agentes como LangChain y AutoGPT lo unen todo. El reconocimiento conduce al descubrimiento de vulnerabilidades. El descubrimiento de vulnerabilidades genera exploits. Los exploits despliegan cargas útiles. Las cargas útiles permiten el movimiento lateral. Cada paso alimenta al siguiente sin necesidad de coordinación humana.
Contexto extenso, acceso a herramientas y coordinación.
Esa combinación es lo que permitió alcanzar el umbral de autonomía.
En la segunda parte se analizará por qué estos sistemas resultaron ser mucho menos seguros de lo que esperaban sus diseñadores.
Septiembre de 2025: cruzando un umbral visible
Esa optimización superó un umbral visible en septiembre de 2025.
Anthropic evaluó una operación patrocinada por el Estado chino (GTG-1002) como una operación cibernética con una autonomía estimada de entre el 80 % y el 90 %, lo que significa que la mayor parte del reconocimiento, el mapeo de redes, el descubrimiento de activos, el análisis de vulnerabilidades, la selección de exploits y los pasos de implementación se llevaron a cabo sin intervención humana directa entre las acciones, mientras que los humanos conservaban la autoridad de aprobación y gestionaban la seguridad operativa en aproximadamente 30 organizaciones objetivo.
La operación se ejecutó a la velocidad de la máquina. Miles de solicitudes. Varias por segundo. Una ejecución que habría sido físicamente imposible de coordinar manualmente para los operadores humanos.
Los seres humanos conservaban la autoridad de aprobación final y gestionaban la seguridad operativa. Pero el trabajo en sí, la ejecución real, se había convertido en una tarea impulsada por máquinas.
Más tarde, varios investigadores cuestionaron si esto constituía una verdadera autonomía operativa, citando la divulgación limitada y la presencia continua de puntos de decisión humanos.
Esa crítica es válida.
Lo significativo no es que las operaciones cibernéticas totalmente autónomas sean ahora algo habitual. No lo son. Lo significativo es que las condiciones técnicas y económicas necesarias para la autonomía están en gran medida reunidas. Las lagunas que quedan son menores de lo que muchos defensores suponen.
Una vez que la ejecución se vuelve autónoma, la escala se vuelve ilimitada. Las operaciones individuales se fragmentan en docenas de incidentes aparentemente inconexos. Los controles creados en torno a amenazas a escala humana comienzan a fallar, no porque estén mal diseñados, sino porque sus supuestos ya no son válidos.
Por qué es importante para los equipos de seguridad
Si trabajas en un SOC, lo más importante que debes recordar es lo siguiente: ya no compites contra atacantes humanos. Compites contra procesos de coordinación que funcionan a la velocidad de una máquina, nunca se cansan y nunca repiten el mismo error dos veces.
Y aún no hemos alcanzado el pico.
Hacia dónde vamos ahora
La segunda parte profundizará en la realidad técnica que hay detrás de todo esto. La crisis del jailbreak. Los fallos en el aislamiento del contexto del modelo. Las primeras malware autónomo sin C2. Todos los mecanismos que permitieron a los atacantes dar un salto adelante mientras los defensores seguían actualizando los manuales de 2021.
La tercera parte será la más difícil. Hablaremos de lo que los defensores pueden hacer realmente ahora, en un mundo en el que la velocidad de los atacantes se mide en segundos, no en horas.
Por ahora, la conclusión es sencilla: la IA no solo ha acelerado la ciberdelincuencia, sino que ha cambiado su naturaleza. Ha convertido las herramientas en armas y a los atacantes en operadores de sistemas cada vez más autónomos.
Ya no luchamos solo contra los humanos.
Nos enfrentamos a sistemas que ya funcionan a la velocidad de las máquinas y, con cada generación de modelos, se requiere menos intervención humana para mantenerlos en funcionamiento.
Para ser claros, los defensores también utilizan la IA. Detección de amenazas. Respuesta ante incidentes. Gestión de vulnerabilidades. Las herramientas están disponibles para ambas partes.
La asimetría no es una cuestión de capacidad. Es una cuestión económica.
Un solo atacante con IA puede atacar a miles de organizaciones simultáneamente, iterando en paralelo y adaptándose en tiempo real. La defensa no se adapta de la misma manera. Ese desequilibrio es lo que hace que este cambio sea estructural, no temporal.
---
Limitaciones de los datos
Reconocemos varias limitaciones:
- Las cifras de pérdidas financieras se basan en las declaraciones de las propias víctimas (probablemente inferiores a las reales).
- La atribución de algunos incidentes (especialmente los actores híbridos) sigue siendo incierta.
- Las afirmaciones sobre la autonomía del GTG-1002 carecen de verificación independiente.
- Las cifras de usuarios de la web oscura son estimaciones basadas en análisis de mercado.
Referencia
- Anthropic. (13 de noviembre de 2025). Anthropic interrumpe una operación cibernética patrocinada por el Estado. Blog de seguridad de Anthropic.
- Hoxhunt. (2023, 2025). Estudios Phishing con IA. Múltiples informes.
- SPRF India. (Julio de 2025). Análisis de amenazas digitales. Informe de investigación.
- SlashNext. (2023). IA generativa y ciberseguridad y cobertura mediática relacionada con phishing posteriores a ChatGPT (por ejemplo, Decrypt).
- Microsoft Threat Intelligence y OpenAI. (14 de febrero de 2024). Manténgase por delante de los actores maliciosos en la era de la IA. Blog de seguridad de Microsoft.
- Google Threat Intelligence Group. (Noviembre de 2025). Avances en el uso de herramientas de IA por parte de los actores maliciosos. Informe GTIG, 18 páginas.
- Zscaler ThreatLabz. (2024). Informe de seguridad de ThreatLabz AI 2024. 536 500 millones de transacciones de IA/ML analizadas (febrero-diciembre de 2024).
- ENISA. (2024). Informe sobre el panorama de amenazas 2024. Agencia de la Unión Europea para la Ciberseguridad.
- Cisco Talos. (Noviembre de 2024). Muerte por mil avisos: tasas de éxito de jailbreaks multiturno. Trabajo de investigación.
- Análisis del autor. (2025). Inteligencia sobre el mercado de IA en la web oscura. Basado en datos de Group-IB, Recorded Future y Trend Micro.
- Inteligencia de precios en la web oscura. (2025, junio-noviembre). Análisis del mercado WormGPT.
- Análisis del autor. (24 de noviembre de 2025). Modelos de ventana de contexto largo: análisis de las implicaciones para la seguridad.

