La inteligencia artificial está transformando la ciberseguridad desde ambos frentes. Los defensores utilizan la IA para detectar amenazas más rápido de lo que podría hacerlo cualquier analista humano, mientras que los atacantes la emplean como arma para ampliar sus operaciones y eludir los controles tradicionales. Según el informe «Global Cybersecurity Outlook 2026» del Foro Económico Mundial, el 94 % de los responsables de seguridad consideran actualmente que la IA es el principal motor del cambio en materia de ciberseguridad. Esto convierte a la seguridad de la IA —la disciplina que consiste en utilizar la IA para defender a las empresas y proteger los sistemas de IA frente a los ataques— en una de las prioridades más importantes para cualquier organización que utilice la IA en producción. Esta guía analiza ambas dimensiones, examina los riesgos y los incidentes reales que conforman el panorama, describe los marcos que la regulan y ofrece prácticas recomendadas aplicables para los equipos de seguridad que se enfrentan a este nuevo terreno.
La seguridad de la IA consiste en proteger los sistemas de IA —incluidos los modelos, los datos de entrenamiento, los procesos de inferencia y los agentes de IA— frente a ataques maliciosos, al tiempo que se utiliza la IA para mejorar las operaciones de ciberseguridad, como la detección de amenazas, la clasificación de alertas y la respuesta ante incidentes. Esta doble dimensión es importante porque las organizaciones se enfrentan a riesgos en ambos frentes. Deben defender sus propias implementaciones de IA contra la manipulación y el abuso, y deben aprovechar la IA para mantenerse a la altura de unos atacantes cada vez más sofisticados.
La distinción entre estas dos dimensiones constituye el principio organizativo fundamental para comprender la seguridad de la IA:
Tabla: La seguridad de la IA abarca dos ámbitos complementarios: el uso de la IA para reforzar la defensa y la protección de los sistemas de IA frente a los ataques.
¿Por qué es importante esto ahora? Las empresas están implementando la IA a una escala sin precedentes, pero la seguridad no ha avanzado al mismo ritmo. Según el estudio «El coste de una filtración de datos en 2025» del Ponemon Institute, solo el 24 % de los proyectos de IA generativa cuentan actualmente con medidas de seguridad. Esa brecha entre la adopción y la seguridad crea una superficie de ataque en rápida expansión que los atacantes ya están aprovechando.
Términos clave que encontrarás a lo largo de esta guía:
La seguridad de la IA y la seguridad de la IA abordan diferentes categorías de riesgo, aunque comparten puntos en común. La seguridad de la IA se centra en proteger los sistemas de IA frente a actores maliciosos, es decir, personas que intentan deliberadamente comprometerlos, manipularlos o explotarlos. La seguridad de la IA se centra en prevenir comportamientos perjudiciales no intencionados por parte de los sistemas de IA, incluso cuando no hay ningún adversario presente. Ambas disciplinas son importantes y se solapan cada vez más. Un modelo vulnerable a la manipulación adversaria supone tanto un riesgo de seguridad como un problema de seguridad. Sin embargo, esta guía se centra en la dimensión de la seguridad: defender los sistemas de IA contra amenazas deliberadas y utilizar la IA para defenderse de los ciberataques. La Cloud Alliance ofrece información adicional sobre cómo se entrecruzan estas disciplinas.
La seguridad de la IA actúa en dos frentes simultáneamente. En el ámbito defensivo, la IA transforma las operaciones de seguridad mediante la automatización de tareas que desbordan la capacidad de los analistas humanos. En el ámbito de la protección, las organizaciones aplican controles de seguridad a lo largo de todo el ciclo de vida de la IA, desde el desarrollo hasta la implementación, el funcionamiento y la retirada del servicio.
Así es como colaboran ambas partes:
La IA está transformando radicalmente el funcionamiento de los equipos de SOC. Los equipos de seguridad procesan miles de alertas a diario, y los analistas dedican la mayor parte de su tiempo a investigar falsos positivos. El análisis de comportamiento basado en la IA cambia esta situación al identificar comportamientos auténticos de los atacantes —movimiento lateral, escalada de privilegios, preparación de datos— en lugar de basarse en firmas que los atacantes eluden con facilidad.
El impacto es cuantificable. Las organizaciones que han incorporado ampliamente la inteligencia artificial y la automatización en sus programas de seguridad identificaron y contuvieron las filtraciones 108 días antes y ahorraron una media de 1,76 millones de dólares por incidente, según el estudio «El coste de una filtración de datos en 2025» del Ponemon Institute. Tal y como señaló Harvard Business Review, los enfoques convencionales de ciberseguridad por sí solos resultan insuficientes para proteger a las empresas modernas impulsadas por la inteligencia artificial.
La IA mejora los flujos de trabajo del SOC en varias áreas críticas:
La vertiente protectora de la seguridad de la IA comienza con una pregunta básica que la mayoría de las organizaciones aún no saben responder: ¿qué sistemas de IA se están ejecutando en nuestro entorno? Un inventario de activos de IA —que abarque las herramientas autorizadas, los servicios utilizados por los empleados y las capacidades de IA integradas— es el primer paso imprescindible.
A partir de ahí, las organizaciones aplican controles de seguridad a lo largo de todo el ciclo de vida de la IA:
Según el estudio de 2025 del Ponemon Institute, un asombroso 97 % de las organizaciones que sufrieron violaciones de seguridad relacionadas con la IA carecían de controles de acceso adecuados para la IA. La aplicación zero trust a los sistemas de IA —tratar cada modelo, canal de datos y agente como no fiable hasta que se verifique— cierra esta brecha.
La IA introduce superficies de ataque para las que las herramientas de seguridad tradicionales nunca se diseñaron. El panorama de amenazas abarca tanto vulnerabilidades específicas de la IA (ataques contra sistemas de IA) como operaciones ofensivas potenciadas por la IA (ciberdelincuentes que utilizan la IA para ampliar el alcance de sus campañas). Solo en 2025, los investigadores catalogaron 2.130 CVE relacionados con la IA —lo que supone un aumento interanual del 34,6 %—, lo que pone de manifiesto el rápido crecimiento de esta categoría de amenazas.
La siguiente clasificación recoge las principales amenazas de seguridad relacionadas con la IA a las que se enfrentan las organizaciones en la actualidad:
Tabla: Taxonomía de amenazas de IA que abarca los principales vectores de ataque contra y a través de los sistemas de IA en 2025-2026.
En 2026 se produjo un cambio notable. Las fugas de datos procedentes de herramientas de IA generativa (34 %) superan ahora a las preocupaciones sobre las capacidades de la IA adversaria (29 %), invirtiendo la tendencia de 2025, en la que predominaban las amenazas adversarias, según el Foro Económico Mundial. Por su parte, el Informe Global de Inteligencia sobre Amenazas de 2026 de Flashpoint documentó un aumento del 1500 % en las conversaciones sobre IA ilícita en foros clandestinos entre noviembre y diciembre de 2025.
La «IA en la sombra» —el uso no autorizado de herramientas de IA por parte de los empleados sin la supervisión de los departamentos de TI o de seguridad— se ha convertido en uno de los riesgos de seguridad más importantes para las empresas en el ámbito de la IA. Las cifras son contundentes: la IA en la sombra añade 670 000 dólares adicionales al coste medio global de una filtración de datos, y el 20 % de todas las filtraciones de datos están relacionadas actualmente con la IA en la sombra, según el estudio de 2025 del Ponemon Institute.
La causa principal es un vacío en materia de gobernanza. El 63 % de las organizaciones carece de políticas formales de gobernanza de la IA, y el 77 % de los empleados comparte datos confidenciales con herramientas de IA. Cuando las organizaciones ofrecen alternativas de IA autorizadas, el uso no autorizado se reduce en un 89 %, lo que demuestra que la solución pasa tanto por facilitar el uso como por controlarlo.
Los agentes de IA autónomos plantean un reto de seguridad específico. Estos sistemas toman decisiones y actúan sin supervisión humana continua, lo que genera nuevas superficies de ataque en torno al acceso a las herramientas, los límites de permisos y la comunicación entre agentes. El 83 % de las organizaciones tenía previsto implementar IA autónoma en 2026, pero solo el 29 % se sentía preparado para garantizar su seguridad.
La Fundación OWASP respondió publicando el «Top 10 de aplicaciones con IA agentiva 2026», en el que se identifican riesgos como el exceso de autonomía, el uso inseguro de herramientas y las violaciones de los límites de confianza. Para un análisis exhaustivo de estos riesgos y las estrategias de mitigación, consulte «Seguridad de la IA agentiva».
A medida que las organizaciones implementan la IA en múltiples entornos, ha surgido una nueva disciplina: la gestión de la postura de seguridad de la IA (AISPM). La AISPM es similar a la gestión de la postura Cloud (CSPM), pero se centra específicamente en los activos de IA: la detección de modelos, flujos de datos y agentes; la evaluación de su configuración de seguridad; y la supervisión continua de desviaciones y violaciones de políticas. La AISPM está ganando terreno a medida que las empresas se dan cuenta de que las herramientas de seguridad tradicionales carecen de visibilidad sobre los riesgos específicos de la IA, como la configuración incorrecta de los modelos, los permisos excesivos en los puntos finales de inferencia y los almacenes de datos de entrenamiento sin cifrar.
La teoría es importante, pero los incidentes del mundo real revelan dónde falla realmente la seguridad de la IA. Un análisis de los incidentes de seguridad relacionados con la IA entre 2025 y principios de 2026 pone de manifiesto una pauta constante: la mayoría de las brechas de seguridad se deben a fallos básicos cloud , y no a ataques sofisticados específicos contra la IA. Estos son los casos que los equipos de seguridad deberían estudiar.
Ataque a la cadena de suministro de OpenClaw/ClawHavoc (febrero de 2026). Unos investigadores de seguridad descubrieron que se habían introducido 1.184 habilidades maliciosas —lo que representa el 20 % de todo el registro— en el mercado de agentes de IA OpenClaw. La campaña, bautizada como ClawHavoc, dejó expuestas 135.000 instancias a la ejecución remota de código a través de CVE-2026-25253. La lección: los mercados de agentes de IA heredan los mismos riesgos de ataques a la cadena de suministro que los repositorios de software tradicionales, pero con el peligro añadido de las capacidades de ejecución autónoma. Fuente: Repello AI, Conscia.
Vulnerabilidad de EchoLeak M365 Copilot (junio de 2025). Los investigadores demostraron que era posible extraer datos de forma silenciosa de las implementaciones corporativas de copilotos de IA. La vulnerabilidad permitía a los atacantes sustraer datos corporativos confidenciales a través de una interfaz de copiloto manipulada sin activar las alertas de seguridad habituales. La lección: los copilotos de IA corporativos se convierten en vectores de exfiltración de datos cuando las organizaciones no implementan controles de acceso y supervisión adecuados. Fuente: Barrack AI.
Utilización de CyberStrikeAI con fines maliciosos (enero-febrero de 2026). La primera herramienta de ataque nativa de IA a gran escala de la que se tiene constancia fue adoptada por ciberdelincuentes que comprometieron más de 600 dispositivos FortiGate en 55 países. Creada originalmente para realizar pruebas de seguridad, la herramienta demostró la rapidez con la que las capacidades de IA pueden utilizarse con fines maliciosos en operaciones ofensivas. Fuente: BleepingComputer, The Hacker News.
Campaña de espionaje orquestada por IA (septiembre de 2025). Un grupo vinculado a un Estado manipuló una herramienta de desarrollo de IA para llevar a cabo operaciones de ciberespionaje. Anthropic reveló la campaña tras detectar patrones de uso indebido en sus sistemas. La lección: las plataformas de desarrollo de IA requieren una supervisión del comportamiento para detectar usos indebidos, y no solo controles de acceso.
El impacto financiero refuerza la urgencia. Las organizaciones que cuentan con amplias capacidades de seguridad basadas en IA ahorran una media de 1,76 millones de dólares por cada incidente de seguridad. Las que carecen de seguridad basada en IA se enfrentan a un coste medio por incidente de 5,36 millones de dólares —frente a la media mundial de 4,44 millones de dólares—, según el estudio de 2025 del Ponemon Institute.
Una seguridad eficaz en materia de IA combina la gobernanza, los controles técnicos y la validación continua. Las ocho prácticas siguientes conforman una guía práctica, ordenadas de más básicas a más avanzadas:
Estas prácticas abordan las causas fundamentales que se han puesto de manifiesto en incidentes reales. La mayoría de las brechas de seguridad relacionadas con la IA se deben a la falta de gobernanza y de controles de acceso, problemas que la gobernanza y el inventario resuelven antes de que sea necesario recurrir a herramientas avanzadas.
En la actualidad, existen múltiples marcos normativos dedicados a la seguridad de la IA, cada uno de los cuales abarca diferentes aspectos. Dado que ningún marco ofrece una cobertura completa, la mayoría de las organizaciones optan por adoptar una combinación de ellos. La Ley de IA de la UE entrará plenamente en vigor el 2 de agosto de 2026, lo que convierte la adopción de un marco normativo en un imperativo regulatorio cada vez más urgente.
Tabla: Comparativa de marcos de seguridad de la IA que muestra las áreas de interés, la aplicabilidad y la situación actual a fecha de marzo de 2026.
El NIST ha invertido 20 millones de dólares en centros de pruebas y evaluación centrados en la IA para apoyar a las organizaciones que implementan estos marcos. Para los equipos que acaban de empezar, el marco ATLAS de MITRE ofrece un punto de partida accesible al asignar técnicas adversarias específicas de la IA a matrices familiares del tipo ATT&CK. Las organizaciones que deseen obtener una certificación oficial deberían considerar la norma ISO/IEC 42001, que establece un sistema de gestión diseñado específicamente para la IA.
El mercado de la seguridad de la IA está creciendo rápidamente: pasará de 30 920 millones de dólares en 2025 a una cifra prevista de 86 340 millones de dólares en 2030, con una tasa de crecimiento anual compuesto del 22,8 %, según Mordor Intelligence. Varias tendencias están marcando la forma en que las organizaciones abordan las soluciones de seguridad de la IA.
Categorías de soluciones emergentes. La AISPM se está consolidando, junto con la CSPM, como una capacidad fundamental cloud . Están surgiendo plataformas de detección y respuesta basadas en IA para supervisar vectores de amenazas específicos de la IA. Además, las soluciones de seguridad basadas en IA con agentes, diseñadas específicamente para este fin, atrajeron una inversión significativa a principios de 2026, incluida una ronda de financiación de 189,9 millones de dólares centrada en la seguridad de los agentes de IA autónomos.
Aumento de la madurez organizativa. Según el Foro Económico Mundial, el porcentaje de organizaciones que evalúan formalmente la seguridad de sus herramientas de IA pasó del 37 % en 2025 al 64 % en 2026. Este cambio refleja la creciente conciencia entre los directivos de que las implementaciones de IA pueden suponer un riesgo si no se protegen adecuadamente.
La carrera armamentística de la IA. Los atacantes y los defensores se encuentran atrapados en un ciclo de escalada. A medida que la IA defensiva mejora en la detección de anomalías de comportamiento, los atacantes utilizan la IA para diseñar técnicas de ingeniería social más convincentes, generar malware polimórfico y automatizar el reconocimiento. La ventaja recae en aquellas organizaciones que invierten en sistemas de detección basados en IA que se centran en el comportamiento de los atacantes, en lugar de en indicadores estáticos.
Attack Signal Intelligence Vectra AI Attack Signal Intelligence la inteligencia artificial para detectar los ataques que otros no pueden detectar, en toda la red moderna que abarca entornos locales, cloud, de identidades y SaaS. En lugar de generar más alertas, este enfoque reduce el ruido y destaca las señales de comportamiento que son relevantes para los equipos del SOC. Con 35 patentes en inteligencia artificial aplicada a la ciberseguridad y 12 referencias en MITRE D3FEND —más que cualquier otro proveedor—, la Vectra AI aplica la filosofía de «asumir la compromisión»: los atacantes inteligentes lograrán entrar, y la prioridad es encontrarlos rápidamente. Obtenga más información sobre la IA que hay detrás de la plataforma en nuestra sección de IA.
El panorama de la seguridad en el ámbito de la inteligencia artificial está evolucionando a un ritmo extraordinario, y en los próximos 12 a 24 meses se producirán varios avances para los que los equipos de seguridad deben prepararse desde ahora.
Los plazos normativos impulsan la urgencia. La Ley de IA de la UE entrará plenamente en vigor el 2 de agosto de 2026, imponiendo requisitos de seguridad específicos, en virtud del artículo 15, para los sistemas de IA de alto riesgo. Las organizaciones que operan en los mercados de la UE o prestan servicios en ellos deben demostrar el cumplimiento de las normas de ciberseguridad, precisión y solidez. Se espera que el borrador del Perfil del Marco de Ciberseguridad para la IA del NIST (IR 8596) se publique definitivamente a mediados de 2026, proporcionando a las organizaciones estadounidenses una hoja de ruta complementaria para el cumplimiento. Los equipos que esperen a que se aplique la normativa corren el riesgo de verse desbordados por la presión de los plazos.
La IA basada en agentes amplía la superficie de ataque. A medida que los agentes de IA autónomos pasen de la fase piloto a la producción, los retos de seguridad descritos en el «Agentic Top 10» de OWASP pasarán de ser teóricos a operativos. La comunicación entre agentes, los límites de acceso a las herramientas y los permisos delegados requerirán nuevos modelos de seguridad que extiendan zero trust a los actores no humanos. La brecha de preparación del 83 % frente al 29 % entre los planes de implementación y la preparación en materia de seguridad sugiere que esta será una fuente destacada de incidentes a finales de 2026 y en 2027.
La seguridad de la cadena de suministro de la IA va ganando madurez. El incidente de OpenClaw demostró que los mercados de agentes de IA pueden albergar componentes maliciosos a gran escala. Es de esperar que el sector adopte prácticas de lista de materiales de software (SBOM) para los modelos y agentes de IA, de forma similar a lo que el NIST y la CISA han impulsado para el software tradicional. El seguimiento de la procedencia de los modelos y el análisis de dependencias pasarán a ser elementos habituales del proceso de desarrollo de la IA.
La AISPM se convierte en un requisito imprescindible. Al igual que la CSPM se volvió esencial para cloud , la AISPM pasará de ser una «categoría emergente» a una «capacidad imprescindible» a medida que las empresas amplíen sus implementaciones de IA. Las organizaciones que inviertan desde el principio en la visibilidad de los activos de IA —sabiendo qué modelos se ejecutan y dónde, a qué datos acceden y quién tiene permisos— podrán reaccionar con mayor rapidez cuando surjan nuevas vulnerabilidades.
Prioridades de inversión para los responsables de seguridad. Las organizaciones deben dar prioridad a tres áreas: completar los inventarios de activos de IA y los marcos de gobernanza (a corto plazo), implementar sistemas de supervisión específicos para la IA y pruebas adversarias (en los próximos seis meses), y evaluar las plataformas AISPM a medida que maduran (en un plazo de 12 meses). El salto del 37 % al 64 % en el número de organizaciones que evalúan formalmente las herramientas de seguridad de la IA demuestra que el mercado está evolucionando rápidamente.
La seguridad de la IA ya no es una disciplina emergente, sino un requisito operativo actual. El doble reto que supone utilizar la IA para proteger a las empresas y proteger los sistemas de IA frente a los ataques exige un enfoque estructurado basado en la gobernanza, la visibilidad y la validación continua.
Las pruebas son claras. Las organizaciones que invierten en seguridad de la IA ahorran millones por cada incidente de seguridad, controlan los incidentes meses antes y operan con menos puntos ciegos. Las que se demoran se enfrentan a una superficie de ataque cada vez mayor, a plazos normativos y a una comunidad de adversarios que ya está utilizando la IA como arma a gran escala.
Empieza por lo que puedes controlar hoy mismo. Haz un inventario de tus activos de IA. Establece políticas de gobernanza. Implementa controles de acceso. A continuación, incorpora pruebas adversarias, supervisión continua y la adaptación a los marcos normativos. Las organizaciones que consideren la seguridad de la IA como una prioridad estratégica —y no como algo secundario— serán las que estén mejor posicionadas para aprovechar el potencial de la IA y gestionar sus riesgos al mismo tiempo.
Descubre cómo Vectra AI la detección de amenazas basada en IA en las redes modernas en vectra.ai/platform, o profundiza en los recursos de aprendizaje sobre seguridad basada en IA.
La seguridad de la IA y la seguridad de la IA son disciplinas relacionadas, pero distintas. La seguridad de la IA se centra en proteger los sistemas de IA frente a actores maliciosos —adversarios que intentan deliberadamente comprometer, manipular o explotar los modelos, los datos y la infraestructura de la IA—. Esto incluye la defensa contra prompt injection, el envenenamiento de datos, la extracción de modelos y los ciberataques impulsados por la IA. La seguridad de la IA, por el contrario, se centra en prevenir comportamientos perjudiciales no intencionados por parte de los sistemas de IA, incluso en ausencia de una intención adversaria. Entre las preocupaciones en materia de seguridad se incluyen las alucinaciones de los modelos, los resultados sesgados y las acciones autónomas incontroladas.
Estas disciplinas se solapan en gran medida. Un sistema de IA vulnerable a la manipulación adversaria supone tanto un riesgo de seguridad (un atacante puede aprovecharlo) como un problema de seguridad (puede generar resultados perjudiciales). Las organizaciones que implementan la IA a gran escala necesitan programas que aborden ambas dimensiones. En la práctica, los equipos de seguridad se encargan del componente de defensa contra ataques adversarios, mientras que los equipos de gobernanza de la IA, de ámbito más amplio, se ocupan de la seguridad. La Cloud Alliance ofrece un marco detallado para abordar esta intersección.
La IA complementa a los profesionales de la ciberseguridad en lugar de sustituirlos. Las investigaciones demuestran sistemáticamente que los agentes de IA que trabajan junto a analistas humanos son más eficaces que cualquiera de ellos por separado. La IA destaca en el procesamiento de grandes volúmenes de datos, la correlación de señales entre distintos entornos, la clasificación de alertas y la automatización de tareas de investigación repetitivas. Los seres humanos aportan el juicio contextual, la búsqueda creativa de amenazas, la toma de decisiones estratégicas y la capacidad de gestionar situaciones nuevas que no se incluyen en los datos de entrenamiento.
La escasez de personal cualificado en ciberseguridad hace que esta colaboración sea esencial. Hay más de 700 000 puestos vacantes en ciberseguridad que siguen sin cubrirse, y las organizaciones no pueden resolver el déficit de competencias simplemente contratando personal. La IA amplía la capacidad de los equipos existentes, lo que permite que un equipo de seguridad de cinco personas funcione con el rendimiento de uno mucho más grande. Las organizaciones que cuentan con una amplia implementación de IA y automatización en sus programas de seguridad contienen las brechas de seguridad 108 días más rápido, lo que se traduce en una reducción cuantificable tanto de los daños como de los costes. El objetivo no es eliminar a los analistas, sino eliminar el ruido de las alertas, la correlación manual y las tareas repetitivas que les impiden realizar su trabajo de mayor valor.
El mercado de la ciberseguridad basada en IA alcanzó los 30 920 millones de dólares a nivel mundial en 2025, lo que refleja la amplia gama de soluciones en las que invierten las organizaciones. Para las empresas individuales, el retorno de la inversión es muy atractivo. Las organizaciones con amplias capacidades de seguridad basadas en IA ahorran una media de 1,76 millones de dólares por incidente y contienen los incidentes 108 días antes que aquellas que carecen de seguridad basada en IA. Las organizaciones que carecen de seguridad basada en IA se enfrentan a un coste medio por incidente de 5,36 millones de dólares, casi un millón de dólares más que la media mundial de 4,44 millones de dólares.
Los costes varían en función del tamaño de la organización, su complejidad y el modelo de implementación. Los servicios de detección y respuesta gestionados (MDR) ofrecen una opción más asequible para las organizaciones con equipos de seguridad reducidos. Las plataformas de seguridad basadas en IA diseñadas específicamente para este fin requieren una mayor inversión inicial, pero ofrecen un mayor retorno de la inversión a gran escala. La inversión más importante suele ser la más económica: establecer políticas de gobernanza de la IA, realizar un inventario de activos de IA e implementar controles de acceso. Estas medidas fundamentales abordan las causas subyacentes de la mayoría de las infracciones relacionadas con la IA.
El término «Shadow AI» hace referencia al uso no autorizado de herramientas y servicios de IA por parte de los empleados sin la supervisión del equipo de TI o de seguridad. Los empleados utilizan chatbots con IA generativa, asistentes de programación y herramientas de automatización para aumentar la productividad, a menudo sin darse cuenta de que están exponiendo datos corporativos confidenciales a sistemas de terceros.
Los riesgos son considerables. La IA en la sombra representa el 20 % de todas las filtraciones de datos y añade 670 000 dólares al coste medio de una filtración. El 77 % de los empleados comparte datos confidenciales con herramientas de IA, y el 63 % de las organizaciones carece de políticas formales de gobernanza de la IA para abordar este comportamiento. La medida de mitigación más eficaz no es la prohibición, sino la habilitación. Cuando las organizaciones proporcionan alternativas de IA aprobadas, el uso no autorizado se reduce en un 89 %. Esto significa que los equipos de seguridad deben colaborar con las unidades de TI y de negocio para proporcionar herramientas de IA autorizadas con las medidas de protección adecuadas, en lugar de imponer prohibiciones generales que los empleados acabarán eludiendo.
Las principales amenazas de seguridad relacionadas con la IA en 2026 se dividen en dos categorías: los ataques contra los sistemas de IA y los ataques que utilizan la IA. En lo que respecta a los ataques «contra la IA», el envenenamiento de datos, prompt injection, los ataques a la cadena de suministro en los mercados de agentes de IA, la evasión adversaria y la extracción de modelos siguen siendo las principales preocupaciones. En cuanto a los ataques que «utilizan la IA», el robo de credenciales mediante IA, el reconocimiento automatizado, phishing generado por IA y las herramientas de pruebas de seguridad utilizadas con fines maliciosos representan riesgos cada vez mayores.
En 2026 se produjo un cambio significativo. Las fugas de datos procedentes de herramientas de IA generativa (34 %) superan ahora a los temores sobre las capacidades de la IA adversaria (29 %), invirtiendo la tendencia observada en 2025. Esto refleja la realidad de que la mayoría de las brechas relacionadas con la IA se deben a la exposición de datos a través de un uso no autorizado de la IA, más que a sofisticadas técnicas adversarias. Además, en 2025 se catalogaron 2130 CVE relacionadas con la IA —un aumento interanual del 34,6 %— y los foros clandestinos registraron un aumento del 1500 % en los debates sobre la explotación de sistemas de IA a finales de 2025.
Empieza por la visibilidad y la gobernanza, no por la tecnología. El orden recomendado es el siguiente:
Las organizaciones que intentan implementar herramientas avanzadas de seguridad para la IA antes de establecer un marco de gobernanza y un inventario suelen descubrir que solo protegen una pequeña parte de su huella real de IA.
La combinación adecuada depende del entorno normativo, el grado de madurez en materia de IA y el perfil de riesgo de su organización. La mayoría de las organizaciones obtienen beneficios al combinar varios marcos:
Los equipos que estén empezando deberían comenzar con el Marco de Gestión de Riesgos de IA (AI RMF) del NIST para la gobernanza y con MITRE ATLAS para el modelado de amenazas. A medida que avance la implementación de la IA, se pueden incorporar OWASP e ISO 42001.