Las organizaciones están implementando la IA a un ritmo sin precedentes. Gartner prevé que el gasto mundial en IA ascenderá a 2,5 billones de dólares en 2026; sin embargo, solo el 6 % de las organizaciones cuenta con una estrategia avanzada de seguridad para la IA. El resultado es una brecha cada vez mayor entre la adopción de la IA y su protección, una brecha que las herramientas tradicionales de seguridad cloud para puntos finales nunca fueron diseñadas para cerrar. La gestión de la postura de seguridad de la IA (AI-SPM) surgió para abordar esta brecha, proporcionando a los equipos de seguridad una visibilidad continua de los modelos, los datos de entrenamiento, los flujos de inferencia y los agentes de IA en toda la empresa. Esta guía explica qué es la AI-SPM, cómo funciona, cómo se compara con disciplinas afines como la CSPM y la DSPM, y por qué se ha convertido en algo esencial para cualquier organización que desarrolle o utilice IA.
La gestión del estado de seguridad de la IA (AI-SPM) es una disciplina de ciberseguridad que detecta, clasifica y protege de forma continua los sistemas de IA —incluidos modelos, conjuntos de datos de entrenamiento, procesos de inferencia y agentes autónomos— mediante la identificación de configuraciones erróneas, vulnerabilidades y deficiencias de cumplimiento a lo largo de todo el ciclo de vida de la IA.
A diferencia de las herramientas tradicionales de evaluación de la seguridad, que se centran en cloud o en los almacenes de datos, AI-SPM aborda los riesgos específicos de la inteligencia artificial. Entre ellos se incluyen la contaminación de los conjuntos de datos de entrenamiento, prompt injection contra grandes modelos de lenguaje, los intentos de extracción de modelos y las cuentas de servicio de IA con privilegios excesivos. AI-SPM trata cada componente de IA como parte de la superficie de ataque, desde un modelo optimizado que se ejecuta en una cloud privada cloud una función de IA de terceros integrada en una aplicación SaaS.
El mercado del software de gobernanza de la IA (AI-SPM) refleja esta urgencia. Según WiseGuy Reports, esta categoría alcanzó un valor de 4.650 millones de dólares en 2024, y Forrester prevé que el gasto en software de gobernanza de la IA se cuadruplicará hasta alcanzar los 15.800 millones de dólares en 2030, con una tasa de crecimiento anual compuesta del 30 %.
¿Quién necesita AI-SPM? Cualquier organización que implemente modelos de IA, utilice funciones de IA en la nube (SaaS) o desarrolle aplicaciones basadas en IA. La brecha de madurez es evidente. Los estudios revelan que el 99,4 % de los CISO notificaron incidentes de seguridad relacionados con la IA o el SaaS en 2025, pero solo el 6 % de las organizaciones cuenta con una estrategia avanzada de seguridad para la IA. AI-SPM cubre esta brecha al ofrecer para la IA la misma gestión continua de la postura de seguridad que CSPM proporcionaba para cloud .
Varias fuerzas convergentes hacen que la IA-SPM sea esencial en 2026. El plazo de aplicación de las disposiciones de alto riesgo de la Ley de IA de la UE vence el 2 de agosto de 2026, lo que obliga a las organizaciones a demostrar que cuentan con controles de seguridad de IA auditables o, de lo contrario, se enfrentarán a sanciones de hasta 35 millones de euros o el 7 % de sus ingresos globales. La Conferencia RSA 2026 fue testigo de anuncios sin precedentes por parte de los proveedores de AI-SPM, lo que indica la transición de esta categoría desde el concepto a productos disponibles para el público en general. Y el panorama de amenazas se está acelerando: en 2025 se confirmaron 16 200 incidentes de seguridad relacionados con la IA, lo que supone un aumento interanual del 49 %.
AI-SPM funciona mediante un ciclo continuo de cinco fases que refleja los enfoques establecidos de gestión de la postura de seguridad, pero los aplica específicamente a los activos y riesgos relacionados con la IA.
Este ciclo funciona de forma continua. A diferencia de las pruebas de penetración periódicas o las auditorías anuales, AI-SPM ofrece una visión en tiempo real de los riesgos relacionados con la IA en la organización. Los estudios del sector indican que el 7,5 % de las solicitudes de IA generativa contienen información confidencial, y los datos de análisis cloud muestran que el 94 % de las organizaciones que utilizan determinadas plataformas de IA tienen al menos una cuenta accesible al público. Estos riesgos surgen y cambian constantemente, por lo que la supervisión continua resulta esencial.
El ciclo se integra con la infraestructura de seguridad existente mediante la exportación de datos de telemetría de detección de amenazas por IA a plataformas SIEM y SOAR, lo que permite correlacionar los eventos específicos de la IA con alertas de seguridad más generales.
Una lista de componentes de IA (AI-BOM) es un inventario exhaustivo de todos los componentes de un sistema de IA: modelos, conjuntos de datos, bibliotecas, API, complementos y dependencias. Piensa en ella como una etiqueta nutricional para los sistemas de IA. Al igual que una lista de componentes de software (SBOM) cataloga las dependencias de software para rastrear vulnerabilidades, una AI-BOM amplía este concepto para abarcar la procedencia de los datos de entrenamiento, el linaje de los modelos y las integraciones de API.
La AI-BOM es fundamental para el AI-SPM, ya que no se puede proteger lo que no se ha inventariado. Sin una AI-BOM completa, las organizaciones no tienen forma de evaluar los riesgos de la cadena de suministro, rastrear el origen de los datos ni verificar que los datos de entrenamiento de un modelo cumplan con la normativa de privacidad.
La creación práctica de una lista de materiales de IA (AI-BOM) se lleva a cabo en cuatro pasos. La detección automática identifica los activos de IA en todo el entorno. El mapeo de dependencias traza las relaciones entre modelos, conjuntos de datos y API. El seguimiento del linaje registra cómo se recopilaron, procesaron y transformaron los datos de entrenamiento. Y las actualizaciones continuas garantizan que la AI-BOM refleje el estado actual de las implementaciones de IA, que evolucionan rápidamente. Están surgiendo especificaciones como CycloneDX ML-BOM para estandarizar este proceso.
Una implementación integral de AI-SPM combina siete capacidades fundamentales, cada una de las cuales aborda un nivel concreto de riesgo relacionado con la inteligencia artificial.
Funcionalidades principales de AI-SPM relacionadas con los resultados de seguridad.
Las configuraciones erróneas de la IA se encuentran entre los riesgos de seguridad más comunes y más perjudiciales relacionados con la IA. Entre los ejemplos más habituales se incluyen los puntos finales de los modelos expuestos y accesibles desde la red pública de Internet, las credenciales predeterminadas en los sistemas de IA en producción, las cuentas de servicio de IA con privilegios excesivos y los flujos de datos de entrenamiento sin cifrar.
El incidente de seguridad en el sistema de contratación basado en IA de McHire pone de manifiesto las consecuencias. Un sistema de contratación basado en IA en entorno de producción, protegido por la contraseña «123456», dejó al descubierto 64 millones de registros de candidatos debido a una vulnerabilidad relacionada con referencias directas a objetos inseguras. Un análisis de la seguridad de las credenciales con AI-SPM habría detectado esta contraseña predeterminada durante la fase de clasificación.
El alcance del riesgo relacionado con las identidades de IA es considerable. El Informe sobre riesgos de seguridad Cloud la IA de Tenable para 2026 reveló que el 18 % de las organizaciones cuenta con identidades de IA con privilegios excesivos, y que el 52 % de las identidades no humanas dispone de permisos críticos excesivos. AI-SPM aborda este problema mediante la detección continua de configuraciones erróneas de identidades y la aplicación de políticas de privilegios mínimos diseñadas específicamente para cargas de trabajo de IA.
Los equipos de seguridad suelen preguntar cómo se relaciona el AI-SPM con las herramientas de gestión de la postura de seguridad que ya utilizan. La respuesta breve es que cada disciplina protege una capa diferente de la pila tecnológica, y el AI-SPM cubre una laguna que ninguna de las demás fue diseñada para cubrir.
Comparación entre AI-SPM y otras disciplinas relacionadas con la postura de seguridad.
Estas herramientas funcionan en conjunto, en lugar de competir entre sí. CSPM te indica si la máquina virtual que aloja tu modelo está correctamente configurada. DSPM te indica si los datos que fluyen hacia tu canal de entrenamiento contienen información de identificación personal (PII). ASPM te indica si la aplicación que invoca tu modelo presenta vulnerabilidades. AI-SPM te indica si el propio modelo es seguro, es decir, si puede ser extraído, contaminado o manipulado mediante prompt injection.
Gartner prevé que «hasta 2026, al menos el 80 % de las transacciones de IA no autorizadas se deberán a incumplimientos internos de las políticas de la empresa, más que a ataques maliciosos». Esta conclusión pone de relieve la importancia de las capacidades de aplicación de políticas y supervisión en tiempo de ejecución de AI-SPM: la mayor parte del riesgo asociado a la IA es interno, no proviene de adversarios.
El mercado está convergiendo. La adquisición de Securiti AI por parte de Veeam, por un valor de 1.725 millones de dólares, indica que las capacidades de DSPM y de gobernanza de la IA se están fusionando en plataformas integradas. Las organizaciones deben esperar que la IA-SPM se convierta en una característica estándar dentro de plataformas más amplias de protección de aplicaciones cloud(CNAPP), al tiempo que siga existiendo como soluciones independientes para empresas con un uso intensivo de la IA.
AI TRiSM (gestión de la confianza, el riesgo y la seguridad) es un marco de Gartner que abarca todo el ámbito de la gobernanza de la IA, incluyendo la ética, la explicabilidad, la detección de sesgos y el cumplimiento normativo. AI-SPM es el componente de la postura de seguridad operativa dentro del marco AI TRiSM. Mientras que AI TRiSM define lo que las organizaciones deben gobernar, AI-SPM proporciona los controles técnicos continuos para los aspectos específicos de seguridad de dicha gobernanza.
Los argumentos a favor de la gestión de riesgos de seguridad de la IA (AI-SPM) cobran sentido al analizar incidentes de seguridad relacionados con la IA que se han producido en la vida real. Cada una de las siguientes brechas de seguridad aprovechó una vulnerabilidad que las capacidades de AI-SPM están diseñadas específicamente para subsanar.
Incidentes graves de seguridad relacionados con la IA y las capacidades de AI-SPM que los abordan.
El coste medio por incidente de seguridad impulsado por IA asciende a 5,72 millones de dólares, lo que convierte estos incidentes no solo en riesgos teóricos, sino en riesgos financieros tangibles. Muchas de estas organizaciones contaban con herramientas de seguridad tradicionales —cortafuegos, EDR, CSPM—. Sin embargo, no detectaron los ataques porque los vectores de ataque específicos de la IA quedan fuera de su ámbito de detección.
La IA en la sombra —el uso no autorizado o no gestionado de herramientas y modelos de IA dentro de una organización— es el riesgo de seguridad relacionado con la IA que causa mayores pérdidas económicas. El estudio «El coste de una filtración de datos en 2025» del Ponemon Institute reveló que las filtraciones relacionadas con la IA en la sombra cuestan 670 000 dólares más que las filtraciones medias (4,63 millones de dólares frente a 3,96 millones) y representan el 20 % del total de filtraciones. Entre las organizaciones que sufrieron filtraciones relacionadas con la IA, el 97 % carecía de controles de acceso adecuados.
AI-SPM aborda la IA en la sombra mediante un proceso de detección continua que utiliza cuatro mecanismos. El análisis del tráfico de red identifica las llamadas a API de IA conocidas. La supervisión de API detecta las solicitudes de inferencia de modelos no autorizadas. La detección basada en identidades correlaciona el uso de la IA con la actividad de los usuarios y las cuentas de servicio. Y la enumeración cloud busca implementaciones de IA no autorizadas en entornos SaaS e IaaS. Para obtener más información sobre los riesgos de la IA en la sombra y las estrategias de gobernanza, consulte el recurso específico sobre IA en la sombra.
Los agentes de IA autónomos —sistemas capaces de planificar, razonar, utilizar herramientas y actuar de forma independiente— representan la vanguardia de la IA-SPM en 2026. A diferencia de los modelos de IA tradicionales, que responden a indicaciones puntuales, los agentes operan de forma continua, toman decisiones en varios pasos e interactúan con sistemas externos. Esto amplía de manera fundamental la superficie de ataque más allá de lo que abarcaban los marcos de IA-SPM anteriores. Gartner prevé que el 40 % de las aplicaciones empresariales contarán con agentes de IA para 2026; sin embargo, una encuesta de Dark Reading reveló que el 48 % de los profesionales de la ciberseguridad identifican la IA agentiva como el vector de ataque más peligroso, y el 80 % de las organizaciones informan de que los agentes de IA ya han realizado acciones no autorizadas.
El AI-SPM debe ampliarse para regular la identidad de los agentes, los límites de confianza entre ellos y los permisos de acceso a las herramientas. El OWASP Top 10 para aplicaciones con agentes (2026) formaliza esto a través del principio de «mínima agencia», que otorga a los agentes los permisos mínimos necesarios para su tarea, de forma análoga al principio de privilegios mínimos para los usuarios humanos. Para obtener una cobertura exhaustiva de los riesgos de seguridad de la IA con agentes, las estrategias de mitigación y el papel de la AI-SPM en la gobernanza de los agentes, consulte el recurso dedicado a la seguridad de la IA con agentes.
Las capacidades de AI-SPM se ajustan directamente a los requisitos de los cinco principales marcos normativos y de seguridad, proporcionando registros de pruebas auditables que acreditan el cumplimiento.
Correspondencia entre las capacidades de AI-SPM y el marco normativo para la evidencia de cumplimiento.
Ley de IA de la UE. Los operadores de sistemas de IA de alto riesgo deben demostrar que cuentan con controles continuos de gestión de riesgos, gobernanza de datos, documentación técnica y ciberseguridad antes de la fecha límite de aplicación, el 2 de agosto de 2026. Las sanciones por incumplimiento pueden alcanzar los 35 millones de euros o el 7 % de los ingresos globales. AI-SPM automatiza la recopilación de pruebas en relación con los artículos 9 a 15.
Marco de gestión de riesgos de IA del NIST. Las cuatro funciones del RMF de IA del NIST —gobernar, mapear, medir y gestionar— se alinean directamente con el ciclo continuo de AI-SPM. El perfil GenAI del NIST-AI-600-1 añade directrices específicas para los modelos de lenguaje a gran escala que aborda la supervisión en tiempo de ejecución de AI-SPM.
ISO/IEC 42001:2023. Esta norma sobre sistemas de gestión de la IA exige controles en materia de gobernanza de datos, desarrollo de modelos, operaciones y gobernanza. AI-SPM proporciona la capa de implementación técnica para estos controles.
MITRE ATLAS. La versión 5.4.0 recoge 16 tácticas, 84 técnicas y 56 subtécnicas para ataques adversarios contra sistemas de IA. AI-SPM MITRE ATLAS El mapeo permite a los equipos de ingeniería de detección crear una cobertura para técnicas de ataque específicas de la IA, como AML.0002 (Acceso al modelo ML) y AML.0004 (Preparación del ataque ML).
OWASP LLM Top 10. AI-SPM aborda el LLM01 (Prompt Injection) mediante la supervisión en tiempo de ejecución, el LLM03 (envenenamiento de datos de entrenamiento) mediante el seguimiento del linaje de los datos, y el LLM06 (agencia excesiva) mediante la gestión del control de acceso.
El panorama de la gestión de la seguridad de la IA (AI-SPM) está evolucionando rápidamente a medida que la categoría madura y pasa de los primeros marcos de trabajo a herramientas listas para su uso en producción. En los próximos 12 a 24 meses, varios avances transformarán la forma en que las organizaciones abordan la seguridad de la IA.
Las pruebas de seguridad con agentes de IA se convertirán en una práctica habitual. A medida que se acelere la adopción de la IA agentiva, las organizaciones deberán someter a pruebas proactivas los sistemas de agentes para detectar desviaciones de comportamiento, abusos de permisos y cadenas de ataque de varios pasos. Las pruebas de seguridad con IA que se centren específicamente en los límites de confianza entre agentes y en los patrones de acceso a las herramientas se convertirán en una práctica de seguridad imprescindible, y no en un ejercicio opcional.
La seguridad del protocolo MCP requerirá controles específicos. El Protocolo de Contexto de Modelo (MCP) se está convirtiendo en el estándar dominante para conectar agentes de IA con herramientas externas y fuentes de datos. A medida que aumenten las implementaciones de servidores MCP, la protección de estos puntos de integración —la supervisión del acceso no autorizado a los datos, la aplicación de permisos a nivel de herramienta y la detección de conexiones MCP comprometidas— se convertirá en una capacidad fundamental de la gestión de rendimiento de la IA (AI-SPM).
La convergencia normativa impulsará la estandarización de la gestión del rendimiento de la IA (AI-SPM). El plazo de aplicación de la Ley de IA de la UE, fijado para agosto de 2026, generará la primera oleada de implementaciones de AI-SPM impulsadas por el cumplimiento normativo en Europa. La esperada Guía de mercado de Gartner sobre AI-SPM (prevista para el segundo semestre de 2026) contribuirá a estandarizar aún más los criterios de evaluación y las expectativas en cuanto a capacidades. Las organizaciones deben esperar que el AI-SPM siga la misma trayectoria de maduración que siguió el CSPM: de las mejores prácticas a los requisitos de cumplimiento en un plazo de 24 meses.
La gestión de la postura de seguridad de la IA (AI-SPM) se integrará con la detección en tiempo de ejecución. La evaluación estática de la postura por sí sola no puede detener un ataque activo contra un sistema de IA. La próxima generación de plataformas AI-SPM integrará capacidades de detección de amenazas en tiempo de ejecución, combinando la gestión preventiva de la postura con la detección de ataques en tiempo real para garantizar la seguridad de la IA generativa. Esta integración refleja la tendencia general del sector de la seguridad de fusionar la gestión de la postura y la detección en plataformas unificadas.
El mercado de AI-SPM se está dividiendo en dos modelos de implementación. Las plataformas de AI-SPM independientes ofrecen funciones avanzadas y específicas para organizaciones con importantes implementaciones de IA. Por otra parte, los proveedores actuales de CNAPP están incorporando AI-SPM como una extensión de sus funciones, un enfoque que, según ha señalado SecurityWeek, está haciendo que AI-SPM sea accesible para las organizaciones que ya han invertido en plataformas cloud .
Entre los criterios clave de evaluación para las organizaciones que analizan herramientas de gestión de riesgos de la IA (AI-SPM) se incluyen el alcance de la detección de activos de IA (¿detecta la IA oculta en aplicaciones SaaS?), la profundidad de la supervisión en tiempo de ejecución (¿detecta prompt injection tiempo real?), la cobertura de los informes de cumplimiento (¿se ajusta a la Ley de IA de la UE y al Marco de Gestión de Riesgos de la IA del NIST?), la integración con los flujos de trabajo existentes de SIEM y SOAR, y la compatibilidad con cargas de trabajo de IA con agentes.
Dado que las herramientas de gobernanza de la IA y las capacidades de IA-SPM se solapan cada vez más, las organizaciones deben planificar la IA-SPM tanto como una capacidad independiente como un requisito dentro de su estrategia general de plataforma de seguridad.
La filosofía de «asumir el compromiso» Vectra AI se aplica directamente a la postura de seguridad de la IA. En lugar de centrarse únicamente en prevenir los ataques a la IA, la metodología da prioridad a la detección y la respuesta ante los atacantes que ya están operando dentro de los sistemas de IA. Attack Signal Intelligence los patrones de comportamiento en toda la red moderna, que cada vez incluye más modelos de IA, agentes y canalizaciones de inferencia como parte de la superficie de ataque unificada. Este enfoque complementa los controles preventivos de IA-SPM con capacidades de detección y respuesta en red que detectan amenazas reales que las herramientas de postura de seguridad por sí solas no pueden detectar.
La gestión del estado de seguridad de la IA ha pasado de ser un concepto emergente a convertirse en una necesidad operativa. A medida que las organizaciones implementan modelos de IA, utilizan funciones SaaS basadas en IA y adoptan agentes autónomos, la superficie de ataque se amplía de formas que las herramientas de seguridad tradicionales no fueron diseñadas para abordar. La gestión del estado de seguridad de la IA (AI-SPM) ofrece las capacidades de visibilidad continua, pruebas, supervisión y cumplimiento necesarias para proteger esta superficie en expansión.
Las organizaciones mejor preparadas para este cambio son aquellas que consideran la gestión de la seguridad de la IA (AI-SPM) como una disciplina de seguridad fundamental, y no como un complemento opcional. Empiece por realizar un inventario de activos de IA, asigne controles a los requisitos normativos, establezca una supervisión en tiempo real para sus sistemas de IA de mayor riesgo e incorpore escenarios específicos de IA en sus guías de respuesta a incidentes.
Para descubrir cómo la detección de suposiciones y compromisos y Attack Signal Intelligence los controles preventivos de AI-SPM, visite el centro de recursos de seguridad Vectra AI .
Las herramientas AI-SPM son plataformas que automatizan la detección, la evaluación y la supervisión continua de los sistemas de IA para identificar vulnerabilidades de seguridad, errores de configuración y deficiencias de cumplimiento normativo. Por lo general, combinan el inventario de activos de IA, la puntuación de riesgos, el análisis de vulnerabilidades, la supervisión del comportamiento en tiempo de ejecución y la generación de informes de cumplimiento en una solución unificada. A diferencia de las herramientas de seguridad de uso general, las plataformas AI-SPM comprenden los riesgos específicos de la IA: pueden identificar puntos finales de modelos expuestos, detectar prompt injection , rastrear la procedencia de los datos de entrenamiento y aplicar políticas de privilegios mínimos para las cuentas de servicio de IA. La categoría está madurando rápidamente, con plataformas independientes y extensiones de funciones CNAPP disponibles. Al evaluar las herramientas de AI-SPM, priorice la amplitud de la detección (¿detecta la IA en la sombra?), la profundidad de tiempo de ejecución (¿supervisa el comportamiento de los modelos?) y la cobertura de cumplimiento (¿se ajusta a sus requisitos normativos?).
La implementación de AI-SPM sigue un enfoque por fases en lugar de una implementación radical. Comience con un proyecto piloto centrado en un caso de uso específico de IA de alto riesgo, como un chatbot de atención al cliente o un modelo de previsión financiera. La secuencia de implementación refleja el ciclo de cinco fases. En primer lugar, identifique y haga un inventario de todos los activos de IA incluidos en el alcance del proyecto piloto. A continuación, clasifique cada activo por nivel de riesgo en función de la sensibilidad de los datos, la exposición de acceso y los requisitos normativos. A continuación, ejecute análisis de vulnerabilidades y pruebas adversarias sobre los activos identificados. Establezca bases de referencia de monitorización en tiempo de ejecución para el comportamiento normal del sistema de IA. Por último, configure paneles de control de cumplimiento y flujos de trabajo de corrección. Las implementaciones exitosas requieren una colaboración multifuncional entre equipos de seguridad, ingenieros de IA y científicos de datos. Tras validar el enfoque en el proyecto piloto, amplíe el alcance de forma incremental a todas las unidades de negocio y casos de uso de IA.
Entre las prácticas recomendadas clave de AI-SPM se incluyen la creación y el mantenimiento de una lista de componentes de IA (AI-BOM) para lograr una visibilidad completa de los activos en todos los modelos, conjuntos de datos, API y dependencias. Implemente controles de acceso basados en el principio del privilegio mínimo para todas las identidades de IA, tanto humanas como no humanas. Asigne los controles de AI-SPM a los marcos normativos pertinentes (Ley de IA de la UE, NIST AI RMF, ISO 42001) desde el primer momento, en lugar de adaptar el cumplimiento a posteriori. Establezca líneas de base de comportamiento para los agentes de IA antes de habilitar la detección de anomalías para reducir los falsos positivos. Integre la telemetría de AI-SPM con las plataformas SIEM y SOAR existentes para lograr operaciones de seguridad unificadas. Considere el AI-SPM como un proceso continuo, no como una evaluación puntual: los sistemas de IA cambian rápidamente y la postura de seguridad debe evaluarse de forma continua. Por último, incluya escenarios específicos de IA en los manuales de respuesta a incidentes para que los equipos estén preparados para actuar cuando el AI-SPM detecte una amenaza.
La supervisión en tiempo de ejecución de la IA analiza continuamente el comportamiento del sistema de IA durante su funcionamiento. Esto incluye el seguimiento de los flujos de datos entre los procesos de entrenamiento y los puntos finales de los modelos, la supervisión de las llamadas a la API en busca de patrones inusuales, el análisis de las entradas y salidas de los modelos para detectar intentos prompt injection de exfiltración de datos, y la observación de las acciones de los agentes de IA para detectar una escalada de privilegios no autorizada. A diferencia de la evaluación estática del estado de seguridad (que comprueba las configuraciones en un momento determinado), la supervisión en tiempo de ejecución detecta las amenazas en el momento en que se producen. Por ejemplo, la supervisión en tiempo de ejecución podría detectar un pico anormal en las llamadas a la API de un punto final del modelo —lo que podría indicar un ataque de extracción del modelo— o identificar datos confidenciales que aparecen en las salidas del modelo y que deberían filtrarse. La supervisión en tiempo de ejecución es especialmente crítica para los sistemas de IA con agentes, en los que estos toman decisiones autónomas e interactúan con herramientas externas en tiempo real.
Las plataformas AI-SPM exportan datos de telemetría, alertas y puntuaciones de estado de seguridad a plataformas SIEM y SOAR a través de mecanismos de integración estándar —normalmente API, syslog o conectores basados en webhooks—. Esta integración permite a los equipos de operaciones de seguridad correlacionar eventos de seguridad específicos de la IA (como prompt injection o acceso no autorizado a modelos) con alertas más generales de la infraestructura en un único panel de control. La integración admite flujos de trabajo centralizados de respuesta a incidentes, por lo que los analistas no necesitan cambiar entre herramientas de seguridad específicas de la IA y herramientas generales. AI-SPM también enriquece las alertas SIEM con contexto específico de la IA —por ejemplo, etiquetando una alerta con el nombre del modelo afectado, el nivel de sensibilidad de los datos de entrenamiento y el marco de cumplimiento aplicable—, lo que ayuda a los analistas a priorizar las acciones de respuesta.
La gestión tradicional de la postura de seguridad se centra en la infraestructura, los terminales y las redes: comprueba si hay errores de configuración en los cortafuegos, garantiza que se apliquen los parches y verifica la segmentación de la red. La AI-SPM amplía la gestión de la postura a activos específicos de la IA que las herramientas tradicionales no pueden detectar ni evaluar. Entre ellos se incluyen los pesos y parámetros de los modelos, la procedencia de los datos de entrenamiento, las configuraciones de los procesos de inferencia, los permisos de los agentes de IA y los resultados generados por la IA. La AI-SPM aborda una clase de riesgos totalmente diferente. El envenenamiento de datos, prompt injection, la extracción de modelos y la IA en la sombra son invisibles para las herramientas tradicionales de gestión de la postura, ya que estas carecen del contexto necesario para comprender las cargas de trabajo de IA. Piénsalo de esta manera: la gestión tradicional de la postura protege la casa. AI-SPM protege los sistemas inteligentes que operan en su interior, sistemas que las herramientas tradicionales ni siquiera reconocen como activos.
Los argumentos económicos a favor de la gestión del riesgo de la IA (AI-SPM) son de peso. El estudio «El coste de una filtración de datos en 2025», elaborado por el Ponemon Institute, reveló que las filtraciones relacionadas con la IA oculta cuestan 670 000 dólares más que las filtraciones medias (4,63 millones de dólares frente a 3,96 millones). El coste medio de una filtración relacionada con la IA asciende a 5,72 millones de dólares. Además, las sanciones por incumplimiento de la Ley de IA de la UE pueden alcanzar hasta 35 millones de euros o el 7 % de los ingresos globales, lo que sea mayor. Más allá de los costes financieros directos, las organizaciones que carecen de AI-SPM se enfrentan a riesgos normativos (la fecha límite de la Ley de IA de la UE en agosto de 2026), riesgos reputacionales (como demuestran las filtraciones de IA de gran repercusión mediática, como las de McHire y OpenClaw) y riesgos operativos (derivados de implementaciones de IA en la sombra que los equipos de seguridad no pueden detectar). Las organizaciones que implementan IA sin AI-SPM están, en esencia, operando sistemas de IA sin visibilidad de su postura de riesgo, lo que equivale a ejecutar cloud sin CSPM hace una década.