Explicación de la gestión de la postura de seguridad de la IA: cómo proteger la superficie de ataque de la IA

Información clave

  • AI-SPM es una disciplina de seguridad específica que detecta, evalúa y protege de forma continua los activos relacionados con la IA —modelos, datos de entrenamiento, puntos finales de inferencia y agentes de IA— en entornos híbridos.
  • Las herramientas de seguridad tradicionales dejan puntos ciegos. El CSPM protege cloud y el DSPM protege los almacenes de datos, pero ninguno de los dos aborda los riesgos específicos de la IA, como prompt injection, la extracción de modelos o el envenenamiento de datos.
  • Lo que está en juego desde el punto de vista financiero es considerable. Las infracciones de seguridad relacionadas con la IA oculta cuestan 670 000 dólares más que las infracciones medias, y una infracción relacionada con la IA cuesta, de media, 5,72 millones de dólares.
  • Los plazos reglamentarios están aumentando la urgencia. El plazo de aplicación de la Ley de IA de la UE para los casos de alto riesgo, fijado para el 2 de agosto de 2026, exige controles de seguridad de la IA auditables, como los que ofrece AI-SPM.
  • La IA agentiva está ampliando la superficie de ataque. Dado que el 80 % de las organizaciones informan de acciones no autorizadas por parte de agentes de IA, la gestión de activos de IA (AI-SPM) debe ahora regular a los actores no humanos, además de los activos de IA tradicionales.

Las organizaciones están implementando la IA a un ritmo sin precedentes. Gartner prevé que el gasto mundial en IA ascenderá a 2,5 billones de dólares en 2026; sin embargo, solo el 6 % de las organizaciones cuenta con una estrategia avanzada de seguridad para la IA. El resultado es una brecha cada vez mayor entre la adopción de la IA y su protección, una brecha que las herramientas tradicionales de seguridad cloud para puntos finales nunca fueron diseñadas para cerrar. La gestión de la postura de seguridad de la IA (AI-SPM) surgió para abordar esta brecha, proporcionando a los equipos de seguridad una visibilidad continua de los modelos, los datos de entrenamiento, los flujos de inferencia y los agentes de IA en toda la empresa. Esta guía explica qué es la AI-SPM, cómo funciona, cómo se compara con disciplinas afines como la CSPM y la DSPM, y por qué se ha convertido en algo esencial para cualquier organización que desarrolle o utilice IA.

¿Qué es la gestión del estado de seguridad de la IA?

La gestión del estado de seguridad de la IA (AI-SPM) es una disciplina de ciberseguridad que detecta, clasifica y protege de forma continua los sistemas de IA —incluidos modelos, conjuntos de datos de entrenamiento, procesos de inferencia y agentes autónomos— mediante la identificación de configuraciones erróneas, vulnerabilidades y deficiencias de cumplimiento a lo largo de todo el ciclo de vida de la IA.

A diferencia de las herramientas tradicionales de evaluación de la seguridad, que se centran en cloud o en los almacenes de datos, AI-SPM aborda los riesgos específicos de la inteligencia artificial. Entre ellos se incluyen la contaminación de los conjuntos de datos de entrenamiento, prompt injection contra grandes modelos de lenguaje, los intentos de extracción de modelos y las cuentas de servicio de IA con privilegios excesivos. AI-SPM trata cada componente de IA como parte de la superficie de ataque, desde un modelo optimizado que se ejecuta en una cloud privada cloud una función de IA de terceros integrada en una aplicación SaaS.

El mercado del software de gobernanza de la IA (AI-SPM) refleja esta urgencia. Según WiseGuy Reports, esta categoría alcanzó un valor de 4.650 millones de dólares en 2024, y Forrester prevé que el gasto en software de gobernanza de la IA se cuadruplicará hasta alcanzar los 15.800 millones de dólares en 2030, con una tasa de crecimiento anual compuesta del 30 %.

¿Quién necesita AI-SPM? Cualquier organización que implemente modelos de IA, utilice funciones de IA en la nube (SaaS) o desarrolle aplicaciones basadas en IA. La brecha de madurez es evidente. Los estudios revelan que el 99,4 % de los CISO notificaron incidentes de seguridad relacionados con la IA o el SaaS en 2025, pero solo el 6 % de las organizaciones cuenta con una estrategia avanzada de seguridad para la IA. AI-SPM cubre esta brecha al ofrecer para la IA la misma gestión continua de la postura de seguridad que CSPM proporcionaba para cloud .

Por qué la IA-SPM es importante ahora

Varias fuerzas convergentes hacen que la IA-SPM sea esencial en 2026. El plazo de aplicación de las disposiciones de alto riesgo de la Ley de IA de la UE vence el 2 de agosto de 2026, lo que obliga a las organizaciones a demostrar que cuentan con controles de seguridad de IA auditables o, de lo contrario, se enfrentarán a sanciones de hasta 35 millones de euros o el 7 % de sus ingresos globales. La Conferencia RSA 2026 fue testigo de anuncios sin precedentes por parte de los proveedores de AI-SPM, lo que indica la transición de esta categoría desde el concepto a productos disponibles para el público en general. Y el panorama de amenazas se está acelerando: en 2025 se confirmaron 16 200 incidentes de seguridad relacionados con la IA, lo que supone un aumento interanual del 49 %.

Cómo funciona AI-SPM

AI-SPM funciona mediante un ciclo continuo de cinco fases que refleja los enfoques establecidos de gestión de la postura de seguridad, pero los aplica específicamente a los activos y riesgos relacionados con la IA.

  1. Descubrir. Analiza continuamente el entorno en busca de activos de IA, incluidos modelos, conjuntos de datos de entrenamiento, puntos finales de inferencia, agentes de IA e implementaciones de IA en la sombra. El proceso de descubrimiento abarca la infraestructura local,cloud y las aplicaciones SaaS.
  2. Clasificar. Asignar una puntuación de riesgo a cada activo de IA identificado en función de la sensibilidad de los datos, la exposición de acceso, los requisitos normativos y la importancia para el negocio. Un chatbot de atención al cliente que procesa datos financieros obtiene una puntuación diferente a la de una herramienta interna de resumen de textos.
  3. Prueba. Realizar análisis de vulnerabilidades y pruebas de simulación de ataques contra sistemas de IA. Esto incluye prompt injection , detección de envenenamiento de datos, intentos de extracción de modelos y comprobaciones de configuraciones erróneas.
  4. Supervisar. Analizar el comportamiento del sistema de IA durante la ejecución: seguimiento de los flujos de datos, las llamadas a la API, las entradas y salidas del modelo, y las acciones de los agentes. La supervisión en tiempo de ejecución detecta patrones anómalos de acceso a los datos, intentos de escalada de privilegios y acciones no autorizadas en tiempo real.
  5. Informes. Genera paneles de control de cumplimiento, puntuaciones de estado de seguridad y seguimiento de las medidas correctivas. Los informes relacionan los resultados con los marcos normativos y proporcionan pruebas documentales para los auditores.

Este ciclo funciona de forma continua. A diferencia de las pruebas de penetración periódicas o las auditorías anuales, AI-SPM ofrece una visión en tiempo real de los riesgos relacionados con la IA en la organización. Los estudios del sector indican que el 7,5 % de las solicitudes de IA generativa contienen información confidencial, y los datos de análisis cloud muestran que el 94 % de las organizaciones que utilizan determinadas plataformas de IA tienen al menos una cuenta accesible al público. Estos riesgos surgen y cambian constantemente, por lo que la supervisión continua resulta esencial.

El ciclo se integra con la infraestructura de seguridad existente mediante la exportación de datos de telemetría de detección de amenazas por IA a plataformas SIEM y SOAR, lo que permite correlacionar los eventos específicos de la IA con alertas de seguridad más generales.

AI-SPM y la lista de componentes de IA

Una lista de componentes de IA (AI-BOM) es un inventario exhaustivo de todos los componentes de un sistema de IA: modelos, conjuntos de datos, bibliotecas, API, complementos y dependencias. Piensa en ella como una etiqueta nutricional para los sistemas de IA. Al igual que una lista de componentes de software (SBOM) cataloga las dependencias de software para rastrear vulnerabilidades, una AI-BOM amplía este concepto para abarcar la procedencia de los datos de entrenamiento, el linaje de los modelos y las integraciones de API.

La AI-BOM es fundamental para el AI-SPM, ya que no se puede proteger lo que no se ha inventariado. Sin una AI-BOM completa, las organizaciones no tienen forma de evaluar los riesgos de la cadena de suministro, rastrear el origen de los datos ni verificar que los datos de entrenamiento de un modelo cumplan con la normativa de privacidad.

La creación práctica de una lista de materiales de IA (AI-BOM) se lleva a cabo en cuatro pasos. La detección automática identifica los activos de IA en todo el entorno. El mapeo de dependencias traza las relaciones entre modelos, conjuntos de datos y API. El seguimiento del linaje registra cómo se recopilaron, procesaron y transformaron los datos de entrenamiento. Y las actualizaciones continuas garantizan que la AI-BOM refleje el estado actual de las implementaciones de IA, que evolucionan rápidamente. Están surgiendo especificaciones como CycloneDX ML-BOM para estandarizar este proceso.

Componentes clave de AI-SPM

Una implementación integral de AI-SPM combina siete capacidades fundamentales, cada una de las cuales aborda un nivel concreto de riesgo relacionado con la inteligencia artificial.

Componente Para qué sirve Por qué es importante Ejemplo de AI-SPM
Detección e inventario de activos mediante IA Detecta todos los sistemas de IA, incluida la IA oculta No se pueden garantizar activos desconocidos Detección de una integración no autorizada de la API de un modelo de lenguaje grande (LLM) en una herramienta SaaS
Análisis de vulnerabilidades específico para IA Detecta configuraciones incorrectas y dispositivos expuestos Los sistemas de IA presentan tipos de vulnerabilidad específicos Marcar un punto final de inferencia con credenciales predeterminadas
Análisis de la ruta del ataque Mapea el recorrido desde el acceso inicial hasta la violación de la seguridad del modelo o los datos Revela cómo los atacantes encadenan vulnerabilidades específicas de la IA Seguimiento del recorrido desde el token OAuth robado hasta la filtración de los datos de entrenamiento
Origen de los datos y clasificación de la sensibilidad Realiza un seguimiento del origen de los datos de entrenamiento y de la exposición de la información de identificación personal Evita el incumplimiento normativo y la contaminación de datos Identificación de datos de carácter personal en un conjunto de datos de entrenamiento procedente de interacciones con los clientes
Supervisión en tiempo real y análisis de comportamiento Detecta anomalías en el comportamiento del sistema de IA durante su funcionamiento Detecta los ataques que el análisis estático no detecta Aviso sobre un aumento prompt injection de prompt injection en un chatbot de producción
Control de acceso y gestión de identidades Aplica el principio del mínimo privilegio a los modelos, las cuentas de servicio y los agentes de IA Las identidades con privilegios excesivos son el principal error de configuración de la IA Revocar los permisos excesivos de una cuenta de servicio vulnerable al robo de credenciales
Aplicación de políticas y corrección automatizada Aplica políticas de seguridad y corrige automáticamente las infracciones Reduce el tiempo medio de resolución a gran escala Rotación automática de las claves API expuestas en un punto final de inferencia de IA

Funcionalidades principales de AI-SPM relacionadas con los resultados de seguridad.

Cómo detecta AI-SPM los errores de configuración

Las configuraciones erróneas de la IA se encuentran entre los riesgos de seguridad más comunes y más perjudiciales relacionados con la IA. Entre los ejemplos más habituales se incluyen los puntos finales de los modelos expuestos y accesibles desde la red pública de Internet, las credenciales predeterminadas en los sistemas de IA en producción, las cuentas de servicio de IA con privilegios excesivos y los flujos de datos de entrenamiento sin cifrar.

El incidente de seguridad en el sistema de contratación basado en IA de McHire pone de manifiesto las consecuencias. Un sistema de contratación basado en IA en entorno de producción, protegido por la contraseña «123456», dejó al descubierto 64 millones de registros de candidatos debido a una vulnerabilidad relacionada con referencias directas a objetos inseguras. Un análisis de la seguridad de las credenciales con AI-SPM habría detectado esta contraseña predeterminada durante la fase de clasificación.

El alcance del riesgo relacionado con las identidades de IA es considerable. El Informe sobre riesgos de seguridad Cloud la IA de Tenable para 2026 reveló que el 18 % de las organizaciones cuenta con identidades de IA con privilegios excesivos, y que el 52 % de las identidades no humanas dispone de permisos críticos excesivos. AI-SPM aborda este problema mediante la detección continua de configuraciones erróneas de identidades y la aplicación de políticas de privilegios mínimos diseñadas específicamente para cargas de trabajo de IA.

AI-SPM frente a CSPM frente a DSPM frente a ASPM

Los equipos de seguridad suelen preguntar cómo se relaciona el AI-SPM con las herramientas de gestión de la postura de seguridad que ya utilizan. La respuesta breve es que cada disciplina protege una capa diferente de la pila tecnológica, y el AI-SPM cubre una laguna que ninguna de las demás fue diseñada para cubrir.

Disciplina Alcance Enfoque principal Tipos de datos tratados Capacidades clave Cuándo utilizarlo Relación con AI-SPM
AI-SPM Modelos de IA, datos de entrenamiento, flujos de inferencia, agentes de IA Riesgos específicos de la IA (envenenamiento, extracción, prompt injection) Peso de los modelos, conjuntos de datos de entrenamiento, indicaciones, acciones de los agentes AI-BOM, pruebas adversarias, supervisión en tiempo de ejecución, gobernanza de agentes Implementar o utilizar cualquier sistema de inteligencia artificial Disciplina principal
CSPM Infraestructura Cloud (IaaS, PaaS) Cloud y desviaciones Cloud Metadatos Cloud , configuraciones de red, políticas de IAM Análisis de configuraciones, detección de desviaciones, evaluaciones comparativas de cumplimiento Ejecución de cargas de trabajo en AWS, Azure o GCP Complementa AI-SPM en el nivel de infraestructura
DSPM Almacenes de datos y flujos de datos Exposición de datos sensibles y gobernanza Datos estructurados y no estructurados en distintos repositorios Detección de datos, clasificación y supervisión del acceso Gestión de datos confidenciales en distintos entornos Solapamientos en los datos de entrenamiento; AI-SPM se amplía al riesgo de los modelos y los agentes
ASPM Código de las aplicaciones y cadena de suministro de software Vulnerabilidades de las aplicaciones y riesgos del ciclo de vida del desarrollo de software Código fuente, dependencias, API, procesos de CI/CD SAST, DAST, SCA y gestión de SBOM Desarrollo e implementación de aplicaciones de software Complementa AI-SPM en la capa de aplicación
AI TRiSM Gestión de la confianza, el riesgo y la seguridad en la IA (marco de Gartner) Gobernanza, ética, explicabilidad y seguridad Todos los datos y procesos relacionados con la inteligencia artificial Supervisión de modelos, detección de sesgos, explicabilidad, seguridad Estrategia de gobernanza de la IA empresarial Marco general; AI-SPM es su componente de seguridad operativa

Comparación entre AI-SPM y otras disciplinas relacionadas con la postura de seguridad.

Estas herramientas funcionan en conjunto, en lugar de competir entre sí. CSPM te indica si la máquina virtual que aloja tu modelo está correctamente configurada. DSPM te indica si los datos que fluyen hacia tu canal de entrenamiento contienen información de identificación personal (PII). ASPM te indica si la aplicación que invoca tu modelo presenta vulnerabilidades. AI-SPM te indica si el propio modelo es seguro, es decir, si puede ser extraído, contaminado o manipulado mediante prompt injection.

Gartner prevé que «hasta 2026, al menos el 80 % de las transacciones de IA no autorizadas se deberán a incumplimientos internos de las políticas de la empresa, más que a ataques maliciosos». Esta conclusión pone de relieve la importancia de las capacidades de aplicación de políticas y supervisión en tiempo de ejecución de AI-SPM: la mayor parte del riesgo asociado a la IA es interno, no proviene de adversarios.

El mercado está convergiendo. La adquisición de Securiti AI por parte de Veeam, por un valor de 1.725 millones de dólares, indica que las capacidades de DSPM y de gobernanza de la IA se están fusionando en plataformas integradas. Las organizaciones deben esperar que la IA-SPM se convierta en una característica estándar dentro de plataformas más amplias de protección de aplicaciones cloud(CNAPP), al tiempo que siga existiendo como soluciones independientes para empresas con un uso intensivo de la IA.

AI-SPM frente a AI TRiSM

AI TRiSM (gestión de la confianza, el riesgo y la seguridad) es un marco de Gartner que abarca todo el ámbito de la gobernanza de la IA, incluyendo la ética, la explicabilidad, la detección de sesgos y el cumplimiento normativo. AI-SPM es el componente de la postura de seguridad operativa dentro del marco AI TRiSM. Mientras que AI TRiSM define lo que las organizaciones deben gobernar, AI-SPM proporciona los controles técnicos continuos para los aspectos específicos de seguridad de dicha gobernanza.

AI-SPM en la práctica: casos reales

Los argumentos a favor de la gestión de riesgos de seguridad de la IA (AI-SPM) cobran sentido al analizar incidentes de seguridad relacionados con la IA que se han producido en la vida real. Cada una de las siguientes brechas de seguridad aprovechó una vulnerabilidad que las capacidades de AI-SPM están diseñadas específicamente para subsanar.

Incidente Fecha Impacto Un control AI-SPM que lo habría evitado
Fallo de seguridad en el sistema OAuth de Salesloft-Drift Agosto de 2025 Más de 700 organizaciones se vieron afectadas en 10 días a causa del robo de tokens OAuth relacionados con la integración de un chatbot de IA Supervisión continua de OAuth y detección de ataques en la cadena de suministro para integraciones de IA
Incumplimiento en la contratación mediante IA de McHire Junio de 2025 Se han filtrado 64 millones de registros de solicitantes debido a una contraseña predeterminada y a una vulnerabilidad IDOR Análisis de la seguridad de las credenciales y prevención de fugas de datos mediante la aplicación de controles de acceso
EchoLeak — Vulnerabilidad de ejecución sin clic en M365 Copilot Junio de 2025 CVE-2025-32711 (CVSS 9.3) permitía una escalada total de privilegios más allá de los límites de confianza de los modelos de lenguaje grande (LLM) mediante prompt injection Supervisión en tiempo de ejecución con prompt injection y aplicación de límites de confianza
Crisis de seguridad relacionada con la IA agentiva de OpenClaw Febrero-marzo de 2026 135 000 instancias expuestas, un 12 % de plugins maliciosos en el mercado, CVE-2026-25253 que permite la ejecución remota de código Gestión del mercado de agentes y análisis de seguridad de los complementos
Fuga de datos de los agentes de Meta AI Marzo de 2026 Un agente de IA interno publicó de forma autónoma un análisis confidencial sin la aprobación de un ingeniero Medidas de control del comportamiento en tiempo de ejecución y aplicación con intervención humana

Incidentes graves de seguridad relacionados con la IA y las capacidades de AI-SPM que los abordan.

El coste medio por incidente de seguridad impulsado por IA asciende a 5,72 millones de dólares, lo que convierte estos incidentes no solo en riesgos teóricos, sino en riesgos financieros tangibles. Muchas de estas organizaciones contaban con herramientas de seguridad tradicionales —cortafuegos, EDR, CSPM—. Sin embargo, no detectaron los ataques porque los vectores de ataque específicos de la IA quedan fuera de su ámbito de detección.

Shadow AI y AI-SPM

La IA en la sombra —el uso no autorizado o no gestionado de herramientas y modelos de IA dentro de una organización— es el riesgo de seguridad relacionado con la IA que causa mayores pérdidas económicas. El estudio «El coste de una filtración de datos en 2025» del Ponemon Institute reveló que las filtraciones relacionadas con la IA en la sombra cuestan 670 000 dólares más que las filtraciones medias (4,63 millones de dólares frente a 3,96 millones) y representan el 20 % del total de filtraciones. Entre las organizaciones que sufrieron filtraciones relacionadas con la IA, el 97 % carecía de controles de acceso adecuados.

AI-SPM aborda la IA en la sombra mediante un proceso de detección continua que utiliza cuatro mecanismos. El análisis del tráfico de red identifica las llamadas a API de IA conocidas. La supervisión de API detecta las solicitudes de inferencia de modelos no autorizadas. La detección basada en identidades correlaciona el uso de la IA con la actividad de los usuarios y las cuentas de servicio. Y la enumeración cloud busca implementaciones de IA no autorizadas en entornos SaaS e IaaS. Para obtener más información sobre los riesgos de la IA en la sombra y las estrategias de gobernanza, consulte el recurso específico sobre IA en la sombra.

IA agencial e IA-SPM

Los agentes de IA autónomos —sistemas capaces de planificar, razonar, utilizar herramientas y actuar de forma independiente— representan la vanguardia de la IA-SPM en 2026. A diferencia de los modelos de IA tradicionales, que responden a indicaciones puntuales, los agentes operan de forma continua, toman decisiones en varios pasos e interactúan con sistemas externos. Esto amplía de manera fundamental la superficie de ataque más allá de lo que abarcaban los marcos de IA-SPM anteriores. Gartner prevé que el 40 % de las aplicaciones empresariales contarán con agentes de IA para 2026; sin embargo, una encuesta de Dark Reading reveló que el 48 % de los profesionales de la ciberseguridad identifican la IA agentiva como el vector de ataque más peligroso, y el 80 % de las organizaciones informan de que los agentes de IA ya han realizado acciones no autorizadas.

El AI-SPM debe ampliarse para regular la identidad de los agentes, los límites de confianza entre ellos y los permisos de acceso a las herramientas. El OWASP Top 10 para aplicaciones con agentes (2026) formaliza esto a través del principio de «mínima agencia», que otorga a los agentes los permisos mínimos necesarios para su tarea, de forma análoga al principio de privilegios mínimos para los usuarios humanos. Para obtener una cobertura exhaustiva de los riesgos de seguridad de la IA con agentes, las estrategias de mitigación y el papel de la AI-SPM en la gobernanza de los agentes, consulte el recurso dedicado a la seguridad de la IA con agentes.

AI-SPM y los marcos de cumplimiento

Las capacidades de AI-SPM se ajustan directamente a los requisitos de los cinco principales marcos normativos y de seguridad, proporcionando registros de pruebas auditables que acreditan el cumplimiento.

Funcionalidad AI-SPM Artículo de la Ley de IA de la UE Función RMF de IA del NIST Ámbito de aplicación de la norma ISO 42001 Táctica de MITRE ATLAS OWASP LLM Top 10
Detección e inventario de activos mediante IA Art. 11 (documentación técnica) Mapa Gobernanza de datos AML.0002 Acceso al modelo ML --
Puntuación y clasificación de riesgos Art. 9 (gestión de riesgos) Gobernar Controles de gobernanza AML.0000 Reconocimiento LLM09 (Dependencia excesiva)
Pruebas de vulnerabilidad y pruebas adversarias Art. 15 (precisión, solidez, ciberseguridad) Medida Desarrollo de modelos AML.0004 Preparación del ataque ML LLM01 (Prompt Injection), LLM03 (Contaminación de los datos de entrenamiento)
Supervisión del tiempo de ejecución Art. 12 (mantenimiento de registros) Gestione Operaciones AML.0004 Preparación del ataque ML LLM02 (Gestión insegura de la salida)
Control de acceso y gestión de identidades Art. 14 (supervisión humana) Gobernar Operaciones AML.0002 Acceso al modelo ML LLM06 (Exceso de agencia)
Origen y trayectoria de los datos Art. 10 (gestión de datos) Mapa Gobernanza de datos -- LLM03 (Envenenamiento de datos de entrenamiento)
Aplicación de políticas y medidas correctivas Art. 9 (gestión de riesgos) Gestione Controles de gobernanza -- --

Correspondencia entre las capacidades de AI-SPM y el marco normativo para la evidencia de cumplimiento.

Ley de IA de la UE. Los operadores de sistemas de IA de alto riesgo deben demostrar que cuentan con controles continuos de gestión de riesgos, gobernanza de datos, documentación técnica y ciberseguridad antes de la fecha límite de aplicación, el 2 de agosto de 2026. Las sanciones por incumplimiento pueden alcanzar los 35 millones de euros o el 7 % de los ingresos globales. AI-SPM automatiza la recopilación de pruebas en relación con los artículos 9 a 15.

Marco de gestión de riesgos de IA del NIST. Las cuatro funciones del RMF de IA del NIST —gobernar, mapear, medir y gestionar— se alinean directamente con el ciclo continuo de AI-SPM. El perfil GenAI del NIST-AI-600-1 añade directrices específicas para los modelos de lenguaje a gran escala que aborda la supervisión en tiempo de ejecución de AI-SPM.

ISO/IEC 42001:2023. Esta norma sobre sistemas de gestión de la IA exige controles en materia de gobernanza de datos, desarrollo de modelos, operaciones y gobernanza. AI-SPM proporciona la capa de implementación técnica para estos controles.

MITRE ATLAS. La versión 5.4.0 recoge 16 tácticas, 84 técnicas y 56 subtécnicas para ataques adversarios contra sistemas de IA. AI-SPM MITRE ATLAS El mapeo permite a los equipos de ingeniería de detección crear una cobertura para técnicas de ataque específicas de la IA, como AML.0002 (Acceso al modelo ML) y AML.0004 (Preparación del ataque ML).

OWASP LLM Top 10. AI-SPM aborda el LLM01 (Prompt Injection) mediante la supervisión en tiempo de ejecución, el LLM03 (envenenamiento de datos de entrenamiento) mediante el seguimiento del linaje de los datos, y el LLM06 (agencia excesiva) mediante la gestión del control de acceso.

Tendencias futuras y consideraciones emergentes

El panorama de la gestión de la seguridad de la IA (AI-SPM) está evolucionando rápidamente a medida que la categoría madura y pasa de los primeros marcos de trabajo a herramientas listas para su uso en producción. En los próximos 12 a 24 meses, varios avances transformarán la forma en que las organizaciones abordan la seguridad de la IA.

Las pruebas de seguridad con agentes de IA se convertirán en una práctica habitual. A medida que se acelere la adopción de la IA agentiva, las organizaciones deberán someter a pruebas proactivas los sistemas de agentes para detectar desviaciones de comportamiento, abusos de permisos y cadenas de ataque de varios pasos. Las pruebas de seguridad con IA que se centren específicamente en los límites de confianza entre agentes y en los patrones de acceso a las herramientas se convertirán en una práctica de seguridad imprescindible, y no en un ejercicio opcional.

La seguridad del protocolo MCP requerirá controles específicos. El Protocolo de Contexto de Modelo (MCP) se está convirtiendo en el estándar dominante para conectar agentes de IA con herramientas externas y fuentes de datos. A medida que aumenten las implementaciones de servidores MCP, la protección de estos puntos de integración —la supervisión del acceso no autorizado a los datos, la aplicación de permisos a nivel de herramienta y la detección de conexiones MCP comprometidas— se convertirá en una capacidad fundamental de la gestión de rendimiento de la IA (AI-SPM).

La convergencia normativa impulsará la estandarización de la gestión del rendimiento de la IA (AI-SPM). El plazo de aplicación de la Ley de IA de la UE, fijado para agosto de 2026, generará la primera oleada de implementaciones de AI-SPM impulsadas por el cumplimiento normativo en Europa. La esperada Guía de mercado de Gartner sobre AI-SPM (prevista para el segundo semestre de 2026) contribuirá a estandarizar aún más los criterios de evaluación y las expectativas en cuanto a capacidades. Las organizaciones deben esperar que el AI-SPM siga la misma trayectoria de maduración que siguió el CSPM: de las mejores prácticas a los requisitos de cumplimiento en un plazo de 24 meses.

La gestión de la postura de seguridad de la IA (AI-SPM) se integrará con la detección en tiempo de ejecución. La evaluación estática de la postura por sí sola no puede detener un ataque activo contra un sistema de IA. La próxima generación de plataformas AI-SPM integrará capacidades de detección de amenazas en tiempo de ejecución, combinando la gestión preventiva de la postura con la detección de ataques en tiempo real para garantizar la seguridad de la IA generativa. Esta integración refleja la tendencia general del sector de la seguridad de fusionar la gestión de la postura y la detección en plataformas unificadas.

Enfoques modernos para la gestión de la seguridad de la IA

El mercado de AI-SPM se está dividiendo en dos modelos de implementación. Las plataformas de AI-SPM independientes ofrecen funciones avanzadas y específicas para organizaciones con importantes implementaciones de IA. Por otra parte, los proveedores actuales de CNAPP están incorporando AI-SPM como una extensión de sus funciones, un enfoque que, según ha señalado SecurityWeek, está haciendo que AI-SPM sea accesible para las organizaciones que ya han invertido en plataformas cloud .

Entre los criterios clave de evaluación para las organizaciones que analizan herramientas de gestión de riesgos de la IA (AI-SPM) se incluyen el alcance de la detección de activos de IA (¿detecta la IA oculta en aplicaciones SaaS?), la profundidad de la supervisión en tiempo de ejecución (¿detecta prompt injection tiempo real?), la cobertura de los informes de cumplimiento (¿se ajusta a la Ley de IA de la UE y al Marco de Gestión de Riesgos de la IA del NIST?), la integración con los flujos de trabajo existentes de SIEM y SOAR, y la compatibilidad con cargas de trabajo de IA con agentes.

Dado que las herramientas de gobernanza de la IA y las capacidades de IA-SPM se solapan cada vez más, las organizaciones deben planificar la IA-SPM tanto como una capacidad independiente como un requisito dentro de su estrategia general de plataforma de seguridad.

Cómo Vectra AI la postura de seguridad en materia de IA

La filosofía de «asumir el compromiso» Vectra AI se aplica directamente a la postura de seguridad de la IA. En lugar de centrarse únicamente en prevenir los ataques a la IA, la metodología da prioridad a la detección y la respuesta ante los atacantes que ya están operando dentro de los sistemas de IA. Attack Signal Intelligence los patrones de comportamiento en toda la red moderna, que cada vez incluye más modelos de IA, agentes y canalizaciones de inferencia como parte de la superficie de ataque unificada. Este enfoque complementa los controles preventivos de IA-SPM con capacidades de detección y respuesta en red que detectan amenazas reales que las herramientas de postura de seguridad por sí solas no pueden detectar.

Conclusión

La gestión del estado de seguridad de la IA ha pasado de ser un concepto emergente a convertirse en una necesidad operativa. A medida que las organizaciones implementan modelos de IA, utilizan funciones SaaS basadas en IA y adoptan agentes autónomos, la superficie de ataque se amplía de formas que las herramientas de seguridad tradicionales no fueron diseñadas para abordar. La gestión del estado de seguridad de la IA (AI-SPM) ofrece las capacidades de visibilidad continua, pruebas, supervisión y cumplimiento necesarias para proteger esta superficie en expansión.

Las organizaciones mejor preparadas para este cambio son aquellas que consideran la gestión de la seguridad de la IA (AI-SPM) como una disciplina de seguridad fundamental, y no como un complemento opcional. Empiece por realizar un inventario de activos de IA, asigne controles a los requisitos normativos, establezca una supervisión en tiempo real para sus sistemas de IA de mayor riesgo e incorpore escenarios específicos de IA en sus guías de respuesta a incidentes.

Para descubrir cómo la detección de suposiciones y compromisos y Attack Signal Intelligence los controles preventivos de AI-SPM, visite el centro de recursos de seguridad Vectra AI .

Preguntas frecuentes

¿Qué son las herramientas AI-SPM?

¿Cómo se implementa el AI-SPM en una empresa?

¿Cuáles son las mejores prácticas en materia de AI-SPM?

¿En qué consiste la supervisión en tiempo de ejecución de la IA?

¿Cómo se integra AI-SPM con SIEM?

¿Cuál es la diferencia entre AI-SPM y la gestión tradicional de la postura de seguridad?

¿Cuál es el coste de no contar con AI-SPM?