Tus empleados ya están utilizando la IA. La pregunta es si tú lo sabes. Según el informe «State of Shadow AI» de UpGuard, más del 80 % de los trabajadores utiliza herramientas de IA no autorizadas, y el informe «2025 Cost of Data Breach» de IBM reveló que una de cada cinco organizaciones ya ha sufrido una filtración relacionada con el uso no autorizado de la IA. La brecha entre la rapidez con la que los empleados adoptan la IA y la lentitud con la que las organizaciones la regulan ha creado una nueva categoría de riesgo empresarial: la IA en la sombra. Este artículo analiza qué es la IA en la sombra, por qué se produce, en qué se diferencia de la TI en la sombra, los riesgos financieros y de cumplimiento que genera, y cómo crear un programa de detección y gobernanza que realmente funcione.
La «IA en la sombra» consiste en el uso de herramientas, modelos y servicios de inteligencia artificial por parte de los empleados sin el conocimiento, la aprobación o la supervisión de los equipos de TI o de seguridad de su organización. Abarca desde un empleado que pega código fuente propietario en ChatGPT hasta departamentos enteros que implementan complementos de IA no autorizados que procesan datos confidenciales de los clientes.
La magnitud del problema es abrumadora. El análisis realizado por Harmonic Security de 22,4 millones de solicitudes de IA en empresas reveló la existencia de 665 herramientas distintas de IA generativa en funcionamiento en entornos corporativos, aunque solo el 40 % de las empresas había contratado suscripciones oficiales de IA. La economía paralela de la IA —el ecosistema en expansión y sin regulación de herramientas de IA de uso gratuito, extensiones de navegador, asistentes de código y funciones SaaS integradas que los empleados adoptan por su cuenta— eclipsa ahora con creces las implementaciones oficiales de IA en la mayoría de las organizaciones.
La definición de «IA en la sombra» va más allá de los chatbots. Abarca asistentes de programación como GitHub Copilot utilizados en cuentas personales, extensiones de navegador basadas en IA, herramientas de traducción y redacción, modelos de código abierto que se ejecutan localmente en los ordenadores portátiles de la empresa y funciones de IA integradas en aplicaciones SaaS que se activan sin que el departamento de TI tenga conocimiento de ello. Se considera como tal cualquier sistema de IA que procese datos de la empresa fuera de los límites del marco de seguridad de la IA.
La urgencia se ha agudizado considerablemente. Gartner prevé que, para 2030, más del 40 % de las empresas sufrirán incidentes de seguridad o de cumplimiento normativo relacionados con el uso no autorizado de IA en la «sombra». El tráfico de IA generativa aumentó más de un 890 % en 2024, y Menlo Security informó de un aumento del 68 % en el uso de IA generativa en la sombra en las empresas en 2025. Solo el 37 % de las organizaciones cuenta con políticas para gestionar o incluso detectar la IA en la sombra (IBM, 2025), lo que deja a la mayoría a ciegas mientras se agravan los riesgos de seguridad de la IA generativa.
La IA en la sombra es un subconjunto y una evolución de la TI en la sombra, pero presenta características distintivas que la hacen más difícil de detectar y mucho más peligrosa de ignorar. Mientras que la TI en la sombra implica el uso de hardware no autorizado, aplicaciones SaaS o cloud , la IA en la sombra procesa, aprende y conserva activamente los datos de la empresa de formas que generan amenazas internas a gran escala.
«Shadow AI» frente a «shadow IT»: diferencias clave que las empresas deben comprender
La IA en la sombra hereda todos los riesgos de la TI en la sombra y añade riesgos relacionados con el tratamiento de datos, la precisión de los resultados y las obligaciones normativas específicas de la IA que marcos normativos como la Ley de IA de la UE exigen ahora.
Comprender las causas fundamentales es esencial para crear un sistema de gobernanza eficaz. La IA en la sombra prospera cuando no existe gobernanza y las herramientas autorizadas no están a la altura de lo que los empleados pueden acceder por su cuenta.
La IA en la sombra genera riesgos financieros, operativos, de cumplimiento normativo y de reputación que se agravan a medida que aumenta su uso. Las pruebas son claras y cuantificables.
La ruta de fuga de datos es sencilla, pero difícil de supervisar. Un empleado copia datos confidenciales, los pega en una herramienta de IA y esos datos salen del perímetro de seguridad de la organización. La cadena de exposición incluye operaciones de copiar y pegar en interfaces de chat, la subida de archivos a plataformas de IA, integraciones de API entre herramientas SaaS y servicios de IA, extensiones de navegador que interceptan el contenido de las páginas y tokens OAuth que otorgan a los agentes de IA acceso persistente a los datos.
El 38 % de los empleados admite haber compartido información laboral confidencial con herramientas de IA sin el permiso de la empresa (CybSafe/NCA, 2024). Es importante destacar que Harmonic Security descubrió que el 16,9 % de las filtraciones de datos confidenciales —98 034 casos— se produjeron en cuentas personales de acceso gratuito, totalmente invisibles para el departamento de TI.
Los casos reales ilustran el impacto práctico de la IA en la sombra en todos los sectores.
Tres ingenieros de semiconductores de Samsung filtraron datos confidenciales al pegar código fuente, transcripciones de reuniones y secuencias de pruebas de rendimiento de chips en ChatGPT en el transcurso de un solo mes. Samsung prohibió inicialmente el uso de ChatGPT, pero luego revocó la decisión para desarrollar una solución interna de IA. El incidente pone de manifiesto una tendencia: las prohibiciones reactivas fracasan, y las organizaciones necesitan políticas proactivas de uso aceptable y una clasificación de datos antes de que la IA en la sombra se arraigue.
Una encuesta realizada en 2026 reveló que el 57 % de los profesionales sanitarios se ha encontrado con herramientas de IA no autorizadas o las ha utilizado. Los médicos utilizan ChatGPT, Claude y Gemini para redactar informes SOAP, generar hipótesis diagnósticas y elaborar planes de tratamiento, procesando información sanitaria protegida sin contar con acuerdos de socio comercial. Los riesgos en materia de ciberseguridad sanitaria son dobles: las violaciones de la privacidad de la HIPAA y las preocupaciones sobre la precisión clínica, que pueden afectar directamente a la seguridad de los pacientes.
Una intervención en el sistema sanitario logró una reducción del 89 % en el uso no autorizado de la IA, además de un ahorro de 32 minutos diarios por profesional sanitario, al proporcionarles herramientas autorizadas. La conclusión es clara: si se proporcionan las herramientas y se establecen los límites, el uso pasa de ser clandestino a estar autorizado.
Un estudio global de IBM realizado entre 600 organizaciones cuantificó el impacto financiero. La IA en la sombra aumentó en 670 000 dólares el coste medio de las violaciones de seguridad; el 20 % de las organizaciones informó de violaciones causadas específicamente por la IA en la sombra, y solo el 37 % contaba con políticas de detección o de gobernanza. Para los CISO que elaboran un caso de negocio, el retorno de la inversión (ROI) de la gobernanza está implícito en estas cifras: un programa de gobernanza que cuesta menos de 670 000 dólares al año se amortiza con una sola violación de seguridad.
Para detectar eficazmente la IA «en la sombra» se requiere una arquitectura multicapa. No existe una única herramienta que cubra todos los vectores, y las organizaciones que confíen en un solo método de detección pasarán por alto las herramientas de IA que operan a través de otros canales.
Arquitectura de detección de IA de múltiples capas que abarca la visibilidad de la red, el SaaS, los puntos finales y los navegadores
La metodología de auditoría de ISACA recomienda integrar estos pasos en los ciclos de auditoría de TI existentes. Una empresa media registra 223 incumplimientos de las políticas de datos al mes relacionados con el uso de la IA (Netskope, 2026), lo que hace que la supervisión continua sea esencial.
Una detección eficaz de amenazas es solo la mitad del camino. La otra mitad consiste en lograr que la gobernanza beneficie a las personas, en lugar de ir en su contra.
La gobernanza de la IA en la sombra funciona cuando se centra en los límites de los datos y en las alternativas autorizadas, en lugar de en prohibiciones generales que los empleados acabarán eludiendo. Solo el 37 % de las organizaciones cuenta con políticas de gobernanza (IBM, 2025), lo que significa que el 63 % opera sin medidas de protección.
Una política eficaz de IA «en la sombra» debería clasificar las herramientas de IA en tres niveles: totalmente aprobadas (sin restricciones más allá del tratamiento habitual de datos), de uso limitado (aprobadas con normas específicas de tratamiento de datos) y prohibidas (herramientas de alto riesgo o que incumplen la normativa). La Cloud Alliance recomienda un marco de gobernanza de cinco pasos: identificar, clasificar, evaluar el riesgo, implementar controles y supervisar de forma continua.
Entre los componentes clave de la gobernanza se incluyen la integración de la gobernanza de la IA en la sombra en los marcos de gestión de riesgos existentes, en consonancia con el Marco de Gestión de Riesgos de la IA (AI RMF) del NIST y los requisitos de cumplimiento; comités de gobernanza de la IA multifuncionales que abarquen las áreas de seguridad, asuntos jurídicos, cumplimiento normativo y unidades de negocio; formación en conocimientos básicos sobre IA impartida junto con controles técnicos; y auditorías periódicas de IA que inventaríen todos los sistemas de IA en uso. Las organizaciones que utilizan herramientas de gobernanza de la IA para automatizar la detección y la aplicación de políticas logran una cobertura más rápida que aquellas que dependen únicamente de procesos manuales.
Shadow AI hace que el cumplimiento normativo sea imposible, ya que las organizaciones no pueden gestionar, inventariar ni clasificar según el riesgo los sistemas de IA cuya existencia desconocen. Los puntos ciegos en materia de cumplimiento son específicos y cuantificables.
Cómo la IA «en la sombra» genera lagunas en el cumplimiento normativo en los principales marcos reguladores
Gartner prevé que el gasto en gobernanza de la IA alcanzará los 492 millones de dólares en 2026 y superará los 1000 millones de dólares en 2030, lo que constituye una clara señal de que las organizaciones reconocen la importancia del cumplimiento normativo.
La IA en la sombra está evolucionando más allá de las interacciones con chatbots para convertirse en agentes autónomos que operan a la velocidad de las máquinas, sin supervisión humana y con acceso permanente a los sistemas empresariales. La IA en la sombra de tipo «agente» —agentes de IA autónomos implementados por los empleados o integrados en herramientas SaaS que toman decisiones, acceden a datos e interactúan con los sistemas de forma independiente— representa una categoría de riesgo fundamentalmente diferente.
La distinción es importante. La IA en la sombra tradicional consiste en que un humano introduzca datos en ChatGPT para una única interacción. La IA en la sombra agentiva consiste en un agente autónomo con acceso a la API que encadena acciones a través de múltiples servicios, funciona de forma continua y toma decisiones sin revisión humana. Estos agentes actúan como «informadores operativos» persistentes y a velocidad de máquina que eluden por completo los marcos de gobernanza tradicionales.
La amenaza no es teórica. El Informe sobre amenazas globales de 2026 de CrowdStrike reveló que los atacantes han aprovechado herramientas de IA generativa en más de 90 organizaciones, y que ChatGPT se menciona un 550 % más a menudo en foros delictivos. El 98 % de las organizaciones informa de un uso no autorizado de la IA, y el 49 % prevé incidentes de IA en la sombra en los próximos 12 meses. Gartner prevé que el 40 % de las aplicaciones empresariales contará con agentes de IA específicos para cada tarea a finales de 2026, frente a menos del 5 % en 2025.
Entre los vectores de amenaza se incluyen los servidores MCP (Model Context Protocol) que exponen API internas, las extensiones de navegador con capacidades de agente de IA, los agentes conectados mediante OAuth con acceso persistente a los datos y la proliferación de tokens de API que genera cadenas de acceso sin supervisar. La seguridad de la IA de tipo agente requiere supervisar no solo lo que los empleados hacen con la IA, sino también lo que la IA hace por sí misma, incluida prompt injection que utilizan como arma agentes en la sombra no protegidos. Tal y como informa CIO.com, los marcos de gobernanza tradicionales se diseñaron para interacciones a velocidad humana e iniciadas por humanos, y no pueden seguir el ritmo del comportamiento de los agentes autónomos.
El sector está llegando a un consenso en torno a un principio claro: la regulación frente a la prohibición. Samsung se retractó de su prohibición inicial de ChatGPT. Las organizaciones sanitarias que ofrecieron alternativas autorizadas registraron una reducción del 89 % en el uso no autorizado. La tendencia es clara: las organizaciones que proporcionan herramientas de IA seguras y establecen límites en el uso de los datos obtienen mejores resultados que aquellas que intentan aplicar prohibiciones generales.
La defensa moderna contra la IA «en la sombra» requiere una visibilidad unificada de toda la superficie de ataque híbrida. Entre las capacidades emergentes se incluyen las plataformas de seguridad nativas de IA, la gestión de la postura de seguridad en el SaaS, la prevención de pérdida de datos (DLP) a nivel del navegador y la supervisión mediante IA con reconocimiento de identidades. La detección y respuesta en red sigue siendo la capa fundamental, ya que el análisis del tráfico hacia los terminales de IA generativa proporciona visibilidad independientemente de las herramientas que elijan los empleados.
La IA oculta es, en esencia, un problema de visibilidad y señales. Las organizaciones que se basan únicamente en políticas o controles de puntos finales pasarán por alto las herramientas de IA que operan en su red, cloud, la identidad y las superficies SaaS. El enfoque Vectra AI considera la red moderna como una superficie de ataque unificada, que abarca la infraestructura local,cloud, de identidad, SaaS y de IA. El tráfico de IA no autorizado, los flujos de datos anómalos hacia servicios de IA externos y los riesgos basados en la identidad derivados de la proliferación de tokens OAuth generan señales de comportamiento. La detección basada en IA captura estas señales, lo que permite a los equipos de seguridad detectar lo que las políticas por sí solas no pueden ver.
La IA en la sombra no es un problema que las organizaciones puedan ignorar, prohibir o resolver con una sola herramienta. Los datos son inequívocos: el 80 % de los empleados utiliza IA no autorizada, la IA en la sombra aumenta los costes de las violaciones de seguridad en 670 000 dólares y solo el 37 % de las organizaciones cuenta con políticas de gobernanza. A medida que la IA evoluciona, pasando de los chatbots a los agentes autónomos, la superficie de riesgo se está ampliando más rápido de lo que la mayoría de los equipos de seguridad se dan cuenta.
El camino a seguir combina visibilidad, gobernanza y capacitación. Detecta la IA en la sombra en todas las capas de la empresa. Establece políticas que definan límites para los datos en lugar de prohibiciones generales. Ofrece alternativas autorizadas que hagan del cumplimiento normativo la opción más sencilla. Y prepárate para la IA en la sombra autónoma supervisando no solo lo que los empleados hacen con la IA, sino también lo que la IA hace por sí misma.
Las organizaciones que asuman que pueden sufrir una brecha de seguridad e inviertan en una visibilidad unificada de toda su superficie de ataque híbrida estarán en condiciones de gestionar este riesgo. Las que esperen a que se produzca una brecha para actuar pagarán las consecuencias.
Descubre cómo Vectra AI una visibilidad unificada de toda tu superficie de ataque.
La «IA en la sombra» no es ilegal en sí misma, pero conlleva una responsabilidad jurídica considerable. Cuando los empleados utilizan herramientas de IA no autorizadas para tratar datos personales, las organizaciones se exponen a infringir el RGPD, lo que puede acarrear multas de hasta 20 millones de euros o el 4 % de la facturación anual mundial. El tratamiento de información sanitaria protegida mediante herramientas de IA no cubiertas por un acuerdo BAA (Business Associate Agreement) infringe la HIPAA. La Ley de IA de la UE introduce requisitos de responsabilidad adicionales: si los empleados implementan IA para tareas clasificadas como de alto riesgo en virtud de la Ley sin el conocimiento de la organización, esta asume la responsabilidad del implementador con multas de hasta el 6 % de la facturación global. La legalidad depende en última instancia de qué datos se introducen en la herramienta de IA, qué normativas se aplican a la organización y si el uso de la IA genera resultados con consecuencias legales. Las organizaciones no pueden alegar desconocimiento como defensa cuando los reguladores pregunten qué sistemas de IA se están utilizando.
Técnicamente, las organizaciones pueden implementar bloqueos de dominios, reglas de cortafuegos y políticas de uso aceptable que prohíban las herramientas de IA no autorizadas. En la práctica, la prohibición rara vez funciona. Las investigaciones demuestran sistemáticamente que casi la mitad de los empleados seguiría utilizando cuentas personales de IA incluso tras una prohibición formal. Samsung prohibió inicialmente ChatGPT tras una filtración de datos, pero más tarde revocó la decisión para ofrecer alternativas internas autorizadas. El consenso del sector es que la gobernanza funciona mejor que la prohibición. Un enfoque que priorice la gobernanza —proporcionar herramientas de IA autorizadas, establecer límites claros para los datos, implementar la supervisión en lugar del bloqueo y realizar auditorías periódicas— produce resultados notablemente mejores. Las organizaciones sanitarias que proporcionaron alternativas autorizadas lograron una reducción del 89 % en el uso no autorizado, además de un ahorro de 32 minutos diarios por profesional sanitario.
La IA en la sombra genera un tratamiento incontrolado de los datos personales que incumple directamente varias disposiciones del RGPD. El artículo 5 exige un tratamiento lícito y transparente; la IA en la sombra elude ambos requisitos, ya que las organizaciones carecen de visibilidad sobre los datos que comparten los empleados. El artículo 28 exige la celebración de acuerdos de tratamiento de datos con los encargados del tratamiento; cuando los empleados utilizan la versión gratuita de ChatGPT para tratar datos de clientes, no existe tal acuerdo entre la organización y OpenAI. El artículo 35 exige evaluaciones de impacto relativas a la protección de datos para el tratamiento de alto riesgo; esto es imposible en el caso de herramientas de IA que la organización desconoce. Las multas pueden alcanzar los 20 millones de euros o el 4 % de la facturación anual mundial, lo que sea mayor. Más allá de las multas, la IA en la sombra genera lagunas en las solicitudes de acceso de los interesados (DSAR), ya que las organizaciones no pueden informar sobre un tratamiento de datos que no han autorizado ni supervisado.
El sector sanitario se enfrenta a algunos de los mayores riesgos relacionados con la IA «en la sombra» debido a la sensibilidad de los datos de los pacientes y a los estrictos requisitos de la HIPAA. Una encuesta realizada en febrero de 2026 por Healthcare Brew reveló que el 57 % de los profesionales sanitarios se ha encontrado con herramientas de IA no autorizadas o las ha utilizado. Los médicos utilizan ChatGPT, Claude y Gemini para redactar notas SOAP, generar hipótesis diagnósticas, sintetizar planes de tratamiento y crear materiales educativos para los pacientes, a menudo procesando información sanitaria protegida sin acuerdos de socio comercial. Los riesgos son dobles: las infracciones de la HIPAA en materia de privacidad, que acarrean multas de hasta 1,5 millones de dólares por categoría de infracción, y las preocupaciones sobre la precisión clínica, ya que el contenido médico generado por IA podría afectar directamente a la seguridad de los pacientes. Sin embargo, existen soluciones. Un sistema sanitario que proporcionó herramientas de IA aprobadas observó una reducción del 89 % en el uso no autorizado y un ahorro de tiempo diario de 32 minutos por médico, lo que demuestra que el modelo de gobernanza adecuado protege tanto los datos como la productividad.
El análisis de Gartner de noviembre de 2025, basado en una encuesta realizada a 302 responsables de ciberseguridad, prevé que, para 2030, más del 40 % de las empresas sufrirán incidentes de seguridad o de cumplimiento normativo relacionados con el uso no autorizado de IA en la «sombra». La misma investigación reveló que el 69 % de las organizaciones ya sospecha o tiene pruebas de que los empleados utilizan herramientas públicas de IA generativa prohibidas. Gartner también prevé que el gasto en gobernanza de la IA alcanzará los 492 millones de dólares en 2026 y superará los 1000 millones de dólares en 2030, lo que supone un aumento del 100 % que refleja la urgencia que las organizaciones atribuyen a este riesgo. Además, Gartner prevé que el 40 % de las aplicaciones empresariales contarán con agentes de IA específicos para cada tarea a finales de 2026, frente a menos del 5 % en 2025, lo que ampliará significativamente el ámbito de actuación de la IA en la sombra de tipo agente.
Una política eficaz sobre IA «en la sombra» comienza con un sistema de clasificación de tres niveles para las herramientas de IA. Las herramientas totalmente aprobadas no tienen restricciones más allá de las políticas estándar de tratamiento de datos. Las herramientas de uso limitado se aprueban con normas específicas de tratamiento de datos; por ejemplo, un asistente de código puede utilizarse para código no propietario, pero no para sistemas de producción. Las herramientas prohibidas incluyen aquellas que no superan las evaluaciones de seguridad, operan en jurisdicciones con problemas de soberanía de datos o carecen de garantías de tratamiento de datos empresariales. La política debe definir explícitamente qué categorías de datos pueden y no pueden introducirse en las herramientas de IA, exigir la divulgación del uso de la IA en los procesos empresariales, establecer un proceso de aprobación claro para las nuevas herramientas, exigir auditorías periódicas e incluir consecuencias por las infracciones. Centrar la gobernanza en los límites de los datos en lugar de en la prohibición de herramientas. ISACA recomienda integrar los requisitos de auditoría de IA en los marcos de auditoría de TI existentes para acelerar la adopción y garantizar la cobertura.
Los agentes de seguridad Cloud (CASB) actúan como una capa de detección fundamental para la IA en la sombra, ya que supervisan cloud e identifican las conexiones a servicios de IA conocidos. Los CASB detectan a qué aplicaciones SaaS de IA acceden los empleados, aplican políticas de prevención de pérdida de datos (DLP) al flujo de datos hacia las herramientas de IA, proporcionan visibilidad sobre los tokens OAuth y las conexiones API que utilizan los agentes de IA en la sombra, y generan informes de uso que cuantifican la exposición a la IA en la sombra. Sin embargo, los CASB por sí solos no son suficientes para una detección exhaustiva de la IA en la sombra. Normalmente pasan por alto los modelos de IA locales que se ejecutan en los puntos finales, no pueden inspeccionar las llamadas a API cifradas de algunas herramientas de IA y tienen una visibilidad limitada de las interacciones basadas en el navegador con los servicios de IA. Una detección eficaz de la IA en la sombra combina los CASB con el análisis del tráfico de red, la supervisión de puntos finales, el DLP a nivel del navegador y la supervisión basada en la identidad para controlar la proliferación de tokens OAuth. Este enfoque multicapa garantiza que ninguna brecha de detección permita que la IA en la sombra opere sin ser detectada.