En este momento, empleados de toda su organización están utilizando herramientas de IA que usted desconoce. Están pegando datos de clientes en ChatGPT, generando código con cuentas personales de Copilot y procesando documentos confidenciales a través de generadores de imágenes, todo sin la aprobación de TI, revisión de seguridad ni supervisión de cumplimiento. Esto es la shadow AI, y no se trata de una amenaza teórica futura. Está ocurriendo hoy, a gran escala, en organizaciones de todos los tamaños. Investigaciones recientes revelan un panorama alarmante: más del 80 % de los trabajadores utilizan herramientas de IA no aprobadas en su trabajo, incluido casi el 90 % de los profesionales de seguridad, quienes deberían conocer estos riesgos mejor que nadie. Casi la mitad de los empleados que usan plataformas de IA generativa lo hacen a través de cuentas personales que eluden todos los controles empresariales. Para las organizaciones sujetas al Reglamento Europeo de Inteligencia Artificial, cuya aplicación plena entra en vigor en agosto de 2026, la shadow AI representa una bomba de relojería en materia de cumplimiento. No se puede clasificar lo que no se puede encontrar. No se puede documentar lo que se desconoce que existe. Y no se puede demostrar el cumplimiento ante los reguladores cuando amplios segmentos de su uso de IA operan en la sombra.
¿Qué es la shadow AI?
La shadow AI (IA en la sombra) se refiere al uso no autorizado de herramientas, aplicaciones y modelos de inteligencia artificial dentro de una organización sin aprobación oficial, gobernanza ni supervisión de seguridad. Se produce cuando los empleados adoptan tecnologías de IA de forma independiente —a menudo con buenas intenciones relacionadas con la productividad— sin informar a los equipos de TI, seguridad o cumplimiento.
El fenómeno refleja la oleada anterior de shadow IT, en la que los empleados desplegaban servicios y aplicaciones en la nube sin autorización. Sin embargo, la shadow AI introduce riesgos que van mucho más allá de los de su predecesora. Cuando un empleado utiliza una herramienta de gestión de proyectos no autorizada, el riesgo es fundamentalmente operativo. Cuando pega código propietario, datos de clientes o información comercial confidencial en un sistema de IA externo, el riesgo se extiende a la seguridad de los datos, la propiedad intelectual, el cumplimiento normativo y daños potencialmente irreversibles.
Ejemplos habituales de shadow AI
La shadow AI adopta muchas formas en la empresa moderna. En las aplicaciones de productividad general, los empleados utilizan de forma rutinaria ChatGPT, Claude o Gemini para redactar correos electrónicos, resumir documentos, generar informes y responder preguntas. Cuando esto se hace a través de cuentas personales o pestañas de navegador no autorizadas, estas interacciones quedan fuera de la visibilidad corporativa.
Las herramientas de desarrollo representan otro vector: los ingenieros de software integran modelos de lenguaje de gran tamaño en aplicaciones o flujos de trabajo sin revisión de seguridad, incorporando APIs o llamadas a modelos no autorizados directamente en el código de producción. Un desarrollador que utilice una suscripción personal de GitHub Copilot para generar código puede crear inadvertidamente flujos de datos no monitorizados y vulnerabilidades de cumplimiento.
Los equipos de marketing y creatividad adoptan generadores de imágenes con IA, plataformas de optimización de contenido y herramientas de redacción automatizada sin considerar qué datos de entrenamiento o información de clientes pueden ingerir estos servicios. Los departamentos de analítica despliegan herramientas basadas en IA para procesar datos empresariales sensibles, conectándolas a menudo a bases de datos de producción sin conocimiento de TI.
Quizá lo más insidioso sea la IA integrada: muchas aplicaciones SaaS incluyen ahora capacidades de IA que se activan automáticamente o mediante simples cambios de configuración. Las organizaciones pueden tener 50 o más aplicaciones habilitadas con IA en funcionamiento sin ser conscientes de ello. De media, la empresa mediana utiliza aproximadamente 150 herramientas SaaS, y aproximadamente el 35 % incorpora ya tecnología de IA.
Por qué los empleados adoptan la shadow AI
Comprender por qué la shadow AI prolifera es esencial para abordarla de manera eficaz. Los empleados no suelen utilizar herramientas no autorizadas por malicia o negligencia. Lo hacen porque no existen alternativas aprobadas: cuando las organizaciones no proporcionan herramientas de IA autorizadas, los empleados buscan sus propias soluciones. Las ganancias de productividad son demasiado convincentes como para ignorarlas.
Los procesos de aprobación suelen ser demasiado lentos: para cuando TI evalúa y aprueba una herramienta de IA, el momento ha pasado. Los empleados que necesitan cumplir plazos inmediatos no pueden esperar meses a los ciclos de adquisición. Incluso cuando las organizaciones ofrecen plataformas de IA aprobadas, estas pueden carecer de las funcionalidades que los empleados necesitan o imponer restricciones que resultan arbitrarias.
Muchos empleados simplemente no se dan cuenta de que utilizar una cuenta personal de IA para tareas laborales constituye una infracción de las políticas, o de que tales políticas siquiera existen. Las investigaciones muestran que más de un tercio de los empleados cumple las políticas de IA de su empresa solo la mayor parte del tiempo, y un porcentaje significativo ni siquiera sabe que su empresa tiene una política de IA.
Por qué la shadow AI es un problema de cumplimiento bajo el Reglamento Europeo de IA
El Reglamento Europeo de Inteligencia Artificial establece obligaciones específicas para las organizaciones que despliegan sistemas de IA, y dichas obligaciones se aplican independientemente de que el despliegue esté autorizado o no. El desconocimiento del uso de shadow AI no constituye defensa alguna frente al escrutinio regulatorio.
Según el Reglamento Europeo de IA, los responsables del despliegue —organizaciones que utilizan sistemas de IA en contextos profesionales— asumen responsabilidades directas de cumplimiento. Estas incluyen la creación de un inventario de todos los sistemas de IA en uso, su clasificación según categorías de riesgo y la documentación de sus propósitos y parámetros operativos. Los sistemas de IA de alto riesgo requieren monitorización humana continua, y en muchos contextos se debe informar a los usuarios cuando interactúan con sistemas de IA.
La shadow AI socava fundamentalmente cada aspecto de este marco regulatorio. Sin clasificación de riesgo no hay controles de cumplimiento. Si no sabe que un sistema de IA existe, no puede evaluar si entra en las categorías de alto riesgo. Sin documentación hay auditorías fallidas: los reguladores esperan que las organizaciones aporten pruebas de sus esfuerzos de cumplimiento. Sin supervisión hay daños no detectados: los sistemas de shadow AI pueden estar produciendo decisiones sesgadas o procesando datos personales de forma ilícita. Sin registros no hay evidencia para los reguladores cuando algo sale mal.
- Sin clasificación de riesgo no hay controles de cumplimiento
- Sin documentación significa auditorías fallidas
- Sin supervisión los daños pasan inadvertidos
- Sin registros no hay evidencia para los reguladores
Registro en la base de datos del Reglamento Europeo de IA y su intersección con el RGPD
El Reglamento Europeo de IA establece una base de datos pública para los sistemas de IA de alto riesgo. Los proveedores deben registrar sus sistemas antes de introducirlos en el mercado, y los responsables del despliegue que sean autoridades públicas deben registrar su uso de estos sistemas. La shadow AI elude completamente esta infraestructura de registro: los sistemas no autorizados nunca aparecen en la base de datos, creando un universo paralelo de despliegue de IA no rastreado que los reguladores no pueden detectar hasta que un incidente lo saca a la luz.
El problema de cumplimiento se extiende más allá del propio Reglamento de IA. La shadow AI implica frecuentemente el tratamiento de datos personales de formas que infringen el RGPD. Cuando los empleados pegan datos de clientes en sistemas de IA externos, la organización puede carecer de base jurídica para dicho tratamiento. Los interesados nunca consintieron que su información fuera enviada a proveedores de IA de terceros. Las herramientas de shadow AI carecen habitualmente de las salvaguardas técnicas y organizativas que exige el RGPD, y muchos servicios de IA tratan datos fuera de la UE, lo que puede activar restricciones de transferencia internacional.
Las consecuencias financieras
El Reglamento Europeo de IA establece sanciones sustanciales por incumplimiento. Las prácticas de IA prohibidas se enfrentan a multas de hasta 35 millones de EUR o el 7 % de la facturación anual mundial, la cantidad que sea mayor. Los incumplimientos relativos a sistemas de alto riesgo se enfrentan a multas de hasta 15 millones de EUR o el 3 % de la facturación anual mundial, lo que se aplica directamente a situaciones en las que la shadow AI constituye un despliegue de alto riesgo no declarado. Los incumplimientos de transparencia y documentación se enfrentan a multas de hasta 7,5 millones de EUR o el 1 % de la facturación anual mundial.
Estas sanciones pueden aplicarse incluso cuando la organización desconocía genuinamente la existencia del sistema de IA en cuestión. El desconocimiento no constituye una defensa.
Más allá de las multas regulatorias, la shadow AI genera una exposición financiera considerable a través de otros canales. Las brechas de datos asociadas a la IA cuestan a las organizaciones más de 650 000 dólares por incidente de media. La shadow AI amplifica este riesgo al crear flujos de datos que los equipos de seguridad no pueden monitorizar ni proteger. El daño reputacional derivado de decisiones discriminatorias, filtraciones de datos o acciones regulatorias puede superar con creces las sanciones financieras directas.
Cómo descubrir la shadow AI en su organización
Abordar la shadow AI comienza por la visibilidad. Las organizaciones no pueden gobernar lo que no pueden ver, y lograr un descubrimiento integral de la IA requiere combinar múltiples enfoques.
El análisis del tráfico de red puede identificar conexiones a puntos de acceso de servicios de IA conocidos. Los equipos de seguridad pueden configurar cortafuegos, servidores proxy o agentes de seguridad de acceso a la nube (CASB) para detectar y registrar el acceso a plataformas de IA. Los CASB modernos pueden analizar patrones de tráfico cifrado para identificar el uso de IA incluso sin inspeccionar el contenido de los paquetes.
El análisis financiero a través de notas de gastos y transacciones con tarjetas corporativas revela a menudo suscripciones a herramientas de IA que TI nunca aprobó. Cuando los empleados declaran cargos mensuales por servicios de IA, crean un rastro documental que los equipos de cumplimiento pueden seguir.
Los registros de SSO y autenticación revelan a qué aplicaciones de terceros acceden los empleados mediante credenciales corporativas. Los registros de autorización OAuth muestran qué servicios han conectado los empleados a sus cuentas corporativas. Las extensiones de navegador y los agentes de punto final pueden monitorizar el uso de aplicaciones web directamente en los dispositivos corporativos.
La interacción directa con los empleados a menudo revela usos de shadow AI que la monitorización técnica pasa por alto. Las encuestas que enmarcan el descubrimiento de IA como un esfuerzo por comprender las necesidades y proporcionar mejores herramientas —en lugar de como una medida sancionadora— suelen generar respuestas más honestas. Crear programas de amnistía que permitan a los empleados reportar el uso de herramientas no autorizadas sin penalización puede acelerar el descubrimiento al tiempo que genera confianza.
Creación de un inventario de IA
El descubrimiento genera datos sobre el uso de IA, pero las organizaciones necesitan una gestión estructurada del inventario para convertir esos datos en capacidad de cumplimiento. Un inventario integral de IA recoge información clave sobre cada sistema.
- Identificación del sistema: nombre de la herramienta o servicio de IA, su proveedor e información de versión
- Descripción del caso de uso: cómo utiliza la organización el sistema y qué decisiones influye
- Datos de entrada: tipos de datos que procesa el sistema, incluidas las categorías de datos personales
- Alcance de las decisiones: si el sistema proporciona información, emite recomendaciones o ejecuta acciones automatizadas
- Clasificación de riesgo: cómo se corresponde el sistema con las categorías de riesgo del Reglamento Europeo de IA
- Propiedad y responsabilidad: quién es responsable del funcionamiento y cumplimiento del sistema
- Mapa de integración: cómo se conecta el sistema con otras aplicaciones y fuentes de datos empresariales
Clasificación de riesgo del Reglamento Europeo de IA para el inventario
El Reglamento Europeo de IA establece cuatro niveles de riesgo que determinan los requisitos de cumplimiento. El riesgo inaceptable abarca los sistemas de IA prohibidos de pleno, incluidos la puntuación social, la manipulación subliminal y determinados usos de identificación biométrica. El alto riesgo abarca los sistemas de IA que requieren medidas de cumplimiento exhaustivas, incluidos los utilizados en decisiones de empleo, evaluación educativa, acceso a servicios esenciales, aplicación de la ley y gestión migratoria.
El riesgo limitado abarca los sistemas de IA sujetos principalmente a requisitos de transparencia, incluidos los chatbots y determinados sistemas de decisión automatizada. El riesgo mínimo abarca los sistemas de IA sin requisitos regulatorios específicos más allá de las obligaciones generales.
Las entradas del inventario deben incluir clasificaciones de riesgo para posibilitar una gobernanza priorizada. La shadow AI que entre en las categorías de alto riesgo requiere atención inmediata, mientras que los sistemas de riesgo mínimo pueden necesitar únicamente documentación y supervisión básica.
De la shadow AI a la IA gobernada
El descubrimiento y el inventario generan visibilidad, pero las organizaciones deben traducir esa visibilidad en una gobernanza efectiva. Esto implica tomar decisiones conscientes sobre cada sistema de IA: autorizarlo con los controles adecuados, migrar a los usuarios a alternativas aprobadas o bloquearlo por completo.
Para cada sistema de shadow AI descubierto, las organizaciones deben evaluar las brechas de cumplimiento (¿qué requisitos regulatorios incumple el uso actual?), las vulnerabilidades de seguridad (¿qué riesgos crea el sistema para la protección de datos?), la dependencia empresarial (¿cuán integrado está el sistema en los flujos de trabajo críticos?) y las opciones de remediación (¿es capaz el sistema de cumplir los requisitos normativos?).
Algunos sistemas de shadow AI pueden incorporarse a la gobernanza con los controles adecuados: aplicación de políticas, controles técnicos, documentación, establecimiento de supervisión y registro. La autorización transforma la shadow AI en IA gobernada, integrándola en el marco de cumplimiento de la organización y preservando los beneficios de productividad.
Cuando los sistemas de shadow AI no pueden gobernarse eficazmente debido a problemas de seguridad, limitaciones regulatorias o capacidades del proveedor, las organizaciones deben migrar a los usuarios hacia alternativas aprobadas. Esto requiere una evaluación de paridad funcional, gestión del cambio, migración de datos y, finalmente, la aplicación mediante el bloqueo del acceso.
Construcción de un marco de gobernanza sostenible
La gestión de la shadow AI a largo plazo requiere capacidades institucionales que perduren más allá de los esfuerzos puntuales de remediación. Las organizaciones necesitan un comité de gobernanza de IA con supervisión multifuncional que abarque TI, seguridad, asesoría jurídica, cumplimiento y dirección empresarial.
Las políticas deben documentar con claridad el uso aceptable de la IA, los procesos de aprobación y los requisitos de tratamiento de datos. La formación de los empleados debe cubrir los riesgos de la IA, las prácticas de uso responsable y cómo solicitar la aprobación de nuevas herramientas. Un catálogo de herramientas aprobadas debe proporcionar un conjunto curado de plataformas de IA evaluadas que cumplan los requisitos organizativos, ofreciendo a los empleados opciones legítimas.
Los mecanismos de reporte deben crear canales seguros para que los empleados informen sobre el uso de shadow AI sin temor a represalias. Las auditorías periódicas deben verificar la eficacia de la gobernanza e identificar brechas emergentes. La shadow AI no es un problema que las organizaciones puedan resolver una vez y olvidar: a medida que la tecnología de IA evoluciona y proliferan nuevas herramientas, la presión que impulsa la adopción en la sombra continúa.
Preguntas frecuentes
¿Usar ChatGPT en el trabajo es shadow AI?
Si su organización no ha autorizado el uso de ChatGPT con fines empresariales, entonces sí, utilizarlo en el trabajo constituye shadow AI. Esto se aplica tanto si usa una cuenta personal gratuita, una suscripción personal de pago o incluso una cuenta de equipo que no se haya adquirido a través de los canales oficiales. La distinción clave es la autorización y la supervisión: si sus equipos de TI, seguridad o cumplimiento no conocen el uso, no pueden monitorizarlo y no lo han aprobado, el sistema opera en la sombra. Incluso un uso individualmente inofensivo genera brechas de cumplimiento cuando se agrega en toda una organización.
¿Cuáles son las sanciones por IA no detectada bajo el Reglamento Europeo de IA?
Si la shadow AI entra en categorías de alto riesgo y opera sin las medidas de cumplimiento requeridas, las organizaciones se enfrentan a sanciones de hasta 15 millones de EUR o el 3 % de la facturación anual mundial, la cantidad que sea mayor. Si la shadow AI constituye una práctica prohibida, las sanciones alcanzan los 35 millones de EUR o el 7 % de la facturación. Es importante destacar que el desconocimiento no constituye una defensa: las organizaciones no pueden eludir la responsabilidad alegando ignorancia sobre los sistemas de IA que operan dentro de sus límites.
¿Cómo saber si nuestro uso de IA es de alto riesgo según el Reglamento Europeo de IA?
El Reglamento Europeo de IA define los sistemas de IA de alto riesgo a través de dos vías: sistemas de IA que son componentes de seguridad de productos cubiertos por legislación específica de seguridad de productos de la UE, y sistemas de IA en casos de uso específicos, entre los que se incluyen la identificación biométrica, la gestión de infraestructuras críticas, la educación y la formación profesional, el empleo y la gestión de trabajadores, el acceso a servicios esenciales, la aplicación de la ley, la migración y el control de fronteras, y la administración de justicia. Si sus sistemas de shadow AI afectan a estas áreas, probablemente requieran medidas de cumplimiento de alto riesgo.
¿Podemos simplemente prohibir toda la IA para evitar estos problemas de cumplimiento?
Las prohibiciones generales de la IA son generalmente contraproducentes. Las investigaciones demuestran de forma consistente que los empleados siguen utilizando herramientas de IA incluso cuando están explícitamente prohibidas: casi la mitad afirma que continuaría usando IA no autorizada aunque se prohibiera. Prohibir la IA no elimina la shadow AI; empuja el uso más hacia la clandestinidad, dificultando el descubrimiento y agravando las brechas de cumplimiento. El enfoque más eficaz combina políticas claras, catálogos de herramientas aprobadas que satisfagan las necesidades legítimas, formación de los empleados y aplicación selectiva contra los sistemas genuinamente problemáticos.
¿Cuál es la diferencia entre shadow AI y shadow IT?
La shadow IT se refiere al uso no autorizado de cualquier tecnología sin la aprobación de TI. La shadow AI es un subconjunto específico centrado en herramientas de inteligencia artificial. La distinción es relevante porque la shadow AI conlleva riesgos singulares: los datos introducidos en sistemas de IA pueden utilizarse para entrenar modelos futuros, los resultados de la IA pueden ser impredecibles e inexplicables, regulaciones específicas de IA como el Reglamento Europeo de IA crean obligaciones de cumplimiento diferenciadas, y cuando la IA influye en decisiones empresariales, las consecuencias se extienden a la posible discriminación y al impacto sobre derechos fundamentales. La gestión de la shadow AI requiere capacidades de gobernanza específicas de IA que van más allá de la gestión estándar de activos de TI.
Conclusiones clave
La shadow AI no es un problema que las organizaciones puedan resolver una vez y olvidar. A medida que la tecnología de IA evoluciona y proliferan nuevas herramientas, la presión que impulsa la adopción en la sombra continúa. La fecha límite de aplicación de agosto de 2026 del Reglamento Europeo de Inteligencia Artificial genera urgencia para este trabajo. Las organizaciones que esperen hasta que se acerque la fecha límite se encontrarán luchando por comprender su panorama de IA mientras los reguladores inician la supervisión activa. Aquellas que comiencen ahora podrán construir inventarios completos, establecer una gobernanza eficaz y demostrar preparación para el cumplimiento antes de que se intensifique el escrutinio. El descubrimiento y el inventario son los primeros pasos esenciales: sin conocer qué sistemas de IA existen dentro de la organización, ninguna otra actividad de gobernanza es posible.
