Los agentes de IA —sistemas autónomos que razonan, utilizan herramientas y actúan de forma independiente— están sujetos a estrictos requisitos de cumplimiento en virtud del Reglamento Europeo de Inteligencia Artificial (EU AI Act), y la mayoría de las implantaciones empresariales en sectores regulados activan la clasificación de «alto riesgo». Las organizaciones tienen hasta el 2 de agosto de 2026 para alcanzar el pleno cumplimiento en sistemas de IA de alto riesgo, lo que exige entre 8 y 14 meses de preparación. Las consecuencias del incumplimiento son severas: multas de hasta 35 millones de euros o el 7 % del volumen de negocios global, además de la retirada obligatoria de los sistemas no conformes del mercado. Los directivos de servicios financieros, sanidad, seguros y administración pública deben actuar de inmediato: los organismos notificados ya están agendando evaluaciones de conformidad para el segundo trimestre de 2026.
Los agentes de IA funcionan de forma radicalmente distinta a los modelos de IA tradicionales
Los modelos tradicionales de aprendizaje automático siguen flujos de trabajo predecibles y predeterminados. Se introducen datos, el modelo los procesa mediante algoritmos fijos y devuelve una predicción o clasificación. Un modelo de scoring crediticio, por ejemplo, recibe los datos de un solicitante y devuelve una puntuación de riesgo. Son las personas quienes deciden qué hacer con esa puntuación.
Los agentes de IA funcionan de manera completamente diferente. Persiguen objetivos de forma autónoma, descomponiendo metas complejas en pasos, utilizando herramientas externas y adaptando su enfoque en función de la retroalimentación en tiempo real, todo ello con una supervisión humana mínima. Un agente de IA que gestione la atención al cliente podría acceder a su CRM, consultar sistemas de inventario, redactar correos electrónicos y procesar reembolsos sin que una persona apruebe cada paso.
Esta distinción es de enorme relevancia para el cumplimiento normativo. El 86 % de los ejecutivos familiarizados con la IA agéntica considera que plantea riesgos adicionales en comparación con la IA tradicional. El Reglamento Europeo de IA lo reconoce, exigiendo medidas de supervisión humana «proporcionales a los riesgos, el nivel de autonomía y el contexto de uso» en virtud del Artículo 14.
- Autonomía: Toma de decisiones sin intervención humana — no es posible depender exclusivamente de controles establecidos en la fase de diseño
- Uso de herramientas: Interacción directa con sistemas externos, API y bases de datos, lo que amplía la superficie de ataque potencial
- Razonamiento en múltiples pasos: Cadenas de decisión complejas que dificultan la comprensión de por qué se tomaron determinadas decisiones
- Comportamiento orientado a objetivos: Adaptación dinámica hacia resultados, con la posibilidad de producir efectos inesperados
- Interacción con el entorno: Efectos en el mundo real a través de transacciones y modificaciones de sistemas que pueden ser irreversibles
Cómo se clasifican los agentes de IA en las categorías de riesgo del Reglamento Europeo de IA
El Reglamento Europeo de IA establece un marco de riesgo en cuatro niveles: riesgo inaceptable (prohibido), alto riesgo (fuertemente regulado), riesgo limitado (obligaciones de transparencia) y riesgo mínimo (sin requisitos obligatorios). Aunque la norma no menciona explícitamente «agentes de IA» ni «IA agéntica», su diseño tecnológicamente neutro abarca claramente los sistemas autónomos.
La mayoría de los agentes de IA empresariales en sectores regulados se clasificarán como de alto riesgo. Esto ocurre a través de varias vías establecidas en el Artículo 6 y el Anexo III.
El primer factor desencadenante es la elaboración de perfiles. Cualquier sistema de IA que realice la elaboración de perfiles de personas físicas —el procesamiento automatizado de datos personales para evaluar el rendimiento laboral, la situación económica, la salud, las preferencias, el comportamiento o la ubicación— se clasifica automáticamente como de alto riesgo. Dado que muchos agentes de IA personalizan interacciones o formulan recomendaciones basadas en datos de los usuarios, esta disposición afecta a una parte significativa de las implantaciones empresariales.
El segundo factor desencadenante son las categorías del Anexo III: aplicaciones de empleo y gestión de trabajadores (contratación, cribado de currículos, evaluación del rendimiento, asignación de tareas, decisiones de despido), acceso a servicios esenciales (scoring crediticio, elegibilidad para prestaciones públicas, evaluación de riesgos de seguros), infraestructuras críticas (componentes de seguridad en infraestructuras digitales, suministros y energía) y aplicaciones educativas, todas ellas clasificadas como de alto riesgo.
La implicación práctica: si está desplegando agentes de IA en servicios financieros, sanidad, seguros o administración pública, planifique para el cumplimiento de alto riesgo, salvo que disponga de pruebas claras de exención.
El plazo de agosto de 2026 y sus implicaciones
El Reglamento Europeo de IA entró en vigor el 1 de agosto de 2024, con un calendario de implementación escalonado. La fecha crítica para la mayoría de las organizaciones es el 2 de agosto de 2026, cuando las normas relativas a los sistemas de IA de alto riesgo serán plenamente exigibles.
Lo que esta fecha implica incluye el pleno cumplimiento de los requisitos del Capítulo III para sistemas de alto riesgo, la realización obligatoria de evaluaciones de conformidad, el registro en la base de datos de la UE antes de la comercialización, la plena operatividad de las competencias de vigilancia del mercado y ejecución, y la aplicabilidad de las disposiciones sancionadoras.
El plazo de preparación es más largo de lo que la mayoría de las organizaciones estiman. Los expertos en cumplimiento calculan un mínimo de 32 a 56 semanas para alcanzar la conformidad. El inventario de sistemas y el análisis de brechas suele requerir de 4 a 8 semanas. Las modificaciones técnicas precisan de 12 a 20 semanas para la gobernanza de datos, las funcionalidades de supervisión humana y las herramientas de transparencia. La evaluación de conformidad necesita de 8 a 16 semanas entre pruebas internas, selección del organismo notificado y remediación.
Si su organización comienza en enero de 2026, ya va con el tiempo justo. Los organismos notificados están reservando plazas de evaluación hasta el segundo trimestre de 2026, lo que genera restricciones de capacidad.
- Infracciones de prácticas prohibidas: Multas de hasta 35 millones de euros o el 7 % del volumen de negocios anual global
- Infracciones en sistemas de alto riesgo: Sanciones de hasta 15 millones de euros o el 3 % del volumen de negocios
- Suministro de información falsa: Multas de hasta 7,5 millones de euros o el 1 % del volumen de negocios
- Las autoridades pueden exigir la retirada de los sistemas no conformes del mercado
Los requisitos de supervisión humana exigen nuevos modelos operativos
El Artículo 14 establece obligaciones específicas de supervisión humana para los sistemas de IA de alto riesgo, con implicaciones particulares para los agentes de IA autónomos.
El principio fundamental es que los sistemas de IA de alto riesgo deben diseñarse de modo que puedan ser supervisados eficazmente por personas físicas durante su uso. El objetivo es prevenir o minimizar los riesgos para la salud, la seguridad y los derechos fundamentales. Es esencial que las medidas de supervisión sean proporcionales a los riesgos, al nivel de autonomía y al contexto de uso, lo que significa que los sistemas más autónomos requieren una supervisión más intensiva.
El Reglamento especifica cinco capacidades que deben poseer los supervisores humanos: Comprensión (pleno conocimiento de las capacidades del sistema con capacidad para detectar anomalías), Conciencia del sesgo de automatización (reconocimiento de la tendencia a confiar excesivamente en los resultados de la IA), Interpretación (acceso a herramientas para comprender correctamente las salidas de la IA), Capacidad de anulación (poder para ignorar los resultados o revertir decisiones) y Capacidad de intervención (posibilidad de interrumpir el sistema mediante un botón de parada o procedimiento similar).
Para los agentes de IA, estos requisitos plantean desafíos de implementación significativos. El comportamiento emergente implica que los agentes aprenden a través de la interacción, provocando que su conducta evolucione de formas imprevistas — las evaluaciones de riesgo estáticas realizadas a priori resultan insuficientes. El riesgo de integración externa surge porque los agentes interactúan de forma autónoma con herramientas de terceros, y las vulnerabilidades pueden propagarse en cascada. La brecha de responsabilidad se debe a que los agentes operan mediante innumerables microdecisiones, lo que dificulta rastrear por qué ocurrió algo.
- Humano en el bucle (human-in-the-loop): Participación directa y aprobación previa a la decisión para determinaciones críticas
- Humano sobre el bucle (human-on-the-loop): Supervisión continua e intervención basada en excepciones para el procesamiento de alto volumen
- Humano al mando (human-in-command): Las personas mantienen la autoridad última y el poder de veto en infraestructuras críticas
El registro tradicional es insuficiente para los agentes de IA: esto es lo que realmente necesita
El Artículo 12 del Reglamento Europeo de IA exige capacidades de registro automático para los sistemas de IA de alto riesgo, a fin de documentar los eventos a lo largo de todo su ciclo de vida. El registro convencional de entradas y salidas resulta drásticamente insuficiente para los agentes de IA.
El problema fundamental es que conocer lo que entró y lo que salió no explica por qué un agente de IA tomó una decisión concreta. Cuando los agentes ejecutan razonamientos en múltiples pasos, invocan diversas herramientas y adaptan su enfoque en función de resultados intermedios, se necesita una granularidad a nivel de trazas para reconstruir las vías de decisión.
Una pista de auditoría integral para agentes de IA debe capturar el registro de transacciones principales (metadatos de sesión, contexto de usuario, captura de entradas), la documentación de la cadena de decisiones (pasos de razonamiento, llamadas a herramientas y resultados, información de contexto y estado, estados previos y posteriores), los registros de supervisión humana (marcadores de revisión, documentación de intervenciones, registros de escalado) y las señales de calidad y cumplimiento (evaluaciones automatizadas, puntuaciones de confianza, indicadores de privacidad).
El Artículo 19 exige que los proveedores conserven los registros durante al menos seis meses, o más si así lo establecen regulaciones sectoriales específicas. La industria está convergiendo hacia enfoques de trazabilidad distribuida basados en los estándares OpenTelemetry, superando el registro tradicional para capturar la ruta de ejecución completa desde la solicitud inicial hasta la acción final.
Los servicios financieros se enfrentan a requisitos regulatorios superpuestos
Las organizaciones de servicios financieros que despliegan agentes de IA deben navegar el Reglamento Europeo de IA junto con marcos normativos preexistentes como MiFID II, Basilea III/IV, CRR/CRD y el Reglamento de Resiliencia Operativa Digital (DORA).
La orientación de ESMA publicada en mayo de 2024 sobre IA en servicios de inversión establece requisitos fundamentales. Las entidades deben mantener un «compromiso inquebrantable» de actuar en el mejor interés de sus clientes, independientemente de si las decisiones son tomadas por personas o por IA. Los órganos de dirección siguen siendo plenamente responsables de las decisiones impulsadas por la IA. El asesoramiento de inversión proporcionado a través de agentes de IA exige rigurosas evaluaciones de idoneidad.
En materia organizativa, ESMA espera estructuras de gobernanza robustas con pruebas y controles ex ante, sistemas de gestión de riesgos que aborden específicamente los sesgos algorítmicos, un registro exhaustivo que documente la utilización de la IA y los procesos de toma de decisiones, además de formación del personal que cubra las implicaciones operativas, éticas y regulatorias.
La ABE (EBA) supervisa la adopción de IA en el sector bancario con especial atención a los modelos de riesgo crediticio. Los sistemas de IA utilizados para el scoring crediticio o la evaluación de la solvencia de personas físicas están clasificados explícitamente como de alto riesgo en virtud del Reglamento de IA. Los modelos complejos de aprendizaje automático deben equilibrar la precisión predictiva con los requisitos de explicabilidad.
Las organizaciones sanitarias se enfrentan a un doble cumplimiento: MDR y Reglamento de IA
Los dispositivos médicos con IA operan en un entorno regulatorio dual complejo, que exige el cumplimiento tanto del Reglamento Europeo de IA como del Reglamento de Productos Sanitarios (MDR) o del Reglamento de Diagnóstico In Vitro (IVDR).
Los dispositivos médicos con IA se clasifican como de alto riesgo en virtud del Reglamento de IA si el sistema de IA es un componente de seguridad del dispositivo o el propio dispositivo es un sistema de IA, y requiere una evaluación de conformidad por terceros conforme al MDR/IVDR. En la práctica, esto implica que los dispositivos MDR de Clase IIa, IIb y III y los IVDR de Clase B a D son normalmente de alto riesgo según el Reglamento de IA.
La Comisión Europea ha publicado orientaciones que permiten a las organizaciones adoptar enfoques integrados. Un único sistema de gestión de calidad puede satisfacer ambas normativas. La documentación técnica puede basarse en un único conjunto de documentos. La gestión de riesgos puede integrar la evaluación específica de IA con los Requisitos Generales de Seguridad y Rendimiento del Anexo I.
El calendario difiere del de otros sectores: las obligaciones para sistemas de IA de alto riesgo se aplican a los dispositivos médicos incluidos en el Anexo II en agosto de 2027, con una posible extensión hasta agosto de 2028 si se retrasan las medidas de apoyo.
La IA en seguros afronta las directrices de EIOPA y los imperativos de no discriminación
EIOPA publicó directrices exhaustivas en agosto de 2025 que interpretan la legislación de seguros vigente —Solvencia II, IDD y DORA— en el contexto de la IA.
En virtud del Reglamento de IA, la evaluación de riesgos y la tarificación en seguros de vida y salud están explícitamente designadas como de alto riesgo, exigiendo el pleno cumplimiento del Capítulo III. Otras aplicaciones de IA en seguros se rigen por las directrices de EIOPA, que enfatizan la evaluación de riesgos mediante una evaluación de impacto en dos fases, la equidad a través de métricas de no discriminación, una gobernanza de datos integral, documentación con pistas de auditoría completas, transparencia ante autoridades y clientes, y supervisión humana a lo largo de todo el ciclo de vida del sistema.
Los requisitos de equidad y no discriminación son especialmente rigurosos. Los sistemas de IA no deben producir resultados discriminatorios basados en características protegidas como el género, la raza, la edad o la discapacidad. Las organizaciones deben implementar técnicas estadísticas de detección de sesgos, como el análisis de impacto dispar, documentar las medidas correctivas y considerar el impacto sobre la inclusión financiera y los clientes vulnerables.
Las aseguradoras siguen siendo plenamente responsables de los sistemas de IA, incluso cuando son desarrollados por terceros. Esto requiere debida diligencia con proveedores, garantías contractuales de cumplimiento y acuerdos de nivel de servicio que permitan auditorías.
La administración pública se enfrenta a las prohibiciones más estrictas
El sector público afronta tanto las prohibiciones más estrictas como las clasificaciones de alto riesgo más extensas del Reglamento Europeo de IA.
Las prácticas de IA prohibidas son aplicables desde febrero de 2025. La puntuación social por parte de las autoridades públicas que evalúe a las personas en función de su comportamiento social está completamente prohibida. La policía predictiva basada únicamente en la elaboración de perfiles está prohibida. La identificación biométrica remota en tiempo real en espacios públicos está prohibida, con excepciones limitadas para las fuerzas del orden. El reconocimiento de emociones en el lugar de trabajo y en instituciones educativas está prohibido. Las infracciones se sancionan con la multa máxima de 35 millones de euros o el 7 % del volumen de negocios.
Las categorías de alto riesgo para el sector público son extensas: aplicaciones en el ámbito policial (evaluación de la fiabilidad de pruebas, elaboración de perfiles en investigaciones criminales, detección de mentiras, predicción de reincidencia), migración y control de fronteras (examen de visados, evaluación de riesgos, verificación de documentos, tramitación de solicitudes de asilo), administración de justicia (asistencia a autoridades judiciales) y decisiones de la administración pública (elegibilidad para prestaciones, acceso a servicios esenciales, despacho de emergencias).
Las entidades públicas deben realizar Evaluaciones de Impacto en los Derechos Fundamentales antes de desplegar sistemas de IA de alto riesgo, evaluar los impactos potenciales, documentar el proceso e inscribirse en la base de datos de la UE antes de su utilización.
Cómo construir su marco de cumplimiento para agentes de IA
Las organizaciones necesitan programas de gobernanza estructurados que abarquen cuatro componentes esenciales.
El inventario y catalogación de IA constituye la base. Es necesario identificar todas las aplicaciones de IA en la organización, incluyendo los sistemas internos y la IA de proveedores externos. Documente las asignaciones de titularidad y responsabilidad, el tipo de modelo y su nivel de sensibilidad, el historial de versiones, las ubicaciones de despliegue y la integración con los registros de TI existentes. Cree un portal centralizado de control de IA, implemente mecanismos de descubrimiento automatizado para eliminar la IA en la sombra y establezca procesos de admisión para nuevas iniciativas de IA.
El mapeo de capacidades define los límites de los agentes de IA. Especifique a qué datos puede acceder cada agente, defina qué acciones pueden realizar y cuándo se requiere el escalado a una persona, implemente marcos de permisos contextuales y documente todas las integraciones de herramientas con API externas, bases de datos y servicios.
La evaluación de riesgos sigue un enfoque estructurado. Determine si los sistemas cumplen la definición de IA. Verifique si incurren en prácticas prohibidas según el Artículo 5. Evalúe frente a las categorías de alto riesgo del Anexo III. Documente las decisiones de clasificación con evidencia justificativa. En caso de duda, trátelo como de alto riesgo para garantizar el cumplimiento.
El diseño de la supervisión debe seguir un modelo de autonomía gradual. Los agentes comienzan con permisos limitados y obtienen mayor autonomía a medida que su fiabilidad se demuestra mediante auditorías. Los mecanismos esenciales incluyen cuadros de mando en tiempo real, entornos de prueba en sandbox, comités de supervisión multidisciplinares, procedimientos claros de respuesta ante incidentes y puntos de control con intervención humana en las decisiones críticas.
El panorama regulatorio sigue evolucionando
La Oficina Europea de IA está operativa desde agosto de 2025 con responsabilidad central en la implementación y aplicación del Reglamento de IA, en particular para los modelos de IA de propósito general. Tiene jurisdicción exclusiva sobre los proveedores de GPAI y puede solicitar documentación, realizar evaluaciones, ordenar medidas correctivas y recomendar sanciones.
Las normas armonizadas se encuentran en desarrollo a través de CEN/CENELEC, aunque con retraso respecto al calendario previsto. La primera norma armonizada, prEN 18286 sobre Sistemas de Gestión de Calidad, inició su consulta pública en octubre de 2025 con una publicación prevista para el cuarto trimestre de 2026. El Artículo 40(1) establece que se presume la conformidad de los sistemas que cumplan las normas armonizadas.
Los espacios controlados de pruebas regulatorias (sandboxes) serán obligatorios a partir de agosto de 2026. Los Estados miembros deberán establecer al menos un sandbox. Estos espacios ofrecen la posibilidad de realizar pruebas bajo supervisión regulatoria, prueba escrita de las actividades completadas con éxito y protección frente a sanciones administrativas si se actúa de buena fe conforme a las directrices.
Preguntas frecuentes
¿Se clasifican automáticamente los agentes de IA como de alto riesgo según el Reglamento Europeo de IA?
No de forma automática, pero la mayoría de las implantaciones empresariales de agentes de IA en sectores regulados se clasificarán como de alto riesgo a través de múltiples vías. Cualquier sistema de IA que realice la elaboración de perfiles de personas físicas es automáticamente de alto riesgo. Además, las categorías del Anexo III abarcan el empleo, el scoring crediticio, la evaluación de riesgos de seguros, las infraestructuras críticas y la administración pública, lo que abarca la gran mayoría de los casos de uso empresariales con agentes. Si despliega agentes de IA en servicios financieros, sanidad, seguros o administración pública, planifique para el cumplimiento de alto riesgo salvo que disponga de pruebas claras de exención.
¿Cómo debo documentar las decisiones de los agentes de IA para los auditores?
El registro tradicional de entradas y salidas es insuficiente para los agentes de IA. Se necesita una granularidad a nivel de trazas que capture el registro de transacciones principales (metadatos de sesión, contexto de usuario), la documentación de la cadena de decisiones (pasos de razonamiento, llamadas a herramientas y resultados, estados previos y posteriores), los registros de supervisión humana (marcadores de revisión, documentación de intervenciones) y señales de calidad (evaluaciones automatizadas, puntuaciones de confianza). El Artículo 19 exige la conservación durante al menos seis meses. La industria está convergiendo hacia la trazabilidad distribuida mediante los estándares OpenTelemetry para capturar las rutas de ejecución completas.
¿Puedo utilizar agentes de IA en servicios financieros?
Sí, con una gobernanza adecuada. Los servicios financieros deben navegar el Reglamento Europeo de IA junto con MiFID II, Basilea III/IV y DORA. La orientación de ESMA exige que las entidades mantengan su compromiso con los intereses de los clientes, independientemente de si las decisiones son tomadas por personas o por IA, siendo los órganos de dirección plenamente responsables. Los sistemas de IA para el scoring crediticio son explícitamente de alto riesgo. Se necesitan estructuras de gobernanza robustas, gestión de riesgos que aborde los sesgos algorítmicos, un registro exhaustivo y formación del personal sobre las implicaciones regulatorias.
¿Cuál es el calendario para alcanzar el cumplimiento de los agentes de IA?
La fecha crítica es el 2 de agosto de 2026, cuando las normas relativas a los sistemas de IA de alto riesgo serán plenamente exigibles. Los expertos en cumplimiento estiman un mínimo de 32 a 56 semanas para alcanzar la conformidad: de 4 a 8 semanas para el inventario de sistemas y el análisis de brechas, de 12 a 20 semanas para las modificaciones técnicas y de 8 a 16 semanas para la evaluación de conformidad. Los organismos notificados ya están reservando plazas de evaluación hasta el segundo trimestre de 2026, lo que genera restricciones de capacidad. Las organizaciones que comiencen en enero de 2026 ya van con el tiempo justo.
¿Cuáles son las sanciones por incumplimiento?
Las sanciones son severas. Las infracciones de prácticas prohibidas conllevan multas de hasta 35 millones de euros o el 7 % del volumen de negocios anual global. Las infracciones en sistemas de alto riesgo pueden alcanzar hasta 15 millones de euros o el 3 % del volumen de negocios. El suministro de información falsa puede resultar en 7,5 millones de euros o el 1 % del volumen de negocios. Más allá de las sanciones económicas, las autoridades pueden exigir la retirada de los sistemas no conformes del mercado, lo que provoca una disrupción operativa significativa y daño reputacional.
Conclusiones clave
Los agentes de IA representan un cambio fundamental en la tecnología empresarial: de sistemas que procesan y predicen a sistemas que actúan y deciden de forma autónoma. El Reglamento Europeo de Inteligencia Artificial reconoce esta distinción e impone las obligaciones correspondientes. Para los directivos de sectores regulados, el camino a seguir exige una acción inmediata: inventariar y evaluar todas las aplicaciones de IA, construir la infraestructura técnica para la documentación y la supervisión humana, y prepararse para la evaluación de conformidad contactando con los organismos notificados con antelación. Las organizaciones que traten la gobernanza de agentes de IA como una prioridad estratégica —y no como un mero trámite de cumplimiento— obtendrán ventajas que van más allá de lo regulatorio: mayor confianza, menor riesgo operativo y la base para un despliegue sostenible de IA a escala. El plazo de agosto de 2026 se acerca. El trabajo de preparación requiere un mínimo de 8 a 14 meses. El momento de actuar es ahora.
