KLA Digital Logo
KLA Digital
EU AI Act26 de enero de 202625 min de lectura

Ley de IA de la UE para empresas SaaS: ¿proveedor, implementador o ambos?

Guía completa de cumplimiento para empresas SaaS con funciones de IA. Abarca la clasificación como proveedor frente a implementador, las obligaciones de alto riesgo, el marcado CE, los requisitos contractuales y las estrategias prácticas para el plazo límite de agosto de 2026.

La Ley de IA de la UE establece vías de cumplimiento diferenciadas en función de si una empresa SaaS se clasifica como proveedor o implementador, una determinación que condiciona toda la carga regulatoria. Para la mayoría de los proveedores SaaS que desarrollan funciones de IA, la respuesta es clara: son proveedores en virtud del artículo 3, apartado 3, lo que activa las obligaciones más exigentes del Reglamento, incluidas las evaluaciones de conformidad, la documentación técnica, el marcado CE y la vigilancia poscomercialización. Esta guía ofrece una hoja de ruta completa para gestionar estos requisitos, con especial atención al plazo límite de agosto de 2026, fecha en la que serán exigibles las normas relativas a los sistemas de IA de alto riesgo.

Proveedor frente a implementador: la clasificación que define sus obligaciones

La Ley de IA de la UE establece marcos de cumplimiento fundamentalmente distintos para proveedores e implementadores. Comprender qué función ocupa su empresa SaaS —y en qué circunstancias esa clasificación podría cambiar— constituye el primer paso esencial en la planificación del cumplimiento.

Un proveedor, conforme al artículo 3, apartado 3, es toda entidad que desarrolle un sistema de IA (o encargue su desarrollo) y lo introduzca en el mercado o lo ponga en servicio con su propio nombre o marca comercial, ya sea de forma onerosa o gratuita. Un implementador, conforme al artículo 3, apartado 4, es toda entidad que utilice un sistema de IA bajo su propia autoridad con fines profesionales. Para las empresas SaaS, esto significa normalmente que el proveedor del software es el proveedor regulatorio y el cliente es el implementador.

El factor determinante es a nombre de quién o bajo qué marca comercial se ofrece el sistema de IA. Una empresa SaaS que ofrezca una herramienta de selección de personal basada en IA bajo su propia marca es inequívocamente un proveedor, mientras que el departamento de recursos humanos que adquiere y utiliza dicha herramienta es un implementador. Esto se mantiene incluso cuando la empresa SaaS integra modelos de IA de terceros como GPT-4 o Claude: encapsular una API y ofrecerla bajo su marca le convierte en proveedor de ese sistema de IA.

Existen diversos escenarios que pueden difuminar o alterar estas clasificaciones. Los acuerdos de marca blanca son especialmente relevantes: en virtud del artículo 25, apartado 1, letra a), si un cliente coloca su propio nombre o marca comercial en un sistema de IA de alto riesgo ya introducido en el mercado, se convierte en proveedor y asume todas las obligaciones correspondientes. Las modificaciones sustanciales representan otro factor desencadenante: el artículo 3, apartado 23, las define como cambios no previstos en la evaluación de conformidad inicial que afectan al cumplimiento o modifican la finalidad prevista.

El ajuste fino y la personalización presentan casos límite con matices. Simplemente añadir datos personalizados o ajustar hiperparámetros no constituye habitualmente una modificación sustancial: los clientes siguen siendo implementadores. Sin embargo, si un cliente reentrena significativamente un modelo, altera de forma fundamental sus capacidades o utiliza un sistema no clasificado como de alto riesgo para un fin de alto riesgo, puede convertirse en proveedor considerado como tal en virtud del artículo 25. Los proveedores SaaS deben abordar estos escenarios de forma explícita en sus contratos para evitar ambigüedades.

Clasificación de alto riesgo: cuándo sus funciones SaaS activan el cumplimiento pleno

La Ley de IA de la UE emplea un marco regulatorio basado en el riesgo, donde los sistemas de IA de alto riesgo están sujetos a los requisitos más estrictos. El artículo 6 establece dos vías hacia la clasificación de alto riesgo: componentes de seguridad en productos regulados (anexo I) y casos de uso específicos enumerados en el anexo III.

El artículo 6, apartado 3, contempla excepciones: los sistemas del anexo III no se consideran de alto riesgo si realizan tareas procedimentales estrechas, mejoran resultados de actividades humanas previamente completadas, detectan patrones en la toma de decisiones sin sustituir la evaluación humana o ejecutan tareas preparatorias. No obstante, los sistemas que realizan elaboración de perfiles de personas físicas son siempre de alto riesgo independientemente de estas excepciones.

Los proveedores SaaS deben llevar a cabo un análisis de clasificación riguroso para cada función de IA. Un chatbot genérico de atención al cliente representa un riesgo limitado que solo requiere divulgaciones de transparencia. Un motor de recomendaciones es normalmente de riesgo mínimo. Pero en cuanto esa misma tecnología se aplica a filtrar candidatos de empleo o evaluar la solvencia crediticia, se convierte en sistema de alto riesgo con plenas obligaciones de cumplimiento. La finalidad prevista —no la tecnología subyacente— determina la clasificación.

  • Empleo y gestión de trabajadores (categoría 4): IA para selección de personal, filtrado de candidatos, anuncios de empleo dirigidos, decisiones laborales, asignación de tareas y supervisión del rendimiento
  • Acceso a servicios esenciales (categoría 5): puntuación crediticia, evaluación de solvencia, evaluación de riesgos y tarificación de seguros de vida y de salud
  • Educación (categoría 3): IA que determina la admisión, evalúa los resultados de aprendizaje, valora los niveles educativos y supervisa el comportamiento de los estudiantes durante exámenes
  • Biometría (categoría 1): sistemas de identificación biométrica remota, categorización biométrica y reconocimiento de emociones cuando estén permitidos

Obligaciones del proveedor: el marco de cumplimiento completo para IA de alto riesgo

Los proveedores de sistemas de IA de alto riesgo se enfrentan a un marco regulatorio integral que abarca requisitos previos a la comercialización, evaluación de conformidad y obligaciones continuas de vigilancia poscomercialización. Para las empresas SaaS, estos requisitos deben integrarse en los procesos de desarrollo de productos desde el inicio.

El artículo 9 exige un sistema de gestión de riesgos continuo e iterativo a lo largo de todo el ciclo de vida del sistema de IA. Los proveedores deben identificar y analizar los riesgos conocidos y razonablemente previsibles, estimar y evaluar los riesgos en función del uso previsto y del uso indebido razonablemente previsible, aplicar medidas de mitigación adecuadas y documentar los riesgos residuales.

El artículo 10 establece los requisitos de gobernanza de datos para sistemas entrenados con datos. Los conjuntos de datos de entrenamiento, validación y prueba deben ser pertinentes, representativos y estar libres de errores en la medida de lo posible. Los proveedores deben documentar la procedencia de los datos, implementar mecanismos de detección y corrección de sesgos y establecer prácticas adecuadas para el tratamiento de categorías especiales de datos personales utilizados exclusivamente con fines de detección de sesgos.

Requisitos de documentación técnica conforme al anexo IV

El anexo IV especifica requisitos de documentación exhaustivos directamente aplicables a los productos SaaS. La documentación debe cubrir la descripción general (finalidad prevista, identificación del proveedor, historial de versiones, todas las formas de comercialización incluidas las API, requisitos de hardware e interfaces de usuario), el proceso de desarrollo (especificaciones de diseño, arquitectura del sistema, recursos computacionales utilizados, decisiones de diseño clave y su justificación) y los requisitos de datos (metodologías de entrenamiento, descripción de los conjuntos de datos y su procedencia, métodos de adquisición de datos y procedimientos de etiquetado).

Para los sistemas SaaS que se actualizan continuamente, la documentación de los cambios predeterminados es fundamental: documentación detallada de todos los cambios previstos y las soluciones técnicas que garantizan el cumplimiento continuo. Esto es esencial para evitar evaluaciones de conformidad repetidas. El artículo 11 establece que las pymes y las empresas emergentes podrán utilizar un formulario de documentación simplificado establecido por la Comisión Europea.

  • La documentación debe conservarse durante 10 años tras la comercialización del sistema
  • Las pruebas y validaciones deben incluir métricas de precisión, robustez y conformidad con registros de pruebas fechados y firmados
  • Las medidas de supervisión humana deben documentarse conforme a los requisitos del artículo 14
  • Los cambios predeterminados deben documentarse para evitar evaluaciones de conformidad repetidas

Vías de evaluación de conformidad

El artículo 43 establece dos vías de evaluación de conformidad. El control interno (anexo VI) permite la autoevaluación cuando el proveedor haya aplicado normas armonizadas o especificaciones comunes que cubran todos los requisitos pertinentes. La evaluación por terceros a cargo de un organismo notificado (anexo VII) es obligatoria para los sistemas de identificación biométrica remota y los sistemas que realizan inferencias sobre características personales a partir de datos biométricos, con una certificación válida durante cuatro años.

Para los productos SaaS que se actualizan continuamente, el artículo 43, apartado 4, ofrece una flexibilidad fundamental: los cambios que fueron predeterminados en la evaluación de conformidad inicial y documentados en las especificaciones técnicas no constituyen modificaciones sustanciales que exijan una nueva evaluación. Esto permite que los sistemas de aprendizaje continuo operen sin evaluaciones repetidas, siempre que los cambios hayan sido previstos y documentados desde el principio.

Marcado CE: distintivos digitales de conformidad para productos de software

Los requisitos de marcado CE se aplican a los sistemas de IA de alto riesgo antes de su comercialización. El artículo 48, apartado 2, aborda específicamente los productos SaaS y digitales, exigiendo un marcado CE digital al que se pueda acceder fácilmente a través de la interfaz desde la que se accede al sistema, o a través de un código legible por máquina de fácil acceso u otros medios electrónicos.

La implementación práctica para SaaS incluye mostrar el marcado CE digital dentro de la interfaz del software, hacerlo accesible mediante códigos legibles por máquina (códigos QR o endpoints de API) u otros medios electrónicos que garanticen un acceso sencillo. El marcado debe ser visible, legible e indeleble, e incluir el número de identificación del organismo notificado en caso de haberse realizado una evaluación por terceros.

Los proveedores también deben completar una Declaración UE de Conformidad (artículo 47) para cada sistema de IA, que debe mantenerse y estar a disposición de las autoridades nacionales durante diez años tras la comercialización. El registro en la base de datos de la UE (artículos 49 y 71) exige que los proveedores se registren a sí mismos y a sus sistemas de IA de alto riesgo antes de la comercialización.

Vigilancia poscomercialización y notificación de incidentes

Las obligaciones del proveedor continúan durante todo el ciclo de vida del sistema de IA. El artículo 72 exige un sistema de vigilancia poscomercialización proporcionado a la naturaleza y los riesgos de la tecnología. El sistema debe recopilar, documentar y analizar de forma activa y sistemática los datos de rendimiento durante toda la vida útil del sistema, evaluar el cumplimiento continuo y analizar las interacciones con otros sistemas de IA cuando proceda.

Los requisitos de registro conforme al artículo 12 establecen que los sistemas de alto riesgo deben permitir técnicamente el registro automático de eventos a lo largo de su vida útil. Los registros deben permitir identificar situaciones que presenten riesgos, facilitar la vigilancia poscomercialización y posibilitar la supervisión por parte del implementador. Los proveedores deben conservar los registros durante un mínimo de seis meses.

La notificación de incidentes (artículo 73) exige que los proveedores comuniquen los incidentes graves —definidos como muerte, daños graves para la salud, daños materiales, daños medioambientales, interrupción de infraestructuras críticas o vulneración de derechos fundamentales— a las autoridades de vigilancia del mercado. El plazo estándar es de 15 días tras establecer el nexo causal; los incidentes graves que afecten a la vida o la salud exigen una notificación en un plazo de dos días.

Obligaciones del implementador y cómo los proveedores SaaS deben apoyar a sus clientes

Aunque los implementadores se enfrentan a menos requisitos regulatorios directos, los implementadores de sistemas de IA de alto riesgo tienen obligaciones significativas en virtud del artículo 26. Los proveedores SaaS deben facilitar y apoyar el cumplimiento de sus clientes.

La supervisión humana constituye la obligación central del implementador. Los implementadores deben asignar la supervisión humana a personas físicas que dispongan de la competencia, formación, autoridad y apoyo necesarios. Los supervisores deben comprender las capacidades y limitaciones del sistema, ser conscientes del sesgo de automatización, interpretar correctamente los resultados y conservar la autoridad para anular o interrumpir el sistema. Para los sistemas de identificación biométrica, se requiere la verificación por al menos dos personas físicas antes de actuar.

La transparencia hacia las personas afectadas exige que los implementadores de sistemas de alto riesgo que tomen decisiones sobre personas informen a dichas personas del uso del sistema de IA. En virtud del artículo 86, las personas afectadas tienen derecho a recibir explicaciones claras y comprensibles sobre el papel del sistema de IA y los elementos principales de las decisiones adoptadas.

Las Evaluaciones de Impacto en los Derechos Fundamentales (artículo 27) son obligatorias para determinados implementadores: organismos públicos, entidades privadas que presten servicios públicos y cualquier implementador que utilice IA para la evaluación de solvencia crediticia o de riesgos en seguros. La EIDF debe documentar los procesos del implementador, la duración y frecuencia de uso, las categorías de personas afectadas, los riesgos específicos para los derechos fundamentales, las medidas de supervisión humana y las acciones de mitigación de riesgos.

  • Proporcionar instrucciones de uso completas conforme a los requisitos del artículo 13
  • Facilitar la supervisión humana mediante un diseño de interfaz adecuado
  • Proporcionar acceso a los registros y herramientas de interpretación
  • Suministrar documentación técnica para la realización de EIPD
  • Ofrecer formación para los supervisores humanos y métricas de precisión
  • Establecer canales de notificación de incidentes

Requisitos contractuales: qué deben incluir los acuerdos SaaS con IA

El artículo 13 establece la información específica que los proveedores deben facilitar a los implementadores. Los acuerdos SaaS deben incorporar estos requisitos de forma sistemática, con disposiciones contractuales claras que aborden cada elemento.

Las divulgaciones obligatorias incluyen la identidad y datos de contacto del proveedor, la finalidad prevista y las características detalladas de rendimiento, el nivel de métricas de precisión, robustez y ciberseguridad, las circunstancias conocidas que puedan dar lugar a riesgos, las especificaciones de datos de entrada, las características de salida esperadas y orientaciones para su interpretación, los cambios predeterminados y su impacto en la conformidad, las medidas de supervisión humana, los requisitos computacionales, la vida útil prevista y los mecanismos de registro.

Los elementos del marco contractual deben incluir disposiciones claras de clasificación que confirmen el estatus de proveedor/implementador, limitaciones del alcance de uso previsto con cláusulas explícitas de uso prohibido, garantías del proveedor sobre el cumplimiento de los artículos 9 a 15, garantías del implementador sobre el cumplimiento del artículo 26, obligaciones de intercambio de información, requisitos de cooperación para la vigilancia poscomercialización y la notificación de incidentes, y causas de resolución por incumplimientos materiales o cambios de clasificación.

IA de propósito general: obligaciones adicionales al integrar modelos fundacionales

Las empresas SaaS que integran modelos de IA de propósito general como GPT-4, Claude o Gemini se enfrentan a un marco regulatorio específico. El artículo 3, apartado 63, define los modelos de IAPG como aquellos que muestran una generalidad significativa, son capaces de realizar una amplia gama de tareas distintas y pueden integrarse en diversos sistemas posteriores.

Distinción fundamental: las empresas SaaS que integran modelos de IAPG son normalmente proveedores de sistemas de IA o proveedores posteriores, no proveedores de modelos de IAPG. No están sujetas a las obligaciones de los artículos 53 a 55 relativas a modelos de IAPG, que recaen sobre OpenAI, Anthropic, Google y desarrolladores similares de modelos fundacionales. En su lugar, las empresas SaaS deben cumplir los requisitos aplicables a los sistemas de IA según su clasificación de riesgo.

Los proveedores de modelos de IAPG deben suministrar documentación que permita a los proveedores posteriores comprender las capacidades y limitaciones del modelo. En virtud del artículo 53, apartado 1, letra b), se puede requerir a los proveedores de IAPG que proporcionen información adicional en un plazo de 14 días ante solicitudes relevantes para la integración. Los modelos de IAPG con riesgo sistémico —aquellos entrenados con una capacidad de cálculo acumulada superior a 10^25 FLOPS— están sujetos a requisitos adicionales que incluyen evaluaciones del modelo, pruebas adversariales y protecciones de ciberseguridad.

Calendario: fechas clave para la planificación del cumplimiento SaaS

A enero de 2026, varias disposiciones importantes ya son exigibles, y el plazo más significativo se aproxima en siete meses.

Ya en vigor: Prácticas de IA prohibidas (2 de febrero de 2025), incluidas la puntuación social, la IA manipuladora y la biometría no autorizada. Requisitos de alfabetización en IA (2 de febrero de 2025) que exigen a las organizaciones garantizar que su personal disponga de suficiente formación en IA. Obligaciones relativas a modelos de IAPG (2 de agosto de 2025) para proveedores de modelos fundacionales. Estructuras de gobernanza (2 de agosto de 2025) con régimen sancionador activo de hasta 35 millones de euros o el 7 % de la facturación global.

El plazo crítico próximo es el 2 de agosto de 2026: se aplican los requisitos para sistemas de IA de alto riesgo de las categorías del anexo III, las obligaciones de transparencia del artículo 50 pasan a ser exigibles y la aplicación nacional se vuelve plenamente operativa.

  • 2 de febrero de 2025: prácticas de IA prohibidas exigibles con sanciones máximas
  • 2 de agosto de 2025: obligaciones relativas a modelos de IAPG en vigor; autoridades nacionales designadas
  • 2 de agosto de 2026: entran en vigor los requisitos completos para sistemas de IA de alto riesgo del anexo III
  • 2 de agosto de 2027: los requisitos se aplican a la IA de alto riesgo integrada en productos regulados

Estrategias prácticas de cumplimiento para el desarrollo SaaS

La integración de los requisitos de la Ley de IA de la UE en el desarrollo de productos exige marcos de gobernanza sistemáticos e integración en los procesos existentes.

Prioridades inmediatas (T1 2026): completar un inventario de sistemas de IA en todos los productos y funcionalidades, clasificar cada sistema por categoría de riesgo, identificar las responsabilidades como proveedor o implementador en cada escenario de despliegue, realizar un análisis de brechas respecto a los requisitos aplicables y evaluar la posición de cumplimiento de los proveedores de IA de terceros.

Construcción de los cimientos (T1-T2 2026): establecer un comité de gobernanza de IA con responsabilidades claras, desarrollar una política de IA alineada con el enfoque basado en el riesgo, implementar programas de formación en alfabetización en IA, crear plantillas de documentación para la documentación técnica y las evaluaciones de riesgos, y actualizar las condiciones de servicio y los acuerdos SaaS con las divulgaciones del artículo 13.

Cumplimiento de sistemas de alto riesgo (T2-T3 2026): implementar los sistemas de gestión de riesgos del artículo 9, establecer los procedimientos de gobernanza de datos del artículo 10, crear la documentación técnica conforme al anexo IV, diseñar mecanismos de supervisión humana que cumplan los requisitos del artículo 14, implementar los sistemas de registro del artículo 12 y prepararse para la evaluación de conformidad.

Clasificación por caso de uso: cómo se regulan las funciones de IA más comunes en SaaS

Los chatbots de atención al cliente representan un riesgo limitado que requiere divulgaciones de transparencia conforme al artículo 50. Los usuarios deben ser informados de que están interactuando con un sistema de IA, salvo que resulte evidente por las circunstancias. No se requiere evaluación de conformidad ni documentación obligatoria más allá de la obligación de transparencia.

Los motores de recomendación son normalmente de riesgo mínimo para recomendaciones básicas de productos o personalización de contenidos. Sin embargo, se convierten en sistemas de alto riesgo si se utilizan para elaborar perfiles de personas con fines de decisiones laborales o para determinar el acceso a servicios esenciales.

La IA de recursos humanos y selección de personal es explícitamente de alto riesgo conforme a la categoría 4 del anexo III. Esto incluye la IA para contratación y selección, filtrado de candidatos, anuncios de empleo dirigidos, decisiones laborales, asignación de tareas basada en el comportamiento individual y supervisión del rendimiento. Se aplican todos los requisitos de cumplimiento.

Las herramientas de evaluación crediticia y financiera son explícitamente de alto riesgo conforme a la categoría 5 del anexo III para la evaluación de solvencia, la puntuación crediticia y la evaluación de riesgos en seguros de vida y de salud. La excepción: la IA destinada exclusivamente a la detección de fraude financiero no se considera de alto riesgo.

Preguntas frecuentes

¿Somos proveedor o implementador según la Ley de IA de la UE?

Si ha desarrollado el sistema de IA o lo comercializa bajo su nombre o marca comercial, es un proveedor con plenas obligaciones de cumplimiento. Si utiliza IA de terceros bajo su propia autoridad con fines profesionales, es un implementador con obligaciones más ligeras pero sustanciales. Muchas empresas SaaS son proveedores de sus propias funciones de IA y, al mismo tiempo, implementadores de IA de terceros integrada. El factor determinante es bajo qué marca aparece el sistema de IA.

¿Necesito el marcado CE para las funciones de IA de mi SaaS?

Sí, si su SaaS incluye funciones de IA de alto riesgo y usted es el proveedor. El artículo 48, apartado 2, aborda específicamente los productos digitales, exigiendo un marcado CE digital accesible a través de la interfaz del software, códigos legibles por máquina u otros medios electrónicos. Además, debe registrarse en la base de datos de IA de la UE antes de la comercialización.

¿Qué ocurre si mi cliente utiliza nuestra IA para un fin de alto riesgo?

Si un cliente reutiliza su IA para un caso de uso de alto riesgo no cubierto por su evaluación de conformidad, puede convertirse en proveedor considerado como tal en virtud del artículo 25 y asumir las obligaciones del proveedor. Unas condiciones de servicio claras con cláusulas explícitas de uso prohibido, controles técnicos que limiten las aplicaciones de alto riesgo y disposiciones contractuales que aborden los cambios de clasificación pueden limitar su exposición.

¿Cómo gestionan la evaluación de conformidad los sistemas SaaS en actualización continua?

El artículo 43, apartado 4, ofrece una flexibilidad fundamental: los cambios que fueron predeterminados en la evaluación de conformidad inicial y documentados en las especificaciones técnicas no constituyen modificaciones sustanciales que requieran una nueva evaluación. Esto permite que los sistemas de aprendizaje continuo operen sin evaluaciones repetidas, pero solo si los cambios fueron previstos y documentados desde el principio.

¿Qué información debemos proporcionar a los clientes conforme al artículo 13?

Las divulgaciones obligatorias incluyen: identidad y datos de contacto del proveedor, finalidad prevista y características de rendimiento, métricas de precisión y robustez, circunstancias de riesgo conocidas, especificaciones de datos de entrada, orientaciones para la interpretación de resultados, cambios predeterminados, medidas de supervisión humana, requisitos computacionales y mecanismos de registro. Estos elementos deben incorporarse de forma sistemática en sus acuerdos SaaS.

Conclusiones clave

La Ley de IA de la UE representa el marco regulatorio de IA más completo a nivel mundial, con alcance extraterritorial que afecta a cualquier empresa SaaS que preste servicios a clientes de la UE o que incida en residentes de la UE. El periodo de siete meses previo a la entrada en vigor en agosto de 2026 constituye la ventana crítica para establecer procesos conformes. La clasificación lo determina todo: invierta en un análisis riguroso de cada función de IA conforme a las categorías del anexo III. La documentación es su defensa: los requisitos del anexo IV deben integrarse en los flujos de trabajo de desarrollo en lugar de tratarse como una adaptación retroactiva. Los contratos son herramientas de cumplimiento: los acuerdos SaaS deben evolucionar para incorporar las divulgaciones del artículo 13, las obligaciones de apoyo al implementador y disposiciones claras de clasificación de roles. Las empresas que aborden el cumplimiento de la Ley de IA de la UE como una disciplina de desarrollo de producto —y no como una carga jurídica— estarán mejor posicionadas tanto para el cumplimiento regulatorio como para la confianza de sus clientes.

Véalo en acción

¿Listo para automatizar su evidencia de cumplimiento normativo?

Reserve una demostración de 20 minutos para ver cómo KLA le ayuda a demostrar la supervisión humana y exportar documentación de Annex IV lista para auditoría.