Entidad usuaria
Una organización que utiliza un sistema de IA bajo su autoridad, excepto para uso personal no profesional.
Definición
Una entidad usuaria (deployer) bajo el EU AI Act es cualquier persona física o jurídica, autoridad pública, agencia u otro organismo que utiliza un sistema de IA bajo su autoridad, excluyendo el uso puramente personal y no profesional. Esta definición es más amplia de lo que muchas organizaciones creen. Si utiliza una herramienta de IA de terceros en operaciones de negocio, probablemente es una entidad usuaria con obligaciones legales específicas, aunque no haya construido el sistema.
El EU AI Act establece obligaciones distintas para entidades usuarias, separadas de las de los proveedores (quienes desarrollan y comercializan sistemas). Aunque las obligaciones de proveedores son más extensas, las de entidades usuarias no son menores. El artículo 26 incluye responsabilidades como implementar medidas de supervisión humana, monitorizar la operación, conservar registros, realizar evaluaciones de impacto en derechos fundamentales para ciertos casos de uso e informar a personas afectadas del uso de IA. Muchas organizaciones se centran solo en el proveedor y olvidan su rol de entidad usuaria. Un banco que usa IA para scoring de crédito es entidad usuaria. Un hospital con asistente diagnóstico es entidad usuaria. Un equipo de RR. HH. que usa IA para filtrado de candidatos es entidad usuaria.
El artículo 26 exige a entidades usuarias de sistemas de alto riesgo: usar el sistema conforme a sus instrucciones, garantizar supervisión humana por personas competentes y con autoridad, monitorizar la operación e informar al proveedor de incidentes graves, conservar logs generados automáticamente al menos seis meses, realizar una evaluación de impacto en derechos fundamentales antes de desplegar ciertos sistemas en sector público o servicios esenciales, e informar a personas físicas de que están sujetas a decisiones de un sistema de alto riesgo.
De forma crítica, una entidad usuaria pasa a ser proveedor si pone su nombre o marca en un sistema de alto riesgo, realiza una modificación sustancial o cambia su finalidad. Las organizaciones que personalizan o afinan sistemas de terceros deben evaluar cuidadosamente si cruzan el umbral hacia el rol de proveedor.
Términos relacionados
Proveedor
Una entidad que desarrolla (o encarga el desarrollo de) un sistema de IA y lo pone en el mercado o lo pone en servicio.
Sistema de IA de alto riesgo
Un sistema de IA sujeto a requisitos estrictos bajo el EU AI Act por su posible impacto en salud, seguridad o derechos fundamentales.
Supervisión humana
Mecanismos que garantizan que las personas puedan monitorizar, intervenir y anular la operación de un sistema de IA cuando sea necesario.
