Supervisión humana
Mecanismos que garantizan que las personas puedan monitorizar, intervenir y anular la operación de un sistema de IA cuando sea necesario.
Definición
La supervisión humana abarca estructuras organizativas, mecanismos técnicos y salvaguardas procedimentales que permiten a personas cualificadas monitorizar el comportamiento de un sistema de IA, intervenir cuando surgen problemas y anular o revertir decisiones impulsadas por IA cuando sea necesario. Una supervisión eficaz asegura que la IA permanezca como herramienta bajo control humano y no como actor autónomo fuera de responsabilidad.
El artículo 14 del EU AI Act establece la supervisión humana como requisito obligatorio para sistemas de alto riesgo. El reglamento especifica que estos sistemas deben diseñarse para permitir a personas naturales supervisar eficazmente su operación, incluyendo comprender capacidades y limitaciones, ser conscientes del sesgo de automatización, interpretar correctamente salidas y decidir cuándo y cómo intervenir o anular. Reconoce tres niveles de supervisión. Human-in-the-loop (HITL) requiere aprobación humana para cada decisión antes de ejecutarse. Human-on-the-loop (HOTL) permite operar mientras humanos monitorizan e intervienen en tiempo real. Human-in-command (HIC) da autoridad para fijar políticas, revisar muestras y gestionar excepciones sin revisar cada decisión individual. Los sistemas de alto riesgo deben aplicar medidas proporcionales al riesgo y al contexto. Además, el artículo 14 exige que las personas responsables estén capacitadas y tengan autoridad y recursos. La supervisión no es solo una función técnica, sino un compromiso organizativo con responsabilidades documentadas.
Implementar supervisión conforme requiere infraestructura técnica y procesos operativos. En lo técnico: mecanismos para presentar decisiones para revisión, colas de aprobación, intervención y override, y captura de actividades de supervisión. En lo operativo: roles, escalados, formación y recursos suficientes para evitar cuellos de botella.
La carga de documentación es significativa. Para cada acción de supervisión, registre quién revisó, qué información tenía, qué acción tomó y por qué. Esta evidencia demuestra que la supervisión se ejerció en la práctica. Hay que equilibrar profundidad y eficiencia: revisar cada decisión de bajo riesgo no es necesario ni práctico, pero las decisiones de alto riesgo que afectan derechos fundamentales requieren juicio humano. La clave es ajustar la intensidad de supervisión al riesgo mediante flujos de aprobación y criterios de escalado bien diseñados.
Términos relacionados
Gobernanza de la IA
El marco de políticas, procesos y controles que garantiza que los sistemas de IA operen de forma segura, ética y conforme a la normativa.
Sistema de IA de alto riesgo
Un sistema de IA sujeto a requisitos estrictos bajo el EU AI Act por su posible impacto en salud, seguridad o derechos fundamentales.
Rastro de auditoría
Un registro cronológico de actividades, decisiones e interacciones humanas de un sistema de IA que habilita trazabilidad y rendición de cuentas.
