Explicabilidad
La capacidad de entender y comunicar cómo un sistema de IA llega a sus salidas o decisiones.
Definición
La explicabilidad se refiere al grado en que las personas pueden comprender y articular el razonamiento detrás de las salidas, predicciones o decisiones de un sistema de IA. Incluye tanto la interpretabilidad técnica (entender mecanismos internos del modelo) como la transparencia práctica (comunicar decisiones a personas afectadas en términos accesibles).
El EU AI Act establece la explicabilidad como un pilar de la IA confiable mediante los requisitos de transparencia del artículo 13. Los sistemas de alto riesgo deben diseñarse para que los usuarios puedan interpretar salidas y entender el comportamiento de forma apropiada. No es solo un requisito técnico: habilita la supervisión humana, ya que no se puede supervisar eficazmente lo que no se entiende. En sistemas que toman decisiones con consecuencias (crédito, empleo), la explicabilidad es a la vez obligación regulatoria e imperativo ético. El reglamento reconoce que la “transparencia suficiente” no exige interpretar cada peso; exige explicaciones proporcionales al riesgo y comprensibles para la audiencia prevista, ya sea un responsable de cumplimiento o una persona afectada.
Las organizaciones deben implementar explicabilidad en varios niveles. A nivel de modelo, técnicas como SHAP values, LIME o attention visualization ayudan a entender importancia de variables y rutas de decisión. A nivel de decisión, los sistemas deberían generar explicaciones legibles por humanos para salidas individuales, revisables en flujos de supervisión o entregables a personas afectadas.
El desafío está en equilibrar explicabilidad con rendimiento y eficiencia operativa. Documente el enfoque como parte de la documentación técnica del Anexo IV: métodos usados, información capturada por decisión y cómo se hace accesible a partes interesadas.
Términos relacionados
Supervisión humana
Mecanismos que garantizan que las personas puedan monitorizar, intervenir y anular la operación de un sistema de IA cuando sea necesario.
Detección de sesgos
El proceso de identificar y medir patrones injustos o discriminatorios en las salidas de un sistema de IA o en los datos de entrenamiento.
Ficha del modelo
Un documento estandarizado que describe el uso previsto de un modelo de IA, su rendimiento, limitaciones y consideraciones éticas.
