FRIA
Fundamental Rights Impact Assessment - eine Bewertung, wie ein KI-System Grundrechte beeinträchtigen kann.
Begriffserklärung
Eine Fundamental Rights Impact Assessment (FRIA) ist ein strukturierter Bewertungsprozess, der potenzielle Auswirkungen eines KI-Systems auf Grundrechte nach EU-Recht identifiziert, analysiert und dokumentiert, etwa Nichtdiskriminierung, Privatsphäre, Würde und Zugang zu essenziellen Dienstleistungen. Eine FRIA geht über technische Risikobetrachtung hinaus und untersucht, wie KI-Deployment Individuen und Gruppen in der Gesellschaft beeinflussen kann.
Artikel 27 des EU AI Act verpflichtet Betreiber von Hochrisiko-KI in bestimmten Kontexten, vor Inbetriebnahme eine FRIA durchzuführen. Das gilt insbesondere für öffentliche Stellen und private Akteure in essenziellen Diensten wie Gesundheit, Bildung oder Finanzdienstleistungen. Die FRIA-Pflicht anerkennt, dass Hochrisiko-KI tiefgreifende Grundrechtsauswirkungen haben kann und diese vor Einsatz systematisch bewertet und mitigiert werden müssen. Sie geht über klassische Datenschutz-Folgenabschätzungen (DPIA/DSFA) nach der DSGVO hinaus. Während eine DSFA primär personenbezogene Datenverarbeitung und Privacy-Risiken fokussiert, betrachtet eine FRIA breitere gesellschaftliche Effekte: Diskriminierung, Auswirkungen auf Würde und Zugang zu Leistungen. Organisationen, die beiden Pflichten unterliegen, sollten diese Assessments koordinieren, aber die unterschiedlichen Scopes klar trennen.
Eine konforme FRIA erfordert systematisches Vorgehen. Zuerst ist zu bestimmen, welche Grundrechte betroffen sein können, sowohl direkte Auswirkungen auf Entscheidungssubjekte als auch indirekte Effekte auf größere Populationen. Die Assessment sollte konkrete Risiken, deren Eintrittswahrscheinlichkeit und Schwere sowie Minderungsmaßnahmen dokumentieren. Zentrale Elemente: identifizierte Grundrechte (z. B. Nichtdiskriminierung, Privatsphäre, Meinungsfreiheit), Analyse, wie Design und Einsatz diese Rechte beeinflussen können, Bewertung von Schutzmaßnahmen und Mitigation sowie Dokumentation verbleibender Restrisiken, die Stakeholder akzeptieren müssen. Zusätzlich sind Prozesse für laufende Überprüfung zu etablieren, wenn sich System und Kontext ändern.
Die FRIA muss vor Deployment abgeschlossen sein und sollte bei wesentlichen Änderungen aktualisiert werden.
Verwandte Begriffe
Hochrisiko-KI-System
Ein KI-System, das aufgrund potenzieller Auswirkungen auf Gesundheit, Sicherheit oder Grundrechte im EU AI Act strengen Anforderungen unterliegt.
Betreiber
Eine Organisation, die ein KI-System unter ihrer Autorität nutzt, ausgenommen rein persönliche, nicht-professionelle Nutzung.
Menschliche Aufsicht
Mechanismen, die sicherstellen, dass Menschen KI-Systeme überwachen, eingreifen und sie bei Bedarf außer Kraft setzen können.
