KLA Digital Logo
KLA Digital
EU AI Act6. Januar 202620 Min. Lesezeit

Klassifizierung von Hochrisiko-KI nach dem EU AI Act

Die maßgebliche Klassifizierungsmethodik: zwei Wege zum Hochrisiko-Status, der Ausnahmerahmen nach Artikel 6 Absatz 3, die Profiling-Vorrangregel, die sämtliche Ausnahmen aufhebt, sowie ein schrittweiser, auditfähiger Klassifizierungsprozess.

Die Risikoklassifizierung ist die folgenreichste Einzelentscheidung bei der Einhaltung des EU AI Act. Wer korrekt klassifiziert, bewegt sich auf einem klar definierten Compliance-Pfad mit eindeutigen Anforderungen. Wer falsch klassifiziert, löst eine Fehlerkaskade aus – entweder durch Ressourcenverschwendung für unnötige Pflichten oder, weit gravierender, durch die Feststellung eines Durchsetzungsrisikos erst nach dem Deployment. Da die vollständigen Hochrisiko-Anforderungen am 2. August 2026 in Kraft treten, müssen Organisationen diesen Klassifizierungsrahmen jetzt beherrschen.

Die grundlegende Architektur: Zwei Wege zur Hochrisiko-Klassifizierung

Artikel 6 des EU AI Act definiert zwei voneinander unabhängige Wege, über die ein KI-System als hochriskant eingestuft wird. Das Verständnis dieser Wege ist essenziell, da sie unterschiedliche Compliance-Fristen und Verfahren zur Konformitätsbewertung auslösen.

  • Weg 1 (Artikel 6 Absatz 1): KI-Systeme, die als Sicherheitskomponenten von Produkten vorgesehen sind, die unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften fallen und eine Konformitätsbewertung durch Dritte erfordern
  • Weg 2 (Artikel 6 Absatz 2): KI-Systeme, die in acht spezifischen Anwendungskategorien nach Anhang III eingesetzt werden, in denen das Schadenspotenzial naturgemäß erhöht ist

Weg 1: Sicherheitskomponenten in regulierten Produkten

Ein KI-System wird automatisch als hochriskant eingestuft, wenn zwei kumulative Voraussetzungen erfüllt sind. Erstens muss das KI-System dazu bestimmt sein, als Sicherheitskomponente eines Produkts verwendet zu werden, oder das KI-System muss selbst ein Produkt sein, das unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der EU fällt. Zweitens muss das Produkt nach diesen Rechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden.

Anhang I umfasst mehr als dreißig Richtlinien und Verordnungen für Maschinen, Spielzeug, die Medizinprodukteverordnung, In-vitro-Diagnostika, die Zivilluftfahrt, Kraftfahrzeuge, Schiffsausrüstung, Eisenbahnsysteme und weitere Bereiche.

  • KI-gestützte Chirurgieroboter, die unter die Medizinprodukteverordnung fallen
  • KI für autonome Fahrzeuge zur Spurhaltung und Notbremsung gemäß den Fahrzeugsicherheitsvorschriften
  • KI-gesteuerte Flugsysteme, die den EU-Luftfahrtsicherheitsvorschriften unterliegen
  • KI-Systeme zur Drucküberwachung in Fertigungsanlagen nach der Maschinensicherheitsgesetzgebung

Weg 2: Die acht Kategorien nach Anhang III

Der zweite Weg erfasst KI-Systeme, die in acht spezifischen Anwendungskategorien eingesetzt werden, in denen das Schadenspotenzial für Gesundheit, Sicherheit oder Grundrechte als naturgemäß erhöht gilt. Diese Kategorien gelten unabhängig davon, ob das KI-System in ein reguliertes Produkt eingebettet ist.

  • Kategorie 1 – Biometrie: Biometrische Fernidentifizierung, biometrische Kategorisierung mit Ableitung sensibler Merkmale, Emotionserkennung
  • Kategorie 2 – Kritische Infrastrukturen: Sicherheitskomponenten in der digitalen Infrastruktur, im Straßenverkehr sowie in der Wasser-, Gas-, Wärme- und Stromversorgung
  • Kategorie 3 – Bildung: Zugangs- und Zulassungsentscheidungen, Bewertung von Lernergebnissen, Prüfungsüberwachung
  • Kategorie 4 – Beschäftigung: Einstellung, Auswahl, Beförderung, Kündigung, Aufgabenzuweisung, Leistungsüberwachung
  • Kategorie 5 – Grundlegende Dienstleistungen: Anspruchsberechtigung für öffentliche Leistungen, Kreditwürdigkeitsprüfung, Versicherungsrisikobewertung, Triage bei Notrufdisposition
  • Kategorie 6 – Strafverfolgung: Opferrisikobewertung, Bewertung der Zuverlässigkeit von Beweismitteln, Rückfallrisikobewertung, kriminalistisches Profiling
  • Kategorie 7 – Migration: Risikobewertung bei Grenzübertritt, Bewertung von Asyl- und Visumanträgen, Erkennung und Identifizierung von Einzelpersonen
  • Kategorie 8 – Justiz und Demokratie: Juristische Rechercheunterstützung, Instrumente zur Beeinflussung von Wahlen und Volksabstimmungen

Der Ausnahmerahmen: Wann Anhang-III-Systeme der Hochrisiko-Einstufung entgehen

Artikel 6 Absatz 3 schafft ein eng gefasstes Ausnahmeventil für Systeme, die zwar nominell unter die Kategorien des Anhangs III fallen, aber nachweislich kein erhebliches Schadensrisiko bergen. Diese Ausnahmeregelung greift nur, wenn das KI-System kein erhebliches Risiko einer Beeinträchtigung der Gesundheit, Sicherheit oder Grundrechte darstellt – insbesondere indem es das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst.

  • Bedingung 1: Das KI-System führt eine eng begrenzte Verfahrensaufgabe aus – begrenzte, klar definierte Verwaltungsfunktionen ohne Ermessensspielraum
  • Bedingung 2: Das KI-System verbessert das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit – Analysen, die Menschen bei der Überprüfung ihrer eigenen früheren Arbeit unterstützen
  • Bedingung 3: Das KI-System erkennt Entscheidungsmuster, ohne die menschliche Bewertung ohne angemessene Überprüfung zu ersetzen oder zu beeinflussen
  • Bedingung 4: Das KI-System führt eine vorbereitende Aufgabe für eine relevante Bewertung durch – vorläufige Datenerhebung, die in eine nachfolgende menschliche Beurteilung einfließt

Die Profiling-Vorrangregel: Die Ausnahme, die alle Ausnahmen aufhebt

An dieser Stelle unterlaufen vielen Organisationen folgenschwere Klassifizierungsfehler. Artikel 6 Absatz 3 enthält eine absolute Vorrangregel: Unabhängig davon, ob eine der Ausnahmebedingungen erfüllt ist, gilt ein in Anhang III genanntes KI-System stets als hochriskant, wenn es ein Profiling natürlicher Personen durchführt.

Profiling bedeutet jede Form der automatisierten Verarbeitung personenbezogener Daten zur Bewertung bestimmter persönlicher Aspekte einer natürlichen Person – insbesondere zur Analyse oder Vorhersage von Arbeitsleistung, wirtschaftlicher Lage, Gesundheit, Vorlieben, Interessen, Zuverlässigkeit, Verhalten, Aufenthaltsort oder Bewegungen.

Diese Vorrangregel hat weitreichende Auswirkungen. Ein Recruiting-Tool mag lediglich die eng begrenzte Verfahrensaufgabe des Lebenslauf-Parsings ausführen – doch wenn es Kandidaten im Hinblick auf die Vorhersage der Arbeitsleistung bewertet, nimmt es ein Profiling natürlicher Personen vor und ist automatisch hochriskant. Ein Instrument zur Kredit-Vorqualifizierung mag lediglich vorbereitende Bewertungen durchführen – doch wenn es personenbezogene Daten zur Vorhersage der Kreditwürdigkeit analysiert, betreibt es Profiling und ist automatisch hochriskant.

Schrittweise Klassifizierungsmethodik

Angesichts der Komplexität des Klassifizierungsrahmens benötigen Organisationen einen systematischen Ansatz, der jeden Analyseschritt für eine auditfähige Klassifizierung dokumentiert.

  • Schritt 1 – Bestimmung des Anwendungsbereichs: Bestätigen, dass das System die Definition eines KI-Systems nach Artikel 3 Absatz 1 erfüllt
  • Schritt 2 – Prüfung verbotener Praktiken: Sicherstellen, dass das System nicht nach Artikel 5 verboten ist
  • Schritt 3 – Analyse nach Weg 1: Bewertung des Status als Sicherheitskomponente gemäß den in Anhang I aufgeführten Rechtsvorschriften
  • Schritt 4 – Analyse nach Weg 2: Abgleich der Zweckbestimmung mit den acht Kategorien des Anhangs III
  • Schritt 5 – Ausnahmenanalyse: Falls Anhang III greift, Prüfung der Bedingungen nach Artikel 6 Absatz 3
  • Schritt 6 – Prüfung der Profiling-Vorrangregel: Feststellen, ob das System ein Profiling natürlicher Personen durchführt (hebt sämtliche Ausnahmen auf)
  • Schritt 7 – Dokumentation: Vollständige Klassifizierungsanalyse mit stützender Begründung festhalten

Häufige Klassifizierungsfehler, die es zu vermeiden gilt

Erfahrungen aus Forschung und Beratung zeigen wiederkehrende Muster von Klassifizierungsfehlern, gegen die sich Organisationen aktiv wappnen müssen.

  • Technologiezentrierte Analyse: Die Klassifizierung richtet sich nach der Zweckbestimmung, nicht nach den technologischen Fähigkeiten des Systems
  • Unterschätzung des Profiling-Umfangs: Jedes System, das personenbezogene Daten verarbeitet, um Vorhersagen über Einzelpersonen zu treffen, löst mit hoher Wahrscheinlichkeit die Vorrangregel aus
  • Annahme, Human-in-the-Loop beseitige die Hochrisiko-Einstufung: Wenn KI-Ergebnisse menschliche Entscheidungen maßgeblich beeinflussen, bleibt das System hochriskant
  • Vernachlässigung der Weiterentwicklung des Anwendungsfalls: Funktionserweiterungen und ein erweiterter Einsatzkontext können Klassifizierungsgrenzen überschreiten
  • Fehlanwendung sektoraler Ausnahmen: Eng gefasste Ausnahmen (z. B. Betrugserkennung) gelten möglicherweise nicht, wenn die Profiling-Vorrangregel greift
  • Annahme, B2B reduziere das Risiko: Der geschäftliche Einsatzkontext hat keinen Einfluss auf die Klassifizierung – betroffene Personen bleiben geschützt

Was die Hochrisiko-Klassifizierung auslöst

Die Hochrisiko-Klassifizierung aktiviert den vollständigen Compliance-Rahmen nach Kapitel III: kontinuierliche Risikomanagementsysteme, Data-Governance-Anforderungen für Trainingsdatensätze, technische Dokumentation nach Anhang IV, Qualitätsmanagementsysteme, Pflichten zur menschlichen Aufsicht, Konformitätsbewertungsverfahren, Registrierung in der EU-Datenbank, Überwachung nach dem Inverkehrbringen und Meldepflichten bei schwerwiegenden Vorkommnissen.

Der Compliance-Aufwand ist erheblich, aber klar definiert. Organisationen, die ihre Systeme korrekt klassifizieren, können gezielte Compliance-Programme aufbauen. Organisationen, die falsch klassifizieren, verschwenden entweder Ressourcen für unnötige Compliance oder setzen sich einem Durchsetzungsrisiko durch unzureichende Compliance aus.

Häufig gestellte Fragen

Was ist, wenn mein System nur teilweise in eine Hochrisiko-Kategorie fällt?

In Grenzfällen, in denen die Klassifizierung unsicher bleibt, ist der konservative Ansatz die Einstufung des Systems als hochriskant. Die Folgen einer Überklassifizierung – unnötige, aber beherrschbare Compliance-Kosten – sind weitaus weniger schwerwiegend als die einer Unterklassifizierung: Bußgelder von bis zu 15 Millionen EUR oder 3 % des weltweiten Jahresumsatzes.

Entfällt die Hochrisiko-Klassifizierung durch menschliche Überprüfung?

Nein. Menschliche Aufsicht reduziert nicht automatisch die Klassifizierung. Wenn KI-Ergebnisse menschliche Entscheidungen maßgeblich beeinflussen – wenn Menschen KI-Empfehlungen in der Regel ohne eigenständige Analyse befolgen – beeinflusst das System die Ergebnisse wesentlich und bleibt hochriskant.

Kann ein System von nicht-hochriskant zu hochriskant wechseln?

Ja. Systeme, die zunächst für Anwendungen mit begrenztem Risiko eingesetzt werden, können sich in Richtung Hochrisiko-Anwendungsfälle weiterentwickeln. Funktionserweiterungen, erweiterte Einsatzkontexte und die Integration mit anderen Systemen können Klassifizierungsgrenzen überschreiten. Organisationen benötigen eine fortlaufende Klassifizierungsüberwachung, keine einmaligen Bewertungen.

Wann wird die Kommission Klassifizierungsleitlinien bereitstellen?

Die Europäische Kommission hat sich verpflichtet, bis Februar 2026 Leitlinien mit praxisnahen Beispielen für Hochrisiko- und Nicht-Hochrisiko-KI-Systeme bereitzustellen. Organisationen können jedoch nicht warten – die Klassifizierungsanalyse muss jetzt beginnen, um die Frist im August 2026 einzuhalten.

Die wichtigsten Erkenntnisse

Die Klassifizierung ist keine einmalige Übung. Da sich KI-Systeme weiterentwickeln, Einsatzkontexte verändern und regulatorische Leitlinien entstehen, müssen Organisationen eine fortlaufende Klassifizierungsüberwachung aufrechterhalten. Wer diese Fähigkeit jetzt aufbaut – vor der Frist im August 2026 –, ist in der Lage, die Anforderungen des EU AI Act mit Zuversicht zu erfüllen. Im Zweifelsfall gilt: Lieber auf der sicheren Seite klassifizieren – die für Hochrisiko-Systeme geforderten Maßnahmen sind zugleich bewährte Governance-Praktiken.

In Aktion sehen

Bereit, Ihre Compliance-Nachweise zu automatisieren?

Buchen Sie eine 20-minütige Demo, um zu sehen, wie KLA Ihnen hilft, Human Oversight nachzuweisen und auditfertige Annex IV Dokumentation zu exportieren.