Drift-Erkennung
Monitoring der KI-Systemleistung über die Zeit, um Degradation oder Abweichungen vom erwarteten Verhalten zu erkennen.
Begriffserklärung
Drift-Erkennung bezeichnet die kontinuierliche Überwachung von KI-Systemen in Produktion, um Abweichungen vom erwarteten Verhalten zu erkennen. KI-Systeme können sich über die Zeit verschlechtern, wenn sich reale Inputdaten von Trainingsdaten entfernen, Nutzerverhalten sich ändert oder die zugrunde liegenden Zusammenhänge im Umfeld driften. Ohne Drift-Erkennung merken Organisationen oft erst sehr spät, dass Systeme unzuverlässige oder verzerrte Outputs liefern.
Artikel 72 des EU AI Act verpflichtet Anbieter von Hochrisiko-KI, Systeme zur Überwachung nach dem Inverkehrbringen einzurichten, die Leistungsdaten über die gesamte Lebensdauer aktiv erfassen, dokumentieren und analysieren. Drift-Erkennung ist eine Kernfähigkeit, um diese Pflicht zu erfüllen. Man kann nicht überwachen, ob ein System weiterhin wie vorgesehen funktioniert, ohne zu erkennen, wann es das nicht mehr tut. Der Rechtsakt erkennt an, dass KI nicht statisch ist: Anders als klassische Software kann sich KI-Verhalten ändern, wenn sich Datenmuster in der Produktion verschieben. Eine Konformitätsbewertung zum Zeitpunkt des Inverkehrbringens garantiert keine fortlaufende Compliance; kontinuierliches Monitoring ist erforderlich.
Wirksame Drift-Erkennung adressiert mehrere Abweichungsarten: Data Drift (Änderung der Eingabeverteilung), Concept Drift (Änderung der Beziehung zwischen Inputs und korrekten Outputs), Model Performance Drift (Verschlechterung von Accuracy, Precision, Recall etc.) und Prediction Drift (Änderung der Outputverteilung, auch wenn Accuracy stabil bleibt).
Drift-Erkennung erfordert Baselines aus der Validierung, statistisches Monitoring in Produktion (z. B. population stability index, Kolmogorov-Smirnov-Tests oder Divergenzmaße), geeignete Alert-Schwellen und definierte Response-Prozesse für erkannte Drift.
Verwandte Begriffe
Bias-Erkennung
Der Prozess, unfairen oder diskriminierenden Muster in KI-Ausgaben oder Trainingsdaten zu identifizieren und zu messen.
Überwachung nach dem Inverkehrbringen
Kontinuierliche Überwachung von KI-Systemleistung und Compliance nach Deployment, um Probleme zu erkennen und zu beheben.
Leitplanken
Technische und prozedurale Mechanismen, die KI-Verhalten innerhalb akzeptabler Grenzen halten und schädliche oder nicht-konforme Outputs verhindern.
