Leitplanken
Technische und prozedurale Mechanismen, die KI-Verhalten innerhalb akzeptabler Grenzen halten und schädliche oder nicht-konforme Outputs verhindern.
Begriffserklärung
Leitplanken sind technische und prozedurale Mechanismen, die KI-Systemverhalten innerhalb akzeptabler Grenzen halten und Outputs oder Aktionen verhindern, die Schaden verursachen, Policies verletzen oder regulatorische Anforderungen brechen könnten. Im Gegensatz zu passivem Monitoring greifen Leitplanken aktiv ein: Sie blockieren, modifizieren oder eskalieren KI-Operationen, die definierte Parameter überschreiten.
Die Anforderungen des EU AI Act an Risikomanagement, menschliche Aufsicht und Robustheit hängen von wirksamen Leitplanken ab. Artikel 9 verlangt Maßnahmen zur Eliminierung oder Reduktion von Risiken; Artikel 14 verlangt Mechanismen, die menschliche Intervention ermöglichen. Leitplanken übersetzen diese Anforderungen in Runtime-Kontrollen: Compliance wird nicht nur dokumentiert, sondern im Betrieb durchgesetzt. Für KI-Agenten, die autonome Aktionen ausführen, sind Leitplanken besonders kritisch: Ein Agent, der E-Mails versendet, Transaktionen ausführt oder auf sensible Daten zugreift, braucht durchsetzbare Grenzen gegen unautorisierte oder schädliche Handlungen. Die Betonung von menschlicher Aufsicht wird praktisch durch Leitplanken umgesetzt, die Hochrisiko-Aktionen „gaten“ und vor irreversiblen Schritten eine menschliche Freigabe verlangen.
Organisationen sollten verschiedene Leitplanken-Typen unterscheiden und passend einsetzen. Input-Leitplanken validieren und bereinigen eingehende Daten oder Prompts vor Verarbeitung. Output-Leitplanken filtern oder blockieren Antworten mit schädlichem, verzerrtem oder nicht-konformem Inhalt. Action-Leitplanken verhindern, dass KI-Agenten Hochrisiko-Operationen ohne ausreichende Autorisierung ausführen.
Der robusteste Ansatz behandelt Leitplanken als Policy-as-Code: Compliance-Regeln werden programmatisch kodifiziert und durchgesetzt, statt auf manuelle Review jeder Transaktion zu setzen. Das ermöglicht konsistente Durchsetzung in großem Maßstab bei gleichzeitiger Auditierbarkeit der Policy-Anwendung. Nicht alle Leitplanken sollten jedoch vollautomatisch sein; bei High-Stakes-Entscheidungen sind häufig menschliche Approval-Gates erforderlich, die Ausführung pausieren, bis ein autorisierter Operator prüft und freigibt.
Verwandte Begriffe
Menschliche Aufsicht
Mechanismen, die sicherstellen, dass Menschen KI-Systeme überwachen, eingreifen und sie bei Bedarf außer Kraft setzen können.
Drift-Erkennung
Monitoring der KI-Systemleistung über die Zeit, um Degradation oder Abweichungen vom erwarteten Verhalten zu erkennen.
KI-Governance
Der Rahmen aus Richtlinien, Prozessen und Kontrollen, der sicherstellt, dass KI-Systeme sicher, ethisch und regelkonform entwickelt, bereitgestellt und betrieben werden.
