Die KI-Verordnung der EU schafft unterschiedliche Compliance-Pfade, je nachdem ob ein SaaS-Unternehmen als Anbieter oder Betreiber eingestuft wird – eine Feststellung, die den gesamten regulatorischen Aufwand bestimmt. Für die meisten SaaS-Anbieter, die KI-Funktionen entwickeln, ist die Antwort eindeutig: Sie sind Anbieter gemäß Artikel 3 Absatz 3, was die anspruchsvollsten Pflichten der Verordnung auslöst – einschließlich Konformitätsbewertungen, technischer Dokumentation, CE-Kennzeichnung und Marktüberwachung nach dem Inverkehrbringen. Dieser Leitfaden bietet einen umfassenden Fahrplan zur Erfüllung dieser Anforderungen, mit besonderem Augenmerk auf die Frist im August 2026, ab der die Vorschriften für Hochrisiko-KI-Systeme durchsetzbar werden.
Anbieter versus Betreiber: Die Klassifizierung, die Ihre Pflichten bestimmt
Die KI-Verordnung der EU etabliert grundlegend unterschiedliche Compliance-Rahmenwerke für Anbieter und Betreiber. Zu verstehen, welche Rolle Ihr SaaS-Unternehmen einnimmt – und wann sich diese Klassifizierung verschieben kann – ist der wesentliche erste Schritt in der Compliance-Planung.
Ein Anbieter gemäß Artikel 3 Absatz 3 ist jede natürliche oder juristische Person, die ein KI-System entwickelt (oder entwickeln lässt) und es unter eigenem Namen oder eigener Marke in Verkehr bringt oder in Betrieb nimmt, unabhängig davon, ob dies entgeltlich oder unentgeltlich geschieht. Ein Betreiber gemäß Artikel 3 Absatz 4 ist jede natürliche oder juristische Person, die ein KI-System in eigener Verantwortung zu beruflichen Zwecken einsetzt. Für SaaS-Unternehmen bedeutet dies in der Regel: Der Anbieter ist der Softwarehersteller, der Kunde ist der Betreiber.
Der entscheidende Faktor ist, unter wessen Name oder Marke das KI-System erscheint. Ein SaaS-Unternehmen, das ein KI-gestütztes Recruiting-Tool unter seiner eigenen Marke anbietet, ist eindeutig Anbieter, während die Personalabteilung, die dieses Tool erwirbt und nutzt, Betreiber ist. Dies gilt auch dann, wenn das SaaS-Unternehmen KI-Modelle von Drittanbietern wie GPT-4 oder Claude integriert – wer eine API einbindet und unter eigener Marke anbietet, wird zum Anbieter dieses KI-Systems.
Mehrere Szenarien können diese Klassifizierungen verwischen oder verschieben. White-Label-Vereinbarungen sind besonders bedeutsam: Gemäß Artikel 25 Absatz 1 Buchstabe a wird ein Kunde, der seinen eigenen Namen oder seine eigene Marke auf ein bereits in Verkehr gebrachtes Hochrisiko-KI-System setzt, selbst zum Anbieter und übernimmt alle entsprechenden Pflichten. Wesentliche Änderungen stellen einen weiteren Auslöser dar – Artikel 3 Absatz 23 definiert diese als Änderungen, die bei der ursprünglichen Konformitätsbewertung nicht vorgesehen waren und die Konformität beeinträchtigen oder den Verwendungszweck ändern.
Feinabstimmung und Individualisierung stellen differenzierte Grenzfälle dar. Das bloße Hinzufügen eigener Daten oder die Anpassung von Hyperparametern stellt in der Regel keine wesentliche Änderung dar – Kunden bleiben Betreiber. Wenn ein Kunde jedoch ein Modell erheblich nachtrainiert, dessen Fähigkeiten grundlegend verändert oder ein Nicht-Hochrisiko-System für einen Hochrisiko-Zweck einsetzt, kann er gemäß Artikel 25 zum faktischen Anbieter werden. SaaS-Anbieter sollten diese Szenarien ausdrücklich in ihren Verträgen regeln, um Unklarheiten zu vermeiden.
Hochrisiko-Klassifizierung: Wann Ihre SaaS-Funktionen die volle Compliance auslösen
Die KI-Verordnung der EU verfolgt einen risikobasierten Regulierungsansatz, wobei Hochrisiko-KI-Systeme den strengsten Anforderungen unterliegen. Artikel 6 etabliert zwei Wege zur Hochrisiko-Klassifizierung: Sicherheitskomponenten in regulierten Produkten (Anhang I) und spezifische Anwendungsfälle, die in Anhang III aufgeführt sind.
Artikel 6 Absatz 3 sieht Ausnahmen vor – Systeme nach Anhang III gelten nicht als hochriskant, wenn sie eng begrenzte Verfahrensaufgaben ausführen, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit verbessern, Entscheidungsmuster erkennen, ohne die menschliche Bewertung zu ersetzen, oder vorbereitende Aufgaben durchführen. Systeme, die jedoch ein Profiling natürlicher Personen durchführen, gelten ungeachtet dieser Ausnahmen stets als hochriskant.
SaaS-Anbieter sollten für jede KI-Funktion eine sorgfältige Klassifizierungsanalyse durchführen. Ein allgemeiner Kundenservice-Chatbot stellt ein begrenztes Risiko dar und erfordert lediglich Transparenzhinweise. Eine Empfehlungsmaschine birgt typischerweise minimales Risiko. Sobald jedoch dieselbe Technologie zum Filtern von Stellenbewerbern oder zur Bewertung der Kreditwürdigkeit eingesetzt wird, wird sie zum Hochrisiko-System mit vollständigen Compliance-Anforderungen. Der Verwendungszweck – nicht die zugrunde liegende Technologie – bestimmt die Klassifizierung.
- Beschäftigung und Personalverwaltung (Kategorie 4): KI für Einstellung, Bewerbervorauswahl, zielgerichtete Stellenanzeigen, Beschäftigungsentscheidungen, Aufgabenzuweisung und Leistungsüberwachung
- Zugang zu wesentlichen Dienstleistungen (Kategorie 5): Kreditscoring, Kreditwürdigkeitsprüfung, Risikobewertung und Preisgestaltung für Lebens- und Krankenversicherungen
- Bildung (Kategorie 3): KI zur Bestimmung des Zugangs, Bewertung von Lernergebnissen, Feststellung des Bildungsniveaus, Überwachung des Verhaltens von Prüflingen während Prüfungen
- Biometrie (Kategorie 1): Biometrische Fernidentifizierung, biometrische Kategorisierung und Emotionserkennungssysteme, sofern zulässig
Anbieterpflichten: Das vollständige Compliance-Rahmenwerk für Hochrisiko-KI
Anbieter von Hochrisiko-KI-Systemen stehen vor einem umfassenden regulatorischen Rahmenwerk, das Anforderungen vor dem Inverkehrbringen, die Konformitätsbewertung und laufende Pflichten nach dem Inverkehrbringen umfasst. Für SaaS-Unternehmen müssen diese Anforderungen von Beginn an in die Produktentwicklungsprozesse integriert werden.
Artikel 9 schreibt ein kontinuierliches, iteratives Risikomanagementsystem über den gesamten KI-Lebenszyklus vor. Anbieter müssen bekannte und vorhersehbare Risiken identifizieren und analysieren, Risiken auf der Grundlage des bestimmungsgemäßen Gebrauchs und einer vernünftigerweise vorhersehbaren Fehlanwendung bewerten, geeignete Risikominderungsmaßnahmen umsetzen und verbleibende Restrisiken dokumentieren.
Artikel 10 legt Anforderungen an die Daten-Governance für datenbasiert trainierte Systeme fest. Trainings-, Validierungs- und Testdatensätze müssen relevant, repräsentativ und so weit wie möglich fehlerfrei sein. Anbieter müssen die Datenherkunft dokumentieren, Mechanismen zur Erkennung und Korrektur von Verzerrungen implementieren und angemessene Verfahren für den Umgang mit besonderen Kategorien personenbezogener Daten einrichten, die ausschließlich zur Erkennung von Verzerrungen verwendet werden.
Anforderungen an die technische Dokumentation gemäß Anhang IV
Anhang IV legt umfassende Dokumentationsanforderungen fest, die unmittelbar auf SaaS-Produkte anwendbar sind. Die Dokumentation muss folgende Bereiche abdecken: Allgemeine Beschreibung (Verwendungszweck, Identifikation des Anbieters, Versionshistorie, alle Formen der Marktplatzierung einschließlich APIs, Hardwareanforderungen und Beschreibung der Benutzeroberfläche), Entwicklungsprozess (Designspezifikationen, Systemarchitektur, verwendete Rechenressourcen, wesentliche Designentscheidungen und deren Begründung) und Datenanforderungen (Trainingsmethoden, Beschreibung und Herkunft der Datensätze, Datenerhebungsmethoden, Kennzeichnungsverfahren).
Für kontinuierlich aktualisierende SaaS-Systeme ist die Dokumentation vorab festgelegter Änderungen von entscheidender Bedeutung – eine detaillierte Dokumentation aller vorgesehenen Änderungen und technischen Lösungen, die die fortlaufende Konformität sicherstellen. Dies ist wesentlich, um wiederholte Konformitätsbewertungen zu vermeiden. Artikel 11 sieht vor, dass KMU und Start-ups ein vereinfachtes Dokumentationsformular verwenden können, das von der Europäischen Kommission erstellt wird.
- Die Dokumentation muss 10 Jahre nach Inverkehrbringen des Systems aufbewahrt werden
- Tests und Validierungen müssen Kennzahlen für Genauigkeit, Robustheit und Konformität mit datierten und unterzeichneten Testprotokollen umfassen
- Maßnahmen zur menschlichen Aufsicht müssen gemäß den Anforderungen von Artikel 14 dokumentiert werden
- Vorab festgelegte Änderungen müssen dokumentiert werden, um wiederholte Konformitätsbewertungen zu vermeiden
Verfahren der Konformitätsbewertung
Artikel 43 etabliert zwei Wege der Konformitätsbewertung. Die interne Kontrolle (Anhang VI) ermöglicht eine Selbstbewertung, wenn der Anbieter harmonisierte Normen oder gemeinsame Spezifikationen angewandt hat, die alle relevanten Anforderungen abdecken. Die Bewertung durch Dritte durch eine benannte Stelle (Anhang VII) ist verpflichtend für biometrische Fernidentifizierungssysteme und Systeme, die aus biometrischen Daten Rückschlüsse auf persönliche Merkmale ziehen, wobei die Zertifizierung vier Jahre gültig ist.
Für SaaS-Produkte mit kontinuierlicher Aktualisierung bietet Artikel 43 Absatz 4 entscheidende Flexibilität: Änderungen, die bei der erstmaligen Konformitätsbewertung vorab festgelegt und in den technischen Spezifikationen dokumentiert wurden, stellen keine wesentlichen Änderungen dar, die eine erneute Bewertung erfordern. Dies ermöglicht es kontinuierlich lernenden Systemen, ohne wiederholte Bewertungen zu operieren – vorausgesetzt, die Änderungen wurden vorab antizipiert und dokumentiert.
CE-Kennzeichnung: Digitale Konformitätskennzeichen für Softwareprodukte
Die Anforderungen an die CE-Kennzeichnung gelten für Hochrisiko-KI-Systeme vor deren Inverkehrbringen. Artikel 48 Absatz 2 adressiert speziell SaaS- und digitale Produkte und verlangt eine digitale CE-Kennzeichnung, die leicht über die Schnittstelle, über die auf das System zugegriffen wird, oder über einen leicht zugänglichen maschinenlesbaren Code oder andere elektronische Mittel abrufbar ist.
Die praktische Umsetzung für SaaS umfasst die Anzeige der digitalen CE-Kennzeichnung innerhalb der Software-Oberfläche, die Zugänglichkeit über maschinenlesbare Codes (QR-Codes oder API-Endpunkte) oder die Bereitstellung anderer elektronischer Mittel zur einfachen Zugänglichkeit. Die Kennzeichnung muss sichtbar, lesbar und dauerhaft sein, einschließlich der Kennnummer der benannten Stelle, sofern eine Drittbewertung durchgeführt wurde.
Anbieter müssen außerdem eine EU-Konformitätserklärung (Artikel 47) für jedes KI-System ausstellen, die zehn Jahre nach Inverkehrbringen aufbewahrt und den nationalen Behörden zur Verfügung stehen muss. Die Registrierung in der EU-Datenbank (Artikel 49 und 71) verpflichtet Anbieter, sich selbst und ihre Hochrisiko-KI-Systeme vor dem Inverkehrbringen zu registrieren.
Überwachung nach dem Inverkehrbringen und Meldung von Vorfällen
Die Pflichten des Anbieters bestehen während des gesamten Lebenszyklus des KI-Systems fort. Artikel 72 schreibt ein System zur Überwachung nach dem Inverkehrbringen vor, das der Art der Technologie und den Risiken angemessen ist. Das System muss aktiv und systematisch Leistungsdaten während der gesamten Lebensdauer des Systems erheben, dokumentieren und analysieren, die fortlaufende Konformität bewerten und Interaktionen mit anderen KI-Systemen analysieren, sofern relevant.
Die Protokollierungsanforderungen gemäß Artikel 12 verlangen, dass Hochrisiko-Systeme die automatische Aufzeichnung von Ereignissen während ihrer gesamten Lebensdauer technisch ermöglichen. Protokolle müssen Situationen identifizieren, die ein Risiko darstellen, die Überwachung nach dem Inverkehrbringen erleichtern und die Aufsicht durch den Betreiber ermöglichen. Anbieter müssen Protokolle mindestens sechs Monate aufbewahren.
Die Meldung von Vorfällen (Artikel 73) verpflichtet Anbieter, schwerwiegende Vorfälle – definiert als Tod, schwere Gesundheitsschäden, Sachschäden, Umweltschäden, Störung kritischer Infrastrukturen oder Verletzung von Grundrechten – den Marktüberwachungsbehörden zu melden. Die Standardfrist beträgt 15 Tage nach Feststellung des Kausalzusammenhangs; schwerwiegende Vorfälle, die Leben oder Gesundheit betreffen, erfordern eine Meldung innerhalb von zwei Tagen.
Betreiberpflichten und wie SaaS-Anbieter ihre Kunden unterstützen müssen
Obwohl Betreiber weniger direkte regulatorische Anforderungen haben, tragen Betreiber von Hochrisiko-KI-Systemen erhebliche Pflichten gemäß Artikel 26. SaaS-Anbieter müssen die Compliance ihrer Kunden ermöglichen und unterstützen.
Die menschliche Aufsicht stellt die zentrale Betreiberpflicht dar. Betreiber müssen die menschliche Aufsicht natürlichen Personen übertragen, die über die erforderliche Kompetenz, Ausbildung, Befugnis und Unterstützung verfügen. Aufsichtspersonen müssen die Fähigkeiten und Grenzen des Systems verstehen, sich der Automatisierungsverzerrung bewusst bleiben, Ergebnisse korrekt interpretieren und die Befugnis behalten, das System außer Kraft zu setzen oder zu unterbrechen. Bei biometrischen Identifizierungssystemen ist die Überprüfung durch mindestens zwei natürliche Personen erforderlich, bevor Maßnahmen ergriffen werden.
Die Transparenz gegenüber betroffenen Personen verpflichtet Betreiber von Hochrisiko-Systemen, die Entscheidungen über Einzelpersonen treffen, diese Personen über den Einsatz des KI-Systems zu informieren. Gemäß Artikel 86 haben betroffene Personen das Recht, klare und aussagekräftige Erläuterungen zur Rolle des KI-Systems und zu den wesentlichen Elementen der Entscheidungen zu erhalten.
Grundrechte-Folgenabschätzungen (Artikel 27) sind für bestimmte Betreiber vorgeschrieben: öffentliche Stellen, private Einrichtungen, die öffentliche Dienstleistungen erbringen, und jeden Betreiber, der KI zur Kreditwürdigkeitsprüfung oder Versicherungsrisikobewertung einsetzt. Die Grundrechte-Folgenabschätzung muss die Prozesse des Betreibers, Dauer und Häufigkeit der Nutzung, betroffene Personenkategorien, spezifische Risiken für Grundrechte, Maßnahmen zur menschlichen Aufsicht und Risikominderungsmaßnahmen dokumentieren.
- Umfassende Gebrauchsanweisungen gemäß den Anforderungen von Artikel 13 bereitstellen
- Menschliche Aufsicht durch geeignete Schnittstellengestaltung ermöglichen
- Zugang zu Protokollen und Interpretationstools bereitstellen
- Technische Dokumentation für die Datenschutz-Folgenabschätzung bereitstellen
- Schulungen für Aufsichtspersonen und Genauigkeitskennzahlen anbieten
- Kanäle zur Meldung von Vorfällen einrichten
Vertragsanforderungen: Was KI-gestützte SaaS-Vereinbarungen enthalten müssen
Artikel 13 schreibt spezifische Informationen vor, die Anbieter den Betreibern zur Verfügung stellen müssen. SaaS-Vereinbarungen sollten diese Anforderungen systematisch aufgreifen, mit klaren vertraglichen Bestimmungen zu jedem Element.
Erforderliche Offenlegungen umfassen die Identität und Kontaktdaten des Anbieters, den Verwendungszweck und detaillierte Leistungsmerkmale, das Niveau von Genauigkeit, Robustheit und Cybersicherheitskennzahlen, bekannte Umstände, die zu Risiken führen können, Spezifikationen der Eingabedaten, erwartete Ausgabemerkmale und Interpretationshilfen, vorab festgelegte Änderungen und deren Auswirkungen auf die Konformität, Maßnahmen zur menschlichen Aufsicht, Rechenanforderungen, die erwartete Lebensdauer und Protokollierungsmechanismen.
Vertragliche Rahmenelemente sollten klare Klassifizierungsbestimmungen zur Bestätigung des Anbieter-/Betreiberstatus, Beschränkungen des Anwendungsbereichs auf den bestimmungsgemäßen Gebrauch mit ausdrücklichen Klauseln über verbotene Nutzungen, Anbietergarantien zur Einhaltung der Artikel 9–15, Betreibergarantien zur Einhaltung von Artikel 26, Informationsaustauschpflichten, Kooperationsanforderungen für die Überwachung nach dem Inverkehrbringen und die Meldung von Vorfällen sowie Kündigungsauslöser bei wesentlichen Vertragsverletzungen oder Änderungen der Klassifizierung umfassen.
KI-Modelle mit allgemeinem Verwendungszweck: Zusätzliche Pflichten bei der Integration von Basismodellen
SaaS-Unternehmen, die KI-Modelle mit allgemeinem Verwendungszweck wie GPT-4, Claude oder Gemini integrieren, unterliegen einem spezifischen regulatorischen Rahmenwerk. Artikel 3 Absatz 63 definiert GPAI-Modelle als Modelle, die eine erhebliche Allgemeinheit aufweisen, ein breites Spektrum unterschiedlicher Aufgaben ausführen können und in eine Vielzahl nachgelagerter Systeme integrierbar sind.
Wichtige Unterscheidung: SaaS-Unternehmen, die GPAI-Modelle integrieren, sind in der Regel Anbieter von KI-Systemen oder nachgelagerte Anbieter – nicht Anbieter von GPAI-Modellen. Sie unterliegen nicht den GPAI-Modellpflichten der Artikel 53–55, die OpenAI, Anthropic, Google und ähnliche Basismodell-Entwickler treffen. Stattdessen müssen SaaS-Unternehmen die KI-System-Anforderungen erfüllen, die ihrer Risikoklassifizierung entsprechen.
Anbieter von GPAI-Modellen müssen Dokumentation bereitstellen, die es nachgelagerten Anbietern ermöglicht, Fähigkeiten und Grenzen zu verstehen. Gemäß Artikel 53 Absatz 1 Buchstabe b können GPAI-Anbieter verpflichtet werden, auf integrationsrelevante Anfragen innerhalb von 14 Tagen zusätzliche Informationen bereitzustellen. GPAI-Modelle mit systemischem Risiko – solche, die mit einer kumulativen Rechenleistung von mehr als 10^25 FLOPS trainiert wurden – unterliegen zusätzlichen Anforderungen, darunter Modellevaluierungen, adversariale Tests und Cybersicherheitsmaßnahmen.
Zeitplan: Kritische Termine für die SaaS-Compliance-Planung
Seit Januar 2026 sind bereits mehrere wesentliche Bestimmungen durchsetzbar, wobei die bedeutendste Frist in sieben Monaten bevorsteht.
Bereits in Kraft: Verbotene KI-Praktiken (2. Februar 2025), einschließlich Social Scoring, manipulativer KI und unerlaubter biometrischer Verfahren. Anforderungen an die KI-Kompetenz (2. Februar 2025), die Organisationen verpflichten, sicherzustellen, dass Mitarbeitende über ausreichende KI-Kompetenz verfügen. GPAI-Modellpflichten (2. August 2025) für Anbieter von Basismodellen. Governance-Strukturen (2. August 2025) mit aktivem Sanktionsregime von bis zu 35 Millionen EUR oder 7 % des weltweiten Jahresumsatzes.
Die entscheidende bevorstehende Frist ist der 2. August 2026: Die Anforderungen an Hochrisiko-KI-Systeme gelten für Kategorien nach Anhang III, Transparenzpflichten gemäß Artikel 50 werden durchsetzbar, und die nationale Durchsetzung wird vollständig operativ.
- 2. Februar 2025: Verbotene KI-Praktiken mit Höchststrafen durchsetzbar
- 2. August 2025: GPAI-Modellpflichten in Kraft; nationale Behörden benannt
- 2. August 2026: Vollständige Anforderungen an Hochrisiko-KI-Systeme gemäß Anhang III treten in Kraft
- 2. August 2027: Anforderungen gelten für Hochrisiko-KI in regulierten Produkten
Praktische Compliance-Strategien für die SaaS-Entwicklung
Die Integration der Anforderungen der KI-Verordnung in die Produktentwicklung erfordert systematische Governance-Rahmenwerke und Prozessintegration.
Sofortige Prioritäten (Q1 2026): Eine Bestandsaufnahme der KI-Systeme über alle Produkte und Funktionen hinweg durchführen, jedes System nach Risikokategorie klassifizieren, die Verantwortlichkeiten als Anbieter oder Betreiber für jedes Einsatzszenario identifizieren, eine Lückenanalyse gegenüber den geltenden Anforderungen durchführen und KI-Drittanbieter hinsichtlich ihrer Compliance-Aufstellung bewerten.
Aufbau der Grundlagen (Q1–Q2 2026): Einen KI-Governance-Ausschuss mit klarer Verantwortlichkeit einrichten, eine KI-Richtlinie im Einklang mit dem risikobasierten Ansatz entwickeln, Schulungsprogramme zur KI-Kompetenz implementieren, Dokumentationsvorlagen für technische Dokumentation und Risikobewertungen erstellen und Allgemeine Geschäftsbedingungen sowie SaaS-Vereinbarungen mit den Offenlegungen gemäß Artikel 13 aktualisieren.
Compliance für Hochrisiko-Systeme (Q2–Q3 2026): Risikomanagementsysteme gemäß Artikel 9 implementieren, Verfahren zur Daten-Governance gemäß Artikel 10 etablieren, technische Dokumentation nach Anhang IV erstellen, Mechanismen zur menschlichen Aufsicht gemäß den Anforderungen von Artikel 14 konzipieren, Protokollierungssysteme gemäß Artikel 12 implementieren und die Konformitätsbewertung vorbereiten.
Anwendungsfall-Klassifizierungen: Wie gängige SaaS-KI-Funktionen reguliert werden
Kundenservice-Chatbots stellen ein begrenztes Risiko dar und erfordern Transparenzhinweise gemäß Artikel 50. Nutzer müssen darüber informiert werden, dass sie mit einer KI interagieren, es sei denn, dies ist aus den Umständen offensichtlich. Über die Transparenzpflicht hinaus sind weder eine Konformitätsbewertung noch eine verpflichtende Dokumentation erforderlich.
Empfehlungsmaschinen stellen für grundlegende Produktempfehlungen oder Content-Personalisierung typischerweise ein minimales Risiko dar. Sie werden jedoch hochriskant, wenn sie für das Profiling von Einzelpersonen bei Beschäftigungsentscheidungen oder die Bestimmung des Zugangs zu wesentlichen Dienstleistungen eingesetzt werden.
KI im Personalwesen und bei der Einstellung ist explizit hochriskant gemäß Anhang III Kategorie 4. Dies umfasst KI für die Einstellung und Auswahl, die Bewerbervorauswahl, zielgerichtete Stellenanzeigen, Beschäftigungsentscheidungen, Aufgabenzuweisung basierend auf individuellem Verhalten und Leistungsüberwachung. Die vollständigen Compliance-Anforderungen gelten.
Kredit- und Finanzbewertungstools sind explizit hochriskant gemäß Anhang III Kategorie 5 für die Kreditwürdigkeitsprüfung, das Kreditscoring und die Risikobewertung für Lebens- und Krankenversicherungen. Die Ausnahme: KI, die ausschließlich der Erkennung von Finanzbetrug dient, ist nicht hochriskant.
Häufig gestellte Fragen
Sind wir Anbieter oder Betreiber unter der KI-Verordnung der EU?
Wenn Sie das KI-System entwickelt haben oder es unter Ihrem Namen oder Ihrer Marke in Verkehr bringen, sind Sie Anbieter mit vollständigen Compliance-Pflichten. Wenn Sie KI von Drittanbietern in eigener Verantwortung zu beruflichen Zwecken nutzen, sind Sie Betreiber mit geringeren, aber dennoch erheblichen Pflichten. Viele SaaS-Unternehmen sind Anbieter für ihre eigenen KI-Funktionen und gleichzeitig Betreiber integrierter Drittanbieter-KI. Der entscheidende Faktor ist, unter wessen Marke das KI-System erscheint.
Benötige ich eine CE-Kennzeichnung für SaaS-KI-Funktionen?
Ja, wenn Ihr SaaS Hochrisiko-KI-Funktionen enthält und Sie der Anbieter sind. Artikel 48 Absatz 2 adressiert speziell digitale Produkte und verlangt eine digitale CE-Kennzeichnung, die über die Software-Oberfläche, maschinenlesbare Codes oder andere elektronische Mittel zugänglich ist. Zudem müssen Sie sich vor dem Inverkehrbringen in der EU-KI-Datenbank registrieren.
Was passiert, wenn mein Kunde unsere KI für einen Hochrisiko-Zweck einsetzt?
Wenn ein Kunde Ihre KI für einen Hochrisiko-Anwendungsfall umwidmet, der nicht von Ihrer Konformitätsbewertung abgedeckt ist, kann er gemäß Artikel 25 zum faktischen Anbieter werden und die Anbieterpflichten übernehmen. Klare Allgemeine Geschäftsbedingungen mit ausdrücklichen Klauseln über verbotene Nutzungen, technische Kontrollen zur Einschränkung von Hochrisiko-Anwendungen und vertragliche Bestimmungen zu Klassifizierungsänderungen können Ihr Haftungsrisiko begrenzen.
Wie gehen kontinuierlich aktualisierende SaaS-Systeme mit der Konformitätsbewertung um?
Artikel 43 Absatz 4 bietet entscheidende Flexibilität: Änderungen, die bei der erstmaligen Konformitätsbewertung vorab festgelegt und in den technischen Spezifikationen dokumentiert wurden, stellen keine wesentlichen Änderungen dar, die eine erneute Bewertung erfordern. Dies ermöglicht es kontinuierlich lernenden Systemen, ohne wiederholte Bewertungen zu operieren – allerdings nur, wenn die Änderungen vorab antizipiert und dokumentiert wurden.
Welche Informationen müssen wir unseren Kunden gemäß Artikel 13 bereitstellen?
Erforderliche Offenlegungen umfassen: Identität und Kontaktdaten des Anbieters, Verwendungszweck und Leistungsmerkmale, Kennzahlen für Genauigkeit und Robustheit, bekannte Risikoumstände, Spezifikationen der Eingabedaten, Interpretationshilfen für die Ausgabe, vorab festgelegte Änderungen, Maßnahmen zur menschlichen Aufsicht, Rechenanforderungen und Protokollierungsmechanismen. Diese sollten systematisch in Ihre SaaS-Vereinbarungen aufgenommen werden.
Die wichtigsten Erkenntnisse
Die KI-Verordnung der EU stellt das weltweit umfassendste Regulierungsrahmenwerk für KI dar, mit extraterritorialer Reichweite, die jedes SaaS-Unternehmen betrifft, das EU-Kunden bedient oder in der EU ansässige Personen berührt. Das sieben Monate umfassende Zeitfenster bis zur Durchsetzung im August 2026 ist der entscheidende Zeitraum für die Etablierung konformer Prozesse. Die Klassifizierung bestimmt alles – investieren Sie in eine rigorose Analyse jeder KI-Funktion anhand der Kategorien in Anhang III. Dokumentation ist Verteidigung – die Anforderungen nach Anhang IV sollten in Entwicklungsabläufe integriert werden, anstatt sie als nachträgliche Compliance-Maßnahme zu behandeln. Verträge sind Compliance-Instrumente – SaaS-Vereinbarungen müssen weiterentwickelt werden, um die Offenlegungen gemäß Artikel 13, Pflichten zur Unterstützung der Betreiber und klare Bestimmungen zur Rollenklassifizierung aufzunehmen. Unternehmen, die die Einhaltung der KI-Verordnung als Disziplin der Produktentwicklung und nicht als rechtliche Belastung behandeln, werden sowohl hinsichtlich regulatorischer Konformität als auch des Kundenvertrauens am besten aufgestellt sein.
