Hochrisiko-KI-Systeme unter der KI-Verordnung: Die vollstaendige Liste
Die KI-Verordnung (EU AI Act) unterscheidet vier Risikostufen fuer KI-Systeme. Die folgenreichste Kategorie fuer Unternehmen ist die der Hochrisiko-KI-Systeme. Diese unterliegen umfangreichen Pflichten - von technischer Dokumentation ueber Risikomanagement bis hin zu menschlicher Aufsicht. Wer ein solches System betreibt oder entwickelt und die Anforderungen nicht erfuellt, riskiert ab dem 2. August 2026 Bussgelder von bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes.
Dieser Artikel listet saemtliche Hochrisiko-Kategorien aus Anhang III der Verordnung (EU) 2024/1689 auf, erklaert sie mit konkreten deutschen Beispielen und zeigt, welche Pflichten sich daraus ergeben.
Wann gilt ein KI-System als Hochrisiko?
Die KI-Verordnung definiert in Artikel 6 zwei Wege, ueber die ein KI-System als Hochrisiko eingestuft wird:
Weg 1 - Anhang I (Artikel 6 Absatz 1): Das KI-System ist ein Sicherheitsbauteil eines Produkts, das unter bestehende EU-Harmonisierungsvorschriften faellt (z.B. Medizinprodukte, Maschinen, Spielzeug, Aufzuege). Diese Systeme muessen bis zum 2. August 2027 konform sein.
Weg 2 - Anhang III (Artikel 6 Absatz 2): Das KI-System faellt in eine der acht in Anhang III aufgefuehrten Kategorien. Diese Systeme muessen ab dem 2. August 2026 die Anforderungen erfuellen.
Die folgende Liste konzentriert sich auf Anhang III - die acht Kategorien, die fuer die meisten Unternehmen in Deutschland relevant sind.
Die 8 Hochrisiko-Kategorien nach Anhang III
Kategorie 1: Biometrische Identifizierung und Kategorisierung von Personen
Betroffene Systeme (Anhang III Nr. 1):
- Biometrische Echtzeit-Fernidentifizierungssysteme und nachtraegliche biometrische Fernidentifizierung
- Systeme zur biometrischen Kategorisierung nach sensiblen Merkmalen (Ethnie, politische Meinungen, Gewerkschaftszugehoerigkeit, religioese Ueberzeugungen, sexuelle Orientierung)
- Emotionserkennungssysteme (soweit nicht nach Artikel 5 verboten)
Beispiele aus der Praxis:
- Gesichtserkennungssysteme bei Zugangskontrollen in Unternehmen
- Biometrische Verifizierung bei Banken (Video-Ident-Verfahren)
- Stimmungsanalyse-Tools, die auf Kundengefuehle schliessen
- Alters- oder Geschlechtserkennung in Werbedisplays
Wichtige Abgrenzung: Rein technische biometrische Verifikation (1:1-Vergleich, z.B. Fingerabdruck-Entsperrung eines Geraets) faellt in der Regel nicht unter Hochrisiko. Kritisch wird es bei Identifizierung (1:N-Vergleich gegen eine Datenbank).
Kategorie 2: Kritische Infrastruktur
Betroffene Systeme (Anhang III Nr. 2):
- KI als Sicherheitskomponente im Management und Betrieb kritischer digitaler Infrastruktur
- KI als Sicherheitskomponente im Strassenverkehr, in der Wasser-, Gas-, Waerme- und Stromversorgung
Beispiele aus der Praxis:
- Predictive Maintenance in Stromnetzen (Vorausschauende Wartung)
- Autonome Steuerung von Wasseraufbereitungsanlagen
- Verkehrsleitsysteme mit KI-Komponenten
- Lastmanagement in Energienetzen durch KI-Algorithmen
- KI-gestuetzte Ueberwachung von Gasleitungen
Relevanz fuer Deutschland: Betreiber kritischer Infrastrukturen (KRITIS) muessen diese Anforderungen zusaetzlich zu den Pflichten aus dem NIS2-Umsetzungsgesetz und dem BSI-Gesetz erfuellen. Die Ueberschneidungen sind erheblich - eine integrierte Compliance-Strategie ist empfehlenswert.
Kategorie 3: Allgemeine und berufliche Bildung
Betroffene Systeme (Anhang III Nr. 3):
- KI zur Bestimmung des Zugangs zu Bildungseinrichtungen oder zur Zuweisung von Personen zu Bildungseinrichtungen
- KI zur Bewertung von Lernergebnissen, einschliesslich der Steuerung des Lernprozesses
- KI zur Bewertung des angemessenen Bildungsniveaus einer Person
- KI zur Ueberwachung und Erkennung verbotenen Verhaltens bei Pruefungen
Beispiele aus der Praxis:
- Automatisierte Bewerbungsauswahl fuer Hochschulzugang (z.B. NC-Verfahren mit KI)
- Adaptive Lernsysteme, die den Schwierigkeitsgrad automatisch anpassen
- Automatische Bewertung von Klausuren und Pruefungsleistungen
- Plagiatserkennung mit KI-Komponenten
- Online-Pruefungsaufsicht (Proctoring) mit Verhaltensanalyse
Besonderheit: Auch Unternehmen sind betroffen, wenn sie KI-gestuetzte Weiterbildungs- und Zertifizierungsprogramme einsetzen, die ueber den Zugang zu bestimmten Berufsqualifikationen entscheiden.
Kategorie 4: Beschaeftigung, Personalmanagement und Zugang zur Selbstaendigkeit
Betroffene Systeme (Anhang III Nr. 4):
- KI fuer die Einstellung oder Auswahl von Bewerbern (Screening, Filterung, Bewertung)
- KI fuer Entscheidungen ueber Befoerderung, Kuendigung, Aufgabenzuweisung und Leistungsueberwachung
- KI fuer Entscheidungen ueber die Bedingungen von Arbeitsverhaeltnissen
Beispiele aus der Praxis:
- CV-Screening-Software, die Bewerbungen automatisch filtert
- KI-gestuetzte Video-Interviews mit automatischer Bewertung
- Leistungsbewertungssysteme mit KI-Komponenten (People Analytics)
- Algorithmen zur Schichtplanung und Aufgabenverteilung
- Systeme zur Ueberwachung der Mitarbeiterproduktivitaet
Relevanz fuer Deutschland: Dieser Bereich ist in Deutschland besonders sensibel. Betriebsraete haben bei der Einfuehrung technischer Einrichtungen zur Leistungsueberwachung ein Mitbestimmungsrecht (Paragraf 87 Abs. 1 Nr. 6 BetrVG). Die KI-Verordnung kommt hier als zusaetzliche regulatorische Schicht hinzu.
Kategorie 5: Zugang zu wesentlichen privaten und oeffentlichen Diensten und Leistungen
Betroffene Systeme (Anhang III Nr. 5):
- KI zur Bewertung der Kreditwuerdigkeit natuerlicher Personen (mit Ausnahme der Aufdeckung von Finanzbetrug)
- KI zur Risikobewertung und Preisgestaltung in der Lebens- und Krankenversicherung
- KI zur Bewertung und Klassifizierung von Notrufen (Priorisierung)
- KI zur Erbringung wesentlicher oeffentlicher Leistungen (z.B. Sozialhilfe, Gesundheitsversorgung)
Beispiele aus der Praxis:
- Bonitaetsbewertung durch Scoring-Algorithmen (Schufa, Creditreform)
- Automatisierte Kreditentscheidungen bei Banken und FinTechs
- KI-Tarifierung in der Krankenversicherung
- Algorithmen zur Priorisierung in Notaufnahmen
- Automatisierte Bearbeitung von Sozialleistungsantraegen
Relevanz fuer den Finanzsektor: Dies ist neben Kategorie 4 die wichtigste Kategorie fuer Finanzdienstleister. In Kombination mit den Anforderungen der DORA entsteht ein dichtes regulatorisches Netz. Unser Artikel zur KI-Verordnung fuer FinTech behandelt dieses Zusammenspiel im Detail.
Kategorie 6: Strafverfolgung
Betroffene Systeme (Anhang III Nr. 6):
- KI als Luegendetektor oder zur Analyse der Zuverlaessigkeit von Beweismitteln
- KI zur individuellen Risikobewertung natuerlicher Personen (Vorhersage von Straftaten)
- KI zur Erstellung von Taeterprofilen
- KI zur Analyse von Straftaten und zur Ermittlung von Zusammenhaengen
Relevanz: Diese Kategorie betrifft primaer staatliche Stellen und Strafverfolgungsbehoerden. Unternehmen, die Technologie an diese Behoerden liefern, sind als Anbieter jedoch ebenfalls betroffen.
Kategorie 7: Migration, Asyl und Grenzkontrolle
Betroffene Systeme (Anhang III Nr. 7):
- KI als Luegendetektor oder zur Bewertung von Sicherheitsrisiken
- KI zur Pruefung von Antraegen auf Asyl, Visa und Aufenthaltstitel
- KI zur Identifizierung natuerlicher Personen im Zusammenhang mit Migration
Relevanz: Wie Kategorie 6 betrifft dies vor allem staatliche Stellen. Fuer private Unternehmen relevant, wenn sie als Anbieter (z.B. Technologielieferant fuer Grenzschutzbehoerden) oder als Betreiber im Auftrag agieren.
Kategorie 8: Rechtspflege und demokratische Prozesse
Betroffene Systeme (Anhang III Nr. 8):
- KI zur Unterstuetzung von Justizbehoerden bei der Recherche und Auslegung von Sachverhalten und Rechtsvorschriften
- KI zur Anwendung von Rechtsvorschriften auf konkrete Sachverhalte
- KI zur Beeinflussung des Ergebnisses von Wahlen oder Abstimmungen
Beispiele aus der Praxis:
- Legal-Tech-Loesungen, die Richtern Entscheidungsvorschlaege machen
- KI-gestuetzte Rechtsprechungsanalyse (soweit entscheidungsrelevant)
- Politische Microtargeting-Systeme
Welche Pflichten gelten fuer Hochrisiko-KI-Systeme?
Unabhaengig von der konkreten Kategorie muessen alle Hochrisiko-KI-Systeme die Anforderungen der Artikel 8 bis 15 der KI-Verordnung erfuellen:
| Anforderung | Artikel | Kerninhalt |
|---|---|---|
| Risikomanagementsystem | Art. 9 | Kontinuierliche Identifikation, Analyse und Minderung von Risiken |
| Daten und Datengovernance | Art. 10 | Qualitaetskriterien fuer Trainings- und Testdaten |
| Technische Dokumentation | Art. 11 | Umfassende Dokumentation vor Inverkehrbringen |
| Aufzeichnungspflichten | Art. 12 | Automatische Protokollierung (Logging) |
| Transparenz | Art. 13 | Gebrauchsanweisungen fuer Betreiber |
| Menschliche Aufsicht | Art. 14 | Wirksame Beaufsichtigung durch natuerliche Personen |
| Genauigkeit und Robustheit | Art. 15 | Angemessene Leistungsfaehigkeit und Cybersicherheit |
Zusaetzlich muessen Anbieter gemaess Artikel 16 und 17:
- Ein Qualitaetsmanagementsystem einrichten
- Eine Konformitaetsbewertung durchfuehren (Artikel 43)
- Eine EU-Konformitaetserklaerung ausstellen (Artikel 47)
- Das CE-Kennzeichen anbringen (Artikel 48)
- Das System in der EU-Datenbank registrieren (Artikel 49)
Sonderfaelle und Ausnahmen
Ausnahme fuer Strafverfolgung und nationale Sicherheit
Bestimmte Hochrisiko-KI-Systeme fuer Strafverfolgung und nationale Sicherheit koennen unter erleichterten Bedingungen eingesetzt werden. Dies wird in den Artikeln 5 und 6 im Detail geregelt.
KMU-Erleichterungen
Kleine und mittlere Unternehmen sowie Startups profitieren von:
- Vereinfachten Dokumentationsanforderungen (Artikel 62)
- Zugang zu KI-Reallaboren (Regulatory Sandboxes, Artikel 57-62)
- Verhaeltnismaessig niedrigeren Bussgeldern
Sonderfall: KI in bestehenden regulierten Produkten
KI-Systeme, die als Sicherheitsbauteil in bereits regulierten Produkten (Anhang I) eingesetzt werden - etwa in Medizinprodukten oder Maschinen - muessen die KI-Verordnung-Pflichten im Rahmen der bestehenden Konformitaetsbewertungsverfahren dieser Produktvorschriften erfuellen. Die Frist dafuer laeuft bis zum 2. August 2027.
Praktische Schritte: So prufen Sie Ihre KI-Systeme
Inventar erstellen: Listen Sie alle KI-Systeme in Ihrem Unternehmen auf, einschliesslich extern bezogener Loesungen.
Kategorisierung: Pruefen Sie fuer jedes System, ob es unter eine der 8 Anhang-III-Kategorien faellt.
Readiness Assessment: Nutzen Sie unser kostenloses KI-Verordnung Readiness Assessment, um Ihren aktuellen Compliance-Stand einzuschaetzen.
Gap-Analyse: Identifizieren Sie Luecken bei Dokumentation, Risikomanagement, Transparenz und menschlicher Aufsicht.
Umsetzungsplan: Priorisieren Sie Massnahmen nach Risiko und Aufwand. Beginnen Sie mit den Systemen, die die groessten Compliance-Luecken aufweisen.
Matproof unterstuetzt Sie bei jedem dieser Schritte - von der automatisierten Klassifizierung ueber die Gap-Analyse bis zum laufenden Compliance-Monitoring. Kostenlos testen.
Haeufig gestellte Fragen
Q: Wie erkenne ich, ob mein KI-System als Hochrisiko gilt?
A: Pruefen Sie zunaechst, ob Ihr KI-System in eine der acht Kategorien des Anhangs III faellt oder als Sicherheitsbauteil in einem Produkt nach Anhang I eingesetzt wird. Wenn ja, ist es grundsaetzlich ein Hochrisiko-System. Eine Ausnahme besteht nach Artikel 6 Absatz 3: Wenn das System keine erhebliche Gefahr fuer Gesundheit, Sicherheit oder Grundrechte darstellt und keine wesentliche Entscheidung trifft, kann es trotz Listung in Anhang III als nicht-hochriskant gelten. Diese Ausnahme muss jedoch dokumentiert und begruendet werden.
Q: Gilt ein einfacher Chatbot als Hochrisiko?
A: In der Regel nicht. Ein Chatbot fuer Kundenservice faellt typischerweise unter die Kategorie "begrenztes Risiko" mit reinen Transparenzpflichten (Kennzeichnung als KI). Wenn der Chatbot jedoch Entscheidungen trifft, die unter Anhang III fallen - etwa Kreditentscheidungen oder Personalauswahl - wird er zum Hochrisiko-System.
Q: Was passiert, wenn ich mein KI-System falsch klassifiziere?
A: Eine bewusst falsche Klassifizierung, um strengere Anforderungen zu umgehen, kann als Verstoss gewertet werden. Falsche Angaben gegenueber Behoerden koennen mit Bussgeldern von bis zu 7,5 Millionen Euro oder 1 Prozent des Jahresumsatzes geahndet werden. Bei Unsicherheit empfiehlt sich eine konservative Einstufung oder die Konsultation eines Fachexperten.
Q: Muessen wir fuer jedes Hochrisiko-System eine eigene Konformitaetsbewertung durchfuehren?
A: Ja. Jedes Hochrisiko-KI-System benoetigt eine eigene Konformitaetsbewertung gemaess Artikel 43. In den meisten Faellen genuegt eine interne Konformitaetsbewertung nach Anhang VI. Bei bestimmten biometrischen Systemen (Kategorie 1) ist die Einschaltung einer benannten Stelle (Notified Body) erforderlich.
Q: Was bedeutet das fuer KI-Systeme, die wir schon vor dem 2. August 2026 einsetzen?
A: Bereits bestehende Hochrisiko-KI-Systeme muessen bis zum Stichtag konform sein. Es gibt keine Bestandsschutzregelung. Systeme, die nach dem 2. August 2026 weiterhin eingesetzt werden sollen, muessen alle Anforderungen der Verordnung erfuellen. Eine fruehzeitige Vorbereitung ist daher unabdingbar.