Das KI-Gesetz (EU AI Act): Anwendungen und zentrale Grundsätze

Künstliche Intelligenz entwickelt sich rasant. Es war nur eine Frage der Zeit, bis der weltweit erste umfassende Rechtsrahmen zur Regelung dieser Technologie in Kraft treten würde. Die Rede ist vom EU-KI-Gesetz (EU AI Act).

Dieser Rechtsrahmen ist nicht neu; er trat bereits im August 2024 in Kraft. Seine Umsetzung erfolgte in mehreren Phasen, wobei die endgültigen Anforderungen im August 2027 in Kraft traten.

Aber was ist das genau, und was bedeutet es für KI-Dienstleister in der Europäischen Union? Und welche Folgen hat es für Unternehmen, die KI einsetzen? Wer sollte davon betroffen sein?

Nachfolgend finden Sie eine strukturierte Aufschlüsselung der Architektur, der Verpflichtungen und der Bedeutung für Anbieter und Betreiber von KI-Diensten.

Wozu dient das KI-Gesetz?

Das KI-Gesetz verfolgt ein doppeltes Ziel:

  • Förderung der Einführung von vertrauenswürdiger, auf den Menschen ausgerichteter KI im gesamten EU-Binnenmarkt.
  • Gewährleistung des höchsten Schutzes für Gesundheit, Sicherheit, Grundrechte, Demokratie, Rechtsstaatlichkeit und Umwelt. [1]

Der Rahmen zielt darauf ab, die Regeln für KI-Technologien für die Mitglieder in der gesamten Europäischen Union zu harmonisieren und eine fragmentierte Politik zu verhindern, die den EU-Bürgern schaden könnte. Mit einem einheitlichen Ansatz können KI-gestützte Waren und Dienstleistungen frei zwischen den Mitgliedstaaten zirkulieren.

Politische Logik

Der Regulierungsansatz des KI-Gesetzes ist risikobasiert, d. h. je größer das potenzielle Risiko, desto strenger die Verpflichtungen. Deshalb ist die Verordnung in verschiedene Stufen gegliedert, die jeweils einem bestimmten Risikoniveau entsprechen. Die Stufen reichen von völligen Verboten auf der obersten Stufe über strenge Compliance-Anforderungen für Systeme mit hohem Risiko bis hin zu einfachen Offenlegungsvorschriften für Systeme mit begrenztem Risiko und keinen verbindlichen Verpflichtungen auf der letzten Stufe.

Die Risikopyramide und ihre vier Stufen

Im Folgenden finden Sie eine Übersicht über die vier Ebenen des KI-Gesetzes. Weiterführende Informationen stellt die Europäische Union auf der offiziellen Seite zum EU AI Act bereit.

Stufe 1: Verbotene KI-Praktiken (Artikel 5)

Die erste Stufe umfasst KI-Praktiken, die in der Europäischen Union streng verboten sind und am 2. Februar 2025 in Kraft traten. Die folgenden Praktiken sind verboten, da sie aufgrund ihrer potenziellen Risiken für die Werte und Rechte der EU als unannehmbar gelten.

VERBOTENE PRAXISDEFINITION
Unterschwellige Manipulation und TäuschungKI, die Techniken einsetzt, die sich dem Bewusstsein einer Person entziehen, um ihr Verhalten zu beeinflussen und zu verzerren, was letztendlich Schaden verursacht
Ausnutzung von SchwachstellenMenschen aufgrund ihres Alters, einer Behinderung oder ihrer sozioökonomischen Situation ansprechen
Soziales ScoringBewertung oder Klassifizierung von Menschen auf der Grundlage ihres Sozialverhaltens, Beeinflussung der Chancen einer Person in nicht verwandten Kontexten.
Prädiktive Polizeiarbeit ausschließlich auf Grundlage von ProfilingVorhersage von kriminellem Verhalten allein anhand von Persönlichkeitsmerkmalen
Ungezieltes Scraping für GesichtserkennungAufbau oder Erweiterung von Datenbanken zur Gesichtserkennung durch massenhaftes Auslesen von Bildern aus dem Internet oder aus CCTV-Systemen.
Ableitung von Emotionen am Arbeitsplatz und in BildungseinrichtungenLesen von Emotionen am Arbeitsplatz oder in der Schule, mit Ausnahme von medizinischen und sicherheitsrelevanten Zusammenhängen
Biometrische Kategorisierung sensibler MerkmaleRückschlüsse von biometrischen Daten auf Ethnie, Religion, politische Ansichten, sexuelle Orientierung usw.

Die letzte verbotene Praxis ist die biometrische Echtzeit-Fernidentifizierung (RBI) in öffentlichen Räumen für Strafverfolgungszwecke, für die es jedoch drei enge Ausnahmen gibt:

  • Gezielte Suche nach Opfern
  • Vorbeugung gegen unmittelbare Bedrohungen wie Terroranschläge
  • Aufspüren von Verdächtigen bei schweren Straftaten

Stufe 2: Hochriskante KI-Systeme (Artikel 6-27)

Diese Stufe umfasst die wichtigsten Verpflichtungen für hochriskante KI-Systeme. Die meisten Anforderungen gelten ab dem 2. August 2026. Für KI-Systeme, die in bereits regulierte Produkte eingebettet sind und über native KI-Funktionen verfügen, gelten die Vorgaben ab dem 2. August 2027. [5,6]


Die Einstufung als hochriskant erfolgt auf zwei Wegen:

Track A deckt KI ab, die als Sicherheitskomponente in Produkten verwendet wird, die bereits den EU-Rechtsvorschriften zur Produktsicherheit unterliegen (Medizinprodukte, Maschinen, Luftfahrt, Fahrzeuge usw.).

Track B umfasst KI, die in acht sensiblen Anwendungsbereichen eingesetzt wird, die alle in Anhang III aufgeführt sind:

  • Biometrie (Fernidentifizierung, Kategorisierung, Emotionserkennung)
  • Kritische Infrastrukturen (digitale Systeme, Straßenverkehr, Energie, Wasserversorgung)
  • Bildung (Zulassungen, Benotung, Prüfungsüberwachung)
  • Beschäftigung (Einstellung, Leistungsbewertung, Aufgabenzuweisung, Kündigungsentscheidungen)
  • Unverzichtbare öffentliche Dienste (Anspruch auf Sozialleistungen, Kreditwürdigkeitsprüfung, Versicherungsrisiko, Notfalltriage)
  • Strafverfolgung (Profilerstellung, Beweisbewertung, Rückfallrisiko)
  • Migration und Grenzkontrolle (Asylverfahren, Risikobewertung, Dokumentenprüfung)
  • Rechtspflege und demokratische Prozesse (Unterstützung der Rechtsforschung, Rechtsauslegung, alternative Streitbeilegung, Wahlbeeinflussung)

Verpflichtungen für Anbieter mit hohem Risiko

ANFORDERUNGBESCHREIBUNG
Risikomanagement (Artikel 9) Kontinuierliche, lebenszyklusübergreifende Risikoidentifizierung, -bewertung und -minderung
Datenverwaltung (Art. 10) Die Trainingsdaten müssen relevant, repräsentativ, fehlerfrei und auf Verzerrungen geprüft sein.
Technische Dokumentation (Art. 11) Umfassende Dokumentation vor der Markteinführung, 10 Jahre aufbewahrt
Automatische Protokollierung (Art. 12) Die Systeme müssen Ereignisprotokolle erstellen, die eine Rückverfolgbarkeit während ihrer gesamten Lebensdauer ermöglichen.
Transparenz (Art. 13) Klare Informationen für Einsatzkräfte über Fähigkeiten, Grenzen und korrekte Verwendung
Menschliche Aufsicht (Art. 14) Entwickelt, um Menschen in die Lage zu versetzen, das System zu verstehen, zu überwachen, außer Kraft zu setzen oder anzuhalten
Genauigkeit, Robustheit, Cybersicherheit (Art. 15) Erklärte Genauigkeitsmetriken; Widerstandsfähigkeit gegenüber Fehlern und feindlichen Angriffen
Qualitätsmanagementsystem (Art. 17) Lebenszyklusübergreifende dokumentierte Qualitätsprozesse
Konformitätsbewertung (Art. 43) Selbstbewertung für die meisten Anhang-III-Systeme; obligatorische Prüfung durch Dritte für biometrische Identifizierungssysteme

Aber nicht nur die Anbieter von KI-Diensten sind mit den Verpflichtungen des KI-Gesetzes konfrontiert. Auch die Einsatzstellen müssen gemäß Artikel 26 des Gesetzes eine Reihe von Verpflichtungen erfüllen. Bereitsteller sind Unternehmen, die KI-Systeme in ihrem Betrieb einsetzen, z. B. KI-gestützte Tools zur Vertragsprüfung oder Lösungen zur Personalauswahl. Die folgende Tabelle ist nicht erschöpfend.

Verpflichtungen für Einsatzkräfte mit hohem Risiko

ANFORDERUNGBESCHREIBUNG
System gemäß Vorgaben nutzen (§1)Die Systeme müssen gemäß den Anweisungen des Anbieters verwendet werden und dürfen nur für die vorgesehenen Zwecke eingesetzt werden.
Qualifiziertes Personal für die Aufsicht einsetzen (§2)Benennen Sie geschultes Personal mit den notwendigen Befugnissen und Ressourcen, um das KI-System zu überwachen, einzugreifen und es bei Bedarf zu stoppen oder zu deaktivieren.
System überwachen und Vorfälle melden (§5)Überwachen Sie die Systemleistung und unterbrechen Sie die Nutzung bei Risiken. Vorfälle müssen an den Anbieter und die zuständigen Behörden gemeldet werden.
Für öffentliche Einrichtungen: Register prüfen (§8)Öffentliche Stellen müssen vor dem Einsatz eines Hochrisikosystems prüfen, ob es in der EU-Datenbank registriert ist. Ist dies nicht der Fall, darf das System nicht verwendet werden.
Mit Behörden zusammenarbeiten (§12)Arbeiten Sie mit den zuständigen Behörden zusammen und unterstützen Sie alle Maßnahmen im Zusammenhang mit dem KI-System. Die Nicht-Einhaltung dieser Verpflichtung stellt einen Verstoß dar.

Gut zu wissen: Unternehmen, die die geltenden Vorschriften nicht einhalten, müssen mit Geldbußen von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes rechnen. Bei irreführenden Angaben drohen Bußgelder von bis zu 7,5 Millionen Euro oder 1 % des weltweiten Jahresumsatzes.

Stufe 3: Begrenztes Risiko / Transparenzverpflichtungen (Artikel 50)

Artikel 50 des KI-Gesetzes verlangt von den Anbietern und Betreibern von Systemen mit begrenztem Risiko die Einhaltung von Transparenzpflichten. Diese umfassen:

  • Chatbots
  • Deepfakes und synthetische Medien
  • Systeme zur Erkennung von Emotionen und zur biometrischen Kategorisierung
WERVERBINDLICHKEITAUSNAHME
AnbieterOffenlegung bei Interaktion mit KI (§1)Nicht erforderlich, wenn dies für eine durchschnittliche Person offensichtlich ist oder im Kontext der Strafverfolgung.
AnbieterKennzeichnung KI-generierter Inhalte (§2):
Alle KI-generierten Inhalte (Audio, Video, Text, Bild) müssen als solche gekennzeichnet und maschinenlesbar sein.
Ausgenommen sind übliche Bearbeitungshilfen oder Anwendungen im Bereich der Strafverfolgung.
EinsetzerInformation bei Emotionserkennung oder biometrischer Kategorisierung (§3)Nicht erforderlich im Kontext der Strafverfolgung (unter Einhaltung entsprechender Sicherheitsvorkehrungen).
EinsetzerOffenlegung von Deepfakes und KI-generierten Inhalten von öffentlichem Interesse (§4):Bei kreativen oder künstlerischen Inhalten ist eine Offenlegung erforderlich, darf jedoch den Nutzungskontext nicht beeinträchtigen. Sie kann entfallen, wenn der Inhalt durch einen Menschen überprüft wurde.

Stufe 4: Minimales Risiko

Die überwiegende Mehrheit der KI-Systeme (Spam-Filter, Empfehlungsmaschinen, KI für Videospiele, Produktivitätswerkzeuge) unterliegt keinen verbindlichen Verpflichtungen. Freiwillige Verhaltenskodizes sind erwünscht.

Alle AI-Modelle müssen

Kapitel V des KI-Gesetzes betrifft KI-Modelle für allgemeine Zwecke (GPAI-Modelle). Es besagt, dass alle KI-Modelle Risiken bergen können, die von ihrer nachgelagerten Integration abhängen, nicht von den Modellen selbst. Die nachstehenden Verpflichtungen sind im August 2025 in Kraft getreten.

Aus diesem Grund müssen alle GPAI-Anbieter:

  • Erstellung und Pflege einer technischen Dokumentation
  • Bereitstellung von Informationen zu Fähigkeiten und Einschränkungen für nachgelagerte Nutzer und Integratoren
  • Umsetzung von Maßnahmen zur Einhaltung des Urheberrechts
  • Veröffentlichung einer ausreichend detaillierten Zusammenfassung der Trainingsdaten

Darüber hinaus müssen GPAI-Modelle, die als systemrelevant* gelten, auch:

  • Durchführung von Red-Teaming und adversarialen Tests
  • Systematische Risikobewertung und -minderung
  • Meldung schwerwiegender Vorfälle an das AI Office
  • Umsetzung verstärkter Cybersicherheitsmaßnahmen

Gut zu wissen: Der im Juli 2025 veröffentlichte GPAI-Verhaltenskodex bietet freiwillige Wege zur Einhaltung der Vorschriften. Zu den Unterzeichnern gehören heute unter anderem Amazon, IBM, Google und Microsoft.

* Ein Modell gilt als systemrelevant, wenn seine kumulative Trainingsleistung 10²⁵ FLOPs überschreitet. FLOPs („Floating Point Operations per Second“) messen die Rechenleistung eines KI-Modells.

Wer setzt das KI-Gesetz durch?

Wie bei anderen EU-weiten Vorschriften gibt es zwei Ebenen für die Durchsetzung: die EU und die Mitgliedstaaten.

Durchsetzung auf EU-Ebene

Die Europäische Union hat ein AI Office eingerichtet, um die GPAI-Verpflichtungen direkt durchzusetzen. Dieses Amt wird von unabhängigen Experten und einem beratenden Forum aus Industrie, Wissenschaft und Zivilgesellschaft unterstützt.

Der Europäische KI-Rat seinerseits koordiniert die nationalen Anträge. Dieses Gremium zählt einen Vertreter pro Mitgliedstaat. [1]

Durchsetzung auf nationaler Ebene

Jeder Mitgliedstaat muss Marktaufsichtsbehörden benennen, die befugt sind, auf Unterlagen, Datensätze und sogar Quellcode zuzugreifen und die Rücknahme oder den Rückruf von Systemen anzuordnen. Benannte Stellen führen Konformitätsbewertungen durch Dritte für biometrische Identifizierungs- und Produktsicherheitssysteme durch.

Einige Mitgliedstaaten haben beschlossen, neue Gremien zu schaffen, um die Durchsetzung des KI-Gesetzes zu überwachen, während andere auf bestehende Behörden zurückgreifen. So hat Spanien beispielsweise 2023 die AESIA (Agencia Española de Supervisión de la Inteligencia Artificial) geschaffen. Frankreich und Deutschland übertrugen die Verantwortung für KI der CNIL (Commission Nationale de l’Informatique et des Libertés) bzw. der BNetzA (Bundesnetzagentur)

Regulatorische Sandkästen sind vorgeschrieben: Jeder Mitgliedstaat muss bis August 2026 mindestens einen einrichten. Diese kontrollierten Umgebungen ermöglichen es Anbietern, KI unter regulatorischer Aufsicht zu entwickeln und zu testen, wobei der Zugang für KMU frei ist. Ab März 2026 gibt es operative Sandkästen in Dänemark, Spanien, Italien, Luxemburg und Frankreich, und viele weitere sind in Planung.

Das EU-KI-Gesetz definiert die Rolle der Rechtsabteilung in der Technologie-Governance grundlegend neu: Sie ist nicht mehr nur eine Kontrollinstanz für die Einhaltung von Vorschriften, sondern ein zentraler Bestandteil der KI-Governance und Rechenschaftsstruktur.

Dabei geht es nicht darum, die Aufgaben der IT-Abteilung zu übernehmen, sondern sicherzustellen, dass die Einführung von KI mit der rechtlichen Risikotoleranz, den regulatorischen Anforderungen und den strategischen Zielen in Einklang gebracht wird. In unserem nächsten Artikel untersuchen wir die Herausforderungen für General Counsel, wie sie diesen Wandel anführen können und welche Governance-Strukturen die reaktive Compliance von der strategischen Führung trennen.