
Das Wichtigste in Kürze
- Die KI Verordnung Zusammenfassung in einem Satz: Einheitliche EU-Regeln für Entwicklung, Bereitstellung und Nutzung von KI, mit Pflichten je nach Risiko und Rolle (Art. 1, Art. 2).
- Verbotene Praktiken sind klar benannt (z. B. bestimmte Formen der Manipulation oder unzulässige biometrische Systeme). Sie sind ausnahmslos nicht erlaubt (Art. 5).
- Risikoansatz: Je höher das Risiko, desto strenger die Pflichten; Hochrisiko-Anwendungsfelder sind aufgelistet (Art. 6, Anhang III).
- Hochrisiko-KI braucht u. a. Risikosteuerung, gute Daten, technische Unterlagen, Protokolle, menschliche Aufsicht und laufende Überwachung (Art. 8–15).
- Rollen & Pflichten: Anbieter, Bevollmächtigte, Einführer, Händler, Betreiber – mit jeweils eigenen Nachweisen (Art. 16–29).
- Transparenz: Interaktion mit KI kenntlich machen, bestimmte KI-Inhalte kennzeichnen (Art. 50).
- Modelle mit allgemeinem Verwendungszweck (Grundmodelle) haben eigene Pflichten; bei „systemischem Risiko“ gelten zusätzliche Anforderungen (u. a. Urheberrechtsstrategie, Dokumentation) (Kapitel zu Grundmodellen).
- Bußgelder können sehr hoch ausfallen; Verbotsverstöße sind besonders streng sanktioniert (Art. 99).
Inhaltsverzeichnis
- Einleitung
- Anwendungsbereich & Grundbegriffe
- Verbotene KI-Praktiken
- Risikobasierter Ansatz & Hochrisiko-Bereiche
- Pflichten für Hochrisiko-KI
- Rollen und Pflichten der Beteiligten
- Transparenz und Kennzeichnung
- Modelle mit allgemeinem Verwendungszweck
- Aufsicht, Datenbank & Marktüberwachung
- Sanktionen & Zeitpunkte
- FAQ
- Glossar & Quellen
Einleitung
Diese KI Verordnung Zusammenfassung führt Sie ohne Fachjargon durch die EU-Vorschriften zu Künstlicher Intelligenz. Der Rechtsakt schafft einheitliche Regeln in allen Mitgliedstaaten. Herzstück ist der Risikoansatz: Was viel Schaden anrichten könnte, muss strenger gesteuert werden. Gleichzeitig sollen Innovation und fairer Wettbewerb möglich bleiben (Amtsblatt).
Anwendungsbereich & Grundbegriffe
- Geltung: Für Anbieter, Betreiber, Einführer, Händler, Bevollmächtigte – auch aus Drittstaaten, wenn Ausgaben in der EU genutzt werden (Art. 2).
- Was ist ein KI-System? Software, die Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugt und deren Umfeld beeinflussen kann; Abgrenzung zu reiner Regelsoftware erfolgt in den Definitionen (Art. 3).
- Beziehung zu Datenschutzrecht: Datenschutz-Vorgaben (DSGVO u. a.) bleiben unberührt (Art. 2 Abs. 7 und Erwägungen).
Begriff | Kurz erklärt | Wo steht das? |
---|---|---|
KI-System | Erzeugt Inhalte/Entscheidungen, wirkt auf Umwelt ein | Art. 3 |
Hochrisiko-KI | Anwendungsbereiche mit erhöhten Schutzanforderungen | Art. 6, Anhang III |
Grundmodell | Modell mit allgemeiner Verwendbarkeit | Kapitel zu Grundmodellen |

Verbotene KI-Praktiken
Einige Einsatzformen sind generell unzulässig. Beispiele (vereinfacht): manipulative Techniken, die Menschen erheblich schädigen können; unzulässige biometrische Kategorisierung; bestimmte Anwendungen zur Bewertung von Personen; einzelne Formen biometrischer Fernidentifizierung außerhalb eng begrenzter Ausnahmen. Die genaue Liste und Ausnahmen finden Sie in Artikel 5.
Risikobasierter Ansatz & Hochrisiko-Bereiche
- Prinzip: Je höher das Risiko für Gesundheit, Sicherheit oder Grundrechte, desto mehr Pflichten.
- Einstufung: Hochrisiko je nach Zweck/Bereich; Ausnahmen, wenn kein erhebliches Beeinträchtigungsrisiko vorliegt, sind definiert (Art. 6).
- Typische Bereiche: u. a. Beschäftigung, Bildung, grundlegende Dienste, Strafverfolgung, Migration/Asyl, Justiz – Details im Anhang III.
Bereich (Auszug) | Wann wird es kritisch? | Rechtsgrundlage |
---|---|---|
Arbeit/Beschäftigung | Automatisierte Auswahl/Bewertung von Personen | Anhang III |
Bildung | Bewertung/Prüfung mit Folgen für den Lebensweg | Anhang III |
Strafverfolgung | Risikobewertungen, Profilbildung u. a. | Anhang III |
Pflichten für Hochrisiko-KI
Für Hochrisiko-KI gelten technische und organisatorische Mindeststandards. Kernelemente (nur das Wichtigste):
- Risikosteuerung als laufender Prozess über den gesamten Lebenszyklus (Art. 9).
- Datenqualität und Datenverwaltung – nachvollziehbar und geeignet (Art. 10).
- Technische Unterlagen und Betriebsanleitungen (Inhalte in Anhängen beschrieben) (Art. 11).
- Protokollierung wichtiger Vorgänge (Art. 12).
- Transparenz für Betreiber (klare Informationen, Leistungsgrenzen) (Art. 13).
- Menschliche Aufsicht mit definierten Eingriffen (Art. 14).
- Genauigkeit, Robustheit, Sicherheit (einschließlich Cybersicherheit) (Art. 15).
Pflicht | Was sollte vorliegen? | Wo geregelt? |
---|---|---|
Risikosteuerung | Dokumentierter Ablauf, regelmäßige Aktualisierung | Art. 9 |
Protokolle | Automatische Aufzeichnungen, Zugriff für Behörden | Art. 12 |
Menschliche Aufsicht | Klare Eingriffspunkte, Schulung | Art. 14 |
Rollen und Pflichten der Beteiligten
Die Verordnung unterscheidet mehrere Akteure. Kurzüberblick (Auswahl):
- Anbieter (Hochrisiko-KI): müssen die Anforderungen erfüllen, Konformität bewerten, EU-Konformitätserklärung erstellen, CE-Kennzeichnung und Registrierung vornehmen (Art. 16, Art. 47, Art. 49).
- Bevollmächtigte, Einführer, Händler: Prüf-, Mitwirkungs- und Informationspflichten vor Bereitstellung auf dem Markt (Art. 22–24).
- Betreiber (Nutzer/Betreiber): Betrieb überwachen, Informationen an Betroffene geben, Vorfälle melden, ggf. Einträge in die EU-Datenbank prüfen (Art. 26, Art. 72–73).

Transparenz und Kennzeichnung
Wenn Menschen mit einem KI-System interagieren, müssen sie darüber informiert werden. Täuschend echte künstlich erzeugte Inhalte sind zu kennzeichnen. Näheres zu Pflichten für Anbieter und Betreiber: Artikel 50.
Modelle mit allgemeinem Verwendungszweck (Grundmodelle)
Die Verordnung regelt auch allgemein einsetzbare Modelle (häufig die Grundlage vieler Anwendungen). Wesentliches in einfacher Sprache:
- Anbieter müssen technische Unterlagen und Informationen bereitstellen, damit nachgelagerte Anbieter ihre Pflichten erfüllen können.
- Eine Urheberrechtsstrategie ist notwendig (u. a. Umgang mit Vorbehalten zu Text- und Datennutzung). Zudem ist eine Zusammenfassung der zum Training verwendeten Inhalte zu veröffentlichen.
- Bei systemischem Risiko gelten zusätzliche Anforderungen, etwa laufende Risikominderung und verstärkte Sicherheit.
Die einschlägigen Bestimmungen finden sich im Kapitel zu KI-Modellen mit allgemeinem Verwendungszweck (einschließlich besonderer Regeln für Modelle mit systemischem Risiko) – siehe u. a. die ausführlichen Erwägungen und Artikel rund um dieses Kapitel.
Thema | Kernpunkt | Wo nachlesen? |
---|---|---|
Transparenz | Unterlagen/Infos für Nachnutzer bereitstellen | Kapitel Grundmodelle |
Urheberrecht | Strategie + Zusammenfassung der Trainingsinhalte | Erwägungen/Artikel zu Urheberrecht |
Systemisches Risiko | Zusatzpflichten, laufende Beobachtung | Regeln bei systemischem Risiko |
Aufsicht, Datenbank & Marktüberwachung
- EU-Datenbank für (die meisten) Hochrisiko-KI-Systeme – Anbieter/Behörden registrieren dort Systeme; Teilbereiche sind nicht öffentlich (Art. 71, Art. 49).
- Beobachtung nach dem Inverkehrbringen und Meldung schwerwiegender Vorfälle (Art. 72, Art. 73).
- Marktüberwachung durch nationale Behörden; Koordinierung über das „Büro für Künstliche Intelligenz“ und ein KI-Gremium (Art. 66, Art. 74).
Sanktionen & Zeitpunkte
- Bußgelder: bis zu 35 Mio. € bzw. bis zu 7 % des weltweiten Jahresumsatzes bei Verstößen gegen Verbote; weitere Bußgelder für andere Verstöße gestaffelt (Art. 99).
- Überprüfung & Anpassung: regelmäßige Bewertung, u. a. Liste verbotener Praktiken und Transparenzpflichten; Berichte ab 2028 in Abständen (Art. 112).
- Fristen/Übergänge (Auszug): u. a. Pflichten für Grundmodelle mit Stufen; Alt-Systeme erhalten Übergänge – Details in den Übergangsbestimmungen (Kapitel XI/XII – Übergänge, Bewertung sowie z. B. Regelungen zu Alt-Systemen).

FAQ
Gilt die Verordnung auch, wenn wir KI nur intern verwenden?
Ja. Maßgeblich ist der Einsatz eines KI-Systems in der EU – nicht nur der Verkauf. Rollen- und Pflichtenabschnitte gelten auch für Betreiber interner Anwendungen (Art. 2, Art. 26).
Welche Kernpflichten treffen Hochrisiko-KI?
Risikosteuerung, gute Daten, technische Unterlagen, Protokolle, Hinweise für Betreiber, menschliche Aufsicht, Genauigkeit/Robustheit/Sicherheit, Beobachtung nach dem Inverkehrbringen (Art. 8–15, Art. 72).
Müssen Gespräche mit einem KI-Assistenten kenntlich gemacht werden?
Ja, sofern es nicht ohnehin offensichtlich ist. Und künstlich erzeugte, täuschend echte Inhalte sind zu kennzeichnen (Art. 50).
Was ist ein „Modell mit allgemeinem Verwendungszweck“?
Ein Grundmodell, das vielfältig nutzbar ist und in viele Anwendungen eingebettet werden kann; dafür gibt es eigene Pflichten – bei systemischem Risiko zusätzliche Maßnahmen (siehe Kapitel zu Grundmodellen).
Wie hoch können Bußgelder ausfallen?
Bei Verstößen gegen Verbote bis zu 35 Mio. € bzw. 7 % des weltweiten Jahresumsatzes; weitere Sätze für andere Verstöße (Art. 99).
Darf ich quelloffene KI-Bausteine nutzen?
Ja, die Verordnung enthält hierzu klare Regeln. Quelloffenheit kann bestimmte Pflichten erleichtern, ersetzt sie aber nicht – v. a. nicht bei systemischem Risiko; eine Zusammenfassung der Trainingsinhalte und eine Urheberrechtsstrategie sind dennoch vorgesehen (siehe Kapitel Grundmodelle).
Glossar & Quellen
Hochrisiko-KI Anwendungsfelder, bei denen ein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte besteht (Art. 6, Anhang III). Menschliche Aufsicht Geplante Eingriffe durch geschulte Personen, um Fehlsteuerungen zu vermeiden (Art. 14). EU-Datenbank Register für Hochrisiko-KI-Systeme mit festgelegten Einträgen (Art. 71).
Primärquelle: Amtsblatt der EU – Verordnung (EU) 2024/1689 (KI-Verordnung)