Warum die KI-Verordnung 2026 auf die Geschäftsführungs-Agenda gehört
Wenn Ihr Unternehmen ein Produkt vertreibt, in dem KI eine Funktion übernimmt — eine Chatbot-Schnittstelle im Kundenservice, ein Modell, das Bewerbungen vorsortiert, ein Empfehlungssystem im Onlineshop, ein RAG-System in der Wartungs-App, ein Klassifikator in der Qualitätskontrolle —, dann legt die EU-Verordnung 2024/1689, die KI-Verordnung (englisch: AI Act), fest, was dieses Produkt erfüllen muss, um auf dem EU-Markt bleiben zu dürfen. Es geht nicht um eine Detailfrage in der Forschungsabteilung. Es geht um Markt-Zulassung, Haftung und Strafmaß bis 35 Mio. € oder 7 % des weltweiten Jahresumsatzes.
Die KI-Verordnung trat am 01.08.2024 in Kraft und entfaltet ihre Wirkung in vier Stufen. Verbotene KI-Praktiken (Artikel 5) und die Pflicht zur KI-Kompetenz Ihrer Mitarbeitenden (Artikel 4) gelten seit 02.02.2025. Pflichten für Anbieter von General-Purpose-AI-Modellen (GPAI, Artikel 51–56) gelten seit 02.08.2025. Die meisten Hochrisiko-Pflichten nach Anhang III werden ab 02.08.2026 anwendbar — beim Erscheinen dieses Texts also in rund drei Monaten. Die Hochrisiko-Pflichten nach Anhang I (Produkte, die bereits anderen EU-Sicherheitsgesetzen unterliegen) folgen am 02.08.2027. Die Entscheidungen, die Sie in den kommenden Monaten treffen, bestimmen, ob Sie zum Stichtag liefern oder unter Zeitdruck nachrüsten.
Dieser Artikel beschreibt, was die KI-Verordnung tatsächlich verlangt — Stand der konsolidierten Fassung in EUR-Lex sowie der ergänzenden Leitlinien der EU-Kommission und der EU AI Office (Mai 2026) — und macht klar, welche Entscheidungen jetzt auf den Tisch gehören. Kein juristischer Leitfaden. Eine Entscheidungs-Handreichung für Geschäftsführung, IT-Leitung und Produktverantwortliche — und die technische Tiefe, mit der Sie die Aufwandsschätzungen Ihres Entwicklungs-Teams einordnen können.
Was ist die KI-Verordnung? — In Kürze
Die KI-Verordnung (offiziell: Verordnung (EU) 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz, kurz AI Act) ist die erste umfassende KI-Regulierung der Welt. Sie wurde am 12.07.2024 im Amtsblatt der EU veröffentlicht und trat am 01.08.2024 in Kraft. Sie ist eine Verordnung, kein Richtlinie — sie gilt unmittelbar in allen EU-Mitgliedstaaten und muss nicht erst in nationales Recht überführt werden. Die nationalen Umsetzungsgesetze regeln nur, welche Behörde aufsichtsführend ist und wie Bußgelder verhängt werden.
Im Kern ist die KI-Verordnung risikobasiert. Sie unterscheidet vier Stufen: verboten (KI-Praktiken, die so gefährlich sind, dass sie nicht auf den Markt dürfen), hohes Risiko (KI-Systeme mit erheblichem Schadenspotenzial — strenge Pflichten), begrenztes Risiko (Transparenzpflichten, etwa für Chatbots und Deepfakes) und minimales Risiko (keine spezifischen KI-Pflichten, aber Geltung anderer Gesetze wie DSGVO bleibt bestehen). Eine eigene Schiene gilt für Anbieter sogenannter General-Purpose-AI-Modelle — also der grundlegenden Foundation-Models wie GPT, Claude, Gemini, Mistral oder Llama, die Produkten zugrunde liegen.
Drei Punkte tragen das Verständnis der gesamten Verordnung:
- Geltungsbereich: Wer KI-Systeme in der EU auf den Markt bringt, in Betrieb nimmt oder einsetzt, fällt unter die Verordnung — unabhängig vom Sitz des Unternehmens. Auch ein US-Anbieter, dessen Modell in der EU genutzt wird, ist betroffen.
- Pflichten je nach Rolle: Anbieter (also: Hersteller eines KI-Systems) tragen die meisten Pflichten. Anwender (Betreiber im professionellen Kontext) haben weniger, aber spezifische Pflichten — vor allem bei Hochrisiko-Systemen.
- Strafmaß: Bis 35 Mio. € oder 7 % des weltweiten Jahresumsatzes (verbotene Praktiken), 15 Mio. € oder 3 % (sonstige Pflichten und GPAI), 7,5 Mio. € oder 1 % (falsche Angaben gegenüber Behörden) — jeweils der höhere Betrag.
Risikoklassen — wo ist Ihre KI?
Die zentrale Frage zu Beginn jedes Projekts: Welche Risikoklasse trifft auf das System zu, das wir bauen oder einsetzen? Die Antwort ändert die Aufwände um Größenordnungen.
Verbotene KI-Praktiken (Artikel 5) — gilt seit 02.02.2025
Artikel 5 listet Praktiken auf, die nicht auf den EU-Markt dürfen — unabhängig davon, wie nützlich sie wirtschaftlich wären. Beispiele: Social Scoring durch Behörden oder Privatunternehmen mit nachteiliger Wirkung in einem unverbundenen Lebensbereich; biometrische Kategorisierung, die auf sensible Merkmale (politische Meinung, Gewerkschaftsmitgliedschaft, Religion, sexuelle Orientierung) schließen lässt; Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen (außer aus medizinischen oder Sicherheitsgründen); subliminale Manipulation oder Ausnutzung von Schutzbedürftigkeit (etwa von Kindern oder Menschen mit Behinderungen); ungerichtetes Scraping von Gesichtsbildern aus dem Internet zum Aufbau biometrischer Datenbanken; Predictive Policing auf rein profilbasierter Grundlage. Wer eines dieser Systeme baut oder einsetzt, riskiert Bußgelder bis 35 Mio. € oder 7 %. Für die meisten Mittelstands-Setups sind diese Verbote keine Architekturfrage, sondern eine Compliance-Prüfung am Projektanfang: Tut das System eines dieser Dinge? Wenn nein, weiter. Wenn ja, lassen.
Hochrisiko-KI Anhang III — anwendbar ab 02.08.2026
Anhang III nennt acht Bereiche, in denen KI als hochrisikobehaftet gilt. Hier landen die meisten Anwendungsfälle, die im DACH-Mittelstand relevant sind: Personalwesen (Bewerber-Sortierung, Lebenslauf-Screening, Performance-Scoring, Beförderungs- oder Kündigungsentscheidungen, automatisierte Aufgabenzuteilung); Bildung und berufliche Ausbildung (Zulassung, Bewertung, Prüfungs-Beobachtung); Kreditwürdigkeitsbewertung natürlicher Personen (außer reine Betrugserkennung); Risikobewertung in der Lebens- und Krankenversicherung; kritische Infrastrukturen (Verkehr, Wasser, Gas, Strom — Sicherheitsfunktionen); Strafverfolgung, Migration, Rechtspflege, demokratische Prozesse; Zugang zu wesentlichen privaten oder öffentlichen Diensten; biometrische Identifizierung außerhalb der verbotenen Praktiken. Wer in einem dieser Bereiche KI einsetzt, fällt unter die strengen Pflichten der Artikel 8 bis 15 — Risikomanagementsystem, Datengovernance, technische Dokumentation, Logging, Transparenz, menschliche Aufsicht, Genauigkeit und Cybersicherheit, Konformitätsbewertung, EU-Datenbank-Registrierung. Mehr dazu im Abschnitt Was die KI-Verordnung tatsächlich verlangt.
Hochrisiko-KI Anhang I — anwendbar ab 02.08.2027
Anhang I erfasst KI als Sicherheitskomponente in Produkten, die ohnehin schon einer EU-Sicherheitsgesetzgebung unterliegen — Maschinenbau, Spielzeug, Sportboote, Aufzüge, Funkanlagen, Druckgeräte, Medizinprodukte, In-vitro-Diagnostika, Kraftfahrzeuge, zivile Luftfahrt. Hier wird die Konformitätsbewertung in das bestehende Verfahren der jeweiligen Sektor-Verordnung integriert. Wer beispielsweise ein KI-gestütztes Diagnose-Modell in ein Medizinprodukt einbaut, durchläuft die Konformitätsbewertung gemäß MDR — ergänzt um die KI-spezifischen Anforderungen der Artikel 8 bis 15. Die Stichtage sind länger, der Aufwand ist nicht kleiner.
Begrenztes Risiko — Transparenz statt Konformität
Systeme, die mit natürlichen Personen interagieren (Chatbots), Inhalte synthetisch erzeugen (Deepfakes, KI-generierter Text und Bild) oder Emotionen erkennen, ohne in eine der Hochrisiko-Kategorien zu fallen, unterliegen Transparenzpflichten nach Artikel 50: Nutzerinnen und Nutzer müssen informiert werden, dass sie mit einer KI interagieren oder dass Inhalte synthetisch sind. Die Pflicht greift ebenfalls ab 02.08.2026. Konkret heißt das: Eine deutlich sichtbare KI-Disclosure im UI, maschinenlesbare Markierung synthetischer Medien, klare Kennzeichnung KI-generierter Pressetexte. Architektonisch ist das überschaubar — aber leicht zu vergessen.
General-Purpose-AI (GPAI, Artikel 51–56) — gilt seit 02.08.2025
Eine eigene Schiene betrifft Anbieter von Foundation-Modellen: OpenAI, Anthropic, Google, Mistral, Meta, Aleph Alpha und vergleichbare. Sie müssen technische Dokumentation pflegen, Trainingsdaten-Zusammenfassungen veröffentlichen, eine Urheberrechts-Policy nachweisen und Downstream-Anbietern Informationen für deren eigene Compliance bereitstellen. Modelle mit systemischem Risiko (Trainings-Compute über 10²⁵ FLOPS — Stand Mai 2026 ein Kreis von etwa fünf bis fünfzehn Modellen weltweit) tragen zusätzliche Pflichten nach Artikel 55 (Modellbewertungen, adversarial testing, Cybersicherheitsmaßnahmen, schwerwiegende-Vorfälle-Meldepflicht). Die meisten DACH-Mittelstands-Unternehmen werden GPAI-Modelle einsetzen — nicht entwickeln. Aber die Verbindung ist trotzdem direkt: Sie als Downstream-Anbieter brauchen die Dokumentation Ihres GPAI-Anbieters, um Ihre eigene Compliance gegenüber Anhang-III-Pflichten zu belegen. Mehr dazu unten.
Wen es trifft — und wie
Die KI-Verordnung kennt vier Rollen mit unterschiedlichen Pflichten. Welche Rolle Sie tragen, ist nicht immer offensichtlich — und die meisten Mittelstands-Unternehmen unterschätzen sie systematisch.
Der Anbieter ist die natürliche oder juristische Person, die ein KI-System entwickelt oder unter eigenem Namen oder eigener Marke auf den Markt bringt. Der Anbieter trägt die Hauptlast der Pflichten — Konformitätsbewertung, technische Dokumentation, Risikomanagementsystem, EU-Datenbank-Registrierung, CE-Kennzeichnung. Der Anwender ist die natürliche oder juristische Person, die ein KI-System in eigener Verantwortung einsetzt — typischerweise im professionellen Kontext. Anwenderpflichten (Artikel 26) sind enger gefasst: Nutzung gemäß Anbieter-Anweisungen, menschliche Aufsicht, Logging-Aufbewahrung mindestens sechs Monate, Information der betroffenen Mitarbeitenden, gegebenenfalls eine Grundrechte-Folgenabschätzung (FRIA, Artikel 27). Importeure und Händler haben Verifikationspflichten — sie müssen sicherstellen, dass das Produkt die nötigen Konformitätsmerkmale trägt, bevor sie es in der EU vertreiben.
Die praktische Falle: Aus einem Anwender wird ein Anbieter — und damit voll pflichtig — wenn er nach Artikel 25 ein bestehendes Hochrisiko-System unter eigenem Namen vertreibt, dessen Zweckbestimmung wesentlich ändert oder es substantiell modifiziert. Konkret heißt das: Wer ein GPAI-Modell fine-tuned für einen Hochrisiko-Anwendungsfall, wer eine White-Label-KI rebranded, wer ein bestehendes System für einen Zweck einsetzt, den der ursprüngliche Anbieter nicht vorgesehen hat — der wird selbst zum Anbieter und muss alle Anbieter-Pflichten erfüllen. Eine Sonderregel gilt für reines Fine-Tuning von GPAI-Modellen: Erst wenn die Modifikation mehr als ein Drittel des ursprünglichen Trainings-Compute verbraucht, wird der Fine-Tuner zum GPAI-Anbieter. Diese Schwelle ist hoch — die meisten praktischen Fine-Tunings im Mittelstand reißen sie nicht. Bei einem Fine-Tuning für eine Hochrisiko-Anwendung gilt das aber nicht: Die Anbieter-Reklassifikation nach Artikel 25 greift unabhängig von der Compute-Schwelle.
Für viele DACH-Mittelstands-Unternehmen heißt das in der Praxis: Sie dachten, Sie seien „nur Anwender“ eines Tools wie ChatGPT, Claude oder eines Branchen-spezifischen KI-Diensts — und sind in Wirklichkeit selbst Anbieter, sobald Sie das System für eine Hochrisiko-Anwendung adaptieren oder in Ihr eigenes Produkt einbinden. Diese Zuordnung gehört früh in jedes KI-Projekt — vor dem ersten Sprint, nicht nach dem Audit.
Was die KI-Verordnung tatsächlich verlangt
Für Hochrisiko-KI-Systeme nach Anhang III sind die Pflichten in Kapitel III, Abschnitt 2 (Artikel 8–15) konkret formuliert. Sie sind technologie-neutral — die Verordnung schreibt vor, was erreicht werden muss, nicht wie.
- Risikomanagementsystem (Artikel 9): ein über den gesamten Lebenszyklus gepflegtes Risikomanagement — Identifizierung, Bewertung, Behandlung, Test. Nicht eine einmalige Risiko-Analyse vor Marktzulassung, sondern ein laufender Prozess.
- Datengovernance (Artikel 10): Trainings-, Validierungs- und Testdaten müssen relevant, repräsentativ, möglichst fehlerfrei und vollständig sein. Bias-Erkennung und -Minderung sind explizit vorgeschrieben.
- Technische Dokumentation (Artikel 11): umfassende Dokumentation der Systemarchitektur, des Trainingsprozesses, der Datenherkunft, der Performance-Metriken — in einer Form, die nachvollziehbar ist.
- Logging (Artikel 12): automatische Protokollierung relevanter Ereignisse über die gesamte Betriebsdauer — für Anwender mindestens sechs Monate aufzubewahren.
- Transparenz und Nutzerinformation (Artikel 13): Anwender müssen klar verstehen, wie das System arbeitet, was seine Grenzen sind, wie es zu bedienen ist.
- Menschliche Aufsicht (Artikel 14): das System muss so gestaltet sein, dass eine wirksame menschliche Kontrolle möglich ist — inklusive Möglichkeit, das System zu stoppen.
- Genauigkeit, Robustheit, Cybersicherheit (Artikel 15): dem Stand der Technik entsprechend, mit dokumentierten Performance-Werten.
Vor der Inverkehrbringung läuft die Konformitätsbewertung. Für die meisten Anhang-III-Systeme ist eine Selbstbewertung möglich, sofern harmonisierte Normen oder gemeinsame Spezifikationen angewandt werden. Für bestimmte biometrische Systeme schreibt die Verordnung eine Drittprüfung über eine notifizierte Stelle vor. Das Ergebnis: eine EU-Konformitätserklärung und CE-Kennzeichnung. Anschließend muss das System in der EU-Datenbank für Hochrisiko-KI-Systeme nach Artikel 71 registriert werden. Nach Marktzulassung gilt eine Post-Market-Monitoring-Pflicht: Anbieter müssen aktiv beobachten, ob ihr System im Feld die Anforderungen weiter erfüllt — und bei schwerwiegenden Vorfällen die zuständigen Behörden informieren.
Für GPAI-Anbieter gilt ein eigenes Pflichtenpaket nach Artikel 53: technische Dokumentation des Modells, Bereitstellung von Informationen für Downstream-Anbieter, Urheberrechts-Policy zur Trainingsdaten-Beschaffung, öffentliche Trainingsdaten-Zusammenfassung. Für Modelle mit systemischem Risiko (Artikel 55) zusätzlich: Modellbewertungen, adversarial Testing, Risiko-Minderung, Cybersicherheits-Schutz, Meldepflicht für schwerwiegende Vorfälle. Die EU-Kommission hat im Juli 2025 einen freiwilligen GPAI Code of Practice veröffentlicht — wer ihn unterzeichnet, gilt als compliant per Vermutung; wer nicht unterzeichnet, muss die Pflichterfüllung anders nachweisen.
Architektur-Implikationen — wo das tatsächlich ankommt
Die KI-Verordnung ist keine Compliance-Übung, die sich am Ende mit einem PDF erschlagen lässt. Sie verändert, was eine produktive KI-Plattform leisten muss. Fünf Punkte sind aus Architektursicht entscheidend.
Risikomanagement im Code, nicht im Word-Dokument
Artikel 9 verlangt ein kontinuierliches Risikomanagement über den Lebenszyklus. Wenn Sie eine KI-Komponente in einer CI/CD-Pipeline ausliefern, manifestiert sich das praktisch: jede Modell-Aktualisierung durchläuft eine Risiko-Re-Evaluation. Quality Gates im Build, die Performance-Metriken gegen einen Baseline-Datensatz prüfen. Drift-Monitoring im Betrieb — wenn die Eingabe-Verteilung im Feld systematisch von der Trainingsverteilung abweicht, schlägt die Telemetrie Alarm. Change-Management mit dokumentierter Risiko-Bewertung pro signifikantem Update. Ein Risikomanagement-System, das nur als Dokument existiert und nicht in der Pipeline lebt, hält dem ersten Audit nicht stand.
Datengovernance heißt: Trainings-Lineage und Bias-Pipeline
Artikel 10 verlangt nachvollziehbare Trainingsdaten-Herkunft, Repräsentativität und Bias-Behandlung. Architektonisch heißt das: ein Datenkatalog, der Datenherkunft, Lizenzstatus, Anonymisierungs-Pipeline und Verarbeitungsschritte pro Datensatz protokolliert. Bias-Detection als eigener Pipeline-Schritt — Fairness-Metriken (etwa demografische Parität, gleiche Fehlerraten zwischen Subgruppen) gegen definierte Schwellen. Wenn ein neuer Trainings-Lauf eine Subgruppe schlechter behandelt als zuvor, schlägt das Quality Gate aus. Reproduzierbarkeit als Engineering-Disziplin: Trainings-Code, Datensatz-Snapshot und Hyperparameter müssen so versioniert sein, dass ein Modell zwei Jahre später aus dem Stand reproduzierbar ist.
Audit-Trail: Append-only Eventlog für KI-Entscheidungen
Artikel 12 verlangt automatische Protokollierung. Die Anwender-Aufbewahrungspflicht von mindestens sechs Monaten (Artikel 26) macht daraus eine Speicher-Frage. Architektonisch heißt das: ein append-only Eventlog pro KI-Entscheidung — Eingabe-Hash (DSGVO-konform pseudonymisiert), Modell-Version, Output, ggf. Confidence Score, ggf. Human-Override und dessen Begründung. Was wir bei industriellen IoT-Plattformen als Lifecycle-Datenmodell mit revisionssicherem Audit-Trail bauen, lässt sich für KI-Systeme eins-zu-eins übernehmen — die Domäne ändert sich, das Architekturmuster bleibt. Ergänzend: ein Versionsregister, das Modell, Trainings-Snapshot, Code-Stand und Konformitätsdokumentation pro deployten Release versionsgebunden zusammenführt. Wenn die Marktaufsicht im Vorfall fragt, welche Modell-Version am Vorfallszeitpunkt aktiv war und wie sie konformitätsbewertet wurde, muss die Antwort in Minuten verfügbar sein, nicht in Wochen.
Transparenz und menschliche Aufsicht im UI
Artikel 13 und 14 verlangen, dass das System von einem Menschen wirksam beaufsichtigt werden kann — und dass die Anwender wissen, womit sie es zu tun haben. UI-seitig heißt das: Confidence-Anzeigen bei jeder KI-Empfehlung; klare Eskalations-Pfade, wenn Confidence niedrig ist; Override-Funktion mit Begründungs-Eingabe; Stop-Button bei kontinuierlichen Systemen. Bei Begrenzt-Risiko-Systemen (Chatbots, Deepfakes) zusätzlich die KI-Disclosure nach Artikel 50: Nutzer müssen erkennen, dass sie mit einer KI interagieren oder dass Inhalte synthetisch sind. Maschinenlesbare Wasserzeichen für KI-generierte Medien sind Stand der Technik (C2PA, SynthID und vergleichbare).
GPAI-Provider-Layer als Architektur-Komponente
Wer ein Foundation-Model wie GPT, Claude oder Mistral in das eigene Produkt einbindet, baut eine implizite Lieferkettenabhängigkeit. Pragmatisch wirksam: ein Provider-Abstraction-Layer in der Architektur — Ihre Anwendungslogik kennt nicht „OpenAI“, sondern „LLM-Provider mit Capability X“. Konkret reduziert das drei Risiken: einen einzelnen Anbieter wechseln zu können, wenn dessen Pflichten- oder Preis-Profil sich ändert; Modellkarten und Compliance-Dokumentation pro genutztem Anbieter zentral zu führen; Audit-Trail-Einträge so zu schreiben, dass sie pro Anfrage festhalten, welcher Anbieter mit welcher Modell-Version geantwortet hat. Diese Trennung ist in 2026 nicht mehr Kür, sondern die Grundlage dafür, dass Sie Ihre Compliance-Dokumentation überhaupt pflegen können — Modelle wechseln im Halbjahres-Takt, die Pflicht bleibt bestehen.
Eine Architektur — drei Verordnungen
Die KI-Verordnung steht nicht allein. Sie trifft auf die DSGVO (besonders Artikel 22 zum Recht, keiner ausschließlich automatisierten Entscheidung unterworfen zu sein), den EU Data Act (anwendbar seit 12.09.2025, der Nutzern Zugriff auf Daten gibt, die ihre vernetzten Produkte erzeugen), den Cyber Resilience Act (anwendbar ab 11.12.2027) und die neue Produkthaftungs-Richtlinie 2024/2853, die ab 09.12.2026 Software, Cloud-Funktionen und KI-Systeme als Produkte im Sinne des verschuldensunabhängigen Haftungsregimes erfasst. Vier Verordnungen, die auf dasselbe Datenmodell zugreifen — Inputs, Outputs, Entscheidungen, Wartungslogs — und unterschiedliche Pflichten erzeugen. Eine Plattform, die das nachträglich zusammenstrickt, baut sich Schulden ein. Eine Plattform, in der Datenherkunft, Zweckbindung, Retention, Zugriffsrechte, Modell-Version und Audit-Trail von Anfang an Felder im Datenmodell sind, kann auf alle vier antworten, ohne sich neu zu erfinden.
Stand der EU-Anwendbarkeit und der deutschen Umsetzung (Mai 2026)
Die EU-Stichtage zum Stichtag dieses Artikels:
- 02.02.2025: Artikel 5 (verbotene Praktiken) und Artikel 4 (KI-Kompetenz-Pflicht) anwendbar — gilt also bereits.
- 02.08.2025: GPAI-Pflichten nach Kapitel V anwendbar; nationale Aufsichtsbehörden zu benennen; Bußgeld-Regime aktiv. Die EU-Kommission hat zum gleichen Stichtag die Guidelines for providers of general-purpose AI models sowie den freiwilligen GPAI Code of Practice veröffentlicht.
- 02.08.2026: Hochrisiko-Pflichten nach Anhang III sowie die Transparenzpflichten nach Artikel 50 anwendbar; Durchsetzungsbefugnisse der EU-Kommission gegenüber GPAI-Anbietern aktiv.
- 02.08.2027: Hochrisiko-Pflichten nach Anhang I (Sicherheitskomponenten in Produkten unter EU-Sektor-Recht) anwendbar; GPAI-Modelle, die vor dem 02.08.2025 auf den Markt gebracht wurden, müssen voll konform sein.
Die EU AI Office bei der Generaldirektion CNECT in Brüssel ist die zentrale Durchsetzungsstelle für GPAI-Pflichten. Sie hat seit 2025 Leitlinien zu zentralen Begriffen veröffentlicht (Definition „General Purpose AI“, Pflichten-Auslegung Artikel 53/55, Trainingsdaten-Zusammenfassung-Vorlage). Ihre Durchsetzungsbefugnisse — Auskunftsverlangen, Modellzugang, Bußgelder bis 15 Mio. € oder 3 % — werden ab 02.08.2026 aktiv.
Die deutsche Umsetzung ist Stand Mai 2026 noch nicht in Kraft. Das KI-Marktüberwachungs- und Innovationsförderungsgesetz (KI-MIG) wurde am 11.02.2026 vom Bundeskabinett beschlossen, am 20.03.2026 in den Bundestag eingebracht und nach erster Lesung dem Ausschuss für Digitales und Staatsmodernisierung überwiesen. Der Bundesrat hat am 01.04.2026 (BT-Drucksache 21/5143) Stellung genommen und Prüfbitten geäußert. Bundestag und Bundesrat haben das Gesetz bis Mai 2026 noch nicht abschließend beschlossen. Die Bundesregierung verfolgt einen beschleunigten Verfahrensgang mit Ziel-Inkrafttreten vor dem EU-Stichtag 02.08.2026 — ob das gehalten wird, steht unter Vorbehalt.
Inhaltlich benennt das KI-MIG die Bundesnetzagentur (BNetzA) als zentrale Marktüberwachungsbehörde. Bei der BNetzA wurde dafür das Koordinierungs- und Kompetenzzentrum für die KI-Verordnung (KoKIVO) aufgebaut, das auch ohne formelle gesetzliche Grundlage bereits operativ ist. Seit Juli 2025 betreibt die BNetzA einen KI-Service Desk — ein Online-Tool mit Compliance-Kompass, das insbesondere KMU bei der Risikoklassen-Einordnung unterstützt; erreichbar unter bundesnetzagentur.de/ki. Für sektor-spezifische Anwendungsfälle (Finanzaufsicht, Medizinprodukte, Datenschutz) bleiben die jeweiligen Fachaufsichtsbehörden zuständig — die BfDI etwa bei Datenschutz-relevanter KI in Bundesbehörden, die Datenschutzaufsichtsbehörden der Länder bei privater Datenverarbeitung. KoKIVO koordiniert die einheitliche Auslegung.
Parallel zur EU-Ebene betreibt die EU-Kommission den freiwilligen AI Pact — über 100 Unternehmen haben sich verpflichtet, Kernpflichten der KI-Verordnung früher als gesetzlich gefordert umzusetzen. Aus dem DACH-Raum sind unter anderem SAP und Aleph Alpha unter den Unterzeichnern. Die Teilnahme ist freiwillig und ersetzt keine gesetzliche Pflicht — sie signalisiert aber gegenüber Kunden und Partnern eine ernsthafte Auseinandersetzung mit der Verordnung.
Strafmaß
Artikel 99 sieht ein dreistufiges Bußgeldregime vor — jeweils der höhere der beiden Beträge, gemessen am weltweiten Jahresumsatz des vorangegangenen Geschäftsjahres:
- Bis zu 35 Mio. € oder 7 % bei Verstößen gegen die verbotenen KI-Praktiken nach Artikel 5
- Bis zu 15 Mio. € oder 3 % bei Verstößen gegen die meisten anderen Pflichten — insbesondere Anhang-III-Hochrisiko-Pflichten und GPAI-Pflichten
- Bis zu 7,5 Mio. € oder 1 % bei falschen, unvollständigen oder irreführenden Angaben gegenüber Behörden oder notifizierten Stellen
Für KMU und Start-ups gelten die jeweils niedrigeren der beiden Beträge — das ist gegenüber NIS2 und CRA umgekehrt und für Mittelstands-Setups eine ernstzunehmende Entlastung. Die Mitgliedstaaten benennen die nationalen Aufsichts- und Bußgeldbehörden; in Deutschland ist das nach KI-MIG die Bundesnetzagentur (mit sektor-spezifischen Ausnahmen).
Was 2026 konkret zu tun ist
Drei Aufgaben gehören jetzt auf den Tisch — unabhängig davon, ob Sie KI bauen oder einsetzen.
Erstens: KI-Inventar erstellen und Risikoklassen einordnen. Welche KI-Systeme nutzt Ihr Unternehmen — selbstgebaute Modelle, eingekaufte Tools, eingebettete LLM-Funktionen in SaaS-Produkten? Welche fallen unter Anhang III? Welche Rolle haben Sie pro System (Anbieter, Anwender, beides)? Der Compliance-Kompass der BNetzA ist dafür ein guter Ausgangspunkt. Eine vollständige Liste — mit Risikoklasse, Rolle und nächsten Schritten pro System — ist die Grundlage jeder weiteren Entscheidung.
Zweitens: KI-Kompetenz-Pflicht (Artikel 4) umsetzen. Die Pflicht gilt seit 02.02.2025 — auch ohne explizites Bußgeld. Mitarbeitende, die KI-Systeme einsetzen oder bedienen, brauchen ein angemessenes Verständnis von Funktionsweise, Grenzen und Risiken. „Angemessen“ hängt vom Anwendungskontext ab — ein RAG-System für interne Recherche stellt geringere Anforderungen als ein Modell, das Bewerber sortiert. Dokumentierte Schulungen sind der Beleg. Zivilrechtlich relevant: Wenn ein ungeschulter Mitarbeiter einen Schaden mit einem KI-System verursacht, haftet das Unternehmen.
Drittens: Bei Anhang-III-Hochrisiko-Systemen die 16 Monate nutzen. Bis 02.08.2026 muss ein Hochrisiko-System konformitätsbewertet, dokumentiert, in der EU-Datenbank registriert und mit CE-Kennzeichnung versehen sein. Risikomanagementsystem, Datengovernance-Prozesse, Logging-Architektur, Audit-Trail, menschliche Aufsicht im UI — das sind keine Wochen-Aufgaben. Wer im Mai 2026 noch keinen Plan hat, muss priorisieren oder das System bis zum Stichtag aus dem EU-Markt nehmen. Für GPAI-Anwender heißt das zusätzlich: rechtzeitig die Modellkarten, Trainingsdaten-Zusammenfassungen und Compliance-Dokumentation des GPAI-Anbieters einsammeln — Sie brauchen sie für Ihre eigene Anhang-III-Konformität.
Wie wir das angehen
Wir verkaufen keine „AI-Act-Compliance-as-a-Service“. Compliance ist kein Produkt — sie ist die Konsequenz einer sauber gebauten KI-Architektur. Was wir tun: wir bauen KI-Lösungen, in denen die Pflichten aus AI Act, DSGVO, EU Data Act und CRA nicht nachträglich angeschraubt werden, sondern in Datenmodell, Auth-Schicht und Audit-Trail verankert sind. Append-only Eventlog pro KI-Entscheidung, Modellkarten-Pipeline mit Versions-Bindung, Provider-Abstraction-Layer für GPAI-Anbieter, menschliche Aufsicht im UI mit Override- und Begründungs-Pfad — als Architekturmuster, das wir konkret umsetzen.
Unsere KI-Entwicklung ist als Architektur-Disziplin gedacht: AI Agents, RAG-Systeme und Custom-Machine-Learning-Modelle integriert in Datenmodell, Authentifizierung und Logging — nicht als ChatGPT-Wrapper. EU- und CH-Hosting, DSGVO-konforme Datenhaltung, AI-Act-konforme Architektur als Liefergegenstand. Das B2B-IoT-Projekt LITE BLOX zeigt das Audit-Trail-Muster im industriellen Kontext: Lifecycle-Datenmodell mit Geburts-Snapshot pro Einheit, append-only Eventlog für sicherheitsrelevante Ereignisse, kontinuierliche Telemetrie. Das gleiche Muster trägt auch KI-Anwendungsfälle. Wenn Sie ein vergleichbares Vorhaben verantworten — Greenfield-KI-Projekt oder Refactor eines bestehenden ML-Systems unter AI-Act-Pflichten —, sprechen wir gerne über die Architektur, bevor das Pflichtenheft den ersten Sprint erreicht.
Ressourcen
- EU-Verordnung 2024/1689 (KI-Verordnung), konsolidierte Fassung: eur-lex.europa.eu/eli/reg/2024/1689
- EU-Kommission, AI Act-Rahmenseite: digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- EU-Kommission, AI Act Service Desk (offizielle Auslegungsfragen): ai-act-service-desk.ec.europa.eu
- EU-Kommission, GPAI Code of Practice: digital-strategy.ec.europa.eu/en/policies/contents-code-gpai
- EU-Kommission, Guidelines for providers of GPAI models: digital-strategy.ec.europa.eu/en/policies/guidelines-gpai-providers
- EU-Kommission, AI Pact: digital-strategy.ec.europa.eu/en/policies/ai-pact
- Bundesnetzagentur, KI-Service Desk und Compliance-Kompass: bundesnetzagentur.de/ki
- BMDS, Gesetzgebungsverfahren KI-MIG (KI-Marktüberwachungs- und Innovationsförderungsgesetz): bmds.bund.de — Gesetz zur Durchführung der KI-Verordnung
- Produkthaftungs-Richtlinie (EU) 2024/2853: eur-lex.europa.eu/eli/dir/2024/2853
Stand: Mai 2026. Die deutsche Umsetzung (KI-MIG) ist zum Redaktionsschluss noch im parlamentarischen Verfahren — Bundestag und Bundesrat haben noch nicht abschließend beschlossen. Auch auf EU-Ebene können sich Auslegungen einzelner Artikel durch Durchführungsrechtsakte, harmonisierte Normen, Leitlinien der EU AI Office und Entscheidungen nationaler Marktüberwachungsbehörden noch ändern. Für rechtsverbindliche Beurteilung Ihres konkreten Falls verweisen wir auf qualifizierte Rechtsberatung.
IntegrIT Solutions
Ihr Partner für hochwertige mobile Anwendungen
E-Mail: info@integritsol.de
Über IntegrIT Solutions
IntegrIT Solutions ist Ihre spezialisierte Software-Agentur für die Entwicklung performanter mobiler Anwendungen. Mit fundierter Erfahrung in der Entwicklung von Business-Apps für B2B-Kunden verbinden wir technische Kompetenz mit geschäftlichem Verständnis. Unsere Apps sind zuverlässig, benutzerfreundlich und liefern messbare Geschäftsergebnisse.
