Mittel

Drei Monate bis zum EU AI Act: Was Mittelständler bis zum 2. August 2026 sauber stehen haben sollten

Vier kleine Holzkisten in präziser Reihe auf Beton mit aufsteigender Risiko-Beschriftung, die rechte oxbloodfarben wachsversiegelt; dahinter ein halb gefalteter August-Kalenderblatt, daneben Messingstempel, Lupe und ledernes Notizbuch im kühlen Nordlicht.

Am 2. August 2026 endet die 24-monatige Übergangsphase für die zentralen Bestimmungen des EU AI Acts. Was bis dahin nicht sauber steht, wird ab diesem Tag zu einem realen Bußgeldrisiko. Drei Monate, vier Leitplanken, eine nüchterne Roadmap.

TL;DR — die 90-Sekunden-Zusammenfassung

Stichtag

2. August 2026 — Ende der Übergangsphase für Hochrisiko-KI-Pflichten

Sanktionsrahmen

bis zu 35 Mio. € oder 7 % weltweiter Jahresumsatz — je nachdem, was höher ist

Vier Risikoklassen

verboten, hochrisiko, begrenzt, minimal — klassifiziert wird der Anwendungsfall, nicht das Werkzeug

Hidden Pflicht (seit 2.2.2025)

AI-Literacy aus Artikel 4 — keine Übergangsfrist, gilt rückwirkend

Größter Hebel

ehrliche Bestandsaufnahme inklusive Schatten-KI — der Rest folgt

12-Wochen-Roadmap

Inventur (Mai) → Klassifizierung & Verträge (Juni–Juli) → Schulungen & Lenkungskreis (Juli–August)

 

Was ist das Problem?

Bei Verstößen gegen die Pflichten für Hochrisiko-KI-Systeme drohen ab dem 2. August 2026 Sanktionen von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatzes – je nachdem, was höher ist. Das wirkt für Mittelständler abstrakt und ist es nicht. Die Pflichten greifen unabhängig davon, ob Sie KI selbst entwickeln oder nur einsetzen. Eine bestehende ChatGPT-Enterprise-Lizenz, ein KI-gestützter Bewerbungs-Filter, ein Chatbot auf der Website, ein Co-Pilot in der Buchhaltung – alle diese Fälle führen am 2. August 2026 zu einer Pflichtenlage.

Wir sind seit Anfang 2026 in jedem KI-Projekt gleichzeitig im AI-Act-Modus unterwegs. Das ist nicht aus Bürokratiefreude, sondern aus Erfahrung: Wer Compliance erst nach dem Go-Live ergänzt, baut zweimal. In diesem Beitrag ordnen wir den Stichtag ein, beschreiben die strukturellen Pflichten und skizzieren, welche vier Leitplanken den Übergang tragen.

Warum dieser Stichtag ein Lehrbuchfall ist

Der EU AI Act funktioniert anders als die DSGVO. Statt einer breit angelegten Datenschutz-Pflicht teilt er KI-Systeme in vier Risikoklassen ein — verboten, hochriskant, begrenzt, minimal — und knüpft die Pflichten an die Klasse. Die Klassifizierung selbst ist Teil der Compliance. Das bedeutet: Sie müssen für jedes KI-System im Einsatz dokumentiert sagen können, in welche Klasse es fällt und warum. Eine pauschale Aussage „wir nutzen ChatGPT“ reicht in keinem Audit.

Hinzu kommt, dass die AI-Literacy-Pflicht aus Artikel 4 bereits seit dem 2. Februar 2025 wirksam ist. Wer das in seiner Organisation noch nicht systematisch adressiert hat, wird ab August 2026 nicht nur die Hochrisiko-Pflichten erklären müssen, sondern auch erklären, warum die Schulungs-Pflicht ein Jahr lang ohne Antwort blieb.

Wer ist betroffen?

Drei Punkte, die in Beratungsgesprächen regelmäßig auftauchen — und die zeigen, warum der August 2026 nicht nur für Hochrisiko-KI-Entwickler relevant ist.

Schatten-KI ist real

In nahezu jedem Mittelstandsunternehmen, das wir in den letzten Monaten geprüft haben, nutzen Mitarbeiter KI-Tools, die das Unternehmen formal nicht eingeführt hat: Privatlogins bei ChatGPT, Browser-Plugins, kostenlose Chatbots, KI-Assistenten in Büro-Software. Jedes dieser Tools ist eine offene Compliance-Frage. Ohne Bestandsaufnahme entsteht kein Verzeichnis, ohne Verzeichnis keine Klassifizierung, ohne Klassifizierung keine Audit-Fähigkeit.

Kostenlose ChatGPT-Versionen sind kein DSGVO-Vehikel

Kostenlose ChatGPT-Versionen sind in den meisten Fällen nicht DSGVO-konform einsetzbar. Wer ChatGPT geschäftlich nutzt, braucht ChatGPT Business oder Enterprise mit Auftragsverarbeitungsvertrag und EU Data Residency. Ähnliches gilt für vergleichbare Werkzeuge — Claude.ai, Copilot, Gemini. Diese Verschiebung von Privat- auf Enterprise-Konten ist im Mittelstand häufig noch nicht vollzogen.

DSGVO und AI Act greifen ineinander

Der AI Act hebelt die DSGVO nicht aus, er ergänzt sie. Eine KI-Anwendung, die personenbezogene Daten verarbeitet, fällt unter beide Regelwerke. Die Datenschutz-Folgenabschätzung wird de facto zum Pflichtbestandteil der KI-Risikoanalyse — was für die meisten Unternehmen bedeutet, dass zwei laufende Compliance-Prozesse jetzt eine gemeinsame Klammer brauchen.

Auswirkungen: die vier Risikoklassen und ihre Pflichten

Der EU AI Act unterscheidet vier Risikoklassen. Drei davon haben praktische Pflichten, eine ist schlicht verboten. Die folgende Einordnung ist nicht der Gesetzestext, sondern eine Lesehilfe für die operative Klassifizierung im Mittelstand.

Verboten (unacceptable risk)

Anwendungen, die ein nicht-akzeptables Grundrechtsrisiko darstellen. Dazu zählen: Social Scoring durch Behörden, manipulative Systeme, die kognitive Schwächen ausnutzen, biometrische Echtzeit-Identifikation im öffentlichen Raum (mit eng definierten Ausnahmen für Strafverfolgung), Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen sowie ungezieltes Scraping von Gesichtsbildern aus dem Internet. Wer eine solche Anwendung im Einsatz hat, darf sie seit dem 2. Februar 2025 nicht mehr betreiben.

Hochrisiko (high risk)

Anwendungen in sensiblen Bereichen, die ein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte mit sich bringen. Typische Mittelstands-Use-Cases:

Pflichten ab August 2026: dokumentiertes Risikomanagement, technische Dokumentation, menschliche Aufsicht, kontinuierliches Monitoring, Konformitätsbewertung.

Begrenztes Risiko (limited risk)

Anwendungen mit definierten Transparenzpflichten. Dazu zählen Chatbots (Hinweis, dass es sich um eine KI handelt), KI-generierte Inhalte (Kennzeichnungspflicht), Deepfakes (Offenlegung) sowie Emotionserkennungssysteme außerhalb der verbotenen Kontexte. Operative Pflicht: klare Kennzeichnung gegenüber dem Nutzer.

Minimales Risiko (minimal risk)

Anwendungen ohne spezifische AI-Act-Pflichten. Hier liegen die meisten Mittelstands-Anwendungen: Spam-Filter, einfache Empfehlungsalgorithmen im Webshop, Übersetzungstools für interne Dokumente, allgemeine Texthilfe in der Buchhaltung. Wichtig: Minimales Risiko entbindet nicht von DSGVO-Pflichten und nicht von der AI-Literacy-Pflicht aus Artikel 4.

Der Grenzfall ist der Anwendungsfall, nicht das Werkzeug

Die operative Schwierigkeit liegt in den Grenzfällen. Ein KI-gestütztes CRM, das Kontakte bewertet, ist nicht automatisch hochrisiko. Sobald es aber zur Vorauswahl von Bewerbern genutzt wird, fällt der Anwendungsfall in den Hochrisiko-Bereich — unabhängig davon, was das Tool eigentlich kann. Klassifiziert wird der Anwendungsfall, nicht das Werkzeug. Das hat operative Konsequenzen für Verträge: Ein Tool kann je nach Konfiguration in unterschiedliche Risikoklassen fallen, abhängig vom konkreten Einsatzkontext.

Mitigation und Sofortmaßnahmen — die vier Leitplanken

Für die nächsten 12 Wochen reichen vier Leitplanken, wenn sie konsequent durchgezogen werden. Sie sind bewusst unspektakulär und greifen in Summe.

1. Bestandsaufnahme inklusive Schatten-KI

Eine systematische Befragung der Fachabteilungen, nicht der IT allein. Welche Tools sind heute im Einsatz, formal eingeführt oder nicht, mit welchem Anbieter, mit welcher Datenflussrichtung. Ergebnis ist eine Liste, die ehrlich ist — nicht die, die in der Foliensammlung steht. Praktischer Hebel: anonyme Umfrage in jeder Abteilung, kombiniert mit DNS-Logs der letzten 90 Tage für bekannte KI-Anbieter-Domains.

2. Klassifizierung mit konservativer Voreinstellung

Für jedes Tool die Risikoklasse bestimmen — wieder: Klassifizierung des Anwendungsfalls, nicht des Werkzeugs. Bei Unsicherheit konservativ klassifizieren. Die spätere Korrektur nach unten ist einfacher als die nachträgliche Korrektur nach oben. Hochrisiko-Anwendungen dokumentieren, Pflichtenkatalog je Klasse zuordnen.

3. AI-Literacy in Modulen, abgestimmt auf Rollen

Eine Vertriebsmitarbeiterin braucht andere Inhalte als ein Entwickler, der einen Agent baut. Schulungspläne in Modulen, mit nachvollziehbaren Teilnahmen und einem Auffrischungs-Rhythmus. Das ist kein einmaliger Termin, sondern eine Routine. Module sinnvollerweise an DSGVO-Schulungen ankoppeln — die Zielgruppen überschneiden sich stark.

4. Governance mit schlankem Lenkungskreis

Ein KI-Lenkungskreis aus drei bis fünf Personen, der quartalsweise tagt und Entscheidungen über neue Tools, neue Anwendungsfälle und Audit-Vorbereitung trifft. Verantwortlichkeiten sind benannt, nicht beschworen. Reviews laufen im Regelbetrieb mit, nicht als Sonderveranstaltung. Ein leichtes Tool-Onboarding-Formular (drei Fragen: Anwendungsfall, Datenfluss, vermutete Risikoklasse) verhindert, dass die Schatten-KI in zwei Quartalen wieder dieselbe Größe erreicht.

Detection und Prüfung — wie Sie Schatten-KI finden

Vor der Klassifizierung steht die Inventur. Vor der Inventur steht eine ehrliche Detection. Fünf Kernfragen, die in der Praxis 80 % der bisher unentdeckten KI-Nutzung sichtbar machen:

Eine kurze Quick-Check-Sequenz, die wir vor jedem Audit fahren, ist eine Variante des folgenden Suchbefehls für Source-Repositories:

 

git grep -nE "(openai|anthropic|together\.ai|cohere|mistral|gemini-pro|claude-)" \
  -- '*.py' '*.ts' '*.js' '*.go' '*.php' '*.rb'

 

Was so auftaucht, wandert auf die Inventarliste. Was sich nicht erklären lässt, wandert auf eine zweite Liste — die geht nicht in die nächste Schicht der Inventur, sondern in die nächste Vorstandssitzung.

Betreiberempfehlung

Was bis zum 2. August 2026 in welchem Setup operativ steht — abhängig davon, wo Sie heute stehen.

Querverweise zu Themen, die im selben Atemzug eine Rolle spielen: das EU-AI-Act-Artikel-50-Briefing für Transparenz-Pflichten, der LiteLLM/Flowise-Beitrag für KI-Gateway-Disziplin, und der KI-Security-Audits-Beitrag für die Verknüpfung von KI-Governance und Release-Disziplin.

Fazit

Die meisten Audit-Vorbereitungen, die wir derzeit begleiten, scheitern nicht an großen Investitionen, sondern an unscharfer Bestandsaufnahme. Niemand weiß sicher, welche Tools heute im Haus laufen, mit welchen Verträgen und wer sie aktiv nutzt. Genau hier liegt der größte Hebel der nächsten drei Monate. Wer im Mai sauber inventarisiert, hat bis Juli Zeit für Verträge und Schulungen und kommt im August in Ruhe in den Stichtag.

Die Frage lautet nicht, ob Sie bis August AI-Act-konform sein werden. Sie lautet, ob Sie am 3. August jeden eingesetzten KI-Tool-Eintrag mit Risikoklasse, Vertrag und Verantwortlichem benennen können — und ob das, was nicht im Verzeichnis steht, auch nicht im Haus läuft.

Ein längerer Beitrag mit der Vorlage für KI-Verzeichnisse, einer Schatten-KI-Erhebungs-Methodik und der Kopplung von AI-Literacy- und DSGVO-Schulungen findet sich unter ole-hartwig.eu.

Häufige Fragen

Wie ordnen sich AI Act und NIS-2 zueinander?+

Sie überlappen, aber sie kollidieren nicht. NIS-2 fordert Risikomanagement, Lieferkettensicherheit und Sicherheits-Governance – das gilt auch für KI-Systeme im Einsatz. Der AI Act ergänzt das um spezifische Pflichten zu Klassifizierung, Dokumentation und menschlicher Aufsicht. Wer NIS-2 ohnehin in Umsetzung hat, kann den AI Act in den bestehenden Risikomanagement-Pfad einklinken – das spart Doppelstrukturen.

Wir haben keine Hochrisiko-Anwendung — reicht dann eine Minimalverwaltung?+

Vorsichtig damit. Hochrisiko ist eng definiert, aber die Klassifizierung bleibt Ihre Pflicht und im Zweifel die Beweislast. Bewerbungs-Screening, Bonitätsprüfungen, klinische Entscheidungsunterstützung oder die Steuerung sicherheitskritischer Prozesse sind Hochrisiko – auch dann, wenn das Tool dahinter ein „harmloses“ SaaS-Produkt ist. Eine konservative Klassifizierung bei Unsicherheit ist im Audit günstiger als eine späte Korrektur.

Wie aufwändig ist die AI-Literacy-Pflicht aus Artikel 4 in der Praxis?+

Geringer, als die meisten Teams annehmen, sobald die Schulungspläne nach Rollen geschnitten sind. Für eine mittelgroße Organisation rechnen wir mit drei bis vier Modulen à 60 bis 90 Minuten, jeweils auf Vertrieb, HR, Buchhaltung, Entwicklung zugeschnitten. Aufwändiger ist die Dokumentation der Teilnahmen und der Auffrischungs-Rhythmus – ohne diese ist die Pflicht im Audit nicht nachweisbar.

Was gehört mindestens in ein KI-Verzeichnis nach AI Act?+

Pro Eintrag: Zweck der Anwendung, Risikoklasse und ihre Begründung, betroffene personenbezogene Daten, Anbieter und vertragliche Grundlage, Wirkungsanalyse auf Grundrechte, definierte menschliche Aufsicht, Verantwortlicher im Haus. Wer das Verarbeitungsverzeichnis aus der DSGVO bereits führt, kann das KI-Verzeichnis daran andocken – die Schnittmenge ist groß, aber nicht deckungsgleich.

Wir nutzen nur KI-Tools, die jemand anders bereitstellt — sind wir trotzdem in der Pflicht?+

Ja. Der EU AI Act unterscheidet zwischen Anbieter und Nutzer eines KI-Systems. Als Nutzer haben Sie auch dann Pflichten, wenn Sie das System nicht selbst entwickelt haben – insbesondere die Klassifizierung Ihrer Anwendungsfälle, die AI-Literacy-Pflicht aus Artikel 4 sowie für Hochrisiko-Anwendungen die menschliche Aufsicht und das Monitoring. Wer Tools von Microsoft, OpenAI oder anderen einsetzt, bleibt also nicht außen vor.

Bevor der August Sie einholt — sprechen wir über Ihr KI-Verzeichnis.

Wir bringen Ihr KI-Verzeichnis bis 2. August in Audit-Fähigkeit.

Sie geben uns einen halben Tag und Zugang zu Ihren KI-Tool-Verträgen, DNS-Logs und Fachabteilungs-Ansprechpartnern — wir liefern eine ehrliche Inventur inklusive Schatten-KI, eine konservative Risikoklassifizierung je Anwendungsfall, eine 12-Wochen-Roadmap auf den 2. August und einen revisionsfesten Bericht, mit dem Sie in den Audit-Termin gehen können.

Das ist die operative Routine aus DevSecOps as a Service und der Externen IT-Abteilung — AI-Act-Compliance als KI-Verzeichnis-Disziplin, nicht als Bauchgefühl in der Vorstandssitzung.

Termin direkt vereinbaren