EU AI Act: Bundeskabinett beschließt deutsches Durchführungsgesetz – Bundesnetzagentur soll zentrale Rolle übernehmen
AI Act made in Germany: Innovationsmotor oder neue Bürokratie?
Das Bundeskabinett hat am 11. Februar 2026 den Gesetzentwurf zur Durchführung der EU-KI-Verordnung (AI Act) beschlossen.
Ziel: ein verlässlicher, innovationsfreundlicher und zugleich praxistauglicher Vollzug in Deutschland – insbesondere über klare Zuständigkeiten, Koordinierung und Ansprechpartner für Unternehmen.
Für Unternehmen stellt sich nun die entscheidende Frage: Wird der AI Act hierzulande zum Innovationsmotor – oder zur administrativen Bremse?
Was ist der EU AI Act überhaupt?
Der EU AI Act ist das weltweit erste umfassende Gesetz zur Regulierung künstlicher Intelligenz. Er trat am 1. August 2024 in Kraft und verfolgt ein klares Ziel: Vertrauen in KI stärken, Grundrechte schützen und gleichzeitig Innovation im Binnenmarkt ermöglichen.
Herzstück ist ein risikobasierter Ansatz. KI-Systeme werden danach eingestuft, welches Gefahrenpotenzial sie bergen.
Die Risikostufen im Überblick
- Unannehmbares Risiko – verboten
Beispielsweise manipulative Systeme oder „Social Scoring“. Diese Anwendungen sind vollständig untersagt. - Hochrisiko-KI – strenge Anforderungen
Etwa in Bereichen wie kritische Infrastruktur, Bildung, Beschäftigung oder sicherheitsrelevante Produkte.
Hier gelten umfassende Vorgaben zu: - Risikomanagement
- Datengovernance
- Dokumentation
- Transparenz
- Konformitätsbewertung durch anerkannte Stellen
- Begrenztes Risiko – Transparenzpflichten
Dazu zählen unter anderem Chatbots oder generative KI. Nutzer müssen klar erkennen können, dass sie mit KI interagieren oder KI-generierte Inhalte konsumieren.
- Minimales Risiko – weitgehend frei
Die Mehrheit heutiger KI-Anwendungen bleibt regulierungsarm.
Zeitplan der Umsetzung
- Inkrafttreten: 1. August 2024
- Verbotene Praktiken: seit Anfang 2025 untersagt
- AI-Literacy- und Transparenzpflichten: bereits in Kraft
- Vollständige Anwendung: überwiegend ab 2. August 2026
- Übergangsfristen für bestimmte Hochrisiko-Systeme: teils bis 2027
Bei schweren Verstößen drohen Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes.
Der AI Act gilt für Anbieter und Nutzer von KI-Systemen – unabhängig vom Unternehmenssitz, sofern der EU-Markt betroffen ist.
Was das Kabinett konkret vorhat: „Zentrale Rolle“ für die Bundesnetzagentur
Mit dem Durchführungsgesetz wird festgelegt, welche Behörden in Deutschland für Umsetzung, Marktüberwachung und Anerkennung von Prüfstellen zuständig sind.
Im Zentrum steht künftig die Bundesnetzagentur. Sie soll eine koordinierende Rolle übernehmen und als Kompetenzzentrum fungieren.
Geplant sind:
- Bündelung von KI-Expertise
- Unterstützung anderer Behörden
- Einrichtung mindestens eines KI-Reallabors
- Koordination der Marktüberwachung
Damit soll verhindert werden, dass die föderale Struktur zu einem Flickenteppich unterschiedlicher Zuständigkeiten führt.
Bitkom warnt: AI Act wird „Innovations- oder Bürokratieprojekt“
Der Digitalverband Bitkom begrüßt den pragmatischen Ansatz, warnt jedoch deutlich vor möglichen Engpässen.
Insbesondere die Anerkennung sogenannter „Notifizierter Stellen“ – also Prüfstellen für Hochrisiko-KI – dürfe nicht zum Flaschenhals werden. Lange Wartezeiten könnten Innovationen ausbremsen. Als mahnendes Beispiel nennt Bitkom die Erfahrungen mit der europäischen Medizinprodukteverordnung.
Zudem fordert der Verband:
- schlanke Prozesse
- ausreichende personelle Ressourcen
- digitale Verfahren
- innovationsfreundliche Reallabore mit schnellen Rückmeldungen
Warum das auch für Spielwaren & Licensing relevant ist
KI ist in unserer Branche längst Alltag: Produkttexte, Übersetzungen, Bild- und Video-Assets, Shop-Optimierung, Trend-Scouting, Chatbots im B2B/B2C-Service oder sogar KI-Features in „smarten“ Spielwaren. Der AI Act unterscheidet dabei nicht nach Branchen, sondern nach Risiko – und genau da wird’s spannend.
1. KI im Marketing & Content
Produkttexte, Übersetzungen, Bilder, Videos, Social-Media-Assets oder Chatbots werden zunehmend KI-gestützt erstellt.
Hier greifen Transparenzpflichten – insbesondere bei generativer KI.
2. Smarte Produkte & interaktive Systeme
Sobald KI Bestandteil eines sicherheitsrelevanten Produkts wird, kann eine Einstufung als Hochrisiko-System erfolgen.
Das betrifft insbesondere vernetzte oder lernfähige Produkte.
3. AI Literacy im Unternehmen
Unternehmen müssen sicherstellen, dass Mitarbeitende, die KI einsetzen, über ausreichende Kompetenzen verfügen. Dokumentierte Schulungen werden zunehmend zur Compliance-Frage.
Was Unternehmen jetzt konkret tun sollten
Kurz & pragmatisch (auch für Mittelstand):
- KI-Inventur: Wo wird KI eingesetzt (Tools, Agenturen, Plattformen)? Wofür (Text, Bild, Service, Analytics)?
- Risikocheck nach AI-Act-Logik: minimal / begrenzt / hoch (bei „smarten“ Produkten besonders genau).
- Kennzeichnungs- & Freigabeprozess für KI-generierte Inhalte definieren (auch für Social/PR/Newsletter).
- AI-Literacy-Schulung dokumentieren (wer nutzt KI wofür, welche Leitplanken gelten?).
- Monitoring der deutschen Behördenpraxis: Wenn BNetzA-Koordinierung + Prüfstellen gut funktionieren, wird’s planbarer, wenn nicht, drohen Verzögerungen (Bitkom-Warnung).
Warum das Durchführungsgesetz ein „Branchen-Thema“ ist
Der AI Act ist EU-Recht – aber die Durchsetzung passiert national. Genau deshalb ist das deutsche Durchführungsgesetz so entscheidend: Es bestimmt, wer Unternehmen berät, wer kontrolliert, wie Anerkennung von Prüfstellen läuft – und ob daraus ein praxisnahes System oder ein Flickenteppich wird.
