
Die Bundesregierung hat einen Entwurf für ein Durchführungsgesetz zur KI-Verordnung der Europäischen Union (AI Act) beschlossen. Die Bundesnetzagentur soll die zentrale Anlaufstelle sein, um die EU-Vorgaben zur Künstlichen Intelligenz zu überwachen.
Der AI Act gilt bereits großteilig auf EU-Ebene, doch in Deutschland fehlt bislang die flankierende Gesetzgebung. Eigentlich hätte Deutschland einen entsprechenden Entwurf bis zum 2. August 2025 verabschieden müssen, doch bislang ist das wegen des ungeplanten Regierungswechsels 2025 noch nicht geschehen. Nun hat die Bundesregierung am 11. Februar das Durchführungsgesetz zur KI-Verordnung der Europäischen Union (AI Act) beschlossen. Damit das Gesetz auch in Kraft tritt, muss es allerdings noch das reguläre Gesetzgebungsverfahren durchlaufen.
Artikel 70 Absatz 2 der KI-Verordnung fordert, dass die EU-Mitgliedstaaten Informationen darüber, wie die zuständigen nationalen Behörden und zentralen Anlaufstellen auf elektronischem Wege kontaktiert werden können, öffentlich zugänglich machen. Dementsprechend benennt das geplante Gesetz nun die nationalen Behörden zur Umsetzung der Verpflichtungen aus der KI-Verordnung. Zentrale Anlaufstelle wird die Bundesnetzagentur sein.
Grundlage: Der AI-Act der EU
Der AI Act (dt.: KI-Verordnung) ist am 1. August 2024 in Kraft getreten und wird inhaltlich seit Februar 2025 nach und nach anwendbar. Bis 2027 werden mehrere zentrale Bereiche des Gesetzes nach und nach zur Anwendung, unter anderem die Verbote bestimmter KI-Systeme, die Regulierung von Allzweck-KI (GPAI) und die Einsetzung von behördlichen Stellen.
Der AI Act ist die weltweit erste umfassende Regulierung für Künstliche Intelligenz und verfolgt einen risikobasierten Ansatz. Ziel ist es, Grundrechte, Sicherheit und Transparenz zu schützen und zugleich Innovation im Binnenmarkt zu fördern. KI-Systeme werden in vier Risikokategorien eingeteilt: unzulässiges Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko. Seit Februar 2025 verboten sind insbesondere KI-Anwendungen, die gegen Grundrechte verstoßen, etwa bestimmte Formen manipulativer oder sozialer Bewertungssysteme.
Für sogenannte Hochrisiko-KI – etwa in kritischer Infrastruktur, Medizinprodukten, Beschäftigung oder Strafverfolgung – gelten strenge Anforderungen an Risikomanagement, Datenqualität, Transparenz, Dokumentation und menschliche Aufsicht. Anbieter solcher Systeme müssen Konformitätsbewertungen durchführen und CE-Kennzeichnungen vornehmen. Auch Betreiber unterliegen spezifischen Pflichten, etwa hinsichtlich Überwachung und Meldung schwerwiegender Vorfälle.

Nutzen Sie Facebook oder Instagram? Jetzt 50 € sichern!
Unser Partner PrivacyReclaim kämpft gegen den fragwürdigen Umgang des Social-Media-Giganten Meta mit Ihren Daten. Durch den Verkauf Ihrer Ansprüche erhalten Sie direkt 50 Euro - das Risiko trägt allein PrivacyReclaim.
Für KI-Systeme mit begrenztem Risiko bestehen vor allem Transparenzpflichten, beispielsweise Kennzeichnungspflichten bei Chatbots oder Deepfakes. Für Basismodelle und sogenannte General-Purpose-AI-Systeme – insbesondere leistungsstarke Modelle – sieht die Verordnung zusätzliche Anforderungen zu Dokumentation, Urheberrechtstransparenz und Risikobewertung vor. Die Marktüberwachung erfolgt durch nationale Behörden sowie durch ein europäisches KI-Gremium; bei Verstößen drohen erhebliche Bußgelder, die sich prozentual am weltweiten Jahresumsatz orientieren. Insgesamt schafft der AI Act damit einen einheitlichen Rechtsrahmen für Entwicklung, Inverkehrbringen und Nutzung von KI in der EU.
AI-Act-Durchführungsgesetz in Deutschland geplant
Das deutsche Gesetz soll den EU-AI-Act nun ergänzen. Soweit nichts anderes bestimmt ist, soll nun die Bundesnetzagentur als zuständige Marktüberwachungsbehörde fungieren. Dort soll ein zentrales Koordinierungs- und Kompetenzzentrum für die Verordnung eingerichtet werden. Sie ist jedoch nicht nur Aufsichts- und Beschwerdestelle, sondern soll auch innovationsfördernde Maßnahmen durchführen – etwa Informationen zur konkreten Anwendung des AI Acts bereitstellen und den Wissensaufbau und -austausch zu Künstlicher Intelligenz fördern, insbesondere durch Durchführung von Studien, Analysen und Fachveranstaltungen.
Die Bundesnetzagentur errichtet und betreibt auch mindestens ein KI-Reallabor nach den Artikeln 57 und 58 der KI-Verordnung. KI-Reallabore sind von nationalen Behörden eingerichtete, kontrollierte Testumgebungen. In ihnen können Unternehmen – besonders Start-ups und KMU – innovative KI-Systeme zeitlich befristet unter realen Bedingungen erproben, bevor sie regulär auf den Markt kommen. Ziel ist es, Innovation zu fördern und gleichzeitig sicherzustellen, dass die Anforderungen des AI Acts (z. B. zu Risikomanagement, Transparenz oder Grundrechtsschutz) frühzeitig eingehalten werden. Die Aufsichtsbehörden begleiten und überwachen die Tests, können Ausnahmen in klar begrenztem Rahmen erlauben und sorgen für Schutz von Sicherheit, Gesundheit und Grundrechten.
Soforthilfe vom Anwalt
Sie brauchen rechtliche Beratung? Rufen Sie uns an für eine kostenlose Ersteinschätzung oder nutzen Sie unser Kontaktformular.
Punktuell werden allerdings auch anderen Behörden gewisse Aufgaben zugewiesen – so etwa die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) KI-Systeme, die in direktem Zusammenhang mit einer regulierten Finanztätigkeit stehen und von der BaFin beaufsichtigte Unternehmen in Verkehr gebracht, in Betrieb genommen oder verwendet werden. Dazu zählen nicht nur Banken und andere Kreditinstitute, sondern auch z.B. Kryptowerte-Dienstleistungen und Crowd-Finanzierer.
Außerdem in dem Durchführungsgesetz enthalten sind grundlegende Klarstellungen zur staatsfernen Medienaufsicht in Deutschland sowie der diesbezüglichen Zuständigkeit der Länder im Presse- und Rundfunkbereich. Dies betrifft insbesondere die Frage nach den Aufsichtsstrukturen zur Einhaltung der Transparenzpflichten, zum Beispiel bei der Kennzeichnung von Deepfakes und KI-generierten Nachrichtentexten. Da KI-Recht immer auch die Medienregulierung berühre, sei diese Staatsferne und die föderale Struktur der Medienordnung besonders wichtig, so Staatsminister für Kultur und Medien, Wolfram Weimer.
Insgesamt sei das Durchführungsgesetz laut Staatsminister aber nur einer von vielen Bausteinen hin zu einem abgestimmten, europäischen Ordnungsrahmen für KI. Grundsätzlich gelte: Wer KI einsetze, müsse Verantwortung übernehmen.
ahe




