
Die EU zieht die Zügel gegenüber der Plattform X drastisch an und leitet aufgrund systemischer Defizite bei der KI Grok ein förmliches Prüfverfahren ein. Im Zentrum stehen die unkontrollierte Generierung sexualisierter Deepfakes sowie eklatante Verstöße gegen den DSA, die das Geschäftsmodell von Elon Musk nun existenziell bedrohen könnten.
Die Europäische Kommission (KOM) hat am 25. Januar 2026 ein umfassendes förmliches Prüfverfahren gegen den Kurznachrichtendienst X eingeleitet, um potenzielle Verstöße gegen das Gesetz über digitale Dienste (Digital Services Act, DSA) zu untersuchen. Die Brüsseler Behörde reagiert damit auf die zunehmende Verbreitung illegaler Inhalte, insbesondere durch Künstliche Intelligenz (KI) generierte, sexuell eindeutige Bilder, die durch den konzerneigenen Chatbot Grok ermöglicht wurden. Parallel dazu wurde eine bereits seit Dezember 2023 laufende Untersuchung bezüglich der Empfehlungssysteme der Plattform erweitert, um die Auswirkungen des Wechsels auf eine Grok-basierte Architektur zu evaluieren (Europäische Kommission, Pressemitteilung v. 25.01.2026 – IP/26/203).
Digitale Anarchie unter dem Deckmantel der Innovation
Der Beginn des Konflikts liegt in der aggressiven Neuausrichtung der Plattform X, ehemals Twitter, unter der Leitung von Elon Musk. Seit der Übernahme und der Umbenennung in X hat sich das soziale Netzwerk zu einem Experimentierfeld für eine radikale Auslegung der Redefreiheit gewandelt. Mit der Einführung von Grok, einem generativen KI-Modell, das explizit als weniger restriktiv als konkurrierende Systeme positioniert wurde, öffnete die Plattform die Schleusen für eine neue Qualität des digitalen Missbrauchs. Binnen kürzester Zeit fluteten täuschend echte, sexualisierte Deepfakes prominenter Persönlichkeiten die Timelines, ohne dass die automatisierten oder menschlichen Moderationssysteme der Plattform effektiv intervenierten. Besonders gravierend wog hierbei die Erkenntnis, dass die technischen Schutzwälle von Grok – sogenannte Guardrails – bewusst niedrigschwellig gehalten oder leicht zu umgehen waren. Nutzer konnten mit einfachen Befehlen pornografisches Material erstellen lassen, das reale Personen ohne deren Zustimmung in kompromittierenden Situationen darstellte.
Bereits im Dezember 2025 hatte die EU ein klares Signal gesendet, als sie gegen X eine Geldbuße in Höhe von 120 Millionen Euro verhängte. Grund hierfür waren mangelnde Werbetransparenz und ein unzureichender Datenzugang für die Forschung. Doch anstatt eine Kurskorrektur einzuleiten, forcierte das Unternehmen die Integration von Grok in die Kernfunktionen des Dienstes, einschließlich der Algorithmen zur Inhaltssteuerung. Ein Auskunftsersuchen der Kommission vom September 2025, das explizit antisemitische Inhalte und die Verbreitung von Desinformation durch die KI thematisierte, blieb aus Sicht der Regulierer unzureichend beantwortet. Die aktuelle Eskalation ist somit der Höhepunkt einer monatelangen Missachtung europäischer Rechtsstandards durch das in San Francisco ansässige Unternehmen. Die Beteiligung des irischen Koordinators für digitale Dienste, Coimisiún na Meán, unterstreicht die grenzüberschreitende Dimension und die Entschlossenheit der europäischen Behörden, die Einhaltung des Regelwerks flächendeckend sicherzustellen.
Das regulatorische Korsett der sehr großen Online-Plattformen
Die rechtliche Architektur des Verfahrens fußt maßgeblich auf der Einordnung von X als sehr große Online-Plattform (Very Large Online Platform, VLOP). Mit dieser Kategorisierung gehen nach dem DSA gesteigerte Sorgfaltspflichten einher, die weit über das bloße Reagieren auf Nutzerbeschwerden hinausgehen. Während kleinere Dienste im Rahmen des traditionellen Haftungsprivilegs erst bei Kenntnisnahme rechtswidriger Inhalte handeln müssen, unterliegen VLOPs einer proaktiven Risikomanagementpflicht. Artikel 34 DSA verpflichtet die Betreiber, systemische Risiken, die von ihren Diensten ausgehen, akribisch zu analysieren. Hierzu zählen insbesondere negative Auswirkungen auf die öffentliche Sicherheit, den zivilen Diskurs und die Grundrechte, wie etwa das Recht auf Schutz der menschlichen Würde und der Privatsphäre.
Soforthilfe vom Anwalt
Sie brauchen rechtliche Beratung? Rufen Sie uns an für eine kostenlose Ersteinschätzung oder nutzen Sie unser Kontaktformular.
In der juristischen Bewertung rückt insbesondere Artikel 35 DSA in den Fokus, der von den Plattformen verlangt, angemessene und wirksame Minderungsmaßnahmen zu ergreifen. Wenn eine Plattform eine generative KI implementiert, die nachweislich zur Erstellung illegaler Inhalte wie Darstellungen von sexuellem Kindesmissbrauch oder nicht einvernehmlichen intimen Bildern genutzt werden kann, ohne dass vorab eine fundierte Ad-hoc-Risikobewertung durchgeführt wurde, greift die Kommission korrigierend ein. Die rechtliche Komplexität erhöht sich zudem durch die zeitgleiche Implementierung des KI-Gesetzes (AI Act). Obwohl dessen volle Anwendbarkeit für GPAI-Modelle (General Purpose AI) erst sukzessive eintritt, dient der DSA bereits jetzt als effektives Instrument, um die Verbreitungswege der durch KI generierten Schadensinhalte zu kappen. Das Verfahren gegen X markiert damit das Ende der regulatorischen Schonfrist für generative Modelle innerhalb sozialer Netzwerke. Es wird klargestellt, dass die technische Innovation nicht von der rechtlichen Verantwortung für deren soziale Folgen entbindet. Das Versäumnis, Risikoanalysen vor der Einführung kritischer Funktionen an die Behörden zu übermitteln, stellt dabei einen formalen Verstoß dar, der die Beweislast im weiteren Verfahren zuungunsten des Plattformbetreibers verschieben könnte.
Die Vorwürfe der Brüsseler Behörde
Die Einleitung des förmlichen Verfahrens bedeutet, dass die Kommission nun prioritär Beweise sammeln wird, um die mutmaßlichen Verstöße zu erhärten. Das Spektrum der möglichen Sanktionen ist weitreichend und umfasst neben empfindlichen Geldbußen von bis zu sechs Prozent des weltweiten Jahresumsatzes auch die Anordnung einstweiliger Maßnahmen, um unmittelbare Gefahren für die Nutzer abzuwenden.
Die Kommission führt in ihrer Begründung an, dass X es versäumt habe, die mit der Einführung von Grok verbundenen systemischen Risiken ordnungsgemäß zu bewerten und zu mindern. Insbesondere die Verbreitung von manipulierten, sexuell eindeutigen Bildern stelle eine schwerwiegende Verletzung der Sorgfaltspflichten dar. Die Behörde argumentiert, dass das Unternehmen verpflichtet gewesen wäre, bereits vor der Markteinführung einen detaillierten Ad-hoc-Risikobewertungsbericht vorzulegen, was offensichtlich unterblieben sei. Zudem bestehe der Verdacht, dass die Änderung der Empfehlungssysteme hin zu einer Grok-basierten Logik die Sichtbarkeit schädlicher Inhalte unzulässig verstärke und damit das körperliche sowie geistige Wohlbefinden der Bürger gefährde. Man betonte seitens der Exekutiv-Vizepräsidentin Henna Virkkunen, dass sexuelle Deepfakes eine inakzeptable Form der Gewalt darstellten und die Rechte von Frauen und Kindern nicht als bloßer Kollateralschaden technologischer Experimente hingenommen würden. Die Ermittlungen sollen nun klären, inwieweit die algorithmischen Strukturen von X systematisch gegen Artikel 34 und 35 des Gesetzes über digitale Dienste verstießen und ob das Unternehmen vorsätzlich Schutzmechanismen untergraben habe.
Rechtssicherheit in der Ära der Künstlichen Intelligenz
Die dynamische Entwicklung im europäischen Digitalrecht stellt Unternehmen vor beispiellose Herausforderungen. Das Verfahren gegen X zeigt deutlich, dass die EU-Kommission gewillt ist, die ambitionierten Standards des DSA und des AI Act mit aller Härte durchzusetzen. Die Zeiten, in denen Technologiekonzerne regulatorische Anforderungen ignorieren konnten, sind vorbei. Wir unterstützen Sie dabei, diese komplexen Anforderungen frühzeitig zu identifizieren und rechtssichere Compliance-Strukturen für den Einsatz generativer KI zu beurteilen und zu etablieren.
Als spezialisierte Kanzlei für IT- und Medienrecht verfügen wir über die notwendige Expertise, um Sie durch das Dickicht der neuen Regulierungen zu führen. Ob es um die Erstellung von Risikobewertungen nach dem DSA oder die Beratung zur Haftung für KI-generierte Inhalte geht – wir stehen Ihnen als kompetenter Partner zur Seite. In einer Welt, in der Algorithmen zunehmend unseren Alltag bestimmen, ist rechtliche Prävention der beste Schutz vor existentiellen Risiken. Melden Sie sich jederzeit bei uns für eine fundierte Analyse Ihrer rechtlichen Situation.
ptr




