
Das EU-Parlament will Minderjährige im Internet besser schützen und fordert etwa ein EU-weites Mindestalter für Social Media von 16 Jahren und Verbote der schädlichsten suchtfördernden Praktiken. Dazu haben die Abgeordneten einen Bericht über Online-Gefahren für Kinder angenommen.
Am 26.11.2025 haben die Abgeordneten des EU-Parlaments einen Bericht über Online-Gefahren für Kinder angenommen. Darin zeigen sie sich ernsthaft besorgt über die Gefahren für die körperliche und geistige Gesundheit Minderjähriger im Internet, von denen 25 % Smartphones auf „problematische“ Weise nutzen. Deshalb fordern sie ein EU-weites Mindestalter für Social Media-Angebote von 16 Jahren und Verbote von manipulativen Strategien, die den Suchtfaktor für Online-Angebote erhöhen – so etwa suchtförderndes Design oder Lootboxen in Spielen. 483 Abgeordnete stimmten dafür, 92 Stimmen dagegen, 86 enthielten sich.
Mindestalter für Plattformen der sozialen Medien
Um Eltern zu helfen, den altersgerechten Umgang ihrer Kinder mit digitalen Medien zu steuern, schlägt das Parlament ein EU-weit geltendes Mindestalter von 16 Jahren für den Zugang zu sozialen Medien, Videoplattformen und KI-Begleitern vor. 13- bis 16-Jährigen soll der Zugang mit Zustimmung der Eltern möglich sein. Letztlich bestimmen die Dienste ein solches Mindestalter bereits jetzt in ihren Nutzungsbedingungen, um den Vorschriften der Datenschutzgrundverordnung (DSGVO) gerecht zu werden.
Die Abgeordneten unterstützen die Kommission außerdem darin, eine EU-App zur Altersüberprüfung und die digitale Brieftasche für die europäische Identität (eID) zu entwickeln. Altersüberprüfungssysteme müssen nach Ansicht des Parlaments verlässlich sein und die Privatsphäre von Minderjährigen wahren. Der Einsatz solcher Systeme würde die Plattformen dennoch nicht davon befreien, für sichere und altersgerechte Produkte zu sorgen.
Schärfere Maßnahmen der Kommission
Das Parlament fordert außerdem ein Verbot der schädlichsten suchtfördernden Praktiken und die standardmäßige Deaktivierung anderer suchterzeugender Merkmale für Minderjährige. Als besonders schädlich erachten sie z. B. Endlos-Scrollen, das automatische Abspielen von neuen Videos etwa bei TikTok oder YouTube, die Möglichkeit des Aktualisierens durch Ziehen, Belohnungen für die kontinuierliche Nutzung und schädliche „Gamification“ von Online-Angeboten. Auch soll es ein Verbot von Lootboxen und anderen randomisierten Spielfunktionen wie In-App-Währungen, Glücksrädern oder Pay-to-Progress-Mechanismen (bei denen man für Fortschritte in dem jeweiligen Spiel bezahlt) geben.
Ebenfalls gänzlich verboten werden sollen Empfehlungssysteme für Minderjährige, die auf Profiling und Nutzerverhalten beruhen. Plattformen soll es außerdem untersagt werden, finanzielle Anreize für die Beeinflussung von Kindern durch Kinder (sogenannte Kidfluencer) zu bieten – Minderjährige sollen so besser vor kommerzieller Ausbeutung geschützt werden.
Auch sollen im Rahmen des anstehenden Rechtsakts über digitale Fairness Maßnahmen zur Bekämpfung von beeinflussenden Technologien eingeführt werden – etwa für gezielte Werbung, Influencer-Marketing, suchtförderndes Design und manipulativen Gestaltungstechniken („Dark Patterns“). Die Anwendung des Gesetzes über digitale Dienste (DSA) soll auf Online-Videoplattformen wie YouTube und TikTok ausgeweitet werden.
Schließlich brauche es dringende Maßnahmen zur Bewältigung der ethischen und rechtlichen Probleme, die sich aus generativen KI-Tools ergäben wie Begleit-Chatbots, KI-Agenten, Deepfakes und KI-gestützten Nacktheits-Apps (die nicht einvernehmlich manipulierte Bilder erstellen).
Berichterstatterin Christel Schaldemose erklärte zu den Vorhaben: „Wir ziehen endlich eine klare Grenze. Wir sagen den Plattformen unmissverständlich: Eure Dienste sind nicht für Kinder gemacht.“
Die Konsequenzen, die die EU-Parlamentarier fordern, sind hart: Online-Seiten, die nicht den EU-Vorschriften entsprechen, sollen verboten werden können. Führungskräfte von Tech-Giganten sollen bei schwerwiegenden und anhaltenden Verstößen persönlich haftbar gemacht werden können, und zwar vor allem im Hinblick auf Jugendschutz und Altersüberprüfung. Dies solle Anreize für die bessere Einhaltung des EU-Gesetzes über digitale Dienste und anderer einschlägiger Vorschriften schaffen.

Nutzen Sie Facebook oder Instagram? Jetzt 50 € sichern!
Unser Partner PrivacyReclaim kämpft gegen den fragwürdigen Umgang des Social-Media-Giganten Meta mit Ihren Daten. Durch den Verkauf Ihrer Ansprüche erhalten Sie direkt 50 Euro - das Risiko trägt allein PrivacyReclaim.
Hintergrund: 25 % der Minderjährigen zeigen problematisches Nutzungsverhalten
Während manche Digitalrechts-Experten wie Dr. Patrick Breyer einer Altersfestlegung und -kontrolle warnen und darin „digitalen Hausarrest für Kinder und Jugendliche“ sowie „das Ende anonymer Kommunikation“ sehen, zeigt der Bericht die durchaus problematischen Hintergründe auf:
Danach sind 97 % der Jugendlichen täglich online, 78 % der 13- bis 17-Jährigen schauen mindestens einmal pro Stunde auf ihre Geräte. Dabei werde das Smartphone von 25 % der Minderjährigen auf „problematische“ oder „dysfunktionale“ Weise genutzt, was heißt, dass sie ein suchtähnliches Verhalten zeigten.
Beim Eurobarometer 2025 gaben mehr als 90 % der Befragten an, es seien dringend Maßnahmen für den Schutz von Kindern im Internet erforderlich, und zwar nicht zuletzt in Anbetracht der negativen Auswirkungen der sozialen Medien auf die geistige Gesundheit (93 %) sowie mit Blick auf Cybermobbing (92 %) und darauf, dass der Zugang zu altersunangemessenen Inhalten wirksam beschränkt werden müsse (92 %).
Die Mitgliedstaaten haben bereits erste Maßnahmen ergriffen und beispielsweise mit Altersbeschränkungen und Überprüfungssystemen reagiert.
ahe