Social Media-Verbot: Was der Rest der Welt probiert und wo Deutschland steht

Credit: iStock/monkeybusinessimages
Credit: iStock/monkeybusinessimages
Veröffentlicht am 26.11.2025

Wie hältst Du es mit dem Social Media Verbot für Kinder und Jugendliche? Darüber diskutiert nicht nur Deutschland. Während Australien schon erste Maßnahmen ergriffen hat, ziehen nun auch andere europäische Länder Konsequenzen. So kündigt Dänemark eine Altersgrenze von 15 Jahren an, auch Frankreich und Griechenland erwägen ähnliche Verbote. Was funktioniert in anderen Ländern wirklich? Was kann Deutschland daraus lernen? Und warum stellt sich ein Verbot deutlich schwieriger heraus, als es auf den ersten Blick scheint?

Down Under als Early Adopter: Australien machte 2024 Schlagzeilen (öffnet in neuem Tab) als weltweit erstes Land, das ein umfassendes Social-Media-Verbot für unter 16-Jährige beschloss. Plattformen wie TikTok, Instagram, Facebook, Snapchat, YouTube sowie die australische Livestream-Plattform Kick.com müssen ab dem 10. Dezember 2025 Accounts von Nutzerinnen und Nutzern unter 16 Jahren sperren. Sonst drohen Strafen von bis zu 49,5 Millionen australischen Dollar.

Doch erste Ergebnisse sind ernüchternd: Viele Jugendliche umgehen das Verbot mühelos. Laut einem offiziellen Bericht (öffnet in neuem Tab) der australischen Online-Sicherheitsbehörde eSafety vom Februar 2025 nutzen unter 16-Jährige weiterhin Social Media – oft mithilfe von gefälschten Altersangaben oder Konten, die auf ältere Familienmitglieder registriert sind. Die Realität zeigt: Da die Plattformen hauptsächlich auf Selbstauskünfte der Nutzer vertrauen, ist das Verbot leicht zu umgehen.

Rawpixel (öffnet in neuem Tab) | Royalty Free Photo | Ausschnitt bearbeitet

Auf der anderen Seite des Globus hat Dänemark (öffnet in neuem Tab) seit November 2025 einen etwas moderateren Weg eingeschlagen: Eine nationale Altersgrenze von 15 Jahren soll den Zugang für junge Menschen zu bestimmten sozialen Medien einschränken. Dänischen Eltern steht jedoch weiterhin frei, mit ausdrücklicher Zustimmung ihrem Nachwuchs bereits mit 13 Jahren den Zugang zu Netzwerken zu erlauben. Hintergrund der Regelung ist der Schutz vor primär kommerziellen Interessen der Tech-Unternehmen und zunehmenden psychischen Belastungssymptomen unter Minderjährigen wie Ruhe- und Konzentrationsschwierigkeiten.

Selbst wenn sich die dänische Regelung bislang noch bewähren muss, sind grundsätzliche Fragen bislang noch offen: Welche Plattformen sind genau betroffen? Wie soll die Durchsetzung funktionieren? Und vor allem: Wird sich Dänemark mit dem neuen Entschluss als Vorreiter positionieren und damit auch auf europäische Lösungen drängen?

Dass Letzteres inzwischen nicht mehr ausschließlich einer europäischen Wunschvorstellung entspricht, zeigt eine jüngst beschlossene Erklärung (öffnet in neuem Tab). Demzufolge sprachen sich die Staats- und Regierungschefs der EU-Staaten fast einheitlich für eine Altersgrenze für die Nutzung sozialer Medien aus. Der Knackpunkt: Während die EU bereits neue Technologien zur Altersverifikation testet, sind sich Rechtsexperten einig, dass die Festlegung von Altersbeschränkungen in der Zuständigkeit der nationalen Regierungen liegt, nicht bei der EU.

Der status quo in Deutschland

Auch in Deutschland hat die Diskussion über ein Verbot massiv an Fahrt aufgenommen. Bundesjustizministerin Stefanie Hubig (SPD) und Bundesfamilienministerin Karin Prien (CDU) sprechen sich offen für eine Altersgrenze ab 16 Jahren aus. Hubig argumentiert, dass Kinder „Schutz statt Selbstdarstellungsdruck (öffnet in neuem Tab)” brauchen, während Prien etwas polemischer erklärt: „Wir lassen unsere Kinder doch auch nicht ins Bordell oder in den Schnapsladen (öffnet in neuem Tab).” Auch Schleswig-Holsteins Ministerpräsident Daniel Günther (CDU) fordert, dass der Staat seine „Schutzfunktion (öffnet in neuem Tab)“ stärker wahrnehmen müsse. Das Echo hallt auch in der Bevölkerung wider: Eine repräsentative Studie (öffnet in neuem Tab) des Leibniz-Instituts für Wirtschaftsforschung vom September 2025 zeigt, dass 85 % der Erwachsenen ein Mindestalter von 16 Jahren befürworten. Bemerkenswert ist auch, dass sich unter den Jugendlichen selbst eine relative Mehrheit von 47 % (bei 14- bis 17-Jährigen) für ein Verbot ausspricht, wenngleich 42 % dagegen sind.

Ein Blick in die pädiatrische Forschung (öffnet in neuem Tab) zeigt die Dringlichkeit: Die Zusammenhänge zwischen intensiver oder gar suchtartiger Social-Media-Nutzung und psychischen Belastungen sind längst erwiesen. Trotzdem offenbaren sich hinsichtlich eines deutschen Verbots für Social-Media-Plattformen einige fundamentale Hürden:

Besonders die australische Erfahrung lässt Zweifel hinsichtlich der technischen Möglichkeit zur Altersverifikation aufkommen. Zwar könnten Plattformen KI-gestützte Gesichtserkennung nutzen, um das Alter per Selfie zu schätzen; doch das wirft erhebliche ethische Bedenken bei der Speicherung biometrischer Daten auf. Ähnliche Erwägungen gibt es beim Ausweis-Upload, der Kinder permanent deanonymisieren würde. Letztlich genügt bereits ein simples Virtual Private Network (VPN), um australische Nutzer auf der Plattform so erscheinen zu lassen, als befänden sie sich in einem Land ohne Altersbeschränkungen. 

Alternativen zum reinen Verbot

Die bisherigen Erfahrungen mit strengen Verboten zeigen ein fundamentales Problem: Ein restriktives Verbot führt nicht dazu, dass Jugendliche soziale Medien meiden. Ganz im Gegenteil – technische Hürden werden in Sekundenschnelle überwunden. Das wirft die Frage auf, ob ein reines Verbot nicht zu kurz gedacht ist.

Stattdessen setzen sich kritische Stimmen für alternative Maßnahmen ein. Beispiele hierfür sind medienpädagogische Begleitung und altersgerechte Gestaltung der Plattformen. Kai Hanke (öffnet in neuem Tab), Geschäftsführer des Deutschen Kinderhilfswerks, argumentiert grundsätzlich: Pauschale Verbote entmündigen Kinder und Jugendliche und stehen im Widerspruch zu ihrem in der UN-Kinderrechtskonvention garantierten Recht auf digitale Teilhabe sowie den Aufbau von Medienkompetenz. Ein Komplettverbot entziehe jungen Menschen den Zugang zu relevanten Informationen, bedeutsame Orte der sozialen Interaktion mit Gleichaltrigen und die Chance, Medienkompetenz unter teilweise geschützten Bedingungen zu entwickeln. Das Dilemma ist offensichtlich: Wenn eine 15-Jährige ab 16 Jahren plötzlich Zugriff auf alle Inhalte erhält, ist sie einem potenziell schädlichen Algorithmus ausgesetzt. Das ohne vorherige Erfahrung, wie man damit umgeht.

Foto: iStock / Lacheev

Ähnlich warnt Stefan Düll, (öffnet in neuem Tab) Verbandspräsident des Deutschen Lehrerverbands: „Eine gesetzliche Altersgrenze für soziale Medien ist weder realistisch umsetzbar noch sinnvoll.” Sein Argument: Social Media sei längst Alltag für junge Menschen. Ein Verbot löse dieses Problem nicht, sondern verschärfe es eher. Stattdessen fordert er im Einklang mit weiteren Medienpädagogen und der Freiwilligen Selbstkontrolle Multimedia (öffnet in neuem Tab) (FSM) einen risikobasierten Ansatz: altersgerechte Gestaltung der Plattformen, Beschränkung manipulativer Algorithmen und die systematische Befähigung von Kindern, Eltern und Pädagogen zum kritischen Umgang mit digitalen Räumen.

Der politische Druck wächst dennoch: Eine Hamburger Elterninitiative (öffnet in neuem Tab) brachte das Thema mit über 250.000 Unterschriften im November 2025 in den Bundestag. Auch auf Länderebene fordern etwa Schleswig-Holstein (öffnet in neuem Tab) und Niedersachsen (öffnet in neuem Tab) eine stärkere Kontrolle, Bayern (öffnet in neuem Tab) oder Sachsen-Anhalt (öffnet in neuem Tab) sind da skeptischer. Die Bundesregierung reagierte mit der Einsetzung einer Expertenkommission (öffnet in neuem Tab), die bis Herbst 2026 Empfehlungen erarbeiten soll.

Wie kann es weitergehen? Ein Blick in die Zukunft

Die politische Debatte in Deutschland zeigt, dass ein breiter gesellschaftlicher Wunsch nach Regulierung besteht. Genauso bleibt es eine Realität, dass Forschungsbefunde (öffnet in neuem Tab) erhöhte psychische Belastungen bei intensiven Social-Media-Nutzern, Cybermobbing-Gefahren und problematische Inhaltsempfehlungen dokumentieren. Ein pauschales Verbot stößt jedoch auf fundamentale Hürden: Rechtlich ist es durch den DSA nicht umsetzbar, technisch scheitert es an der Umgehbarkeit durch VPNs und gefälschte Altersangaben, und pädagogisch wird die Frage aufgeworfen, ob es junge Menschen von notwendigen Lernprozessen abhält. Die Frage, die bleibt, ist also: alles nach dem Motto “business as usual”?

Ein alternativer Ansatz wäre, bestehende EU-Regelungen auszubauen. Bereits jetzt verpflichtet der Digital Service Act (öffnet in neuem Tab) (DSA) Plattformen zu „geeigneten und verhältnismäßigen Maßnahmen“ zum Schutz Minderjähriger. Konkret sind hier altersgerechte Gestaltung, Begrenzung manipulativer Algorithmen und Elternkontrolle vorgesehen. Deutschland könnte diese Regelungen durch europäische Standards stärken, statt nationale Alleingänge zu wagen.

Gleichzeitig kann Medienerziehung in Schulen Kindern Medienkompetenzen vermitteln. Dazu gehören das Erkennen manipulativer Algorithmen, simple Datenprotektionsmechanismen und bewusste Nutzungsentscheidungen. Dafür schlägt die Nationale Akademie der Wissenschaften (öffnet in neuem Tab) eine gestaffelte Regelung vor: Für 13- bis 16-Jährige könnte Zugang unter elterlicher Aufsicht mit technischen Sicherheitsmaßnahmen (Zeitbeschränkungen, Kontaktfiltern) möglich sein. Algorithmische Regulierung wird als weiterer Ansatz diskutiert, um Plattformen in die Verantwortung zu ziehen. Ähnlich ist es mit der Einschränkung von Infinite-Feed-Mechaniken (ein Webdesign, das kontinuierliche neue Inhalte anspült), Transparenzanforderungen und Begrenzung von Benachrichtigungen. 

Während Australien am Experiment eines Komplettverbots gescheitert ist, zeigen europäische Nachfolger alternative differenzierte Ansätze. Letztendlich hat Deutschland die Möglichkeit, aus diesen internationalen Erfahrungen zu lernen und über europäische Standards ein koordiniertes Vorgehen zu prägen.

Schlagworte

Empfehlung der Redaktion