Desinformation und Radikalisierung im Netz: Interview mit Sabine Frank (YouTube)

Pressefoto: Sabine Frank | Lars Huebner
Pressefoto: Sabine Frank | Lars Huebner
Veröffentlicht am 11.04.2022

Die Gefahren von Desinformation und Radikalisierung im Internet gelten seit längerem als eine große gesellschaftliche Herausforderung. In unserer Interview-Reihe möchten wir das Thema aus unterschiedlichen Perspektiven beleuchten. Auf das Auftaktgespräch mit Rita Schwarzelühr-Sutter (MdB & Parlamentarische Staatssekretärin) über die Handlungsmöglichkeiten der Politik folgt hier ein Interview zur gesellschaftlichen Verantwortung von digitalen Plattformen mit Sabine Frank. Sie leitet bei YouTube seit 2020 den Bereich Governmental Affaires and Public Policy in Deutschland, Österreich, Schweiz sowie Zentral- und Osteuropa.

Die Radikalisierung auf Social-Media-Kanälen und Messenger-Plattformen wurde mittlerweile als relevantes gesellschaftliches Problem erkannt. Doch wo fängt die Radikalisierung aus Ihrer Sicht eigentlich an? Sind digitale Plattformen ein Spiegel bereits bestehender Meinungen oder führen sie überhaupt erst dazu, dass sich Menschen vernetzen und radikalisieren?

pixabay-StockSnap-youtube-2617510-quadrat-720x720
Foto: CC0 1.0/ Pixabay User SAM-RIZ44 / Ausschnitt bearbeitet

Radikalisierung ist ein gesellschaftliches Problem, auf das wir gemeinsam Antworten finden müssen. Die Meinungen in der Bevölkerung sind divers und vielfältig und die Inhalte auf YouTube spiegeln dies wider. YouTube ist eine offene Plattform, die Kreativität und den demokratischen Diskurs stärkt und Menschen eine Stimme gibt. Der überwiegende Teil unserer Nutzerinnen und Nutzer weiß das zu schätzen: Weit über 99 Prozent der Milliarden Videos auf YouTube respektieren unsere Community-Richtlinien. Nicht richtlinienkonforme Inhalte entfernen wir in der Regel, bevor sie breit wahrgenommen werden können. Von 10.000 Aufrufen entfallen 9 bis 11 auf Inhalte, die später wegen Verstoßes gegen die Richtlinien entfernt werden – das sind 0,09-0,11 Prozent aller Aufrufe. Im dritten Quartal 2021 konnten wir dank unserer Systeme zur automatischen Erkennung über 70 Prozent der gegen die Richtlinien verstoßenden Inhalte entfernen, bevor sie 10 Aufrufe erzielten.

Wir haben klare Richtlinien und wenden diese konsequent an: Hass, Hetze und schädliche Fehlinformationen haben bei uns keinen Platz und werden von uns entfernt. Und dieses Engagement zeigt Wirkung, wie eine Studie der Landesmedienanstalten unterstreicht: Der Empfehlungsalgorithmus von YouTube erzeugt nachweislich weder inhaltliche Filterblasen noch ein „rabbit hole of extremism“.

Gleichzeitig bleibt der Kampf gegen Radikalisierung eine gesamtgesellschaftliche Anstrengung, etwa indem Medienkompetenz gestärkt und strafbare Handlungen und Äußerungen rechtlich wirksam sanktioniert werden.

Was kann eine Plattform wie YouTube tun, um gesellschaftlicher Radikalisierung und Enthemmung zu begegnen?

Beim Umgang mit Inhalten orientieren uns an vier Kernprinzipien: Wir entfernen Inhalte, die gegen unsere Richtlinien oder lokales Recht verstoßen, machen zuverlässige Inhalte sichtbar, reduzieren die Verbreitung grenzwertiger Inhalte und belohnen Creator, die sich an die Richtlinien halten, mit der Möglichkeit, ihre Inhalte zu monetarisieren.

Übrigens lohnen sich radikale oder grenzwertige Inhalte für YouTube entgegen mancher Einschätzung nicht: Da Werbung die wichtigste Einnahmequelle von Creatorn ist, müssen wir sicherstellen, dass Werbetreibende unseren Systemen vertrauen und ihre Anzeigen nur bei Inhalten ausgeliefert werden, mit denen sie einverstanden sind. Werbetreibende wollen nicht, dass ihre Marken mit problematischen Inhalten und Akteuren in Verbindung gebracht werden.

Wir haben in den letzten Jahren unsere Bemühungen sehr intensiviert, um unter anderem Radikalisierung zu begegnen, und werden unserer Verantwortung weiter nachkommen.

Foto: Pixabay User tomasi | CC0 1.0 | Ausschnitt bearbeitet

Sollten Plattformen wegen der dort stattfindenden Radikalisierung verboten bzw. gesperrt werden können, falls sie die gesetzlichen Anforderungen des NetzDG nicht einhalten?

Der Kampf gegen Hass und Hetze benötigt einen effektiven rechtlichen Rahmen, um Wirkung zeigen zu können. Diese Regeln müssen für alle gelten, auch für Plattformen, und entsprechend durchgesetzt werden – das ist selbstverständlich. Nicht zu vergessen ist dabei jedoch, dass Online-Plattformen Orte der Meinungsvielfalt und damit ein Element des demokratischen Diskurses sind. Deswegen können Maßnahmen wie Verbote weitreichende und unverhältnismäßige Eingriffe darstellen, denen ein demokratischer Rechtsstaat sehr kritisch gegenüberstehen sollte.

pixabay-harakir-europa-vereintes-europa-flagge-2021308-quadrat-720x720
Foto: CC0 1.0, Pixabay / harakir / Ausschnitt bearbeitet

Wir denken, dass ein europäischer Rechtsrahmen, wie er momentan mit dem Digital Services Act (DSA) verhandelt wird, der richtige Ansatz für eine wirksame Plattformregulierung in der EU ist. Wir unterstützen die Ziele des DSA, die Sicherheit von Nutzerinnen und Nutzern zu verbessern, und denken, dass ein EU-weit harmonisierter Rechtsrahmen einerseits die nötige Klarheit für Unternehmen und andererseits ein hohes und konstantes Schutzniveau für Nutzerinnen und Nutzer schafft.

Schlagworte

Empfehlung der Redaktion