Desinformation und Radikalisierung im Netz: Interview mit Marina Weisband

Marina Weisband, Publizistin und Expertin für digitale Partizipation | Foto: © Lars Borges
Marina Weisband, Publizistin und Expertin für digitale Partizipation | Foto: © Lars Borges
Veröffentlicht am 28.12.2022

Die Gefahren von Desinformation und Radikalisierung im Internet gelten seit längerem als eine große gesellschaftliche Herausforderung. In unserer Interview-Reihe beleuchten wir das Thema aus unterschiedlichen Blickwinkeln. Mit Marina Weisband, Publizistin und Expertin für digitale Partizipation, haben wir über russische Trolle, Elon Musk und die Möglichkeiten der Prävention gegen Desinformation gesprochen.

Frau Weisband, das Thema Desinformation ist weiterhin sehr präsent in unserem Alltag, sei es in Russlands Krieg gegen die Ukraine, in der Energiekrise oder in Wahlkämpfen. Wie nehmen Sie aktuell die Entwicklung im digitalen Raum wahr? Hat die Verbreitung von Hass und „Fake News“ weiter zugenommen?

Ich beobachte seit 2013 russische Trolle, die damals mit Desinformation über die Maidan-Revolution begannen. Ich konnte seinerzeit direkt vor Ort prüfen, welche Bilder gephotoshoppt waren, um die Ukraine als Nazi-Land darzustellen. Diese Trolle haben mich und andere Journalist:innen soweit mit Mord- und Vergewaltigungsdrohungen überschüttet, dass ich irgendwann nicht mehr über die Ukraine gesprochen habe.

Ich habe einzelne Accounts verfolgt und über die Jahre ihre wundersame Wandlung miterlebt: Erst waren sie angebliche russischsprachige Ukrainer, dann waren sie Deutsche, die Angst vor syrischen Flüchtlingen hatten, dann waren sie Pro-Brexit Briten, dann waren sie amerikanische Trumpwähler, dann durch die Bank Coronaleugner, jetzt wieder prorussisch.

Foto: CC0 1.0, Pixabay User memyselfaneye | Ausschnitt angepasst

Wir leben in einer Welt, in der Desinformation von einer international gut vernetzten Bewegung von Autoritären und Faschisten eingesetzt wird, die Scheindebatten befördern und dadurch in demokratischen Ländern jeweils den Minimalkonsens zu untergraben suchen. Sie zielen immer auf das, worauf eine Gesellschaft sich gerade so einigen kann, und politisieren es, um zu spalten. Diese Bewegung hat deutlich zugenommen. Auch darin, wie absurd ihre Geschichten sind. Aber wir haben inzwischen auch mehr Problemverständnis bei demokratischen Institutionen.

Viele befürchten, dass Twitter nach der Übernahme durch Elon Musk verstärkt zu einer Desinformationsplattform werden wird. Wird Twitter seine Rolle als zentraler Meinungskanal für Politik und Journalismus – jedenfalls in Deutschland – zukünftig noch aufrechterhalten können?

Foto: Unsplash User Alexander Shatov| Ausschnitt bearbeitet

Ich denke nicht, dass Twitter ein zentraler Meinungskanal bleiben kann. Wir sehen mit Musk inzwischen einen rechten Grifter an der Spitze, der selbst Verschwörungstheorien verbreitet und sich an den radikalsten Arm der amerikanischen Rechten heranschleimt. Dabei nutzt er seine Macht ständig. Er unterbindet Kritik an ihm, sperrt willkürlich Accounts.

Besondere Sorge bereitet mir das Konzept von Twitter Blue. Hier sollen in Zukunft Twitter-Blue-Nutzer algorithmisch gepuscht werden, während nichtzahlende Nutzer weiter nach unten in die Unsichtbarkeit rutschen. Wir sehen aber, dass Twitter Blue bislang hauptsächlich von Rechten, Crypto-Zockern und Pornoaccounts gekauft wurde. Welche Umgebung ist das für demokratischen Diskurs? Ich fange nicht damit an, wie gefährlich es ist, sich als chinesischer oder iranischer Dissident auf Twitter zu äußern, wenn Musk durch Tesla geschäftlich von diesen Regierungen abhängig ist.

Vor einem Jahr sprachen Sie im Basecamp davon, dass es das Ziel von „Fake News“ ist, die Wahrheit an sich zu zerstören. Welche Möglichkeiten haben wir als Gesellschaft überhaupt, um effektiv gegen gezielte Desinformation vorzugehen?

Die Kunst ist, nicht bei der Desinformation an sich anzusetzen. Fact Checks, Plattformregulierung und Medienkompetenz sind notwendige, aber keine hinreichenden Bedingungen. Menschen glauben Fake News, weil sie Fake News glauben wollen. Weil sie nach einer befriedigenden Geschichte suchen in einer Welt, die sie nicht kontrollieren können.

Je mehr ich Menschen demokratisch beteilige, je mehr echte Verantwortung sie tragen, desto weniger anfällig sind sie für Verschwörungserzählungen. Plötzlich gibt es nicht „die da oben“ und „uns hier unten“, sondern nur noch unsere gemeinsame Gesellschaft und jeder tut, was er oder sie kann, um sie zu verbessern und zu schützen. Die Verteidigung von Demokratie setzt eine Weiterentwicklung von Demokratie voraus.

Foto: Henrik Andree | Marina Weisband im BASECAMP bei „Nachgefragt! Digitaler Wahlkampf: Fair verloren oder schmutzig gewonnen?“

Gibt es aus Ihrer Sicht bestimmte Zielgruppen, die besonders anfällig sind für „Fake News“ und die damit verbundene Emotionalisierung? Sollten z.B. Jugendliche oder Senior:innen in der Prävention gegen Desinformation stärker adressiert werden?

Rein statistisch sind Männer ab 50 Jahren am anfälligsten. Das erklärt sich zum Teil mit Einsamkeit. Verschwörungserzählungen funktionieren wie Kulte. In erster Linie sind diese Foren und Gruppen Orte, an denen man Gleichgesinnte und Bestätigung findet. Sie sind auch mit Absicht so absurd, wie sie sind, damit niemand den Onkel bei der Weihnachtsfeier ernstnimmt, er dadurch weiter isoliert wird und sich noch mehr der Verschwörungserzählung verschreibt. Die meisten Fake News entstehen rund um dieses Umfeld. 

Die Prävention ist deshalb zweigeteilt: Erstens geht es darum, Menschen insgesamt aus einem Gefühl der Ohnmacht und Kontrolllosigkeit rauszuholen. Wir sprechen hier von Investitionen in die Kommunen, in Vereine, in öffentliche Orte, kommunale Cafés, Jugendzentren und Begegnungsorte.

Zweitens ist die beste Prävention gegen Fake News natürlich das Vertrauen in die Medien. Hier helfen transparente Arbeit, hohe journalistische Standards – und man müsste Modelle des Click- und Quotenbaiting deutlich überdenken.

Schlagworte

Empfehlung der Redaktion