Image
Robot & Arbeit
Foto: CC-By 2.0 Flickr User Chris Isherwood / Bildname: Mr Robot has some RAM / Ausschnit angepasst
Artikel

Social Bots: Die Masse macht’s

03

Nov
2016

Veröffentlicht am 03.11.2016

Sie haben vor der Brexit-Abstimmung ihr Unwesen getrieben und im Ukraine-Konflikt. Und auch im digitalen US-Wahlkampf zwischen Donald Trump und Hillary Clinton greifen sie spürbar ins Geschehen ein – die Rede ist von Social Bots: automatisierten Accounts in den Sozialen Netzwerken, die durch ihre Masse vor allem die Meinungsbildung der digitalen Gesellschaft beeinflussen. Die Zeiten, in denen man im weltweiten Gewebe von der Quantität auf die Qualität schließen konnte, sind damit endgültig vorbei. Zu diesem Ergebnis kommt jedenfalls Simon Hegelich in seiner Analyse Invasion der Meinungs-Roboter für die Konrad-Adenauer-Stiftung.

Gefahren durch Social Bots

Nach Ansicht des Autors geht von der „schieren Masse der Nachrichten“ aktuell die größte Gefahr aus.

„Bots manipulieren die Trends in sozialen Netzwerken und diese Trends fließen in politische und wirtschaftliche Entscheidungsprozesse ein“,

beschreibt der Professor für Political Data Science an der Hochschule für Politik an der TU München das Phänomen. Einer Untersuchung der Universität Oxford nach dem ersten TV-Duell zufolge waren bei der Debatte 37,2 Prozent der Tweets für Donald Trump computergesteuert, bei den Tweets für Hillary Clinton lag der Anteil bei 22,3 Prozent. Der Einsatz von Social Bots verfälscht dabei nicht nur die Ergebnisse der Social-Media-Analysen, sondern verleitet im schlimmsten Fall sogar Politiker dazu, in ihren Statements oder ihrer Politik auf solche Trends einzugehen. Dadurch erhielte die Position der Bots einen Zuspruch, „den die Bots allein nicht erreicht hätten“, erläutert Hegelich.

Neben der Manipulation von Trends können Social Bots nach Ansicht des Wissenschaftlers außerdem Diskussionen in Sozialen Netzwerken subtil manipulieren, indem sie ein aufgeheiztes Diskussionsklima erzeugen. Dies führe dazu, dass sich Personen mit gemäßigten Positionen aus Online-Debatten zurückziehen und Personen mit radikalen Positionen verstärkt angezogen würden. Darüber hinaus können Social Bots dafür eigesetzt werden, Nutzer auszuspionieren, gezielt Falschnachrichten zu verbreiten oder Schadsoftware in Umlauf zu bringen, wie Professor Hegelich in seiner Analyse ausführt.

Robot & Arbeit

Foto: CC-By 2.0 Flickr User Chris Isherwood / Bildname: Mr Robot has some RAM / Ausschnit angepasst

Social Bots beim #Brexit

In puncto Manipulation ist man bei der Programmierung von Bots im Ukraine-Konflikt besonders kreativ. Laut KAS-Analyse lassen sich hier verschiedene Strategien identifizieren.

„Zum einen geht es auch hier um die Verfälschung von Trends, indem bestimmte Hashtags besonders populär gemacht werden. Darüber hinaus verknüpfen die Bots aber bewusst Schlagworte wie ‚Maidan‘ und ‚Euromaidan‘ mit dem Hashtag ‚Rechter Sektor‘, offenbar, um die Algorithmen von Twitter dazu zu bringen, Nutzern, die nach ‚Maidan‘ suchen, auch Inhalte des ‚Rechten Sektors‘ zu präsentieren“,

schreibt Hegelich. Eine weitere Strategie sei die Verbreitung von Falschmeldungen. Sie fänden dadurch große Verbreitung, weil die Bots gezielt ukrainischen Politikern folgten, um ihre eigene Reichweite zu erhöhen. Am Beispiel der Brexit-Debatte wird laut der Analyse allerdings deutlich, „dass selbst die massenhafte Beeinflussung von Trends noch nicht mit einer effektiven Manipulation gleichzusetzen ist“. Zwar habe es sehr viele Bot-Tweets zum #Brexit gegeben. Ausgerechnet die Hauptnutzer von Twitter in Großbritannien – jüngere Personen mit einem hohen Bildungsniveau – hätten aber gegen den Ausstieg des Königreichs aus der EU gestimmt.

Simon Hegelich geht nicht davon aus, dass Social Bots wieder verschwinden werden. Ihr Anteil in den Sozialen Netzwerken werde sich seiner Vermutung nach „langfristig auf einem relativ hohen Niveau“ einpendeln, heißt es in dem KAS-Papier. Größeren Einfluss könnten die automatisierten Accounts vor allem immer dann erlangen, wenn die Manipulation „erst dann enttarnt wird, wenn das eigentliche Ereignis schon wieder vorbei ist“. Eine Gefahr sieht der Political-Data-Science-Wissenschaftler darin, dass derzeit viele Werkzeuge künstlicher Intelligenz, mit denen sich beispielsweise Texte generieren lassen, frei zugänglich gemacht werden. Bot-Entwickler arbeiteten mit diesem Wissen an einer neuen Generation von Bots, „die für den normalen Nutzer nicht mehr zu enttarnen sein wird“, warnt Hegelich. Bis es soweit ist, darf man aber zunächst einmal gespannt sein, ob und wie der Wahlkampf vor der nächsten Bundestagswahl im September 2017 von Social Bots geprägt sein wird.

Wir weisen darauf hin, dass bei unseren öffentlichen Veranstaltungen auch Bild- und Tonmaterial in Form von Fotos oder Videoaufzeichnungen durch von uns beauftragte oder akkreditierte Personen und Dienstleister erstellt wird. Die Aufnahmen werden für die Event-Dokumentation und Event-Kommunikation auf den Social-Media-Kanälen des BASECAMP genutzt. Sie haben das Recht auf Information und weitere Betroffenenrechte. Informationen zu unseren Datenverarbeitungen sowie Ihren Betroffenenrechten finden Sie hier.

Über den Autor

Elena Esnaola ist Repräsentantin Berlin und arbeitet im Bereich Corporate Affairs bei Telefónica Deutschland.