Politischer Diskurs: KI gegen Fake News

Flickr-User-bovee-thill-KI-748x490
Foto: CC BY 2.0 Flickr User Bovee and Thill. Bildname: Artificial Intelligence. Ausschnitt bearbeitet.
Foto: CC BY 2.0 Flickr User Bovee and Thill. Bildname: Artificial Intelligence. Ausschnitt bearbeitet.
Veröffentlicht am 17.04.2019

Flickr-User-bovee-thill-KI-748x490
Foto: CC BY 2.0 (öffnet in neuem Tab) Flickr User Bovee and Thill (öffnet in neuem Tab). Bildname: Artificial Intelligence. Ausschnitt bearbeitet.
Seit den US-Präsidentschaftswahlen vor drei Jahren stehen die Themen Wahlbeeinflussung und Falschinformationen im Fokus der Öffentlichkeit. Digitale Technologien spielen dabei eine zentrale Rolle und können zur Polarisierung in politischen Debatten beitragen. Auch das Europäische Parlament (öffnet in neuem Tab)nahm schon 2016 eine Entschließung an, in der es auf die Gefahren von Desinformationskampagnen (öffnet in neuem Tab) hinweist, Kritik an feindseliger Propaganda (öffnet in neuem Tab) übt und die „aggressiven Tätigkeiten“ Russlands, Chinas, des Iran und Nordkoreas verurteilt.

Nun hat der wissenschaftliche Dienst (öffnet in neuem Tab) des Europäischen Parlaments (EPRS) vor den anstehenden Europawahlen (öffnet in neuem Tab) am 26. Mai zwei Studien veröffentlicht: Die Studie (öffnet in neuem Tab) „Polarisation and the use of technology in political campaigns and communication“ legt den Fokus auf die Beziehung zwischen digitalen Technologien, Demokratie und der Polarisierung im öffentlichen Diskurs und wirft einen Blick auf die Möglichkeiten, die Algorithmen (öffnet in neuem Tab), Big Data oder neue Medien mit sich bringen. Zugleich wird diskutiert, welche Gefahren dadurch für den politischen und den öffentlichen Diskurs entstehen können.

Die Studie (öffnet in neuem Tab) „Regulating disinformation with artificial intelligence“ thematisiert, wie Künstliche Intelligenz (KI) (öffnet in neuem Tab) zur Eingrenzung von Falschinformationen (öffnet in neuem Tab) eingesetzt werden kann, – ohne dabei die Meinungsfreiheit zu gefährden – ein Balanceakt. Die Europäische Union, schreiben die Autoren, könnte an dieser Stelle mit der Entwicklung eines entsprechenden Handlungsrahmens eine Vorreiterrolle einnehmen.

Worin bestehen die Herausforderungen?

Fake-News-Quer-bearbeitet
Foto: Public Domain Mark 1.0 (öffnet in neuem Tab) Flickr User lotuslibrarian (öffnet in neuem Tab). Bildname: Fake News / Ausschnitt bearbeitet
Aus politischen Diskursen und Kampagnen sind digitale Technologien (öffnet in neuem Tab) nicht mehr wegzudenken. Sie haben die Art zu kommunizieren oder sich zu informieren von Grund auf verändert. Graswurzelbewegungen formieren sich, Petitionen werden online eingereicht oder Spendenaufrufe werden verbreitet. Soziale Medien (öffnet in neuem Tab) werden jedoch zunehmend Ziel von Manipulationsversuchen.

Inhalte und Dienste werden immer genauer auf die User zugeschnitten (polarisation by design). Durch gezieltes targeting, etwa durch bots, die Falschmeldungen oder Propaganda verbreiten (polarisation by manipulation) sollen gesellschaftliche Gruppen beeinflusst werden. Soziale Medien dienen als Katalysator für politischen Aktivismus, soziale und politische Teilhabe. Nutzt man für die Eindämmung von Falschinformationen Systeme zur automated content recognition (ACR) wird es kniffelig: Wo hört Meinungsfreiheit auf und wo fangen Falschinformationen an? Entsprechende Software kann nicht immer den Kern einer Meldung erfassen, mit sprachlichen Besonderheiten umgehen oder eine Meldung zielgenau einordnen.

Experten sehen politischen Handlungsbedarf

Die Autoren des EPRS geben verschiedene Handlungsempfehlungen, um Polarisierung und Desinformation vorzubeugen. Sie plädieren dabei aber für eine Regulierung (öffnet in neuem Tab) der digitalen Welt mit Augenmaß, die positive Aspekte, Innovationen und Fortschritt zulässt, um dadurch von den Vorzügen der digitalen Technologien zu profitieren und die Gefahren zu minimieren. Eine nachhaltige Regulierung müsse daher vor allem an den Wurzeln der Polarisierung ansetzen – Verletzlichkeit der Technologischen Infrastruktur.

Konkret schlagen die Experten vor, dass Technologiekonzerne ihre Erreichbarkeit, etwa über Krisenhotlines ausbauen, jährliche Transparenzberichte vorlegen oder sich ethische Selbstverpflichtungen auferlegen. Die Wissenschaftler plädieren außerdem für eine Anpassung des Wahlrechts an die digitalen Lebenswirklichkeiten der Wähler

Einsatz von Künstlicher Intelligenz

Auch die KI nimmt im Kampf gegen Falschinformationen einen immer höheren Stellenwert ein. In diesem Kontext plädieren die Autoren der zweiten Studie dafür, dass Staaten Beschwerdemechanismen im Sinne eines „Social Media Council“ einrichten – einer selbstregulierenden, verbandsübergreifenden Institution, wie sie der UN-Sonderberichterstatter für Meinungsfreiheit (öffnet in neuem Tab) gefordert hat. Dieser Social Media Council könnte sich einerseits mit industrieweiten Beschwerden und andererseits mit der besseren Vereinbarkeit von KI und Meinungsfreiheit befassen. Der Einsatz von KI solle zudem mit einer Überprüfung durch Menschen verknüpft werden. Es müsse zudem transparent sein, auf welcher Datengrundlage und durch welche Priorisierung Inhalte oder Suchergebnisse vorgeschlagen werden.

Schlagworte

Empfehlung der Redaktion