„Illegale Inhalte“: EU-Kommission will Upload-Filter für soziale Netzwerke vorschreiben

Foto: CC BY 2.0 Flickr User Daniel Iversen. Bildname: social media, social networking, social computing tag cloud (#3). Ausschnitt bearbeitet.
Veröffentlicht am 07.03.2018
Foto: CC BY 2.0 Flickr User Daniel Iversen. Bildname:
social media, social networking, social computing tag cloud (#3). Ausschnitt bearbeitet.

Nachdem ein Vorentwurf schon Mitte Februar an die Öffentlichkeit gelangt war, hat die EU-Kommission am 1. März ihre teils umstrittenen Selbstregulierungsmaßnahmen für soziale Netzwerke vorgestellt. Darin formuliert die Kommission „bessere Verfahren“ für die Entfernung illegaler Inhalte aller Art im Netz, also neben offensichtlich strafbaren Handlungen wie dem Teilen von terroristischen Inhalten, Anstachelung zu Hass und Gewalt, Darstellungen des sexuellen Missbrauchs von Kindern auch für wirtschaftsrechtlich relevante Produktfälschungen und Urheberrechtsverletzungen. Wie von der Wirtschaft und Verbraucherschützern befürchtet, sind auch verpflichtende Upload-Filter vorgesehen. Das bestehende Bündnis, das sich gegen die Einführung solcher Vorschriften im Zuge der Urheberrecht-Reform einsetzt, hat in der vergangenen Woche Zulauf erhalten. 15 Wirtschaftsverbände und zivilgesellschaftliche Organisationen haben einen Offenen Brief an den EVP-Berichterstatter Axel Voss gerichtet und stellen sich darin gegen eine befürchtete effektive Aufweichung des Haftungsprivilegs von Plattformen für nutzergenerierte Inhalte.

„Empfehlungen“ der Kommission

Die „operativen Maßnahmen“, die Plattform-Betreiber ergreifen sollen, um den Anforderungen der EU-Kommission zu entsprechen, sind u.a.

· die Einrichtung von „klareren ‚Melde- und Abhilfeverfahren‘“. Ähnlich wie es das deutsche Netzwerkdurchsetzungsgesetz vorsieht, sollen „einfache und transparente Regeln für die Meldung illegaler Inhalte“ festgelegt werden. Zusätzlich sollen Nutzer Widerspruchsrechte erhalten, wenn ihre Posts fälschlicherweise gelöscht werden. Das Fehlen entsprechender Regeln ist ein häufig kritisiertes Defizit des NetzDG.

· verbesserte Kommunikationswege mit den Strafverfolgungsbehörden. Dazu sollen die Mitgliedstaaten „geeignete rechtliche Verpflichtungen“ definieren.

· stärkerer Austausch in der Industrie. Die Unternehmen sind von der Kommission angehalten, sich zu den eingesetzten Methoden zur Bekämpfung illegaler Inhalte auszutauschen, damit auch kleinere Anbieter von den Fortschritten der größeren profitieren und ggf. ähnliche Technologien einsetzen können.

Verschärfte Regeln gelten außerdem für terroristische Inhalte, bei denen die EU-Kommission eine besondere Gefahr für die Sicherheit sieht.

Upload-Filter

Der wohl umstrittenste Punkt: „Proaktive Werkzeuge zur Erkennung und Entfernung illegaler Inhalte“ werden vorgeschrieben. Das geht weit über das hinaus, was der deutsche Gesetzgeber den Plattformbetreibern im Netzwerdurchsetzungsgesetz (NetzDG) abverlangt. Die Kommission gibt zwar an, dass diese Upload-Filter „insbesondere für terroristische Inhalte und für Inhalte, die nicht in einen Gesamtkontext eingeordnet werden müssen, um als illegal angesehen zu werden, z. B. wenn es um Darstellungen des sexuellen Missbrauchs von Kindern oder nachgeahmte Güter geht,“ gelten sollen, dennoch sind sie offenbar für alle „illegalen Inhalte“ denkbar, auch bei Urheberrechtsverletzungen. Die Kommission mahnt grundsätzlich an, dass die Plattformen bei solchen Maßnahmen verhältnismäßig handeln sollen. Die Verantwortung, dass beim Einsatz solcher Technologien die Grundrechte wie das Recht auf freie Meinungsäußerung oder Datenschutzregeln geachtet werden, erlegt die EU-Kommission dabei den Unternehmen auf, die „wirksame und angemessene Sicherheitsvorkehrungen, einschließlich der Aufsicht und Überprüfung durch Menschen“ einführen sollen.

Berichtspflichten

Die Kommission hält sich weiterhin offen, ob sie noch entsprechende Legislativvorschläge macht. Zu der Erwartungshaltung an die sozialen Netzwerke heißt es in der Meldung, dass „Plattformen ihre Anstrengungen verdoppeln“ müssen im Vergleich zu den bisher ergriffenen Maßnahmen. Mit der Empfehlung erlegt die Kommission den Netzwerkbetreibern und den Mitgliedstaaten auch Berichtspflichten auf. In der Meldung heißt es, dass diese „innerhalb von drei Monaten relevante Informationen zu terroristischen Inhalten und innerhalb von sechs Monaten Informationen zu anderen illegalen Inhalten vorlegen“ sollen. Nach Auskunft des Bundesministeriums der Justiz und für Verbraucherschutz (BMJV) muss nun zwischen den Ressorts abgestimmt werden, wie die Vorgaben der EU-Kommission konkret umgesetzt werden sollen. Federführend ist dabei aufgrund der Zuständigkeit für das Telemediengesetz das Bundeswirtschaftsministerium (BMWi). Für die kommenden Wochen hat die Kommission ebenfalls eine öffentliche Konsultation zu dem Thema angekündigt.

Bündnis gegen Upload-Filter wächst

Dass „schwerstkriminelle Straftaten wie Kinderpornografie […] mit Kennzeichnungspflichten für Verbraucherprodukte“ von der EU-Kommission „über einen regulatorischen Kamm geschoren werden“, kritisiert Bitkom-Hauptsgeschäftsführer Bernhard Rohleder. Die Kritik der Wirtschaft an Upload-Filtern ist aber grundsätzlicher.

„Was so harmlos als Upload-Filter daherkommt, ist faktisch eine massenhafte maschinelle Zensur im Internet. Alleine bei der Bewertung von Urheberrechten wären die Konsequenzen verheerend“, urteilt Rohleder. „Dies würde den tiefsten bislang dagewesenen Eingriff in unsere verfassungsrechtlich verbriefte Meinungsfreiheit bedeuten.“

Die von Wikimedia, dem Verbraucherzentrale Bundesverband (vzbv) und Bitkom initiierte Initiative gegen Upload-Filter wird inzwischen von 12 weiteren Verbänden und Organisationen unterstützt – mindestens 11 der Unterzeichner des Offenen Briefs an Axel Voss waren auch Unterzeichner der Deklaration für die Meinungsfreiheit, die sich vor rund einem Jahr gegen das NetzDG eingesetzt hat. Mit ähnlichen Argumenten wie damals – im Wesentlichen einer Gefahr für die Meinungsfreiheit durch „Overblocking“ – soll der zuständige Berichterstatter im EU-Parlament zum Einlenken in Bezug auf Artikel 13 des Richtlinienentwurfs zum Urheberrecht überzeugt werden. Mit der Einführung von Upload-Filtern ginge „eine Umkehr der bewährten Haftungsprinzipien aus der E-Commerce-Richtlinie einher. Dies hätte gesellschaftlich und wirtschaftlich verheerende Folgen“, heißt es in dem Brief.

Zusammenhang E-Commerce-Richtlinie

Dem erwartbaren Vorwurf, dass die Empfehlung der EU-Kommission zu illegalen Inhalten mit den vorgeschriebenen Upload-Filtern ebenfalls das Haftungsrecht auf Online-Plattformen aufweicht, greift die Kommission in den „Häufig gestellten Fragen“ vor. Darin heißt es:

„Der Wortlaut der Empfehlung berührt nicht die Richtlinie über den elektronischen Geschäftsverkehr [E-Commerce-Richtlinie] und die darin enthaltenen Haftungsbestimmungen. In ihrer Mitteilung von 2016 zu Online-Plattformen sagte die Kommission zu, eine ausgewogene und berechenbare Haftungsregelung für Online-Plattformen als wichtige rechtliche Rahmenbedingung für die Wahrung digitaler Innovation im digitalen Binnenmarkt aufrecht zu erhalten.“

Weiter schreibt die EU-Kommission:

„Das EU-Recht kann durch die Empfehlung, die unverbindlich ist, nicht geändert werden. Die Empfehlung nutzt jedoch den Handlungsspielraum, den die Richtlinie über den elektronischen Geschäftsverkehr bietet – vor allem im Hinblick auf die Möglichkeit der Industrie zur Selbstregulierung oder die Festlegung konkreter Anforderungen an die Entfernung illegaler Online-Inhalte durch die Mitgliedstaaten.“

Der vorstehende Artikel erscheint im Rahmen einer Kooperation mit dem Tagesspiegel Politikmonitoring auf UdL Digital. Lina Rusch schreibt über Netzpolitik und beobachtet die Landespolitik. 

Schlagworte

Empfehlung der Redaktion