Diese Website speichert Cookies auf Ihrem Computer. Diese Cookies werden verwendet, um Ihre Website zu optimieren und Ihnen einen persönlich auf Sie zugeschnittenen Service bereitstellen zu können, sowohl auf dieser Website als auch auf anderen Medienkanälen. Mehr erfahren über die von uns eingesetzten Cookies finden Sie in unserer Datenschutzrichtlinie

Medienanstalt: Löschaktionen bei Facebook kontrollieren

Berlin. Soziale Medien müssen strafbare Inhalte inzwischen löschen. Strafverfolgung ist dann aber oft schwierig. Und wer kontrolliert, was gelöscht wird? Für die digitale Medienvielfalt ist noch viel zu tun.

Medienanstalt: Löschaktionen bei Facebook kontrollieren

Das Facebook-Logo auf einem iPad. Foto: Matt Rourke/AP/Illustration

Beim Vorgehen gegen Hass im Internet reicht es nach Überzeugung der Medienanstalt Berlin-Brandenburg nicht, sich auf Straftaten zu konzentrieren.

Auch nicht strafbare Hate Speech, also hasserfüllte, oft beleidigende Kommentare, könnten gefährlich sein, sagte die Direktorin der Medienanstalt Berlin-Brandenburg (mabb), Anja Zimmer, bei der Vorstellung von „10 Thesen für digitale Medienvielfalt“ am Mittwoch in Berlin. Hate Speech sei eine Bedrohung für eine offene Gesprächskultur, gegen die konsequent vorgegangen werden müsse.

Wichtig sei, neue Mittel zu finden, um die Rolle von Facebook & Co. bei der Verbreitung von Hate Speech besser nachvollziehen zu können, heißt es in den zehn Thesen des Media Policy Lab, einem Anfang des Jahres gestarteten mabb-Projekts. Außerdem setzt sich die Medienanstalt für eine unabhängige Kontrolle ein, wenn Facebook & Co. Inhalte löschen, wozu sie nach dem Netzwerkdurchsetzungsgesetz im Fall von strafbaren Hassreden und gefälschten Nachrichten verpflichtet sind.

Das macht die Strafverfolgung oft schwierig. „Die Staatsanwaltschaften wissen gar nicht, was alles gelöscht wird“, sagte Zimmer. Das sei aber notwendig, damit Straftaten im Zusammenhang mit Hate Speech konsequent verfolgt werden könnten. Für die Kontrolle kämen die Medienanstalten infrage: „Wir hätten den Vorteil, dass wir eine staatsferne Kontrollinstanz wären“, sagte Zimmer.

Wichtig sei außerdem, in Zeiten von Big Data und Algorithmus-Entscheidungen mehr Kenntnisse darüber zu erhalten, wie sogenannte Intermediäre wie Facebook dabei vorgehen. Es sei paradox, dass Meinungsbildungsprozesse für Facebook und Co. durch die Daten, über die sie verfügen, immer transparenter würden. „Die Öffentlichkeit hingegen weiß immer weniger darüber, welche Mechanismen und Einflüsse die politische Meinungsbildung prägen.“ Diese Asymmetrie müsse in ein Gleichgewicht kommen.

In diesem Zusammenhang müsse es einen besseren Zugang für die Erforschung von Facebook & Co. geben, damit die Regulierungsbehörden Medienvielfalt tatsächlich schützen könnten.

Anzeige
Anzeige