Weiter zum Inhalt Skip to table of contents

Neue Studie Deplatforming stört rechtsextreme Netzwerke nachhaltig

Von|
Die Studie "Hate not found?! Das Deplatforming der extremen Rechten und seine Folgen" von Maik Fielitz und Karolin Schwarz für das IDZ Jena zeigt: Rauswürfe Rechtsextremer schützen die demokratische Zivilgesellschaft (Quelle: Belltower.News)

Wenn Facebook/Instagram, Twitter oder Youtube/Google gegen rechtsextreme, menschenfeindliche und verschwörungsideologische Akteur*innen auf ihren Plattformen vorgehen – was die Netzwerke seit etwa drei Jahren stärker tun – beklagen diese ihr Schicksal lautstark und nutzen dabei gleich stärkste rhetorische Geschütze wie Zensur, Diktatur, Stasi oder das Ende der Meinungsfreiheit insgesamt. Und dass nur, weil sie sich nicht an die Regeln halten wollen, die das deutsche Strafrecht und die Community Guidelines der Netzwerke ihnen vorgeben – denn ohne Verstöße sperren die Netzwerke nicht. Der Grund für das tränenreiche Lamentieren ist allerdings handfest: Deplatforming verringert Reichweite, Einfluss und Verdienstmöglichkeiten. Wenn ein rechtsextremer Akteur gesperrt wird, wechselt er oft zu einer „alternativen“ Plattform. Nur: Die vorgeblichen Fans komme nicht mit.

Dies zeigt nun ausführlich die neue Studie zu Auswirkungen von Sperrungen in sozialen Medien auf rechtsextreme Strukturen des Institut für Demokratie und Zivilgesellschaft Jena. „Hate not found?! Das Deplatforming der extremen Rechten und seine Folgen“ von Maik Fielitz und Karolin Schwarz ist die erste systematische Studie zur Frage, wie sich Sperrungen von Profilen in den sozialen Medien auf die extreme Rechte im deutschsprachigen Raum auswirken.

Forscher*innen des Instituts für Demokratie und Zivilgesellschaft (IDZ) aus Jena analysierten systematisch Muster in Kommunikations- und Verhaltensweisen, wenn Plattformbetreiber ihre Gemeinschaftsstandards gegen rechtsextreme Hassakteure durchsetzen. „Unser Fokus lag auf der Klärung der Fragen, welche Einschränkungen Hassakteure durch Löschungen hinnehmen müssen, welche innovativen Umgänge sie entwickeln, um kommunikativ handlungsfähig zu bleiben, und wie sie ihre Mobilisierung in sozialen Medien neu ausrichten“, stellt Maik Fielitz, wissenschaftlicher Leiter der Studie, heraus.

Die Ergebnisse der Studie zeigen, dass sich Rechtsextreme von kommerziellen Plattformen abhängig gemacht haben und ihnen das Einschreiten der Betreiber erheblich schadet. Von 55 einflussreichen untersuchten Hassakteuren hatten 29 bereits digitale Plattformen verloren. Studienautorin Karolin Schwarz erläutert: „Das Deplatforming zentraler rechtsextremer Akteure schränkt deren Mobilisierungskraft deutlich ein und nimmt ihnen eine zentrale Ressource, auf die ihre Inszenierungen abzielen: Aufmerksamkeit. In dieser Hinsicht lässt sich eindeutig sagen: Deplatforming wirkt.

Die Studie stellt weiterhin fest, dass die Sperrungen Hassakteure nicht mehr überraschend oder unvorbereitet trifft. Es bildeten sich innovative Strategien des Umgangs heraus, die Handlungsfähigkeit signalisieren. Dazu identifiziert die Studie sechs Muster, um eine Sperrung zu vermeiden, zu umgehen oder auszugleichen: semantische Mimikry-Taktiken, (Audio-)Visualisierung der Propaganda, Schaffung von Fake-Accounts, Einsatz von Proxies, Ausweichen auf Alternativplattformen sowie Aufbau eigener digitaler Infrastrukturen.

Die Studie kommt zu den folgenden Ergebnissen:

  • Das Deplatforming zentraler rechtsextremer Akteure schränkt deren Mobilisierungskraft deutlich ein und nimmt ihnen eine zentrale Ressource, auf die ihre Inszenierungen abzielen: Aufmerksamkeit. In dieser Hinsicht lässt sich eindeutig sagen: Deplatforming wirkt.
  • Repressive Plattformpolitiken treffen Hassakteure nicht mehr überraschend oder unvorbereitet. Im Gegenteil: Es bildeten sich innovative Muster des Umgangs heraus, die Handlungsfähigkeit signalisieren. Dazu gehören: semantische Mimikry-Taktiken, (Audio-)Visualisierung der Propaganda, Schaffung von Fake-Accounts, Einsatz von Proxies, Ausweichen auf Alternativplattformen sowie Aufbau eigener digitaler Infrastrukturen.
  • Alternative Netzwerke werden genutzt, um Inhalte von gelöschten Akteuren wieder gezielt auf den großen Plattformen zu verbreiten. So navigieren Hassakteure ihre Follower*innen und Inhalte plattformübergreifend.
  • Telegram hat sich zum zentralen Medium unter Hassakteuren entwickelt: 96% aller von uns untersuchten Hassakteure haben hier (hyper-)aktive Kanäle. Die meisten verstehen Telegram als ihre kommunikative Basis. Was dieses hybride Medium besonders macht: Es gibt so gut wie keine Moderation der Betreiber, Push-Nachrichten auf das Handydisplay wirken unmittelbarer und es kann leicht zwischen privater Messengerfunktion und öffentlicher Kanalfunktion gewechselt werden.
  • Der Rückzug auf Alternativplattformen kann die Löschung aus dem digitalen Mainstream nicht ausgleichen. Abgesehen von Telegram haben sich keine stabilen Ausweichforen etabliert. Auf den bestehenden Alternativplattformen können rechtsextreme Ideen nicht effektiv zirkulieren, da sie kaum von Nutzer*innen aus dem deutschsprachigen Kontext frequentiert werden.
  • Um nicht-intendierte Folgen des Deplatformings zu vermeiden, zum Beispiel die Steigerung von Aufmerksamkeit und der Bedeutung der Akteure, müssen Maßnahmen besser abgestimmt, deutlicher kommuniziert und unabhängig von politischen Kräfteverhältnissen durchgesetzt werden.

Heute 13-19 Uhr: Digitale Tagung

Ausführlich werden die Befunde am heutigen Freitag, den 11.12.2020, ab 13 Uhr berichtet und diskutiert auf der Tagung „Hate not found“. Ab 13 Uhr im Livestream zu verfolgen.

Informationen zum Programm, zur Studie und den Link zur Liveübertragung finden Sie unter:

Weiterlesen

20130707_geranazifrei_a

Ein Wochenende gegen Nazis

Es war ein Wochenende der Anti-Nazi-Proteste: An verschiedenen Orten in Deutschland wurde gegen Neonazis demonstriert – von einer 30 Kilometer langen Menschenkette in Baden-Württemberg bis hin zu den Protesten gegen das rechte Festival „Rock für Deutschland“ in Gera. Ein Überblick

Von Redaktion

Von|
code-1076536_1920

Rassismus und Sexismus Algorithmen und die automatisierte Diskriminierung

In unserer immer stärker digitalisierten Welt verlassen wir uns zunehmend auf algorithmische Entscheidungsprozesse. Allerdings schaffen sie ein enormes Diskriminierungspotential für eh schon marginalisierte Gruppen und können Ungerechtigkeit weiter zementieren. 

Von|
Eine Plattform der