Weiter zum Inhalt Skip to table of contents

Deplatforming Nazis raus bei Facebook, YouTube, Twitter, Twitch und Reddit – doch was dann?

Von|
Panic after getting booted from YouTube: Here, the alt-right activist Richard Spencer details how he continue his disinformation campaign. (Quelle: Screenshot)

Dies nennt sich „Deplatforming“ – also „von der Plattform entfernen“ und wird von Netzwerkbetreiber*innen, Politiker*innen, Wissenschaft, User*innen und NGOs immer wieder diskutiert: Es geht um Meinungsfreiheit vs. Schutz vor digitalen Angriffen. Oder es geht um die Frage der publizistischen Alternativlosigkeit großer Plattformen – gibt es die und führt das zu einem „Recht“ auf ein Facebook- oder Twitterkonto, um am Online-Diskurs teilzunehmen, auch wenn ich mich nicht an die Community Guidelines halte? Oder haben die großen Unternehmen digitales Hausrecht und können von der Plattform verbannen, was ihnen nicht gefällt? Die Regulierung der großen Sozialen Medien wird für die kommenden Jahre ein wichtiges politisches Diskussionsthema sein. Auf EU-Ebene werden die Diskussionen zum „Digital Service Act“, der die über 20 Jahre alte „E-Commerce-Richtlinie“ ablösen soll, gerade begonnen.

Digitale Hausrechte

Aktuell aber haben die Sozialen Netzwerke als Unternehmen Hausrechte, sie veröffentlichen diese in den „Community Guidelines“, und wer ihnen zuwiderhandelt, muss damit rechnen, vom Netzwerk verbannt zu werden. Zumindest theoretisch: Praktisch stand in den Community Guidelines aller (großen) Sozialen Netzwerke vom Gründungstag an, dass Diskriminierung, Rassismus, Antisemitismus, Islamfeindlichkeit und Bedrohungen auf den Plattformen verboten sind – trotzdem sind sie voll davon. Warum? Wurde anfangs vielleicht das Sendungsbewusstsein, der Vernetzungswillen und die Bedrohungsfreude der rechtsextremen Akteur*innen unterschätzt? Trafen diese Aktivitäten auf mangelnde Fachkenntnisse bei der Moderation und beim Community Management, auf Ignoranz bei vom Hass nicht Betroffenen, falsch verstandene Meinungsfreiheit, die als legitim ansieht, die Freiheit anderer zu verletzen? Und gibt es nicht zuletzt kommerzielle Interessen an Hass und Streit, denn wo viel Interaktion ist, da lässt sich Werbung gut verkaufen?

Dies allerdings negiert Facebook-Lobbyist Nick Clegg in einem FAZ-Beitrag: „Ich möchte unmissverständlich sein: Facebook profitiert nicht von Hassrede. Milliarden von Menschen nutzen Facebook und Instagram, weil sie gute Erfahrungen gemacht haben. Sie wollen keine hasserfüllten Inhalte sehen – genausowenig wie unsere Werbekunden und wir selbst. Es gibt für uns keinen Anreiz, etwas anderes zu tun, als solche Inhalte zu entfernen.“ Die Algorithmen der Plattform sprechen eine andere Sprache.

Dies änderte sich von Mitte der 2000er Jahre bis heute zwar graduell mit der Zunahme digitaler Straftaten, Bedrohungen und Verabredungen zu Gewalttaten und Terrorismus auf den Plattformen – gegen diese gehen die Unternehmen inzwischen mit größerem Engagement und Erfolg vor.

„Stop Hate for Profit“

Trotzdem bleiben viele Rechtsextreme auf den Plattformen übrig, von weniger eindeutigen Antisemit*innen, Verschwörungsideolog*innen, Rassist*innen oder Islamfeind*innen ganz zu schweigen. In den USA rief die „Anti Defamation League (ADL)“ deshalb die Kampagne „Stop Hate for Profit“ ins Leben: Gemäß der Überzeugung, dass ein Angriff auf Geschäftsmodelle Unternehmen trifft, wurden Firmen aufgerufen, im Juli auf Werbebudgets insbesondere bei Facebook zu verzichten. Vor allem in den USA stieß der Aufruf auf große Gegenliebe, insgesamt 750 Unternehmen kündigten an, für einen Monat auf Werbung zu verzichten und damit ihr Engagement gegen Rechtsextremismus und Rassismus zu zeigen. Darunter sind bekannte Namen wie Coca-Cola, Unilever, Starbucks und Honda.

https://www.stophateforprofit.org/

Denn rund einen Monat nach dem Tod von George Floyd und dem darauffolgenden Beginn der „Black Lives Matter“-Proteste stellen sich viele Menschen in den USA eine zentrale Frage: „Was können wir tun gegen Rassismus, der uns schon so lange begleitet?“ Sich gegen Hass in Sozialen Netzwerken zu wenden, kann einer von vielen Schritten sein.

Auch in Deutschland haben sich zahlreiche große Unternehmen der Kampagne angeschlossen, darunter Lego, Volkswagen, SAP, Puma, Henkel, Fritz-Cola und Beiersdorf (vgl. Zusammengebaut.de, Businessinsider, ZDF)

Ob diese Kampagne bereits Folgen zeigt oder ob sie auf Netzwerke trifft, die selbst das Gefühl hatten, dass jetzt konsequenteres Handeln notwendig ist, sei dahingestellt. Doch aktuell überbieten sich große Soziale Netzwerke in den USA darin, Menschenfeinde von ihren Plattformen zu werfen.

Deplatforming aktiv

Facebook

  • Facebook sperrt nach eigenen Angaben hunderte Accounts der amerikanischen rechtsextremen Boogaloo-Bewegung, schwer bewaffnet und bereit, einen neuen Bürgerkrieg zu starten (den sie „Boogaloo“ nennen), aber in freundlicher Anmutung in Hawaiihemden (weil sie sich auch „big luau“ nennen, hawaiianisch „großes Fest“, mit Iglu-Fahnen (weil sie sich auch „big igloo“ nennen) und online mit humoristisch-sarkastischen Memes, die sich viel verbreiten (vgl. ZDF). Insgesamt wurden rund 320 Konten, mehr als 100 Gruppen und 28 Seiten gesperrt, darunter 220 Facebook-Accounts und 95 Konten bei Instagram.  (vgl. heise.de).
  • Zudem seien 400 weitere Gruppen und 100 Seiten gelöscht worden, die auch gegen Facebooks Richtlinien verstießen und ähnliche Inhalte wie das rechtsextreme Netzwerk verbreitet hätten. (vgl. heise.de).
  • Facebook nahm die rechtsalternativen „Medien“-Seite „Breitbart News“ von seiner Liste „vertrauenswürdiger“ Quellen, aus denen sich sein Nachrichtendienst speist; außerdem beendet das Unternehmen seine Zusammenarbeit mit der rechtsalternativen „Factchecking“-Organisation „The Daily Caller“, die von Anfang an für viel Kritik gesorgt hatte (vgl. Süddeutsche Zeitung)

YouTube

  • YouTube hat nach eigenen Angaben 25.000 rechtsextreme und rassistische Kanäle wegen Hassrede gesperrt, darunter die Kanäle bekannter amerikanischer Neonazis wie Richard Spencer und Stefan Molyneux (beide Alt-Right, mehr als 900.000 Abonnent*innen). „Wir haben strenge Richtlinien, die Hassrede auf YouTube verbieten, und schließen jeden Kanal, der wiederholt oder auf unerhörte Weise gegen diese Richtlinien verstößt“, sagte ein YouTube-Sprecher gegenüber The Daily Beast. Nach einer Aktualisierung der Richtlinien habe das Unternehmen einen fünffachen Anstieg bei der Entfernung von rassistischen Videos bemerkt und habe in diesem Zug über 25.000 Kanäle wegen Verstoßes gegen die Richtlinien für Hassrede eingestellt.

Twitch

  • Die Streaming-Plattform für Gamer*innen löschte Accounts, die Frauen und Transfrauen auf der Plattform belästigt und beschimpft hatten, um einen Ausbruch von Frauenhass wie bei „Gamergate“ zu unterbinden – Folge der Ernennung eines Beratungsgremiums, um die Onlinecommunity sicherer zu machen (vgl. Wired).

Im beginnenden US-Wahlkampf haben diverse Soziale Netzwerke in den USA beschlossen, auch dann nicht hinter ihre Community Guidelines zurückzutreten, wenn der Verfasser der Präsident der Vereinigten Staaten ist.

Twitter 

  • Im Juni hat Twitter einen gewaltverherrlichenden Tweet das US-Präsidenten Donald Trump hinter einen Warnhinweis verborgen (vgl. heise.de) und weist auch auf manipulierte Inhalte hin.

Snapchat

  • Snapchat entfernte Postings von Donald Trump aus seinem „Discover“-Bereich, der unter anderem Medieninhalte und News bietet. Das Unternehmen wolle „kein Verstärker für Stimmen sein, die rassistische Gewalt und Ungerechtigkeit anfachen.“ (vgl. heise.de).

Reddit

  • Die Online-Plattform Reddit hat Anfang der Woche bekanntgegeben, neue Schritte beim Kampf gegen Hassbotschaften und Gewaltverherrlichung zu gehen. Es schloss die bei Trump-Fans beliebte Subreddit „The_Donald“ (800.000 Mitglieder, Trumps „Trollarmee“ von 2016), dazu rund 2.000 weitere subreddits. Reddit hatte nach George Floyds Tod Änderungen seiner Community-Regeln angekündigt, damit die Plattform nicht mehr als Mittel gegen ihre eigenen Werte genutzt werden könne. (heise.de)

Twitch

  • Die Streamingplattform sperrte einen Account von Trumps Wahlkampfteam. Der US-Präsident hatte dort seine Wahlkampfveranstaltungen gezeigt. Die Amazon-Tochter Twitch begründete den Schritt mit dem „hassschürenden Verhalten“ des US-Präsidenten. Dabei soll es vor allem um zwei Aussagen im Rahmen seiner Wahlkampfveranstaltungen gegangen sein, in denen er gegen Mexikaner hetzte. (heise.de). Das zum Amazon-Konzern gehörende Twitch ist damit die erste Plattform, die Trump wirklich bannt (netzpolitik.org).

Was bringt Deplatforming?

Interessant ist aber auch die Frage: Bringt es denn gesellschaftlich etwas, rechtsextreme Accounts von der eigenen Plattform zu werfen? Eine Plattform, die bereits Erfahrungen hat, tut viel mehr:

Discord

  • Ein Unternehmen, das schon gute Erfahrungen mit Deplatforming gemacht hat, ist die Gaming-Plattform „Discord“. Als den Betreibern bewusst wurde, dass ihr Netzwerk von der Alt-Right (und auch deutschen Rechtsextremen) zur Organisation von Hass und Bedrohung genutzt wurde (nach der Charlottesville-Demonstration 2017), löschten sie 100 rechtsextreme Gruppen von „Discord“, investierten aber auch in mehr spezialisierte Mitarbeiter*innen in der Content Moderation. Das Netzwerk begann ein eigenes Monitoring von rassistischen „White Supremacy“-Gruppen, um sie wieder von der Seite zu entfernen. „Discord“ nutzt Metadaten, nicht nur IP-Adressen, um sicherzustellen, dass sich gebannte Nutzer nicht (so leicht) wieder anmelden können. Meldeprozesse wurden erleichtert, automatische Spracherkennung sucht die Plattform nach beleidigender Sprache ab. Die Folge: die „Alt-Right“ verließ die Plattform (in Richtung Telegram) (vgl. Forbes).

Da die großen Netzwerke ihre Heimatbasis in den USA haben, bleibt zu hoffen, dass eine solche Entwicklung auch ein positives Signal für den eigenen Markt gibt.

Allerdings bleibt Deplatforming bisher ein Katz- und Maus-Spiel. So versucht etwa der bereits mehrfach von YouTube verbannte Rechtsextreme, der sich „Volkslehrer“ nennt, in regelmäßigen Abständen auf die reichweitenstarke Plattform zurückzukommen, die „Identitäre Bewegung“ versucht mit nicht so gebrandeten Accounts, ihre Präsenz auf Instagram zurück zu erhalten. Es ist also keine punktuelle, sondern eine dauerhafte Wachsamkeit nötig, um die Erfolge zu sichern. Diese sind allerdings deutlich sichtbar: Jeder Plattform-Herauswurf kostet Rechtsextreme Follower.

„Das nimmt den rechtsextremen Accounts Reichweite – ein positiver Effekt. Andererseits wechseln die eingeschworenen Anhänger*innen mit auf kleinere Plattformen und radikalisieren sich dort oft“, sagt Miro Dittrich, Monitoring-Experte der Amadeu Antonio Stiftung. Für ihn zeigt das: „Deplatforming ist ein Effekt für die Öffentlichkeit, aber keine Antwort. Die Menschen und ihr Hass verschwinden nicht. Das geht nur, wenn auch die inhaltliche Ebene bearbeitet wird.“

Joan Donovan schreibt in Wired: „Wenn die Sozialen Netzwerke nicht eine Strategie entwickeln, hilfreiche und wahrheitsgemäße Inhalte zu verstärken und Hass zu bannen, werden sie immer einen Schritt hinter den Manipulatoren, Desinformanten und Hatern sein. (…) Die Unternehmen müssen ihre falsche Neutralität gegenüber Rassismus und Frauenhass aufgeben (…), die Inhalte nicht mehr moderieren, sondern kuratieren. Das Internet, dass wir verdienen, ist ein Informations-Ökosystem, das den Menschen dient, ihnen hilft.“ Dieses solle so offen wie möglich sein, aber auch dafür sorgen, dass alle demokratischen Stimmen geschützt und verstärkt werden. So sollten alle Bemühungen der Plattformen darauf gerichtet sein, nicht Hass zu verstärken oder profitabel zu machen, sondern hilfreiche Inhalte. Donovan ist überzeugt, dass Tech-Unternehmen, die dies nicht verstehen, eines Tages obsolet werden.

Weiterlesen

2019-01-18-polizei

Hessen Rechtsextremismus in der Polizei

Beunruhigend: In Hessen wird nach Drohschreiben an die Anwältin Seda Başay-Yıldız wegen Rechtsextremismus innerhalb der Polizei ermittelt – und ein…

Von|
2017-04-26_Koehler-Neu_Open

Daniel Köhler Viel “rechte Gewalt” ist eigentlich Rechtsterrorismus

Rechtsterrorismus gibt es erst seit den Morden des NSU? Falsch, sagt Extremismusforscher Daniel Köhler: Die Geschichte des Rechtsterrorismus fängt unmittelbar nach Ende des zweiten Weltkriegs an. Die Anschläge sollen nicht nur die Opfer treffen, sondern auch das demokratische System. 

Von|
Unsere Partnerportale
Eine Plattform der