Weiter zum Inhalt Skip to table of contents

Kreative, ans Werk! Handlungsempfehlungen zum Umgang mit extrem rechten Memes

Tipp zum Umgang mit extrem rechten Memes: Nur weil Du gelacht hast, ist ein Inhalt nicht harmlos. Er kann andere verletzen. Hör auf Betroffene. (Quelle: Screenshot)

Memes als Teil extrem rechter Online-Kommunikation verbreiten menschenfeindliche Ideologie. Dabei wirken sie als Kitt und Motivation in die eigene Szene, schaffen Gemeinschaftsmomente und Zugehörigkeit, wenn sie gemeinschaftlich erstellt oder ihre gemeinsame Verbreitung als Meme War oder Shitstorm organisiert wird.

Die Verbreitung extrem rechter Memes testet aber auch die Aufmerksamkeit von digitalen Kommunikationsräumen wie Kommentarspalten, Kanälen oder Foren aus – werden antisemitische, queerfeindliche oder rassistische Memes moderiert oder gelöscht, kommentieren andere Nutzer*innen zustimmend oder ablehnend, oder werden sie als „Humor‟ akzeptiert oder nicht erkannt?

Entsprechend haben sie auch einen Effekt auf nicht-rechte Öffentlichkeit: Sie normalisieren Abwertung, auch durch ständige Wiederholung. Sie erleichtern die Verbreitung von Menschenfeindlichkeiten etwa im Klassen- oder Kolleg*innen-Chat, weil diese als „Humor“ präsentiert und bei Widerspruch zurückgenommen werden können. Auf Menschen, die zu den „Feindgruppen‟ extrem rechter Agitation gehören, haben sie einen Bedrohungseffekt, zeigen die Präsenz und Raumnahme extrem rechter Akteur*innen – vor allem, wenn sie kommentarlos stehen gelassen werden.

Grenzziehungen sind schwierig, aber nötig

Extrem rechte Memes arbeiten oft mit „Humor“. Hierbei geht es allerdings meist nicht um bissige Satire als Gegenwehr zu gesellschaftlich einflussreichen Positionen, sondern um die Verbreitung von Abwertung gegen gesellschaftlich schwache Gruppen oder Minderheiten, nicht selten verbunden mit Gewaltandrohungen („Hausbesuche“) oder imaginierten Gewalttaten („Dir sollte mal jemand …“). Dazu arbeiten extrem rechte Memes mit Dogwhistles, also Andeutungen, die in der Szene und von Opfern verstanden werden, aber nicht unbedingt von der breiten Öffentlichkeit (z.B. Globalist*innen für Jüdinnen*Juden).

Rechtssprechung hilft oft nicht: Weil der Hass subtil geäußert oder als „schwarzer Humor“ gelabelt wird, gibt es für Memes bislang wenig strafrechtliche Konsequenzen, wenn sie nicht extrem explizit sind, wie mit abgebildeten Waffen und benannten Opfergruppen oder offener Holocaustleugnung. Trotzdem sollten solche Postings angezeigt werden, denn nur so wird ein Handlungsbedarf sichtbar: Polizist*innen und Jurist*innen müssen geschult werden, Hassinhalte in Memes zu erkennen und entsprechend zu handeln, wenn sie strafrechtlich relevante Komponenten enthalten. Viele extrem rechte Memes fallen aber trotzdem unter die Meinungsäußerungsfreiheit.

Soziale Netzwerke helfen oft nicht: Weil juristische Einordnungen oft die Grundlage für Moderationshandlungen sozialer Netzwerke sind, bleiben „Schwarze Humor“-Gruppen (die in der Regel eine Mischung aus unpolitischen und extrem rechten Memes enthalten) oder extrem rechte Memes als Postings in der Regel auf Sozialen Netzwerken stehen. Denn gerade, wenn es um Formen von „Humor“ geht, der auf vielfältige Art und Weise grenzwertig sein kann, gibt es in den Policy Teams viel Angst vor Overblocking, sodass sogar Inhalte in Meme-Form auf den Plattformen bleiben, die in Schriftform gelöscht würden (gilt von YouTube bis TikTok). Auch hier gilt: Beiträge trotzdem melden und Druck auf Community Guidelines erhöhen – in diesen „digitalen Hausregeln“ dürfen Netzwerke nämlich mehr als nur Strafrecht einfließen lassen, um eine sichere Kommunikation auf ihrer Plattform für alle zu gewährleisten. Moderator*innen müssen entsprechen geschult werden – auch wenn das Arbeit bedeutet, weil die extrem rechte Szene ständig neue Codes erfindet.

Social Media Moderation kann helfen: Jede*r, der oder die einen Kanal betreibt, kann diesem Diskussionsregeln geben und entsprechend moderieren. Gerade bei vermeintlich grenzwertigen Inhalten brauchen die moderierenden Menschen klare Regeln, um konsequent zu handeln. Diese können etwa umfassen: Menschenfeindlichkeit bleibt Menschenfeindlichkeit, auch wenn sie sich „Humor“ nennt. Deshalb sollte etwa Rassismus in Meme-Form nicht als Kommentar oder Beitrag stehen bleiben, nur weil Social Media-Redakteur*innen oder Mitleser*innen auch kurz grinsen mussten: Wir sind alle in einer rassistischen Gesellschaft sozialisiert und bei den meisten von uns sind rassistische Klischees abrufbar. Aber: Sobald Menschen durch die Meme-Inhalte verletzt werden, ist es Zeit, eine Entscheidung zu treffen, sich solidarisch an die Seite der Angegriffenen zu stellen und solche Inhalte nicht online zu lassen. Gerade wenn von der Diskriminierung betroffenen Personen sich melden, ist es Zeit, diese Meldungen ernsthaft zu bearbeiten und zu handeln.

Nutzer*innen können handeln: Gleiches gilt natürlich für Social Media-Nutzer*innen. Sie sollten etwa antisemitische, islamfeindliche, sexistische, NS-verherrlichende Inhalte nicht teilen – auch nicht, wenn sie zuerst über ein Meme zunächst gelacht haben sollten. Werden extrem rechte Memes im Klassenchat, im Familienchat oder im Kolleg*innen-Chat geteilt, sollte dies zu Reaktionen führen: Denn Nichtstun wird in der Regel als Zustimmung verstanden, sowohl vom Postenden als auch von Betroffenen. Dabei reicht zuerst eine Anfrage, gern auch nicht-öffentlich, wie der postende Menschen das Meme versteht – denn vielleicht hat er*sie gar nicht bemerkt, dass es sich um ein extrem rechtes Meme handelt, und ist bereit, es schnell selbst zu löschen. Möchte der*die Postende das Meme nicht löschen, können die Mitlesenden durch einen Kommentar über den extrem rechten Ursprung oder Inhalt informiert werden. Auch eine klare Positionierung hilft – den Betroffenen, aber auch den Mitlesenden, die sich dann vielleicht trauen, sich selbst zu positionieren („Das finde ich rassistisch, das passt nicht in unseren Chat‟). Gemeinsam können dann Regeln besprochen werden, welche Memes in einem Chat unerwünscht sind. Denn es geht auch um Institutionalisierung: Gut wäre, wenn jede Messenger-Gruppe sich einen Code of Conduct gegen gruppenbezogene Menschenfeindlichkeit und rechtsextreme Inhalte geben würde – das gilt für Klassenchats genauso wie für Polizei- oder Feuerwehr-Gruppen.

Über den Vorwurf „Du hast ja offenbar gar keinen Humor“, der reflexartig (auch als Selbstverteidigung) kommt, wenn geteilte extrem rechte Memes kritisiert werden, sollten wir erhaben sein, wenn auf der anderen Seite Menschen diskriminiert und bedroht werden: „Stimmt, wenn Rassismus oder Sexismus ins Spiel kommen, finde ich das nicht lustig.“ Wenn jede*r dies im eigenen Umfeld umsetzen würde, wäre schon viel gewonnen.

Informationen und Anlaufstellen

Civic.net – Aktiv gegen Hass im Netz

Workshops und Fortbildungen rund um das Thema Hate Speech, digitale Demokratie und Empowerment

Firewall – Hass im Netz begegnen und re:set – Jugend gegen Hass im Netz

Trainings in Ihrer Schule/Einrichtung für Jugendliche und erwachsene Multiplikator:innen zum Umgang mit Hate Speech, Desinformation, Verschwörungsideologien in der digitalen Welt

Good Gaming – Well Played Democracy

Unterstützung beim Awareness Raising, Argumentieren und beim Aufbau demokratischer Netzwerke für Gaming Communities

pre:bunk – Online-Prävention im Videoformat

Online-Präventionsarbeit und Informationskompetenz für Jugendliche via TikTok

 

Dieser Text ist ein Auszug aus der Broschüre:

Amadeu Antonio Stiftung / MISRIK:

Kreative, ans Werk! Memes in extrem rechter Internetkommunikation

Berlin 2023

PDF zum Download hier.

Mehr Texte aus der Broschüre auf belltower.news:

Weiterlesen

taylor-brandon-Y8r0RTNrIWM-unsplash(2)

Was tun? Action-Kit gegen israelbezogenen Antisemitismus

Erste Hilfe für Lehrkräfte, Mitarbeiter*innen der Verwaltung, Personen, die in der Öffentlichkeit stehen, sowie andere Interessierte gegen israelbezogenen Antisemitismus.

Von|
Eine Plattform der