Weiter zum Inhalt Skip to table of contents

Radikalisierung im Netz Warum der Hass auf YouTube floriert

Von|
Da es auf YouTube kaum oder kaum sichtbare Gegenrede gibt, landet man bei der Suche nach aktuellen politischen Themen schnell bei extrem rechten Accounts und Verschwörungsideologen. (Quelle: Screenshot, Bildbearbeitung)

 

Jede Minute werden auf der Videoplattform YouTube 300 Stunden Videomaterial hochgeladen. Angesehen werden pro Monat 3,25 Milliarden Stunden an Videos. Besonders junge Menschen informieren sich schon lange nicht mehr linear über das klassische Fernsehen. Viel attraktiver sind für sie Plattformen wie Instagram oder YouTube. Heute erreicht YouTube allein auf mobilen Endgeräten wie Smartphones mehr 18- bis 49-Jährige als Nachrichtensender und das Kabelfernsehen an sich. Das muss nicht per se schlecht sein. Doch besonders YouTube birgt die Gefahr, dass sich hier junge Menschen radikalisieren. Etwa dann, wenn sie auf rassistische, ideologisch argumentierende Accounts stoßen und diese nicht gleich als das einordnen können, was sie in der Regel sind – nämlich menschenverachtend, mit Falschinformationen hantierend und diskriminierend. Anders als beim klassischen Fernsehen findet hier keine Moderation statt. Die Inhalte, die die User*innen sich anschauen, werden nicht eingeordnet. Faktenbasierte und recherchierte Informationen stehen neben emotionalisierenden und mit Verve vorgetragenen Lügen. Wenn Nutzer*innen in den Bann eines volksverhetzenden oder Desinformationen  verbreitenden Accounts gezogen wurden, birgt das die Gefahr, dass sie sich noch radikalisieren – oder zumindest einen sehr falschen Eindruck vom Geschehen in der Welt bekommen.

Der YouTube-Algorithmus

Neben jedem Video, das sich ein User anschaut, schlägt YouTube weitere Videos vor, die die Zuschauer*innen auch interessieren können. Hat man Autoplay eingeschaltet, starten die vorgeschlagenen Videos automatisch. Und je länger die User*innen auf der Plattform bleiben, desto profitabler für das Google-Unternehmen YouTube, denn desto mehr Werbung kann den User*innen eingespielt werden, womit das Unternehmen wiederum Geld verdient. Das muss nicht unbedingt schlecht sein und kann für die User*innen auch Vorteile haben.

Das Problem ist allerdings, dass der YouTube-Algorithmus dazu tendiert, den User*innen immer drastischere Videos vorzuschlagen, um ihn zu fesseln. „Du bist nie krass genug für den YouTube Feed, er wird dir immer härteren Inhalt vorschlagen“, so Miro Dittrich, der für die Amadeu Antonio Stiftung das Monitoring betreibt und dabei auch die rechte YouTube-Szene analysiert. So kann man auch von harmlosen politischen Inhalten in wenigen Schritten zu extremen Inhalten gelangen. Denn der Algorithmus versucht auch dadurch, das Interesse der User*innen zu behalten, indem er vor allen Beiträge aus der gleichen politischen Richtung einspielt. Schaut man sich also auf der Plattform Politik-Videos von rechten Kanälen an, ist es sehr schwer aus dieser Blase wieder herauszukommen – denn YouTube schlägt selbst ständig weitere solcher Quellen vor. Das Portal erzeugt so Filterblasen. Dazu kommt, das rechte Akteur*innen überaus produktiv auf YouTube sind.

Kaum Gegenrede

Da es auf YouTube kaum – und wenn, dann nicht sonderlich gut sichtbare  – Gegenrede gibt, landet man bei der Suche nach aktuellen politischen Themen schnell bei extrem rechten Accounts und Verschwörungsideologen. Ganz besonders deutlich wurde dies Ende August 2018, als die sächsische Stadt Chemnitz nach einer tödlichen Auseinandersetzung zwischen Personen unterschiedlicher Nationalitäten  zum Schauplatz mehrtägiger rassistischer Großdemonstrationen wurde. Wer bei YouTube während dieser aufgeheizten Zeit den Suchbegriff „Chemnitz“ eingab, bekam tagelang vor allem rechtsextreme, rassistische und desinformative Videos vorgeschlagen. Berichte von seriösen, journalistischen Medien kamen reichweitentechnisch offenkundig nicht gegen rechtsextreme und rechts-reißerische Erzählungen an.

Die Informationen, die YouTube den an Chemnitz Interessierten anbot, stammten damals von RT Deutsch und von verschwörungstheoretischen und rechtsextremen Accounts von Martin Sellner, Hagen Grell, Henry Stöckl und Oliver Flesch. In den YouTube Trending Charts war für etwa 14 Stunden sogar ein Video des rechtsextremen Rappers Chris Ares. Das bedeutet, dass jeder Besucher und jede Besucherin der Startseite Ares’ Video angeboten bekam, das gespickt war mit Falschmeldungen a.

Nach dem Todesfall in Chemnitz waren rechte und verschwörungsideologische YouTuber*innen besonders schnell in der Produktion ihrer Videos. Und wie man sich schon denken kann, ging es ihnen nicht um eine sachliche Darstellung der Ereignisse, sondern darum, die Nutzer*innen mit immer neuen Falschinformationen auszustatten und somit Angst und Wut bei ihnen auszulösen. Sucht man allerdings heute nach dem Begriff „Chemnitz“, findet man beinahe ausschließlich Videos von etablierten Medien, die mit der Zeit häufiger geklickt wurden.

Diese Informationslage soll nun durch die „Google News Initiative“ verbessert werden. Damit Nutzer*innen sich möglichst ein gutes Bild über eine Nachrichtenlage machen können, zeigt YouTube eine breite Menge an Quellen. Doch als journalistische zuverlässig eingestufte Quellen sollen dabei bevorzugt angeboten werden. Sie erscheinen also zuerst sowohl in der Suche auf YouTube als auch bei den Empfehlungen weiterer Videos am Ende eines Beitrags. Grundlage der zuverlässigen Quellen sind die Einschätzung zu Quellen, die auch dem Angebot „Google News“ zugrunde liegen, sowie Befragungen von Expert*innen und Nutzer*innen.

„Neue“ Rechte hat YouTube früh als Rekrutierungsfeld erkannt

Besonders die sogenannte „neue“ Rechte hat das Internet früh für sich zu nutzen gewusst und im Netz ein willkommenes Rekrutierungsfeld für Aktivist*innen und Unterstützer*innen gefunden. Eine wesentliche Rolle spielt dabei YouTube: Besonders für Aktivist*inne der sogenannten „Identitären Bewegung“ (IB) und für deren Umfeld sind Videos mittlerweile der wichtigste Propaganda-Kanal.

Gefühlt täglich veröffentlicht beispielsweise Martin Sellner, Kopf der deutschsprachigen rechtsextremen IB, seine Propagandavideos. Seine lockere Art mag für junge und unbedarfte User*innen auf dem ersten Blick verschleiern, dass hier  rassistische und rechtsextreme Inhalte verbreitet werden. Viele YouTuber*innen der „neuen“ Rechten nutzen eine codierte Sprache oder behaupten, ihr Rassismus sei bloß Satire. Inhaltlich und stilistisch bedienen solche Kanäle beinahe jeden Geschmack: von lustig und locker über pseudointellektuell und total hipp bis hin zum pubertären Pipi-Kacka-Humor werden alle Wünsche besonders junger Zuschauer*innen abgedeckt.

Props an die anderen Faschist*innen

Besonders extrem rechte Politblogger*innen der „neuen“ Rechten verweisen dabei gern gegenseitig aufeinander, machen Werbung für die anderen Kanäle und laden sich gegenseitig in Interviews ein, wo sie dann gemeinsam gegen den Islam und Angela Merkel hetzen können. Martin Sellner sieht sich beispielsweise in einem „Infokrieg“ – was er damit meint? In einem Kampf um die Deutungshoheit im Internet zu sein. Und dafür braucht die „neue“ Rechte eben auch auf YouTube viele reichweitenstarke Kanäle, die ihren Hass und Verachtung auf nicht weiße rechte Menschen verbreiten.

Parasoziale Beziehungen zum Zuschauer

Dass Videos rechter YouTuber wie eine Art Einstiegsdroge für Menschen wirken, meint auch ein IB-Aussteiger in einem Interview mit Belltower.News. Stundenlang habe er sich die Videos von Martin Sellner und dem rechtsextremen Hetz-Kanal „Die vulgäre Analyse“ angeschaut. Immer tiefer geriet er in die rechte Bubble und schaute sich dann auch verschwörungsideologische Videos an. Zwar sei ihm klar gewesen, dass das „meiste völliger Quatsch war“, trotzdem habe er sich mit den Akteur*innen solidarisiert.

„Genau wie Beauty-Influencer überzeugen Politblogger durch parasoziale Beziehungen zum Zuschauer. Sie zeigen sich im Privatleben und bauen so Vertrauen auf“, sagt Miro Dittrich. Dabei beobachtet er nicht nur, wie sich das Publikum solcher Kanäle radikalisiert, sondern auch, wie die YouTuber selbst immer radikalere Ansichten vertreten und aussprechen. Fand man beispielsweise bei Hagen Grell vor zwei Jahren wenn überhaupt nur versteckt antisemitische Inhalte, äußert er seinen Antisemitismus heute uncodiert.

Digitaler Hass kann zu realer Gewalt führen

Können Jugendliche einordnen, dass YouTube keine verlässliche Informationsplattform ist? In der Praxis sieht dies je nach Medienkompetenz, Umfeld und Einstellung der Nutzer*innen sehr unterschiedlich aus. Die Gefahr, dass Jugendliche falsche Schlüsse ziehen, wenn sie  viel Zeit in einem Kosmos aus Verschwörungserzählungen, Holocaustleugnung und Rassismus verbringen, ist real. Wenn sie solche Propagandavideos für die Wahrheit halten, folgen daraus demokratiefeindliche und diskriminierende Handlungen in der Offline-Welt.

Weiterlesen

2019-01-21_121741.jpg 0rbit

„Die vulgäre Analyse“ Der Hacker „0rbit“ und die Rolle des Hass-Youtubers „Shlomo Finkelstein“

Ein 20-jähriger Schüler veröffentlichte unter seinem Hackernamen „0rbit“ zahlreiche persönliche Daten von Politiker*innen, Künstler*innen und Youtuber*innen. Zu den Beweggründen des jungen Mannes heißt es, er habe sich über diese Personen besonders geärgert. Er sei zwar ein bisschen rechts, doch politisch motiviert sei die Tat nicht gewesen. Das stimmt so nicht. „0rbit“ vertrat radikale und rechtsextreme Meinungen.

Von|
Eine Plattform der