Weiter zum Inhalt Skip to table of contents

Diskursreport veröffentlicht Antisemitismus als Herausforderung für Algorithmen

Von|
Das Projekt "Decoding Antisemitism" der Alfred Landecker Stiftung will Algorithmen trainieren, antisemitische Hassrede automatisiert besser zu erkennen. (Quelle: Decoding Antisemitism)

Moderator*innen werden unter anderem bei der Überprüfung der Massen an Kommentaren in Social Media von Algorithmen unterstützt, die die immensen Textmengen durchsuchen und die Moderation auf Kommentare aufmerksam machen, die potentiell gegen die Richtlinien der Plattform verstoßen. Aber die Algorithmen, die bislang zum Aufspüren von Hate Speech und anderen verletzenden, aufstachelnden oder irreführenden Inhalten eingesetzt werden, können entsprechende implizite Äußerungen, die oftmals auch keine einschlägigen Schlüsselbegriffe enthalten, häufig nicht identifizieren. D. h., auch die Algorithmen sind bislang von begrenztem Nutzen und viele Kommentare, bei denen eine Moderation nötig wäre, bleiben einfach stehen und können ihre schädliche Botschaft ungehindert verbreiten.

Was kann angesichts dieser Situation getan werden, um die Verbreitung von Antisemitismus im Internet dennoch stärker einzudämmen? Nennenswerte Fortschritte sind einzig auf Basis einer technischen Lösung möglich.

Im Forschungsprojekt „Decoding Antisemitism“ arbeitet ein Team aus Linguist*innen, Antisemitismus- und Diskursforscher*innen in einer Kooperation von TU Berlin und King’s College London daran, Algorithmen so zu trainieren, dass sie Antisemitismus in Texten mit größerer Präzision erkennen können. Dafür analysieren wir im ersten Schritt mittels qualitativer Untersuchungen Social Media-Kommentare im Hinblick auf ihren antisemitischen Gehalt und dessen sprachliche Umsetzung. Die dabei als antisemitisch kategorisierten Texte werden anschließend als Trainingsdaten für das Machine Learning mithilfe verschiedener Algorithmen genutzt. Die Besonderheit dieser Trainingsdaten besteht darin, dass sie durchgängig Antisemitismus enthalten und dieser darüber hinaus in den vielfältigsten Äußerungsformen und mit einem hohen Anteil an impliziten Äußerungen vorkommt. Diese Daten erlauben den Algorithmen daher, gezielter zu lernen.

Jetzt wurde der zweite unserer Diskursreports veröffentlicht, mit denen wir halbjährlich Einblicke in unsere Arbeit und Ergebnisse bieten. Er befasst sich in dieser Projektphase vorwiegend mit den qualitativen Untersuchungen. Als Daten dienen dafür User*innen-Kommentare auf Facebook zu Ereignissen, über die Leitmedien in Deutschland, Frankreich und Großbritannien berichteten und deren Artikel dazu auf ihren Facebook-Profilen verlinkt wurden.

Mit diesen Untersuchungen soll neben dem Generieren von Trainingsdaten beantwortet werden, welche antisemitischen Reaktionen in den Kommentaren in Bezug zu bestimmten Ereignissen auftraten und was für den antisemitischen Diskurs zu diesen Ereignissen jeweils charakteristisch ist. Im Zuge dessen werden auch Vergleiche zwischen den Ereignissen und den Diskursen der drei Länder angestellt.

Insgesamt wurden mehr als 15.000 Kommentare zu fünf Ereignissen analysiert. Funde und Vorgehen sowie Schlussfolgerungen von der Äußerung zur Äußerungsbedeutung werden im Diskursreport anhand von Beispielen veranschaulicht. In den Reaktionen auf die Berichterstattung zum Hamas-Israel-Konflikt 2021 waren 13,6 % der deutschen, 12,6 % der französischen und 26,9 % der britischen Kommentare antisemitisch. Der Corona-Impfstart in Israel – teilweise verknüpft mit der Frage der Verantwortung Israels für das Impfen der Palästinenser*innen – führte in Deutschland zu 3,4 %, in Frankreich zu 7,5 % und in Großbritannien zu 17 % antisemitischen Reaktionen. Auch in drei Fallstudien zu Personen, die mit Antisemitismus in Zusammenhang gebracht wurden, fanden sich in jedem Land beträchtliche Anteile an antisemitischen Kommentaren, die jedoch aufgrund der unterschiedlichen Auslöser nicht verglichen werden können.

Diese Untersuchungen zeigen, dass Antisemitismus selbst im Kontext politisch gemäßigter Diskurse im Rahmen der Leitmedien in den Kommentaren der User*innen aller drei Länder deutlich präsent ist. Das unterstreicht ein weiteres Mal, dass Antisemitismus in allen Bereichen der Gesellschaft anzutreffen ist und überall ernst genommen und zurückgedrängt werden muss. Durch den Vergleich des Anteils antisemitischer Kommentare wird offenbar, dass bestimmte Ereignisse in unterschiedlichem Ausmaß als Anlass für antisemitische Äußerungen genommen werden und es hier auch deutliche Unterschiede zwischen den drei Ländern gibt. Der bei obigen Ereignissen mit Abstand höhere Anteil antisemitischer Kommentare auf den Facebook-Seiten britischer Medien könnte eventuell auch mit der internationalen Zugänglichkeit aufgrund der Verbreitung des Englischen zusammenhängen. Auch die Formen antisemitischer Zuschreibungen verteilen sich ungleichmäßig. Bei den beiden Diskursereignissen mit Ländervergleich wird Israel – auf vielfältige Weise und in ähnlichem Ausmaß – in Aktualisierung eines klassischen Stereotyps als Übel dargestellt. Diese grundsätzliche Zuschreibung ist demnach fest im antisemitischen Repertoire verankert. Bei anderen antisemitischen Konzepten gibt es jedoch teils deutliche Abweichungen. Das legt einerseits nahe, dass antisemitische Narrative in den verschiedenen Sprachräumen unterschiedliche Schwerpunkte setzen (die durch nationale Geschichte und Kultur beeinflusst sind). Andererseits demonstrieren diese Abweichungen einmal mehr, dass antisemitische Zuschreibungen willkürlich und haltlos konstruiert werden.

In den nächsten Monaten liegt die Aufgabe des Projekts darin, die Zahl der kategorisierten Kommentare zu vervielfachen und für die Algorithmen zum Lernen aufzubereiten. Die ersten Fortschritte der Künstlichen Intelligenz werden 2022 veröffentlicht.

 

*Der Autor ist wissenschaftlicher Mitarbeiter bei „Decoding Antisemitism“.

Weiterlesen

Eine Plattform der