Im Netz des Hasses

Foto: tatlin / Pixabay. CC0 1.0 Universell

In sozialen Netzwerken ist die Hassrede fast schon omnipräsent. Dabei sind die (Un-)Möglichkeiten und Strategien des Umgangs damit äußerst vielfältig.

Das Phänomen der Hassrede (oder Hate Speech) im Netz ist nicht neu. Aber es hat sich im vergangenen Jahr in öffentlichen Diskussionen über Flüchtlinge und Migration massiv in die sozialen Netze und die Kommentarspalten reichweitenstarker Online-Medien ausgebreitet und ist dadurch zu einem zentralen Thema der Netzpolitik und Netzkultur geworden.

Der Begriff Hassrede ist beinahe selbsterklärend: Er bezeichnet den sprachlichen Ausdruck von Hass gegen Bevölkerungsgruppen oder gegenüber Individuen wegen deren Zugehörigkeit zu einer bestimmten Bevölkerungsgruppe. Hassrede würdigt diese Individuen und Gruppen ab oder stiftet sogar zu Diskriminierung und Gewalt ihnen gegenüber an. Es handelt sich zunächst also um einen gesellschaftspolitischen Begriff; in der Europäischen Union gilt die Hassrede seit 1997 als Problem, das es mit zivilgesellschaftlichen und strafrechtlichen Mitteln zu bekämpfen gilt. Im deutschen Strafrecht entspricht der Hassrede am ehesten der Tatbestand der Volksverhetzung (Paragraf 130 des Strafgesetzbuchs).

Nun war das Netz nie ein Ort gegenseitigen Respekts und zivilisierter Diskussionen. Gehässigkeit, wechselseitige, einander hochschaukelnde Beleidigungen und Provokationen jenseits aller Grundsätze zwischenmenschlichen Umgangs sind nicht nur ständige Begleiterscheinungen netzgestützter Diskurse, sie sind auch untrennbarer Teil der Netzkultur in Form von weithin akzeptierten und oft aktiv gepflegten Praktiken wie Flaming, Trolling und Shitstorms.

Es mag deshalb zunächst nur als eine weitere Facette dieses rauen Umgangstons erscheinen, wenn ein Auszubildender unter das Foto eines Flüchtlingsmädchens, das sich an einem heißen Sommertag unter dem Schlauch der örtlichen Freiwilligen Feuerwehr abkühlt, kommentiert: „Flammenwerfer währe [sic] da die bessere Lösung.“ Oder wenn eine Mitarbeiterin der Arbeiterwohlfahrt ankündigt, von den Flüchtlingen, um die sie sich möglicherweise bald kümmern müsse, werde „dank [ihrer] medizinischen Ausbildung […] keiner überleben“.

Leidenschaft für Texteditoren

Aus der Sicht derjenigen, die solche Kommentare verfassen, mag das im Einzelfall sogar stimmen. Es ist aber – abseits der Frage nach der Strafbarkeit – etwas qualitativ völlig anderes, ob ich Menschen ihre Intelligenz abspreche, weil sie einen anderen Texteditor verwenden als ich, oder ob ich zum Verbrennen von Flüchtlingen aufrufe und ankündige, sie zu ermorden. Auch im ersten Fall erzeuge ich zwar eine unangenehme Gesprächsatmosphäre, die für sich schon geeignet ist, viele Menschen aus dem Netz zu vertreiben, aber wenigstens kann ich mich noch damit herausreden, dass meine Leidenschaft für Texteditoren mich überwältigt hat.

Im zweiten Fall steckt hinter den Provokationen, die solche Aussagen beinhalten, der Wunsch nach der Vernichtung von Menschen wegen ihrer Zugehörigkeit zu einer Gruppe. Damit erzeuge ich für Mitglieder dieser Gruppe mehr als nur ein unangenehmes Kommunikationsklima – ich erzeuge damit ein Klima der Angst. Selbst wenn klar erkennbar wäre, dass keine echte Mordabsicht besteht, signalisiert die Hassrede der betroffenen Gruppe, dass sie in der digitalen Öffentlichkeit nichts zu suchen hat.

Bei der Frage, wie mit offener Menschenfeindlichkeit im Netz umgegangen werden soll – mit Vernichtungsphantasien gegenüber Flüchtlingen, Homosexuellen und Menschen mit Behinderungen oder mit Vergewaltigungsdrohungen, wie sie jede Frau erlebt hat, die sich im Netz oder anderswo öffentlich äußert (zuletzt sehr prominent die Journalistin Anja Reschke), finden sich immer wieder dieselben rat- und hilflosen Ideen, die bei näherem Hinsehen entweder überhaupt nicht funktionieren oder die mehr Probleme aufwerfen, als sie lösen können.

Was hilft bei Hassrede – und was nicht?

Da ist erstens der Ruf nach den Strafverfolgungsbehörden. Wenn jemand verurteilt wird, der auf Facebook über Flüchtlinge Sätze schreibt wie „Abschieben. Oder Zyklon B. Hat vor 75 Jahren auch geholfen.“ dann mag uns das kurzfristig als befriedigend und langfristig vielleicht sogar als Lösung erscheinen. Aber erstens hängt die Latte bei der Anwendung des Paragrafen 130 StGB zu Recht hoch, weil das Verbot der Hetze gegen das Recht auf freie Meinungsäußerung abzuwägen ist, sodass auf diesem Wege nur die offensichtlichsten Fälle von Hassrede geahndet werden können. Zweitens ist klar, dass Polizei und Staatsanwaltschaft eine systematische Verfolgung von Hassrede in den sozialen Netzwerken wegen der schieren Menge solcher Kommentare nur mittels flächendeckender Überwachung in den Griff bekommen könnten.

Wir würden uns eine relative Freiheit von Hasskommentaren also mit massiver Unfreiheit bei Meinungsäußerungen insgesamt erkaufen. Hinzu kommt, dass die Strafverfolgung dort am effektivsten ist, wo Menschen ihre Klarnamen verwenden. Ein Ruf nach Strafverfolgung birgt damit auch immer die Gefahr, den Begehrlichkeiten von Politik und Netzwerkbetreibern nach einer allgemeinen Klarnamenpflicht in die Hände zu spielen. Diese wäre aber gerade für die von Hassrede am stärksten betroffenen Gruppen am gefährlichsten.

Zweitens gibt es den Ruf nach der Übertragung von zensurartigen Aufgaben an die Betreiber der sozialen Netzwerke selbst. Die Betreiber haben ohnehin die Möglichkeiten einer flächendeckenden Überwachung dessen, was auf ihren Plattformen vor sich geht, – sie könnten sie also einsetzen, um Hassrede (und andere Formen verbalen Hasses, wie etwa das Mobben einzelner Personen) durch eine rigorose Löschpolitik zu unterbinden. Selbst, wenn wir ihnen die flächendeckende Überwachung unserer Kommunikation wenigstens dem Anschein nach verbieten wollten, könnten sie effektive Mechanismen zur Meldung von Hassrede zur Verfügung stellen und wenigstens die gemeldeten Kommentare löschen.

Das größte Problem an diesem Vorschlag ist, dass diese Netzwerke Firmen mit kommerziellen Absichten gehören, die weder ein Interesse daran haben, nur eine bestimmte Wertegemeinschaft anzusprechen, noch gar Möglichkeiten zur gemeinsamen Wertefindung anbieten. Sie würden also selbst darüber befinden, nach welchen Kriterien Beiträge zu löschen sind, und diese Kriterien (die jedes Netzwerk heute schon hat) würden nicht unbedingt zur Problemlösung beitragen. Facebook beispielsweise löscht zwar nur selten rassistische oder sexistische Hetze, dafür aber jeden Anflug einer entblößten weiblichen Brust. Das stößt zwar auf (aus meiner Sicht berechtigte) Kritik, zeigt aber nur, dass die Betreiber von Facebook eben andere Werte haben als der Teil der Nutzerinnen, die sich an dieser Löschpolitik stören.

Drittens ist da die Idee der Gegenrede (oder Counterspeech). Dabei geht es darum, der Hassrede überall dort, wo sie auftritt, direkt zu widersprechen – ruhig, erklärend und ohne Hass. Die Gegenrede wird als Strategie in den USA schon seit den 1920er Jahren im Zusammenhang mit Hassrede diskutiert, in Bezug auf das Internet ist sie in jüngerer Zeit zum Beispiel von der australischen Politologin Katharine Gelber und der amerikanischen Juristin Susan Benesch untersucht und propagiert worden. Sie ist auch die bevorzugte Strategie der Netzwerkbetreiber selbst, und auch einige große Online-Medien setzen darauf.

Oberflächlich betrachtet scheint Gegenrede eine gute, vielleicht sogar die beste Strategie gegen Hassrede zu sein. Sie schränkt die Meinungsfreiheit nicht ein und erfordert deshalb keinen allgemein akzeptierten Wertekanon, aus dem sich Kriterien zur Löschung von Kommentaren ableiten ließen. Sie verteilt den Umgang mit Hassrede dezen-tral auf alle, die im Netz kommunizieren (wobei manchmal eine besondere Verantwortung staatlicher oder anderer gesellschaftlicher Institutionen gefordert wird); die Strategie der Gegenrede erfordert somit keine flächendeckende Überwachung durch Strafverfolgungsbehörden oder Netzwerkbetreiber und keine Klarnamenpflicht. Sie führt vielleicht sogar ab und zu einmal dazu, dass Hassredner über ihre Worte nachdenken und ihre Fehler einsehen.

Aber die Strategie der Gegenrede bringt auch eine Reihe von Problemen mit sich. Erstens bürdet sie die Pflicht zur Auseinandersetzung mit der Hassrede letzten Endes hauptsächlich den Betroffenen selbst auf, denn nur sie sind ständig und dauerhaft mit der Hassrede konfrontiert. Alle Nicht-Betroffenen, mögen sie noch so guten Willens sein, können und werden ihre Pflicht zur Gegenrede sehr selektiv nur dann wahrnehmen, wenn sie Kraft und Zeit dafür haben. Zweitens gibt es gute Gründe für die Netzregel „Don’t feed the troll“, die auch gegenüber den Verbreiterinnen von Hassrede gelten: Reaktionen – gerade ablehnende – befeuern häufig erst den Eifer, mit dem sich Hassrednerinnen in menschenverachtende Aussagen hineinsteigern. Sie werden außerdem immer mehr Zeit und Kraft für die Auseinandersetzung haben als diejenigen, von deren Vernichtung sie öffentlich träumen.

Für die Hassredner kommt gegenüber dem „normalen“ Troll noch ein sprachstruktureller Heimvorteil hinzu: Unsere Sprache liefert uns viele Wörter, mit denen sich Minderheiten abwerten, herabwürdigen und entmenschlichen lassen, aber nur wenige Wörter, die der Abwertung und Entmenschlichung entgegengestellt werden können. Die Hassrednerinnen können also sehr viel Hass in sehr kurze, wenig zeitaufwendige Kommentare packen, während die Gegenrede auf lange, geduldige Erklärungen setzen muss. Schließlich legitimiert die Gegenrede im schlimmsten Fall die Hassrede, indem sie es so aussehen lässt, als finde ein Meinungsaustausch auf Augenhöhe statt.

Der Kampf ist nicht zu gewinnen

Der Kampf gegen Hassrede muss geführt werden, und dabei können und müssen alle hier erwähnten Strategien – das Strafrecht, die Durchsetzung von Regeln durch die Netzwerkbetreiber und die Gegenrede zum Einsatz kommen. Der Kampf gegen Hassrede ist aber ebenso wenig zu gewinnen, wie der Kampf gegen den Hass selbst. Die Hassrede ist keine Konsequenz der sozialen Netze, sondern die sozialen Netze liefern ihr nur einen bequemen Weg von den Stammtischen direkt in die Öffentlichkeit. Sie sind eine Plattform, auf der sich Menschen begegnen, die einander sonst nie begegnen würden. Der unkontrollierbare Wildwuchs von Hassrede ist einer der Gründe, warum man bei aller Begeisterung für das Potenzial dieser Begegnungen daran zweifeln muss, dass wir als Gesellschaft schon reif für dieses Potenzial sind.

Anatol Stefanowitsch

Anatol Stefanowitsch

Anatol Stefanowitsch ist Sprachwissenschaftler an der Freien Universität Berlin, wo er über Wörter, Metaphern und grammatische Konstruktionen forscht. Außerdem betreibt er in Vorträgen und im Sprachlog (sprachlog.de) Öffentlichkeitsarbeit zu Themen rund um sprachliche Diskriminierung, Sprachpolitik und politische Sprache.

Foto: Ben Stefanowitsch
Anatol Stefanowitsch

Letzte Artikel von Anatol Stefanowitsch (Alle anzeigen)