Jamina Diel (Violence Prevention Network, Projekt „GaReX | Hate Speech resilient begegnen“)
Was ist Hate Speech?
Menschenfeindliche Einstellungen treten auf digitalen Plattformen zunehmend offen zutage. Wer sich online positioniert oder von Diskriminierung betroffen ist, wie viele Frauen, Jüdinnen und Juden, People of Color oder queere Menschen, erlebt in den Sozialen Medien, wie aktuelle Studien zeigen, immer wieder Hass (Toneshift/ Kompetenznetzwerk gegen Hass im Netz 2024). Dabei ist Hate Speech anhand folgender Merkmale zu erkennen:
- Abwertende und diskriminierende Inhalte: Hate Speech richtet sich gegen eine Person oder eine vermeintliche Gruppe und setzt diese herab und beleidigt sie.
- Bezug auf (vermeintliche) Merkmale: Hate Speech bezieht sich auf tatsächliche, vermeintliche oder zugeschriebene Merkmale wie Religion, Aussehen, ethnische Zugehörigkeit, Nationalität, Geschlecht, soziale Herkunft oder sexuelle Orientierung.
- Vielseitige Ausdrucksformen: Hate Speech kann in Texten, Bildern, Karikaturen, Memes oder Symbolen geäußert werden und tritt sowohl online als auch offline auf.
Hate Speech verunsichert demokratische Akteur*innen und von Ausgrenzung betroffene Gruppen und zerstört so die demokratische, pluralistische Meinungsbildung. Sie fördert ein Klima, in dem rechtsextreme Ideologien gedeihen können und wird daher auch aktiv von Rechtsextremen genutzt (RECO_DAR 2024). 2024 wurden 4.760 Hassposting-Straftaten durch Rechtsextreme erfasst (PMK 2025) – die Dunkelziffer dürfte jedoch deutlich höher liegen. Für die direkt Betroffenen bedeutet Hate Speech weit mehr als eine einmalige Belastung: Sie erleben häufig nachhaltige Einschränkungen ihrer Lebensqualität, etwa durch Angst, Stress, Schlafstörungen oder körperliche Beschwerden. Darüber hinaus kann Hate Speech ihr Sicherheitsgefühl, ihre Teilhabe am öffentlichen Diskurs und ihr Vertrauen in gesellschaftliche Institutionen beeinträchtigen. Es ist also wichtig, aktiv zu werden und auf Hate Speech zu reagieren.
Welche Strategien gibt es, um auf Hate Speech online zu reagieren?
Jede Strategie bringt unterschiedliche Vor- und Nachteile mit sich. Um hier abzuwägen, ist ein Blick auf die konkrete Situation wichtig:
- Wer ist von Hate Speech betroffen und wie kann Unterstützung aussehen?
- Wer hat Hate Speech gepostet?
- Was löst die getätigte Hate Speech in einem selbst aus und welche Folgen hat die weitere Auseinandersetzung mit den Inhalten für das eigene Wohlbefinden insbesondere, wenn man selbst direkt angegriffen wurde?
- In welchem Kontext, auf welcher Plattform und auf welcher Öffentlichkeitsebene (Chatgruppe, öffentliche Kommentarspalte oder per Direktnachricht) bzw. mit wie vielen (stillen) Mitlesenden wurde Hate Speech geteilt?
- Was ist mir in dem konkreten Fall wichtig? Geht es bspw. um ein Thema, bei dem man sich gut auskennt und es wichtig findet, Fakten für alle Mitlesenden zu benennen oder ist es angesichts des Kontexts zentral, einer betroffenen Person Unterstützung anzubieten?
Abhängig von der Beantwortung dieser Fragen muss eine Abwägung getroffen werden, welche Strategie bzw. Botschaft aus der eigenen Position heraus in der konkreten Situation sinnvoll ist.
Durch Gegenrede in Form eines Kommentars, der kurz zentrale Positionen benennt und Grenzen deutlich macht, kann man sich positionieren und mit Betroffenen solidarisieren. Dabei ist es meist schwer, mit einem solchen Kommentar die Person, die Hate Speech äußert, zu einer Meinungsänderung zu bewegen – besonders, wenn man dabei nicht auf eine bereits bestehende soziale Beziehung aufbauen kann. Besteht jedoch ein freundschaftliches Verhältnis o. ä., sollte man die Person zu einem Dialog einladen und in den Austausch gehen. Auch sonst kann Gegenrede online sinnvoll und sehr wichtig sein: Gerade wenn Betroffene oder Mitlesende in einem Gruppenchat oder einer Kommentarspalte sind, können diese durch eine solche Positionierung gestärkt bzw. mit Quellen oder neuen Informationen zum Nachdenken angeregt oder ermutigt werden, sich zu äußern.
Auch ein humorvoller Kommentar oder ein witziges Meme können sinnvoll sein, um Eskalationsdynamiken zu entschärfen und die abwertenden Inhalte nicht so nah an sich und andere herankommen zu lassen. Dabei kommt es jedoch darauf an, den passenden Ton zu treffen. Manchmal eignet sich auch das Teilen einer persönlichen Erfahrung, die eine andere Geschichte oder Perspektive aufzeigt. Beim Kommentieren kann es aber zu Gegenreaktionen kommen und auch zu Hass gegen den eigenen Account. Wichtig ist hier, auf den eigenen Schutz zu achten und im öffentlich einsehbaren Profilbereich möglichst keine privaten Informationen zu teilen. Zudem sollte man sich nicht auf endlose Diskussionen einlassen.
Ein Ansatz, um zu verhindern, dass weiterhin Inhalte eines problematischen Accounts im eigenen Feed angezeigt werden, ist das Blockieren. Jedoch hat diese Strategien keine weiteren Konsequenzen für den*die Inhaber*in des Accounts. Bei öffentlichen Posts sind diese für alle anderen Betroffenen und Mitlesenden weiterhin sichtbar.
Bei klar identifizierbarer Hate Speech ist es oft sinnvoll, den Inhalt oder den Account auf der Plattform zu melden. Das ist auf den meisten Plattformen relativ einfach möglich – meist befindet sich neben den Optionen „Teilen“ oder „Kommentieren“ auch eine Möglichkeit zum Melden, manchmal versteckt hinter einem Menü (häufig angezeigt in Form von drei Punkten oder Strichen). Nach einer Prüfung durch die Plattform sollte der Inhalt gelöscht bzw. der Account gesperrt werden – wie gut dies im Einzelfall funktioniert, ist von Plattform zu Plattform unterschiedlich. Das Gesetz über digitale Dienste (auf EU-Ebene: Digital Services Act) verpflichtet die Plattformen, solchen Meldungen nachzugehen und Hass-Inhalte zu dokumentieren.
Zudem wurden im Rahmen dieser Vorgaben sogenannte „Trusted Flagger“ („vertrauenswürdige Hinweisgeber*innen“) eingeführt. Die so ausgezeichneten unabhängigen Organisationen arbeiten seit Jahren zu Hass im Internet und können daher abschätzen, welche Inhalte gegen Gesetze und Plattformvorgaben verstoßen. Daher werden deren Meldungen auf Plattformen prioritär bearbeitet. Trusted Flagger, wie die Meldestelle REspect!, lassen sich einfach über deren Meldeformular kontaktieren. Auch Violence Prevention Network kann im Rahmen seiner Social Media-Monitorings Beiträge auf Tiktok und Google flaggen. Das Löschen hat den Vorteil, dass danach keine weiteren Mitlesenden durch die Inhalte belastet werden. Vor der Meldung sollte der Inhalt am besten mit einem Screenshot und einer kurzen Notiz zum konkreten Account, der Hate Speech gepostet hat, dokumentiert werden.
Alternativ kann in vielen Fällen, bspw. bei Beleidigung (§185), Volksverhetzung (§ 130 StGB) oder ähnlichen Straftatbeständen (eine Übersicht findet sich bspw. im Helpdesk der Neuen deutschen Medienmacher*innen), auch eine Anzeige gestellt werden. Dieser Ansatz ist zentral für die Sichtbarmachung des Themas im öffentlichen Diskurs und in staatlichen Institutionen. Auch wenn es in der Vergangenheit oft zur Einstellung der Verfahrenen kam, zeigen aktuelle Entwicklungen, dass die Behörden hier zunehmend aktiv werden und Beleidigungen, Volksverhetzungen etc. online auch zu einer Verurteilung führen können.
So wurden in den vergangenen Jahren beispielsweise erste, auf die Verfolgung von Hate Speech im digitalen Raum fokussierte Stellen in den Strafverfolgungsbehörden geschaffen. Notwendig sind Screenshots der Hate Speech und des Kontexts (vorherige Kommentare/Diskussion), das Datum, der Link zur Diskussion/zum Post, der Hate Speech enthält, und der Link zum Userprofil des*der Täter*in, um die Anzeige zu stellen. Dabei sollten Hinweise auf die eigene Person in den Screenshots zum Selbstschutz möglichst unkenntlich gemacht werden. Der Post sollte möglichst erst nach einer Beweisaufnahme durch die Polizei bei der Plattform gemeldet und dort gelöscht werden, das ist jedoch nicht zwingend notwendig.
Die eigene Resilienz und die der Community stärken
Statt den Fokus direkt auf die Hate Speech und den*die Äußernde*n zu lenken, kann es häufig wichtiger sein, den Schwerpunkt der eigenen Reaktion auf die Unterstützung von betroffenen Personen zu legen oder empowernde Kommentare in der Community zu formulieren und so die anderen Personen, die sich bereits positioniert haben, zu stärken und eine solidarische Community zu etablieren.
Beim Einsatz all dieser Strategien und dem Engagement gegen Hate Speech ist es wichtig, auf die eigenen Ressourcen zu achten und die eigene Resilienz zu stärken, um langfristig gegen Hate Speech aktiv bleiben zu können. Die eigene Resilienz kann beispielsweise gefördert werden, indem man für sich eigene Grenzen in der Mediennutzung oder im Umfang, in dem man sich mit konkreten Hate Speech-Aussagen befasst, setzt sowie durch ein gutes soziales Netz an Vertrauten, regelmäßige Entspannungsübungen oder Sport.
Ein Überblick zu Hate Speech, dessen Funktion in rechtsextremen Kommunikationsstrategien und weitere Möglichkeiten zur Intervention sowie zur Förderung der Resilienz finden sich in den Angeboten des Projekts „GaReX | Hate Speech resilient begegnen“. Dort findet sich auch der Link zu unserem E-Learning-Kurs. Der rund 30-minütige Online-Kurs richtet sich speziell an Ehrenamtliche. Die 3 Module vermitteln ehrenamtlich Engagierten Kenntnisse darüber, wie sie Hate Speech im digitalen Raum erkennen und begegnen können. Es werden Mechanismen von Rechtsextremist*innen identifiziert, die zur Verbreitung von Falschnachrichten und Verschwörungserzählungen im digitalen Raum beitragen. Zudem vermittelt der Kurs Strategien der Resilienzförderung für den eigenen Schutz sowie für den Schutz anderer.