5 Digitale Dimension
Mit der Digitalisierung unseres Lebens und den Veränderungen im Bereich Gesellschaft, Gemeinschaft und Kommunikation ändern sich auch die Formen der Diskriminierung. Obwohl in der Kürze dieser Handreichung diese digitale Dimension nicht in ihrer Gesamtheit zu erfassen ist, möchten wir sie nicht unerwähnt lassen und gleichzeitig folgendes problematisches Phänomen im digitalen Raum fokussieren: Hate-Speech.
Hass im Netz
Beispiele für Hate-Speech sind Sexismus und Antifeminismus, antimuslimischer Rassismus, Antisemitismus, Antiziganismus, Neonazismus, Klassismus sowie Homo- und Transphobie (vgl. No-Hate-Speech.de, 2019). Und so wird schnell klar: Hassreden treffen nicht alle gleichermaßen! Vor allem LSBTIQ* (Lesben, Schwule, Bi-, Trans*-, Inter* und Queere) sind von Hasskommentaren betroffen. Gleich danach Muslim*innen und Frauen* sowie Minderheiten (z.B. Sinti*zze und Rom*nja). Außerdem treffen Hassreden auch jene, die sich mit anderen Menschen solidarisieren – das Wort ergreifen, Stellung beziehen (vgl. Council of Europe, 2011). Durch die Digitalisierung ist die Hemmschwelle für Hasssprache und das Hetzen gegen Individuen und ganze Bevölkerungsgruppen sehr viel niedriger geworden. Denn die Hetze passiert oft anonym (mit fake Accounts/Zugänge unter anderem Namen oder Alias) sowie zeit- und ortsungebunden. Personen sowie Verbände müssen „nicht ihr Gesicht dafür herhalten” und können damit auch die Verantwortung für folgende Umsetzungen von körperlichen Gewalttaten, Vergewaltigung bis hin zu Morden von sich weisen.
Diese gruppenbezogene Menschenfeindlichkeit (vgl. Groß, E.; Zick, A.; Krause, D. 2012) widerspricht der demokratischen Wertvorstellung von Gleichwertigkeit und den universellen Menschenrechten und sie ist möglicherweise ein Hinweis, dass sich Macht- und Diskriminierungsstrukturen der Gesellschaft im Netz fortschreiben.
Gefährlicher Mix aus Mensch und Maschine
Durch Technologie (Stichwort: Algorithmen) entstehen im Internet (v.a. in Sozialen Medien) sog. Echokammern; also digitale Räume, in denen sich Menschen mit gleich- oder ähnlich denkenden umgeben und Informationen von Quellen beziehen, die eher ihrem Weltbild entsprechen. So finden sich schneller und leichter orts- und zeitungebunden sowie anonym Menschen mit ähnlicher Gesinnung in diesen “Bubbles” und Andersdenkende sowie gesellschaftlicher Dialog aus unterschiedlichen Positionen werden blockiert/gelöscht etc. (vgl. Brodnig, 2016). Emotionalisierung führt leider auch dazu, dass wir Informationen nicht mehr so kritisch hinterfragen und rascher einen Kommentar teilen oder „liken“ („Angry people klick more!“) (vgl. Brodnig, 2018). Diese hohe Interaktion wiederum lieben die im Hintergrund wirkenden Algorithmen. Mit anderen Worten: Hat ein (Social Media) Beitrag viele Gefällt mir-Angaben, Kommentare oder wird oft auf der eigenen Seite geteilt, wird er umso häufiger und umso mehr Menschen bei Facebook angezeigt. Durch die Algorithmen unserer Suchen und Gefällt mir-Angaben werden Filterblasen (Bubbles) erstellt, wodurch bestimmte Informationen gar nicht mehr angezeigt werden. Sprich die für die Demokratie notwendige Meinungsvielfalt und Unabhängigkeiten von Mediendiensten sind nicht gegeben.
Fake News & Provokateur*innen als Klickmotor
Besonders problematisch ist diese Spirale dann, wenn die emotionalisierende Information von einer unseriösen Quelle bzw. gar eine Fake News ist, also völlig frei erfunden. In Zeiten, wo postfaktisch zum internationalen Wort des Jahres 2016 gekürt wurde und der populärste Post im letzten US-Wahlkampf eine völlig erfundene Falschmeldung war, erhält dieses Thema eine neue Bedeutung.
Falschmeldungen polarisieren, spalten und sie instrumentalisieren oft Ängste von Menschen und Feindbildkonstruktionen. Sie liefern oft Schuldige und einfache Antworten. Dadurch wecken bzw. verstärken sie eine Ablehnung gegenüber denen, die als „anders” und „schuldig”, als „Täter”, „Sozialschmarotzer”, „Terroristen” oder „Perverse” konstruiert werden (vgl. Brodnig, 2016). Im schlimmsten Fall kann diese Ablehnung in Gewalt münden – in jedem Fall stört sie den sozialen Frieden.
Schließlich wirkt auf uns noch ein weiterer Effekt: der sog. Wahrheitseffekt (illusory truth effect). Dieser besagt, dass eine Information glaubwürdiger wird, je öfter sie wiederholt wird. Wiederholung einer Falschmeldung führt demnach sehr leicht zur Irreführung. Wenn Menschen also in ihren durch Algorithmen entstandenen Echoräumen eine Behauptung dauernd lesen bzw. von verschiedenen Stellen die gleiche (Falsch)Meldung immer wieder erhalten, dann ist diese Information auch plausibel. Sie schenken ihr mehr Glauben und beeinflussen insgesamt, wie diese Person die Welt wahrnimmt. Dieser Effekt wird weiter verstärkt, wenn zum Text ein Bild oder eine Grafik hinzugefügt wurde, auch dann, wenn diese frei erfunden oder dekontextualisiert wurden (vgl. Brodnig, 2016).
Gegenstrategien und -bewegungen: Medienkompetenz
In der Einleitung genannten Kompetenzebenen einer diversitätsbewussten Pädagogik werden an dieser Stelle um die Medienkompetenz ergänzt. Dabei geht es nicht nur um Quellenkritik, sondern auch um technische Kompetenzen (z.B. verstehen, wie Algorithmen Nachrichtenkonsum beeinflussen und lenken!). Es geht darum, Fake News von richtigen Informationen zu unterscheiden, sodass diese zur Handlungsgrundlage verwendet werden kann.
Außerdem muss der Informationssuche über wenige Seiten kräftig entgegengewirkt werden. Eine Möglichkeit wäre, bewusst Quellen heranzuziehen, die Schüler*innen eher nicht kennen oder als Informationsquelle benutzen würden. Auch das Recherchieren von Beispielen auf Fakten-Checker-Seiten (z.B. Mimikama.at) schafft Bewusstsein und Wissen, ebenso wie das gemeinsame Bearbeiten von „echtem“ Zahlenmaterial mit Grafiken und Statistiken. Aktiv werden ist immer gern gesehen, vielleicht als Teil einer großen No-Hate-Speech-Bewegung? Informationsmaterialien finden sich online leicht.
Die Dimension der Digitalisierung zeigt sich bei Geschlecht und geschlechtlicher und sexueller Vielfalt auf unterschiedlichen Ebenen. Während technische und computerbasierte Berufe Frauen* lange vorenthalten wurden, und Mädchen* und Frauen* in naturwissenschaftlichen und technischen Berufen oft diskriminiert und wenig gefördert wurden, da diese als Männerdomänen gelten, kann in den letzten Jahren und insbesondere bei der Generation der digital natives eine Veränderung in Bezug auf Technik und Geschlecht verzeichnet werden. Durch girlsdays an Schulen und Hochschulen (Programme zur Förderung von Frauen* und Mädchen* in den Naturwissenschaften) sowie die Digitalisierung an Schulen und insbesondere dem tagtäglichen Einsatz und die Nutzung von Tablets und Smartphones, teilweise ab Klein- oder Schulkindalter, hat sich auch der geschlechtsspezifische Zugang zu technischen Geräten partiell verändert. Dadurch besitzen auch viele Mädchen* und junge Frauen* sehr gute Kompetenzen im Umgang mit Technik, Computern und der digitalen Welt, da mehr alltäglicher Umgang und praktisch-spielerisch erlerntes Wissen dazu vorhanden sind.
Auf der anderen Seite gibt es im digitalen Zeitalter mehr online verbreitete Formen von sexistischer und sexualisierter Gewalt, die sich in Online-Stalking, Online-Slutshaming, sexistischen Beleidigungen bis hin zu Vergewaltigungsdrohungen in Chats, Facebook-Kommentaren oder E-Mails zeigen. Gleichzeitig gibt es auch mehr online-Aktivismus zur Thematisierung und Denunziation von Sexismus, sexualisierter Gewalt, Übergriffen und Vergewaltigungen, wie z.B. die internationale #Me-Too-Kampagne zeigt.
Im digitalen Zeitalter findet auch vermehrt eine Thematisierung von LSBTIQ*- Lebensweisen auf sozialen Medien statt, z.B. in Online-Dating-Plattformen wie okcupid, in Facebookgruppen sowie YouTube-Videos, die zu sexueller und geschlechtlicher Vielfalt aufklären. Das Finden von Gleichgesinnten und Gemeinschaften ist durch die Digitalisierung insbesondere für LSBTIQ*-Jugendliche aus ländlichen Regionen, die sich oft isoliert und alleine fühlten, leichter. Auch beschaffen sich so viele LSBTIQ*-Jugendliche Informationen über Gruppen-, Freizeit- und Hilfsangebote.
Auf der anderen Seite mobilisiert auch zunehmend die politische Rechte in Europa online sowohl gegen Personen, die als ‚anders‘, ‘fremd’, ‘krank’, ‘gefährlich’, ‘pervers’ oder ‘kriminell’ gelabelt werden. Dazu zählen gegenwärtig in Europa sowohl Menschen, die von strukturellem Rassismus oder Islamophobie betroffen sind als auch LSBTIQ*-Menschen.