Fachtagung 2016

Am 20.9.2016 hat das Netzwerk Bewegtbildung.net die erste Fachtagung zu Webvideo, Medienarbeit und politischer Bildung im Social Web in Berlin veranstaltet.

Als Bewegtbildner*innen aus verschiedenen Arbeitsfeldern wollten wir auf der Fachtagung über Rahmenbedingungen, Methoden und Zielsetzungen der Bildungsarbeit im Netz nachdenken und das Entstehen von interdisziplinären Bildungsprojekte weiter fördern. Das Netzwerk präsentierte auf der Konferenz erste Ergebnisse seiner Arbeit und lud die Veranstaltungsteilnehmer*innen zum fachlichen Austausch über politische Bildung mit Webvideos ein. Die Fachtagung stellte aktuelle Projekte und Entwicklungen vor, ermöglichte eine bundesweite Vernetzung der Teilnehmer*innen und bot Bewegtbildner*innen aus allen Bereichen eine Gelegenheit zur kreativen Projektentwicklung.

HIER KOMMEN DIE KEYNOTES, PODIUMSDISKUSSIONEN USW. HIN

Webvideos von YouTuber*innen und Medienkritikfähigkeit von Jugendlichen

 Fachtagung Bewegtbildung am 25.9.2018

Podiumsdiskussion mit Lea Braun, Prof. Dr. Kai-Uwe Hugger, Christian Noll

Vor dem Hintergrund ihres Forschungsprojekts „YouTuber-Videos, Peers und politische Orientierung von Jugendlichen“ berichten die Wissenschaftler*innen darüber, auf welche Weise Webvideos von informationsorientierten YouTuber*innen bedeutsam für Jugendliche sind, sich über Politik zu informieren. Im Mittelpunkt des Vortrags stehen vor allem die kritischen Äußerungen und die Medienkritikfähigkeit von Jugendlichen gegenüber informationsorientierten YouTuber*innen.

Wie gelingt politische Bildung mit Webvideo?

Fachtagung Bewegtbildung am 20.9.2016

Podiumsdiskussion mit Anna Mauersberger, Franzi Kempis, Dr. Helle Becker, Rayk Anders

Die Podiumsdiskussion geht der Frage nach, was gute Webvideos im Kontext politischer Bildung ausmacht. Was ist das spezielle an Youtube-Videos im Vergleich zu anderen Lernmedien und wie können diese über frontale Formate hinaus wirken? Und welche Rolle spielt die Interaktion dabei? Welche Herausforderungen ergeben sich z.B. durch Hatespeech? Wie kann man Menschen ermutigen, ihre eigenen Positionen zu hinterfragen?

Politische Bildung und Webvideo – aktuelle Entwicklungen in einem Feld ständiger Wandlung

Fachtagung Bewegtbildung am 20.9.2016

Keynote von Anselm Sellen

“Bildung und Bewegung? Eine Fragerunde” – es stand anders im Programm.” So leitet Anselm Sellen seine Keynote ein. Er verdeutlicht die Bedeutung des Fragenstellens und ermutigt dazu, mehr das Fragen als die Antworten zu fokussieren und nicht nur den Gegenstand und sich selbst, sondern auch die Gesellschaft zu hinterfragen. Das formale Bildungssystem sei zu sehr darauf ausgelegt, Antworten zu geben bzw. diese zu verlangen. Politische Bildung solle aber eher ermutigen, Fragen zu stellen. Sellen verdeutlicht in seiner Keynote die Kraft von Webvideo und Bewegtbildung, die Menschen ermöglichen eine andere Sprache zu sprechen und auf eine andere Reflexionsebene über politische Bildung zu kommen.

Plattformbedingungen für politische Bildung

Plattformen werden entweder als technische Infrastrukturen, oder als Unternehmen wahrgenommen. Das ist zwar beides nicht falsch, aber eine oberflächliche Betrachtung. In meinem Vortrag möchte ich zeigen, dass Plattformen mehr sind. Es sind politische Akteure und Institutionen und es sind eigene Wirschaftssysteme. Kurz: Es sind politische Ökonomien.“ Michael Seemann

Das 14. Netzwerktreffen steht unter dem Schwerpunktthema Plattformen. Hier gehen wir der Frage nach, welche Rahmenbedingungen für politische Bildung mit Webvideo bereits durch die Plattformwahl vorgegeben werden.

Den Input von Michael Seemann und Theresa Hein findet ihr hier:

Handlungsorientierte Förderung von Medienkompetenz im Umgang mit Propaganda der Gegenwart – deutsch-amerikanische Dialoge in einer digitalen Lernumgebung

Christian Seyferth-Zapf, Maria Seyferth-Zapf und Silke Grafe

Digitale Medien sind ein selbstverständlicher Bestandteil der Lebenswelt von Kindern, Jugendlichen und Erwachsenen. Vor allem die sozialen Netzwerke der Anbieter YouTube, Facebook, Snapchat und Instagram gehören zu den beliebtesten Onlineplattformen unter Jugendlichen, wobei YouTube mit seinem Fokus auf Bewegtbildinhalte am häufigsten konsumiert wird (vgl. z. B. mpfs 2017, S. 34).

Mit der Nutzung digitaler Medien sind verschiedene Chancen und mögliche Problemlagen verbunden. Durch eine Fülle von interessanten Inhalten eröffnen die digitalen Medien vielfältige Chancen für neue Formen des Lernens und präsentieren unterschiedliche Denkanstöße und Perspektiven zu wichtigen Fragen von Politik und Gesellschaft (Tulodziecki, Herzig u. Grafe 2018). Jedoch bieten soziale Medien auch Propagandistinnen und Propagandisten die Möglichkeit, extremistische Inhalte auf globaler Ebene zu verbreiten (vgl. Jugendschutz.net 2018a, b). In den letzten Jahren sind durch Social Bots und Fake News neue Propagandaformate und ‑mechanismen im Kontext sozialer Medien entstanden, deren Einfluss auf Politik und Demokratie kontrovers diskutiert wird (vgl. z. B. LfM 2017, Allcott u. Gentzkow 2017).

Vor diesem Hintergrund stellt die pädagogische Auseinandersetzung mit audiovisueller Propaganda angesichts der Bedeutsamkeit von sozialen Netzwerken für die Lebenswelt von Jugendlichen eine wichtige Aufgabe für die politische Bildung und die Medienpädagogik dar. Vertreterinnen und Vertreter der Kultusministerkonferenz fordern zum einen eine Stärkung der schulischen Demokratieerziehung, um eine fundierte Auseinandersetzung mit medial vermitteltem Extremismus zu fördern (vgl. KMK 2009, S. 4). Zum anderen ist es Ziel, die Medienbildung bzw. digitale Bildung als Pflichtaufgabe von Schule zu verankern, um „Kompetenzen für die digitale Welt“ (KMK 2016, S. 14) zu fördern (vgl. KMK 2012, S. 3). Dass vor allem Letztere bislang noch nicht hinreichend vorhanden sind, zeigen Ergebnisse der internationalen Vergleichsstudie zu computer- und informationsbezogenen Kompetenzen (ICILS), wonach lediglich 1,5 % der Schülerinnen und Schüler der achten Jahrgangsstufe die höchste Stufe V erreichen, die das sichere Bewerten und Organisieren selbstständig ermittelter Informationen umfasst (vgl. Eickelmann et al. 2014, S. 15). Entsprechende Kompetenzen sind auch im Kontext einer politischen Bildung bedeutsam, wenn es darum geht, „Quellen schnell und sicher zu bewerten sowie neue Themen und Probleme zu identifizieren und auf Politik und Gesellschaft beziehen zu können“ (Besand 2014, S. 373).

Medienkompetenz als Voraussetzung und Ziel medienbezogener Fähigkeiten und Fertigkeiten im Kontext von Propaganda

Konzeptionelle Sichtweisen und Ansätze zu medienbezogenen Erziehungs- und Bildungsaufgaben weisen auch verschiedene Bezüge zu Zielen politischer Bildung und Möglichkeiten zur kritischen Auseinandersetzung mit Propaganda auf. Beispielsweise sind im Rahmen einer funktional-systemorientierten Sichtweise die Befähigung zur reflektierten Nutzung von Medien für Information und Bildung als Teil einer Erziehung zu mündigen Rezipientinnen und Rezipienten sowie die Förderung von Wirtschaft, Kultur und Demokratie für eine verantwortungsbewusste Mediennutzung grundlegende Intentionen. Eine kritisch-materialistische Sichtweise verweist auf die Befähigung zur ideologiekritischen Analyse von Medien als Gesellschaftskritik und die Herstellung von Gegenöffentlichkeit durch die eigene Produktion von Medien und deren Verbreitung als grundlegende Intentionen (vgl. Tulodziecki, Herzig u. Grafe 2018). Im Rahmen einer handlungs- und kompetenzorientierten Sichtweise können die Ermöglichung einer selbstbestimmten Rezeption und Produktion von Medien im Sinne eines sozialen Handelns in lebensweltlichen Zusammenhängen und das Entwickeln von kommunikativer Kompetenz und ihre Ausprägung als Medienkompetenz in einer durch Medien mitbestimmten Gesellschaft als grundlegende Intentionen beschrieben werden. Entsprechend sind für eine kritische Auseinandersetzung mit digitaler Propaganda aus dieser Perspektive Kompetenzen bedeutsam, die dazu befähigen sollen, „in Medienzusammenhängen sachgerecht, selbstbestimmt, kreativ und sozial verantwortlich handeln zu können“ (Tulodziecki 1998, S. 700). Medienkompetenz wird als „powerful antidote to propaganda“ [1] (Hobbs u. McGee 2014, S. 59) verstanden. Eine rezeptive, interaktive oder produktive Nutzung von Medien bezieht sich auf unterschiedliche Nutzungsbereiche, wie Information und Lernen, Analyse und Simulation, Unterhaltung und Spiel, Dienstleistungen sowie Steuerung und Kontrolle. Beispielsweise steht im letztgenannten Bereich die Intention im Vordergrund, bestimmte Prozesse mit computerbasierten Möglichkeiten zu steuern, zu kontrollieren und gegebenenfalls zu optimieren. Maßnahmen reichen dabei von selbst gewählten Möglichkeiten der Steuerung des eigenen Verhaltens über einfache oder subtilere Formen der Werbung bis zu zielgerichteter Propaganda und Manipulation (vgl. Tulodziecki, Herzig u. Grafe 2018). Vor diesem Hintergrund ist eine Auseinandersetzung mit folgenden Inhaltsbereichen bedeutsam (ebd.):

  • Medienlandschaft und ihre digitale Infrastruktur: Hier geht es um Medienarten, Fragen der Angebotsstruktur und Medienkonvergenz sowie Zugangsmöglichkeiten zum Medienangebot.
  • Gestaltungsmerkmale und Erzeugung medialer Botschaften: In diesem Bereich spielt z. B. die Auseinandersetzung mit Darstellungsformen, Gestaltungstechniken, Gestaltungsformen, Ablauf- und Interaktionsformen sowie Medien- und Gestaltungsarten eine Rolle.
  • Medieneinflüsse auf Individuum und Gesellschaft: Hier steht die Frage im Vordergrund, welche Einflüsse von der Mediennutzung auf Emotionen, Vorstellungen, Verhaltens- und Wertorientierungen und soziale Zusammenhänge ausgehen können bzw. ausgehen.
  • Bedingungen der Medienproduktion und Medienverbreitung: Dieser Bereich bezieht sich auf technische, rechtliche, ökonomische, personale, institutionelle, politische und weitere gesellschaftlich-kulturelle Voraussetzungen und Rahmungen der Produktion und Verbreitung medialer Beiträge.

Die Entwicklung des Internets und der uneingeschränkte Zugang zu digitalen Kommunikationsplattformen ermöglichen es jeder Nutzerin und jedem Nutzer, Nachrichten, Inhalte und Bilder für unterschiedliche Zwecke zu manipulieren und global zu verbreiten. Dementsprechend ist es aus medienpädagogischer Perspektive wenig zielführend, sich auf einen zu eng gefassten Propagandabegriff zu stützen, der das Vorhandensein von „totalitären Strukturen der Informationskontrolle und der Unterdrückung der öffentlichen Meinung“ (Bussemer 2008, S. 32) voraussetzt. Vielmehr bietet es sich angesichts der rasanten informationstechnologischen Entwicklung an, von einer ubiquitären Propagandapräsenz quer durch alle Gesellschaftsformationen auszugehen (vgl. ebd.). Demnach sollte Propaganda in einem weit gefassten Begriffsverständnis als „communication of ideas designed to persuade people to think and behave in a desired way … [by] persuading people to do things which benefit those doing the persuading, either directly or indirectly” [2] (Taylor 2003, S. 6) aufgefasst werden. Dieses wertfreie Verständnis ermöglicht es, den Propagandabegriff von seiner einseitig historisch bedingten negativen Konnotation zu befreien, und lässt gleichsam den Schluss zu, dass Propaganda – in Abhängigkeit vom individuellen Standpunkt – auch für positive Zwecke eingesetzt werden kann (vgl. Hobbs 2017, S. 200). Durch diese konzeptionelle Öffnung erlangt der Propagandabegriff als Inhaltsbereich besondere Bedeutung für die Medienbildung (vgl. z. B. Tulodziecki, Herzig u. Grafe 2018) und bleibt dennoch hinsichtlich der Einflussnahme auf Prozesse politischer Willensbildung von entscheidender Relevanz für die politische Bildung (vgl. z. B. Busch 2017, S. 59).

Dass beide Disziplinen auch konstruktiv miteinander verbunden werden können, belegen z. B. Daten einer empirischen Studie von Martens und Hobbs (2015), die zeigen, dass die Förderung von Medienkompetenzen entscheidend dazu beiträgt, das politische und gesellschaftliche Engagement Jugendlicher zu steigern. Wenngleich in den letzten Jahren einige Studien zur Förderung von Medienkompetenz erschienen sind (vgl. u. a. Hobbs u. Frost 2003, Scharrer 2006, Brauner 2007), blieb der Inhaltsbereich Propaganda in diesem Kontext bislang weitgehend unberücksichtigt. Mit Ausnahme des EU-Forschungsprojekts CONTRA (vgl. Ernst et al. 2016) und eines Dissertationsprojekts zur Förderung von Medienkompetenz Jugendlicher unter besonderer Berücksichtigung medialer Propaganda (vgl. Seyferth-Zapf in Vorbereitung) existieren bislang keine Studien aus dem Bereich einer gestaltungsorientierten Bildungsforschung (vgl. Tulodziecki, Grafe u. Herzig 2013), in denen die Förderung von Medienkompetenz unter inhaltlichem Rückgriff auf aktuelle propagandistische Beispiele untersucht wird.

Zum Vorgehen bei der Förderung von Medienkompetenz im Kontext von Propaganda

In einer Vielzahl von Anwendungskontexten gilt das Prinzip der Handlungsorientierung, bei dem das selbstständige Handeln des lernenden Subjekts im Mittelpunkt steht, als bedeutsame pädagogische Vorgehensweise, um Lehr-Lern-Prozesse zu gestalten. Dies trifft auch auf Ansätze der politischen Bildung (vgl. z. B. Reinhardt 2014, S. 257 ff.) und der Medienbildung (vgl. z. B. Tulodziecki, Herzig u. Grafe 2018) zu. Dabei bietet eine medienkritische Auseinandersetzung mit digitalen Medien in Bildungsprozessen die Möglichkeit, die Lebenssituation und die Bedürfnislage von Kindern und Jugendlichen anzusprechen und zu einer Erweiterung des Wissens- und Erfahrungsstandes sowie zu einer Förderung der sozial-kognitiven Entwicklung beizutragen (Tulodziecki u. Grafe 2018). Die Auseinandersetzung mit internationaler digitaler Propaganda bietet aufgrund ihrer Widersprüchlichkeit, ihrer diversen medialen Erscheinungsformen und der Ansprache von Emotionen ein besonderes Potenzial, im Rahmen erkundungs-, problem-, entscheidungs-, gestaltungs- oder beurteilungsorientierter Vorgehensweisen (vgl. Tulodziecki, Herzig u. Grafe 2018) entsprechende Lernprozesse anzuregen:

  • Ein erkundungsorientiertes Vorgehen könnte z. B. darin bestehen, wichtige Thesen und Forschungsergebnisse zum Thema Propaganda zusammenzutragen und zu dokumentieren.
  • Ein problemorientiertes Vorgehen könnte beispielsweise durch die Frage angeregt werden, mit welchen Gestaltungstechniken im Rahmen internationaler digitaler Propaganda eine Ansprache von Emotionen erfolgt.
  • Ein entscheidungsorientiertes Vorgehen ließe sich beispielsweise mithilfe eines Fallbeispiels anstoßen, in dem ein junger Mensch entscheiden muss, ob er seiner Freundin oder seinem Freund einen Gefallen tut und deren bzw. dessen selbst gestaltetes Beispiel von Propaganda mit rassistischen Anspielungen weiterleitet oder nicht.
  • Ein gestaltungsorientiertes Vorgehen könnte sich z. B. ergeben, wenn sich eine Jugendgruppe oder eine Schulklasse entschließt, eigene Gegenbeispiele zu rassistischer Propaganda zu gestalten und im Netz zu verbreiten.
  • Ein beurteilungsorientiertes Vorgehen ließe sich beispielsweise durch eine Konfrontation mit unterschiedlichen Beispielen internationaler digitaler Propaganda auf einer Videoplattform initiieren, bei der Jugendliche angeregt werden, diese Propaganda kritisch zu reflektieren und zu beurteilen.

Um dem Aspekt der internationalen Propaganda und der Bedeutsamkeit des jeweiligen Kontexts für die Analyse und Kritik von Beispielen besondere Rechnung zu tragen, bieten sich didaktische Formate an, bei denen Lernende aus unterschiedlichen Nationen mit Unterstützung digitaler Medien in Diskussion und Austausch treten. Entsprechende Vorgehensweisen haben ein hohes Potenzial, medienbezogene Kompetenzen zu fördern (vgl. Boos et al. 2016).

Gemäß dem Vorgehen einer gestaltungsorientierten Bildungsforschung (Tulodziecki, Grafe u. Herzig 2013) wurde auf der Basis der beschriebenen theoretischen und empirischen Grundlagen ein medienpädagogisches Konzept zur Förderung von Medienkompetenz unter besonderer Berücksichtigung der Diskussion internationaler Propaganda im Rahmen eines deutsch-amerikanischen Dialogs gestaltet und exemplarisch mit Lehramtsstudierenden im Rahmen der Hochschullehre umgesetzt.

Beispiel für ein Konzept zur Förderung von Medienkompetenz durch deutsch-amerikanische Dialoge in einer digitalen Lernumgebung

Das pädagogische Konzept adressiert einerseits die Nutzungsbereiche Information und Lernen, Analyse sowie Steuerung und Kontrolle, andererseits die Inhaltsbereiche Gestaltungstechniken medialer Botschaften sowie Medieneinflüsse auf Individuum und Gesellschaft unter besonderer Berücksichtigung von Emotionen und Vorstellungen, um medienbezogenes Wissen zu fördern. Es wurde in einem schulpädagogischen Seminar für Lehramtsstudierende der Julius-Maximilians-Universität Würzburg (JMU) als sechsstündige Sequenz in drei Seminarsitzungen umgesetzt. Die erste Sitzung hatte vorbereitenden Charakter, während in den weiteren beiden Sitzungen zwölf Studierende der JMU mit neun Studierenden der Kommunikationswissenschaften der Universität von Rhode Island (URI) in den USA kooperierten. Zur Umsetzung wurde eine digitale Lernumgebung konzipiert, die verschiedene Möglichkeiten für die länderübergreifende Zusammenarbeit enthielt.

In der ersten Seminarsitzung recherchierten die Studierenden der JMU im Rahmen eines erkundungsorientierten Vorgehens, auf welche Weise das Thema Propaganda in Schule und Unterricht in Deutschland und in internationalen Kontexten Eingang findet. Beispielsweise ging aus den Untersuchungen von Lehrplänen hervor, dass eine Auseinandersetzung mit dem Thema Propaganda hauptsächlich in den Fächern Deutsch und Geschichte erfolgt und dabei vor allem der nationale Kontext berücksichtigt wird. In Anbetracht der deutschen Historie zeigte sich, dass die Studierenden Propaganda vor allem mit totalitären Machtstrukturen assoziierten und damit zunächst ein eher enges Begriffsverständnis (vgl. Bussemer 2008, S. 32) sowie eine negative Konnotation des Propagandabegriffs zugrunde legten. Zur Erweiterung des Wissens- und Erfahrungsstandes mit Blick auf das Verständnis und die Wahrnehmung medialer Propaganda sollten sich die Studierenden im Rahmen der Bearbeitung eines beurteilungsorientierten Vorgehens zu Hause mit internationalen Propagandabeispielen auf der digitalen Plattform www.mindovermedia.tv  auseinandersetzen.

Abbildung 1 zeigt einen Screenshot der Seite, welche als austauschorientierte Interplattform fungiert, die es Nutzerinnen und Nutzern ermöglicht, eigene digitale Propagandabeiträge für pädagogische Zwecke zu teilen und diese hinsichtlich ihrer potenziellen Wirkung zu bewerten und zu kommentieren. Darüber hinaus liefert sie pädagogische Handreichungen für den Unterricht mit und über Propaganda, welche seit Januar 2018 in Zusammenarbeit mit der Europäischen Kommission in insgesamt elf Sprachen übersetzt wurden. Die Aufgabe der Studierenden bestand darin, begründet einzuschätzen, ob sie die dort gesammelten visuellen und audiovisuellen Materialien eher als vorteilhaft (engl. beneficial) oder als gefährdend (engl. harmful) einschätzen. Dass Propaganda im weiteren Sinn auch eine positive Seite haben kann, stellte sich für viele der Studierenden aufgrund ihres bisher engen Begriffsverständnisses von Propaganda als eine neue Erfahrung dar. Durch die Evaluation von Propaganda als „beneficial“ oder „harmful“ werden Prozesse des kritischen Reflektierens und Hinterfragens angestoßen (Hobbs 2017, S. 89) – Prozesse, die für die Medienbildung, aber auch für politische Bildung gleichermaßen von Bedeutung sind.

In der zweiten Seminarsitzung sollten die Studierenden an der JMU und der URI im Rahmen eines beurteilungsorientierten Vorgehens zwei Propagandabeispiele analysieren und beurteilen. Bei dem ersten Video handelte es sich um eine Budweiser-Werbung auf YouTube mit dem Titel „Born the Hard Way“  [3](Budweiser Canada), die während des Superbowls 2017 ausgestrahlt wurde. In dieser Werbung wird die Geschichte von Adolphus Bush erzählt, der von Deutschland in die USA emigrierte, um dort gemeinsam mit Eberhard Anheuser eine Brauerei aufzubauen. Der Clip erinnert an eine Verfilmung des amerikanischen Traums und erzeugt durch zahlreiche emotionale Momente eine Identifikation mit der Hauptfigur und dadurch auch mit der Marke Anheuser-Bush. Das zweite Video auf YouTube, „Welcome to the Islamic State of Germany“  [4] (Secure America), zeigt auf satirische Weise, wie Deutschland von als Flüchtlinge getarnten Kämpfenden des Islamischen Staats übernommen wurde. Dabei wird ein Schreckensszenario pointiert, in welchem bewusst kulturell-religiöse Vorurteile aufgegriffen werden. Zwangsehen, Kirchen, die zu Moscheen umfunktioniert werden, und ein Oktoberfest ohne Alkohol und Schweinefleisch werden als Realität verkauft, wodurch bewusst gesellschaftliche Ängste aufgegriffen und geschürt werden. Die Videos wurden in die kostenfrei nutzbare webbasierte Software VideoAnt  integriert, die die Möglichkeit bietet, Anmerkungen in Videos vorzunehmen (vgl. Abbildung 2).

Die Kursteilnehmenden der JMU und der URI konnten auf diese Weise gemeinsam asynchron Propagandabeispiele diskutieren. Mithilfe des digitalen Tools ließ sich die in den Videos angelegte lineare Ablaufstruktur unterbrechen, wodurch die Studierenden an den notwendigen Stellen direkt am Bewegtbild kritische Analysen vornehmen konnten. In der Diskussion zeigte sich, dass beide Seiten spezifisches Kontextwissen in die Diskussion einbrachten. So erkannten die US-amerikanischen Studierenden – im Unterschied zu den deutschen – beispielsweise sofort, dass die Budweiser-Superbowl-Werbung auf das durch Donald Trump verordnete Einreiseverbot von Personen aus muslimischen Ländern anspielte. Hinsichtlich des zweiten Videobeitrags verwiesen die Studierenden der JMU hingegen auf die Balkanroute, über die viele Flüchtlinge auf illegalem Weg nach Europa gelangten, und auf islamisch motivierte Attentate, die in der Vergangenheit in Deutschland und Europa verübt wurden.

In der dritten Seminarsitzung untersuchten die Studierenden im Rahmen eines beurteilungsorientierten Vorgehens Gemeinsamkeiten und Unterschiede der Interpretation aktueller Propaganda aus den USA und aus Deutschland innerhalb eines 60-minütigen Videochats mithilfe der browserbasierten Anwendung zoom.us. Das US-amerikanische Beispiel war ein Wahlwerbespot von Donald Trump während der Präsidentschaftswahlen 2016 mit dem Titel „Donald Trump’s Argument for America“  [5] (Team Trump). In diesem Video attackiert Donald Trump sehr direkt seine politischen Gegnerinnen und Gegner, wodurch eine klare Abgrenzung vom bisherigen politischen Establishment vorgenommen wird. Gleichzeitig erfolgt eine Identifikation mit den Werten des „einfachen Volkes“, sodass eine „Wir gegen die anderen“-Mentalität erkennbar wird. Bei dem zweiten Video handelte es sich um einen Wahlwerbespot der AfD zur Bundestagswahl 2017  [6] (AfD Kompakt TV), in dem ihre Parteichefs porträtiert sowie die politischen Ziele dargelegt wurden. Ähnlich wie das US-amerikanische Beispiel arbeitet auch der AfD-Spot mit einer kontrastierenden Darstellung von Inhalten, gekennzeichnet durch eine klare Abgrenzung zur Politik der Bundeskanzlerin auf der einen und einer überhöhten Darstellung der eigenen Gemeinschaft – den „Mutbürgern“ – auf der anderen Seite. Die Einbindung beider Clips in die Videochatplattform zoom.us ermöglichte es, die geplante Gruppenarbeit besser zu organisieren und zu administrieren. Zunächst erfolgte die Präsentation der Beispielclips als gemeinsame Diskussionsgrundlage im Videochat, an dem das gesamte Plenum teilnahm. Daraufhin wurden Kleingruppen – jeweils zusammengesetzt aus US-amerikanischen und deutschen Studierenden – gebildet, die dann innerhalb ihres eigenen Chatrooms die Clips interpretierten und darüber diskutierten. Erste Ergebnisse wurden dann in einem Padlet – einer Art digitaler Pinnwand – festgehalten und anschließend im Plenum vorgestellt und erneut diskutiert. Die Ergebnissicherung zeigte, dass die Kleingruppen viele inhaltliche Gemeinsamkeiten zwischen den Videobeiträgen wahrnahmen. Jedoch wurde im Verlauf des Videochats deutlich, dass ein Ungleichgewicht an Informationen zwischen den deutschen und den US-amerikanischen Studierenden herrschte, da die amerikanische Politik in deutschen Medien und in der Gesellschaft mehr Präsenz hat als umgekehrt. Diese Unterschiede konnten gewinnbringend als pädagogisches Moment für vertiefte Diskussionen genutzt werden.

Zur Zielerreichung des Konzepts

Die hier dargestellten Ergebnisse konzentrieren sich auf Lehramtsstudierende der JMU, da eine Erhebung von Daten der US-amerikanischen Studierenden nicht möglich war. Die deutschen Lehramtsstudierenden (n = 12) waren zwischen 19 und 45 Jahre alt (Geschlechterverhältnis: 50 % männlich, 50 % weiblich). Unmittelbar nach Abschluss des Projekts wurden sie aufgefordert, die absolvierten Seminareinheiten hinsichtlich der inhaltlichen Auseinandersetzung mit digitaler Propaganda im Netz und der Konsequenzen für ihr zukünftiges Handeln als Lehrperson zu reflektieren. Die erhobenen Daten wurden deduktiv auf der Basis der Inhaltsbereiche von Medienkompetenz nach Tulodziecki, Herzig u. Grafe (2018) inhaltsanalytisch nach Mayring (2015) ausgewertet.

Die Ergebnisse zeigen hinsichtlich des Inhaltsbereichs Gestaltungsmerkmale und Erzeugung medialer Botschaften, dass die Studierenden die Bedeutsamkeit medialer Gestaltungsmittel für Manipulationsversuche erkennen. Die Studierenden beschreiben, dass Propaganda in erster Linie deshalb wirksam ist, weil sie durch Gestaltungstechniken Emotionen hervorruft. Ein/-e Teilnehmer/-in erläuterte in diesem Zusammenhang, „dass viele Dinge, die als Ironie und Satire aufgefasst werden, bei manchen Menschen ganz andere Emotionen und eventuell auch Aktionen auslösen.“

Bezüglich des Inhaltsbereichs Medieneinflüsse auf Individuum und Gesellschaft zeigte sich, dass einigen Studierenden durch den internationalen Perspektivwechsel klar wurde, dass je nach persönlichem soziokulturellen Kontext Propaganda interindividuell ganz unterschiedliche Gefühle und Assoziationen auslösen kann. Neben den Auswirkungen von Propaganda auf Emotionen wurde auch beschrieben, dass propagandistische Inhalte Wahrheits- und Realitätsvorstellungen beeinflussen: „Durch den Videochat ist klar geworden, dass vieles, was im Internet steht und hochgeladen wird, nicht unbedingt der Wahrheit entspricht. Auch wenn es erst so scheint, als hätte man den Hintergrund eines Videos verstanden, so kann es jedoch auch oft sein, wie in dem Video ‚Welcome to the Islamic State of Germany ‘ [7], dass man neue Erkenntnisse erhält, […] die auch gegebenenfalls von dem ursprünglichen Wissensstand abweichen können.“ Dementsprechend hoch bewerteten die Studierenden die Möglichkeit, durch den internationalen Austausch fehlerhafte medial bedingte Wahrheitsdarstellungen berichtigen zu können.

Überdies ging aus den Reflexionsbögen hervor, dass die Studierenden Propaganda generell als ein wichtiges Thema für schulische und medienpädagogische Kontexte einschätzten. Hinsichtlich der Nutzung digitaler Lernumgebungen sahen sie beispielsweise die Plattform Padlet als eine bereichernde Erfahrung, von der Impulse für die eigene Unterrichtsgestaltung ausgehen können.

Diskussion und Ausblick

Die Ergebnisse der beschriebenen Studie zeigen, dass die teilnehmenden Studierenden ihren medienbezogenen Wissens- und Erfahrungsstand bezüglich audiovisueller Propaganda erweitern konnten. Aus forschungsmethodischer Perspektive ist jedoch einschränkend hervorzuheben, dass es sich um eine explorative Fallstudie mit nicht repräsentativer Stichprobe und ohne Kontrollgruppe handelt. Weiterhin kann keine Aussage über die Nachhaltigkeit des Lernerfolgs und die Handlungskompetenzen in zukünftigen medialen Zusammenhängen getroffen werden. Daher ist es wünschenswert, das Potenzial digitaler Propaganda für die Medienbildung und die politische Bildung im Kontext weiterer Studien im Rahmen einer gestaltungsorientierten Bildungsforschung in unterschiedlichen institutionellen Bildungsprozessen und auch nonformalen Kontexten zu untersuchen. Aus inhaltlicher Sicht beschränkte sich das Konzept aufgrund zeitlicher Rahmenbedingungen auf rezeptive und interaktive Nutzungsformen. Wünschenswert ist darüber hinaus eine Adressierung produktiver Kompetenzen, indem Lernende z. B. eigene mediale Angebote produzieren, um eine Gegenöffentlichkeit herzustellen. Für eine umfassende Förderung von Kompetenzen sollten in Projekten weitere Nutzungs- und Inhaltsbereiche in den Blick genommen werden, wie beispielsweise die Medienlandschaft und ihre digitale Infrastruktur sowie Bedingungen der Medienproduktion und Medienverbreitung.

Für eine umfassende Förderung von Medienkompetenz im Rahmen von politischer Bildung und Medienbildung könnte ein stärkerer interdisziplinärer Austausch helfen, Synergien zu erzeugen. Insgesamt sind die Entwicklungen im Bereich der Digitalisierung und Mediatisierung so komplex, dass auch eine Zusammenarbeit mit weiteren Disziplinen, wie z. B. der Informatik und der Medienwissenschaft, wünschenswert ist und erforderlich erscheint. Zudem muss im systemischen Sinne für die Umsetzung entsprechender Projekte in Bildungsinstitutionen eine unterstützende lernförderliche Infrastruktur geschaffen werden.

Auch spielt die Ausbildung und Weiterbildung des pädagogischen Personals hinsichtlich notwendiger medienpädagogischer Kompetenzen eine bedeutsame Rolle für die Implementierung entsprechender Bildungsprozesse mit digitalen Medien in die Praxis.

Die Ausführungen zeigen, dass für die Gestaltung von Bildungsprozessen in einer durch Mediatisierung und Digitalisierung geprägten Welt im systemischen Sinne verschiedene Handlungsfelder bearbeitet werden müssen. Hierfür sind intensive Kooperationen zwischen Schulpraxis und außerschulischer Bildung, Universitäten, Bildungspolitik und Bildungsadministration sowie Aus- und Weiterbildungsinstitutionen erforderlich.

Autor und Autorinnen

Christian Seyferth-Zapf ist Mitarbeiter und Doktorand am Lehrstuhl für Schulpädagogik der JMU Würzburg. Sein Arbeits- und Forschungsschwerpunkt ist die Förderung von Medienkompetenz von Jugendlichen im Kontext aktueller medialer Propaganda.

Maria Seyferth-Zapf ist Mitarbeiterin und Doktorandin am Lehrstuhl für Schulpädagogik der JMU Würzburg. Ihr Arbeits- und Forschungsschwerpunkt ist die Förderung interkultureller Kompetenzen von Jugendlichen durch die Verwendung digitaler Medien.

Silke Grafe ist Inhaberin des Lehrstuhls für Schulpädagogik der JMU Würzburg. Ihre Arbeits- und Forschungsschwerpunkte sind das Lehren und Lernen mit und über digitale Medien in der Schule und der Lehrerinnen- und Lehrerbildung aus pädagogischer, internationaler und interdisziplinärer Perspektive.

Quellen

  • Allcott, H., M. Gentzkow (2017): Social Media and Fake News in the 2016 Election. In: Journal of Economic Perspectives, 31(2) 2017, S. 211–236.
  • Besand, A.: Medienerziehung. In: W. Sander (Hrsg.): Handbuch politische Bildung. 4. Auflage. Schwalbach 2014, S. 366–374.
  • Boos, M., J. Tiede, S. Grafe, P. Hesse: Developing Students´ Pedagogical Media Competencies and Intercultural Competencies through a US-German Partnership. In: B. De Abreu, M. N. Yildiz (Hrsg.): Global Media Literacy in a Digital Age. Teaching Beyond Borders. New York 2016, S. 153–168.
  • Brauner, A.: Förderung von Medienkompetenz. Formative Evaluation eines medienpädagogischen Projekts. Göttingen 2007. Online verfügbar unter https://ediss.uni-goettingen.de/bitstream/handle/11858/00-1735-0000-0006-ACDB-A/brauner.pdf?sequence=1 , zuletzt geprüft am 02.08.2018.
  • Busch, A.: Informationsinflation. Herausforderungen an die politische Willensbildung in der digitalen Gesellschaft. In: H. Gapski, M. Oberle, W. Staufer (Hrsg.): Medienkompetenz. Herausforderung für Politik, politische Bildung und Medienbildung. Bonn 2017, S. 53–62. Online verfügbar unter: http://www.bpb.de/shop/buecher/schriftenreihe/250676/medienkompetenz , zuletzt geprüft am 22.11.2018.
  • Bussemer, T.: Propaganda. Konzepte und Theorien. 2. Auflage. Wiesbaden 2008.
  • Eickelmann, B., J. Gerick, W. Bos: Die Studie ICILS 2013 im Überblick. Zentrale Ergebnisse und Entwicklungsperspektiven. In: W. Bos, B. Eickelmann, J. Gerick, F. Goldhammer, H. Schaumburg, K. Schwippert et al. (Hrsg.): ICIL 2013. Computer- und informationsbezogene Kompetenzen von Schülerinnen und Schülern in der 8. Jahrgangsstufe im internationalen Vergleich. Münster 2014, S. 9–31.
  • Ernst, J., J. B. Schmitt, D. Rieger, M. Trompeta, G. Bente, P. Vorderer, H.-J. Roth: Klick, klick, Propaganda. Grundzüge eines Präventionsprogramms gegen Radikalisierung durch Internet-Propaganda an Schule im EU-Forschungsprojekt CONTRA. In: ZMI – Zentrum für Mehrsprachigkeit und Integration (Hrsg.): ZMI-Magazin. Köln 2016, S. 7–9. Online verfügbar unter: https://www.project-contra.org/Contra/DE/Publikationen/publikationen_node.html , zuletzt geprüft am 01.08.2018.
  • Hobbs, R.: Create to Learn. Introduction to Digital Literacy. Malden 2017.
  • Hobbs, R., R. Frost: Measuring the Acquisition of Media-literacy Skills. In: Reading Research Quaterly, 38(2) 2003, S. 330–355.
  • Hobbs, R. S. McGee: Teaching about Propaganda. An Examination of the Historical Roots of Media Literacy. In: Journal of Media Literacy Education, 6(2) 2014, S. 56–67.
  • Jugendschutz.net (Hrsg.): Bericht 2017. Islamismus im Netz. 2018a. Online verfügbar unter http://www.jugendschutz.net/fileadmin/download/pdf/Bericht_2017_Islamismus_im_Internet.pdf , zuletzt geprüft am 22.11.2018.
  • Jugendschutz.net (Hrsg.): Bericht 2017. Rechtsextremismus im Netz. 2018b. Online verfügbar unter http://www.jugendschutz.net/fileadmin/download/pdf/Lagebericht_2017_Rechtsextremismus_im_Netz.pdf , zuletzt geprüft am 22.11.2018.
  • Kultusministerkonferenz (KMK) (Hrsg.): Stärkung der Demokratieerziehung. 2009. Online verfügbar unter https://www.kmk.org/fileadmin/Dateien/veroeffentlichungen_beschluesse/2009/2009_03_06-Staerkung_Demokratieerziehung.pdf, zuletzt geprüft am 01.08.2018.
  • Kultusministerkonferenz (KMK) (Hrsg.): Medienbildung in der Schule. 2012. Online verfügbar unter https://www.kmk.org/fileadmin/Dateien/veroeffentlichungen_beschluesse/2012/2012_03_08_Medienbildung.pdf, zuletzt geprüft am 20.07.2018.
  • Kultusministerkonferenz (KMK) (Hrsg.): Bildung in der digitalen Welt. Strategie der Kultusministerkonferenz. 2016. Online verfügbar unter https://www.kmk.org/fileadmin/Dateien/pdf/PresseUndAktuelles/2017/Strategie_neu_2017_datum_1.pdf , zuletzt geprüft am 20.07.2018.
  • Landesanstalt für Medien NRW (LfM) (Hrsg.): Ergebnisbericht zur Wahrnehmung von Fake News. 2017. Online verfügbar unter http://www.lfm-nrw.de/fileadmin/user_upload/Ergebnisbericht_Fake_News.pdf , zuletzt geprüft am 08.06.2018.
  • Martens, H., R. Hobbs: How Media Literacy Supports Civic Engagement in a Digital Age. In: Atlantic Journal for Communication, 23(2) 2015, S. 120–137.
  • Mayring, P.: Qualitative Inhaltsanalyse. Grundlagen und Techniken. Weinheim und Basel 2015.
  • Medienpädagogischer Forschungsverbund Südwest (mpfs) (Hrsg.): JIM-Studie 2017. Jugend, Information, (Multi-)Media. Basisstudie zum Medienumgang 12- bis 19-Jähriger in Deutschland. 2017. Online verfügbar unter https://www.mpfs.de/fileadmin/files/Studien/JIM/2017/JIM_2017.pdf , zuletzt geprüft am 08.06.2018.
  • Reinhardt, S.: Handlungsorientierung. In: W. Sander (Hrsg.): Handbuch politische Bildung. 4. Auflage. Schwalbach 2014, S. 275–283
  • Scharrer, E.: Measuring the Effects of a Media Literacy Program on Conflict and Violence. In: Journal of Media Literacy Education, 1(1) 2006, S. 17–27.
  • Seyferth-Zapf, C. (in Vorbereitung): Praxis- und theorieorientierte Entwicklung und Evaluation eines medienpädagogischen Konzepts für die Sekundarstufe 1 zur Förderung von Medienkompetenz unter besonderer Berücksichtigung medialer Propaganda. Dissertationsschrift, Julius-Maximilians-Universität Würzburg.
  • Tulodziecki, G.: Entwicklung von Medienkompetenz als Erziehungs- und Bildungsaufgabe. In: Pädagogische Rundschau, 52(6) 1998, S. 639–709.
  • Tulodziecki, G., S. Grafe: Medienkritik angesichts von Digitalisierung und Mediatisierung aus handlungs- und entwicklungsorientierter Perspektive. In: H. Niesyto, H. Moser (Hrsg.): Medienkritik im digitalen Zeitalter. München 2018, S. 125–137.
  • Tulodziecki, G., S. Grafe, B. Herzig: Gestaltungsorientierte Bildungsforschung. Bad Heilbrunn 2013.
  • Tulodziecki, G., B. Herzig: Handbuch Medienpädagogik. Stuttgart 2004.
  • Tulodziecki, G., B. Herzig, S. Grafe (in Druck): Medienbildung in Schule und Unterricht. 2. Auflage. Bad Heilbrunn 2018.

[1] „mächtiges Gegenmittel gegen Propaganda“ (Übersetzung durch Redaktion)

[2] „Kommunikation von Ideen, um Menschen dazu zu bringen, in einer gewünschten Weise zu denken oder sich zu verhalten …, [indem] Menschen bewegt werden, Dinge zu tun, die denjenigen helfen, die sie direkt oder indirekt dazu überreden“ (Übersetzung durch Redaktion)

[3] Siehe online: https://youtu.be/7ZmlRtpzwos  (22.02.2019)

[4] Siehe online: https://youtu.be/aDMZRiYrcuE  (22.02.2019)

[5] Siehe online: https://youtu.be/vST61W4bGm8  (22.02.2019)

[6] Siehe online: https://youtu.be/RRoHZ-QKwhk  (22.02.2019)

[7] Siehe online: https://youtu.be/aDMZRiYrcuE  (22.02.2019)

Gegenrede und Gegenkommentar – zur Dynamik von Hassrede und Moderation in Kommentarspalten am Beispiel von „Begriffswelten Islam“ und Empfehlungen für eine gelingende Moderation

von Josephine B. Schmitt und Julian Ernst

Einführung

Um extremistischen Botschaften im Netz – also da, wo sie vielfach verbreitet werden – etwas entgegenzusetzen, produzieren zivilgesellschaftliche Akteur*innen sogenannte Gegenreden oder ‑botschaften. Auf einer allgemeinen Ebene können Gegenreden als positive Botschaften (im Sinne unseres demokratischen Grundverständnisses) definiert werden, die sich gegen extremistische Ideologien als Ganzes oder auch einzelne Narrative dieser Ideologien wenden (Schmitt, Ernst, Frischlich u. Rieger 2017). Dies kann auf ganz unterschiedliche Weise passieren. Zum Beispiel indem ein alternatives Narrativ geboten, also betont wird, wofür wir als Gesellschaft stehen wollen (z. B. für Toleranz und Offenheit). Manche Gegenbotschaften (Gegennarrative) setzen sich aber auch gezielt mit der extremistischen Haltung, ihren Narrativen und Inhalten auseinander, dekonstruieren und entlarven diese.

Die Formate sind vielfältig. Neben etwa Comics (z. B. vom Bundesamt für Verfassungsschutz „Andi – Tage wie dieser“  [1]), Theaterstücken (z. B. „Djihad“  [2] im Theater RadiX in Braunschweig) und Bildern lassen sich vor allem Onlinevideos anführen. Eine Vielzahl von Institutionen setzt auf die Produktion und Verbreitung von audiovisuellen Botschaften insbesondere über YouTube, um vor allem junge Nutzer*innen – als wichtige Zielgruppe extremistischer Gruppierungen – zu erreichen.

Die Ende des Jahres 2015 sowie Anfang des Jahres 2016 auf der Videoplattform YouTube veröffentlichten Videos der Webvideoreihe „Begriffswelten Islam “ der Bundeszentrale für politische Bildung (bpb) in Kooperation mit verschiedenen damals bekannten deutschen YouTuberinnen sind ein gelungenes Beispiel derartiger Angebote. Im Rahmen der Videos sollen „eindimensionale[n] und stereotypisierende[n] Darstellungen [muslimischer Lebenswelten] in den Medien“ (bpb 2015a) vielfältige Deutungsmuster und Erklärungen von Begriffen wie etwa „dschihad“ und „halal/haram“ gegenübergestellt werden. Darüber hinaus konnten interessierte Nutzerinnen der Videos in den Kommentarspalten zu den Videos mit Nutzerinnen und Expertinnen der bpb über die Themen der Videos sowie über darüber hinausgehende Fragen und Inhalte diskutieren bzw. sich weitergehend informieren. Die folgende Tabelle gibt einen Überblick über die Interaktionen der Nutzer*innen (Aufrufe, Likes, Dislikes, Kommentare) mit dem Format.

Neben zahlreichen Chancen bietet diese Form der Onlinekommunikation jedoch eine Reihe von Herausforderungen – sowohl für die Nutzerinnen der Angebote als auch für die Plattformbetreiberinnen und diversen Akteurinnen (z. B. Produzentinnen, Social-Web-Multiplikatorinnen, Akteurinnen der politischen Bildung etc.). Der richtige Umgang etwa mit Hassrede (hate speech) und Unhöflichkeit (incivility) ist insbesondere bei derartigen kontroversen und polarisierenden Themen heikel und mit großen Mühen verbunden. [4]

Welche Empfehlungen sich in diesen Fällen für eine gelingende Moderation ableiten lassen, möchten wir vor dem Hintergrund der aktuellen kommunikationswissenschaftlichen und medienpsychologischen Forschung diskutieren. Dazu möchten wir zunächst einen allgemeinen Überblick über die Bedeutung von Nutzerinnenkommentaren im Internet, ihre Chancen und Herausforderungen vor allem für den politischen Diskurs geben. Dieser Überblick wird ergänzt durch einen vertieften Einblick in die Analyse von Nutzerinnenkommentaren zu acht Webvideos der Reihe „Begriffswelten Islam“.

Die Bedeutung von Nutzerinnenkommentaren im Internet für den politischen und gesellschaftlichen Diskurs

Die Möglichkeit, Kommentare zu Onlineinhalten jeglicher Art zu verfassen, ist eine Standardfunktion des Web 2.0. Jedoch: Nicht unter jedem Beitrag (z. B. Text, Video) und nicht auf jeder Internetseite ist diese Funktion aktiviert. Ferner unterscheiden sich die Kommentarspalten verschiedener Onlineangebote und ‑plattformen darin, ob und inwiefern eine Moderation der Nutzerinnenäußerungen stattfindet, ob also etwa Beiträge vor ihrer Veröffentlichung erst durch Administratorinnen freigegeben werden, Moderatorinnen in die Diskussionen eingreifen, sie lenken und gegebenenfalls strafrechtlich relevante Inhalte von der Seite entfernen.

Auf einer abstrakten Ebene können Nutzer*innenkommentare als eine computervermittelte Variante von Anschlusskommunikation über einen konkreten Medieninhalt verstanden werden. Im Hinblick auf die Diskussion von politischen Themen gilt Anschlusskommunikation als eine Form politischer Partizipation, welche schließlich zu einem Gewinn an politischem Wissen (Eveland u. Schmitt 2015; Trepte u. Schmitt 2017) und weiteren Formen politischen Engagements (z. B. Beteiligung an (Online-)Petitionen, Demonstrationen; Gil de Zúñiga, Diehl u. Ardévol-Abreu 2017) führen kann. Denn die medial vermittelten Fakten und Konzepte können durch die (idealtypische) Auseinandersetzung wiederholt, erweitert, intensiver verarbeitet und somit mental verankert werden; zudem können Unklarheiten diskutiert und gegebenenfalls ausgeräumt werden (Eveland 2004).

In Diskussionen und Konversationen über politische Sachverhalte werden jedoch nicht nur Fakten ausgetauscht und erörtert. In erster Linie äußern Menschen ihre Meinungen zu bestimmten Themen, Meinungsbildungsprozesse finden statt. Insbesondere bezogen auf kontroverse und polarisierende Themen finden sich im Netz teilweise Diskussionen, in denen nicht ausschließlich fundiert und konstruktiv diskutiert wird. In den Kommentarspalten sind zuweilen Aussagen vertreten, die sich durch eine gewisse Unhöflichkeit und Grobheit (incivility) auszeichnen oder gar gezielt Hass gegenüber Personen oder Gruppen, „insbesondere durch die Verwendung von Ausdrücken, die der Herabsetzung und Verunglimpfung von Bevölkerungsgruppen dienen“ (Maibauer 2013, S. 1), ausdrücken (hate speech). Befeuert werden derartige Äußerungen durch niedrige Barrieren der Teilnahme an den Diskussionen, Deindividualisierung des Gegenübers etwa durch die Abwesenheit von sozialen Hinweisreizen (z. B. nonverbales Verhalten der Gesprächspartner*innen) und relativer Anonymität im Vergleich zur Face-to-Face-Kommunikation im Offlinekontext (z. B. Halpern u. Gibbs 2013).

Vor allem rechte Akteurinnen nutzen die vielfältigen Kommentarmöglichkeiten im Netz für die lautstarke Verbreitung ihres Gedankengutes (Amadeu Antonio Stiftung 2016). Dies kann die Einstellungen und Verhaltensweisen der Leserinnen nachhaltig beeinflussen. Hsueh und Kolleginnen (2015) zeigten etwa, dass Leserinnen fremdenfeindlicher und vorurteilsbehafteter Kommentare auch selbst eher fremdenfeindliche Kommentare verfassten. Werden rechte, demokratiefeindliche Meinungen in einer Diskussion (z. B. zu einem Onlineartikel, ‑video) schließlich als Mehrheitsmeinung wahrgenommen, werden moderate, diesen widersprechende Stimmen unterdrückt (Schweigespirale; Neubaum 2016; Springer, Engelmann u. Pfaffinger 2015). Im schlimmsten Fall kann dies das wahrgenommene Meinungsklima und damit den gesamtgesellschaftlichen Diskurs nachhaltig negativ beeinflussen und zu einer Polarisierung der Meinung bzw. der Ausbildung extremer Haltungen beitragen (Stroud 2010).

Gleichsam beeinflusst die Art und Weise der Nutzerinnenkommentare die Wahrnehmung des dazugehörigen Medieninhaltes. So führen unhöfliche Kommentare unter einem journalistischen Beitrag zu einer negativen Beurteilung seiner journalistischen Qualität (Prochazka, Weber u. Schweiger 2016). Auch die Einstellung von Leserinnen gegenüber dem Medieninhalt kann durch die Meinungen, welche in Nutzer*innenkommentaren vorherrschen, beeinflusst werden. So zeigt ein Experiment von Lee und Jang (2010), dass Nutzerinnen, welche Kommentare lasen, die dem Medieninhalt widersprachen, ihre Einstellung gegenüber dem Medieninhalt eher änderten als Personen, die keine Kommentare unter demselben Beitrag lasen bzw. Kommentare, welche die Meinung des Artikels unterstützten. Im Hinblick auf Onlineinhalte, welche das Ziel haben, extremistischen Stimmen etwas entgegenzusetzen und Reflexion zu fördern, sind derartige Mechanismen durchaus problematisch – insbesondere da die Wirksamkeit von Onlinegegenbotschaften nicht uneingeschränkt nachweisbar ist (für einen Überblick siehe Frischlich, Rieger, Morten u. Bente 2017). Umso wichtiger ist in diesem Zusammenhang schließlich die Frage, inwiefern die Moderation von Nutzerinnenkommentaren eine Unterstützung sein kann.

Hassrede und Moderation in den Kommentarspalten zu #WhatIS: der Account „experts for bpb“ im Kontext von hate speech

Im Rahmen einer qualitativen Inhaltsanalyse von Nutzerinnenkommentaren zu den Videos der Webvideoreihe „Begriffswelten Islam“, welche mit #WhatIS markiert sind, betrachteten Ernst und Kolleginnen (2017) auch das Verhältnis von Hassrede (hate speech) und Moderation. Die Videos waren jeweils eingebettet in den YouTube-Kanal der YouTuberinnen, welche als Hauptakteurinnen die Inhalte der Videos präsentierten.

Hate speech als Phänomen findet Beachtung in den unterschiedlichsten Disziplinen. Der Diskurs wird geprägt durch sehr unterschiedliche Definitionen und Herangehensweisen u. a. in den Kommunikationswissenschaften, der Soziologie, den Rechtswissenschaften oder auch der Linguistik (eine ausführlichere Diskussion und Abgrenzung verschiedener Konzepte ist bei Ernst et al. 2017 bzw. Schmitt 2017 zu finden). Der genannten Inhaltsanalyse liegt im Wesentlichen eine linguistische Definition von hate speech zugrunde: Laut Maibauer (2013) kann hate speech definiert werden als „[…] der sprachliche Ausdruck von Hass gegen Personen oder Gruppen […], insbesondere durch die Verwendung von Ausdrücken, die der Herabsetzung und Verunglimpfung von Bevölkerungsgruppen dienen […]“ (S. 1).

Moderiert wurden die Userinnenkommentare unter den Videos auf zweierlei Weise:

(1) Die YouTuberinnen filterten oder löschten Kommentare, welche zu extrem waren, nach gemeinsam mit der bpb definierten und öffentlich kommunizierten Kriterien der Netiquette (bpb 2015b) sowie im Einklang mit den AGB von YouTube.

(2) Expertinnen [5] der bpb waren mit dem Account „experts for bpb“ in den Kommentarspalten vertreten, in erster Linie um für Fragen und weiterführende Informationen ansprechbar zu sein. Letzteres wurde in den Videoinformationen, auf der Website der bpb sowie in der Abschlussszene der Videos hervorgehoben. Während die genannte Analyse für (1) keine Befunde liefern kann, finden sich in den Kommentaren vielfältige Referenzen zu (2), dem Account „experts for bpb“ bzw. zur bpb im Allgemeinen. Es fällt auf, dass die Ansprache oft ironisch ausfällt bzw. der Expertenstatus der bpb im Hinblick auf die Themen der Videos angezweifelt wird. Darüber hinaus wird „experts for bpb“ gezielt mit Vorurteilen und Stereotypen gegenüber Musliminnen und dem Islam, Verschwörungstheorien sowie beleidigender Sprache adressiert.

Erklärt werden können diese Tendenzen einerseits durch das Auftreten des Moderationsaccounts als Repräsentant einer öffentlichen Einrichtung bzw. als Vertreter einer staatlichen Institution. Andererseits könnte die Bezeichnung „experts for bpb“ in der Wahrnehmung als „Besserwisser von oben“ besondere Ablehnung hervorrufen. Insbesondere unter populistischen Akteurinnen ist die Elitenablehnung („die da oben“; z. B. Staat, Politik, intellektuelle Elite) ein weit verbreitetes Motiv der Abgrenzung zu „uns, dem Volk“ (Schulz et al. 2017). Gleichzeitig sind die Expertinnen der bpb nicht als einzelne Individuen erkennbar, da sie als nicht näher identifizierbares Kollektiv – Expert*innen – in Erscheinung treten.

Wie aber kann Moderation gelingen? Wäre das Entfernen abwertender und hasserfüllter Kommentare eine Lösung, da auf diese Weise keine öffentliche Abwertung sichtbar wird?

Empfehlungen für eine gelingende Moderation

“Nicht immer ist die Kommentarfunktion zu Onlineinhalten aktiviert, obwohl dies grundsätzlich möglich wäre. Eine Sperrung beugt zwar der Verbreitung hasserfüllter Inhalte vor und ist gleichzeitig ökonomisch, da weder zeitliche noch finanzielle Ressourcen für eine Moderation investiert werden müssen. Gleichzeitig vermindert ein solches Vorgehen aber auch die Entfaltung positiver Potenziale von Anschlusskommunikationen mittels Nutzer*innenkommentaren – gerade im Kontext gesellschaftspolitischer Themen! Die Gelegenheit, Onlineinhalte zu kommentieren, ist zugleich Gelegenheit zum konstruktiven, anregenden Austausch und im Idealfall der Pflege demokratischer Diskussionskultur (auch) im Netz – es gilt also, sorgsam abzuwägen.

Entscheiden sich Plattformbetreiberinnen und Produzentinnen von Onlineinhalten für die Nutzung der Kommentarfunktion und gegen das gezielte Ausfiltern von problematischen Kommentaren, sollten sie sich Strategien zurechtlegen, wie sie mit problematischen Kommentaren umgehen wollen, und gleichermaßen die Vor- und Nachteile dieser Strategien vergleichen. Mögliche Varianten sind die Freischaltung von Kommentaren durch Moderatorinnen der Kommentarspalten (Pre-Moderation) bzw. das Löschen von problematischen Inhalten (z. B. Hassrede) in Kommentarspalten durch menschliche Moderatorinnen, (semi-)automatische Moderationssysteme oder eine Kombination beider (Post-Moderation). [6]

Wie aber auch bezüglich anderer Formen extremistischer Botschaften (für einen Überblick siehe Rieger et al. 2017 sowie Schmitt et al. 2017) kann im Zusammenhang mit Hass in Kommentarspalten das Entfernen nicht als (alleiniger) Lösungsansatz betrachtet werden. [7] Plattformbetreiberinnen und Produzentinnen von Inhalten setzen sich hierdurch dem Vorwurf der Zensur aus – dies wiederum kann in Zeiten stetig steigenden Misstrauens gegenüber Medien und staatlichen Institutionen von populistischen und extremistischen Akteurinnen für propagandistische Zwecke instrumentalisiert werden. Auch aus demokratietheoretischer Perspektive kann das Löschen von Kommentaren kritisch diskutiert werden. Auch die als problematisch wahrgenommenen Stimmen zu hören ist ein Teil demokratischer Prozesse. Sie gänzlich zu ignorieren oder eben zu löschen entzieht ihnen zwar die gewünschte Aufmerksamkeit, birgt aber die Gefahr, dass die Debatten letztlich von aggressiven Einzelpersonen und Gruppen dominiert werden (Amadeu Antonio Stiftung 2016), was in einer Schweigespirale moderater Stimmen münden kann. Zentral erscheint es zudem, die Kriterien des Entfernens von Kommentaren und deren Nachvollziehbarkeit für Nutzerinnen zu kommunizieren. Möglichkeiten, die Kriterien transparent zu machen, sind klar formulierte Regeln oder die Definition von Merkmalen, die zur Löschung führen, z. B. in Form einer „Netiquette“, wie sie im Falle der Webvideoreihe „Begriffswelten Islam“ veröffentlicht wurde (bpb 2015b).

Auf problematische Kommentare einzugehen, Hassredner zu identifizieren, zusätzliche Informationen und Quellen anzubieten sowie die Absurdität von Beiträgen etwa mittels humoristischer oder ironisierender Reaktionen zu entlarven, sind mit Sicherheit die zeitlich, finanziell und inhaltlich aufwendigsten Möglichkeiten. Ein solches Vorgehen bedarf klarer Absprachen im Moderationsteam – soll Nutzerinnen etwa dezidiert erläutert werden, aus welchen Gründen eine Äußerung nun hasserfüllt und abwertend sei und damit Gefahr gelaufen werde, Hass und Verletzungen zu reproduzieren und wiederholt wirken zu lassen (Butler 2016)? Da es auf solche Fragen keine rezeptartigen Antworten gibt, bedarf die Moderation von Kommentaren zu kontroversen Themen der gewissenhaften, umfangreichen Vorbereitung und gegebenenfalls auch der begleitenden Supervision. [8] Einer der ersten Planungsschritte sollte die Frage sein, wie, d. h. unter welchem Namen die Moderatorinnen auftreten sollen. Es scheint ratsam, als Person aufzutreten, die größtmögliches Vertrauen in der Zielgruppe genießt. Es sollte vermieden werden, dass Moderator*innen als Autorität oder Expert*innen wahrgenommen werden, die „von oben herab“ agieren. Auch wenn damit eine Normalität zwischenmenschlicher Interaktionen betont wird: Auch in Onlinedebatten sollte ein respektvoller Umgang im Vordergrund stehen.

Lampe und Kolleginnen (2014) empfehlen gar die Integration anderer Nutzerinnen in den Moderationsprozess. Sie schlagen einerseits ein Punktesystem vor, nach dem Nutzerinnen „Karma-Punkte“ – d. h. eine besonders positive Reputation – erhalten, wenn sie sich vernünftig an der Diskussion beteiligen. Ferner konnten ein positiver Umgang der Kommentierenden untereinander sowie inhaltlich angemessene Diskussionen durch ein Crowdsourcing von Moderation befördert werden. In anderen Worten, Kommentierende können ebenfalls Moderatorinnen werden und sind verantwortlich dafür, Konsens und Normen im Rahmen der Diskussionen zu entwickeln und aufrechtzuerhalten.

Letztlich scheint eine Kombination verschiedener Aspekte besonders vielversprechend zu sein. So deuten Analysen von Kommentarspalten auf Nachrichtenseiten darauf hin, dass die Notwendigkeit der Registrierung, bevor Kommentieren möglich ist (das bedeutet Reduktion von Anonymität), Pre- und Post-Moderation und die Implementierung eines Reputationssystems für Kommentierende förderlich für eine wertschätzende Debattenkultur sind (Ksiazek 2015). Jedoch: Auch so wird man hasserfüllten Kommentaren nicht zur Gänze vorbeugen können – mit diesen umzugehen bleibt eine Herausforderung, der sich demokratische Diskussionskultur und damit die agierenden Nutzer*innen im Netz stellen müssen.

Autorin und Autor

Dr. Josephine B. Schmitt arbeitet am Institut für Kommunikationswissenschaft und Medienforschung der LMU München. Sie forscht u. a. zu Inhalt, Verbreitung und Wirkung von hate speech, extremistischer Propaganda und (politischen) Informations- und Bildungsangeboten im Internet. Zudem entwickelt sie didaktische Konzepte für die Radikalisierungsprävention u. a. im Auftrag der Bundeszentrale für politische Bildung (bpb) und des Innenministeriums NRW. Mehr Informationen: https://medienundlernen.wordpress.com

Julian Ernst ist Doktorand am Arbeitsbereich für Interkulturelle Bildungsforschung der Universität zu Köln. Er forscht zu Medienkritik Jugendlicher im Kontext von Hass und Gegenrede im Internet sowie didaktischen Fragestellungen interkultureller Bildung. Darüber hinaus entwickelt er didaktische Konzepte für die Radikalisierungsprävention u. a. im Auftrag der Bundeszentrale für politische Bildung (bpb) und des Innenministeriums NRW.

Quellen

  • Amadeu Antonio Stiftung: „Geh sterben!“ – Umgang mit Hate Speech und Kommentaren im Internet. Cottbus 2016. https://www.amadeu-antonio-stiftung.de/w/files/pdfs/hatespeech.pdf (03.04.2018).
  • Butler, Judith: Haß spricht. Zur Politik des Performativen. 5. Aufl., Berlin 2016.
  • Bundeszentrale für politische Bildung (bpb): Begriffswelten Islam. 2015a. http://www.bpb.de/lernen/digitale-bildung/medienpaedagogik/213243/webvideos-begriffswelten-islam (03.04.2018).
  • Bundeszentrale für politische Bildung (bpb): Netiquette für die Webvideoreihe „Begriffswelten Islam“. 2015b. http://www.bpb.de/lernen/digitale-bildung/medienpaedagogik/214763/netiquette-fuer-die-webvideoreihe-begriffswelten-islam (10.04.2018).
  • Coe, Kevin, Kate Kenski, Stephen A. Rains: Online and uncivil? Patterns and determinants of incivility in newspaper website comments, in: Journal of Communication, 64 (2014), S. 658–679.
  • Ernst, Julian, Josephine B. Schmitt, Diana Rieger, Ann-Kristin Beier, Peter Vorderer, Gary Bente, Hans-Joachim Roth: Hate beneath the counter speech? A qualitative content analysis of user comments on YouTube related to counter speech videos, in: Journal for Deradicalization, 10 (2017), S. 1–49.
  • Eveland, Wiliam P. Jr.: The effect of political discussion in producing informed citizens: The roles of information, motivation, and elaboration, in: Political Communication, 2 (2004), S. 177–193.
  • Eveland, Willian P. Jr., Josephine B. Schmitt: Communication and knowledge content matters: Integrating manipulation and observation in studying news and discussion learning effects, in: Journal of Communication, 65 (2015), S. 170–191.
  • Frischlich, Lena, Diana Rieger, Anna Morten, Gary Bente (Hrsg.): Videos gegen Extremismus? Counter-Narrative auf dem Prüfstand. Wiesbaden 2017.
  • Gil de Zúñiga, Homero, Revor Diehl, Alberto Ardévol-Abreu: Internal, external, and government political efficacy: Effects on news use, discussion, and political participation, in: Journal of Broadcasting & Electronic Media, 61 (2017), S. 574–596.
  • Halpern, Daniel, Jennifer Gibbs: Social media as a catalyst for online deliberation? Exploring the affordances of Facebook and YouTube for political expression, in: Computers in Human Behavior, 29 (2013), S. 1159–1168.
  • Hsueh, Mark, Kumar Yogeeswaran, Sanna Malinen: “Leave your comment below”: Can biased online comments influence our own prejudicial attitudes and behaviors?, in: Human Communication Research, 41 (4) (2015), S. 557–576.
  • Ksiazek, Thomas B.: Civil interactivity: How news organizations’ commenting policies explain civility and hostility in user comments, in: Journal of Broadcasting & Electronic Media 59 (2015), S. 556–573.
  • Lampe, Cliff, Paul Zube, Jusil Lee, Chul Hyun Park, Erik Johnston: Crowdsourcing civility: A natural experiment examining the effects of distributed moderation in online forums, in: Government Information Quarterly, 31 (2014), S. 317–326.
  • Lee, Eun-Ju, Yoon Jae Jang: What do others’ reactions to news on Internet portal sites tell us? Effects of presentation format and readers’ need for cognition on reality perception, in: Communication Research, 37 (2010), S. 825–846.
  • Meibauer, Jörg: Hassrede – von der Sprache zur Politik, in: Jörg Meibauer (Hrsg.): Hassrede/Hate Speech. Interdisziplinäre Beiträge zu einer aktuellen Diskussion. Gießen 2013, S. 1–16. http://geb.uni-giessen.de/geb/volltexte/2013/9251/pdf/HassredeMeibauer_2013.pdf  (17.04.2018).
  • German Neubaum: Monitoring and expressing opinions on social networking sites-empirical investigations based on the spiral of silence theory. Duisburg-Essen 2016. http://duepublico.uni-duisburg-essen.de/servlets/DerivateServlet/Derivate-42707/Neubaum_Diss.pdf  (24.01.2018).
  • Prochazka, Fabian, Patrick Weber, Wolfgang Schweiger: Effects of civility and reasoning in user comments on perceived journalistic quality. In: Journalism Studies (2016).
  • Rieger, Diana, Julian Ernst, Josephine B. Schmitt, Peter Vorderer, Gary Bente, Hans-Joachim Roth: Propaganda und Alternativen im Internet – Medienpädagogische Implikationen, in: merz | medien + erziehung, 3 (2017), S. 27–35.
  • Schmitt, Josephine B.: Online-Hate Speech: Definition und Verbreitungsmotivationen aus psychologischer Perspektive, in: Kai Kaspar, Lars Gräßer u. Aycha Riffi (Hrsg.): Online Hate Speech: Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur digitalen Gesellschaft NRW. Marl 2017, S. 52–56.
  • Schmitt, Josephine B., Julian Ernst, Lena Frischlich, Diana Rieger: Rechtsextreme und islamistische Propaganda im Internet: Methoden, Auswirkungen und Präventionsmöglichkeiten, in: Ralf Altenhof, Sarah Bunk, Melanie Piepenschneider (Hrsg.): Politischer Extremismus im Vergleich. Berlin 2017, S. 171–208.
  • Schulz, Anne, Philipp Müller, Christian Schemer, Dominique Stefanie Wirz, Martin Wettstein. Werner Wirth: Measuring populist attitudes on three dimensions, in: International Journal of Public Opinion Research, 2017. doi: 10.1093/ijpor/edw037
  • Springer, Nina, Ines Engelmann, Christian Pfaffinger: User comments: motives and inhibitors to write and read. Information, in: Communication & Society, 18 (2015), S. 798–815.
  • Stroud, Natalie Jomini: Polarization and partisan selective exposure, in: Journal of Communication, 60 (2010), S. 556–576.
  • Trepte, Sabine, Josephine B. Schmitt: The effect of age on the interplay of news exposure, political discussion, and political knowledge, in: Journal of Individual Differences, 38 (2017), 21–28.

[1] Siehe online: Bundesamt für Verfassungsschutz: Andi – Tage wie dieser. https://www.verfassungsschutz.de/de/oeffentlichkeitsarbeit/publikationen/pb-rechtsextremismus/publikationen-landesbehoerden-rechtsextremismus/broschuere-nw-2017-10-comic-andi-1  (21.02.2019)

[2] Siehe online: Theater RadiX: Djihad. http://www.theater-radix.de/projekte/djihad/  (21.02.2019)

[3] Zeitpunkt der Erhebung für die im weiteren Verlauf berichtete Inhaltsanalyse von Ernst und Kolleg*innen (2017).

[4] Sowohl das Konzept der Hassrede, zuweilen vielleicht bekannter unter der englischsprachigen Bezeichnung hate speech, als auch das Konzept der Inzivilität ist von umfangreichen Debatten über die konkrete Definition der Begrifflichkeiten begleitet. Diese Debatten im Detail aufzugreifen bzw. ihnen ausführlich Raum zu geben, würde den Rahmen dieser Ausarbeitung sprengen. Kapitel 3 stellt die Definition von Hassrede (bzw. hate speech) zur Verfügung, die der später diskutierten Studie zugrunde liegt. Eine ausführlichere Diskussion zur Konzeptionalisierung von Inzivilität findet sich u. a. bei Coe, Kenski und Rains (2014).

[5] Darüber hinaus übernahm das Team aus Expertinnen während der Projektdauer das Screening der Kommentare, meldete Verstöße gegen die formulierte Netiquette und die AGB von YouTube. In Einzelfällen berieten sie die YouTuberinnen im Hinblick auf die Angemessenheit von Reaktionen auf mögliche problematische Kommentare.

[6] (Semi-)Automatische Systeme allein eignen sich nicht für das Aufdecken von Hassrede. Sie funktionieren nicht fehlerfrei bei verschlüsselten oder kodierten Formulierungen, welche die intendierten Inhalte beispielsweise mithilfe von Metaphern und Abkürzungen verdecken. Bei einer Kombination menschlicher und (semi-)automatischer Moderatorinnen entscheiden Systeme in einem ersten Schritt über die Qualität eines Kommentars (z. B. Hassrede versus keine Hassrede), menschliche Moderatorinnen überprüfen bei Unsicherheit und geben schließlich den Kommentar frei oder nicht.

[7] Selbstverständlich gilt dies nicht für eindeutig strafrechtlich relevante Inhalte.

[8] Die regelmäßige Konfrontation mit hasserfülltem Sprechen darf in ihren eventuellen psycho-sozialen Belastungen durch widerfahrene Verletzungen nicht unterschätzt werden (Butler 2016). Regelmäßiger kollegialer Austausch oder eben professionelle Supervision sollten fester Bestandteil von Moderationskonzepten sein.

Über Drachen, den Hass im Netz und was man dagegen tun kann

Von Lars Gräßer und Aycha Riffi

Haben Sie schon einmal vom YouTuber „Drachenlord“ gehört? Zu seiner Geschichte titelte DIE ZEIT [1]: „Der Drache, den das Internet heimsuchte“ . Nun hat ihn nicht so sehr das Internet heimgesucht als vielmehr sogenannte Hater*innen:

„Der Ausgangspunkt ist nahezu unspektakulär. Rainer W. lebt alleine […]. Er nimmt Videos von sich selbst auf und stellt sie ins Netz, häufig streamt er sogar live. Das macht der 29-Jährige seit vielen Jahren, hauptsächlich auf YouTube und unter dem Namen Drachenlord […]. In vielen Videos erzählt W. aber auch einfach aus seinem Alltag oder antwortet auf Fragen seiner Zuschauer. Er ist oder war außerdem auch auf anderen Kanälen aktiv […]. So ist über die Jahre ein kaum zu überblickendes Sammelsurium an Videos und anderen Inhalten entstanden.“ (ebenda) Das mündete zunächst in Hohn und Spott aus der Netzcommunity. Seine Reaktionen darauf waren nicht humorvoll, sondern zunehmend aggressiv. Die Kommunikation entwickelte eine Eigendynamik und die Kommentare schlugen bald in blanken Hass um. Es kam zu konzertierten Aktionen rund um sein Haus und irgendwann wurden der Drachenlord und seine Hater*innen sogar zu einem Problem für das gesamte Dorf. Das ganze Ausmaß lässt sich in der ZEIT (ebenda) oder in anderen Medien nachlesen (z. B. Felix Keßler: Alle gegen den Drachenlord“  auf spiegel.de (kostenpflichtig)) [2] und nachschauen (z. B. Y-Kollektiv: „RABIAT! Drachenlord & seine Hater – Hass ist ihr Hobby“  auf YouTube) [3

Studien zu online hate speech

Die Drachenlord-Geschichte mag ein spezieller Einzelfall sein, der Hass im Netz ist es nicht, wie Umfragen der Landesanstalt für Medien NRW Jahr für Jahr belegen. Die aktuellen Ergebnisse einer forsa-Umfrage (PDF online  bei der Landesanstalt für Medien NRW, Erhebungszeitraum: Juni 2018) verdeutlichen, dass die Wahrnehmung von Hassrede bzw. Hasskommentaren im Internet im Vergleich zu den Vorjahren zugenommen hat (+ 11 %) und vor allem Jüngere (im Alter zwischen 14 und 24 Jahren) davon betroffen sind. [4]

Zu ähnlichen Ergebnissen kommt im November 2018 auch die U25-Studie des Deutschen Instituts für Vertrauen und Sicherheit im Internet (DIVSI) in der gleichen Zielgruppe. Ergebnis: „Viele junge Menschen stellen […] eine starke ‚Verrohung‘ der Umgangsweisen im Netz fest und verhalten sich entsprechend vorsichtig und zurückhaltend. Zwei Drittel der 14- bis 24-Jährigen nehmen das Internet als Raum wahr, in dem diejenigen, die sich äußern, damit rechnen müssen, beleidigt oder beschimpft zu werden. Für 38 Prozent ist diese wahrgenommene ‚Beleidigungskultur‘ ein Grund, auf die Äußerung der eigenen Meinung im Internet zu verzichten.“ (Pressemitteilung des DIVSI zur Studie ) [5]

Eine ebenfalls repräsentative Untersuchung [6] im Auftrag von Campact e. V. in Hessen (Zusammenfassung als PDF  online bei campact.de) kommt zu ähnlichen Ergebnissen und fächert auf, wen der Hass im Netz – der Wahrnehmung nach – adressiert.

Fast immer sind es Minderheiten, gegen die sich der Hass richtet, und besonders häufig wahrgenommen wird der Hass im Netz gegenüber Menschen mit Migrationshintergrund und Geflüchteten (mit jeweils 75 %).

Kampagnen, Aktivitäten und Projektarbeit gegen online hate speech

Wie umgehen also mit der zunehmenden Hassrede im Netz? Dieser Frage widmen sich mittlerweile zahlreiche Kampagnen, Aktivitäten und Projektarbeiten auf ganz unterschiedlichen Ebenen und mit sehr unterschiedlichen Ansätzen. [8] Zu den Bürgerrechtsbewegungen im Netz zählen das 2017 mit einem Grimme Online Award ausgezeichnete  Projekt #ichbinhier [9] oder auch „Reconquista Internet“. Es finden sich nationale Kampagnen, wie etwa #NichtEgal/@NichtEgal_yt oder auch @nohate_speech, daneben Bildungsprojekte auf EU-Ebene, die sich in erster Linie an jüngere Zielgruppen wenden, wie das „No Hate Speech Movement“, aber natürlich auch auf nationaler Ebene bzw. Länderebene wie z. B. #denk_net. [10]

Zu den Bildungsprojekte auf EU-Ebene, die sich in erster Linie an jüngere Zielgruppen wenden, zählt auch „BRICkS – Building Respect on the Internet by Combating Hate Speech“, an dem sich das Grimme-Institut beteiligte, neben fünf weiteren europäischen Institutionen aus Italien, Spanien, Belgien und Tschechien. Das Projekt lief von November 2014 bis Dezember 2016.

Online hate speech präsentierte sich hier nicht als nationales, sondern als europäisches (und im Prinzip weltweites) Phänomen, was eine internationale Vernetzung interessant machte. Zwar hatte jedes Land seine eigenen Schwerpunkte und spezifischen Formen, virulent erschien es aber in allen. Deutlich wurde dies in überblickhaften Reports, sogenannten “Nationalen Studien“, welche die beteiligten Projektpartner*innen in einem ersten Schritt für ihre Länder und die jeweilige Situation vor Ort erstellten (Hofer von Lobenstein, Schneider 2017).

In einem zweiten Schritt wurden – gemeinsam mit Social-Media-Expertinnen und Medienpädagoginnen – Trainingsmodule und Hilfsmittel entwickelt, die als praktische Materialien in Form einer Modulbox in der schulischen und außerschulischen Jugendarbeit genutzt werden können. Schwerpunkt war hierbei die kreative, mediale Auseinandersetzung: Audio- und Videospots, Musikclips, Interviews und Onlinepräsentationen (vgl. Wenzel 2017). Sowohl die „Nationalen Studien“ als auch die Modulbox sind online kostenfrei abrufbar unter bricks-project.eu  [11]. Letztere wurden für die Abteilung „Politische Jugendbildung“ des Deutschen Volkshochschulverbands im Bereich hate speech aktualisiert und weiterentwickelt sowie um den eng verwandten Begriff „Fake News“ ergänzt. Die aktualisierte Fassung steht seit Anfang 2019 allen deutschen Volkshochschulen zur Verfügung.

Learnings

Ein Learning aus den eigenen Erfahrungen im Projekt BRICkS war: Die Auseinandersetzung mit den unangenehmen Seiten des Internets erachteten vor allem junge Teilnehmende als relevant, spannend und auch hilfreich. Eine Herausforderung ist aber sicher, und das gilt altersunabhängig für alle Zielgruppen: In der Auseinandersetzung mit den Themen sind ganz unterschiedliche moralische, ethische, soziale, politische und auch juristische Kompetenzen gefragt. Denn was definieren wir überhaupt als Hass bzw. als einen Hasskommentar? Bevor über Maßnahmen gesprochen werden kann, muss eine Auseinandersetzung geführt werden, wann Onlinekommentare vielleicht nur vereinzelte Grenzüberschreitungen sind, mit denen eine demokratische Gesellschaft umzugehen lernen muss, und wann Hasskommentare durchaus Gefahren bergen. Gefahren für unsere Gesellschaft entstehen etwa dann, wenn öffentliche Debatten plötzlich durch Hassreden geprägt werden und moderate Stimmen zum Schweigen gebracht werden oder bestimmten Minderheiten die Stimme genommen wird. Gefährlich wird es für Einzelne, wenn aus Sprache Taten werden – siehe das Beispiel um YouTuber Drachenlord.

Strategien und Regeln – und das ist eine weitere Herausforderung – können nur dann entwickelt werden, wenn die Bedingungen und Möglichkeiten des Mediums verstanden werden. Sich mit online hate speech zu befassen heißt, die Funktionsweisen von Social-Media-Angeboten zu kennen und mit ihrer scheinbar permanenten Weiterentwicklung Schritt zu halten. Oder mal ganz praktisch: Wer eine Kommentarfunktion anbietet, muss sich vorher die Frage stellen, welche Kanäle er oder sie anbieten will, ob und wie eine Betreuung der Kanäle zu leisten ist. Denn einfach so nebenbei einen YouTube-Account oder eine Facebook-Seite anzulegen kann bedeuten, „die eigene Haustür“ auch potenziell unliebsamen Gästen zu öffnen.

Eine Frage der Kommunikationskultur

Welche Kommunikationskultur möchte ich auf meiner eigenen Seite fördern und schützen? Diese Frage muss von Konzernen, Firmen, Institutionen, Einzelpersonen (beruflich wie privat) beantwortet werden, um entsprechende Regeln dann zu kommunizieren. Wer auf seiner eigenen Seite moderierend tätig ist und darauf hinweist, dass diskriminierende und beleidigende Kommentare umgehend gelöscht werden, schränkt damit weder die Meinungsfreiheit ein noch zensiert er oder sie das Netz. Eine konsequent und transparent geführte Moderation zeigt die „Hausregeln“ des eigenen Angebotes auf und wendet diese an – nicht mehr und nicht weniger. Dadurch verlagert sich zuweilen der Hass eventuell nur auf andere Seiten. Allerdings ist es wichtig, selbst keinen Raum für Hasskommentare zu bieten, weil dieser wie ein Inkubator wirkt.

Am Ende muss klar sein, dass es für uns alle, also für jede und jeden – online wie offline – eine ganze Reihe von Aufgaben gibt: Justiziables über entsprechende Meldemöglichkeiten anzeigen, sich die Gegenrede zutrauen (am besten mit anderen gemeinsam), wenigstens die (geringe) Macht als Verbraucherinnen nutzen und kontrollieren, ob die professionellen Akteurinnen ihre Aufgaben erfüllen.

Und natürlich: Zivilcourage zeigen. Daran kommen wir nicht vorbei.

Autor und Autorin

Lars Gräßer ist wissenschaftlicher Mitarbeiter und Pressesprecher des Grimme-Instituts, erst als Community-Manager eines Netzwerks für Medienkompetenzförderung tätig, später Projektmitarbeiter beim Grimme Online Award und der Grimme-Akademie sowie im Bereich der Medienbildung. Er forscht am Grimme-Forschungskolleg an der Universität zu Köln zur politischen Meinungsbeeinflussung durch YouTuber, ist Autor zahlreicher Fachartikel und Herausgeber von Sammelbänden zu aktuellen Fragen der Digitalisierung, vielfach mit Blick auf politische Bildung.

Aycha Riffi ist Leiterin der Grimme-Akademie im Grimme-Institut. Nach dem Studium der Theater-, Film- und Fernsehwissenschaften, Germanistik und Pädagogik an der Ruhr-Uni Bochum folgten berufliche Stationen beim ZDF, WDR, SDR und DSF. Ab 2002 beim Grimme Online Award und 2005 Wechsel zur Grimme-Akademie. Hier war sie u. a. für die europäischen Projekte Media4us und BRICkS („Building Respect on the Internet by Combating Hate Speech“) in der Projektleitung. Mit Kai Kasper und Lars Gräßer ist sie Herausgeberin der Publikation „Online Hate Speech. Perspektiven auf eine neue Form des Hasses“.

Quellen

  • Gerstmann, Markus, Lea Güse und Lisa Hempel: Wir müssen die rechte Gehirnhälfte erreichen. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 141–148.
  • Kaspar, Kai: Hassreden im Internet – ein besonderes Phänomen computervermittelter Kommunikation. In: ders., Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 63–70.
  • Lobenstein, Marie-Joelle Hofer von, Annette Schneider: Das Projekt BRICkS: Auswertung von Hate Speech-Fallbeispielen. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 127–133.
  • Schmitt, Josephine: Online Hate Speech: Definition und Verbreitungsmotivationen aus psychologischer Sicht. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 135–140.
  • Wentzel, Johannes: Gemeinsam gegen Hate Speech – Workshops mit Jugendlichen. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 135–140.
  • Die mehrfach hier aufgeführte Publikation Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, ist in voller Länge und kostenlos online verfügbar unter: https://www.grimme-institut.de/fileadmin/Grimme_Nutzer_Dateien/Akademie/Dokumente/SR-DG-NRW_04-Online-Hate-Speech.pdf  [zuletzt 22.11.2018]”

[1] Siehe online: https://www.zeit.de/digital/internet/2018-08/youtuber-drachenlord-altschauenberg-cybermobbing-drachengame?page=44#comments  [zuletzt 22.11.2018]

[2] Siehe online: http://www.spiegel.de/plus/altschauerberg-cyber-mobbing-drachenlord-im-dauerfeuer-a-0db1cd5b-6a95-461b-b8ad-07d3f4eb7703  [zuletzt 22.11.2018]

[3] Siehe online: https://www.youtube.com/watch?v=zu9KtSvFGMI  [zuletzt 22.11.2018]

[4] Ergebnisbericht einer forsa-Umfrage (2018) im Auftrag der Landesanstalt für Medien NRW, siehe online: https://www.medienanstalt-nrw.de/fileadmin/user_upload/lfm-nrw/Foerderung/Forschung/Dateien_Forschung/forsaHate_Speech_2018_Ergebnisbericht_LFM_NRW.PDF  [zuletzt 22.11.2018]

[5] Pressemitteilung zur DIVSI-U25-Studie, siehe online: https://www.divsi.de/presse/pressemitteilungen/19313/ 

[6] Zusammenfassung einer repräsentativen Untersuchung (2018) „#Hass im Netz: Der schleichende Angriff auf unsere Demokratie“ des Instituts für Demokratie und Zivilgesellschaft im Auftrag von Campact e. V., siehe online: https://blog.campact.de/wp-content/uploads/2018/10/executive_summary.pdf  [zuletzt 22.11.2018]

[7] ebenda, Grafik 1. Wahrnehmung von Hassrede (2018), S. 1

[8] Siehe hierzu die exemplarische Auflistung in: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 171–180.

[9] Siehe online: https://www.grimme-online-award.de/archiv/2017/preistraeger/p/d/ichbinhier-1/ [zuletzt 22.11.2018]

[10] Markus Gerstmann, Lea Güse und Lisa Hempel: Wir müssen die rechte Gehirnhälfte erreichen, S. 144. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 141–148.

[11] Online unter: https://www.bricks-project.eu/  [zuletzt 22.11.2018].