Wie gelingt politische Bildung mit Webvideo?

Fachtagung Bewegtbildung am 20.9.2016

Podiumsdiskussion mit Anna Mauersberger, Franzi Kempis, Dr. Helle Becker, Rayk Anders

Die Podiumsdiskussion geht der Frage nach, was gute Webvideos im Kontext politischer Bildung ausmacht. Was ist das spezielle an Youtube-Videos im Vergleich zu anderen Lernmedien und wie können diese über frontale Formate hinaus wirken? Und welche Rolle spielt die Interaktion dabei? Welche Herausforderungen ergeben sich z.B. durch Hatespeech? Wie kann man Menschen ermutigen, ihre eigenen Positionen zu hinterfragen?

Politische Bildung und Webvideo – aktuelle Entwicklungen in einem Feld ständiger Wandlung

Fachtagung Bewegtbildung am 20.9.2016

Keynote von Anselm Sellen

“Bildung und Bewegung? Eine Fragerunde” – es stand anders im Programm.” So leitet Anselm Sellen seine Keynote ein. Er verdeutlicht die Bedeutung des Fragenstellens und ermutigt dazu, mehr das Fragen als die Antworten zu fokussieren und nicht nur den Gegenstand und sich selbst, sondern auch die Gesellschaft zu hinterfragen. Das formale Bildungssystem sei zu sehr darauf ausgelegt, Antworten zu geben bzw. diese zu verlangen. Politische Bildung solle aber eher ermutigen, Fragen zu stellen. Sellen verdeutlicht in seiner Keynote die Kraft von Webvideo und Bewegtbildung, die Menschen ermöglichen eine andere Sprache zu sprechen und auf eine andere Reflexionsebene über politische Bildung zu kommen.

Messengerisierung und Webvideo

Hat der zunehmende Rückzug von Kommunikation in geschlossene Messengergruppen Einfluss auf die Arbeit mit Webvideo in Bildungskontexten?

Gedanken des Netzwerkes Bewegtbildung


cc by alok_sharma

Dieser Text zeigt Chancen und Herausforderungen von Messengerkommunikation für Bewegtbildung auf. Er bezieht sich dabei auf die vier Bewegtbildungs-Kriterien Identifikation, Interaktion, Zielgruppenorientierung und Haltung.

Messengerkommunikation und Identifikation
Kommunikation in nicht-öffentlichen oder halb-öffentlichen Messengergruppen bietet, neben zahlreichen Herausforderungen für die politische Bildung, auch neue Chancen. Vor allem wenn es um die Frage geht, wie wir als Bildner*innen Identifikation mit einem Bildungsprozess herstellen wollen, könnten Messengerdienste die Arbeit unterstützen. Zum einen kann ein direkter Austausch mit bestimmten Zielgruppen dort stattfinden, wo sie sich ohnehin schon regelmäßig aufhalten. Zum anderen lassen sich Gruppen gestalten, die als geschützter Raum wahrgenommen werden. Natürlich werden so in der Kommunikation auch In- und Outgroups etabliert. Für die Identifikation als Gruppe und gemeinsames Projekt kann das jedoch ein Vorteil sein. Durch die Vielzahl technischer Dienste und Gruppen besteht allerdings die Gefahr einer Zersplitterung der Kommunikation und es entstehen technische Abhängigkeiten. Dies kann für Bildner*innen bedeuten, mehrere Dienste parallel nutzen zu müssen – sicher eine Ressourcenfrage. 

Es sollte Teilnehmenden freigestellt sein, den Dienst zu nutzen, den sie etwa mit Blick auf Datenschutz als angemessen und praktisch empfinden. Über die exklusive Gruppenbildung und die Übertragung von echter Verantwortung für die Gruppen (Moderation/Admin) an Projektteilnehmende lassen sich echte Peerstrukturen schaffen. Dies kann die Identifikation mit einem Bildungsprozess zusätzlich erhöhen. Inwieweit sich Peers finden, die freiwillig und verantwortungsvoll diese Aufgabe übernehmen, ist allerdings eine eigenständige Frage. Auch wird sich erst im Prozess zeigen, ob diese Peerleader ihre Rolle in unseren Projekten als Gewinn oder Verlust für ihr Ansehen unter ihresgleichen ansehen. Mit Blick auf jugendliche Zielgruppen muss klar sein, dass Projekte nur dann als Gewinn an Reputation wahrgenommen werden, wenn sie einen echten Lebensweltbezug haben und die Kommunikation in Messengern auf Augenhöhe, persönlich und informell verläuft. Das bedeutet zum Beispiel, keine Textwüsten und Fachsprache in Messengerkommunikationen zu verwenden. Ebenfalls sollte keine Imitation von Jugendsprache stattfinden und der Einsatz von ikonografischen Mitteln wie Emojis, Sticker, Animationen und GIFs (z.B. Memes) muss gut überlegt und dem Thema angemessen sein.

Messengerkommunikation und Interaktion
WhatsApp als der größte Messengeranbieter in Deutschland ist für politische Bildner*innen zunächst eine interessante Plattform, um die eigenen Inhalte schnell an eine große Anzahl an Empfänger*innen zu schicken und sofort Feedback zu erhalten. In der Praxis ist jedoch die Zuordnung von Messengerdiensten zu sozialen Netzwerken problematisch, da diese nicht den offenen Plattformcharakter von Facebook oder Twitter aufweisen. Wer nicht in den entsprechenden Gruppen ist, kommt auch nicht in die Kommunikationskanäle hinein – das ist auch erst einmal gut so. Für die politische Bildung können Messengerdienste trotzdem sinnvoll sein – nicht zur direkten Zielgruppenansprache, aber indirekt, beispielsweise wenn zur Kommunikation mit Multiplikator*innen ein eigener Info-Channel aufgebaut wird, oder ein Chatbot spielerisch zum Engagement mit Inhalten einlädt. Inhalte sollten so aufbereitet sein, dass sie zum Teilen einladen. Ob Aufwand und Nutzen – insbesondere bei aufwändigen Chatbots, oder großen Channels, die dann auch ein entsprechendes Communitymanagement erfordern – in einem angemessenen Verhältnis stehen, bleibt allerdings zweifelhaft und muss deshalb für einzelne Interaktions-Formen jeweils abgewogen werden..

Messengerkommunikation und  Zielgruppenorientierung
Gerade in Bezug auf Messengerkommunikation ist es nochmal notwendiger, seine Zielgruppe so genau wie möglich zu kennen und zu wissen, in welchen Gruppen diese unterwegs ist. Ebenso wichtig ist es, die Funktion der jeweiligen Messengergruppen zu kennen, um Inhalte mit der Zielgruppe auszutauschen. Der Gruppe “Anna´s Geburtstag” kommt dabei eine andere Funktion und Intentionallität zu als der Gruppe “Umwelt AG der Klasse 7B”, was bei der Ansprache und Einbindung der Zielgruppe in die Verbreitung von Inhalten berücksichtigt werden muss.

Um von Erwachsenen initiierte Bewegtbildungsprojekte unter Einbeziehung von Messengerkommunikation erfolgreich und partizipativ durchzuführen, ist es stets notwendig, auf Augenhöhe mit der Zielgruppe zu sein, Wissensaustausch zu ermöglichen und Dialog zu fördern.

Messengerkommunikation und Haltung
Wichtig ist es im Rahmen von Bewegtbildung, zum einen als Projektverantwortliche*r Haltung zu zeigen und dabei unter anderem Pluralismus und zivilgesellschaftliches Denken vorzuleben, sowie zum anderen sachlich und neutral zu bleiben. Möglich wird das etwa, indem man andere Haltungen als die eigene, sofern diese sinnvoll argumentierend und nicht würdeverletzend oder Ähnliches sind, als gleichwertig bedeutsam anerkennt und den hohen Stellenwert einer solchen Anerkennung für politische Prozesse betont. Im Zentrum von Bewegtbildungsprojekten stehen jedoch nicht Haltungen der Projektverantwortlichen, sondern die Haltungen der Projektteilnehmer*innen. Diese können innerhalb von Messengergruppen von den Teilnehmer*innen miteinander diskutiert sowie überhaupt erst einmal entwickelt werden. Kontroverse Themen sowie der Einbezug von Emotionen können Anreize für solche Diskussionen in Gruppen schaffen und Interaktionsgrade erhöhen. Beides kann aber auch in unsachliche Diskussionen münden. Deshalb kann im Rahmen von Bewegbildung bezogen auf Messengerdienste der Umgang mit Emotionalität und mit Kontroversen, die sich teils nicht auflösen lassen und die teils auch ausgehalten werden müssen, thematisiert werden. Ebenfalls kann der Umgang mit Hate Speech und Fake News in Bezug auf Messenger Thema sein und es können Filterblasenphänomene bewusst gemacht werden, die sich gerade auch durch nicht- oder halb-öffentliche Gruppen in Messengerdiensten verstärken können.

Wichtig ist auch, die Haltung einzunehmen, dass Projektverantwortliche nicht alles wissen müssen, was in Messengergruppen des Projektes geschieht, und dass gerade z.B. Jugendliche auch ihre eigenen Räume benötigen, in denen sie agieren können. Ggf. kann ein*e Projektteilnehmer*in die Moderation der Gruppe übernehmen und, sofern vorher mit allen Teilnehmer*innen so vereinbart, Problemfälle in der Gruppe mit den Projektverantwortlichen besprechen, allerdings ohne dabei Projektteilnehmer*innen zu diskreditieren. Extreme Haltungen etwa können dadurch als solche problematisiert werden. Gleichwohl sollte ein gleichberechtigter Diskurs auch sehr unterschiedlicher Meinungen gefördert werden. Falls Projektverantwortliche doch an Messengergruppen des Projekts teilnehmen, sollte dies mittels Personen-Accounts statt Organisations-Accounts geschehen, um somit die wünschenswerte Haltung zu verdeutlichen, in der Gruppe als persönliche*r Diskussionsteilnehmer*in zu kommunizieren und nicht als übergeordnete, eine Organisation vertretende Instanz.

Katrin Müller, Markus Gerstmann, Maximilian Nominacher, Mosjkan Ehrari, Robert Behrendt und  Shirin Kasraeian für das Netzwerk Bewegtbildung

Markierung von geflüchteten Menschen in der Bewegtbildarbeit –Auswirkungen und Schlussfolgerungen für die medienpädagogische Arbeit mit Webvideo

von Robert Behrendt, Birte Frische und Jan Rooschüz

Einleitung

Die asylpolitischen Entwicklungen seit den 1990er-Jahren (zum Asylkompromiss  online bei bpb.de), die zunehmende Anerkennung Deutschlands als Einwanderungsland sowie die zugespitzte gesellschaftliche Situation seit dem „Summer of Migration“ im Jahr 2015 haben deutlich gemacht, dass Geflüchtetenarbeit in der Medienpädagogik einen besonderen Stellenwert erfahren sollte.

Diesem Ziel widmete sich eine Arbeitsgruppe aus Medienpädagog*innen, die sich 2015 im Netzwerk bewegtbildung.net gebildet hat, u. a. mit diesem Artikel. In den vergangenen drei Jahren ist deutlich geworden, dass sich die gesellschaftlichen Umstände stark verändert haben. Die Asylbewerberzahlen  sind seit August 2016 rückläufig, viele Geflüchtete sind nicht mehr von existenziellen Fragen bedroht und die Kräfteverhältnisse im Deutschen Bundestag haben sich seit der Bundestagswahl 2017 verschoben.

Nichtsdestotrotz oder gerade deswegen sind die Begriffe „Asylbewerber“, „Flüchtling“ und „Geflüchteter“ politisch aufgeladen und die so bezeichneten Menschen werden besonderen Herausforderungen ausgesetzt. Das hat entscheidende Konsequenzen für die medienpädagogische Arbeit mit Webvideo.

In der themenzentrierten Webvideoarbeit mit geflüchteten Menschen bewegen sich diese im Spannungsfeld von Markierung, d. h. der Zuschreibung von Kategorien wie „Geflüchtete“, „Refugees“ und „Flüchtlinge“, und medialer Selbstrepräsentation. Sie können und sollen einerseits als Menschen mit Fluchterfahrung an Projekten teilnehmen, andererseits möchten wir als politische Bildner*innen diese Zielgruppe nicht auf diese Rolle reduzieren. Sie changieren zwischen Fremd- und Selbstzuschreibung. Wenn wir in diesem Beitrag von der Markierung von Geflüchteten sprechen, dann stehen auch wir vor der Herausforderung, sie nicht durch Stigmatisierungen und durch die Reproduktion von Stereotypen und Klischees auf ihren Aufenthaltsstatus oder ihre Herkunft festzuschreiben. Gleichzeitig sind aber gerade ihr Aufenthaltsstatus und ihre Herkunft in der Aufnahmegesellschaft für sie selbst zentrale Themen, die nicht einfach übergangen werden können.

Dieses Dilemma wollen wir in unserem Artikel diskutieren und auf unsere gewonnenen Erfahrungen als Medienpädagog*innen zurückgreifen. Das heißt aber auch, dass wir uns nur ausschnittweise mit dem Komplex beschäftigen können, sowohl aufgrund seines Umfangs als auch wegen unserer spezifischen Perspektiven. Dennoch können wir aus unserer Praxis und Reflexion einige Konsequenzen ableiten, die für die aktive Medienarbeit im Allgemeinen und Webvideoarbeit mit Geflüchteten im Besonderen für künftige Projekte von Interesse sein können.

Online oder offline

Seit 2015 hat die Schärfe der Auseinandersetzungen in den sozialen Medien zusehends zugenommen, sodass seitdem hate speech als Begriff und Phänomen auch in Deutschland in der Breite wahrgenommen wird (vgl. Monitoringbericht 2015/16: Rechtsextreme und menschenverachtende Phänomene im Social Web, Amadeu Antonio Stiftung 2016). Diese Entwicklungen haben entscheidenden Einfluss auf Projekte in der Medienpädagogik genommen. Bildungsformate gegen Hassrede gehören seitdem zum medienpädagogischen Standard. Bewegtbildprojekte mit Geflüchteten trifft diese Entwicklung besonders schwer, weil diese Gruppe zu den am häufigsten von hate speech Betroffenen gehört. Die Konsequenzen für eine Projektarbeit reichen entsprechend weit.

Grundsätzlich muss ein Projekt, in dem Geflüchtete als Urheber*innen auftreten bzw. vor der Kamera stehen, darum projektintern die Frage beantworten, ob es seine Bewegtbildprodukte in den sozialen Medien als Webvideo veröffentlichen möchte. Diese Frage kann nicht ohne die Teilnehmenden beantwortet werden und diese sollten eine informierte Entscheidung treffen können. Wenn es den Projektzielen dient oder die Projektziele gefährdet, kann von einer Veröffentlichung jederzeit abgesehen werden. Im Falle einer Umsetzung der Produkte als Webvideos sollten folgende Fragen im Vorfeld beantwortet werden, um diskriminierenden Markierungen begegnen zu können:

  1. Welche Plattformen und Kanäle (YouTube, Vimeo, Facebook, Twitter, Instagram etc.) möchte das Projekt mit seinen Inhalten bespielen und welche eignen sich, um die Projektziele zu erreichen?
  2. Wie werden Fragen des Datenschutzes und Jugendmedienschutzes im Projekt thematisiert und umgesetzt?
  3. Welche Ressourcen kann das Projekt zur Verfügung stellen, um ein regelmäßiges, verbindliches, sachliches und skalierbares Communitymanagement zu gewährleisten?
  4. Welche Regeln helfen der Moderation in den Kommentarräumen der Kanäle (Verhaltenskodex, Leitlinien zum Antwortverhalten, zum Löschen, Melden und Blockieren von diskriminierenden Accounts)?
  5. Welche Strukturen und Ressourcen bietet das Projekt, um Teilnehmende und Fachkräfte in Krisenfällen zu unterstützen?

Schutzauftrag

Bei jedem Medienprodukt, das Protagonistinnen deutlich erkennbar abbildet, muss das Persönlichkeitsrecht gewahrt werden. Grundsätzlich wird das Einverständnis der abgebildeten Personen benötigt, und zwar nicht nur für die Aufnahme selbst, sondern auch für die Veröffentlichung und Verbreitung des aufgenommenen Materials im Internet. Zusätzlich zum Einverständnis sollten sich Bewegtbildnerinnen immer fragen, welche weiteren Informationen über die Personen neben der reinen Abbildung veröffentlicht werden.

In Einzelfällen kann es sinnvoll sein, trotz des Einverständnisses zur Veröffentlichung Abstand von der Angabe des Klarnamens und Wohnortes zu nehmen oder sogar von der Veröffentlichung selbst. Geflüchtete können in Deutschland zwar dem Zugriff eines Regimes entkommen sein, nicht mitgekommene Angehörige, Freundinnen und Mitstreiterinnen ggf. aber nicht. Mit geflüchteten Teilnehmer*innen sollte daher auch thematisiert werden, inwieweit eine Veröffentlichung sie oder andere gefährdet.

Insbesondere im ländlichen Raum und in Kleinstädten ließe sich die Identität der abgebildeten Personen einfach feststellen; das gefährdet vor allem Geflüchtete. Einige Organisationen kommunizieren aus diesen Gründen in ihrer Öffentlichkeitsarbeit generell keine Klarnamen der abgebildeten Personen, sondern ersetzen sie durch Pseudonyme, um ihrem Schutzauftrag für besonders gefährdete Zielgruppen nachzukommen. Folgende drei Punkte kommen hinzu:

Bestenfalls identifiziert sich die abgebildete Person positiv mit dem Medienprodukt, z. B. aus Stolz auf das selbst produzierte Webvideo oder aufgrund der vermittelten Botschaft. In der Regel möchte die abgebildete Person als Urheber*in dann auch namentlich genannt werden, was wiederum mit dem oben genannten Gefährdungspotenzial Geflüchteter kollidieren kann.

  1. Bestenfalls identifiziert sich die abgebildete Person positiv mit dem Medienprodukt, z. B. aus Stolz auf das selbst produzierte Webvideo oder aufgrund der vermittelten Botschaft. In der Regel möchte die abgebildete Person als Urheber*in dann auch namentlich genannt werden, was wiederum mit dem oben genannten Gefährdungspotenzial Geflüchteter kollidieren kann.
  2. Gegenüber den Teilnehmenden sollte dieses Problem so mitgeteilt werden, dass daraus nicht eine Selffulfilling Prophecy wird und ein Gefühl von Angst und Bedrohung erzeugt wird, das positive Erfahrungen und Erwartungen der Teilnehmenden überlagert. Empowerment sollte ein Kern aktiver Medienarbeit bleiben.
  3. Mit Projektteilnehmenden produzierte Webvideos sind selten Hochglanzprodukte und können kaum mit professionell produzierten Medien mithalten. Sie sind Ergebnisse eines pädagogischen Prozesses. Diesen Prozess gilt es zu schützen und Geflüchtete sollten durch die Machart oder Inhalte ihrer Produkte nicht angreifbar gemacht werden.

Teilnehmendenakquise

Ein zentraler Widerspruch bestimmt die Projektarbeit mit Geflüchteten, der sich nicht unkritisch lösen lässt. Einerseits soll diese Zielgruppe konkret zur Teilnahme angesprochen und eingeladen werden, andererseits möchten wir als politische Bildner*innen sie nicht auf ihren Aufenthaltsstatus reduzieren und nicht mit positiven Diskriminierungen arbeiten. Welche Möglichkeiten bestehen also neben der Einordnung der Zielgruppe als „Geflüchtete“, „Refugees“ oder „Flüchtlinge“, um sie trotzdem zu erreichen? Drei Aspekte scheinen hierfür entscheidend.

Sprache

Eine Ansprache ohne explizite Markierung ist vor allem durch den gezielten Einsatz der Herkunftssprachen machbar. Dafür müssen im Projektdesign notwendige Bedingungen vorliegen: Projektsprachen müssen definiert sein (z. B. Arabisch, Türkisch, Paschtu, Tigrinya, Französisch oder Englisch) und Mittel für Dolmetschen zur Verfügung stehen. Eine schriftliche Ansprache in der Herkunftssprache reicht gegebenenfalls jedoch nicht aus, da eine umfassende Alphabetisierung nicht vorausgesetzt werden kann. Um die Zielgruppe Geflüchteter letztlich zu erreichen, braucht es mehr als die Bestimmung der Projektsprache.

Inhalte

Bewegtbildprojekte brauchen einen inhaltlichen Rahmen – dieser kann helfen, die Zielgruppe zu erreichen. Bei der Bestimmung des Rahmens können also spezifische Lebenslagen Geflüchteter einfließen und in der Ansprache auch kommuniziert werden. Zum Beispiel könnte Sozialraumerkundung ein Thema sein, das Vorstellen von Willkommens-Orten, interkultureller Austausch, musikalische Vorlieben oder die Benennung eines bestimmten Erfahrungshorizonts ohne Ausschluss, wie etwa „für Menschen mit und ohne Fluchterfahrung“.

Netzwerke

Projektarbeit mit Geflüchteten benötigt Vorlaufzeit, um diese Zielgruppe zu erreichen. Vor allem müssen bestehende Netzwerke mit Erfahrungen in der Arbeit mit Geflüchteten in die Teilnehmendenakquise eingebunden werden. Bezugspersonen, die Kontakt zu informellen Strukturen herstellen können, sind genauso wichtig wie der Einsatz sozialer Medien. Wenn Vertrauenspersonen in der Community und in Einrichtungen erreicht werden oder digitale Kanäle bespielt werden, in denen sich diese Menschen bewegen, dann entstehen interessante Kontakte und viele Gelegenheiten, sie in die Projektarbeit einzubinden.

Die Verknüpfung dieser drei Bereiche in der Teilnehmendenakquise kann bestenfalls eine markierungsfreie Ansprache von geflüchteten Projektteilnehmenden gewährleisten. Das schließt nicht aus, dass es dennoch zu Markierungen z. B. durch die Themenwahl kommen kann oder die Ansprache zu unspezifisch wird. Hier ist im Einzelfall und auf Grundlage des Projektdesigns zu entscheiden, welches Vorgehen die anvisierte Zielgruppe am besten erreicht.

Formatwahl

Webvideoformate bieten vielfältige Möglichkeiten für Geflüchtete, ihre Ansichten und Ideen einzubringen und ihre Anliegen vorzutragen. Ob sie dabei als Geflüchtete bezeichnet werden wollen bzw. selbst diesen Status kommunizieren, sollte in ihrer Hand liegen. Oft ist es eher hinderlich, Geflüchtete als solche zu markieren, denn dann können entsprechende Stereotype verstärkt werden, andererseits wünschen sie teils eine Auseinandersetzung mit ihrer Rolle als Geflüchtete.

Bei schauspielerischen Webvideoformaten bzw. dem Einnehmen einer anderen Rolle (z. B. Kurzfilm, Stop-Motion/Trickfilm) tritt die eigene Person und damit verbundene Erfahrungen in den Hintergrund. Etwa können negative Erfahrungen humoristisch bearbeitet und dadurch relativiert oder zugespitzt werden. Geflüchtete Teilnehmende können in fiktionalen Formaten Vorurteile gegen sie oder Deutsche persiflieren. Genauso kann das Vertreten eigener tatsächlicher Positionen und das Sich-als-reale-Person-Zeigen (z. B. Talking Heads, Statements, Doku, Interview, Reportage) empowernd wirken. Zu beachten ist, dass bei sensiblen Themen gegebenenfalls Traumatisierungen getriggert werden. Unter Umständen kann es auch rechtlich problematisch werden, wenn Geflüchtete in einem laufenden Aufenthaltsverfahren über ihre Flucht sprechen. Folgende Formate bieten sich in der Arbeit mit Geflüchteten an:

Kurzdefinition mit Beschreibung der Vor- und Nachteile

Geflüchtete als Teamer*innen

Eine hohe Fluktuation unter den Teilnehmenden ist aufgrund der besonderen Lebenslagen von Geflüchteten nicht ungewöhnlich. Darum ist Kontinuität im Team essenziell und seiner Zusammenstellung sollte besondere Aufmerksamkeit geschenkt werden.

Ein gut abgestimmtes Team kann diskriminierenden Markierungen vorbeugen und Herausforderungen in der Arbeit mit Geflüchteten begegnen. Im Team und mit den Teilnehmenden sollten Alltagsrassismus, Rollenbilder und Stigmatisierungen selbstreflexiv thematisiert und hinterfragt werden: Wer wird wie dargestellt und was verstärkt vielleicht Stereotype? Mit welchen Bildern stigmatisiert man Geflüchtete? Wo kann vielleicht auch mit Klischees gespielt werden, um sie bewusst zu brechen? Die Perspektiven und das Urteilsvermögen der Teilnehmenden selbst sollten einbezogen werden, statt von oben herab zu definieren, wie etwas „zu sein hat“.

Pädagogische Teams sollten heterogen und sprachlich divers aufgestellt sein und bestenfalls durch Trainer*innen mit Fluchterfahrung verstärkt werden. Diese können das Projekt um wertvolle Perspektiven bereichern, Sprachkenntnisse einbringen und geflüchtete Teilnehmende durch geteilte Erfahrungen besser begleiten. Eigene Grenzen und die der Teilnehmenden wahrnehmen zu können, ist für alle eine wichtige Kompetenz: Wann belaste ich mich und andere zu sehr? Welche Zeichen gibt es für Überlastung und Traumabelastung? Eine gute Mischung aus Empathie und professionellem Abgrenzungsvermögen ist wichtig.

Bei der Auswahl der Teammitglieder sollten verschiedene Kriterien berücksichtigt werden, die in Bezug auf die spezifische Zielgruppe angepasst werden sollten. Folgende Kompetenzen sind hierbei zentral:

  1. Sprachliche Kompetenzen: Die Teamer*innen beherrschen die Zielsprache des Projektes und bestenfalls auch die Sprache der Zielgruppe. Alternativ können Sprachbrücken gebaut werden, sodass Fragen im Team und mit Teilnehmenden gegenseitig erklärt werden können. Englisch als Vermittlungssprache – wie jede andere Sprache, die von allen Beteiligten gesprochen wird – ist oft hilfreich. Fehlende Medienkompetenz aufseiten der Sprachmittler*innen kann zu Übersetzungsverlusten führen, die den pädagogischen Prozess beeinträchtigen.
  2. Transkulturelle Kompetenzen: Die Teamerinnen sollten in der Lage sein, auf individuelle Fragen und Bedürfnisse der Teilnehmenden aufmerksam zu werden und darauf einzugehen. Dabei sollte ein weiter Kulturbegriff angelegt werden, der neben ethnischen Besonderheiten auch andere kulturelle Unterschiede anerkennt, wie: Musik- und Jugendkultur, Kunst-, Wirtschafts- und Wissenschaftskultur. Diversitytrainings können Teamerinnen für diese Fragen sensibilisieren.
  3. Medienpädagogische Kompetenzen: Die Vermittlung technischer und künstlerischer Fertigkeiten sollte durch die Teamer*innen geleistet werden können. Mit Blick auf die Zielgruppe sind auch niedrigschwellige Ansätze empfehlenswert, die auch intuitiv oder bildlich erfassbar sind.
  4. Moderationskompetenzen: Es ist hilfreich, wenn im Team Erfahrungen mit Gruppenmoderation vorhanden sind. Nicht selten gestaltet sich die Kommunikation aufgrund verschiedener Ausgangs- und Zielsprachen unübersichtlich und braucht eine behutsame Steuerung.
  5. Psychologische Kompetenzen: Aufgrund akuter Krisensituationen, Traumatisierungen oder existenzieller Fragen, die in der Arbeit mit Geflüchteten auftreten können, ist es sicher hilfreich, wenn psychologische Kompetenzen im Team vorhanden sind. Nichtsdestoweniger kann dies in der medienpädagogischen Arbeit nicht vorausgesetzt werden. Hier empfiehlt es sich, bei entsprechenden Fachkräften Rat oder Unterstützung zu suchen bzw. Informationsmaterial und Telefonnummern von Beratungsstellen in der Projektdurchführung parat zu haben.

Mittelakquise und Themenwahl

Die Markierung „Geflüchtete“ kann bei der Arbeit in Webvideoprojekten erforderlich sein, um, wie bereits beschrieben, die Zielgruppe zu erreichen. Aber eben auch, um Fördermittel einzuwerben – vor allem in der Ansprache bestimmter Akteurinnen, in unserem Bereich z. B. die öffentliche Hand, Stiftungen und Unternehmen, außerdem Projektträgerinnen von Webvideoprojekten sowie die allgemeine Öffentlichkeit.

Im deutschen Fördersystem zieht sich die Frage der Markierung Geflüchteter somit durch mehrere Ebenen. Aus der Benennung von Förderprogrammen wird in der Regel deren Zielsetzung ersichtlich (z. B. Flüchtlingshilfe), was eine Markierung im Titel erfordert. Die Markierung ist darüber hinaus ein Mittel, damit Förderinstitutionen wie Stiftungen oder Hilfsorganisationen Gelder für ihre Förderbudgets einwerben können. Geldgeber sind in erster Linie Politik und Verwaltung (z. B. Ministerien), Großspenderinnen (z. B. Unternehmen im Rahmen ihrer Corporate-Responsability-Programme) sowie Kleinspenderinnen. Projektträgerinnen wiederum sind dazu gezwungen, in Förderanträgen ihre Zielgruppe zu benennen, und Förderinnen erwarten, dass dieser die Mittel auch zugutekommen. Zusätzlich obliegt den Projektträger*innen oft der Nachweis, die Förderung zweckgebunden zu verausgaben, was dazu führen kann, dass Geflüchtete ihren Status nachweisen müssen, um am Projekt teilnehmen zu können.

Darüber hinaus wird durch Förder*innen nicht selten die inhaltliche Thematisierung von Flucht und den daraus resultierenden individuellen Schicksalen gewünscht. Die Markierung endet also nicht beim Förderziel, sondern nimmt auch Einfluss auf die inhaltliche Gestaltung von Projekten. Die plakative Benennung von Förderprogrammen oder ‑projekten („Kinderrechte für Kinderflüchtlinge“) und die Markierung Geflüchteter bei im Rahmen dieser Programme entstehenden Webvideos haben also Gründe, die zum einen in der Logik des deutschen Fördersystems, zum anderen in den Zielen der Öffentlichkeitsarbeit liegen.

Politik, Medien und Akteurinnen wie Förderinnen und Projektträger*innen wollen Einblicke in die einzelnen Schicksale und Fluchtgründe geben und schließlich – durch das Aufzeigen von Fluchtursachen wie Krieg, Verfolgung und Repression – ein gesellschaftliches Verständnis ermöglichen. Hierdurch werden jedoch unter Umständen gängige Stereotype über „Flüchtlinge“ erst medial erzeugt bzw. reproduziert. Geflüchtete werden primär auf ihre Fluchtgeschichte reduziert und weniger als aktiv Handelnde dargestellt. Es braucht also zudem eine beständige kritische Auseinandersetzung mit den Inhalten von Webvideos, um dieses Dilemma nach und nach aufzulösen.

Das Für und Wider der Markierung

Es gibt gute Gründe sowohl für als auch gegen die Markierung Geflüchteter im Rahmen von Bewegtbildungsarbeit, eine einfache Antwort ist hier, wie so oft, nicht möglich. Im Rahmen von Webvideoprojekten sollten die Teilnehmenden ermächtigt werden, selbstständig eine Korrektur medial reproduzierter Stereotype vorzunehmen. Sie sollten eine Stimme erhalten, die auch als ihre Stimme wahrgenommen wird, sowie die Möglichkeit, ein Bild von sich zu entwickeln und zu vermitteln, das ihnen als Personen gerecht wird. Man könnte in diesem Rahmen unter Umständen sogar von einer positiven Markierung als Geflüchtete sprechen.

Mediale Selbstrepräsentation und Medienkompetenz ist zu dieser Frage der entscheidende Schlüssel. Dazu kann medienpädagogische Arbeit mit und in Webvideo einen entscheidenden Beitrag leisten. Zum einen in der konkreten Projektarbeit mit Geflüchteten, zum anderen auf öffentlichen Webvideoplattformen selbst – hierbei muss klar werden können, wer mit wem und über wen spricht, um Selbst- und Fremdzuschreibungen unterscheidbar zu machen. Stereotype Rollenbilder können nur dann überwunden werden, wenn sie als solche identifiziert und benannt werden.

Voraussetzung ist dafür allerdings, dass Projekte, die in Webvideos themenzentriert mit der Zielgruppe Geflüchteter arbeiten, einen sowohl geschützten als auch selbstkritischen und ergebnisoffenen Bildungsprozess anstreben. Anlässe, die Markierung und Reproduktion überkommener Rollenbilder zu thematisieren, sollten unbedingt wahrgenommen werden, Feedback aller Beteiligten zu Inhalten und Prozess sollte jederzeit möglich sein und die Teilnehmenden sollten politische Bildung und Medienbildung als sich gegenseitig ergänzende Aspekte der Bewegtbildungsarbeit verstehen.

Da der Großteil der medienpädagogischen Projekte mit und für Geflüchtete durch öffentliche Fördermittel finanziert wird, gehorchen diese Projekte bis zu einem gewissen Grad der Logik dieses Fördersystems und machen das Benennen der Zielgruppe notwendig. Das muss jedoch nicht zwangsläufig eine Markierung der Zielgruppe Geflüchteter zur Folge haben, die Stereotype verstärkt. Hier wäre eine selbstkritische Bearbeitung des Themas durch die Ebenen des Fördersystems hindurch wünschenswert, vor allem um Geflüchteten das Ankommen hierzulande zu erleichtern und ihnen neben ihrem Aufenthaltsstatus eine emanzipierte Selbstrepräsentation zu ermöglichen.

Hierfür müsste vor allem das Potenzial an medienpädagogischen Fachkräften mit Migrationsgeschichte gehoben werden und Peeransätze mit Teamer*innen mit Fluchterfahrung müssten verstärkt verfolgt werden. Die Tatsache, dass Deutschland seit mehreren Jahrzehnten eine sehr lebendige Einwanderungsgeschichte hat, sollte bei diesem Unternehmen eigentlich von Vorteil sein.

Autoren und Autorin

Robert Behrendt ist Philosoph und arbeitet freiberuflich als politischer Bildner und Medienpädagoge. Er setzte sich 3 Jahre lang als Koordinator des Berliner jugendFORUMs für Beteiligung junger Menschen in Berlin ein. Seit 2015 ist er u. a. für mediale pfade in den Bereichen Onlinejournalismus und Webvideo tätig, entwickelt Bildungsformate und probt den Einsatz von AR/VR in der politischen Bildung.

Birte Frische (M. A. Pädagogik, Ethnologie, Geschlechterforschung) aus Hamburg konzipiert und führt Projekte und Workshops an den Schnittstellen von digitalen Medien, politischer Bildung und Partizipation durch. Sie leitet aktuell ein Projekt im ABC Bildungs- und Tagungszentrum e. V. bei Hamburg, das Bewegung und Sport mit Medien bzw. Film verknüpft, und ist außerdem als freiberufliche Medienpädagogin und Projektmanagerin tätig. Ein Schwerpunkt ihrer Arbeit sind die Themen Migration und Flucht.

Jan Rooschüz ist Geschäftsführer des kijufi – Landesverband Kinder- & Jugendfilm Berlin e. V. und Direktor des Kinderrechte-Filmfestivals. Er arbeitete in der Spiel- und Dokumentarfilmproduktion, ist Film- und Medienpädagoge und Dozent für Medienpädagogik. Jan Rooschüz ist Experte für das Thema Urheberrecht und Creative Commons in der kulturellen Bildung und für die Erstellung von Onlinebildungsmaterialien zum Thema Medienarbeit. 2016 bis 2018 beriet er für Save the Children bundesweit Initiativen zur Medienarbeit mit geflüchteten Kindern und Jugendlichen.

“Agil bleiben. Für die Community. Gegen hate speech. – Zur Kanalentwicklung von „Auf Klo”

von Lydia Meyer

“Who the fuck is Dr. Sommer? Hier kommt „Auf Klo”

“Auf Klo“ ist ein Aufklärungsformat, das die KOOPERATIVE BERLIN seit 2016 für funk produziert. Zuerst nur auf eine Staffel angelegt, zählt das Webvideoformat nach knapp zwei Jahren 150 000 Abos auf YouTube und ca. 2 Millionen Klicks monatlich. Das Konzept ist eigentlich ganz einfach: Jeden Donnerstag treffen sich zwei Menschen in unseren Studioräumen – sozusagen in einer öffentlichen YouTube-Toilette – und reden. Über Körper, Menstruieren, Depressionen und Make-up, Brüste und Borderline, Beziehungen und Liebeskummer, guten und schlechten Sex, Geschlechterrollen, Stereotype und Klischees. Aber wieso eigentlich dieser Name? „Auf Klo“ ist eine Antwort auf die nervige Frage: „Warum gehen Mädchen eigentlich immer zu zweit aufs Klo?“ Na, um entspannt in einem für sie sicheren Raum über die wichtigen Dinge und Probleme des Lebens zu reden.

„Auf Klo“ ist ein Format für Mädchen und junge Frauen zwischen 14 und 20 Jahren, das vor allem eine Message hat: Du bist o. k. Und weil die Menschen, die wir damit erreichen möchten, vor allem in den sozialen Netzwerken unterwegs sind, findet „Auf Klo“ genau dort statt: In zwei veröffentlichten YouTube-Videos pro Woche werden Reizthemen behandelt, Tabus oder Alltägliches, und über Instagram und Facebook weitergesponnen. Wieso redet auf YouTube eigentlich niemand über Fehlgeburten ? Bin ich pansexuell ? Was heißt eigentlich nonbinär ? Und wieso ist die Flüssigkeit in Tamponwerbungen  immer noch blau?

Die Kanalidee entstand im Zuge einer öffentlichen Ausschreibung von funk – damals noch unter dem Arbeitstitel „Junges Angebot von ARD und ZDF“. In Fokusgruppenworkshops mit Mädchen zwischen 14 und 16 begaben wir uns auf die Suche nach möglichem Kitt für die Lücke, die zwischen öffentlich-rechtlichen Angeboten in Deutschland und der YouTube-Welt klaffte. Was unserer Einschätzung nach fehlte, waren positive Identifikationsangebote für eine Zielgruppe in der Betaphase, die von Erwachsenen gern als Pubertät bezeichnet wird. Ein offenes und ehrliches Aufklärungsformat ohne Stereotype und erhobenen Zeigefinger sollte es werden, das mit Betroffenen spricht statt nur über sie – und somit Identifikationsangebote macht. Held*innengeschichten, die Jungs so oft vermittelt werden, fanden sich in Angeboten, die sich an eine weibliche Zielgruppe richten, bis dato kaum. Wir wollen sie erzählen. Scheitern, zweifeln, von vorn anfangen erlaubt.

Am Anfang war der hate

Als wir mit unserem Format im Oktober 2016 an den Start gehen, erreichen wir aber nicht unsere Zielgruppe (und sind noch nicht mal nah dran). Irgendwie scheinen wir mit der ersten Folge vor allem alte Männer anzusprechen. Und die sind vor allem eins: getriggert! Die Trolle und wir? It’s a match!

Eine dicke, nonbinäre Person erlaubt es sich, auf einer Toilette Baklava zu essen und über Feminismus und fat shaming zu reden – finanziert von Ihrem Rundfunkbeitrag in einer Sendung, die „Auf Klo“ heißt und auch dort stattfindet. Und die sich auf die Fahne geschrieben hat, mit Stereotypen zu brechen. Das sind die Triggerpunkte, die wir mit unserer ersten Folge drücken. So ziehen wir zu Beginn nicht nur antifeministische Kommentare auf unseren Kanal, sondern auch Gegner der Öffentlich-Rechtlichen. Schlicht durch die Tatsache, dass „Auf Klo“ mit A beginnt und deshalb in der ersten Reihe auf der alphabetisch geordneten funk-Website auftaucht, müssen wir in Sachen Communitymanagement die ersten Wochen ordentlich Überstunden kloppen.

Da stehen wir also. Ein einziges Video online, keine Community, ein Shitstorm nach dem anderen, Beleidigungen, Morddrohungen, hate auf YouTube, Twitter und Facebook. Wir diskutieren, legen uns Argumente zurecht, antworten immer und von überall, glauben an uns und an das bessere Argument. Denken, dass wir – wenn wir nur klug und nachvollziehbar genug argumentieren – ein paar von denen auf die richtige Seite ziehen können. Spoiler: Selten so viel Zeit verschwendet.

Haters gonna hate

Wir stellen fest: Das führt zu nichts, und ändern unsere Kommunikationsstrategie. Statt uns mit dem Ausdiskutieren von antifeministischen Kommentaren zu beschäftigen, entscheiden wir uns für einen Kurswechsel. Wir beginnen, den hate zu ignorieren und diejenigen zu umarmen, die Positives schreiben. Wir gehen nicht mehr nur in Privatnachrichten ausführlich auf unsere Community ein und fangen an, uns auch öffentlich mehr mit denjenigen zu beschäftigen, die verstehen und gut finden, was wir da machen: mit der Zielgruppe! Die wollen wir schließlich eh erreichen.

Lovers gonna love – all eyez auf die Community

Nach und nach wird „Auf Klo“ bekannter, Abonnentinnen und Klickzahlen wachsen und damit auch die Community. Jede Woche erreichen uns unzählige Nachrichten und Fragen – per Mail, YouTube, Facebook und Instagram. Wir beantworten jede einzelne von ihnen und bleiben bei der Strategie: Statt viel Energie in die Bekämpfung von hate speech zu stecken, kümmern wir uns um diejenigen, die sich konstruktiv und fragend an uns wenden. Wir beziehen die Community über Q&As direkt in die Sendung ein, beantworten jede Privatnachricht, setzen Themenvorschläge aus der Community um, herzen positive Kommentare – umarmen diejenigen, die uns supporten, und bauen auf diese Weise eine starke Community auf. Und langsam realisieren wir, was wir da gemacht haben: Mit unseren Inhalten haben wir eine Community aufgebaut, die sich von dem, was sie auf dem Kanal findet, so ernst genommen fühlt, dass sie selbst empowernd wirken kann. Die Kommentarkultur verändert sich hin zu einer wertschätzenden, konstruktiven, liebevollen. Wir haben eine konstruktive Kommentarkultur geschaffen, in der Kritik erlaubt und erwünscht ist, Support großgeschrieben wird und in der hate (fast) keinen Platz mehr hat. Gäste bekommen Komplimente, die nichts mit dem Thema zu tun haben, es wird geherzt und gelikt – und falls sich mal eine Hater*in in unsere Kommentarspalte verirren sollte, nimmt die Community das mittlerweile selbst in die Hand.

Wir denken die Community von Anfang an mit und binden sie aktiv in die Weiterentwicklung unseres Formats ein. Was anfangs vor allem über Fokusgruppenworkshops in reality passierte, funktioniert heute vor allem über die Plattformen selbst. Durch Umfragen, Themenvorschläge und Hinweise über Privatnachrichten sowie per Mail kommen wir als Redaktion ein Stück näher ran an die Community – und häufig auch auf neue, auf den ersten Blick vielleicht abwegige Ideen. Themen wie Morbus Crohn  und Autismus  wären auf den ersten Blick keine „Auf Klo“-Themen gewesen – wäre da nicht der vermehrte Wunsch aus der Community gekommen. Manchmal schlagen sich Gäste selbst vor und landen dann selbst mit ihrer Geschichte in der Sendung – eben weil wir mit der Community sprechen wollen und nicht nur über sie.

Das bringt natürlich auch Komplikationen mit sich. Wenn ein Thema ein großes Identifikationspotenzial bietet, ist auch die Fallhöhe sehr hoch. Wenn wir uns auf die Fahne schreiben, inklusiv und intersektional zu sein, muss sich das auch in der Gäste- und Themenauswahl widerspiegeln – und auch in der Produktion mitgedacht werden. Sind unsere YouTube-Videos, unser Studio, unser Instagram-Auftritt barrierefrei? Muss unsere Redaktion diverser werden? Können wir unserem eigenen Anspruch gerecht werden, ein Aufklärungsformat ohne erhobenen Zeigefinger zu sein? Wo ist die Grenze zwischen Aktivismus, Journalismus und Medienpädagogik?

Das sind einige der Fragen, die wir uns fortlaufend und immer wieder stellen müssen. Wir haben gemeinsam mit der Community einen space geschaffen, den die Zielgruppe als supportive wahrnimmt und den sie sich nicht kaputtmachen lässt. „Auf Klo“ findet sie Themen, die sie beschäftigt oder die neu für sie sind, und findet Antworten auf Fragen, die sie sich sonst vielleicht nicht öffentlich zu stellen traut. Die Community unterstützt uns aktiv beim Gegenhalten und dadurch können wir uns als Redaktion mehr Zeit für unsere eigentliche Aufgabe nehmen: gute Inhalte machen. Aber wir müssen uns auch immer wieder selbst hinterfragen und mit der Community wachsen. Auch wenns manchmal wehtut.

PS Unsere 10 Gebote für erfolgreiches Communitymanagement

  • Nimm deine Community ernst. Vor allem wenn sie jünger ist als du selbst. Das Schlimmste, was passieren kann, ist, wenn ein Produkt klingt wie ein Produkt, das erwachsene Menschen für „junge Leute“ gemacht haben.
  • Glaub an deine Zielgruppe.
  • Mach Inhalte, die einen Mehrwert für die Zielgruppe haben, und teste das immer wieder. Wenns nicht mehr passt, dann weg damit.
  • Nimm dich selbst ernst. Aber sei ruhig auch manchmal selbstironisch.
  • Antworte auf konstruktive Posts. Auch wenn sie weder Fragen noch Kritik beinhalten.
  • Denk die Community bereits bei der Recherche mit.
  • Mach Komplimente.
  • Bedank dich!
  • Lieber 1 Like zu viel als zu wenig.
  • Hab keine Angst vor der Löschtaste. Und wenns ganz schlimm wird: screenshotten & anzeigen.

Autorin

Lydia Meyer lebt als Autorin, Redakteurin und Formatentwicklerin in Berlin. Für die KOOPERATIVE BERLIN konzipierte sie unter anderem den Aufklärungskanal „Auf Klo“ sowie das queerfeministische Format „softie“ für funk. Beide Kanäle betreut sie seit ihrem Start redaktionell und beobachtet mit großer Freude, wie Community und Formate sich miteinander weiterentwickeln. Vorher studierte sie Kulturwissenschaften und Gesellschafts- und Wirtschaftskommunikation in Leipzig und Berlin.

Quellen

Community-Empowerment durch das Satirekollektiv „Datteltäter”

Fiete Aleksander

Als im Jahr 2015 die deutsche Medienlandschaft täglich neue Schreckensszenarien über Geflüchtete verkündete, ein sogenannter „Islamischer Staat“ im Nahen Osten entstand und Bewegungen wie Pegida die „Islamisierung des Abendlandes“ heraufbeschwörten, trafen sich in Berlin vier junge Muslim*innen und ein Christ – und machten Witze. Anders waren der Frust über die negative mediale Darstellung des Islams und die Spannungen zwischen muslimischer Community und der nicht muslimischen Mehrheitsgesellschaft nicht zu ertragen. Um diesen Status quo zu verändern, hatten Nemi, Farah, Younes, Marcel und ich eine Idee: Wir wollten Webvideos produzieren. Nicht weil wir es konnten, sondern weil wir etwas zu sagen hatten. Und weil wir Lust hatten, uns in diesem Feld auszuprobieren.

Unser Ideengeber Younes Al-Amayra sah schon lange einen großen Bedarf für muslimische Stimmen in der Medienlandschaft. Als studierter Islamwissenschaftler und Hobbyvideoproduzent engagierte er sich jahrelang in der muslimischen Community, zuletzt mit dem muslimischen Poetry-Slam-Projekt „i,Slam“. Er suchte nach einem neuen Format, mit dem sich einerseits muslimische Jugendliche und junge Erwachsene identifizieren können und andererseits ein nicht muslimisches Publikum erreicht wird. Wo sollte das besser gelingen als auf YouTube, der populärsten Webvideoplattform der Welt? Für uns und unsere Zielgruppe waren YouTube und Social-Media-Plattformen weit relevanter als das Fernsehen. Hinzu kam, dass im Netz Reichweiten möglich waren, die wir in Offlineprojekten nie hätten erreichen können. Doch ohne das passende Konzept wäre es schwierig geworden, uns unter den vielen YouTube-Angeboten wirklich Gehör zu verschaffen.

Erster Schritt: Satirekalifat errichten!

Muslime sind unintegriert, radikal und humorlos und fühlen sich in der Opferrolle ganz wohl – mit diesen häufig bedienten Rollenbildern wollten wir „Datteltäter“ aufräumen und ein neues Bewusstsein für muslimisches Leben in Deutschland schaffen. Denn damals wie heute entsprechen diese Wahrnehmungen und Zuschreibungen nicht unserer Lebensrealität. Wir verstehen uns als heterogene Gruppe mit verschiedenen kulturellen Hintergründen, Auffassungen und Qualitäten und sehen in dieser Diversität ein Abbild der muslimischen Community, unseres gelebten Dialogs und unserer Koexistenz. Doch der Diskurs über den Islam wurde zur damaligen Zeit – und teilweise auch heute – vorurteilsbehaftet, verkrampft und emotional geführt. So emotional, dass uns Debatten und Diskurse stets als mühsam und ergebnislos in Erinnerung blieben. Um dem entgegenzuwirken, wählten wir die Satire als das Fundament unserer Videos. Hierbei stehen Lachen und Entertainment an erster Stelle. Humor ist ein universeller Eisbrecher und ermöglicht es, sich unangenehmen Themen und Fragen mit einer gewissen Leichtigkeit zu nähern. Jedoch verpflichteten wir uns, Videos zu produzieren, die nicht nur der Unterhaltung dienen, sondern auch zum Nachdenken und Reflektieren anregen sollten. Mit den schmerzhaften Wahrheiten, die Satire erzählen kann, wollten wir auf Versäumnisse sowohl innerhalb als auch außerhalb der muslimischen Community hinweisen und einen gemeinsamen Dialog anregen. In diesem Sinn riefen Farah, Nemi, Younes, Marcel und ich das muslimische Satirekalifat „Datteltäter“ auf YouTube aus und erklärten den „Bildungsdschihad“. In unserer Gruppe versammelten sich immer mehr muslimische Frauen und Männer, ein Konvertit, ein Christ, Frauen mit und ohne Kopftuch, Männer mit und ohne Bart – ein Zusammenschluss, der sich innerhalb von drei Jahren mit sehr engen Freund*innen und Bekannten immer wieder erweitert und entwickelt hat. Seit 2017 haben wir auch endlich eine Ausländerin im Team: unsere Autorin Nour ist Österreicherin.

Zweiter Schritt: Bildungsdschihad für alle!

Einer der wichtigsten Bausteine unseres Erfolgs war und ist unsere Community. Nur mit ihrer Hilfe konnte unser Kanal wachsen und noch mehr Menschen erreichen. Denn anders als lineare Medienangebote ist YouTube nicht nur eine Webvideoplattform, sondern auch ein soziales Medium. Unsere Rezipient*innen kommentieren unsere Videos, diskutieren die Inhalte und geben uns ein direktes Feedback, das wir in zukünftigen Videos aufgreifen und reproduzieren können.

Obwohl unsere Community hauptsächlich muslimisch ist, könnte sie bunter und diverser nicht sein. Unser Kanal verbucht derzeit über 250 000 Abonnent*innen – eine multireligiöse, multiethnische und mehrsprachige Gemeinschaft, die unsere wöchentlich veröffentlichten Videos konsumiert und kommentiert. Hauptzielgruppe sind die 12- bis 30-Jährigen, etwa 60 % der Fanbase sind weiblich. Diese Vielfalt versuchen wir stets in unseren Videos zu porträtieren, um eine adäquate Repräsentation zu gewährleisten.

Früher fragten wir unsere Fans über die Videobeschreibungen oder am Ende eines Videos nach ihrem Feedback. Neue Videoideen sind auf diese Weise entstanden und konnten das thematisieren, was unserer Community wichtig war. Seit einiger Zeit bedienen wir auch Instagram als Kommunikationsweg, um Feedback einzubeziehen. Hier nutzen wir verschiedene Funktionen der App, um Anregungen für geplante Videos von unserem Publikum zu erhalten, z. B. für unser erfolgreichstes „Datteltäter“-Format, die Reihe „Wenn Rassismus ehrlich wäre“. Zwei YouTube-Videos aus dieser Reihe – zu den Themen „Schule“  und „Bewerbungsgespräch“  – haben mit jeweils über einer Million Views die höchsten Aufrufzahlen auf unserem Kanal. Doch warum ist diese Reihe so erfolgreich? Einerseits weil sie provokant mit dem Thema Rassismus umgeht und mit ihrer harten Satire gezielt Grenzen überschreitet. Das ist ungewohnt und spricht vor allem junge Menschen an. Andererseits entsprechen die Inhalte dieser Videos den Lebensrealitäten eines Großteils unserer Community. Als wir damals die Idee zum Format entwickelten, wollten wir mit dem Thema „Wohnungsbesichtigung“  beginnen. Wir starteten auf Instagram einen Aufruf und fragten nach rassistischen und diskriminierenden Erfahrungen, die unsere Community auf dem Wohnungsmarkt gemacht hatte. Allein die Masse an Nachrichten war bereits erschreckend. Aber noch gravierender waren die Erlebnisse und Erniedrigungen, die uns die Community mitteilte. Wir erkannten unsere Verantwortung, die mit steigender Popularität und wachsender Reichweite einhergeht, und nahmen uns vor, diese Beispiele aus dem echten Leben auf die „Leinwand“ zu bringen. Die Resonanz war sehr positiv, uns erreichten zahlreiche Dankesnachrichten und weitere Vorschläge für die Reihe. Gleichzeitig mussten wir auch mit viel Kritik an unseren Darstellungen umgehen. Kritisiert wurde die mögliche Reproduktion von Rassismen, die wir auch innerhalb der Gruppe diskutierten, um unsere Videos dahingehend zu verbessern.

Dritter Schritt: Die „einzig wahre Community

Die Interaktion und der Austausch mit den eigenen Kanalabonnent*innen nennt man im Social Web üblicherweise „Community-Management“. Das beschreibt eine Form der Moderation oder Betreuung/Leitung der eigenen Community auf Onlineplattformen. Gleichzeitig würden wir als „Datteltäter“ unsere eigene Arbeit nicht nur als „Management“, sondern als „Community-Empowerment“ bezeichnen.

Im sozial-gesundheitlichen (Offline-)Bereich besteht der Begriff schon länger, in digitalen Zusammenhängen ist er eher neu und wenig erforscht. Community-Empowerment im „klassischen“ Sinne bedeutet, dass Organisationen und Vereine ausgesuchten Communitys Ressourcen und Handlungsoptionen zur Verfügung stellen, damit sie sich Selbstermächtigungsstrategien für sich und ihren Lebensraum aneignen. Damit lernen sie, sich und ihr Umfeld eigenständig zu verbessern. Community-Empowerment sorgt also auch dafür, dass eine bestimmte Gruppe lernt, sich zu organisieren, Steuerung zu übernehmen sowie Maßnahmen zu ergreifen, um sich Gehör zu verschaffen. Deswegen gehen Community-Management und Community-Empowerment einher, um nicht nur eine Repräsentanz zu schaffen, sondern auch aktive Akteur*innen im öffentlichen Diskurs heranzubilden. Als „Datteltäter“ versuchen wir, selbst ein Sprachrohr zu sein, ein Bindeglied zwischen unserem Kanal und der Community. Sie ist Adressat unserer Videos und gleichzeitig ihr thematischer Inhalt. Community-Management ist im Fall der „Datteltäter“ somit auch Community-Empowerment.

Doch manchmal bringen uns dieses anspruchsvolle Ziel und die vergleichsweise große Reichweite an unsere Grenzen. Uns erreichen mittlerweile immer mehr Nachrichten, in denen uns von persönlichen Schicksalen berichtet wird – von Zerwürfnissen mit der Familie, von Perspektivlosigkeit und Selbstzweifeln. Wir versuchen mit den zeitlichen und personellen Ressourcen, die uns zur Verfügung stehen, bestmöglich auf die betroffenen Personen einzugehen. Da wir aber weder psychologisch noch theologisch ausgebildet sind, können wir meist nur mit aufmunternden Worten oder Empfehlungen für qualifiziertere Stellen wie das muslimische Seelsorgetelefon (http://www.mutes.de ) helfen. Unser Ziel ist es, diesen Bereich der Community-Arbeit auszubauen und weitere Formate und Angebote zu entwickeln, die sich noch spezifischer mit den Fragestellungen und Bedürfnissen unserer Community auseinandersetzen. Denn diese vermeintlichen spezifischen Lösungen sind der Schlüssel für eine selbstbewusste und gestärkte Community, die ihre eigenen Versäumnisse reflektieren und mit anderen Communitys interagieren kann.

Vierter Schritt: Die „Islamisierung“ des Dialogs”

Ebenso wichtig wie satirische Sketche zu Migrationsdebatten, Rassismus und Radikalismus sind uns Videos, die sich mit muslimischem Leben auseinandersetzen. Zum Beispiel in unseren YouTube-Videos „Dinge, die muslimische Eltern sagen“  und „Wenn Muslime Besuch bekommen“ . Auch für diese Videos sammelten wir mithilfe von Instagram Ideen und Inhalte aus der Community. Dieser Input macht unsere Videos noch authentischer und zu einem Spiegel der Lebensrealität unserer Rezipientinnen. Denn wir „Datteltäter“ möchten nicht nur die Stars unserer Community sein, sondern Inhalte ansprechen, die unsere Zielgruppe kennt und sie anregt, ihre eigenen Denkmuster zu hinterfragen. Das Ziel dieser Videos ist es, Jugendliche zu empowern, sich selbst zu helfen. Als Botschafterinnen religiöser und ethnischer Minderheiten in Deutschland, Österreich und der Schweiz möchten wir eine Alternative bieten, als Gegenwehr zu alten Denkstrukturen, die von vorherigen muslimischen Generationen etabliert wurden und auch den islamfeindlichen Diskurs mitgeprägt haben. Diese Debatten dürfen nicht nur Extremistinnen jeglicher Art überlassen werden. Wir möchten eine neue Generation dazu ermächtigen, das Thema Islam und Musliminnen in Gegenwart und Zukunft anders zu beleuchten und differenziert zu besprechen. Mittels unserer Reichweite im Social Web appellieren wir an unsere Community, den gesellschaftlichen Zusammenhalt zu stärken und eine gesunde Diskussionskultur anzustreben bzw. aufrechtzuerhalten, denn letzten Endes sind Rassismus und Sexismus gepaart mit Gewalt oder Identitätssuche immer noch ein gesamtgesellschaftliches Problem.

Aber auch hier ergeben sich natürlich Herausforderungen: Wir wählen bei unseren Videos gern überzogene Darstellungen, da wir Rollenbilder, Verhaltensweisen und Strukturen kritisch hinterfragen wollen. Doch nicht alle verstehen diese Form der satirischen Überspitzung, sodass es auch Personen gibt, die uns in diesem Zusammenhang eine negative Darstellung der muslimischen Community und des Islams unterstellen.

Doch die Inhalte unserer Videos sind nicht ausschließlich satirisch konzipiert, sie bieten auch Lösungsvorschläge, wie man beispielsweise im heutigen politischen, häufig auch islamophoben und fremdenfeindlichen Milieu als junger Mensch agieren kann. Das ist vor allem beim Thema hate speech wichtig, dem wir schon viele Videos widmeten. Deswegen engagieren wir uns auch bei der #NichtEgal-Kampagne von YouTube. Im Rahmen dieser Bildungsinitiative besuchten wir Schulklassen in Berlin und zeigten beispielhaft, wie wir in unserer Community-Arbeit mit Hass und Diskriminierung umgehen und diese von Kritik unterscheiden. Denn mit rhetorischen Verallgemeinerungen, wie sie tagtäglich in Medien und Politik Verwendung finden, werden die vielen individuellen Mosaiksteine dieser heterogenen Gesellschaft übersehen und es wird daraus eine homogene Masse geschaffen. Für uns als Identifikationsfiguren für deutsche Muslim*innen ist es daher umso wichtiger, auf die zahlreichen Facetten des muslimischen Lebens in Deutschland hinzuweisen und diese darzustellen. Wir kreieren Content, der sich aus der Realität speist, und wir empowern damit gleichzeitig betroffene Menschen. Nur so kann man sich als Community selbst helfen und dabei Aufmerksamkeit schaffen, um auf gesellschaftliche Missstände hinweisen zu können.

Autor

Fiete Aleksander, Jahrgang 1991, ist Gründungsmitglied der „Datteltäter“ und seit Anfang 2018 hauptberuflicher Künstler und Unternehmer im Bereich Videoproduktion. Zuvor absolvierte er an der Hochschule für angewandte Pädagogik in Berlin ein duales Studium der Sozialpädagogik und schloss 2018 erfolgreich mit einem Bachelor of Arts ab. In seiner Abschlussarbeit widmete er sich dem Thema Videoproduktion als medienpädagogisches Mittel für die inter- und transkulturelle Bildung und erhielt dafür die Bestnote. Während seines Studiums arbeitete er als Erzieher in einer Ganztagsgrundschule.

Quellen

Gegenrede und Gegenkommentar – zur Dynamik von Hassrede und Moderation in Kommentarspalten am Beispiel von „Begriffswelten Islam“ und Empfehlungen für eine gelingende Moderation

von Josephine B. Schmitt und Julian Ernst

Einführung

Um extremistischen Botschaften im Netz – also da, wo sie vielfach verbreitet werden – etwas entgegenzusetzen, produzieren zivilgesellschaftliche Akteur*innen sogenannte Gegenreden oder ‑botschaften. Auf einer allgemeinen Ebene können Gegenreden als positive Botschaften (im Sinne unseres demokratischen Grundverständnisses) definiert werden, die sich gegen extremistische Ideologien als Ganzes oder auch einzelne Narrative dieser Ideologien wenden (Schmitt, Ernst, Frischlich u. Rieger 2017). Dies kann auf ganz unterschiedliche Weise passieren. Zum Beispiel indem ein alternatives Narrativ geboten, also betont wird, wofür wir als Gesellschaft stehen wollen (z. B. für Toleranz und Offenheit). Manche Gegenbotschaften (Gegennarrative) setzen sich aber auch gezielt mit der extremistischen Haltung, ihren Narrativen und Inhalten auseinander, dekonstruieren und entlarven diese.

Die Formate sind vielfältig. Neben etwa Comics (z. B. vom Bundesamt für Verfassungsschutz „Andi – Tage wie dieser“  [1]), Theaterstücken (z. B. „Djihad“  [2] im Theater RadiX in Braunschweig) und Bildern lassen sich vor allem Onlinevideos anführen. Eine Vielzahl von Institutionen setzt auf die Produktion und Verbreitung von audiovisuellen Botschaften insbesondere über YouTube, um vor allem junge Nutzer*innen – als wichtige Zielgruppe extremistischer Gruppierungen – zu erreichen.

Die Ende des Jahres 2015 sowie Anfang des Jahres 2016 auf der Videoplattform YouTube veröffentlichten Videos der Webvideoreihe „Begriffswelten Islam “ der Bundeszentrale für politische Bildung (bpb) in Kooperation mit verschiedenen damals bekannten deutschen YouTuberinnen sind ein gelungenes Beispiel derartiger Angebote. Im Rahmen der Videos sollen „eindimensionale[n] und stereotypisierende[n] Darstellungen [muslimischer Lebenswelten] in den Medien“ (bpb 2015a) vielfältige Deutungsmuster und Erklärungen von Begriffen wie etwa „dschihad“ und „halal/haram“ gegenübergestellt werden. Darüber hinaus konnten interessierte Nutzerinnen der Videos in den Kommentarspalten zu den Videos mit Nutzerinnen und Expertinnen der bpb über die Themen der Videos sowie über darüber hinausgehende Fragen und Inhalte diskutieren bzw. sich weitergehend informieren. Die folgende Tabelle gibt einen Überblick über die Interaktionen der Nutzer*innen (Aufrufe, Likes, Dislikes, Kommentare) mit dem Format.

Neben zahlreichen Chancen bietet diese Form der Onlinekommunikation jedoch eine Reihe von Herausforderungen – sowohl für die Nutzerinnen der Angebote als auch für die Plattformbetreiberinnen und diversen Akteurinnen (z. B. Produzentinnen, Social-Web-Multiplikatorinnen, Akteurinnen der politischen Bildung etc.). Der richtige Umgang etwa mit Hassrede (hate speech) und Unhöflichkeit (incivility) ist insbesondere bei derartigen kontroversen und polarisierenden Themen heikel und mit großen Mühen verbunden. [4]

Welche Empfehlungen sich in diesen Fällen für eine gelingende Moderation ableiten lassen, möchten wir vor dem Hintergrund der aktuellen kommunikationswissenschaftlichen und medienpsychologischen Forschung diskutieren. Dazu möchten wir zunächst einen allgemeinen Überblick über die Bedeutung von Nutzerinnenkommentaren im Internet, ihre Chancen und Herausforderungen vor allem für den politischen Diskurs geben. Dieser Überblick wird ergänzt durch einen vertieften Einblick in die Analyse von Nutzerinnenkommentaren zu acht Webvideos der Reihe „Begriffswelten Islam“.

Die Bedeutung von Nutzerinnenkommentaren im Internet für den politischen und gesellschaftlichen Diskurs

Die Möglichkeit, Kommentare zu Onlineinhalten jeglicher Art zu verfassen, ist eine Standardfunktion des Web 2.0. Jedoch: Nicht unter jedem Beitrag (z. B. Text, Video) und nicht auf jeder Internetseite ist diese Funktion aktiviert. Ferner unterscheiden sich die Kommentarspalten verschiedener Onlineangebote und ‑plattformen darin, ob und inwiefern eine Moderation der Nutzerinnenäußerungen stattfindet, ob also etwa Beiträge vor ihrer Veröffentlichung erst durch Administratorinnen freigegeben werden, Moderatorinnen in die Diskussionen eingreifen, sie lenken und gegebenenfalls strafrechtlich relevante Inhalte von der Seite entfernen.

Auf einer abstrakten Ebene können Nutzer*innenkommentare als eine computervermittelte Variante von Anschlusskommunikation über einen konkreten Medieninhalt verstanden werden. Im Hinblick auf die Diskussion von politischen Themen gilt Anschlusskommunikation als eine Form politischer Partizipation, welche schließlich zu einem Gewinn an politischem Wissen (Eveland u. Schmitt 2015; Trepte u. Schmitt 2017) und weiteren Formen politischen Engagements (z. B. Beteiligung an (Online-)Petitionen, Demonstrationen; Gil de Zúñiga, Diehl u. Ardévol-Abreu 2017) führen kann. Denn die medial vermittelten Fakten und Konzepte können durch die (idealtypische) Auseinandersetzung wiederholt, erweitert, intensiver verarbeitet und somit mental verankert werden; zudem können Unklarheiten diskutiert und gegebenenfalls ausgeräumt werden (Eveland 2004).

In Diskussionen und Konversationen über politische Sachverhalte werden jedoch nicht nur Fakten ausgetauscht und erörtert. In erster Linie äußern Menschen ihre Meinungen zu bestimmten Themen, Meinungsbildungsprozesse finden statt. Insbesondere bezogen auf kontroverse und polarisierende Themen finden sich im Netz teilweise Diskussionen, in denen nicht ausschließlich fundiert und konstruktiv diskutiert wird. In den Kommentarspalten sind zuweilen Aussagen vertreten, die sich durch eine gewisse Unhöflichkeit und Grobheit (incivility) auszeichnen oder gar gezielt Hass gegenüber Personen oder Gruppen, „insbesondere durch die Verwendung von Ausdrücken, die der Herabsetzung und Verunglimpfung von Bevölkerungsgruppen dienen“ (Maibauer 2013, S. 1), ausdrücken (hate speech). Befeuert werden derartige Äußerungen durch niedrige Barrieren der Teilnahme an den Diskussionen, Deindividualisierung des Gegenübers etwa durch die Abwesenheit von sozialen Hinweisreizen (z. B. nonverbales Verhalten der Gesprächspartner*innen) und relativer Anonymität im Vergleich zur Face-to-Face-Kommunikation im Offlinekontext (z. B. Halpern u. Gibbs 2013).

Vor allem rechte Akteurinnen nutzen die vielfältigen Kommentarmöglichkeiten im Netz für die lautstarke Verbreitung ihres Gedankengutes (Amadeu Antonio Stiftung 2016). Dies kann die Einstellungen und Verhaltensweisen der Leserinnen nachhaltig beeinflussen. Hsueh und Kolleginnen (2015) zeigten etwa, dass Leserinnen fremdenfeindlicher und vorurteilsbehafteter Kommentare auch selbst eher fremdenfeindliche Kommentare verfassten. Werden rechte, demokratiefeindliche Meinungen in einer Diskussion (z. B. zu einem Onlineartikel, ‑video) schließlich als Mehrheitsmeinung wahrgenommen, werden moderate, diesen widersprechende Stimmen unterdrückt (Schweigespirale; Neubaum 2016; Springer, Engelmann u. Pfaffinger 2015). Im schlimmsten Fall kann dies das wahrgenommene Meinungsklima und damit den gesamtgesellschaftlichen Diskurs nachhaltig negativ beeinflussen und zu einer Polarisierung der Meinung bzw. der Ausbildung extremer Haltungen beitragen (Stroud 2010).

Gleichsam beeinflusst die Art und Weise der Nutzerinnenkommentare die Wahrnehmung des dazugehörigen Medieninhaltes. So führen unhöfliche Kommentare unter einem journalistischen Beitrag zu einer negativen Beurteilung seiner journalistischen Qualität (Prochazka, Weber u. Schweiger 2016). Auch die Einstellung von Leserinnen gegenüber dem Medieninhalt kann durch die Meinungen, welche in Nutzer*innenkommentaren vorherrschen, beeinflusst werden. So zeigt ein Experiment von Lee und Jang (2010), dass Nutzerinnen, welche Kommentare lasen, die dem Medieninhalt widersprachen, ihre Einstellung gegenüber dem Medieninhalt eher änderten als Personen, die keine Kommentare unter demselben Beitrag lasen bzw. Kommentare, welche die Meinung des Artikels unterstützten. Im Hinblick auf Onlineinhalte, welche das Ziel haben, extremistischen Stimmen etwas entgegenzusetzen und Reflexion zu fördern, sind derartige Mechanismen durchaus problematisch – insbesondere da die Wirksamkeit von Onlinegegenbotschaften nicht uneingeschränkt nachweisbar ist (für einen Überblick siehe Frischlich, Rieger, Morten u. Bente 2017). Umso wichtiger ist in diesem Zusammenhang schließlich die Frage, inwiefern die Moderation von Nutzerinnenkommentaren eine Unterstützung sein kann.

Hassrede und Moderation in den Kommentarspalten zu #WhatIS: der Account „experts for bpb“ im Kontext von hate speech

Im Rahmen einer qualitativen Inhaltsanalyse von Nutzerinnenkommentaren zu den Videos der Webvideoreihe „Begriffswelten Islam“, welche mit #WhatIS markiert sind, betrachteten Ernst und Kolleginnen (2017) auch das Verhältnis von Hassrede (hate speech) und Moderation. Die Videos waren jeweils eingebettet in den YouTube-Kanal der YouTuberinnen, welche als Hauptakteurinnen die Inhalte der Videos präsentierten.

Hate speech als Phänomen findet Beachtung in den unterschiedlichsten Disziplinen. Der Diskurs wird geprägt durch sehr unterschiedliche Definitionen und Herangehensweisen u. a. in den Kommunikationswissenschaften, der Soziologie, den Rechtswissenschaften oder auch der Linguistik (eine ausführlichere Diskussion und Abgrenzung verschiedener Konzepte ist bei Ernst et al. 2017 bzw. Schmitt 2017 zu finden). Der genannten Inhaltsanalyse liegt im Wesentlichen eine linguistische Definition von hate speech zugrunde: Laut Maibauer (2013) kann hate speech definiert werden als „[…] der sprachliche Ausdruck von Hass gegen Personen oder Gruppen […], insbesondere durch die Verwendung von Ausdrücken, die der Herabsetzung und Verunglimpfung von Bevölkerungsgruppen dienen […]“ (S. 1).

Moderiert wurden die Userinnenkommentare unter den Videos auf zweierlei Weise:

(1) Die YouTuberinnen filterten oder löschten Kommentare, welche zu extrem waren, nach gemeinsam mit der bpb definierten und öffentlich kommunizierten Kriterien der Netiquette (bpb 2015b) sowie im Einklang mit den AGB von YouTube.

(2) Expertinnen [5] der bpb waren mit dem Account „experts for bpb“ in den Kommentarspalten vertreten, in erster Linie um für Fragen und weiterführende Informationen ansprechbar zu sein. Letzteres wurde in den Videoinformationen, auf der Website der bpb sowie in der Abschlussszene der Videos hervorgehoben. Während die genannte Analyse für (1) keine Befunde liefern kann, finden sich in den Kommentaren vielfältige Referenzen zu (2), dem Account „experts for bpb“ bzw. zur bpb im Allgemeinen. Es fällt auf, dass die Ansprache oft ironisch ausfällt bzw. der Expertenstatus der bpb im Hinblick auf die Themen der Videos angezweifelt wird. Darüber hinaus wird „experts for bpb“ gezielt mit Vorurteilen und Stereotypen gegenüber Musliminnen und dem Islam, Verschwörungstheorien sowie beleidigender Sprache adressiert.

Erklärt werden können diese Tendenzen einerseits durch das Auftreten des Moderationsaccounts als Repräsentant einer öffentlichen Einrichtung bzw. als Vertreter einer staatlichen Institution. Andererseits könnte die Bezeichnung „experts for bpb“ in der Wahrnehmung als „Besserwisser von oben“ besondere Ablehnung hervorrufen. Insbesondere unter populistischen Akteurinnen ist die Elitenablehnung („die da oben“; z. B. Staat, Politik, intellektuelle Elite) ein weit verbreitetes Motiv der Abgrenzung zu „uns, dem Volk“ (Schulz et al. 2017). Gleichzeitig sind die Expertinnen der bpb nicht als einzelne Individuen erkennbar, da sie als nicht näher identifizierbares Kollektiv – Expert*innen – in Erscheinung treten.

Wie aber kann Moderation gelingen? Wäre das Entfernen abwertender und hasserfüllter Kommentare eine Lösung, da auf diese Weise keine öffentliche Abwertung sichtbar wird?

Empfehlungen für eine gelingende Moderation

“Nicht immer ist die Kommentarfunktion zu Onlineinhalten aktiviert, obwohl dies grundsätzlich möglich wäre. Eine Sperrung beugt zwar der Verbreitung hasserfüllter Inhalte vor und ist gleichzeitig ökonomisch, da weder zeitliche noch finanzielle Ressourcen für eine Moderation investiert werden müssen. Gleichzeitig vermindert ein solches Vorgehen aber auch die Entfaltung positiver Potenziale von Anschlusskommunikationen mittels Nutzer*innenkommentaren – gerade im Kontext gesellschaftspolitischer Themen! Die Gelegenheit, Onlineinhalte zu kommentieren, ist zugleich Gelegenheit zum konstruktiven, anregenden Austausch und im Idealfall der Pflege demokratischer Diskussionskultur (auch) im Netz – es gilt also, sorgsam abzuwägen.

Entscheiden sich Plattformbetreiberinnen und Produzentinnen von Onlineinhalten für die Nutzung der Kommentarfunktion und gegen das gezielte Ausfiltern von problematischen Kommentaren, sollten sie sich Strategien zurechtlegen, wie sie mit problematischen Kommentaren umgehen wollen, und gleichermaßen die Vor- und Nachteile dieser Strategien vergleichen. Mögliche Varianten sind die Freischaltung von Kommentaren durch Moderatorinnen der Kommentarspalten (Pre-Moderation) bzw. das Löschen von problematischen Inhalten (z. B. Hassrede) in Kommentarspalten durch menschliche Moderatorinnen, (semi-)automatische Moderationssysteme oder eine Kombination beider (Post-Moderation). [6]

Wie aber auch bezüglich anderer Formen extremistischer Botschaften (für einen Überblick siehe Rieger et al. 2017 sowie Schmitt et al. 2017) kann im Zusammenhang mit Hass in Kommentarspalten das Entfernen nicht als (alleiniger) Lösungsansatz betrachtet werden. [7] Plattformbetreiberinnen und Produzentinnen von Inhalten setzen sich hierdurch dem Vorwurf der Zensur aus – dies wiederum kann in Zeiten stetig steigenden Misstrauens gegenüber Medien und staatlichen Institutionen von populistischen und extremistischen Akteurinnen für propagandistische Zwecke instrumentalisiert werden. Auch aus demokratietheoretischer Perspektive kann das Löschen von Kommentaren kritisch diskutiert werden. Auch die als problematisch wahrgenommenen Stimmen zu hören ist ein Teil demokratischer Prozesse. Sie gänzlich zu ignorieren oder eben zu löschen entzieht ihnen zwar die gewünschte Aufmerksamkeit, birgt aber die Gefahr, dass die Debatten letztlich von aggressiven Einzelpersonen und Gruppen dominiert werden (Amadeu Antonio Stiftung 2016), was in einer Schweigespirale moderater Stimmen münden kann. Zentral erscheint es zudem, die Kriterien des Entfernens von Kommentaren und deren Nachvollziehbarkeit für Nutzerinnen zu kommunizieren. Möglichkeiten, die Kriterien transparent zu machen, sind klar formulierte Regeln oder die Definition von Merkmalen, die zur Löschung führen, z. B. in Form einer „Netiquette“, wie sie im Falle der Webvideoreihe „Begriffswelten Islam“ veröffentlicht wurde (bpb 2015b).

Auf problematische Kommentare einzugehen, Hassredner zu identifizieren, zusätzliche Informationen und Quellen anzubieten sowie die Absurdität von Beiträgen etwa mittels humoristischer oder ironisierender Reaktionen zu entlarven, sind mit Sicherheit die zeitlich, finanziell und inhaltlich aufwendigsten Möglichkeiten. Ein solches Vorgehen bedarf klarer Absprachen im Moderationsteam – soll Nutzerinnen etwa dezidiert erläutert werden, aus welchen Gründen eine Äußerung nun hasserfüllt und abwertend sei und damit Gefahr gelaufen werde, Hass und Verletzungen zu reproduzieren und wiederholt wirken zu lassen (Butler 2016)? Da es auf solche Fragen keine rezeptartigen Antworten gibt, bedarf die Moderation von Kommentaren zu kontroversen Themen der gewissenhaften, umfangreichen Vorbereitung und gegebenenfalls auch der begleitenden Supervision. [8] Einer der ersten Planungsschritte sollte die Frage sein, wie, d. h. unter welchem Namen die Moderatorinnen auftreten sollen. Es scheint ratsam, als Person aufzutreten, die größtmögliches Vertrauen in der Zielgruppe genießt. Es sollte vermieden werden, dass Moderator*innen als Autorität oder Expert*innen wahrgenommen werden, die „von oben herab“ agieren. Auch wenn damit eine Normalität zwischenmenschlicher Interaktionen betont wird: Auch in Onlinedebatten sollte ein respektvoller Umgang im Vordergrund stehen.

Lampe und Kolleginnen (2014) empfehlen gar die Integration anderer Nutzerinnen in den Moderationsprozess. Sie schlagen einerseits ein Punktesystem vor, nach dem Nutzerinnen „Karma-Punkte“ – d. h. eine besonders positive Reputation – erhalten, wenn sie sich vernünftig an der Diskussion beteiligen. Ferner konnten ein positiver Umgang der Kommentierenden untereinander sowie inhaltlich angemessene Diskussionen durch ein Crowdsourcing von Moderation befördert werden. In anderen Worten, Kommentierende können ebenfalls Moderatorinnen werden und sind verantwortlich dafür, Konsens und Normen im Rahmen der Diskussionen zu entwickeln und aufrechtzuerhalten.

Letztlich scheint eine Kombination verschiedener Aspekte besonders vielversprechend zu sein. So deuten Analysen von Kommentarspalten auf Nachrichtenseiten darauf hin, dass die Notwendigkeit der Registrierung, bevor Kommentieren möglich ist (das bedeutet Reduktion von Anonymität), Pre- und Post-Moderation und die Implementierung eines Reputationssystems für Kommentierende förderlich für eine wertschätzende Debattenkultur sind (Ksiazek 2015). Jedoch: Auch so wird man hasserfüllten Kommentaren nicht zur Gänze vorbeugen können – mit diesen umzugehen bleibt eine Herausforderung, der sich demokratische Diskussionskultur und damit die agierenden Nutzer*innen im Netz stellen müssen.

Autorin und Autor

Dr. Josephine B. Schmitt arbeitet am Institut für Kommunikationswissenschaft und Medienforschung der LMU München. Sie forscht u. a. zu Inhalt, Verbreitung und Wirkung von hate speech, extremistischer Propaganda und (politischen) Informations- und Bildungsangeboten im Internet. Zudem entwickelt sie didaktische Konzepte für die Radikalisierungsprävention u. a. im Auftrag der Bundeszentrale für politische Bildung (bpb) und des Innenministeriums NRW. Mehr Informationen: https://medienundlernen.wordpress.com

Julian Ernst ist Doktorand am Arbeitsbereich für Interkulturelle Bildungsforschung der Universität zu Köln. Er forscht zu Medienkritik Jugendlicher im Kontext von Hass und Gegenrede im Internet sowie didaktischen Fragestellungen interkultureller Bildung. Darüber hinaus entwickelt er didaktische Konzepte für die Radikalisierungsprävention u. a. im Auftrag der Bundeszentrale für politische Bildung (bpb) und des Innenministeriums NRW.

Quellen

  • Amadeu Antonio Stiftung: „Geh sterben!“ – Umgang mit Hate Speech und Kommentaren im Internet. Cottbus 2016. https://www.amadeu-antonio-stiftung.de/w/files/pdfs/hatespeech.pdf (03.04.2018).
  • Butler, Judith: Haß spricht. Zur Politik des Performativen. 5. Aufl., Berlin 2016.
  • Bundeszentrale für politische Bildung (bpb): Begriffswelten Islam. 2015a. http://www.bpb.de/lernen/digitale-bildung/medienpaedagogik/213243/webvideos-begriffswelten-islam (03.04.2018).
  • Bundeszentrale für politische Bildung (bpb): Netiquette für die Webvideoreihe „Begriffswelten Islam“. 2015b. http://www.bpb.de/lernen/digitale-bildung/medienpaedagogik/214763/netiquette-fuer-die-webvideoreihe-begriffswelten-islam (10.04.2018).
  • Coe, Kevin, Kate Kenski, Stephen A. Rains: Online and uncivil? Patterns and determinants of incivility in newspaper website comments, in: Journal of Communication, 64 (2014), S. 658–679.
  • Ernst, Julian, Josephine B. Schmitt, Diana Rieger, Ann-Kristin Beier, Peter Vorderer, Gary Bente, Hans-Joachim Roth: Hate beneath the counter speech? A qualitative content analysis of user comments on YouTube related to counter speech videos, in: Journal for Deradicalization, 10 (2017), S. 1–49.
  • Eveland, Wiliam P. Jr.: The effect of political discussion in producing informed citizens: The roles of information, motivation, and elaboration, in: Political Communication, 2 (2004), S. 177–193.
  • Eveland, Willian P. Jr., Josephine B. Schmitt: Communication and knowledge content matters: Integrating manipulation and observation in studying news and discussion learning effects, in: Journal of Communication, 65 (2015), S. 170–191.
  • Frischlich, Lena, Diana Rieger, Anna Morten, Gary Bente (Hrsg.): Videos gegen Extremismus? Counter-Narrative auf dem Prüfstand. Wiesbaden 2017.
  • Gil de Zúñiga, Homero, Revor Diehl, Alberto Ardévol-Abreu: Internal, external, and government political efficacy: Effects on news use, discussion, and political participation, in: Journal of Broadcasting & Electronic Media, 61 (2017), S. 574–596.
  • Halpern, Daniel, Jennifer Gibbs: Social media as a catalyst for online deliberation? Exploring the affordances of Facebook and YouTube for political expression, in: Computers in Human Behavior, 29 (2013), S. 1159–1168.
  • Hsueh, Mark, Kumar Yogeeswaran, Sanna Malinen: “Leave your comment below”: Can biased online comments influence our own prejudicial attitudes and behaviors?, in: Human Communication Research, 41 (4) (2015), S. 557–576.
  • Ksiazek, Thomas B.: Civil interactivity: How news organizations’ commenting policies explain civility and hostility in user comments, in: Journal of Broadcasting & Electronic Media 59 (2015), S. 556–573.
  • Lampe, Cliff, Paul Zube, Jusil Lee, Chul Hyun Park, Erik Johnston: Crowdsourcing civility: A natural experiment examining the effects of distributed moderation in online forums, in: Government Information Quarterly, 31 (2014), S. 317–326.
  • Lee, Eun-Ju, Yoon Jae Jang: What do others’ reactions to news on Internet portal sites tell us? Effects of presentation format and readers’ need for cognition on reality perception, in: Communication Research, 37 (2010), S. 825–846.
  • Meibauer, Jörg: Hassrede – von der Sprache zur Politik, in: Jörg Meibauer (Hrsg.): Hassrede/Hate Speech. Interdisziplinäre Beiträge zu einer aktuellen Diskussion. Gießen 2013, S. 1–16. http://geb.uni-giessen.de/geb/volltexte/2013/9251/pdf/HassredeMeibauer_2013.pdf  (17.04.2018).
  • German Neubaum: Monitoring and expressing opinions on social networking sites-empirical investigations based on the spiral of silence theory. Duisburg-Essen 2016. http://duepublico.uni-duisburg-essen.de/servlets/DerivateServlet/Derivate-42707/Neubaum_Diss.pdf  (24.01.2018).
  • Prochazka, Fabian, Patrick Weber, Wolfgang Schweiger: Effects of civility and reasoning in user comments on perceived journalistic quality. In: Journalism Studies (2016).
  • Rieger, Diana, Julian Ernst, Josephine B. Schmitt, Peter Vorderer, Gary Bente, Hans-Joachim Roth: Propaganda und Alternativen im Internet – Medienpädagogische Implikationen, in: merz | medien + erziehung, 3 (2017), S. 27–35.
  • Schmitt, Josephine B.: Online-Hate Speech: Definition und Verbreitungsmotivationen aus psychologischer Perspektive, in: Kai Kaspar, Lars Gräßer u. Aycha Riffi (Hrsg.): Online Hate Speech: Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur digitalen Gesellschaft NRW. Marl 2017, S. 52–56.
  • Schmitt, Josephine B., Julian Ernst, Lena Frischlich, Diana Rieger: Rechtsextreme und islamistische Propaganda im Internet: Methoden, Auswirkungen und Präventionsmöglichkeiten, in: Ralf Altenhof, Sarah Bunk, Melanie Piepenschneider (Hrsg.): Politischer Extremismus im Vergleich. Berlin 2017, S. 171–208.
  • Schulz, Anne, Philipp Müller, Christian Schemer, Dominique Stefanie Wirz, Martin Wettstein. Werner Wirth: Measuring populist attitudes on three dimensions, in: International Journal of Public Opinion Research, 2017. doi: 10.1093/ijpor/edw037
  • Springer, Nina, Ines Engelmann, Christian Pfaffinger: User comments: motives and inhibitors to write and read. Information, in: Communication & Society, 18 (2015), S. 798–815.
  • Stroud, Natalie Jomini: Polarization and partisan selective exposure, in: Journal of Communication, 60 (2010), S. 556–576.
  • Trepte, Sabine, Josephine B. Schmitt: The effect of age on the interplay of news exposure, political discussion, and political knowledge, in: Journal of Individual Differences, 38 (2017), 21–28.

[1] Siehe online: Bundesamt für Verfassungsschutz: Andi – Tage wie dieser. https://www.verfassungsschutz.de/de/oeffentlichkeitsarbeit/publikationen/pb-rechtsextremismus/publikationen-landesbehoerden-rechtsextremismus/broschuere-nw-2017-10-comic-andi-1  (21.02.2019)

[2] Siehe online: Theater RadiX: Djihad. http://www.theater-radix.de/projekte/djihad/  (21.02.2019)

[3] Zeitpunkt der Erhebung für die im weiteren Verlauf berichtete Inhaltsanalyse von Ernst und Kolleg*innen (2017).

[4] Sowohl das Konzept der Hassrede, zuweilen vielleicht bekannter unter der englischsprachigen Bezeichnung hate speech, als auch das Konzept der Inzivilität ist von umfangreichen Debatten über die konkrete Definition der Begrifflichkeiten begleitet. Diese Debatten im Detail aufzugreifen bzw. ihnen ausführlich Raum zu geben, würde den Rahmen dieser Ausarbeitung sprengen. Kapitel 3 stellt die Definition von Hassrede (bzw. hate speech) zur Verfügung, die der später diskutierten Studie zugrunde liegt. Eine ausführlichere Diskussion zur Konzeptionalisierung von Inzivilität findet sich u. a. bei Coe, Kenski und Rains (2014).

[5] Darüber hinaus übernahm das Team aus Expertinnen während der Projektdauer das Screening der Kommentare, meldete Verstöße gegen die formulierte Netiquette und die AGB von YouTube. In Einzelfällen berieten sie die YouTuberinnen im Hinblick auf die Angemessenheit von Reaktionen auf mögliche problematische Kommentare.

[6] (Semi-)Automatische Systeme allein eignen sich nicht für das Aufdecken von Hassrede. Sie funktionieren nicht fehlerfrei bei verschlüsselten oder kodierten Formulierungen, welche die intendierten Inhalte beispielsweise mithilfe von Metaphern und Abkürzungen verdecken. Bei einer Kombination menschlicher und (semi-)automatischer Moderatorinnen entscheiden Systeme in einem ersten Schritt über die Qualität eines Kommentars (z. B. Hassrede versus keine Hassrede), menschliche Moderatorinnen überprüfen bei Unsicherheit und geben schließlich den Kommentar frei oder nicht.

[7] Selbstverständlich gilt dies nicht für eindeutig strafrechtlich relevante Inhalte.

[8] Die regelmäßige Konfrontation mit hasserfülltem Sprechen darf in ihren eventuellen psycho-sozialen Belastungen durch widerfahrene Verletzungen nicht unterschätzt werden (Butler 2016). Regelmäßiger kollegialer Austausch oder eben professionelle Supervision sollten fester Bestandteil von Moderationskonzepten sein.

Über Drachen, den Hass im Netz und was man dagegen tun kann

Von Lars Gräßer und Aycha Riffi

Haben Sie schon einmal vom YouTuber „Drachenlord“ gehört? Zu seiner Geschichte titelte DIE ZEIT [1]: „Der Drache, den das Internet heimsuchte“ . Nun hat ihn nicht so sehr das Internet heimgesucht als vielmehr sogenannte Hater*innen:

„Der Ausgangspunkt ist nahezu unspektakulär. Rainer W. lebt alleine […]. Er nimmt Videos von sich selbst auf und stellt sie ins Netz, häufig streamt er sogar live. Das macht der 29-Jährige seit vielen Jahren, hauptsächlich auf YouTube und unter dem Namen Drachenlord […]. In vielen Videos erzählt W. aber auch einfach aus seinem Alltag oder antwortet auf Fragen seiner Zuschauer. Er ist oder war außerdem auch auf anderen Kanälen aktiv […]. So ist über die Jahre ein kaum zu überblickendes Sammelsurium an Videos und anderen Inhalten entstanden.“ (ebenda) Das mündete zunächst in Hohn und Spott aus der Netzcommunity. Seine Reaktionen darauf waren nicht humorvoll, sondern zunehmend aggressiv. Die Kommunikation entwickelte eine Eigendynamik und die Kommentare schlugen bald in blanken Hass um. Es kam zu konzertierten Aktionen rund um sein Haus und irgendwann wurden der Drachenlord und seine Hater*innen sogar zu einem Problem für das gesamte Dorf. Das ganze Ausmaß lässt sich in der ZEIT (ebenda) oder in anderen Medien nachlesen (z. B. Felix Keßler: Alle gegen den Drachenlord“  auf spiegel.de (kostenpflichtig)) [2] und nachschauen (z. B. Y-Kollektiv: „RABIAT! Drachenlord & seine Hater – Hass ist ihr Hobby“  auf YouTube) [3

Studien zu online hate speech

Die Drachenlord-Geschichte mag ein spezieller Einzelfall sein, der Hass im Netz ist es nicht, wie Umfragen der Landesanstalt für Medien NRW Jahr für Jahr belegen. Die aktuellen Ergebnisse einer forsa-Umfrage (PDF online  bei der Landesanstalt für Medien NRW, Erhebungszeitraum: Juni 2018) verdeutlichen, dass die Wahrnehmung von Hassrede bzw. Hasskommentaren im Internet im Vergleich zu den Vorjahren zugenommen hat (+ 11 %) und vor allem Jüngere (im Alter zwischen 14 und 24 Jahren) davon betroffen sind. [4]

Zu ähnlichen Ergebnissen kommt im November 2018 auch die U25-Studie des Deutschen Instituts für Vertrauen und Sicherheit im Internet (DIVSI) in der gleichen Zielgruppe. Ergebnis: „Viele junge Menschen stellen […] eine starke ‚Verrohung‘ der Umgangsweisen im Netz fest und verhalten sich entsprechend vorsichtig und zurückhaltend. Zwei Drittel der 14- bis 24-Jährigen nehmen das Internet als Raum wahr, in dem diejenigen, die sich äußern, damit rechnen müssen, beleidigt oder beschimpft zu werden. Für 38 Prozent ist diese wahrgenommene ‚Beleidigungskultur‘ ein Grund, auf die Äußerung der eigenen Meinung im Internet zu verzichten.“ (Pressemitteilung des DIVSI zur Studie ) [5]

Eine ebenfalls repräsentative Untersuchung [6] im Auftrag von Campact e. V. in Hessen (Zusammenfassung als PDF  online bei campact.de) kommt zu ähnlichen Ergebnissen und fächert auf, wen der Hass im Netz – der Wahrnehmung nach – adressiert.

Fast immer sind es Minderheiten, gegen die sich der Hass richtet, und besonders häufig wahrgenommen wird der Hass im Netz gegenüber Menschen mit Migrationshintergrund und Geflüchteten (mit jeweils 75 %).

Kampagnen, Aktivitäten und Projektarbeit gegen online hate speech

Wie umgehen also mit der zunehmenden Hassrede im Netz? Dieser Frage widmen sich mittlerweile zahlreiche Kampagnen, Aktivitäten und Projektarbeiten auf ganz unterschiedlichen Ebenen und mit sehr unterschiedlichen Ansätzen. [8] Zu den Bürgerrechtsbewegungen im Netz zählen das 2017 mit einem Grimme Online Award ausgezeichnete  Projekt #ichbinhier [9] oder auch „Reconquista Internet“. Es finden sich nationale Kampagnen, wie etwa #NichtEgal/@NichtEgal_yt oder auch @nohate_speech, daneben Bildungsprojekte auf EU-Ebene, die sich in erster Linie an jüngere Zielgruppen wenden, wie das „No Hate Speech Movement“, aber natürlich auch auf nationaler Ebene bzw. Länderebene wie z. B. #denk_net. [10]

Zu den Bildungsprojekte auf EU-Ebene, die sich in erster Linie an jüngere Zielgruppen wenden, zählt auch „BRICkS – Building Respect on the Internet by Combating Hate Speech“, an dem sich das Grimme-Institut beteiligte, neben fünf weiteren europäischen Institutionen aus Italien, Spanien, Belgien und Tschechien. Das Projekt lief von November 2014 bis Dezember 2016.

Online hate speech präsentierte sich hier nicht als nationales, sondern als europäisches (und im Prinzip weltweites) Phänomen, was eine internationale Vernetzung interessant machte. Zwar hatte jedes Land seine eigenen Schwerpunkte und spezifischen Formen, virulent erschien es aber in allen. Deutlich wurde dies in überblickhaften Reports, sogenannten “Nationalen Studien“, welche die beteiligten Projektpartner*innen in einem ersten Schritt für ihre Länder und die jeweilige Situation vor Ort erstellten (Hofer von Lobenstein, Schneider 2017).

In einem zweiten Schritt wurden – gemeinsam mit Social-Media-Expertinnen und Medienpädagoginnen – Trainingsmodule und Hilfsmittel entwickelt, die als praktische Materialien in Form einer Modulbox in der schulischen und außerschulischen Jugendarbeit genutzt werden können. Schwerpunkt war hierbei die kreative, mediale Auseinandersetzung: Audio- und Videospots, Musikclips, Interviews und Onlinepräsentationen (vgl. Wenzel 2017). Sowohl die „Nationalen Studien“ als auch die Modulbox sind online kostenfrei abrufbar unter bricks-project.eu  [11]. Letztere wurden für die Abteilung „Politische Jugendbildung“ des Deutschen Volkshochschulverbands im Bereich hate speech aktualisiert und weiterentwickelt sowie um den eng verwandten Begriff „Fake News“ ergänzt. Die aktualisierte Fassung steht seit Anfang 2019 allen deutschen Volkshochschulen zur Verfügung.

Learnings

Ein Learning aus den eigenen Erfahrungen im Projekt BRICkS war: Die Auseinandersetzung mit den unangenehmen Seiten des Internets erachteten vor allem junge Teilnehmende als relevant, spannend und auch hilfreich. Eine Herausforderung ist aber sicher, und das gilt altersunabhängig für alle Zielgruppen: In der Auseinandersetzung mit den Themen sind ganz unterschiedliche moralische, ethische, soziale, politische und auch juristische Kompetenzen gefragt. Denn was definieren wir überhaupt als Hass bzw. als einen Hasskommentar? Bevor über Maßnahmen gesprochen werden kann, muss eine Auseinandersetzung geführt werden, wann Onlinekommentare vielleicht nur vereinzelte Grenzüberschreitungen sind, mit denen eine demokratische Gesellschaft umzugehen lernen muss, und wann Hasskommentare durchaus Gefahren bergen. Gefahren für unsere Gesellschaft entstehen etwa dann, wenn öffentliche Debatten plötzlich durch Hassreden geprägt werden und moderate Stimmen zum Schweigen gebracht werden oder bestimmten Minderheiten die Stimme genommen wird. Gefährlich wird es für Einzelne, wenn aus Sprache Taten werden – siehe das Beispiel um YouTuber Drachenlord.

Strategien und Regeln – und das ist eine weitere Herausforderung – können nur dann entwickelt werden, wenn die Bedingungen und Möglichkeiten des Mediums verstanden werden. Sich mit online hate speech zu befassen heißt, die Funktionsweisen von Social-Media-Angeboten zu kennen und mit ihrer scheinbar permanenten Weiterentwicklung Schritt zu halten. Oder mal ganz praktisch: Wer eine Kommentarfunktion anbietet, muss sich vorher die Frage stellen, welche Kanäle er oder sie anbieten will, ob und wie eine Betreuung der Kanäle zu leisten ist. Denn einfach so nebenbei einen YouTube-Account oder eine Facebook-Seite anzulegen kann bedeuten, „die eigene Haustür“ auch potenziell unliebsamen Gästen zu öffnen.

Eine Frage der Kommunikationskultur

Welche Kommunikationskultur möchte ich auf meiner eigenen Seite fördern und schützen? Diese Frage muss von Konzernen, Firmen, Institutionen, Einzelpersonen (beruflich wie privat) beantwortet werden, um entsprechende Regeln dann zu kommunizieren. Wer auf seiner eigenen Seite moderierend tätig ist und darauf hinweist, dass diskriminierende und beleidigende Kommentare umgehend gelöscht werden, schränkt damit weder die Meinungsfreiheit ein noch zensiert er oder sie das Netz. Eine konsequent und transparent geführte Moderation zeigt die „Hausregeln“ des eigenen Angebotes auf und wendet diese an – nicht mehr und nicht weniger. Dadurch verlagert sich zuweilen der Hass eventuell nur auf andere Seiten. Allerdings ist es wichtig, selbst keinen Raum für Hasskommentare zu bieten, weil dieser wie ein Inkubator wirkt.

Am Ende muss klar sein, dass es für uns alle, also für jede und jeden – online wie offline – eine ganze Reihe von Aufgaben gibt: Justiziables über entsprechende Meldemöglichkeiten anzeigen, sich die Gegenrede zutrauen (am besten mit anderen gemeinsam), wenigstens die (geringe) Macht als Verbraucherinnen nutzen und kontrollieren, ob die professionellen Akteurinnen ihre Aufgaben erfüllen.

Und natürlich: Zivilcourage zeigen. Daran kommen wir nicht vorbei.

Autor und Autorin

Lars Gräßer ist wissenschaftlicher Mitarbeiter und Pressesprecher des Grimme-Instituts, erst als Community-Manager eines Netzwerks für Medienkompetenzförderung tätig, später Projektmitarbeiter beim Grimme Online Award und der Grimme-Akademie sowie im Bereich der Medienbildung. Er forscht am Grimme-Forschungskolleg an der Universität zu Köln zur politischen Meinungsbeeinflussung durch YouTuber, ist Autor zahlreicher Fachartikel und Herausgeber von Sammelbänden zu aktuellen Fragen der Digitalisierung, vielfach mit Blick auf politische Bildung.

Aycha Riffi ist Leiterin der Grimme-Akademie im Grimme-Institut. Nach dem Studium der Theater-, Film- und Fernsehwissenschaften, Germanistik und Pädagogik an der Ruhr-Uni Bochum folgten berufliche Stationen beim ZDF, WDR, SDR und DSF. Ab 2002 beim Grimme Online Award und 2005 Wechsel zur Grimme-Akademie. Hier war sie u. a. für die europäischen Projekte Media4us und BRICkS („Building Respect on the Internet by Combating Hate Speech“) in der Projektleitung. Mit Kai Kasper und Lars Gräßer ist sie Herausgeberin der Publikation „Online Hate Speech. Perspektiven auf eine neue Form des Hasses“.

Quellen

  • Gerstmann, Markus, Lea Güse und Lisa Hempel: Wir müssen die rechte Gehirnhälfte erreichen. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 141–148.
  • Kaspar, Kai: Hassreden im Internet – ein besonderes Phänomen computervermittelter Kommunikation. In: ders., Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 63–70.
  • Lobenstein, Marie-Joelle Hofer von, Annette Schneider: Das Projekt BRICkS: Auswertung von Hate Speech-Fallbeispielen. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 127–133.
  • Schmitt, Josephine: Online Hate Speech: Definition und Verbreitungsmotivationen aus psychologischer Sicht. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 135–140.
  • Wentzel, Johannes: Gemeinsam gegen Hate Speech – Workshops mit Jugendlichen. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 135–140.
  • Die mehrfach hier aufgeführte Publikation Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, ist in voller Länge und kostenlos online verfügbar unter: https://www.grimme-institut.de/fileadmin/Grimme_Nutzer_Dateien/Akademie/Dokumente/SR-DG-NRW_04-Online-Hate-Speech.pdf  [zuletzt 22.11.2018]”

[1] Siehe online: https://www.zeit.de/digital/internet/2018-08/youtuber-drachenlord-altschauenberg-cybermobbing-drachengame?page=44#comments  [zuletzt 22.11.2018]

[2] Siehe online: http://www.spiegel.de/plus/altschauerberg-cyber-mobbing-drachenlord-im-dauerfeuer-a-0db1cd5b-6a95-461b-b8ad-07d3f4eb7703  [zuletzt 22.11.2018]

[3] Siehe online: https://www.youtube.com/watch?v=zu9KtSvFGMI  [zuletzt 22.11.2018]

[4] Ergebnisbericht einer forsa-Umfrage (2018) im Auftrag der Landesanstalt für Medien NRW, siehe online: https://www.medienanstalt-nrw.de/fileadmin/user_upload/lfm-nrw/Foerderung/Forschung/Dateien_Forschung/forsaHate_Speech_2018_Ergebnisbericht_LFM_NRW.PDF  [zuletzt 22.11.2018]

[5] Pressemitteilung zur DIVSI-U25-Studie, siehe online: https://www.divsi.de/presse/pressemitteilungen/19313/ 

[6] Zusammenfassung einer repräsentativen Untersuchung (2018) „#Hass im Netz: Der schleichende Angriff auf unsere Demokratie“ des Instituts für Demokratie und Zivilgesellschaft im Auftrag von Campact e. V., siehe online: https://blog.campact.de/wp-content/uploads/2018/10/executive_summary.pdf  [zuletzt 22.11.2018]

[7] ebenda, Grafik 1. Wahrnehmung von Hassrede (2018), S. 1

[8] Siehe hierzu die exemplarische Auflistung in: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 171–180.

[9] Siehe online: https://www.grimme-online-award.de/archiv/2017/preistraeger/p/d/ichbinhier-1/ [zuletzt 22.11.2018]

[10] Markus Gerstmann, Lea Güse und Lisa Hempel: Wir müssen die rechte Gehirnhälfte erreichen, S. 144. In: Kai Kaspar, Lars Gräßer, Aycha Riffi (Hrsg.): Online Hate Speech. Perspektiven auf eine neue Form des Hasses. Schriftenreihe zur Digitalen Gesellschaft NRW, Band 4, München/Düsseldorf 2017, S. 141–148.

[11] Online unter: https://www.bricks-project.eu/  [zuletzt 22.11.2018].