X

Broken Comment Culture – let’s fix it!

Auf der re:publica hielt ich mit Teresa Bücker einen Workshop zur (oft furchtbaren) Kommentarkultur und wie es besser ginge. Hier die Slides und ein paar ergänzende Worte zu einem überaus aktuellem Thema

Heute schreibt Herausgeber Christian Rainer im Profil: “Schluss mit der Anonymität im Netz!” Ich habe bekanntlich eine andere Meinung und zu diesem Thema ein Buch geschrieben. Bei der re:publica in Berlin hielt ich kürzlich mit Teresa Bücker gemeinsam einen Workshop zur – oftmals miserablen – Kommentarkultur online und wie es besser ginge. Hier ein Auszug aus der Workshop-Beschreibung:

“Frauen werden niedergemacht, Aktivist_innen glühen aus, manch einer oder eine verstummt und zieht sich aus der Onlinedebatte zurück: In vielen Foren ist das Worst-Case-Scenario tatsächlich schon eingetreten und die Rüpel geben den Ton an.

Die gute Nachricht ist aber: So muss das nicht sein. Es gibt Wege und Tools, um die Schreihälse auszublenden und eine Debatte auf Augenhöhe zu fördern. Etliche Medien wie der ‘Guardian’ oder auch ‘Gawker’ probieren bereits solche Anreizsysteme aus. Im Workshop sollen Best-Practive-Beispiele vorgestellt werden und darüber diskutiert werden, wie man online eine respektvolle Debatte fördern und Schreiduelle verhindern kann.”

Slide 1

Slide 2:

SIWOTI, kurz für “Someone is wrong on the internet”. Das Gefühl, jemand habe Unrecht, treibt enorm viele Internetuser an. Das große Missverständnis vieler Journalisten ist: Den Postern geht es um den Schlagabtausch und nur selten um den Artikel. Wer für eine bessere (und somit weniger aggressive) Kommentarkultur sorgen will, muss die Psychologie hinter den Kommentaren verstehen. Dazu auch die nächste Folie…

 

 

Slide 3:

Eine der wichtigsten Thesen, die die Aggression im Netz erklärt, ist der Online Disinhibition Effect. Neben der Anonymität ist ein wesentlicher Faktor dabei auch das Gefühl der Unsichtbarkeit: In der schriftlichen Kommunikation des Internets sieht man den Gesprächspartner nicht, bekommt nicht mit, wie er gekränkt dreinschaut oder seine Stimme unsicher wird, nachdem man etwas Schroffes gesagt hat. Dieses Fehlen nonverbaler Signale – etwa dem Augenkontakt – ist ein bedeutender Grund, warum Menschen online oft aggressiver und uneinfühlsamer sind.

 

Slide 4:

Dieses Video habe ich hergezeigt. Es führt vor, wie es aussehen würde, fände der Online Disinhibition Effect auch offline statt

 

Slide 5:

Eine der Gefahren einer so aggressiven Onlinedebatte ist, dass sich viele daraus zurückziehen, weil sie nicht beschimpft werden oder auf einem solchen Niveau diskutieren wollen. Insbesondere Frauen und Feministinnen sind oft von den verbalen Angriffen betroffen, was tatsächlich eine einschüchternde Wirkung hat. Hier ein sehr guter Artikel dazu.

 

Slide 6:

Eine zweite Gefahr, die ich auch ausführlich in meinem Buch und hier beschreibe: Die aggressiven Kommentare führen dazu, dass Debatten tatsächlich anders geführt werden und die untergriffigen Postings dazu führen, dass die Leser über das Berichtete viel negativer denken. Forscher haben dies übrigens beobachtet und sprechen vom “Nasty Effect“.

 

Slide 7:

Hier ein paar Lösungsvorschläge. Im folgenden gehe ich auf die einzelnen Punkte noch stärker ein.

 

Slide 8:

Ein möglicher Weg ist, nicht mehr die neuesten Kommentare als oberstes anzuzeigen, sondern zu ordnen und ganz oben jene Kommentare herzuzeigen, die am förderlichsten für die Debatte sind. Das Onlinemedium Gawker ist dabei schon sehr weit, es zeigt ganz oben jene Kommentare an, die am meisten diskutiert werden. Ganz wesentlich ist dabei auch, dass der einzelne User sehr viel Verantwortung übertragen bekommt. Jeder ist Moderator seiner eigenen Debatte: Schreibe ich einen Kommentar und jemand antwortet darauf, kann ich dessen Antwort auch ausblenden. Dies führt dazu, dass die Community freundlicher und einfühlsamer wird – wer einfach nur herumpöbelt, wird sofort ausgeblendet. Hier ein paar Infos zu dem Gawker-System.

Slide 9:

Dies ist ein Beispiel, wie die Debatte auf Gawker funktioniert – selbst bei einem schwierigen Thema wie den Vorwürfen an Woody Allen.

Slide 10:

Im Netz wird die Meinungsfreiheit oft falsch verstanden. Meinungsfreiheit inkludiert nicht das Recht, alles überall ohne jegliche Konsequenzen behaupten zu dürfen, wie das Comic xkcd.com extrem gut illustrierte. In meinen Augen geht es darum, dass Medien auch online Haltung bewahren. Wer sich in seiner Blattlinie oder Netiquette zu einer demokratischen, antirassistischen, antisexistischen Haltung bekennt, hat sehr wohl das Recht, online auch eine antirassistische, antisexistische Debatte zu moderieren. Es ist nicht Zensur, wenn man diejenigen verbannt, die immer wieder dagegen stören wollen. Der Pluralismus des Netzes erlaubt es diesen Personen, auf anderen Seiten – die zum Beispiel ausdrücklich rassistisch oder sexistisch sind –  weiterhin zu posten. Aber es ist keine Zensur, wenn man moderierend auf der eigenen Seite eingreift und auch ein Mindestmaß an Respekt einfordert.

 

Slide 11:

Die New York Times geht sehr gewissenhaft vor und wendet dabei einen cleveren Trick an: Bei einigen Artikeln werden die Leser gezielt nach ihren eigenen Erfahrungen gefragt. Das führt dazu, dass sich tatsächlich jene User zu Wort melden, die zu dem Thema etwas zu sagen haben. Insgesamt zeigt sich auch bei anderen Medien, dass die Onlinedebatte wesentlich konstruktiver wird, wenn Medien mit klar formulierten Fragen an die Leser herantreten und sich eben vorab überlegen: Worüber will ich eigentlich mit den Usern diskutieren? Man sollte also eine – zumindest grobe – Idee haben, wofür das eigene Forum gut ist.

 

Slide 12:

Dies bedeutet aber auch ein Umdenken bei vielen Journalisten. Derzeit ist die Beziehung zwischen Journalist und User eine Hassliebe – mit Betonung auf Hass. Dazu habe ich neulich gebloggt und einen Teil meines Buchs onlinegestellt, das obige Bild ist ein Screenshot dieses Beitrags.

 

Slide 13:

Ein Best-Practice-Beispiel ist mit Sicherheit auch der Guardian. Wie mir die damalige Kommentar-Zuständige Joanna Geary erklärte: Beim Guardian gibt es die Regel, dass der Autor des Artikels entscheidet, ob er die Kommentarfunktion freischaltet. Er soll nur dann Postings zulassen, wenn er auch bereit ist, mitzudiskutieren – zumindest ein bisschen. Kommentare löschen oder gegen Trolle vorgehen müssen die Journalisten ohnehin nicht, dafür gibt es ein eigenes Team.

Warum ist so wichtig, dass Journalisten mitdiskutieren? Weil dies prompt die Tonalität verbessert. Dies zeigt eine interne Studie des Guardian, aber auch die Erfahrung aller anderen Community-Manager, mit denen ich für mein Buch sprach.

Slide 14:

Noch eine spannende Webseite: Stack Overflow ist eine Hilfeseite für Informatiker, man stellt eine Frage und bekommt möglichst gute Antworten. Die Community verwaltet sich dabei selbst: Die Mitglieder verteilen untereinander sogenannte „Reputationspunkte“. Wer eine interessante Frage stellt oder eine kluge Antwort liefert, erhält ein paar Punkte. Je mehr Punkte ein User hat, desto mehr Befugnisse bekommt er auch im Forum und kann immer mehr Verantwortung übernehmen. Stack Overflow bietet eine clevere Infrastruktur, bei sich die User gegenseitig in Schach halten und einander Anerkennung zollen. Wer konstruktiv mitdiskutiert, wird belohnt. Pöbelt ein User hingegen nur herum oder provoziert er unnötig, dann schadet er sich selbst.

Slide 15:

Hier ein ganz wesentlicher Punkt: In der Tat zeigt es sich, dass Kommentatoren mit echten Namen oftmals deutlich freundlicher sind (oder zumindest weniger Beschimpfungen posten). Dies zeigt etwa eine Studie von Daegon Cho und Alessandro Acquisti, die mir dieses Bild zur Verfügung stellten. Eine wesentliche Erkenntnis ist aber auch: Es führt auch schon zu einem etwas besseren Ton, wenn User mit einer fixen Online-Identität posten – also zum Beispiel mit ihrem Twitter-Account, der kann ein Pseudonym sein. Doch dieses Pseudonym ist vielen Usern wichtig, weil sie sich eine Reputation und somit eine fixe Online-Identität aufgebaut haben. Diese Reputation will man nicht verlieren. Oder anders gesagt: Wer auf Twitter 700 Follower sammelte, indem er gewitzte und kluge Kommentare verfasste, wird seinen guten Ruf wohl nicht aufs Spiel setzen, nur um herumzupöbeln. Solche fixe Online-Identitäten sind somit eine Lösung, um online einen freundlicheren Ton herzustellen, wenn man nicht gleich die Anonymität abschaffen will. Siehe auch Stack Overflow (vorige Folie), die machen das sehr gut.

 

Slide 16:

Kurzes Fazit: Im Kern geht es darum, dass wir online ein System der Verantwortung herstellen müssen. Man kann die Tonalität in den Onlineforen massiv verbessern, ohne gleich die ganze Anonymität abschaffen zu müssen. Aber wesentlich dabei ist vor allem, dass auch Onlinemedien Haltung zeigen, sich aktiv für einen respektvollen Umgang einsetzen und auch jene User beschützen, die derzeit von den Schreihälsen niedergemacht werden.

View Comments

  • Ich finde an den drei Beispielkomentaren nichts verwerfliches.

    Für freie Meinung und gegen Neusprech!!!

  • Ich verstehe das Problem mit den Beispiel-Kommentaren leider auch nicht. Das Problem ist anscheinend doch eher der Inhalt, nicht die Form. Wären im Kommentar #1 böse Polizisten gemeint gewesen, wäre wahrscheinlich alles in Ordnung.

    Spannender finde ich folgende Frage: Welcher der folgenden Kommentare ist denn nun ein Hass-Kommentar?

    a) Asylanten sollten sofort, ohne wenn und aber, wieder abgeschoben werden!

    b) Dem Polizisten, der mit Pfefferspray auf die Demonstranten losgegangen ist, sollte man selbst mal eine ordentliche Ladung ins Gesicht verpassen.

    c) All cops are bastards!

  • Ich denke, dass das Einstellen eines einzelnen Community-Managers, der nach seinen eigenen bzw. nach redaktionell vorgegebenen Moralvorstellungen die Nutzerkommentare zensiert, nicht der richtige Weg sein kann. Zu empfehlen wäre da eher, auf eine andere Technologie zurückzugreifen, die eine Regulierung durch die Community selbst ermöglicht - quasi durch Mehrheitsentscheid. Ein gutes Beispiel hierfür liefert momentan das Portal YouTube, in dem die Möglichkeit besteht, jeden einzelnen Kommentar als positiv oder negativ zu bewerten. Ab einer gewissen Anzahl negativer Bewertungen wird ein Kommentar standardmäßig ausgeblendet (und nicht gelöscht!) - man muss ihn explizit wieder einblenden, falls man neugierig darauf sein sollte, warum er geschmäht wurde. Nach meiner Beobachtung funktioniert dieses System recht gut und wird von der YT-Nutzergemeinde durchaus gerne in Anspruch genommen. Außerdem stellt es einen Kompromiss zwischen Zensurbefürwortern und -gegnern dar.

  • Bei vielem im Artikel möchte ich zustimmen, aber eine Befürchtung bleibt: Zu viel Kontrolle. Zum Beispiel Foren mit einer Vorab-Moderation finde ich persönlich unbenutzbar. Auch zu strenge Nettiquette, wie Spiegel-Online-Foren, wo wohl das siezen gefordert wird (Leute, wirklich?) sind ein Hinderungsgrund. Und eine Zwangsregistrierung erst Recht. Dafür muss man die Seite schon sehr oft besuchen, dass sich das lohnt. Um gelegentlich mal einen interessanten Blogartikel durch einen Tipp zu ergänzen werde ich mir bestimmt keinen Account anlegen.

  • Hi, mich beschleicht oft das Gefühl Internetforen werden zum Abreagieren verwendet. In der "offline" Welt leiden viele Menschen an Harmoniesucht. Man möchte Freunde nicht verunsichern oder gar verärgern. Also spielt man eitle Wonne, geht nach Hause und lässt Dampf ab beim Beschimpfen von Fremden.
    Andererseitsss sind Regeln wie: „Dont feed the Troll“ schon recht alt, werden aber nicht immer befolgt. Hier müssen die Nutzer noch erwachsen werden. Youtube bietet dafür mit dem Ausblenden von stark negativ bewerteten Kommentaren eine Hilfe an. Bei einigen Themen wie Sexismus, Ausländerhass etc. ist ignorieren nicht ausreichend. Hier müssen die Nutzer die nötigen Werkzeuge erhalten um solch einen Hassposter zu melden, auszublenden. An einer Moderation kommt man dann natürlich nicht mehr vorbei. Moderatoren lassen sich aus der Community rekrutieren.

    Guter Artikel, alles Gute beim Buch!

  • Der Artikel spricht mir aus der Seele. Besonders gefällt mir, dass das Problem von Hasskommentaren mal thematisiert wird, ohne einer Klarnamenpflicht das Wort zu reden. Denn für ano- oder pseudonymes Posten gibt es diverse Gründe, viele davon völlig legitim. Außerdem löst eine Klarnamenpflicht, wie Sie das ja schon im vorangehenden Beitrag dargelegt haben, das Problem überhaupt nicht. Das ist in dem Zusammenhang einfach eine Scheindebatte.

    Sehr wertvoll fand ich auch den Hinweis darauf, dass es eine wichtige Rolle spielt, ob und wie die Autor_innen des kommentierten Artikels sich an der Diskussion beteiligen.

    In einem Punkt greift mir der Artikel aber etwas zu kurz, nämlich wenn das Problem auf die Form der Kommentare reduziert wird, unabhängig vom Inhalt. Die Form ist sicherlich ein großes Problem, und die meisten Meinungen kann man auch ohne hate speech vortragen. Es gibt aber auch Meinungen, die an sich hasserfüllt sind. Um ein besonders klares Beispiel zu nehmen: Wenn jemand der Meinung ist, alle Homosexuellen sollten getötet werden - dann kann er_sie das so sachlich und unaufgeregt formulieren wie nur möglich (also wie ich das in dem Beispiel grade getan habe), es bleibt eine zutiefst hasserfüllte Botschaft.

    Ich bin also der Meinung, dass Foren und Kommentarspalten keineswegs allen Meinungen Platz einräumen sollten, genausowenig wie allen Formulierungen. (Das bezieht sich natürlich auf Portale mit dem entsprechenden Anspruch; pi oder Krone haben halt das Publikum, das zum redaktionellen Inhalt passt.) Nicht alles, was generell gesagt werden darf - strafrechtlich sind der Meinungsfreiheit zum Glück nur seeehr weite Grenzen gesetzt - muss auch überall gesagt werden dürfen.

    Problematisch ist natürlich die Grenzziehung, wofür es sicher kein Patentrezept gibt. Da ist auch die Selbstdisziplin von Blogger_innen und Redaktionen gefragt; positive und kritische Kommentare sollten unbedingt nach den gleichen Kriterien behandelt werden. Auf jeden Fall bin ich für größtmögliche Transparenz, d.h. es sollte so gut wie möglich allgemein dargelegt werden, was akzeptabel in Kommentaren ist und was nicht. Im Sinne der Transparenz bin ich auch eher dafür, Hasskommentare nachträglich zu löschen, als Kommentare von vornherein erst nach Prüfung freizuschalten. Dann können User_innen nämlich ab und an sehen, was gelöscht wird und was nicht.

    Eine Halde für gelöschte Kommentare nach Vorbild von hatr.org fände ich auch gut. Dann kann man nämlich sehen, ob tatsächlich nur Hasskommentare gelöscht werden oder generell missliebige Meinungen und sanfte Polemiken. Außerdem bleibt so die Freakshow an einem sicheren Ort erhalten. Daraus lassen sich ja auch wichtige Erkenntnisse über die Verbreitung bestimmter Formen von Hass gewinnen.

  • I want to to thank you for this great read!! I definitely enjoyed every bit of it.
    I have you book marked to check out new things you post…

  • Schön auf den Punkte gebracht kann man da nur sagen, ich selbst arbeite in einer Werbeagentur in Klagenfurt und wir stellen zum Teil auch Printmedien her. Da finde ich diesen Artikel sehr treffend, da ich auch schon oft sowas zu hören bekommen habe.
    Dann werde ich mal etwas Feenstaub auf den Bildschirm werfen um etwas schönes zu zaubern. =)

  • You really make it seem so easy with your presentation
    but I find this topic to be really something which I think I would never
    understand. It seems too complicated and extremely broad for me.

    I'm looking forward for your next post, I will try to get the hang of it!

  • Ich glaube auch das ist Geschmackssache, da gibt es sicher einige Pros und Contras ;) Ich persönlich bevorzuge die guten alten Bücher, aber in der jüngeren Generation scheinen eBooks voll im Trend zu liegen, hier ein Beispiel. LG

  • 1 11 12 13 14 15 37