Der Unsinn rund um Nikolo
Wieso Falschmeldungen so gut funktionieren – erklärt anhand eines irreführenden Berichts der Boulevardzeitung “Österreich”
Und trotzdem ist diese Geschichte klicktechnisch ein irrer Erfolg für “Österreich”. Sie löste bisher 19.500 Likes, Kommentare oder Shares auf Facebook aus. Ein wesentlicher Teil dieser Interaktion wurde von Rechtspopulist Heinz-Christian Strache verursacht: Er teilte die Meldung auf seinem Facebook-Account und erzielte dort 9000 Likes, Kommentare oder Shares. Zumindest rein klicktechnisch ist diese Geschichte auch für die FPÖ ein Erfolg:
Warum funktioniert so ein Unsinn so gut? Es gibt Erklärungen, warum Falschmeldungen oder irreführende Beiträge so gut funktionieren – hier 3 Faktoren, die zum Erfolg solchen Unsinns beitragen:
1.) Wut wirkt
Falschmeldungen verbreiten sich auch deswegen so stark, weil sie immense Emotionalität auslösen: Menschen werden so wütend, dass sie im Affekt solche Geschichten teilen, liken, weitererzählen. Tatsächlich lässt sich in Daten-Auswertungen messen, dass Wut eine extrem erfolgreiche Emotion ist, auch im Internet. Im Englischen gibt es den Satz: “Angry People click more”, wütende Menschen klicken mehr.
Auch Medien profitieren zum Beispiel von höherer Reichweite, wenn ihre Geschichten Wut auslösen. Eine Studie hierzu – die keine Falschmeldungen behandelte, aber sehr wohl die Viralität von Wut aufzeigte: Die Wissenschaftler Jonah Berger und Katherine Milkman analysierten, welche Artikel der “New York Times” eher “viral” werden (also stark von Menschen weitergeleitet werden). Konkret wurde analysiert, welche Texte auf der Webseite Menschen per Email weiterempfahlen. Wütendmachende Artikel hatten eine deutlich höhere Chance, viral zu werden: Ihre Chance, auf die Liste der meistversendeten Artikel zu kommen, lag um ein Drittel höher.
Die Nikolo-Geschichte passt zu solchen wissenschaftlichen Ergebnissen: Sie ist ein Klickerfolg. Sie ist so empörend, dass viele Menschen auf Facebook diese aufgebracht teilen – und eine Frage leider oft nicht gestellt wird: Moment, stimmt diese wütendmachende Geschichte überhaupt?
2.) Wahrheitseffekt
Solche Geschichten sind auch deswegen so wirkmächtig, weil sie Teil eines größeren Narrativs sind: Angeblich wird Weihnachten verboten. Seit Jahren tauchen immer wieder Falschmeldungen auf, wonach christliche Bräuche rund um Weihnachten bedroht seien. Absurde Falschmeldungen verbreiten sich jeden Advent aufs Neue: Dass der Nikolo künftig “Zipfelmann” genannt werden muss (Unsinn) oder dass man jetzt nicht mehr “Weihnachtsmarkt” sondern “Wintermarkt” sagen müsse – doch einem Faktencheck halten viele solche Behauptungen nicht stand.
Das Problem an solch wiederkehrendem Unsinn ist: Die Wiederholung hat einen Effekt. Das haben Wissenschaftler schon im Jahr 1977 beobachtet: Über mehrere Wochen hinweg ließen sie Studienteilnehmer unterschiedliche Behauptungen vorlesen. Es zeigte sich, dass Menschen (selbst falsche) Behauptungen eher glauben, wenn sie wiederholt werden. Im Englischen als “illusory truth effect” bezeichnet, oder etwas simpler auf deutsch: Wahrheitseffekt.
Dieser Wahrheitseffekt ist insofern ein unbehagliches Phänomen, als dass wir beobachten können, wie manche Falschmeldungen immer wieder im Netz kursieren: Die Gefahr ist, dass ein Teil der Bevölkerung sehr häufig mit solchen falschen oder halbwahren Behauptungen in Kontakt kommt – und sie aufgrund der Wiederholung für plausibel hält. Mich persönlich fasziniert das zumindest sehr: Dass die pure Wiederholung einer Behauptung diese wahrer erscheinen lässt – selbst bei Erfundenem.
3.) Echokammern
Hinzu kommt noch die Verbreitung im Internet: Wer zum Beispiel einigen FPÖ-Politikern oder Fan-Accounts auf Facebook folgt, bei dem ist die Chance groß, dass er die irreführende Meldung von “Österreich” eingeblendet bekommen hat. Im Umfeld dieser Partei verbreitet sich diese falsche Geschichte vehement. Und da diese Meldung immens viele Likes, Kommentare und Shares hervorrief, wird sie auch prominent im Feed vieler Fans der FPÖ eingeblendet.
Unter Wissenschaftlern besteht hier die Sorge, dass ein Phänomen namens Echokammer die Verbreitung von Falschmeldungen fördert: Echokammern sind digitale Räume, in denen sich Menschen großteils mit Gleichdenkenden austauschen und eher Information von Seiten beziehen, die ihrem Weltbild entsprechen. Tatsächlich gibt es Studien, die die Existenz solcher Echokammern auf sozialen Medien wie Facebook aufzeigen konnten (siehe zum Beispiel: “The spreading of misinformation online”).
Zur Erklärung: Es war wohl schon immer so, dass wir Menschen unbewusst eher Informationen suchten, die unserem Weltbild entsprechen (in der Psychologie wird dies auch “selektive Zuwendung” genannt). Die Sorge besteht allerdings aktuell, dass uns digitale Tools hierbei noch zusätzlich helfen, uns eher einseitig zu informieren: Und interessanterweise treten solche Echokammern-Effekte in unterschiedlichen Untersuchungen zutage.
Ein Problem hierbei ist auch, dass Echokammern Aufklärung erschweren: Man kann nicht immer davon ausgehen, dass Menschen, die eine Falschmeldung sahen, später auch die Richtigstellung eingeblendet bekommen. Zum Beispiel können wir online oft beobachten, wie in FPÖ-kritischen Kreisen stark die Richtigstellung von falschen Behauptungen zirkuliert, die Parteichef Heinz-Christian Strache online weiterverbreitete. Ob all die Fans des Politikers aber auch die Korrektur mitbekommen, das darf bezweifelt werden – auch deswegen, weil wir eine fehlende Fehlerkultur beobachten können.
Heinz-Christian Strache hat den falschen Bericht aus “Österreich” geteilt – und bis heute nicht richtiggestellt, wie viel Unsinn in dieser Meldung steht. Stattdessen ist online weiterhin bei ihm zu lesen: “Es ist irritierend, was im rot-grünen Wien vor sich geht! Ein Verbot von Nikolo & Christkind, dazu aber ein verpflichtender Türkisch Unterricht für unsere Kleinen.” Hier wird also mit einer falschen Behauptung Stimmung gemacht und dies nicht rechtzeitig richtiggestellt.
Fazit
Wut, Wiederholungseffekte, Echokammern: Es gibt einige Gründe, warum Falschmeldungen so erfolgreich sind. Wobei das Grundproblem hierbei ist, dass das Boulevardblatt “Österreich” offensichtlich journalistische Sorgfaltspflichten stark vernachlässigt hat: Ein anonymer Vater und ein FPÖ-Politiker werden in diesem Beitrag zitiert, die Behauptungen als Fakten übernommen und die Gegenseite wird anscheinend nicht befragt. Erst im Nachhinein adaptiert “Österreich” den Bericht – lässt aber weiterhin die Vorwürfe stehen, inszeniert dies nun als “Streit”. Am Ende profitiert das Boulevardblatt von sehr vielen Klicks – und die öffentliche Debatte leidet unter einer weiteren, zutiefst problematischen und irreführenden Meldung.
Foto: pixabay
View Comments
Ich finde an den drei Beispielkomentaren nichts verwerfliches.
Für freie Meinung und gegen Neusprech!!!
Ich verstehe das Problem mit den Beispiel-Kommentaren leider auch nicht. Das Problem ist anscheinend doch eher der Inhalt, nicht die Form. Wären im Kommentar #1 böse Polizisten gemeint gewesen, wäre wahrscheinlich alles in Ordnung.
Spannender finde ich folgende Frage: Welcher der folgenden Kommentare ist denn nun ein Hass-Kommentar?
a) Asylanten sollten sofort, ohne wenn und aber, wieder abgeschoben werden!
b) Dem Polizisten, der mit Pfefferspray auf die Demonstranten losgegangen ist, sollte man selbst mal eine ordentliche Ladung ins Gesicht verpassen.
c) All cops are bastards!
Ich denke, dass das Einstellen eines einzelnen Community-Managers, der nach seinen eigenen bzw. nach redaktionell vorgegebenen Moralvorstellungen die Nutzerkommentare zensiert, nicht der richtige Weg sein kann. Zu empfehlen wäre da eher, auf eine andere Technologie zurückzugreifen, die eine Regulierung durch die Community selbst ermöglicht - quasi durch Mehrheitsentscheid. Ein gutes Beispiel hierfür liefert momentan das Portal YouTube, in dem die Möglichkeit besteht, jeden einzelnen Kommentar als positiv oder negativ zu bewerten. Ab einer gewissen Anzahl negativer Bewertungen wird ein Kommentar standardmäßig ausgeblendet (und nicht gelöscht!) - man muss ihn explizit wieder einblenden, falls man neugierig darauf sein sollte, warum er geschmäht wurde. Nach meiner Beobachtung funktioniert dieses System recht gut und wird von der YT-Nutzergemeinde durchaus gerne in Anspruch genommen. Außerdem stellt es einen Kompromiss zwischen Zensurbefürwortern und -gegnern dar.
Bei vielem im Artikel möchte ich zustimmen, aber eine Befürchtung bleibt: Zu viel Kontrolle. Zum Beispiel Foren mit einer Vorab-Moderation finde ich persönlich unbenutzbar. Auch zu strenge Nettiquette, wie Spiegel-Online-Foren, wo wohl das siezen gefordert wird (Leute, wirklich?) sind ein Hinderungsgrund. Und eine Zwangsregistrierung erst Recht. Dafür muss man die Seite schon sehr oft besuchen, dass sich das lohnt. Um gelegentlich mal einen interessanten Blogartikel durch einen Tipp zu ergänzen werde ich mir bestimmt keinen Account anlegen.
Hi, mich beschleicht oft das Gefühl Internetforen werden zum Abreagieren verwendet. In der "offline" Welt leiden viele Menschen an Harmoniesucht. Man möchte Freunde nicht verunsichern oder gar verärgern. Also spielt man eitle Wonne, geht nach Hause und lässt Dampf ab beim Beschimpfen von Fremden.
Andererseitsss sind Regeln wie: „Dont feed the Troll“ schon recht alt, werden aber nicht immer befolgt. Hier müssen die Nutzer noch erwachsen werden. Youtube bietet dafür mit dem Ausblenden von stark negativ bewerteten Kommentaren eine Hilfe an. Bei einigen Themen wie Sexismus, Ausländerhass etc. ist ignorieren nicht ausreichend. Hier müssen die Nutzer die nötigen Werkzeuge erhalten um solch einen Hassposter zu melden, auszublenden. An einer Moderation kommt man dann natürlich nicht mehr vorbei. Moderatoren lassen sich aus der Community rekrutieren.
Guter Artikel, alles Gute beim Buch!
Der Artikel spricht mir aus der Seele. Besonders gefällt mir, dass das Problem von Hasskommentaren mal thematisiert wird, ohne einer Klarnamenpflicht das Wort zu reden. Denn für ano- oder pseudonymes Posten gibt es diverse Gründe, viele davon völlig legitim. Außerdem löst eine Klarnamenpflicht, wie Sie das ja schon im vorangehenden Beitrag dargelegt haben, das Problem überhaupt nicht. Das ist in dem Zusammenhang einfach eine Scheindebatte.
Sehr wertvoll fand ich auch den Hinweis darauf, dass es eine wichtige Rolle spielt, ob und wie die Autor_innen des kommentierten Artikels sich an der Diskussion beteiligen.
In einem Punkt greift mir der Artikel aber etwas zu kurz, nämlich wenn das Problem auf die Form der Kommentare reduziert wird, unabhängig vom Inhalt. Die Form ist sicherlich ein großes Problem, und die meisten Meinungen kann man auch ohne hate speech vortragen. Es gibt aber auch Meinungen, die an sich hasserfüllt sind. Um ein besonders klares Beispiel zu nehmen: Wenn jemand der Meinung ist, alle Homosexuellen sollten getötet werden - dann kann er_sie das so sachlich und unaufgeregt formulieren wie nur möglich (also wie ich das in dem Beispiel grade getan habe), es bleibt eine zutiefst hasserfüllte Botschaft.
Ich bin also der Meinung, dass Foren und Kommentarspalten keineswegs allen Meinungen Platz einräumen sollten, genausowenig wie allen Formulierungen. (Das bezieht sich natürlich auf Portale mit dem entsprechenden Anspruch; pi oder Krone haben halt das Publikum, das zum redaktionellen Inhalt passt.) Nicht alles, was generell gesagt werden darf - strafrechtlich sind der Meinungsfreiheit zum Glück nur seeehr weite Grenzen gesetzt - muss auch überall gesagt werden dürfen.
Problematisch ist natürlich die Grenzziehung, wofür es sicher kein Patentrezept gibt. Da ist auch die Selbstdisziplin von Blogger_innen und Redaktionen gefragt; positive und kritische Kommentare sollten unbedingt nach den gleichen Kriterien behandelt werden. Auf jeden Fall bin ich für größtmögliche Transparenz, d.h. es sollte so gut wie möglich allgemein dargelegt werden, was akzeptabel in Kommentaren ist und was nicht. Im Sinne der Transparenz bin ich auch eher dafür, Hasskommentare nachträglich zu löschen, als Kommentare von vornherein erst nach Prüfung freizuschalten. Dann können User_innen nämlich ab und an sehen, was gelöscht wird und was nicht.
Eine Halde für gelöschte Kommentare nach Vorbild von hatr.org fände ich auch gut. Dann kann man nämlich sehen, ob tatsächlich nur Hasskommentare gelöscht werden oder generell missliebige Meinungen und sanfte Polemiken. Außerdem bleibt so die Freakshow an einem sicheren Ort erhalten. Daraus lassen sich ja auch wichtige Erkenntnisse über die Verbreitung bestimmter Formen von Hass gewinnen.
I want to to thank you for this great read!! I definitely enjoyed every bit of it.
I have you book marked to check out new things you post…
Schön auf den Punkte gebracht kann man da nur sagen, ich selbst arbeite in einer Werbeagentur in Klagenfurt und wir stellen zum Teil auch Printmedien her. Da finde ich diesen Artikel sehr treffend, da ich auch schon oft sowas zu hören bekommen habe.
Dann werde ich mal etwas Feenstaub auf den Bildschirm werfen um etwas schönes zu zaubern. =)
You really make it seem so easy with your presentation
but I find this topic to be really something which I think I would never
understand. It seems too complicated and extremely broad for me.
I'm looking forward for your next post, I will try to get the hang of it!
Ich glaube auch das ist Geschmackssache, da gibt es sicher einige Pros und Contras ;) Ich persönlich bevorzuge die guten alten Bücher, aber in der jüngeren Generation scheinen eBooks voll im Trend zu liegen, hier ein Beispiel. LG