Denkfehler sorgt für eigene Filterblase Wie wir uns durch vorsortierte Informationen im Netz selbst manipulieren

Meine Nachrichten

Um das Thema Medien Ihren Nachrichten hinzuzufügen, müssen Sie sich anmelden oder registrieren.

Laut Medienforschern bauen wir selbst unsere eigene Filterblase und versichern uns mit ihrer Hilfe immer wieder selbst unserer Meinung.  Foto: dpa/Britta PedersenLaut Medienforschern bauen wir selbst unsere eigene Filterblase und versichern uns mit ihrer Hilfe immer wieder selbst unserer Meinung. Foto: dpa/Britta Pedersen

Osnabrück . Die Sorge vor Manipulation durch vorsortierte Informationen ist groß: Seit einiger Zeit wird die Wirkung von Algorithmen durch Soziale Medien und Suchmaschinen im Internet stark diskutiert. Doch die so genannte Filterblase entsteht auch durch einen Mechanismus, den wir im Kopf haben: Den „Bestätigungsfehler“.

Es ist nur ein Kinderlied, aber es bringt ein menschliches Phänomen auf den Punkt: „Ich mach‘ mir die Welt, widdewiddewie sie mir gefällt“, heißt es in der Musik zu den Filmen um Astrid Lindgrens Figur „Pippi Langstrumpf“.

Das, was das Mädchen mit den roten Zöpfen singt, sieht in unserer Wirklichkeit so aus: Wir wählen Informationen so aus, nehmen sie so wahr und interpretieren sie so, dass sie unserem Weltbild entsprechen. Und das auch noch ganz unbewusst – zumindest so lange, bis wir von dem Phänomen wissen.

In der Wissenschaft – genauer in der Psychologie – wird es als „Confirmation Bias“ bezeichnet – auf Deutsch: „Bestätigungsfehler“. Wir schaffen uns auf seiner Basis ein Umfeld, in dem unsere Erwartungen und Überzeugungen ständig bestätigt werden. Entsprechend setzt sich unser Freundeskreis zusammen. Es entstehen Gemeinschaften wie Stammtische. Dem Mechanismus folgend filtern wir aber auch die Informationen, die wir über die Medien wahrnehmen.

Wir sieben also auch selbst, was wir aufnehmen – ganz unabhängig von den Algorithmen, die beispielsweise Facebook oder Google einsetzen, um uns mit Informationen zu versorgen, die zu uns passen. Eli Pariser hat diesen künstlichen Vorgang im Jahr 2011 als „Filter Bubble“ (Filterblase) bezeichnet.

Die erste Theorie zum Confirmation Bias beschrieb Peter Wason bereits 1960. Spätere Forschungen ergaben, dass dieses Phänomen auftritt, weil passende Informationen besser in Erinnerung bleiben und auch höher gewertet werden als widersprechende. Zudem werden Quellen gemieden, die dem eigenen Weltbild widersprechende Informationen enthalten.

In einer jüngeren Untersuchung bestätigte sich das am Beispiel des Amoklaufs im Jahr 2016 in München. Gerret von Nordheim hatte die Twitter-Nachrichten zu dem Ereignis in den Fokus genommen.

Als Ergebnis konnte der wissenschaftliche Mitarbeiter am Institut für Journalistik der Technischen Universität Dortmund aufzeigen, dass sich in kürzester Zeit zwei Gruppen gebildet hatten, die sich kaum untereinander austauschten: In der einen Gruppe twitterten vor allem die Münchener Polizei, Vertreter traditioneller Medien sowie einige Politiker älterer Parteien. In der anderen tauschten sich AfD-Politiker und Vertreter des rechten Spektrums über die Geschehnisse aus.

Von Nordheim stellte fest: Während in der einen Gruppe noch diskutiert worden sei, wer der Täter sein könnte, seien im anderen Cluster fremdenfeindliche Deutungsmuster bedient worden – die sich später als komplett falsch heraus gestellt haben.

Weil Twitter – im Gegensatz zu Facebook oder Google – mit wenigen Algorithmen arbeitet, zeigt diese Untersuchung laut Gerret von Nordheim, dass wir selbst unsere eigene Filterblase bauen und uns mit ihrer Hilfe unserer Meinung immer wieder selbst versichern. Im Zusammenspiel mit den Algorithmen Sozialer Medien kann sich dieser Mechanismus noch verstärken. Denn während in der wirklichen Welt noch die Konfrontation mit anders denkenden Menschen und widersprechender Information möglich ist, können Nutzer in den Sozialen Medien diesen entgehen.

Bedenklich kann es dann werden, wenn Mediennutzer diese Phänomene nicht kennen oder aber ihre Wirkung falsch einschätzen. Im extremen Fall kann sich ein solches geschlossenes Weltbild zu einer Verschwörungstheorie entwickeln.

Was also tun? Um den Confirmation Bias umgehen zu können, müssen Mediennutzer zunächst einmal wissen, dass es ihn gibt. Im zweiten Schritt hilft es, die eigenen Überzeugungen eben als Annahmen zu sehen – und nicht als Tatsache. Und diese Annahmen dann auch zu überprüfen. Das bedeutet nicht, dass wir alles infrage stellen müssen. Aber das kleine Bewusstsein, dass nicht alles stimmen muss, ist schon ein Schritt aus dem Confirmation Bias hinaus. Verbunden werden sollte das mit der Frage, ob man Dinge wirklich weiß, und einer Offenheit für die Antwort. Das hätte bei manchem Teilnehmer der Twitter-Debatte um den Amoklauf in München eine Vorverurteilung verhindert. Ein solcher Umgang mit Informationen hilft also dabei, Debatten entgegen zu wirken, die auf fehlerhaften Informationen beruhen.



Weitere Angebote, Produkte und Unternehmen der noz MEDIEN