Zum Inhalt springen
Soap bubbles
11 Oktober 2018| doi: 10.5281/zenodo.1457215

„Das könnte Dich interessieren“ – Wie die Filter Bubble unsere Wahrnehmung bestimmt

Die Filter Bubble – eines der meist diskutierten Phänomene des Internets. Sie steht im Verdacht, uns das Internet nur noch durch Filter wahrnehmen zu lassen. Alle sprechen davon und doch wissen die wenigsten, um was es sich eigentlich handelt. Wie manipuliert die Filter Bubble unsere Wahrnehmung? Und kann sie sogar unsere Demokratie gefährden? HIIG-Mitarbeiterin Nadine Lahn und ihre Kommilitonin Laura Jörger haben sich mit diesem geheimnisvollen Begriff und den Herausforderungen beschäftigt, die mit Filter Bubbles aufkommen.  

„Ich bin ein Algorithmus. Mein Programmierer hat mich geschrieben, um Nutzerverhalten vorherzusehen und dementsprechend zu reagieren. Meine Aufgabe ist es, jeder Person zur richtigen Zeit das richtige Produkt vorzuschlagen. Oh, da interessiert sich jemand für Sommerschuhe! Dann schlage ich sofort noch ein paar andere in dunklen Farben vor. Jackpot – die schwarzen Lederschuhe sind im Einkaufswagen! Mein Erschaffer wird stolz auf mich sein!“

Wenn unser Verhalten vorhergesagt wird

Der Begriff Filter Bubble (dt. Filterblase) wurde von Eli Pariser, einem US-amerikanischen Internetaktivisten, geprägt. Sie entsteht, da Internetseiten mithilfe von Algorithmen versuchen, Voraussagen über die jeweiligen NutzerInnen und ihre Interessen zu treffen. Durch diese Personalisierung werden die NutzerInnen von Informationen isoliert, die nicht ihrer Meinung entsprechen.

Algorithmen kennen die meisten aus der Informatik: „Irgendetwas mit 0 und 1“ würden viele wohl sagen. Doch wie Algorithmen genau arbeiten, ist uns als einfache NutzerInnen des Internets so unbekannt wie das Geheimrezept von Coca-Cola. Das Prinzip kann man sich aber wie ein Kuchenrezept vorstellen: Es ist eine Schritt-für-Schritt-Anleitung, bei der nach Eingabe eines Inputs (die Zutaten) ein Output (der Kuchen) folgt. Doch die einzelnen Prozesse dazwischen sind für die NutzerInnen nicht nachvollziehbar. Algorithmen sind oft selbstlernend. Sie wissen, was uns interessiert, welche Produkte wir eventuell kaufen würden und welche Nachrichten wir lesen möchten.

Wie wirkt die Filter Bubble auf uns?

Während wir nur sehen was uns interessiert und unsere Meinung bestätigt wird, erfahren wir gleichzeitig auch keine Gegenmeinungen oder unterschiedliche Weltanschauungen. Für die meisten scheint es um einiges bequemer zu sein, die eigene Meinung bestätigt zu bekommen, anstatt sich selbst aktiv mit anderen Standpunkten und Weltbildern auseinanderzusetzen. Sicherlich scheinen uns passende Kaufempfehlungen und interessante Nachrichten im Newsfeed äußerst praktisch, doch beruht dies immer auch auf der Speicherung einer beträchtlichen Menge persönlicher Daten.

„Wir bewegen uns in einen Tunnel unserer selbst hinein, der immer enger, immer selbstreferentieller wird, weil keine neuen Impulse mehr hinzukommen.”

So bringt die deutsche Kommunikationswissenschaftlerin Miriam Meckel das Problem auf den Punkt. Eli Pariser nennt in seinem TED-Talk unter anderem folgendes Beispiel: Freunde sind aus seiner Facebook-Timeline verschwunden, weil sie eine konträre Meinung zu seiner eigenen vertreten.

„It will be very hard for people to watch or consume something that has not in some sense been tailored for them.“
Eric Schmidt, ehemaliger Google-Vorstandsvorsitzender

Trotz der Auswirkungen der Filterblase nehmen wir ihren Einfluss auf unser alltägliches Leben kaum wahr. Wir werden manipuliert, ohne dass wir es überhaupt mitbekommen. ExpertInnen fordern mehr Transparenz und die Möglichkeit für die NutzerInnen, selbst zu entscheiden, welche Inhalte sie sehen möchten. Sie plädieren dafür, die NutzerInnen zu stärken und dadurch einen kritisch-reflexiven Umgang mit Algorithmen zu erreichen. Die Algorithmen sollen als Gatekeeper nicht nur für uns relevante und angenehme Informationen zeigen, sondern auch solche, die unseren eigenen Anschauungen widersprechen.

Wenn der öffentliche Diskurs verschwindet…

Eli Pariser sieht in der Verbreitung der Algorithmen und der damit einhergehenden Filter Bubble ein noch größeres Problem: Seiner Meinung nach können diese die sogenannte  „deliberative Demokratie“ bedrohen. Dieser Begriff wurde durch den deutschen Philosophen Jürgen Habermas geprägt und beschreibt eine Form der Demokratie, in der der rationale Diskurs der Öffentlichkeit im Mittelpunkt steht. Verschiedene Meinungen werden vorgetragen, diskutiert und einander gegenübergestellt, wodurch die bestmögliche Lösung gefunden werden soll. Die Basis dieser Diskurse sind widersprüchliche Meinungen. Die Filter Bubble verhindert diese Form der Demokratie. Die Menschen werden nur in ihrer eigenen Sichtweise bestärkt und erhalten keinen Zugang zu konträren Meinungen.

In Zukunft werden uns wahrscheinlich immer mehr personalisierte Suchergebnisse vorgesetzt. Noch ausgeprägter als heute werden alle in ihrem „eigenen“ Internet unterwegs sein. Liest eine Person immer nur kurze Meldungen und Kommentare, werden ihr auch nur noch kurze Artikel vorgeschlagen – genau das, was sie am liebsten mag. Wenn alle nur noch personalisierte Nachrichten erhält, werden Massenmedien, die ein möglichst breites Spektrum an Informationen und Ansichten verbreiten möchten, bald überflüssig sein? Individuell Zugeschnittenes erreicht uns mit Sicherheit öfter und leichter als Informationen, die für die Allgemeinheit bestimmt sind. Das Phänomen der Filterblase kann sich auch maßgeblich auf die politische Willensbildung des Einzelnen auswirken. Politiker könnten auf ihre AdressatInnen abgestimmte Videobotschaften aufnehmen, in denen den UmweltschützerInnen versprochen wird, dass sich die Partei gegen den Ausbau der Autobahnen ausspricht, den Autofans allerdings wird das Gegenteil versprochen. So kommt es zu einer gezielten Manipulation, um mehr Stimmen zu generieren.

Auch in der analogen Welt leben wir in Blasen

Für die Entstehung der Filterblase im Internet gibt es bislang jedoch kaum empirische Belege. Bisher ist es nur eine Theorie, um die Auswirkungen der Personalisierung durch Algorithmen zu erklären.

Auch jenseits des Internets nehmen wir Informationen, die unsere Meinung bestätigen, eher an als solche, die ihr widersprechen. Diese lehnen wir teilweise sogar ab, weil sie nicht in unser eigenes Weltbild passen. In der Wissenschaft nennt man dies „soziale Homophilie“. Das, was uns ähnlich ist, ist uns sympathisch. Das bedeutet, wir erschaffen uns unsere eigene Filterblase, auch außerhalb des Internets. Allerdings entscheiden wir offline frei, mit welchen Menschen wir uns umgeben möchten. Der Algorithmus fragt uns nicht.

Die Filterblase zum Platzen bringen

Ob wir nun wirklich in Filterblasen leben oder nicht – eins steht fest: Man sollte immer im Hinterkopf behalten, dass uns im Internet vorgefilterte Informationen vorgesetzt werden. Wenn wir uns dessen nicht bewusst sind, ist es unmöglich, die Blase zum Platzen zu bringen.

Es sollte nicht vergessen werden, auch mal offline zu gehen und sich die Welt draußen anzuschauen. Auf welche Meinungen und Ansichten trifft man hier? Diese werden sich sicherlich von denen im Netz unterscheiden. Zusätzlich gibt es bei Google die Möglichkeit, die personalisierten Suchergebnisse auszuschalten. Das Hinzuziehen von anderen Suchmaschinen, wie z.B. DuckDuckGo und auch unbubble.eu ist auch eine Option. Doch das nützt alles nichts, wenn wir nicht kritisch mit den Inhalten, mit denen wir im Internet konfrontiert werden, umgehen.


Laura Jörger und Nadine Lahn sind im 5. Bachelor-Semester des interdisziplinären Studiengangs Wissenschaft-Medien-Kommunikation am Karlsruher Institut für TechnologieDer Originalartikel erschien in der 53. Ausgabe des Studierendenmagazins Karlsruher Transfer, herausgegeben von der Hochschulgruppe fuks am Karlsruher Institut für Technologie

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Nadine Lahn

Ehem. Praktikantin: Kommunikation und Wissenstransfer

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst eine Bibliothek mit einer runden Treppe die sich in die höhe schraubt. Sie steht sinnbildlich für die sich stetig weiterentwickelnden digitalen Infrastrukturen unserer Wissensgesellschaft. You see a library with a round staircase that spirals upwards. It symbolises the constantly evolving digital infrastructures of our knowledge society.

Offene Hochschulbildung

Wir erforschen den Einsatz von offener Hochschulbildung, um Wissen für alle in unserer zu fördern, zu teilen und zu verbreiten.

Weitere Artikel

Ein moderner U-Bahnhof mit Rolltreppen, die zu den Plattformen führen – ein Sinnbild für den geregelten Zugang zu Daten, wie ihn Zugangsrechte im NetzDG und DSA ermöglichen.

Plattformdaten und Forschung: Zugangsrechte als Gefahr für die Wissenschaftsfreiheit?

Neue Digitalgesetze gewähren Forschenden Zugangsrechte zu Plattformdaten, doch strikte Vorgaben werfen Fragen zur Wissenschaftsfreiheit auf.

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.