Skip to content
Soap bubbles
11 October 2018| doi: 10.5281/zenodo.1457215

“This might interest you” – How the Filter Bubble determines our perception

The Filter Bubble – that is one of the most discussed phenomena of the internet. It is suspected of restricting our perception of the Internet through filters. Everyone is talking about it and yet very few people know what the problem really is about. How does the Filter Bubble manipulate our perception? And can it even endanger our democracy? HIIG employee Nadine Lahn and her university colleague Laura Jörger dealt with this mysterious term and the challenges that arise with Filter Bubbles.

„Ich bin ein Algorithmus. Mein Programmierer hat mich geschrieben, um Nutzerverhalten vorherzusehen und dementsprechend zu reagieren. Meine Aufgabe ist es, jeder Person zur richtigen Zeit das richtige Produkt vorzuschlagen. Oh, da interessiert sich jemand für Sommerschuhe! Dann schlage ich sofort noch ein paar andere in dunklen Farben vor. Jackpot – die schwarzen Lederschuhe sind im Einkaufswagen! Mein Erschaffer wird stolz auf mich sein!“

Wenn unser Verhalten vorhergesagt wird

Der Begriff Filter Bubble (dt. Filterblase) wurde von Eli Pariser, einem US-amerikanischen Internetaktivisten, geprägt. Sie entsteht, da Internetseiten mithilfe von Algorithmen versuchen, Voraussagen über die jeweiligen NutzerInnen und ihre Interessen zu treffen. Durch diese Personalisierung werden die NutzerInnen von Informationen isoliert, die nicht ihrer Meinung entsprechen.

Algorithmen kennen die meisten aus der Informatik: „Irgendetwas mit 0 und 1“ würden viele wohl sagen. Doch wie Algorithmen genau arbeiten, ist uns als einfache NutzerInnen des Internets so unbekannt wie das Geheimrezept von Coca-Cola. Das Prinzip kann man sich aber wie ein Kuchenrezept vorstellen: Es ist eine Schritt-für-Schritt-Anleitung, bei der nach Eingabe eines Inputs (die Zutaten) ein Output (der Kuchen) folgt. Doch die einzelne Prozesse dazwischen sind für die NutzerInnen nicht nachvollziehbar. Algorithmen sind oft selbstlernend. Sie wissen, was uns interessiert, welche Produkte wir eventuell kaufen würden und welche Nachrichten wir lesen möchten.

Wie wirkt die Filter Bubble auf uns?

Während wir nur sehen, was uns interessiert und unsere Meinung bestätigt wird, erfahren wir gleichzeitig auch keine Gegenmeinungen oder unterschiedliche Weltanschauungen. Für die meisten scheint es um einiges bequemer zu sein, die eigene Meinung bestätigt zu bekommen, anstatt sich selbst aktiv mit anderen Standpunkten und Weltbildern auseinanderzusetzen. Sicherlich scheinen uns passende Kaufempfehlungen und interessante Nachrichten im Newsfeed äußerst praktisch, doch beruht dies immer auch auf der Speicherung einer beträchtlichen Menge persönlicher Daten.

„Wir bewegen uns in einen Tunnel unserer selbst hinein, der immer enger, immer selbstreferentieller wird, weil keine neuen Impulse mehr hinzukommen.”

So bringt die deutsche Kommunikationswissenschaftlerin Miriam Meckel das Problem auf den Punkt. Eli Pariser nennt in seinem TED-Talk unter anderem folgendes Beispiel: Freunde sind aus seiner Facebook-Timeline verschwunden, weil sie eine konträre Meinung zu seiner eigenen vertreten.

„It will be very hard for people to watch or consume something that has not in some sense been tailored for them.“
Eric Schmidt, ehemaliger Google-Vorstandsvorsitzender

Trotz der Auswirkungen der Filterblase nehmen wir ihren Einfluss auf unser alltägliches Leben kaum wahr. Wir werden manipuliert, ohne dass wir es überhaupt mitbekommen. ExpertInnen fordern mehr Transparenz und die Möglichkeit für die NutzerInnen, selbst zu entscheiden, welche Inhalte sie sehen möchten. Sie plädieren dafür, die NutzerInnen zu stärken und dadurch einen kritisch-reflexiven Umgang mit Algorithmen zu erreichen. Die Algorithmen sollen als Gatekeeper nicht nur für uns relevante und angenehme Informationen zeigen, sondern auch solche die unseren eigenen Anschauungen widersprechen.

Wenn der öffentliche Diskurs verschwindet…

Eli Pariser sieht in der Verbreitung der Algorithmen und der damit einhergehenden Filter Bubble ein noch größeres Problem: Seiner Meinung nach können diese die sogenannte  „deliberative Demokratie“ bedrohen. Dieser Begriff wurde durch den deutschen Philosophen Jürgen Habermas geprägt und beschreibt eine Form der Demokratie, in der der rationale Diskurs der Öffentlichkeit im Mittelpunkt steht. Verschiedene Meinungen werden vorgetragen, diskutiert und einander gegenübergestellt, wodurch die bestmögliche Lösung gefunden werden soll. Die Basis dieser Diskurse sind widersprüchliche Meinungen. Die Filter Bubble verhindert diese Form der Demokratie. Die Menschen werden nur in ihrer eigenen Sichtweise bestärkt und erhalten keinen Zugang zu konträren Meinungen.

In Zukunft werden uns wahrscheinlich immer mehr personalisierte Suchergebnisse vorgesetzt. Noch ausgeprägter als heute werden alle in ihrem „eigenen“ Internet unterwegs sein. Liest eine Person immer nur kurze Meldungen und Kommentare, werden ihr auch nur noch kurze Artikel vorgeschlagen – genau das, was sie am liebsten mag. Wenn alle nur noch ihre personalisierten Nachrichten erhält, werden Massenmedien, die ein möglichst breites Spektrum an Informationen und Ansichten verbreiten möchten, bald überflüssig sein? Individuell Zugeschnittenes erreicht uns mit Sicherheit öfter und leichter als Informationen, die für die Allgemeinheit bestimmt sind. Das Phänomen der Filterblase kann sich auch maßgeblich auf die politische Willensbildung des Einzelnen auswirken. Politiker könnten auf ihre AdressatInnen abgestimmte Videobotschaften aufnehmen, in denen den UmweltschützerInnen versprochen wird, dass sich die Partei gegen den Ausbau der Autobahnen ausspricht, den Autofans allerdings wird das Gegenteil versprochen. So kommt es zu einer gezielten Manipulation, um mehr Stimmen zu generieren.

Auch in der analogen Welt leben wir in Blasen

Für die Entstehung der Filterblase im Internet gibt es bislang jedoch kaum empirische Belege. Bisher ist es nur eine Theorie, um die Auswirkungen der Personalisierung durch Algorithmen zu erklären.

Auch jenseits des Internets nehmen wir Informationen, die unsere Meinung bestätigen, eher an als solche, die ihr widersprechen. Diese lehnen wir teilweise sogar ab, weil sie nicht in unser eigenes Weltbild passen. In der Wissenschaft nennt man dies „soziale Homophilie“. Das, was uns ähnlich ist, ist uns sympathisch. Das bedeutet, wir erschaffen uns unsere eigene Filterblase, auch außerhalb des Internets. Allerdings entscheiden wir offline frei, mit welchen Menschen wir uns umgeben möchten. Der Algorithmus fragt uns nicht.

Die Filterblase zum Platzen bringen

Ob wir nun wirklich in Filterblasen leben oder nicht, eins steht fest: Man sollte immer im Hinterkopf behalten, dass uns im Internet vorgefilterte Informationen vorgesetzt werden. Wenn wir uns dessen nicht bewusst sind, ist es unmöglich, die Blase zum Platzen zu bringen.

Es sollte nicht vergessen werden, auch mal offline zu gehen und sich die Welt draußen anzuschauen. Auf welche Meinungen und Ansichten trifft man hier? Diese werden sich sicherlich von denen im Netz unterscheiden. Zusätzlich gibt es bei Google die Möglichkeit, die personalisierten Suchergebnisse auszuschalten. Das Hinzuziehen von anderen Suchmaschinen, wie z.B. DuckDuckGo und auch unbubble.eu ist auch eine Option. Doch das nützt alles nichts, wenn wir nicht kritisch mit den Inhalten, mit denen wir im Internet konfrontiert werden, umgehen.


Laura Jörger and Nadine Lahn are in their 5th bachelor semester of the interdisciplinary course Science-Media-Communication at the Karlsruhe Institute of TechnologyThe original article appeared in the 53th issue of the student magazine Karlsruher Transfer, published by the university group fuks at the Karlsruhe Institute for Technology

This post represents the view of the author and does not necessarily represent the view of the institute itself. For more information about the topics of these articles and associated research projects, please contact info@hiig.de.

Nadine Lahn

Former Intern: Communication & Knowledge Transfer

Sign up for HIIG's Monthly Digest

HIIG-Newsletter-Header

You will receive our latest blog articles once a month in a newsletter.

Explore current HIIG Activities

Research issues in focus

HIIG is currently working on exciting topics. Learn more about our interdisciplinary pioneering work in public discourse.

Further articles

Three groups of icons representing people have shapes travelling between them and a page in the middle of the image. The page is a simple rectangle with straight lines representing data used for people analytics. The shapes traveling towards the page are irregular and in squiggly bands.

Empowering workers with data

As workplaces become data-driven, can workers use people analytics to advocate for their rights? This article explores how data empowers workers and unions.

A stylised illustration featuring a large "X" in a minimalist font, with a dry branch and faded leaves on one side, and a vibrant blue bird in flight on the other. The image symbolises transition, with the bird representing the former Twitter logo and the "X" symbolising the platform's rebranding and policy changes under Elon Musk.

Two years after the takeover: Four key policy changes of X under Musk

This article outlines four key policy changes of X since Musk’s 2022 takeover, highlighting how the platform's approach to content moderation has evolved.

The picture shows a tractor cultivating a field from above. One side of the field is covered in green, the other is dry and earthy. This is intended to show that although sustainable AI can be useful in the fight against climate change, it also comes at a high ecological cost.

Between vision and reality: Discourses about Sustainable AI in Germany

This article explores Sustainable AI and Germany's shift from optimism to concern about its environmental impact. Can AI really combat climate change?