Zum Inhalt springen
Accepting cookies
21 September 2022

Datenschutz ja, aber mit Cookies? Was steckt hinter dem “Privacy Paradox”?

Hast du dich schonmal gefragt, warum du Datenschutzvereinbarungen wie zum Beispiel Cookies auf einer Website schneller und ohne groß darüber nachzudenken zustimmst, während du dir für einen analogen Vertrag erstmal Zeit nimmst? Dieses Phänomen wird als Privacy Paradox bezeichnet. Aber ist es wirklich so paradox oder gibt es eventuell logische Erklärungen für unser Online-Verhalten?

Was ist das Privacy Paradox?

Das Privacy Paradox ist ein Konzept, das Verbraucherverhalten mit den Belangen des Datenschutzes in Einklang zu bringen versucht (Martin, 2019, S. 67). Zusammengefasst lässt es sich wie folgt beschreiben: Die Bedenken der Menschen in Bezug auf die Privatsphäre stehen in keinem Zusammenhang mit ihrem Datenschutzverhalten. Obwohl die Nutzer:innen erhebliche Bedenken in Bezug auf ihre Online-Privatsphäre haben, zeigen sie selbstoffenbarende Verhaltensweisen, die ihre Bedenken nicht angemessen widerspiegeln (Dienlin, Trepte 2014).

Leben in einer Informationsgesellschaft

Informations- und Kommunikationstechnologien (IKT) sind radikal verändernde Geräte, weil sie Umgebungen schaffen, in welche die Nutzer:innen über Gateways eintreten können und eine Form der Initiation erfahren (Floridi, 2010, S. 5, Kap. 1). Die IKT verändern unsere Welt ebenso sehr wie sie neue Realitäten schaffen. Die Grenzen zwischen der analogen Welt und der digitalen Internet verschwimmen zusehends. Dieses neue Phänomen ist unter den Begriffen “Ubiquitous Computing”, “Ambient Intelligence”, “Internet der Dinge” oder “Web augmented things” bekannt (Floridi, 2010, S. 8, Kap. 1). Floridi (2010) nennt dies die Informationsgesellschaft, in der wir von IKT abhängig sind.

Wie kognitive Barrieren unser Datenschutzverhalten beeinflussen

In der Informationsgesellschaft müssen wir Entscheidungen zum Schutz der Privatsphäre in einem begrenzten Zeitrahmen treffen, was Unternehmen zu ihrem Vorteil nutzen. Cranor (2012) schätzt zum Beispiel, “dass ein Nutzer durchschnittlich 244 Stunden pro Jahr benötigen würde, um die Datenschutzrichtlinien jeder von ihm besuchten Website zu lesen, oder 54 Milliarden Stunden pro Jahr für jeden Verbraucher in den Vereinigten Staaten, um alle Datenschutzrichtlinien zu lesen, auf die er gestoßen ist (McDonald & Cranor, 2008)” (Waldman, 2020). Die Forschung hat zahlreiche kognitive und verhaltensbedingte Hindernisse für eine rationale Entscheidungsfindung in Bezug auf Privatsphäre und Offenlegung ermittelt (Acquisti, Brandimarte, & Loewenstein, 2015; Camerer, 1998). Eine der am weitesten verbreiteten kognitiven Verzerrungen ist beispielsweise die hyperbolische Diskontierung (Waldman, 2020). Dabei handelt es sich um die Tendenz, unmittelbaren Folgen einer Entscheidung Übergewicht zu verleihen und die in der Zukunft eintretenden Folgen zu unterschätzen. Diese Tendenz erschwert rationale Entscheidungen über das Offenlegen persönlicher Daten für die Verbraucher: innen. Hinzu kommt, dass diese Offenlegung oft mit bestimmten unmittelbaren Vorteilen wie dem Zugang zu Informationen verbunden ist. “Aber die Risiken der Offenlegung werden in der Regel erst viel später spürbar. Unsere Tendenz, gegenwärtige Vorteile überzubewerten, während wir die Kosten zukünftiger Risiken unterschätzen, führt zu einer ungleichen Abwägung und höheren Bereitschaft des Teilens der eigenen Daten in dem Moment” (Waldman, 2020). Der Entscheidungsfindungsprozess im Allgemeinen, wie auch Entscheidungen zum Schutz der Privatsphäre, werden somit durch unvollständige Informationen und begrenzte Rationalität beeinflusst (Acquisti & Grossklags, 2005). Zusätzlich fehlt uns der Zugang zu allen Informationen, die wir benötigen, um eine fundierte Entscheidung zu treffen (Kokolakis, 2017, p. 130).

Ein alternativer Ansatz

Kristen Martin stellte in ihrer Studie fest, dass “Verbraucher in Umfragen konsistent Datenschutzbedenken und -erwartungen äußern und diese auch nach der Nutzung einer Website beibehalten können” (2019, S.72). Sie und andere Wissenschaftler:innen drängen darauf, die Annahme des Privacy Paradoxes, dass Datenschutzansprüche nach Einwilligung zur Offenlegung von Daten verschwinden, zu hinterfragen (Dienlin & Trepte, 2014; Martin, 2019; Solove, 2021). Diese Annahme ist problematisch, da sie keine klaren Verantwortlichkeiten und Ansprüche für die Daten der Verbraucher:innen enthält.

Datenschutz als Grundwert

Wenn wir aber zugrunde legen, dass Privatsphäre ein zentraler Wert ist, muss dieser ständig geschützt werden. Auf diese Weise würden Unternehmen für das verantwortlich gemacht werden, was mit den Daten der Verbraucher:innen nach der Offenlegung geschieht. Martin sagt, dass Wissenschaftler:innen, die normative Ansprüche an die Privatsphäre stellen, für die Privatsphäre als Grundwert plädieren. Dieser Wert ist für die individuelle Autonomie und Entwicklung, für die Förderung von Intimität und Beziehungen und für das Wohlergehen der Gesellschaft notwendig (2019). Kernwerte gelten als nicht verhandelbar und sind positive Ziele, die wir in unseren Gemeinschaften anstreben und fordern (Donaldson & Walsh, 2015; Martin, 2019). Martin weist darauf hin, dass eine positive Verpflichtung gegenüber den Erwartungen der Verbraucher in Bezug auf deren Privatsphäre für die Unternehmensethik wesentlich ist (Martin, 2018; Shue, 2020).

Wie geht es jetzt weiter?

Es gibt Hinweise darauf, dass sich Nutzer:innen auch dann um ihre Privatsphäre sorgen, wenn sie in die Datenverwendung zur Nutzung eines digitalen Dienstes eingewilligt haben. Die menschliche kognitive Verzerrung in der Online-Umgebung und die fehlenden Informationen für eine vollständig informierte Entscheidung machen die Entscheidungsprozesse schwierig. Sie erklären die Kluft zwischen den Datenschutzpräferenzen der Nutzer:innen und dem Offenlegungsverhalten. Das wirft die Frage auf, ob das Privacy Paradox wirklich eines ist. 

Das Privacy Paradox sieht die Verantwortung von persönlichen Daten vor allem bei den Verbraucher:innen, was geringe bis keine Verantwortung bei den Unternehmen impliziert. Ein alternativer Ansatz könnte darin bestehen, den Schutz der Privatsphäre als einen zentralen Wert zu betrachten, der den Unternehmen eine positive Verpflichtung auferlegt, die Erwartungen an den Schutz der Privatsphäre zu ermitteln und zu respektieren.

Johanna Klix

Ehem. studentische Mitarbeiterin: Wissen & Gesellschaft

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst eine Tastatur auf der eine Taste rot gefärbt ist und auf der „Control“ steht. Eine bildliche Metapher für die Regulierung von digitalen Plattformen im Internet und Data Governance. You see a keyboard on which one key is coloured red and says "Control". A figurative metaphor for the regulation of digital platforms on the internet and data governance.

Data Governance

Wir entwickeln robuste Data-Governance-Rahmenwerke und -Modelle, um praktische Lösungen für eine gute Data-Governance-Politik zu finden.

Weitere Artikel

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.

Das Bild zeigt einen Traktor von oben, der ein Feld bestellt. Eine Seite des Feldes ist grün bewachsen, die andere trocken und erdig. Das soll zeigen, dass nachhaltige KI zwar im Kampf gegen den Klimawandel nützlich sein, selbst aber auch hohe Kosten für die Umwelt verursacht.

Zwischen Vision und Realität: Diskurse über nachhaltige KI in Deutschland

Der Artikel untersucht die Rolle von KI im Klimawandel. In Deutschland wächst die Besorgnis über ihre ökologischen Auswirkungen. Kann KI wirklich helfen?