Skip to content
Privatheit | HIIG Science Blog
26 August 2019

Endangered privacy in the digital society

In his new book, Armin Nassehi makes the attempt to substatiate digital technology in the structure of modern society itself. He develops the thesis that certain social regularities, structures and patterns form the matter from which digitalisation draws its economical, political and scientific potential. As an effect of digitalisation society itself is being rediscovered, Nassehi argues. In the chapter at hand, he critically discusses the concept of privacy and how it is affected by big data.


Wenn es stimmt, dass soziale Medien nur ein Anlass für das Detektieren, Speichern, Rekombinieren und Auswerten von individuell erzeugten Daten sind, und wenn es weiterhin stimmt, dass sich aufgrund der Registrierung der meisten Alltagspraktiken in unterschiedlichsten Datensätzen tatsächlich ein weltweites Netz von Daten herausbildet, dann hat das erhebliche Konsequenzen für die Frage nach dem Schutz der individuellen Daten. Man kann mit Fug und Recht sagen, dass die Bundesrepublik zu den sensibelsten Ländern gehört, was das Recht auf informationelle Selbstbestimmung angeht. Das weltweit erste Datenschutzgesetz ist tatsächlich 1970 in Hessen erlassen worden. Der Impetus rechtlichen Datenschutzes stammt aus der klassischen Diskussion um die Schutzrechte des Individuums dem Staat gegenüber. Datenschutz soll staatliche Instanzen daran hindern, personenbezogene Daten zu unangemessenen Zwecken zu verwenden. Es ist gewissermaßen ein Derivat des Grundsatzes der Unverletzlichkeit der Wohnung, der Meinungsfreiheit und des Rechts auf Privatsphäre.[1]

Unter Bedingungen der Digitalisierung stellt sich die Frage des Datenschutzes neu und anders, denn es sind nun nicht mehr nur staatliche Akteure, die von personenbezogenen Daten profitieren, sondern Akteure ganz unterschiedlichen Typs. Schon der Anwender eines handelsüblichen Textverarbeitungsprogramms, das seine Dateien in einer Cloud verwaltet, lagert personenbezogene Daten / Dateien aus und darf diese nicht verwenden. Mobilfunkanbieter verfügen über fast flächendeckende Informationen über den Sprach- und Datenverkehr, und jedes handelsübliche Smartphone mit GPS-Technik ist technisch gesehen etwas Ähnliches wie eine elektronische Fußfessel und Detektor für Bewegungsprofile – und mit entsprechenden Zusatzgeräten womöglich sogar für die Herzfrequenz und das Blutzuckerprofil seines Anwenders, von Zahlungsverkehr, Detektieren von maschinenlesbaren Autonummern oder Gesichtserkennung auf öffentlichen Plätzen ganz zu schweigen. Selbstverständlich bedeutet das keineswegs, dass diese anfallenden Daten für jedermann zu jedem Zweck verfügbar sind. Das ist in der Tat rechtlich beschränkt und Gegenstand politischer Debatten, wobei die Varianz in der Frage der Zugriffsmöglichkeiten international enorm variiert. Üblicherweise wird an dieser Stelle der Diskussion etwa auf das chinesische Punktemodell hingewiesen, das geradezu eine Totalkontrolle der Privatperson durch staatliche Tugendwächter erlaubt.[2] Es ist freilich kein Zufall, dass dies in einem eher autoritären Politikmodell wie dem chinesischen eher erwartbar ist als in liberalen Demokratien. Aber prinzipiell sind die Möglichkeiten gegeben.

Nassehi zur Frage, für welches Problem Digitalisierung die Lösung ist.

Die Unwahrscheinlichkeit informationeller Selbstbestimmung

Hier soll nun nicht die rechtliche und die politische Frage des Datenschutzes diskutiert werden – die Literatur dazu ist Legion. Hingewiesen sei auf etwas anderes: auf den Zielkonflikt zwischen privacy policies und der Abhängigkeit vieler Geschäftsmodelle von der Verfügung über entsprechende Datensätze, die sich eben nicht nur für den statistischen homme moyen interessieren, sondern für den ansprechbaren Fall, dessen Ansprache sich aus der Mustererkennung aggregierter Daten vieler Fälle ergibt.

Der Zielkonflikt besteht auch darin, dass manche Technik nur funktioniert, wenn personenbezogene Daten zur Verfügung stehen – selbst wenn das konkrete Individuum etwa als potentieller Kunde, als Nutzer sozialer Netzwerke oder als Wählerin oder Wähler gar nicht in persona ermittelt wird, sondern als Element eines Clusters. Das Individuum ist dann zumeist gar nicht Mitglied einer sozialen Gruppe, sondern nur einer statistischen Gruppe – darin aber im Zweifels- (und im Wissens-)Fall individuell ansprechbar und identifizierbar.

Damit lässt sich vieles machen, auch Illegales und im Hinblick auf Kontrollmöglichkeiten Bedenkliches. Die schöne Formel von Dirk Baecker, die Buchwelt der Lesepublika habe an einem Kritiküberschuss laboriert, während die digitale Welt an einem Kontrollüberschuss laboriere, findet hier einen beredten Ausdruck.[3] Es ergeben sich hier Möglichkeiten, was den Blick auf Selektivitäten verändert. Wenn man sich daran erinnert, welche Proteste Volkszählungen in Deutschland in den 1980er Jahren noch ausgelöst haben, wird daran die Veränderung der Ausgangslage deutlich. Das eigene Smartphone anzuschalten, erzeugt mehr personenbezogene Daten, als es die Volkszählung vermochte. Man stelle sich vor, die Zähler hätten damals solche Dinge abgefragt, die nun gewissermaßen von selbst anfallen. Ich diskutiere das hier nicht weiter, nicht weil es nicht legitime und notwendige Fragestellungen wären, sondern weil es nicht mein Thema ist. Was mich eher interessiert, ist der epistemologische und der soziologische Aspekt der Frage nach privacy.

Zunächst lohnt es sich, dem Begriff der informationellen Selbstbestimmung einige Aufmerksamkeit zu widmen. Der Begriff enthält eine contradictio in adiecto, denn eine Selbstbestimmung gerade im Hinblick auf Informationen kann es schon aus kategorialen Gründen nicht geben. Information ist ein Beobachtungskorrelat. Ob etwas als Information taugt oder registriert wird, liegt im Auge des Rezipienten, nicht in dem Beobachteten. Wenn man es so formulieren will: Informationen über die Umwelt werden im System gebildet. Oder so: Das Beobachtete wird durch den Beobachter erzeugt. Ich verweise auf meine Ausführungen über die Verdoppelung der Welt.

Informationelle Selbstbestimmung ist also eine Zielgröße, die gerade unter Bedingungen komplexer Beobachtungsverhältnisse nachgerade unmöglich ist. Epistemologisch ist privacy also letztlich ausgeschlossen – diskutieren könnte man eher so etwas wie eine Kontrolle über die eigenen Daten. Aber auch hier stellen sich kategoriale Fragen, denn Daten fallen in einem modernen vernetzten Alltag ohnehin an. Die Frage ist dann wiederum, für wen diese welchen Unterschied machen, vulgo: worüber sie informieren. Denkt man an die breit diskutierte Datenschutzgrundverordnung (DSGVO), die 2018 europäisches Recht in der Bundesrepublik umgesetzt hat, so changiert sowohl die Diskussion dazu als auch die operative Frage selbst zwischen einer tatsächlichen Kontrolle der Daten und der rechtlichen Figur der Zustimmung. Die DSGVO sowie das gesamte Datenschutzrecht versuchen sich tatsächlich an einer rechtlichen Regulierung von Datenflüssen, können aber genau besehen eben nur das, was das Recht vermag: normative Erwartungssicherheit herstellen. Etwa Dienste von Anbietern als Kunde in Anspruch zu nehmen, wird nun durch eine mehr oder weniger generelle Zustimmung mit einer kurzen Handlungshemmung versehen, wobei die Zustimmung selbst dann umso deutlicher dafür sorgt, dass Daten legale Mittel der Beförderung von Wertschöpfungsketten nicht nur geldwerter Natur sind. Handlungshemmungen, so formulierte es der amerikanische Soziologe George Herbert Mead in seiner Handlungstheorie schon vor einhundert Jahren, sind diejenigen Stellen im Handlungsprozess, an denen sich eine konkrete Praxis nicht einfach entfaltet, sondern gehemmt wird.

Eine Handlungshemmung tritt nur dort auf, wo es zu Anpassungs-, Entscheidungs- oder Justierungsfragen kommt. Der größte Teil unseres Alltagshandelns kommt ohne Handlungshemmungen aus – es geschieht sehr routiniert, was geschieht. In der Soziologie nennt sich solches Handeln Praxis.[4] Erst wo die Praxis unterbrochen wird, kommt es zur expliziten Beteiligung des Bewusstseins, besser müsste man sagen: der Bewusstheit. Dann wird es nötig, dass man sich Handlungsfolgen vorstellt, dass man explizit einschätzt, wie Alter Ego reagiert, oder dass man räsonieren muss, was zu tun sei. Bewusstsein ist, so Meads wunderbare Formulierung, nicht die Voraussetzung, sondern die Folge des Handelns.[5]


Dieser Beitrag ist ein Auszug aus Armin Nassehis neuem Buch “Muster. Theorie der digitalen Gesellschaft” und wurde mit freundlicher Genehmigung des C.H. Beck Verlages veröffentlicht. Das Buch erscheint am 28. August 2019. Unter dem Link ist eine umfangreichere Leseprobe zu finden.


Armin Nassehi ist Inhaber des Lehrstuhls für Allgemeine Soziologie und Gesellschaftstheorie an der Ludwig-Maximilians-Universität München und seit 2012 Herausgeber der Kulturzeitschrift Kursbuch. 2018 wurde er von der Deutschen Gesellschaft für Soziologie mit dem Preis für „Herausragende Leistungen auf dem Gebiet der öffentlichen Wirksamkeit der Soziologie“ ausgezeichnet.


Quellen- und Literaturnachweis

[1] Vgl. Ronald Petrlic und Christoph Sorge: Datenschutz: Einführung in technischen Datenschutz, Datenschutzrecht und angewandte Kryptographie, Wiesbaden: Springer Vieweg 2017, S. 139 ff.

[2] Andreas Landwehr: China schafft digitales Punktesystem für den «besseren» Menschen, in: heise online 93 /2018. URL: https://www.heise.de/newsticker/meldung/China-schafft-digitales-Punktesystem-fuer-den-besseren-Menschen-3983746.html

[3] Vgl. Dirk Baecker: Studien zur nächsten Gesellschaft, Frankfurt/M.: Suhrkamp 2007, S. 140

[4] Vgl. Dazu Armin Nassehi: Der soziologische Diskurs der Moderne, Frankfurt/M.: 2009, S. 133 ff . Der locus classicus für die praxistheoretische Grundlegung der Handlungstheorie ist Theodore Schatzki: The Site of the Social. A Philosophical Account of the Constitution of Social Life and Change, University Park: The Pennsylvania State UP 2002.

[5] Vgl. George Herbert Mead: Geist, Identität und Gesellschaft. Aus der Sicht des Sozialbehaviorismus, 7. Aufl., Frankfurt/M.: Suhrkamp 1988, S. 56.

This post represents the view of the author and does not necessarily represent the view of the institute itself. For more information about the topics of these articles and associated research projects, please contact info@hiig.de.

Armin Nassehi

Sign up for HIIG's Monthly Digest

HIIG-Newsletter-Header

You will receive our latest blog articles once a month in a newsletter.

Explore Research issue in focus

Platform governance

In our research on platform governance, we investigate how corporate goals and social values can be balanced on online platforms.

Further articles

Three groups of icons representing people have shapes travelling between them and a page in the middle of the image. The page is a simple rectangle with straight lines representing data used for people analytics. The shapes traveling towards the page are irregular and in squiggly bands.

Empowering workers with data

As workplaces become data-driven, can workers use people analytics to advocate for their rights? This article explores how data empowers workers and unions.

A stylised illustration featuring a large "X" in a minimalist font, with a dry branch and faded leaves on one side, and a vibrant blue bird in flight on the other. The image symbolises transition, with the bird representing the former Twitter logo and the "X" symbolising the platform's rebranding and policy changes under Elon Musk.

Two years after the takeover: Four key policy changes of X under Musk

This article outlines four key policy changes of X since Musk’s 2022 takeover, highlighting how the platform's approach to content moderation has evolved.

The picture shows a tractor cultivating a field from above. One side of the field is covered in green, the other is dry and earthy. This is intended to show that although sustainable AI can be useful in the fight against climate change, it also comes at a high ecological cost.

Between vision and reality: Discourses about Sustainable AI in Germany

This article explores Sustainable AI and Germany's shift from optimism to concern about its environmental impact. Can AI really combat climate change?