Skip to content
nikita-kostrykin-5--lSW0MiE0-unsplash-2
10 March 2020| doi: 10.5281/zenodo.3753007

Social Scoring – a Chinese invention?

Chinas Social Scoring System ist in aller Munde, wenn es um totale Überwachung geht. Die „westliche Welt“ distanziert sich. Zu Recht? Ohne Frage. Allerdings wäre eine ausführliche Reflexion über hiesige Entwicklungen durchaus angebracht. Ein Perspektivwechsel von Inken Ammon.


Die Regierung Chinas plant bis 2020 die Implementierung eines landesweiten Sozialkreditsystems. Die Empörung in westlichen Medien ist groß: „China invents the digital totalitarian state“ titelt etwa The Economist; die New York Times erklärt, dass China neue Technologien entgegen allgemeiner Vorstellungen nicht etwa zur Demokratisierung und Freiheitsstärkung nutze, sondern ausschließlich zu Kontrollzwecken.

Chinas Social Credit Score 

Zahlreiche Beschreibungen gleichen einem dystopischen Albtraum nach Orwell’schem Vorbild. Auch wenn eine differenziertere Sicht durchaus angebracht ist, machen Berichte über Pilotprojekte deutlich, wie stark das Leben durch Social Scoring beeinflusst werden kann. Aus unserer Perspektive ist es einfach, diese Entwicklungen zu verurteilen, mit dem Finger auf das Land in der Ferne zu zeigen: „Klar, dass so etwas im autoritär regierten China passieren kann! Auch klar, dass das in unseren westlichen Demokratien niemals geschehen wird!“ 

Scoring im antiautoritären Europa

…oder doch? Scoring, also die „Zuteilung eines Zahlenwertes […] zu einem Menschen zum Zweck der Verhaltensprognose oder Verhaltenssteuerung“, ist auch in Europa kein neues Phänomen. Schon Schulnoten, die etwa den Zugang zu bestimmten Bildungseinrichtungen ermöglichen oder verhindern, sind ein analoger Score. Wollen wir einen Kredit aufnehmen oder eine Wohnung mieten, sind wir mit der Schufa konfrontiert, die unsere Bonität bewertet. Weniger offensichtlich bedingt dieser Score außerdem die Möglichkeit, online zum Beispiel auf Rechnung bestellen zu können. Versandhäuser können hier zusätzlich Informationen über den Standort nutzen, von dem aus bestellt wird (Geo-Scoring). So muss sich etwa ein am Kottbusser Tor lebender Berliner mit einem Kauf auf Vorkasse begnügen, während in Prenzlauer Berg bequem auf Rechnung bestellt werden kann. Kreditunternehmen wie Kreditech gehen noch weiter und beziehen jegliche online verfügbaren oder (optional) aus den E-Mail-Postfächern der AntragstellerInnen generierten Daten mit ein. Der Algorithmus entscheidet dann über die Kreditwürdigkeit der potentiellen KlientInnen.

Ein Beispiel: Scoring bei Krankenversicherungen

Ein weniger bekanntes, aber nicht weniger brisantes Beispiel für Scoring findet sich bei Krankenversicherungen. Die Idee ist, gesunde Lebensstile mit geringeren Beiträgen zu belohnen und datenbasiert individuelle Vorsorgeempfehlungen geben zu können. Die italienische Generali, die deutsche AOK und die US-amerikanische United Healthcare sind Versicherungsanbieter, die diesen Ansatz bereits verfolgen. Versicherte werden hierbei belohnt, wenn sie beispielsweise durch Fitnesstracker generierte Daten weitergeben und vermeintlich gesundheitsförderndes Verhalten nachweisen. Ihnen soll vermittelt werden, dass ihre Daten über Leben und Tod entscheiden: „Daten zur Verbesserung von Behandlungen nicht teilen zu wollen, ist ein Privileg der Gesunden“, heißt es etwa in einer AOK-Trendstudie, die Datenschutz als „häufigste Todesursache“ und „Krankheiten als Folge menschlichen Fehlverhaltens“ tituliert.

Was Krankenversicherungen (und anderen Score-Nutzenden wie Kfz-Versicherungen oder ArbeitgeberInnen) dabei in die Hände spielt, ist ein zunehmender Trend zur „digitalen Selbstvermessung“ im Sinne eines Optimierungsprozesses, der alle möglichen Lebensbereiche betrifft. In diesem Zusammenhang scheinen zudem immer mehr Menschen bereit zu sein, aufgrund schon minimaler Belohnungs- und Wettbewerbsanreize zahlreiche Daten freiwillig preiszugeben.

So weit, so gut? Probleme des Scorings

Auch ich möchte Dinge nur an Menschen verleihen, denen ich vertrauen kann. Zwischen unbekannten VertragspartnerInnen muss Vertrauen erst geschaffen werden. Das ist verständlich. Auch ist es nachvollziehbar (und dennoch diskussionswürdig), dass Krankenkassen keine Rechnungen begleichen wollen, die in Folge eines hoch ungesunden Lebensstils entstehen, und ihre BeitragszahlerInnen so zu gesünderem Verhalten erziehen wollen.

Allerdings sind diesen Entwicklungen einige grundlegende Probleme inhärent. Zum Beispiel Diskriminierung. Bei Kreditech kann niemand einen Kredit beantragen, der kein Social-Media-Profil hat. Und was passiert mit Menschen, deren Krankheit sich durch regelmäßiges Joggen nicht verhindern lässt? Wer entscheidet, mit welchen Daten die scheinbar objektiven Algorithmen unsere Scores errechnen? Was sagt mein Wohnort tatsächlich über meinen Kontostand aus? Und kann man sich zukünftig noch dem Zwang entziehen, seine Daten „freiwillig“ preiszugeben? Wird zunehmende Gamification dazu führen, dass wir in permanentem Wettbewerb miteinander stehen?

Auch wenn die Einführung eines Super Scores wie in China in Europa (noch) unwahrscheinlich ist, sollte Scoring auch bei uns stärker thematisiert werden, bevor es schleichend in sämtliche Lebensbereiche vordringt (Krankenkassen sind nur ein Beispiel). Es ist wichtig, ein Bewusstsein für Probleme zu schaffen und insbesondere dafür, wem und wofür wir unsere Daten preisgeben. Um dann entscheiden zu können, wie viel uns unsere Freiheit und Privatsphäre wert sind. Als Anreiz zum Nachdenken, hier ein kleiner Blick in eine potentielle Zukunft… 


Inken Ammon ist Studentin für Urbane Geographien an der Humboldt-Universität zu Berlin. Neben dem Thema Überwachung im städtischen Raum beschäftigt sie sich auch mit Fragen der Manifestation von Machtverhältnissen und der Diskriminierung verschiedener Bevölkerungsgruppen.

This post represents the view of the author and does not necessarily represent the view of the institute itself. For more information about the topics of these articles and associated research projects, please contact info@hiig.de.

Inken Ammon

Sign up for HIIG's Monthly Digest

HIIG-Newsletter-Header

You will receive our latest blog articles once a month in a newsletter.

Explore Research issue in focus

Platform governance

In our research on platform governance, we investigate how corporate goals and social values can be balanced on online platforms.

Further articles

Three groups of icons representing people have shapes travelling between them and a page in the middle of the image. The page is a simple rectangle with straight lines representing data used for people analytics. The shapes traveling towards the page are irregular and in squiggly bands.

Empowering workers with data

As workplaces become data-driven, can workers use people analytics to advocate for their rights? This article explores how data empowers workers and unions.

A stylised illustration featuring a large "X" in a minimalist font, with a dry branch and faded leaves on one side, and a vibrant blue bird in flight on the other. The image symbolises transition, with the bird representing the former Twitter logo and the "X" symbolising the platform's rebranding and policy changes under Elon Musk.

Two years after the takeover: Four key policy changes of X under Musk

This article outlines four key policy changes of X since Musk’s 2022 takeover, highlighting how the platform's approach to content moderation has evolved.

The picture shows a tractor cultivating a field from above. One side of the field is covered in green, the other is dry and earthy. This is intended to show that although sustainable AI can be useful in the fight against climate change, it also comes at a high ecological cost.

Between vision and reality: Discourses about Sustainable AI in Germany

This article explores Sustainable AI and Germany's shift from optimism to concern about its environmental impact. Can AI really combat climate change?