Zum Inhalt springen
nikita-kostrykin-5--lSW0MiE0-unsplash-2
10 März 2020| doi: 10.5281/zenodo.3753007

Social Scoring – eine chinesische Erfindung?

Chinas Social Scoring System ist in aller Munde, wenn es um totale Überwachung geht. Die „westliche Welt“ distanziert sich. Zu Recht? Ohne Frage. Allerdings wäre eine ausführliche Reflexion über hiesige Entwicklungen durchaus angebracht. Ein Perspektivwechsel von Inken Ammon.


Chinas Social Credit Score 

Die Regierung Chinas plant bis 2020 die Implementierung eines landesweiten Sozialkreditsystems. Die Empörung in westlichen Medien ist groß: „China invents the digital totalitarian state“ titelt etwa The Economist; die New York Times erklärt, dass China neue Technologien entgegen allgemeiner Vorstellungen nicht etwa zur Demokratisierung und Freiheitsstärkung nutze, sondern ausschließlich zu Kontrollzwecken.

Zahlreiche Beschreibungen gleichen einem dystopischen Albtraum nach Orwell’schem Vorbild. Auch wenn eine differenziertere Sicht durchaus angebracht ist, machen Berichte über Pilotprojekte deutlich, wie stark das Leben durch Social Scoring beeinflusst werden kann. Aus unserer Perspektive ist es einfach, diese Entwicklungen zu verurteilen, mit dem Finger auf das Land in der Ferne zu zeigen: „Klar, dass so etwas im autoritär regierten China passieren kann! Auch klar, dass das in unseren westlichen Demokratien niemals geschehen wird!“ 

Scoring im antiautoritären Europa

…oder doch? Scoring, also die „Zuteilung eines Zahlenwertes […] zu einem Menschen zum Zweck der Verhaltensprognose oder Verhaltenssteuerung“, ist auch in Europa kein neues Phänomen. Schon Schulnoten, die etwa den Zugang zu bestimmten Bildungseinrichtungen ermöglichen oder verhindern, sind ein analoger Score. Wollen wir einen Kredit aufnehmen oder eine Wohnung mieten, sind wir mit der Schufa konfrontiert, die unsere Bonität bewertet. Weniger offensichtlich bedingt dieser Score außerdem die Möglichkeit, online zum Beispiel auf Rechnung bestellen zu können. Versandhäuser können hier zusätzlich Informationen über den Standort nutzen, von dem aus bestellt wird (Geo-Scoring). So muss sich etwa ein am Kottbusser Tor lebender Berliner mit einem Kauf auf Vorkasse begnügen, während in Prenzlauer Berg bequem auf Rechnung bestellt werden kann. Kreditunternehmen wie Kreditech gehen noch weiter und beziehen jegliche online verfügbaren oder (optional) aus den E-Mail-Postfächern der AntragstellerInnen generierten Daten mit ein. Der Algorithmus entscheidet dann über die Kreditwürdigkeit der potentiellen KlientInnen.

Ein Beispiel: Scoring bei Krankenversicherungen

Ein weniger bekanntes, aber nicht weniger brisantes Beispiel für Scoring findet sich bei Krankenversicherungen. Die Idee ist, gesunde Lebensstile mit geringeren Beiträgen zu belohnen und datenbasiert individuelle Vorsorgeempfehlungen geben zu können. Die italienische Generali, die deutsche AOK und die US-amerikanische United Healthcare sind Versicherungsanbieter, die diesen Ansatz bereits verfolgen. Versicherte werden hierbei belohnt, wenn sie beispielsweise durch Fitnesstracker generierte Daten weitergeben und vermeintlich gesundheitsförderndes Verhalten nachweisen. Ihnen soll vermittelt werden, dass ihre Daten über Leben und Tod entscheiden: „Daten zur Verbesserung von Behandlungen nicht teilen zu wollen, ist ein Privileg der Gesunden“, heißt es etwa in einer AOK-Trendstudie, die Datenschutz als „häufigste Todesursache“ und „Krankheiten als Folge menschlichen Fehlverhaltens“ tituliert.

Was Krankenversicherungen (und anderen Score-Nutzenden wie Kfz-Versicherungen oder ArbeitgeberInnen) dabei in die Hände spielt, ist ein zunehmender Trend zur „digitalen Selbstvermessung“ im Sinne eines Optimierungsprozesses, der alle möglichen Lebensbereiche betrifft. In diesem Zusammenhang scheinen zudem immer mehr Menschen bereit zu sein, aufgrund schon minimaler Belohnungs- und Wettbewerbsanreize zahlreiche Daten freiwillig preiszugeben.

So weit, so gut? Probleme des Scorings

Auch ich möchte Dinge nur an Menschen verleihen, denen ich vertrauen kann. Zwischen unbekannten VertragspartnerInnen muss Vertrauen erst geschaffen werden. Das ist verständlich. Auch ist es nachvollziehbar (und dennoch diskussionswürdig), dass Krankenkassen keine Rechnungen begleichen wollen, die in Folge eines hoch ungesunden Lebensstils entstehen, und ihre BeitragszahlerInnen so zu gesünderem Verhalten erziehen wollen.

Allerdings sind diesen Entwicklungen einige grundlegende Probleme inhärent. Zum Beispiel Diskriminierung. Bei Kreditech kann niemand einen Kredit beantragen, der kein Social-Media-Profil hat. Und was passiert mit Menschen, deren Krankheit sich durch regelmäßiges Joggen nicht verhindern lässt? Wer entscheidet, mit welchen Daten die scheinbar objektiven Algorithmen unsere Scores errechnen? Was sagt mein Wohnort tatsächlich über meinen Kontostand aus? Und kann man sich zukünftig noch dem Zwang entziehen, seine Daten „freiwillig“ preiszugeben? Wird zunehmende Gamification dazu führen, dass wir in permanentem Wettbewerb miteinander stehen?

Auch wenn die Einführung eines Super Scores wie in China in Europa (noch) unwahrscheinlich ist, sollte Scoring auch bei uns stärker thematisiert werden, bevor es schleichend in sämtliche Lebensbereiche vordringt (Krankenkassen sind nur ein Beispiel). Es ist wichtig, ein Bewusstsein für Probleme zu schaffen und insbesondere dafür, wem und wofür wir unsere Daten preisgeben. Um dann entscheiden zu können, wie viel uns unsere Freiheit und Privatsphäre wert sind. Als Anreiz zum Nachdenken, hier ein kleiner Blick in eine potentielle Zukunft… 


Inken Ammon ist Studentin für Urbane Geographien an der Humboldt-Universität zu Berlin. Neben dem Thema Überwachung im städtischen Raum beschäftigt sie sich auch mit Fragen der Manifestation von Machtverhältnissen und der Diskriminierung verschiedener Bevölkerungsgruppen.

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Inken Ammon

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Plattform Governance

In unserer Forschung zur Plattform Governance untersuchen wir, wie unternehmerische Ziele und gesellschaftliche Werte auf Online-Plattformen miteinander in Einklang gebracht werden können.

Weitere Artikel

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.

Das Bild zeigt einen Traktor von oben, der ein Feld bestellt. Eine Seite des Feldes ist grün bewachsen, die andere trocken und erdig. Das soll zeigen, dass nachhaltige KI zwar im Kampf gegen den Klimawandel nützlich sein, selbst aber auch hohe Kosten für die Umwelt verursacht.

Zwischen Vision und Realität: Diskurse über nachhaltige KI in Deutschland

Der Artikel untersucht die Rolle von KI im Klimawandel. In Deutschland wächst die Besorgnis über ihre ökologischen Auswirkungen. Kann KI wirklich helfen?