Zum Inhalt springen
Ein Mann in schwarzer Jacke steht in einem blau beleuchteten Raum. Das symbolisiert die Anwendung von People Analytics am Arbeitsplatz.
17 Februar 2025| doi: 10.5281/zenodo.14883502

Wie People Analytics die Wahrnehmung von Fairness am Arbeitsplatz beeinflusst

People Analytics verspricht präzisere Entscheidungen in der Personalführung. Doch wenn datenbasierte Systeme in Entscheidungsprozesse eingebunden werden, kann die Beziehung zwischen Angestellten und Führungskräften leiden. Eine neue Studie deutet darauf hin, dass Führungskräfte als unfairer wahrgenommen werden, wenn sie eine ohnehin als negativ empfundene Entscheidung mit Hilfe von People Analytics treffen. Dieses verstärkte Gefühl von Ungerechtigkeit kann nicht nur die Arbeitsbeziehungen belasten, sondern auch langfristige Dynamiken am Arbeitsplatz verändern. 

People Analytics ist ein zentrales Thema in der modernen Arbeitswelt. Als datengetriebener Ansatz in der Personalführung bezieht sich People Analytics auf die systematische Erhebung und Analyse der Daten von Angestellten. Ziel ist es häufig, Entscheidungen zu optimieren und persönliche Vorurteile oder Stereotypen zu reduzieren. Ein Beispiel aus dem Personalmanagement-Alltag ist die Nutzung von People Analytics bei Beförderungsentscheidungen: Anstatt sich allein auf Einschätzungen von Vorgesetzten zu stützen, analysieren die Systeme gesammelte Daten wie Projekterfolge oder Team-Feedback. Dadurch soll sichergestellt werden, dass talentierte Mitarbeitende unabhängig von persönlichen Vorurteilen oder Stereotypen identifiziert und gefördert werden könnten. Ziel ist es, faire und datenbasierte Entscheidungen zu treffen, die sowohl die Zufriedenheit der Mitarbeitenden steigern als auch den langfristigen Unternehmenserfolg sichern sollen. Die Systeme, die zur Datensammlung und -auswertung genutzt werden, greifen auf eine Vielzahl von Quellen zurück. Dazu zählen etwa die Anzahl gesendeter E-Mails, Arbeitszeitaufzeichnungen und Meeting-Aktivitäten, um Verhaltensmuster zu erkennen und Empfehlungen für Entscheidungen zu geben – sei es bei der Leistungsbeurteilung, Personalentwicklung oder Teamzusammenstellung

Datengetriebene Personalführung im Überblick

Was früher häufig auf der Erfahrung und Intuition – aber daneben auch den stereotypen Vorstellungen und persönlichen Vorlieben – von Führungskräften beruhte, kann so durch datenbasierte Analysen unterstützt werden. Gleichzeitig ermöglicht People Analytics den Führungskräften nahezu jeden Aspekt der Arbeitsleistung zu überwachen und zu bewerten, auch wenn die Angestellten von zuhause aus arbeiten. People Analytics bewegt sich daher in einem Spannungsfeld zwischen den Versprechungen von präziseren und diskriminierungsfreien Entscheidungen, sowie Risiken, die durch neue Fragen rund um Transparenz, Fairness und Vertrauen aufkommen. Da die Balance zwischen Überwachung und Kontrolle sowie Autonomie und Privatsphäre der Angestellten neu definiert wird, können tiefgreifende Auswirkungen auf das Verhältnis zwischen Angestellten und Führungskräften entstehen. 

People-Analytics-Systeme, die zum Beispiel auf Verfahren des maschinellen Lernens basieren, sammeln nicht nur Daten und stellen diese in Form von Statistiken dar, sondern sie können auch eigenständig Handlungsempfehlungen vorschlagen. In einigen Fällen außerhalb von Deutschland können sie diese sogar autonom umsetzen. Solche Ansätze sind beispielsweise in der Plattform- oder Gig-Ökonomie auch in Deutschland verankert, dort werden sie allerdings unter dem Oberbegriff algorithmic management diskutiert, der unter anderem die Automatisierung von Führungsaufgaben beinhaltet. Algorithmic management wird beispielsweise bei Uber eingesetzt: Algorithmische Systeme sammeln und analysieren Daten, beispielsweise zu Dauer, Ort oder typischer Geschwindigkeit der Fahrenden. Die Analysen sollen dann dazu dienen, die effizientesten Routen zu finden, aber auch um gegebenenfalls Preise in Stoßzeiten zu erhöhen. In einigen Ländern kann das System diese Entscheidungen sogar eigenständig umsetzen, ohne dass ein Mensch eingreift. So erhalten beispielsweise Uber-Fahrer*innen, die zu viele Anfragen ablehnen, automatisierte E-Mails die auf die Kündigung der Accounts bei weiteren Ablehnungen hinweisen.

Zwischen Präzision und Kontrolle: Die Ambivalenz datengetriebener Systeme

Ein zentrales Problem im Zusammenhang mit People Analytics ist auch das zunehmende Machtgefälle zwischen Führungskräften und Angestellten. Es entsteht vor allem durch den Wissensvorsprung der Führungskräfte sowie durch Fragen der Freiwilligkeit. Während sich Führungskräfte bewusst für den Einsatz solcher Systeme entscheiden, um ihre Entscheidungsfindung zu unterstützen, ist die Teilnahme für die Angestellten oft nicht optional – ihre Arbeitsdaten werden erfasst und verarbeitet, ohne dass sie direkten Einfluss darauf haben. Dadurch werden sie unfreiwillig zu Objekten der Systeme, deren Funktionsweise und Auswirkungen sie möglicherweise nur unzureichend verstehen. Diese Asymmetrie kann Spannungen und ein verstärktes Machtungleichgewicht verursachen. Besonders problematisch wird es, wenn das System falsche oder ungerechte Entscheidungen trifft oder vorschlägt, etwa bei der Vergabe von Boni oder Beförderungen. Solche Entscheidungen könnten das Vertrauen in die Führungskräfte untergraben und das Gerechtigkeitsempfinden der Angestellten beeinträchtigen

Denn dass ein Algorithmus vollständig über Gehaltsanpassungen oder Beförderungen entscheidet, ist in Deutschland noch lange keine Realität. Die letztendliche Verantwortung liegt weiterhin bei den menschlichen Führungskräften. Algorithmen und Datenanalysen dienen vor allem als Hilfsmittel, auf deren Grundlage Entscheidungen getroffen werden. Somit bleiben zentrale Elemente wie die Verteilung von Ressourcen nach wie vor in den Händen der Führungskräfte. Setzen sie also falsche oder ungerechte Handlungsempfehlungen um, liegt die Verantwortung ebenfalls weiterhin bei ihnen. Angesichts der rasanten Entwicklung von People Analytics stellt sich jedoch die Frage, ob dies langfristig so bleiben wird oder ob der Trend zu autonomen Systemen, wie sie in der internationalen Forschung diskutiert werden, auch hierzulande Einzug halten könnte.

Studie: Wie Algorithmen das Gerechtigkeitsempfinden beeinflussen

Wie reagieren Angestellte auf unfaire Entscheidungen, die mit Hilfe von People Analytics getroffen werden? Diese Frage haben wir in einer Studie untersucht, die im Rahmen unseres Forschungsprojektes Zwischen Autonomie und Überwachung. Arbeitnehmer*innen-orientierter Einsatz von People Analytics und in Zusammenarbeit mit Prof. Uwe Messer entstand. In einem Experiment mussten die Teilnehmenden, die die Rolle von Angestellten einnahmen, eine reale Aufgabe bewältigen: Am Computer sollten Schieberegler mit der Maus in die richtige Position gebracht werden, wodurch die Ergebnisse der geleisteten Arbeit einfach quantifizierbar waren. Anschließend wurde die Belohnung für ihre Leistung, in Form eines individuellen Bonus, auf drei verschiedene Weisen vergeben: 

  1. Durch eine Führungskraft ohne Zugriff auf People Analytics. 
  2. Durch eine Führungskraft, die People Analytics nutzen konnte.
  3. Oder durch eine Führungskraft, die die Bonusvergabe an ein autonomes People-Analytics-System abgegeben hat. 

Die Studie wurde so manipuliert, dass auch einige Teilnehmende, die viele Schieberegler korrekt gelöst hatten, einen sehr niedrigen Bonus erhielten und somit in eine unfaire Situation versetzt wurden.

Unsere Ergebnisse weisen darauf hin, dass Angestellte Entscheidungen als unfairer wahrnehmen, wenn Systeme zu Datensammlung und -auswertung involviert waren. Sobald die Angestellten vermuteten, dass ein Algorithmus an der Entscheidung beteiligt war – und sei es auch nur durch die Bereitstellung von Informationen – empfanden sie diese als noch ungerechter im Vergleich zu einer unfairen Entscheidung, die ohne entsprechenden Zugriff auf ein People Analytics System getroffen wurde. Die Beteiligung von solchen Systemen verstärkte das Gefühl der Ungerechtigkeit und führte sogar zu dem Gefühl, von den Führungskräften verraten worden zu sein. Dies rief stärkere Forderungen nach Wiedergutmachung hervor und erhöhte die Bereitschaft zu negativen Reaktionen, wie etwa Racheverhalten gegenüber Führungskräften oder der Arbeitgeberorganisation. Der Einsatz von People Analytics kann also die Beziehung zwischen Angestellten und Führungskräften zusätzlich belasten, insbesondere in bereits problematischen Situationen.

Doppelt unfair?

Angestellte fühlen sich unfair behandelt, wenn sie keine Entschädigung erhalten, die ihrer geleisteten Arbeit entspricht. Unsere Studie zeigt jedoch, dass dieses wie im Fall unserer Studie berechtigte Gefühl noch stärker auftritt, wenn People Analytics eingesetzt wird. Dabei spielt wieder die oben bereits angesprochene Freiwilligkeit der Nutzung eine entscheidende Rolle. 

Insbesondere das zweite von uns untersuchte Szenario spiegelt die tatsächliche Praxis in Deutschland wider: Eine Führungskraft kann People-Analytics-Daten einsehen, muss diese aber nicht berücksichtigen. Trifft sie jedoch auf Grundlage dieser Analysen eine unfaire Entscheidung, fühlen sich Angestellte in unserem Experiment nicht nur unfair behandelt, sondern auch verraten. Sie könnten den Eindruck gewinnen, dass die Führungskraft nicht die nötige Sorgfalt walten ließ. Dies schafft eine belastende Dynamik, in der die Angestellten das Gefühl haben, sowohl einem unfairen System ausgeliefert zu sein als auch von ihren Führungskräften im Stich gelassen worden zu sein.

Vertrauen durch Transparenz: Die Zukunft der Personalführung

Es ist also entscheidend, dass Führungskräfte sich der Verantwortung bewusst sind, die sie tragen, wenn sie auf datengetriebene Systeme zurückgreifen. Das Wissen um das Potenzial und die Grenzen von People Analytics sollte mit einer sensiblen Herangehensweise an zwischenmenschliche Interaktionen kombiniert werden, um das Vertrauen und die Zufriedenheit am Arbeitsplatz zu erhalten. Unsere Studie unterstreicht die Notwendigkeit einer transparenten Kommunikation und eines verantwortungsvollen Umgangs mit algorithmischen Systemen. Nur so kann sichergestellt werden, dass die Einführung solcher Ansätze nicht zu einem Gefühl der Ungerechtigkeit oder zur Entfremdung der Angestellten führt. Vielmehr sollte diese Einführung zu einem Umfeld beitragen, in dem sowohl individuelle als auch organisationale Ziele in Einklang gebracht werden können. Zudem ist es wichtig, dass Organisationen ein Bewusstsein für die ethischen Implikationen von People Analytics entwickeln – nicht nur in Bezug auf den Datenschutz, sondern auch mit Hinblick auf die möglicherweise eingeschränkte Privatsphäre der Angestellten oder algorithmische Biases Führungskräfte sollten verstärkt die menschlichen Aspekte der Arbeit in den Vordergrund rücken, die durch den Einsatz von vermeintlich rationalen und wertfreien algorithmengetriebenen Systemen in den Hintergrund geraten können. 

Autorin

Miriam Klöpper ist Wirtschaftsinformatikerin aus Karlsruhe. Im Rahmen ihrer Doktorarbeit hat sie den Einfluss von People Analytics auf Machtverhältnisse in traditionellen Organisationen kritisch untersucht. Sie war Research Project Managerin der Forschungsgruppe Zwischen Autonomie und Überwachung (ZAUber), das untersucht hat, wie People Analytics mit Blick auf das Wohl von Mitarbeitenden gestaltet werden kann. Darüber hinaus beschäftigt sich Miriam mit sozialen und ethischen Implikationen der Nutzung von algorithmischen Systemen, insbesondere mit Hinblick auf Chancengerechtigkeit und Überwachungskapitalismus. 

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

[wysija_form id="7"]

Aktuelle HIIG-Aktivitäten entdecken

Forschungsthemen im Fokus

Das HIIG beschäftigt sich mit spannenden Themen. Erfahren Sie mehr über unsere interdisziplinäre Pionierarbeit im öffentlichen Diskurs.

Weitere Artikel

Das Titelbild zeigt eine Reihe von roten Flaggen auf Stangen, die in einem strukturierten Muster angeordnet sind. Das Bild stellt eine visuelle Metapher für die Community Notes dar, die als Werkzeug zur Überprüfung von Informationen dienen.

Haben Community Notes eine Parteipräferenz?

Dieser Artikel analysiert, ob Community Notes Desinformation eindämmen oder ob ihre Verteilung und Bewertung politische Tendenzen widerspiegeln.

Die Glaskuppel des Deutschen Bundestags, ein Symbol für Transparenz und Demokratie, steht für die laufenden Diskussionen zur Digitalpolitik im Vorfeld der Bundestagswahl 2025.

Wie könnte die Digitalpolitik nach der Bundestagswahl 2025 aussehen?

Welche digitalpolitischen Positionen vertreten Parteien bei der Bundestagswahl 2025?

Musk, X und die AfD: Profitiert Alice Weidel?

Wir analysieren den plötzlichen Anstieg von Alice Weidels Reichweite auf X und den möglichen Einfluss von Elon Musk.