Zum Inhalt springen
Accurately Predictions
09 August 2021

Mythos: KI kann menschliches Verhalten präzise vorhersagen und optimieren

Durch den technologischen Fortschritt im Bereich der Künstlichen Intelligenz und der wachsenden Menge an Verhaltensdaten, die Mitarbeiter in ihrer täglichen Routine generieren, sind sogenannte People-Analytics-Tools zu einem Thema der öffentlichen Debatte geworden. Diese Tools erfassen und analysieren die Verhaltensdaten von Mitarbeitenden, kombinieren sie mit Geschäftsdaten und bieten Mitarbeitenden und ihren Führungskräften Einblicke in Arbeitsabläufe, Leistung und Potenzial. Auf dieser Basis verspricht People Analytics, mitarbeiterbezogene Entscheidungen zu objektivieren und zu optimieren. Manager*innen stellen daher hohe Erwartungen an diese Tools, insbesondere angesichts der wachsenden Zahl von Mitarbeitenden, die von zu Hause aus arbeiten und sich außerhalb ihrer räumlichen Kontrolle bewegen.

Mythos

KI kann menschliches Verhalten genau vorhersagen und optimieren.

KI kann in der Tat Wahrscheinlichkeiten für menschliche Handlungen auf Basis historischer Daten vorhersagen. Die Genauigkeit dieser Vorhersagen hängt jedoch stark von der Datenqualität ab und ist keineswegs fehlerfrei. Da das Verhalten von Menschen am Arbeitsplatz komplex und nicht immer quantifizier- und messbar ist, kann die aktuelle Generation Künstlicher Intelligenz die Personalführung nur in einem begrenzten Bereich unterstützen und wird menschliche Manager*innen somit nicht ersetzen können.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Giermindl, L. M., Strich, F., Christ, O., Leicht-Deobald, U. & Redzepi, A. (2021). The Dark Sides of People Analytics: Reviewing the Perils for Organisations and Employees. European Journal of Information Systems, ahead of print, 1-26.

Tursunbayeva, A., Di Lauro, S. & Pagliari, C. (2018). People analytics—A Scoping Review of Conceptual Boundaries and Value Propositions. International Journal of Information Management, 43, 224–247.

ZUSATZMATERIALIEN

AlgorithmWatch. (2020). Positionen zum Einsatz von KI im Personalmanagement. Rechte und Autonomie von Beschäftigten stärken – Warum Gesetzgeber, Unternehmen und Betriebsräte handeln müssen.

BMAS. (2021). Gesetz zur Förderung der Betriebsratswahlen und der Betriebsratsarbeit in einer digitalen Arbeitswelt (Betriebsrätemodernisierungsgesetz).
European Commission.

 
Gal, U., Jensen, T. B. & Stein, M.-K. (2020). Breaking the vicious cycle of algorithmic management: A virtue ethics approach to people analytics. Information and Organization, 30(2), 1-15.

Hammermann, A. & Thiele, C. (2019). People Analytics: Evidenzbasiert Entscheidungsfindung im Personalmanagement, IW-Report, No. 35/2019. Köln: Institut der deutschen Wirtschaft (IW). 

Leonardi, P. M. (2021). COVID‐19 and the New Technologies of Organizing: Digital Exhaust, Digital Footprints, and Artificial Intelligence in the Wake of Remote Work. Journal of Management Studies, 58(1), 249-253.

Netflix. (2020). Vorprogrammierte Diskriminierung [Video].

Nielsen, C. & McCullough, N. (2018). How People Analytics Can Help You Change Process, Culture, and Strategy. Harvard Business Review.

O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.  

Rasmussen, T. & Ulrich, D. (2015). Learning from Practice: How HR Analytics avoids being a Management Fad. Organizational Dynamics, 44(3), 236–242.

Stieler, W. (2021). Die Vermessung der Arbeit. MIT Technology Review, 4/2021, 22-27.

Thieltges, A. (2020). Machine Learning Anwendungen in der betrieblichen Praxis – Praktische Empfehlungen zur betrieblichen Mitbestimmung. Mitbestimmungspraxis, Nr. 33, Düsseldorf: Institut für Mitbestimmung und Unternehmensführung.

Tursunbayeva, A., Pagliari, C., Di Lauro, S. & Antonelli, G. (2021). The ethics of people analytics: risks, opportunities and recommendations, Personnel Review, ahead of print.

Zweig, K. (2019). Ein Algorithmus hat kein Taktgefühl: Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. Heyne Verlag.
UNICORN IN THE FIELD

AlgorithmWatch

Über die Autorinnen

Sonja Köhne | HIIG

Sonja Köhne

Researcher, Universität Hamburg / Assoziierte Doktorandin, Humboldt-Institut für Internet & Gesellschaft

Sonja ist assoziierte Doktorandin in der Gruppe Innovation, Entrepreneurship & Society am HIIG und wissenschaftliche Mitarbeiterin an der Universität Hamburg. Am HIIG unterstützt sie derzeit das vom Bundesministerium für Arbeit und Soziales geförderte Forschungsprojekt Artificial Intelligence & Knowledge Work. Ihr Forschungsschwerpunkt liegt u.a. auf der Digitalisierung von Prozessen im Personalmanagement und deren Auswirkungen auf die Beschäftigten. Insbesondere interessiert sie sich für sogenannte People-Analytics-Anwendungen. Vor ihrer Tätigkeit als Wissenschaftlerin war Sonja fünf Jahre lang als HR-Praktikerin im Bereich der Personalinformationssysteme tätig. 

@sonjaxko

Miriam Klöpper

Researcher im Projekt “Anonymous Predictive People Analytics (AnyPPA)” am FZI Forschungszentrum Informatik, Berlin

Miriam Klöpper ist wissenschaftliche Mitarbeiterin am FZI Forschungszentrum Informatik Berlin/ Karlsruhe. Derzeit betreut sie das vom BMBF geförderte Projekt Anonymous Predictive People Analytics. Schwerpunktmäßig setzt sie sich dort mit dem Thema Zukunft der Arbeit auseinander und betrachtet die sozialen und ethischen Implikationen des zunehmenden Einsatzes von KI am Arbeitsplatz, sowie die Entwicklung von Mitbestimmung und Chancengerechtigkeit am Arbeitsplatz. 

@kloeppermiriam

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Sonja Köhne

Wissenschaftliche Mitarbeiterin: Innovation, Entrepreneurship & Gesellschaft

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und  die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Ein moderner U-Bahnhof mit Rolltreppen, die zu den Plattformen führen – ein Sinnbild für den geregelten Zugang zu Daten, wie ihn Zugangsrechte im NetzDG und DSA ermöglichen.

Plattformdaten und Forschung: Zugangsrechte als Gefahr für die Wissenschaftsfreiheit?

Neue Digitalgesetze gewähren Forschenden Zugangsrechte zu Plattformdaten, doch strikte Vorgaben werfen Fragen zur Wissenschaftsfreiheit auf.

Drei Gruppen von Menschen haben Formen über sich, die zwischen ihnen und in Richtung eines Papiers hin und her reisen. Die Seite ist ein einfaches Rechteck mit geraden Linien, die Daten darstellen. Die Formen, die auf die Seite zusteuern, sind unregelmäßig und verlaufen in gewundenen Bändern.

Beschäftigte durch Daten stärken

Arbeitsplätze werden zunehmend datafiziert. Doch wie können Beschäftigte und Gewerkschaften diese Daten nutzen, um ihre Rechte zu vertreten?

Eine stilisierte Illustration mit einem großen „X“ in einer minimalistischen Schriftart, mit einem trockenen Zweig und verblichenen Blättern auf der einen Seite und einem leuchtend blauen Vogel im Flug auf der anderen Seite. Das Bild symbolisiert einen Übergangsprozess, wobei der Vogel das frühere Twitter-Logo darstellt und das „X“ das Rebranding der Plattform und Änderungen im Regelwerk von X symbolisiert.

Zwei Jahre nach der Übernahme: Vier zentrale Änderungen im Regelwerk von X unter Musk

Der Artikel beschreibt vier zentrale Änderungen im Regelwerk der Plattform X seit Musks Übernahme 2022 und deren Einfluss auf die Moderation von Inhalten.