Zum Inhalt springen
Accurately Predictions
09 August 2021

Mythos: KI kann menschliches Verhalten präzise vorhersagen und optimieren

Durch den technologischen Fortschritt im Bereich der Künstlichen Intelligenz und der wachsenden Menge an Verhaltensdaten, die Mitarbeiter in ihrer täglichen Routine generieren, sind sogenannte People-Analytics-Tools zu einem Thema der öffentlichen Debatte geworden. Diese Tools erfassen und analysieren die Verhaltensdaten von Mitarbeitenden, kombinieren sie mit Geschäftsdaten und bieten Mitarbeitenden und ihren Führungskräften Einblicke in Arbeitsabläufe, Leistung und Potenzial. Auf dieser Basis verspricht People Analytics, mitarbeiterbezogene Entscheidungen zu objektivieren und zu optimieren. Manager*innen stellen daher hohe Erwartungen an diese Tools, insbesondere angesichts der wachsenden Zahl von Mitarbeitenden, die von zu Hause aus arbeiten und sich außerhalb ihrer räumlichen Kontrolle bewegen.

Mythos

KI kann menschliches Verhalten genau vorhersagen und optimieren.

KI kann in der Tat Wahrscheinlichkeiten für menschliche Handlungen auf Basis historischer Daten vorhersagen. Die Genauigkeit dieser Vorhersagen hängt jedoch stark von der Datenqualität ab und ist keineswegs fehlerfrei. Da das Verhalten von Menschen am Arbeitsplatz komplex und nicht immer quantifizier- und messbar ist, kann die aktuelle Generation Künstlicher Intelligenz die Personalführung nur in einem begrenzten Bereich unterstützen und wird menschliche Manager*innen somit nicht ersetzen können.

Vortrag ansehen

Material

Folien der Präsentation
SCHLÜSSELLITERATUR

Giermindl, L. M., Strich, F., Christ, O., Leicht-Deobald, U. & Redzepi, A. (2021). The Dark Sides of People Analytics: Reviewing the Perils for Organisations and Employees. European Journal of Information Systems, ahead of print, 1-26.

Tursunbayeva, A., Di Lauro, S. & Pagliari, C. (2018). People analytics—A Scoping Review of Conceptual Boundaries and Value Propositions. International Journal of Information Management, 43, 224–247.

ZUSATZMATERIALIEN

AlgorithmWatch. (2020). Positionen zum Einsatz von KI im Personalmanagement. Rechte und Autonomie von Beschäftigten stärken – Warum Gesetzgeber, Unternehmen und Betriebsräte handeln müssen.

BMAS. (2021). Gesetz zur Förderung der Betriebsratswahlen und der Betriebsratsarbeit in einer digitalen Arbeitswelt (Betriebsrätemodernisierungsgesetz).
European Commission.

 
Gal, U., Jensen, T. B. & Stein, M.-K. (2020). Breaking the vicious cycle of algorithmic management: A virtue ethics approach to people analytics. Information and Organization, 30(2), 1-15.

Hammermann, A. & Thiele, C. (2019). People Analytics: Evidenzbasiert Entscheidungsfindung im Personalmanagement, IW-Report, No. 35/2019. Köln: Institut der deutschen Wirtschaft (IW). 

Leonardi, P. M. (2021). COVID‐19 and the New Technologies of Organizing: Digital Exhaust, Digital Footprints, and Artificial Intelligence in the Wake of Remote Work. Journal of Management Studies, 58(1), 249-253.

Netflix. (2020). Vorprogrammierte Diskriminierung [Video].

Nielsen, C. & McCullough, N. (2018). How People Analytics Can Help You Change Process, Culture, and Strategy. Harvard Business Review.

O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.  

Rasmussen, T. & Ulrich, D. (2015). Learning from Practice: How HR Analytics avoids being a Management Fad. Organizational Dynamics, 44(3), 236–242.

Stieler, W. (2021). Die Vermessung der Arbeit. MIT Technology Review, 4/2021, 22-27.

Thieltges, A. (2020). Machine Learning Anwendungen in der betrieblichen Praxis – Praktische Empfehlungen zur betrieblichen Mitbestimmung. Mitbestimmungspraxis, Nr. 33, Düsseldorf: Institut für Mitbestimmung und Unternehmensführung.

Tursunbayeva, A., Pagliari, C., Di Lauro, S. & Antonelli, G. (2021). The ethics of people analytics: risks, opportunities and recommendations, Personnel Review, ahead of print.

Zweig, K. (2019). Ein Algorithmus hat kein Taktgefühl: Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. Heyne Verlag.
UNICORN IN THE FIELD

AlgorithmWatch

Über die Autorinnen

Sonja Köhne | HIIG

Sonja Köhne

Researcher, Universität Hamburg / Assoziierte Doktorandin, Humboldt-Institut für Internet & Gesellschaft

Sonja ist assoziierte Doktorandin in der Gruppe Innovation, Entrepreneurship & Society am HIIG und wissenschaftliche Mitarbeiterin an der Universität Hamburg. Am HIIG unterstützt sie derzeit das vom Bundesministerium für Arbeit und Soziales geförderte Forschungsprojekt Artificial Intelligence & Knowledge Work. Ihr Forschungsschwerpunkt liegt u.a. auf der Digitalisierung von Prozessen im Personalmanagement und deren Auswirkungen auf die Beschäftigten. Insbesondere interessiert sie sich für sogenannte People-Analytics-Anwendungen. Vor ihrer Tätigkeit als Wissenschaftlerin war Sonja fünf Jahre lang als HR-Praktikerin im Bereich der Personalinformationssysteme tätig. 

@sonjaxko

Miriam Klöpper

Researcher im Projekt “Anonymous Predictive People Analytics (AnyPPA)” am FZI Forschungszentrum Informatik, Berlin

Miriam Klöpper ist wissenschaftliche Mitarbeiterin am FZI Forschungszentrum Informatik Berlin/ Karlsruhe. Derzeit betreut sie das vom BMBF geförderte Projekt Anonymous Predictive People Analytics. Schwerpunktmäßig setzt sie sich dort mit dem Thema Zukunft der Arbeit auseinander und betrachtet die sozialen und ethischen Implikationen des zunehmenden Einsatzes von KI am Arbeitsplatz, sowie die Entwicklung von Mitbestimmung und Chancengerechtigkeit am Arbeitsplatz. 

@kloeppermiriam

Dieser Beitrag spiegelt die Meinung der Autorinnen und Autoren und weder notwendigerweise noch ausschließlich die Meinung des Institutes wider. Für mehr Informationen zu den Inhalten dieser Beiträge und den assoziierten Forschungsprojekten kontaktieren Sie bitte info@hiig.de

Sonja Köhne

Wissenschaftliche Mitarbeiterin: Innovation, Entrepreneurship & Gesellschaft

Auf dem Laufenden bleiben

HIIG-Newsletter-Header

Jetzt anmelden und die neuesten Blogartikel einmal im Monat per Newsletter erhalten.

Forschungsthema im Fokus Entdecken

Du siehst Eisenbahnschienen. Die vielen verschiedenen Abzweigungen symbolisieren die Entscheidungsmöglichkeiten von Künstlicher Intelligenz in der Gesellschaft. Manche gehen nach oben, unten, rechts. Manche enden auch in Sackgassen. Englisch: You see railway tracks. The many different branches symbolise the decision-making possibilities of artificial intelligence and society. Some go up, down, to the right. Some also end in dead ends.

Künstliche Intelligenz und Gesellschaft

Die Zukunft der künstliche Intelligenz funktioniert in verschiedenen sozialen Kontexten. Was können wir aus ihren politischen, sozialen und kulturellen Facetten lernen?

Weitere Artikel

Eine Hand hält Kopfhörer in der Hand – ein Symbol für die wachsende Rolle von KI am Mikrofon und die Zukunft digitaler Audioinhalte.

KI am Mikrofon: Die Stimme der Zukunft?

Von synthetischen Stimmen bis hin zu automatisch erstellten Podcast-Folgen – KI am Mikrofon revolutioniert die Produktion digitaler Audioinhalte.

Das Titelbild zeigt eine Reihe von roten Flaggen auf Stangen, die in einem strukturierten Muster angeordnet sind. Das Bild stellt eine visuelle Metapher für die Community Notes dar, die als Werkzeug zur Überprüfung von Informationen dienen.

Haben Community Notes eine Parteipräferenz?

Dieser Artikel analysiert, ob Community Notes Desinformation eindämmen oder ob ihre Verteilung und Bewertung politische Tendenzen widerspiegeln.

Ein Mann in schwarzer Jacke steht in einem blau beleuchteten Raum. Das symbolisiert die Anwendung von People Analytics am Arbeitsplatz.

Wie People Analytics die Wahrnehmung von Fairness am Arbeitsplatz beeinflusst

People Analytics am Arbeitsplatz kann die Beziehung und das Vertrauen zwischen Mitarbeitenden und Führungskräften beeinflussen.