Forschungsprojekt: Automatisiertes Personalmanagement und Mitbestimmung

Projektziel

Unternehmen setzen im Personalmanagement auf Systeme zur algorithmisch gesteuerten, automatisierten Entscheidungsfindung oder -vorbereitung (algorithmic/automated decision making, ADM). Welche Funktionen bieten sie Unternehmen und Beschäftigten, welche Ausküfte müssen Unternehmen und Hersteller den Beschäftigten erteilen? Wie kann die Mitbestimmung der Beschäftigten gesichert werden?

Veröffentlichungen

Loi, Michele, 2021. People Analytics muss den Menschen zugutekommen. Eine ethische Analyse datengesteuerter algorithmischer Systeme im Personalmanagement, Study 450, Düsseldorf: Hans-Böckler-Stiftung, 101 Seiten.

Spielkamp, Matthias und Sebastian Gießler, 2020. Automatisiertes Personalmanagement und Mitbestimmung. KI-basierte Systeme für das Personalmanagement – was ist fair, was ist erlaubt?, Working Paper Forschungsförderung 191, Düsseldorf: Hans-Böckler-Stiftung, 27 Seiten.

Wedde, Peter, 2020. Automatisierung im Personalmanagement – arbeitsrechtliche Aspekte und Beschäftigtendatenschutz, [online] https://algorithmwatch.org/project/auto-hr/gutachten-arbeitsrecht-datenschutz-wedde/, zuletzt abgerufen am 02.03.2020, Berlin: AlgorithmWatch, 50 Seiten.

Loi, Michele, 2020. People Analytics must benefit the people. An ethical analysis of data-driven algorithmic systems in human resources management, [online] https://algorithmwatch.org/project/auto-hr/gutachten-ethik-loi/, zuletzt abgerufen am 02.03.2020, Berlin: AlgorithmWatch, 56 Seiten.

Stiller, Sebastian, Jule Jäger und Sebastian Gießler, 2020. Automatisierte Entscheidungen und Künstliche Intelligenz im Personalmanagement. Ein Leitfaden zur Überprüfung essenzieller Eigenschaften KI-basierter Systeme für Betriebsräte und andere Personalvertretungen, [online] https://algorithmwatch.org/project/auto-hr/leitfaden/, zuletzt abgerufen am 02.03.2020, Berlin: AlgorithmWatch, 30 Seiten.

Projektbeschreibung

Kontext

Anlass für das Forschungsprojekt war, dass Unternehmen zunehmend Personalmanagement-Software einsetzen, die sogenannte „People Analytics”-Fähigkeiten bietet – also die Möglichkeit, Leistungen und Potenzial von Mitarbeiter·innen oder Teams zu analysieren, vorauszusagen oder zu steuern. Bekannte Produkte, die mit derartigen Funktionen werben, sind Office 365 Workplace Analytics von Microsoft, Watson Talent Insights von IBM, Success Factors People Analytics von SAP und People Analytics von Workday. Auf Basis welcher Modelle und Annahmen Prognosen getroffen werden und mit welchen Daten die Systeme trainiert werden, halten die Anbieter üblicherweise geheim – meist mit der Begründung, dass sie sich zum einen vor Nachahmern schützen müssen, zum anderen Beschäftigte Aussagen der Systeme manipulieren könnten, wenn ihnen ihre Funktionsweise bekannt wäre.

Fragestellung

– Der Zugang zu den Daten und den daraus folgenden Analyseergebnissen kann die Machtverhältnisse im Betrieb nachhaltig verändern, in verschiedene Richtungen. Wird reines „Herrschaftswissen“ für das Management produziert, oder haben Mitarbeiter die Möglichkeit, die sie betreffenden Auswertungen nicht nur zur Kenntnis zu bekommen, sondern auch nachzuvollziehen oder sogar durch den Einsatz alternativer Systeme zu überprüfen?

– Wer hat Zugriff auf und Kontrolle über Daten, die erhoben werden – der Betrieb, die Firma, die das ADM-System zur Verfügung stellt, der Betriebsrat? Wer sollte sie haben? Wie kann eine sinnvolle Regulierung derartiger Systeme gestaltet sein?

– Führt der Einsatz von ADM in der betrieblichen Steuerung zu einem Fairnessgewinn oder -verlust für die Arbeitnehmer?

– Was bedeutet der Einsatz von ADM für die Autonomie der Arbeitnehmer und die betriebliche Mitbestimmung?

Untersuchungsmethoden

Um belastbare Aussagen darüber treffen zu können, welche Auswirkungen ADM auf Autonomie von Arbeitnehmern und betriebliche Mitbestimmung haben, müssen Informationen erhoben werden über die Systeme, die den Unternehmen zur Verfügung stehen, und wie diese eingesetzt werden. Aufbauend auf dieser Exploration können konkrete informatische, rechtliche und ethische Analysen vorgenommen werden, um so gut wie möglich heraus zu finden, wie die Systeme konkret arbeiten, wie ihr Einsatz selbst und die Ergebnisse Ihres Einsatzes rechtlich einzuordnen sind, ob es Regulierungslücken gibt und wie man diese Ergebnisse Betriebsräten, aber auch einer breiteren Öffentlichkeit vermitteln kann.

Darstellung der Ergebnisse

Unternehmen, die im Personalmanagement Systeme mit so genannter Künstlicher Intelligenz verwenden, handeln möglicherweise rechtswidrig. Denn „People Analytics“-Verfahren dürfen nicht eingesetzt werden, ohne dass Beschäftigte individuell eingewilligt haben oder eine Betriebsvereinbarung vorliegt. Das wird in der Praxis oft nicht der Fall sein. Zudem erfüllen „Black-Box“-Systeme, deren Funktionsweise dem Betriebsrat auf Anfrage nicht erläutert werden kann, nicht die Auskunftsanforderungen des Betriebsverfassungsgesetzes. Der Gesetzgeber muss klarstellen, dass Arbeitgeber auch dann Transparenz über die verwendeten Methoden gewährleisten müssen, wenn die Hersteller der Software keine Auskünfte erteilen wollen. Autonomie und Mitsprache der Beschäftigten müssen auch dann gewährleistet sein, wenn algorithmische Systeme zum Personalmanagement eingesetzt werden; es ist ethisch nicht zu rechtfertigen, Beschäftigte zu reinen Objekten derartiger Verfahren zu machen. Unternehmen und Betriebsräte sollten dafür sorgen, dass auf Seiten der Beschäftigten und des Personalmanagements angemessene Kompetenz vorhanden ist, aus diesen Informationen die richtigen Schlüsse zu ziehen.

Projektleitung und -bearbeitung

Projektleitung

Matthias Spielkamp
Algorithm Watch gGmbH
ms@algorithmwatch.org

Bearbeitung

Sebastian Gießler
Algorithm Watch gGmbH
sg@algorithmwatch.org

Prof. Dr. Peter Wedde
d + a consulting, Institut für Datenschutz, Arbeitsrecht und Technologieber.
Wedde@da-consulting.de

Prof. Dr. Kai von Lewinski
Universität Passau
Lehrstuhl für Öffentliches Recht
Lehrstuhl.Lewinski@Uni-Passau.de

Lorenz Matzat
Algorithm Watch gGmbH
lm@algorithmwatch.org

Prof. Dr. Sebastian Stiller
Technische Universität Carolo-Wilhelmina Carl-Friedrich-Gauß-Fakultät
Institute for Mathematical Optimization
sebastian.stiller@tu-bs.de

Kontakt

Dr. Stefan Lücking
Hans-Böckler-Stiftung
Forschungsförderung
stefan-luecking@boeckler.de

Der Beitrag wurde zu Ihrerm Merkzettel hinzugefügt.

Merkzettel öffnen