Forschungsprojekt: KI in der Arbeitswelt im europäischen Diskurs

Projektziel

Sowohl das „Weißbuch Künstliche Intelligenz“ der EU-Kommission als auch die KI-Verordnung der EU, die derzeit verhandelt wird, nennen KI-Anwendungen in den Feldern Beschäftigung und Personalmanagement als Beispiele für „Hochrisiko-Anwendungen“. Wir haben in diesem Projekt analysiert, wie Forderungen nach mehr Regulierung, etwa mit Blick auf Transparenz, die Rechte von Beschäftigten stärken können.

Veröffentlichungen

Mollen, Anne und Lukas Hondrich, 2023. From risk mitigation to employee action along the Machine Learning Pipeline. A paradigm shift in European regulatory perspectives on automated decision-making systems in the workplace, Working Paper Forschungsförderung 278, Düsseldorf: Hans-Böckler-Stiftung, 31 Seiten.

Mollen, Anne und Lukas Hondrich, 2023. Von der Risikobegrenzung zur Beteiligung – automatisierte Entscheidungssysteme am Arbeitsplatz. Beteiligung von Beschäftigten entlang der Machine-Learning-Pipeline als Perspektive für die europäische Regulierung, Working Paper Forschungsförderung 313, Düsseldorf: Hans-Böckler-Stiftung, 42 Seiten.

Mollen, Anne und Lukas Hondrich, 2022. The machine learning pipeline: space for action, In: AI talks @ ETUI, [online] https://www.etui.org/events/machine-learning-pipeline-space-action, zuletzt abgerufen am 19.07.2022Berlin; Brüssel.

Weitere Informationen

Dieses Projekt gehört zum Forschungsverbund „Digitale Transformation“.
https://www.boeckler.de/de/digitale-transformation-35531.htm

Projektbeschreibung

Kontext

Bereits mit dem Weißbuch „Künstliche Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ wurde auf EU-Ebene die Vorstufe zu einer horizontalen Regulierung von KI erarbeitet. Seit April 2021 werden nun im Rahmen einer vorgeschlagenen KI-Verordnung konkrete Ansätze zur Regulierung von KI diskutiert. Das erklärte Ziel ist, die Grundrechte zu schützen. In beiden Dokumenten wurden KI-Systeme im Bereich Beschäftigung und Personalmanagement als besonders riskant eingestuft. So seien besondere Regulierungsanforderungen notwendig, wenn KI-Systeme für Einstellungs- oder Auswahlprozesse genutzt werden, oder wenn sie als sogenannte „People Analytics“-Systeme über Beförderungen, Kündigungen oder Aufgabenzuweisungen entscheiden sowie Leistungen und Verhalten überwachen und bewerten. Bisher sehen diese Anforderungen an Hochrisiko-Systeme insbesondere Transparenz- und Rechenschaftspflichten auf Seiten der Unternehmen vor, die KI-entwickeln.

Fragestellung

Wie können Beschäftigte ihre Interessen bei der Planung, Entwicklung und Umsetzung von konkreten „People-Analytics“-Systemen einbringen? Inwiefern ermöglichen Transparenzanforderungen und -pflichten, die in aktuellen Regulierungsentwürfen vorgeschlagen werden, die Interessenvertretung für Beschäftigte?

Untersuchungsmethoden

Wir haben ein Mapping der wichtigsten Akteur·innen erstellt, die versuchen, die KI-Regulierung auf EU-Ebene zu beeinflussen, und einen aktiven Austausch mit ihnen etabliert. Der Fokus hierbei lag auf Gewerkschaften und Gewerkschaftsverbänden, Mitgliedern des Europäischen Parlaments, Ausschüssen im Europäischen Parlament sowie diversen zivilgesellschaftlichen Organisationen. Der Austausch fand in bilateralen Gesprächen sowie durch die Beteiligung bei Workshops, Webinaren und in Form von Präsentationen statt. Darüber hinaus wurde im Rahmen einer Dokumentenanalyse die Positionen von ausgewählten Gewerkschaften zur KI-Verordnung erfasst und hieraus notwendige Anpassungen der aktuellen Regulierungsvorschläge abgeleitet und ausformuliert. Diese Vorschläge und Handlungsempfehlungen haben wir wiederum mit relevanten Stakeholdern diskutiert.

Darstellung der Ergebnisse

Durch den Einsatz von KI-Systemen verstärken sich Ungleichgewichte in Arbeitsverhältnissen, die ohnehin bereits durch ein Machtgefälle zwischen Arbeitgeber·innen und Arbeitnehmer·innen geprägt sind. Die vorgeschlagene KI-Verordnung der EU erkennt dies an, sieht allerdings lediglich vor, dass die Unternehmen, die Hoch-Risiko-KI-Systeme entwickeln, sogenannte „self-assessments“ durchführen. Diese sollen Transparenz gewährleisten und sicherstellen, dass die Systeme Menschen nicht in ihren Grundrechten verletzen. Diese Verpflichtungen werden jedoch nicht ausreichen, um Risiken von KI-Systemen im Arbeitskontext zu minimieren und sicherzustellen, dass die Interessen von Arbeitnehmer·innen angemessen vertreten werden. Vielmehr braucht es weitere anwendungsbezogene Transparenzverpflichtungen für die Organisationen, die „People Analytics“-Verfahren einsetzen. Diese müssen es den Beschäftigten ermöglichen, konkrete Einstiegspunkte auf technischer Ebene zu identifizieren, um für ihre Interessen einzutreten. Dies setzt gleichzeitig voraus, dass die Beschäftigten in der Lage sind, konkrete Interessen mit Blick auf KI-Systeme zu artikulieren. Hierzu ist mitunter weitere Qualifizierung notwendig.

Projektleitung und -bearbeitung

Projektleitung

Matthias Spielkamp
Algorithm Watch gGmbH

Bearbeitung

Dr. Anne Mollen
Algorithm Watch gGmbH

Lukas Hondrich
Algorithm Watch gGmbH

Kontakt

Dr. Stefan Lücking
Hans-Böckler-Stiftung
Forschungsförderung

Der Beitrag wurde zu Ihrem Merkzettel hinzugefügt.

Merkzettel öffnen