Projektbeschreibung
Kontext
Bereits mit dem Weißbuch „Künstliche Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ wurde auf EU-Ebene die Vorstufe zu einer horizontalen Regulierung von KI erarbeitet. Seit April 2021 werden nun im Rahmen einer vorgeschlagenen KI-Verordnung konkrete Ansätze zur Regulierung von KI diskutiert. Das erklärte Ziel ist, die Grundrechte zu schützen. In beiden Dokumenten wurden KI-Systeme im Bereich Beschäftigung und Personalmanagement als besonders riskant eingestuft. So seien besondere Regulierungsanforderungen notwendig, wenn KI-Systeme für Einstellungs- oder Auswahlprozesse genutzt werden, oder wenn sie als sogenannte „People Analytics“-Systeme über Beförderungen, Kündigungen oder Aufgabenzuweisungen entscheiden sowie Leistungen und Verhalten überwachen und bewerten. Bisher sehen diese Anforderungen an Hochrisiko-Systeme insbesondere Transparenz- und Rechenschaftspflichten auf Seiten der Unternehmen vor, die KI-entwickeln.
Fragestellung
Wie können Beschäftigte ihre Interessen bei der Planung, Entwicklung und Umsetzung von konkreten „People-Analytics“-Systemen einbringen? Inwiefern ermöglichen Transparenzanforderungen und -pflichten, die in aktuellen Regulierungsentwürfen vorgeschlagen werden, die Interessenvertretung für Beschäftigte?
Untersuchungsmethoden
Wir haben ein Mapping der wichtigsten Akteur·innen erstellt, die versuchen, die KI-Regulierung auf EU-Ebene zu beeinflussen, und einen aktiven Austausch mit ihnen etabliert. Der Fokus hierbei lag auf Gewerkschaften und Gewerkschaftsverbänden, Mitgliedern des Europäischen Parlaments, Ausschüssen im Europäischen Parlament sowie diversen zivilgesellschaftlichen Organisationen. Der Austausch fand in bilateralen Gesprächen sowie durch die Beteiligung bei Workshops, Webinaren und in Form von Präsentationen statt. Darüber hinaus wurde im Rahmen einer Dokumentenanalyse die Positionen von ausgewählten Gewerkschaften zur KI-Verordnung erfasst und hieraus notwendige Anpassungen der aktuellen Regulierungsvorschläge abgeleitet und ausformuliert. Diese Vorschläge und Handlungsempfehlungen haben wir wiederum mit relevanten Stakeholdern diskutiert.
Darstellung der Ergebnisse
Durch den Einsatz von KI-Systemen verstärken sich Ungleichgewichte in Arbeitsverhältnissen, die ohnehin bereits durch ein Machtgefälle zwischen Arbeitgeber·innen und Arbeitnehmer·innen geprägt sind. Die vorgeschlagene KI-Verordnung der EU erkennt dies an, sieht allerdings lediglich vor, dass die Unternehmen, die Hoch-Risiko-KI-Systeme entwickeln, sogenannte „self-assessments“ durchführen. Diese sollen Transparenz gewährleisten und sicherstellen, dass die Systeme Menschen nicht in ihren Grundrechten verletzen. Diese Verpflichtungen werden jedoch nicht ausreichen, um Risiken von KI-Systemen im Arbeitskontext zu minimieren und sicherzustellen, dass die Interessen von Arbeitnehmer·innen angemessen vertreten werden. Vielmehr braucht es weitere anwendungsbezogene Transparenzverpflichtungen für die Organisationen, die „People Analytics“-Verfahren einsetzen. Diese müssen es den Beschäftigten ermöglichen, konkrete Einstiegspunkte auf technischer Ebene zu identifizieren, um für ihre Interessen einzutreten. Dies setzt gleichzeitig voraus, dass die Beschäftigten in der Lage sind, konkrete Interessen mit Blick auf KI-Systeme zu artikulieren. Hierzu ist mitunter weitere Qualifizierung notwendig.