Diskriminiert durch Künstliche Intelligenz

Forschungsschwerpunkt: Mitbestimmung im Wandel

Status: laufend

Projektende: 30.11.2019

Projektnummer: 2017-369-2

Projekttitel: Diskriminiert durch Künstliche Intelligenz

Projektbeschreibung  |  Projektteam  |  Kontakt

 

Projektziel:

Die in Unternehmen in wachsendem Umfang digital vorliegenden Daten werden immer stärker analysiert und als Entscheidungsgrundlage genutzt. Das Projekt beschäftigt sich damit, wie die Diskriminierung nach Geschlecht, Alter oder Herkunft durch Künstliche Intelligenz in unternehmensinternen Personalauswahlprozessen verhindert werden kann. Ergänzend soll betrachtet werden, wie gerade Künstliche Intelligenz (KI) durch vorurteilsfreie Vorschläge Diskriminierung reduzieren kann.

 

Projektbeschreibung:

1. Kontext

Die Daten, die Unternehmen elektronisch vorliegen umfassen beispelsweise Qualifikationen, vorherige Positionen, Kenntnisse, Zertifikate, Alter, Interessen, Wohn- und Ausbildungsorte, Familienverhältnisse, Bewertungen. Mit den Methoden der Künstlichen Intelligenz ist es möglich, in diesen Daten Muster zu erkennen, welche Aussagen über die zukünftige Karriereentwicklung oder über die Geeignetheit für bestimmte Positionen erlauben. Talent Analytics umfasst damit die Analyse von personen- und prozessbezogenen Daten mit dem Ziel, Beschäftigte auszuwählen, einzuarbeiten, zu bewerten, weiterzuentwickeln bzw. in Teams zusammenzustellen oder zu halten.

Hierbei besteht jedoch die Gefahr, dass sich diskriminierende Strukturen verfestigen und selbst reproduzieren. Dies ist auch aus Unternehmenssicht nicht erwünscht.


2. Fragestellung

Im Rahmen des Projektes sollen die folgenden Fragen beantwortet werden:

1. Welche Arten von Algorithmen eignen sich, um typische Aufgaben des Personalmanagements (Karrierepfade planen, Führungspositionen besetzen, Entwicklungsmöglichkeiten anbieten, Kündigungswahrscheinlichkeit abschätzen) zu unterstützen?

2. Welches theoretische und empirische Diskriminierungspotential haben diese Algorithmen und warum? Von welchen Faktoren hängt das Diskriminierungspotential wie stark ab?

3. Wie lässt sich Diskriminierung durch algorithmisch unterstützte Entscheidungen reduzieren oder vermeiden?


3. Untersuchungsmethoden

Im Rahmen des Projektes soll analysiert werden, welche typischen Ansätze zur Mustererkennung für Talent Analytics bereits genutzt werden. Anschließend sollen reale Daten mit typischen Algorithmen im Hinblick darauf analysiert werden, ob die Algorithmen anfällig für Diskriminierung sind.

Als Ergebnis soll Best-Practice-Handlungswissen erstellt werden, mit dem Interessenvertretungen, Personalverantwortliche und/oder Politiker*innen die Nutzung von Methoden der Künstlichen Intelligenz im Rahmen von Talent Analytics verstehen, potentielle Diskriminierung erkennen und damit im Idealfall vermeiden können.


 

Projektleitung und Bearbeiter/in:

Projektleitung:

Prof. Dr. Katharina Simbeck
Hochschule für Technik und Wirtschaft Berlin (HTW)
Gebäude C, Raum 835
E-Mail: simbeck(at)htw-berlin.de

Prof. Dr. Jürgen Radel
Hochschule für Technik und Wirtschaft Berlin (HTW)
E-Mail: Juergen.Radel(at)HTW-Berlin.de


Bearbeiter/in:

Tina Arens
Hochschule für Technik und Wirtschaft Berlin
E-Mail: Tina.Arens(at)HTW-Berlin.de

 

Kontakt:

Dr. Stefan Lücking
Hans-Böckler-Stiftung
Forschungsförderung
E-Mail: stefan-luecking(at)boeckler.de

X

Hinweis zur Nutzung von Cookies auf dieser Website

Dieses Portal verwendet Cookies zur Optimierung der Browserfunktion. Die Cookie-Einstellungen für diese Website sind auf „alle Cookies zulassen“ festgelegt. Wenn Sie fortsetzen bzw. diesen Hinweis schließen, ohne Ihre Einstellungen zu ändern, stimmen Sie diesen zu.



Mehr Informationen zu Cookies