Diskriminiert durch Künstliche Intelligenz
Forschungsschwerpunkt: Mitbestimmung
Status: Laufend
Projektende: 30.04.2020
Projektnummer: 2017-369-2
Projektziel:
Veröffentlichungen:
Weitere Informationen:
Von: Professor Christoph Igel (DFKI), Professor Katharina Simbeck (HTW Berlin), Stefan Liesche (IBM). Moderation: Ole Wintermann (Bertelsmann Stiftung):
Video 2020: Podiumsdiskussion – Diskriminierung durch Künstliche Intelligenz #rp18 #HRFestival @olew
Von: Katharina Simbeck; Hans-Böckler-Stiftung
Video 2018: Diskriminiert Künstliche Intelligenz Menschen bei der Personalauswahl in Unternehmen
https://www.youtube.com/watch?v=2YNOsyxfK3c&feature=youtu.be
Von: Prof. Dr. Ina Schieferdecker; Prof. Dr. Katharina Simbeck; Matthias Spielkamp
Video 2019: Panel: Unterdrücken uns Algorithmen?
https://www.fraunhofer-innovisions.de/kuenstliche-intelligenz/panel-unterdruecken-uns-algorithmen/
Von: Matthias Spielkamp Katharina Simbeck Simon Hegelich Melanie Stein
Video 2020: Algorithmen: Zu Risiken und Nebenwirkungen – fragen Sie Ihren Informatiker
Projektbeschreibung:
1. Kontext
Die Daten, die Unternehmen elektronisch vorliegen umfassen beispelsweise Qualifikationen, vorherige Positionen, Kenntnisse, Zertifikate, Alter, Interessen, Wohn- und Ausbildungsorte, Familienverhältnisse, Bewertungen. Mit den Methoden der Künstlichen Intelligenz ist es möglich, in diesen Daten Muster zu erkennen, welche Aussagen über die zukünftige Karriereentwicklung oder über die Geeignetheit für bestimmte Positionen erlauben. Talent Analytics umfasst damit die Analyse von personen- und prozessbezogenen Daten mit dem Ziel, Beschäftigte auszuwählen, einzuarbeiten, zu bewerten, weiterzuentwickeln bzw. in Teams zusammenzustellen oder zu halten.
Hierbei besteht jedoch die Gefahr, dass sich diskriminierende Strukturen verfestigen und selbst reproduzieren. Dies ist auch aus Unternehmenssicht nicht erwünscht.
2. Fragestellung
Im Rahmen des Projektes sollen die folgenden Fragen beantwortet werden:
1. Welche Arten von Algorithmen eignen sich, um typische Aufgaben des Personalmanagements (Karrierepfade planen, Führungspositionen besetzen, Entwicklungsmöglichkeiten anbieten, Kündigungswahrscheinlichkeit abschätzen) zu unterstützen?
2. Welches theoretische und empirische Diskriminierungspotential haben diese Algorithmen und warum? Von welchen Faktoren hängt das Diskriminierungspotential wie stark ab?
3. Wie lässt sich Diskriminierung durch algorithmisch unterstützte Entscheidungen reduzieren oder vermeiden?
3. Untersuchungsmethoden
Im Rahmen des Projektes soll analysiert werden, welche typischen Ansätze zur Mustererkennung für Talent Analytics bereits genutzt werden. Anschließend sollen reale Daten mit typischen Algorithmen im Hinblick darauf analysiert werden, ob die Algorithmen anfällig für Diskriminierung sind.
Als Ergebnis soll Best-Practice-Handlungswissen erstellt werden, mit dem Interessenvertretungen, Personalverantwortliche und/oder Politiker*innen die Nutzung von Methoden der Künstlichen Intelligenz im Rahmen von Talent Analytics verstehen, potentielle Diskriminierung erkennen und damit im Idealfall vermeiden können.
Projektleitung und Bearbeiter/in:
Projektleitung:
Prof. Dr. Katharina Simbeck
Hochschule für Technik und Wirtschaft Berlin (HTW)
Gebäude C, Raum 835
Katharina.Simbeck@HTW-Berlin.de
Prof. Dr. Jürgen Radel
Hochschule für Technik und Wirtschaft Berlin (HTW)
Bearbeiter/in:
Finn Folkerts
Hochschule für Technik und Wirtschaft Berlin (HTW)