Forschungsprojekt: Diskriminiert durch Künstliche Intelligenz

Projektziel

Die in Unternehmen in wachsendem Umfang digital vorliegenden Daten werden immer stärker analysiert und als Entscheidungsgrundlage genutzt. Das Projekt beschäftigt sich damit, wie Diskriminierung nach Geschlecht, Alter oder Herkunft durch Künstliche Intelligenz (KI) in unternehmensinternen Personalauswahlprozessen verhindert bzw. mit vorurteilsfreien Vorschlägen durch die KI reduziert werden kann.

Veröffentlichungen

Köchling, Alina, Shirin Riazy, Marius Wehner und Katharina Simbeck, 2020. Highly accurate, but still discriminatory: A fairness evaluation of algorithmic video analysis für AoM. Konferenzbeitrag, [online] https://journals.aom.org/doi/abs/10.5465/AMBPP.2020.13339abstract, zuletzt abgerufen am 29.10.2020, New York (USA): Academy of Management, 1 Seiten.

Zunke, Karsten und Katharina Simbeck, . Eine KI kann diskriminierend sein. Katharina Simbeck im Interview über Ethik und Technologie, Personalmagazin plus, 17.09.2019S. 10-15.

Simbeck, Katharina, 2019. HR analytics and ethics, IBM Journal of Research and Development, 63(4/5), S. 1-12.

Folkerts, Finn, Vanessa Schreck, Shirin Riazy und Katharina Simbeck, 2019. Analyzing Sentiments of German Job References, In: IEEE (Hrsg.), 2019 IEEE International Conference on Humanized Computing and Communication (HCC), new York: Institute of Electrical and Electronics Engineers, S. 1-6.

Folkerts, Finn, Shirin Riazy und Katharina Simbeck, 2019. Automatisierte Textanalyse bei der Personalauswahl – Potenziale und Grenzen, Berufsbildung in Wissenschaft und Praxis (BWP), 48(3), S. 27-29.

Weitere Informationen

Video 2020: Podiumsdiskussion – Diskriminierung durch Künstliche Intelligenz #rp18 #HRFestival @olew
https://hrfestival.wordpress.com/2018/05/05/podiumsdiskussion-diskriminierung-durch-kuenstliche-intelligenz-rp18-hrfestival-olewin/

Video 2018: Diskriminiert Künstliche Intelligenz Menschen bei der Personalauswahl in Unternehmen
https://www.youtube.com/watch?v=2YNOsyxfK3c&feature=youtu.be

Video 2019: Panel: Unterdrücken uns Algorithmen?
https://www.fraunhofer-innovisions.de/kuenstliche-intelligenz/panel-unterdruecken-uns-algorithmen/

Video 2020: Algorithmen: Zu Risiken und Nebenwirkungen – fragen Sie Ihren Informatiker
https://18.re-publica.com/de/session/algorithmen-risiken-nebenwirkungen-fragen-sie-ihren-informatiker

Projektbeschreibung

Kontext

Die Daten, die Unternehmen elektronisch vorliegen umfassen beispelsweise Qualifikationen, vorherige Positionen, Kenntnisse, Zertifikate, Alter, Interessen, Wohn- und Ausbildungsorte, Familienverhältnisse, Bewertungen. Mit den Methoden der Künstlichen Intelligenz ist es möglich, in diesen Daten Muster zu erkennen, welche Aussagen über die zukünftige Karriereentwicklung oder über die Geeignetheit für bestimmte Positionen erlauben. Talent Analytics umfasst damit die Analyse von personen- und prozessbezogenen Daten mit dem Ziel, Beschäftigte auszuwählen, einzuarbeiten, zu bewerten, weiterzuentwickeln bzw. in Teams zusammenzustellen oder zu halten.

Hierbei besteht jedoch die Gefahr, dass sich diskriminierende Strukturen verfestigen und selbst reproduzieren. Dies ist auch aus Unternehmenssicht nicht erwünscht.

Fragestellung

Im Rahmen des Projektes sollen die folgenden Fragen beantwortet werden:

1. Welche Arten von Algorithmen eignen sich, um typische Aufgaben des Personalmanagements (Karrierepfade planen, Führungspositionen besetzen, Entwicklungsmöglichkeiten anbieten, Kündigungswahrscheinlichkeit abschätzen) zu unterstützen?

2. Welches theoretische und empirische Diskriminierungspotential haben diese Algorithmen und warum? Von welchen Faktoren hängt das Diskriminierungspotential wie stark ab?

3. Wie lässt sich Diskriminierung durch algorithmisch unterstützte Entscheidungen reduzieren oder vermeiden?

Untersuchungsmethoden

Im Rahmen des Projektes soll analysiert werden, welche typischen Ansätze zur Mustererkennung für Talent Analytics bereits genutzt werden. Anschließend sollen reale Daten mit typischen Algorithmen im Hinblick darauf analysiert werden, ob die Algorithmen anfällig für Diskriminierung sind.

Als Ergebnis soll Best-Practice-Handlungswissen erstellt werden, mit dem Interessenvertretungen, Personalverantwortliche und/oder Politiker*innen die Nutzung von Methoden der Künstlichen Intelligenz im Rahmen von Talent Analytics verstehen, potentielle Diskriminierung erkennen und damit im Idealfall vermeiden können.

Der Beitrag wurde zu Ihrerm Merkzettel hinzugefügt.

Merkzettel öffnen