zurück
Michael Guggemos Service aktuell

Künstliche Intelligenz im Personalrecruiting: Guggemos: „Algorithmen sind per se nie diskriminierungsfrei“

KI bei der Auswahl von Personal: Wie muss Software gestaltet sein, damit sie fair und transparent eingesetzt werden kann? Unser Geschäftsführer Michael Guggemos war für ein ausführliches Video-Interview zu Gast beim Forschungsprojekt „Fair“.

Wie lässt sich eine möglichst gerechte und unvoreingenommene Auswahl von Bewerber*innen gewährleisten? Ein gewisser Bias sei sowohl bei uns Menschen als auch bei Computeralgorithmen unvermeidlich, sagt Michael Guggemos im Interview zu Moderator und Geschäftsführer von FAIR, Jan Bergerhoff. Worauf es bei uns ankomme, sei, sich diesen Bias selbst bewusst zu machen, welche Vorannahmen, Gefühle und Werte bei der Entscheidung mitwirkten. Software könne dabei eine unterstützende Rolle spielen.

Aber: Auch KI-Systeme seien per se schon durch die Entscheidungen, die der Programmierung zugrunde liegen, niemals diskriminierungsfrei. Hier bestehe Nachholbedarf in Sachen Transparenz, so Guggemos: „Personalinstrumente mit KI sollten deshalb ein Zulassungsverfahren durchlaufen – ähnliche wie neue Medikamente – so dass es eine Art Beipackzettel entsteht. Dieser kann dann kenntlich machen, welchen Bias ein solches Instrument hat“. Dies sei insbesondere auch für die Arbeit von Mitbestimmungsakteuren hilfreich: „Das würde die Arbeit von Betriebsräten enorm vereinfachen.“

Für ausbaufähig hält Michael Guggemos in Deutschland zudem die Aufstiegschancen von Mitarbeiter*innen innerhalb von Unternehmen. Erst mit mehr Offenheit sei die Forderung nach intensiverer und zielgerichteter Weiterbildung von Mitarbeiter*innen sinnvoll. Auch mehr „Diversity“ beim Personal zu erreichen sei für Unternehmen möglich – und zwar ohne eine Absenkung von Standards, sagt Guggemos. „Man muss sich beim Recruiting bewusst werden, welches Ziel man erreichen will und entsprechend diesem Ziel muss man dann handeln“.

Das ganze Interview im Video:

Eingebettetes YouTube-Video

Hinweis: Dieses eingebettete Video wird von YouTube, LLC, 901 Cherry Ave., San Bruno, CA 94066, USA bereitgestellt.
Beim Abspielen wird eine Verbindung zu den Servern von Youtube hergestellt. Dabei wird Youtube mitgeteilt, welche Seiten Sie besuchen. Wenn Sie in Ihrem Youtube-Account eingeloggt sind, kann Youtube Ihr Surfverhalten Ihnen persönlich zuzuordnen. Dies verhindern Sie, indem Sie sich vorher aus Ihrem Youtube-Account ausloggen.

Wird ein Youtube-Video gestartet, setzt der Anbieter Cookies ein, die Hinweise über das Nutzerverhalten sammeln.

Wer das Speichern von Cookies für das Google-Ad-Programm deaktiviert hat, wird auch beim Anschauen von Youtube-Videos mit keinen solchen Cookies rechnen müssen. Youtube legt aber auch in anderen Cookies nicht-personenbezogene Nutzungsinformationen ab. Möchten Sie dies verhindern, so müssen Sie das Speichern von Cookies im Browser blockieren.

Weitere Informationen zum Datenschutz bei „Youtube“ finden Sie in der Datenschutzerklärung des Anbieters unter: https://www.google.de/intl/de/policies/privacy/

Video anzeigen

Über FAIR

FAIR ist ein Forschungsprojekt mit dem Ziel, den Arbeitsmarkt diskriminierungsfreier zu machen. Es gibt zwei Forschungsschwerpunkte: Erstens soll ein Kontrollmechanismus entworfen werden, der menschliche und algorithmische Diskriminierung sichtbar und messbar macht und zweitens sollen Algorithmen entwickelt werden, die Lebensläufe fair und zuverlässig vorauswählen können. Das Projekt wird von Fördermitteln der EU und des Landes NRW unterstützt.

Zugehörige Themen

Newsletter mit Ihren Themen

Bleiben Sie informiert: Neueste Forschungsergebnisse und Infos zu den Themen Mitbestimmung, Arbeit, Soziales, Wirtschaft. Unsere Newsletter können Sie jederzeit abbestellen.

Der Beitrag wurde zu Ihrerm Merkzettel hinzugefügt.

Merkzettel öffnen