zurück
Frank Lelke beschäftigt sich politisch und beruflich mit KI im Personalmanagement. Magazin Mitbestimmung

Personalmanagement: Wenn der Computer die Neue einstellt

Ausgabe 02/2021

Künstliche Intelligenz und Algorithmen sollen Personalabteilungen entlasten. Die Technik macht Entscheidungen aber nicht automatisch besser. Beschäftigtenvertreter müssen sie kritisch begleiten. Von Maren Knödl

Auf der Suche nach Mister oder Miss Perfect wühlen sich Personalabteilungen jedes Jahr durch Tausende Lebensläufe, Arbeitszeugnisse und Motivationsschreiben. Sie sortieren die Mappen auf Stapel und sichten erneut. Künstliche Intelligenz (KI) kann das Verfahren abkürzen, etwa mit digitalen Headhuntern im Internet. Sie durchforsten das gesamte Netz nach Informationen über potenzielle Beschäftigte, auch nach Fotos bei Instagram und Facebook, Mitgliedschaften in lokalen Vereinen oder Erwähnungen in anderen Medien. Von einem perfekt inszenierten Lebenslauf auf LinkedIn oder Xing lassen sie sich nicht beeindrucken.

Frank Lelke ist Kreistagsabgeordneter in Recklinghausen und Leiter der Innovationsplattform im Wirtschaftsforum der SPD. Unternehmer, Gewerkschaften und Verbände tauschen sich dort über ihre Erfahrungen aus, entwickeln Konzepte und Empfehlungen für die betriebliche Praxis im Umgang mit der Digitalisierung wie ständige Erreichbarkeit, KI oder Weiterbildung. Lelke selbst arbeitet im Personalmanagement bei Evonik Industries in Essen und setzt sich dort auch beruflich mit computergestützten Entscheidungen auseinander. Bei seinem Arbeitgeber ist der KI-Headhunter bisher noch ein Pilotprojekt. An anderen Stellen des Personalmanagements wird künstliche Intelligenz aber schon eingesetzt, zum Beispiel in Form von Chatbots bei der Personalauswahl. Der Bot beantwortet einfache Fragen, etwa nach Unterlagen oder einzelnen Stationen des Bewerbungsverfahrens.

„Bei 23 000 Bewerbungen, die jährlich allein in Deutschland im Unternehmen eingehen, ist das eine enorme Erleichterung“, sagt Lelke. Eine Vorauswahl durch Algorithmen kann er sich in Zukunft gut vorstellen. „Würden wir etwa gezielt eine Lackingenieurin suchen, kann ein Algorithmus die harten Kriterien wie notwendige Qualifikationen schneller erfassen und passende Bewerbungen suchen.“ Auch für die Bewertung von sozialen Kompetenzen sollen KI-Technologien perspektivisch die Datenaufbereitung unterstützen. „Ein Bewerbungsgespräch, in dem auch mal über das Wetter gesprochen wird, um den Kandidaten besser kennenzulernen, kann aber durch sie nicht ersetzt werden“, sagt Lelke.

Die Daten entscheiden

Zu den Mitgliedern im Wirtschaftsforum der SPD, das Lelke leitet, gehören unter anderem Unternehmen wie Eon, Emschergenossenschaft und Lippeverband und Merck. Das Wissenschafts- und Technologieunternehmen Merck hat mit der Technischen Universität Darmstadt in einer Feldstudie die Reaktion auf eine Mensch-Roboter-Interaktion erforscht. Eine Roboterfrau namens Elenoide sprach mit Beschäftigten über ihre berufliche Weiterentwicklung.

Die Informationen, die eine KI aus solchen oder ähnlichen Interaktionen zieht, dienen ihr als Grundlage für spätere Entscheidungen. Sie stützt sich also auf den Status quo. Vorhandene Lohnungerechtigkeiten würden durch eine Software auf Basis bestehender Daten fortgesetzt werden. Algorithmen lassen sich außerdem von Oberflächlichkeiten leiten, wie Datenjournalisten des Bayerischen Rundfunks zeigten. Als eine Bewerberin Bluse und Jackett gegen ein T-Shirt tauschte, die Frisur veränderte oder die Brille ablegte, bewertete das Programm die Persönlichkeit teilweise deutlich anders.

Algorithmen und KI sind immer nur so gerecht und unvoreingenommen wie die Daten, mit denen sie arbeiten. Das weiß auch Katharina Simbeck. Sie ist Professorin für Wirtschaftsinformatik an der Hochschule für Technik und Wirtschaft in Berlin und hat das Thema „Diskriminierung durch den Einsatz von Algorithmen im Personalbereich“ gefördert von der Hans-Böckler-Stiftung erforscht. Sie bezweifelt, dass der Einsatz von KI in Bewerbungsverfahren nur Vorteile mit sich bringen wird. „Dass ein Algorithmus gewisse Regeln abarbeitet, ist nicht grundsätzlich schlecht, im Gegenteil. Er ist transparent, entscheidet für alle Daten gleich und nachvollziehbar“, sagt sie. Bei der KI seien dagegen die Regeln, nach denen Algorithmen vorgehen, oft nicht mehr zu durchschauen. „Dann muss ich genau überlegen, welche Daten ich dem Modell gebe und welche Informationen dahinterstecken.“

Arbeitgeber können Diskriminierung mithilfe von KI aber auch verhindern. Um etwa Frauen im Auswahlverfahren nicht zu benachteiligen, könnten Personalverantwortliche dem Programm vorgeben, dass von den ausgewählten Bewerbungen 40 Prozent von Frauen kommen sollen. Vollständig lässt sich Benachteiligung aber nicht ausschließen. Denn die KI bildet auch aufgrund anderer Übereinstimmungen Gruppen.

Auf der Suche nach Gemeinsamkeiten in den Daten von Beschäftigten stellt das System beispielsweise fest, dass bei Menschen zwischen 20 und 30 gehäuft eine Namensänderung auftritt. Da noch immer meistens Frauen nach Eheschließung den Namen des Partners annehmen, sortiert die KI hier indirekt nach Geschlecht. Das gleiche Phänomen tritt auch bei Beschäftigungspausen durch die Elternzeit auf, die das Modell als Übereinstimmung in den Daten feststellt. „Beide Merkmale kommen immer noch öfter bei Frauen vor und können so zu einer indirekten Diskriminierung führen“, berichtet Katharina Simbeck aus ihrer Forschung mit solchen Systemen. Abhilfe kann hier eine genaue Überprüfung der Daten schaffen. „Personaler sollten sich fragen, welche Daten sie der KI geben und ob Sonderfälle, wie eine Namensänderung oder Elternzeit, berücksichtigt werden“, rät sie.

Intransparenz im Umgang mit ihren Daten fürchten auch viele Beschäftigte beim Einsatz solcher Modelle. In einer Umfrage des Center for Advanced Internet Studies (CAIS) zusammen mit der Heinrich-Heine-Universität Düsseldorf gaben 50 Prozent der Befragten an, dass sie Angst davor haben, Betriebe könnten weniger transparent mit ihren Daten umgehen. 40 Prozent fürchten, durch den Einsatz von KI vermehrt am Arbeitsplatz überwacht zu werden.

Eine Angst, die Rechtswissenschaftler Peter Wedde nachvollziehen kann. Unter der Leitung von Algorithm Watch und gefördert von der Hans-Böckler-Stiftung hat er sich mit Automatisierung im Personalmanagement und den Auswirkungen auf die Mitbestimmung befasst. Ein Ergebnis: Die Beschäftigten sind arbeitsrechtlich nicht genug geschützt. Weder sei die digitale Überwachung von Beschäftigten ausreichend geregelt, noch gebe es ein Beweisverwertungsverbot von widerrechtlich erlangten Informationen. Betriebsräten sei es nur begrenzt möglich, die Automatisierung des Personalmanagements zu gestalten. Nach der aktuellen Rechtslage können sie den Einsatz von KI und Algorithmen nicht grundsätzlich, sondern nur in freiwilligen Betriebsvereinbarungen regeln.

Die Enquetekommission der Bundesregierung hat sich im vergangenen Jahr mit einer Vielzahl technischer, rechtlicher und ethischer Fragen im Umgang mit künstlicher Intelligenz beschäftigt und zusammen mit Fachleuten Regeln für den Umgang mit Risiken aufgestellt. Bei Evonik wurde hierfür das sogenannte New Work Lab eingerichtet, ein Kreis aus Personalmanagern, Arbeitnehmer- und Geschäftsvertretern, die Ideen gemeinsam bewerten.

Der Einsatz von KI und Algorithmen im Personalmanagement schreitet voran. Laut einer Befragung des Instituts for Competitive Recruiting setzen 70 bis 80 Prozent der Unternehmen auf sogenannte Bewerbermanagementsysteme. Noch ist unklar, was es für Betriebsräte bedeutet, wenn der Roboter unsichtbar mit am Tisch sitzt. Bei Einstellungen haben sie ein Mitbestimmungsrecht. Daher wird es für sie immer wichtiger, die Arbeitsweise der Technik zu verstehen und ihre Entscheidungen transparent zu machen.

  • Roboterfrau Elenoide sprach mit Beschäftigten über ihre berufliche Weiterentwicklung.
    Roboterfrau Elenoide sprach mit Beschäftigten über ihre berufliche Weiterentwicklung. (Foto: Merck)

Weitere Informationen

Die Digitalisierung krempelt das Personalmanagement um: Pro- gramme können Bewerbungsun- terlagen sortieren und geeignete Kandidaten herausfiltern, per Sprachanalyse Interviews aus- werten, durch die Analyse von Beschäftigtendaten Empfehlun- gen für Weiterbildungen oder Kündigungen generieren. Der Rechtswissenschaftler Peter Wedde von der Frankfurt Uni- versity of Applied Sciences hat sich in seinem Gutachten mit dieser Entwicklung auseinander- gesetzt.

Peter Wedde: Automatisierung im Personalmanagement – arbeitsrechtliche Aspekte und Beschäftigtendatenschutz (pdf). Rechtsgutachten, vorgelegt im Rahmen des Projekts „Automa- tisiertes Personalmanagement und Mitbestimmung“

Zugehörige Themen

Der Beitrag wurde zu Ihrerm Merkzettel hinzugefügt.

Merkzettel öffnen