zurück
Magazin Mitbestimmung

Technik: Künstlich, nicht intelligenter

Ausgabe 01/2020

Algorithmen sind nicht intelligenter als die Menschen, die sie programmieren. Sie können diskriminieren – und auch Fehler machen. Von Stefan Lücking und Amanda Witkowski

Menschen entscheiden oft nach persönlichen Vorlieben und Nähe. Sie neigen dazu, etwa bei Bewerbungen Menschen des gleichen Geschlechts, der gleichen sozialen Herkunft oder mit ähnlicher Bildungsbiografie zu bevorzugen. Wäre es da nicht besser, Maschinen entscheiden zu lassen, denen solche menschlichen Empfindungen fremd sind? Unser Forschungsprojekt „Diskriminiert durch künstliche Intelligenz“ untersucht, ob datenbasierte Entscheidungen diskriminierend sind und wie sich Diskriminierungen mit ihrer Hilfe vermeiden lassen.

Tatsächlich setzen viele Unternehmen darauf, mit Talent-Management-Programmen Entscheidungen zu objektivieren. Manche ziehen sich damit auch aus der Verantwortung mit dem Hinweis: Nicht meine Entscheidung, der Algorithmus hat entschieden.

Künstliche Intelligenz entscheidet aber oft auf Grundlage von Daten aus der Vergangenheit. Unter diesen Voraussetzungen ist sie nur das digitale Spiegelbild einer Welt mit all ihren Klischees und Vorurteilen. Daher ist die Gefahr groß, dass Diskriminierungen und Benachteiligungen sich nicht nur fortschreiben, sondern auch verfestigen. 

Wenn künstliche Intelligenz Daten über Führungskräfte auswertet, könnte ein Ergebnis lauten: Männer sind die besten Führungskräfte – schon allein deshalb, weil weibliche Führungskräfte in den Daten kaum vorkommen. Beurteilt der Algorithmus, wer für Aufstiegsfortbildungen infrage kommt, und erkennt er Lücken in der Erwerbsbiografie nicht als Pflege- oder Erziehungszeiten, wertet er dies als mangelndes Interesse an beruflichem Fortkommen. Am Ende werden so klassische Rollenmuster verfestigt.

Wer solche Programme einsetzt, muss sich klarmachen, dass es statistische Programme sind mit all ihren statistischen Fehlern. Deshalb ist ein kritisches Verständnis von Daten und deren Auswertung wichtig. Wenn Personalverantwortliche sich das vor Augen führen und künstliche Intelligenz als Entscheidungshilfe nutzen, kann sie Diskriminierung durchaus verringern.

Denn statistische Analysen können sehr gut geeignet sein, bislang verdeckte Diskriminierungen offenzulegen. Auswertungen können Unternehmen zeigen, wie sich Frauen und Männer oder Migranten über alle Bereiche und Positionen verteilen und Bereiche mit sehr einseitiger Zusammensetzung sichtbar machen. Auch Größe und mögliche Ursachen der Gender-Pay-Gap lassen sich analysieren.

Betriebs- und Personalräte können ihre Mitspracherechte nutzen und bei der Auswahl der Kriterien mitbestimmen, nach denen der Algorithmus Entscheidungen trifft. Wichtig ist auch, dass für die Beschäftigten erkennbar ist, nach welchen Kriterien entschieden wurde. Um Entscheidungen besser zu beurteilen, wäre es hilfreich, wenn die Programme Möglichkeiten böten, verschiedene Varianten durchzuspielen, indem sich einzelne Merkmale stärker und schwächer gewichten ließen. So können Beschäftigte erkennen, von welchen Kriterien Entscheidungen abhängen. Grundsätzlich gilt: Je mehr individuelle Kreativität eine Entscheidung fordert, desto weniger eignet sich künstliche Intelligenz für die Aufgabe.

Zum Projekt

Das Projekt „Diskriminiert durch künstliche Intelligenz“ ist Teil des Forschungsverbunds „Digitalisierung, Mitbestimmung, Gute Arbeit“. Mehr zu den Ergebnissen gibt es auf der Konferenz der Hans-Böckler-Stiftung „Machtfragen der Digitalisierung“ am 19. und 20. März in Düsseldorf, wo sich Wissenschaft mit betrieblicher Praxis und Politik austauscht. Infos und Anmeldung hier.

Zugehörige Themen

Der Beitrag wurde zu Ihrerm Merkzettel hinzugefügt.

Merkzettel öffnen