Interview mit Prof. Dr. Katharina Zweig

"Algorithmen mit fehlerhaften Daten können diskriminieren"

„HAL übernehmen Sie“ lautet der Vortrag von Prof. Dr. Katharina Zweig von der Technischen Universität Kaiserslautern auf der Engineering & IT-Tagung, die die Hans-Böckler-Stiftung in Kooperation mit der IG Metall veranstaltet. So tödlich wie der Computer in Stanley Kubricks Science-Fiction-Epos „2001“ werden die künstlichen Intelligenzen hoffentlich vorerst nicht - doch immer mehr Entscheidungen übernehmen auch heute schon Algorithmen. Wie sich das etwa im Personalwesen auswirkt und welche Aufgaben auf die Betriebsräte zukommen, hat sie uns vorab im Kurzinterview erzählt:


Ob beim Banking, der Kriminalitätsbekämpfung oder in der Facebook-Timeline: Algorithmen entscheiden in immer mehr gesellschaftlichen Bereichen. Wo sehen Sie da die Gefahren?

Wie bei den meisten Technologien gibt es Chancen und Risiken: Maschinen können sich nicht verrechnen und sie haben keinen schlechten Tag. Wenn sie über Personen urteilen sollen, können wir ihnen zudem in weiten Teilen solche Eigenschaften von Personen vorenthalten, nach denen nicht diskriminiert werden darf.

Zur Erstellung dieser Algorithmen sind aber viele Entscheidungen und eine Datengrundlage notwendig - beides kann zu versteckten Vorurteilen führen. Nicht zuletzt können Ermessenspielräume - die durchaus notwendig sind - nicht abgebildet werden.

Auf der Engineering und IT-Tagung sprechen sie über Künstliche Intelligenz im Personalwesen. Entscheiden Computer bald auch, wer befördert und wer entlassen wird?

Sie helfen zumindest in anderen Ländern mit zu entscheiden, wer zuerst entlassen wird: Es gibt Firmen, die Algorithmen anbieten, die die Wechselwahrscheinlichkeit von Angestellten berechnen. Solche Personen sind vielleicht für kleinere Abfindungen bereit zu gehen als andere.

In Deutschland ist eine solche Vorhersage - aufgrund des hohen Datenschutzes und der Arbeit der Gewerkschaften - auf individueller Ebene eher unwahrscheinlich. Wir werden aber sicherlich mehr datengetriebene Entscheidungen sehen - und das begrüße ich als Wissenschaftlerin erstmal.

Wie könnten Transparenz und Kontrolle solcher Algorithmen sichergestellt werden? Im Personalwesen etwa durch die Betriebsräte?

Sollten Algorithmische Entscheidungssysteme (ADM Systeme) im betrieblichen Kontext angedacht werden, gibt es im Vorfeld Vieles zu bedenken - z.B. könnte die Fütterung der Algorithmen mit falschen oder fehlerhaften Daten zu Diskriminierung führen. Um das zu vermeiden ist die Beratung durch neutrale Personen mit hoher Expertise in den Algorithmen des maschinellen Lernens und der künstlichen Intelligenz unerlässlich.

Es ist denkbar, für Betriebsräte eine Liste mit Fragen zu erstellen, mit der eine erste Qualitätskontrolle und Einsicht in die Wirkungsweise der Algorithmen erreicht werden kann - diese müsste allerdings noch entwickelt werden. Für zentral halte ich eine Aufklärung und Befähigung der Gewerkschaftsmitglieder, die positiven und negativen Aspekte von algorithmisch unterstützten Entscheidungen zu identifizieren.


Engineering- und IT-Tagung


zurück

X

Hinweis zur Nutzung von Cookies auf dieser Website

Dieses Portal verwendet Cookies zur Optimierung der Browserfunktion. Die Cookie-Einstellungen für diese Website sind auf „alle Cookies zulassen“ festgelegt. Wenn Sie fortsetzen bzw. diesen Hinweis schließen, ohne Ihre Einstellungen zu ändern, stimmen Sie diesen zu.



Mehr Informationen zu Cookies