Interview mit Prof. Dr. Katharina Zweig

"Algorithmen mit fehlerhaften Daten können diskriminieren"

„HAL übernehmen Sie“ lautet der Vortrag von Prof. Dr. Katharina Zweig von der Technischen Universität Kaiserslautern auf der Engineering & IT-Tagung, die die Hans-Böckler-Stiftung in Kooperation mit der IG Metall veranstaltet. So tödlich wie der Computer in Stanley Kubricks Science-Fiction-Epos „2001“ werden die künstlichen Intelligenzen hoffentlich vorerst nicht - doch immer mehr Entscheidungen übernehmen auch heute schon Algorithmen. Wie sich das etwa im Personalwesen auswirkt und welche Aufgaben auf die Betriebsräte zukommen, hat sie uns vorab im Kurzinterview erzählt:


Ob beim Banking, der Kriminalitätsbekämpfung oder in der Facebook-Timeline: Algorithmen entscheiden in immer mehr gesellschaftlichen Bereichen. Wo sehen Sie da die Gefahren?

Wie bei den meisten Technologien gibt es Chancen und Risiken: Maschinen können sich nicht verrechnen und sie haben keinen schlechten Tag. Wenn sie über Personen urteilen sollen, können wir ihnen zudem in weiten Teilen solche Eigenschaften von Personen vorenthalten, nach denen nicht diskriminiert werden darf.

Zur Erstellung dieser Algorithmen sind aber viele Entscheidungen und eine Datengrundlage notwendig - beides kann zu versteckten Vorurteilen führen. Nicht zuletzt können Ermessenspielräume - die durchaus notwendig sind - nicht abgebildet werden.

Auf der Engineering und IT-Tagung sprechen sie über Künstliche Intelligenz im Personalwesen. Entscheiden Computer bald auch, wer befördert und wer entlassen wird?

Sie helfen zumindest in anderen Ländern mit zu entscheiden, wer zuerst entlassen wird: Es gibt Firmen, die Algorithmen anbieten, die die Wechselwahrscheinlichkeit von Angestellten berechnen. Solche Personen sind vielleicht für kleinere Abfindungen bereit zu gehen als andere.

In Deutschland ist eine solche Vorhersage - aufgrund des hohen Datenschutzes und der Arbeit der Gewerkschaften - auf individueller Ebene eher unwahrscheinlich. Wir werden aber sicherlich mehr datengetriebene Entscheidungen sehen - und das begrüße ich als Wissenschaftlerin erstmal.

Wie könnten Transparenz und Kontrolle solcher Algorithmen sichergestellt werden? Im Personalwesen etwa durch die Betriebsräte?

Sollten Algorithmische Entscheidungssysteme (ADM Systeme) im betrieblichen Kontext angedacht werden, gibt es im Vorfeld Vieles zu bedenken - z.B. könnte die Fütterung der Algorithmen mit falschen oder fehlerhaften Daten zu Diskriminierung führen. Um das zu vermeiden ist die Beratung durch neutrale Personen mit hoher Expertise in den Algorithmen des maschinellen Lernens und der künstlichen Intelligenz unerlässlich.

Es ist denkbar, für Betriebsräte eine Liste mit Fragen zu erstellen, mit der eine erste Qualitätskontrolle und Einsicht in die Wirkungsweise der Algorithmen erreicht werden kann - diese müsste allerdings noch entwickelt werden. Für zentral halte ich eine Aufklärung und Befähigung der Gewerkschaftsmitglieder, die positiven und negativen Aspekte von algorithmisch unterstützten Entscheidungen zu identifizieren.


Engineering- und IT-Tagung


zurück

X

Hinweis zur Nutzung von Cookies auf dieser Website

Diese Website benutzt Cookies. Indem Sie die Website und ihre Angebote nutzen und weiter navigieren, akzeptieren Sie diese Cookies. Die Nutzung der Cookies können Sie in Ihren Browser-Einstellungen ändern. Wir benutzen außerdem Tracking-Cookies der Tracking-Tools Matomo und Webtrekk. Diese werden nur gesetzt, wenn Sie auf den „Einverstanden“-Button klicken. Solange Sie dies nicht tun, nutzen Sie die Website und Ihre Angebote, ohne dass die genannten Tracking-Tools aktiviert werden. Weitere Informationen finden Sie in unserer Datenschutzerklärung.


Einverstanden