zurück
Magazin Mitbestimmung Magazin Mitbestimmung

Praxistipp: Ein Blick in die Blackbox hilft

Ausgabe 02/2021

Das Institut für Mitbestimmung und Unternehmensführung der Hans-Böckler-Stiftung (I.M.U.) wertet regelmäßig Betriebs- und Dienstvereinbarungen aus und zeigt anhand von Beispielen, worauf es ankommt. Mit der Reihe „Praxistipp“ stellen wir in jeder Ausgabe anhand eines konkreten Problems eine Auswertung vor.

Der Einsatz von künstlicher Intelligenz in Betrieben stellt Betriebs- und Personalräte vor neue Fragen: Wie muss mit personenbezogenen Daten umgegangen werden? Wie können Leistungs- oder Verhaltenskontrollen anhand dieser Daten ausgeschlossen werden? Die Auswertung „Machine-Learning-Anwendungen in der betrieblichen Praxis“ gibt darauf Antworten.

Wie mit persönlichen Daten umzugehen ist, regelt die Datenschutzgrundverordnung (DSGVO). Beim Einsatz von künstlicher Intelligenz (KI) kann es darüber hinaus sinnvoll sein, den Umgang mit nicht personenbezogenen Daten innerhalb einer Betriebs- oder Dienstvereinbarung zu regeln. Diese Daten gelten zwar meist als unproblematisch, können aber durch maschinelle Auswertung mit anderen Daten verknüpft werden und so einen Personenbezug herstellen. Um Beschäftigte hiervor zu schützen, sollten Arbeitnehmervertretungen den Zweck und die Nutzung auch dieser Daten festlegen.

Eine genaue Dokumentation, wofür bestimmte Anwendungen eingesetzt werden und auf welche Art und Weise Daten erhoben und verarbeitet werden, macht diesen Prozess nachvollziehbar und leichter zu kontrollieren. Je transparenter der Einsatz von KI für alle Beteiligten ist, desto besser funktioniert die Mitbestimmung.

Oft kann die Kontrolle aber auch an mangelnder Kenntnis der Technik scheitern. Die eingesetzte Software stellt eine Art Blackbox dar. Wie sie zu ihren Ergebnissen kommt, ist schwer nachzuvollziehen und unterliegt oft dem Geschäftsgeheimnis des Herstellers. Betriebs- und Personalräte können externe Experten zurate ziehen oder mit einer sogenannten Blackbox-Analyse die Auswirkungen von Automated-Decision-Making-(ADM)-Systemen überwachen, ohne ihre genaue Wirkweise zu kennen. Dabei wird der Anteil an Fehlurteilen berechnet, indem Ergebnisse immer wieder mit laufenden Beobachtungen abgeglichen werden.

Eine ständige Evaluation von KI-Modellen hilft, zwischen dem zufälligen Zusammenfallen von Merkmalen und einem eindeutigen Zusammenhang zu unterscheiden. Eine Art Checkliste kann Betriebs- und Personalräte dabei unterstützen, Ziele und vorhergesehene Einsatzfelder von KI-Systemen klar zu definieren.

Zugehörige Themen

Weitere Inhalte zum Thema

Der Beitrag wurde zu Ihrerm Merkzettel hinzugefügt.

Merkzettel öffnen