Forschungsprojekt: Standards für Transparente KI

Projektziel

Das Projekt beabsichtigt, Standards für die Benutzerschnittstellen von KI-Systemen bzw. datenbasierten Systemen zu entwickeln, die es Nutzerinnen und Nutzern der Systeme erlauben, die Ergebnisse des Systems besser zu verstehen und einzuordnen.

Projektbeschreibung

Kontext

Es ist nicht nötig und auch nicht möglich, dass Anwender_innen KI-gestützte Entscheidungs- oder Vorschlagsysteme (beispielsweise Systeme für Personal- und Schichtplanung, Empfehlungssysteme für Weiterbildungen oder Systeme zur Unterstützung von Einstellungsprozessen) im Detail verstehen, nachvollziehen oder überprüfen können. Diese Systeme verwenden große Datenmengen, die sich kontinuierlich ändern. Die dahinterliegenden Modelle und Algorithmen sind auch für Expert_innen nur mit großem Zeitaufwand nachvollziehbar.

Für viele Anwendungsgebiete ist es jedoch notwendig, die Ausgaben des Systems, d.h. die Einflussfaktoren auf die Systemergebnisse verstehen zu können, um diese zu akzeptieren oder ggf. auch korrigieren zu können. Dieses Ziel kann auf der Ebene der Benutzerschnittstelle teilweise erreicht werden (z.B. durch die Darstellung von Variablen, die das Ergebnis beeinflussen, durch die graphische Darstellung der Unschärfe von Ergebnissen, durch kontrafaktische Erläuterungen).

Fragestellung

Zukünftig muss bereits beim Design von KI-Systemen in kritischen Anwendungsbereichen die Transparenz über die Grenzen des Systems, die Vermeidung von Stereotypen, die Anzeige von relevanten Kontextinformationen bedacht werden. Um den verantwortungsvollen Einsatz von KI zu ermöglichen, müssen darüber hinaus bereits beim Design die Anforderungen der Nutzenden an Transparenz und Erklärbarkeit mitgedacht werden, z.B. in Bezug auf die verwendeten Daten oder die erreichte Genauigkeit.

Die Forschungsfragen im Projekt sind:

• Welche Ansätze auf Ebene der Benutzerschnittstelle tragen dazu bei, KI-Systeme im Personalwesen für Nutzer_innen transparent zu machen?

• Welche Unterschiede in den Transparenzanforderungen und -wahrnehmungen gibt es zwischen Mitarbeitenden, Führungskräften und HR-Expert_innen?

Untersuchungsmethoden

Zur Identifizierung und Evaluation der relevanten Faktoren für die Transparenz und Fairness werden zunächst die existierenden Ansätze für „Explainable AI“ (XAI) auf ihre Umsetzbarkeit in Benutzerschnittstellen und speziell in Personalmanagementsystemen hin untersucht und klassifiziert.

Im zweiten Schritt sollen mittels qualitativer Interviews und partizipativer Designworkshops subjektiv als transparent/intransparent oder fair/unfair wahrgenommene Faktoren von KI-Systemen im Personalmanagement aus Sicht von Mitarbeitenden, Führungskräften und Personalverantwortlichen identifiziert werden. Im dritten Schritt werden kontrollierte Experimente mit Betriebsräten, Führungskräften und Mitarbeitenden in Personalabteilungen durchgeführt um Kriterien für die Nachvollziehbarkeit des Systems aus Sicht der Nutzer_innen zu priorisieren.

Der Beitrag wurde zu Ihrerm Merkzettel hinzugefügt.

Merkzettel öffnen