Die EAF Berlin sensibilisiert mit Unconscious Bias Trainings für unbewusste Denkmuster. Für Organisationen sind diese nicht nur in Hinblick auf Personalentscheidungen relevant, sondern auch in Hinblick auf Produktentwicklungen – auch und gerade im Bereich Digitalisierung und Künstliche Intelligenz. Denn Unconscious Biases der an der Entwicklung von Software beteiligten Menschen können dazu führen, dass eine Anwendung diskriminierende Entscheidungen trifft. Ebenso können verzerrte Daten Künstliche Intelligenz unfair machen. Doch wer unbewusste Denkmuster aktiv angeht, kann dies vermeiden und stattdessen mit dem Einsatz automatisierter Software auch zu mehr Chancengerechtigkeit beitragen.

Die Digitalisierung der Personalarbeit

Die Digitalisierung ist aus der modernen Arbeitswelt nicht mehr wegzudenken, auch im Personalbereich. Die Beispiele reichen von Systemen zur Verwaltung von Personalstammdaten über die automatisierte Gehaltsabrechnung oder Apps für die Einsatzplanung von Mitarbeitenden bis hin zu auf Künstlicher Intelligenz basierender Software, die Personaler*innen in Bewerbungsverfahren unterstützt.

Diskriminierung durch einen Algorithmic Bias

Allerdings häufen sich in den vergangenen Jahren Meldungen darüber, dass eingesetzte Software im Arbeitskontext systematisch diskriminieren kann. Da wäre die Anwendung zur Prognostizierung der Arbeitsmarktchancen von Arbeitssuchenden, die Frauen generell als weniger vermittelbar bewertet. Oder das auf Künstlicher Intelligenz basierte Recruiting-Werkzeug, welches auf Basis von Bewerbungsunterlagen geeignete Kandidat*innen für eine zu besetzende Stelle findet und Frauen systematisch herunterstuft. Digitale Technologien sind nicht per se neutral und fair, sondern können einen sogenannte Algorithmic Bias enthalten. Ein Algorithmic Bias, zu Deutsch algorithmische Voreingenommenheit, beschreibt systematische Fehler einer Maschine, eines digitalen Systems oder einer Anwendung, die zu unfairen Ergebnissen führen, z.B. die Privilegierung einer bestimmten Nutzer*innengruppe gegenüber anderen. Doch es ist nicht die Technik an sich, die diskriminiert; ein Prozessor unterscheidet beispielsweise lediglich zwischen zwei exakten Zuständen: Strom fließt und Strom fließt nicht. Die zu beobachtenden Verzerrungen haben menschliche Ursachen, die erklär- und lösbar sind.

Ursache 1: Transfer menschlicher Vorurteile in digitale Anwendungen

Eine mögliche Ursache für einen Algorithmic Bias ist der Transfer der Unconscious Biases der an der Entwicklung von digitalen Technologien beteiligten Menschen: Der Berater, der gemeinsam mit Auftraggeber*innen die Anforderungen an die zu entwickelnde Lösung aufnimmt, wird vielleicht unbewusst, eine ältere Frau als Endnutzerin nicht mitdenken. Auch bei der Erarbeitung eines technischen Konzepts, der eigentlichen Programmierung sowie beim Test können menschliche Biases in das System übertragen werden, da sie zum Teil auch kreative Vorgänge sind, die auf den spezifischen Vorstellungen der*des jeweils Erstellenden basieren. Auch unbekannte Stereotype eines Data Scientist können dazu beitragen, dass die untersuchten Fragestellungen und die angewendeten (mathematischen) Methoden zur Extraktion von Wissen aus Daten ebenfalls bestimmte Menschen benachteiligen. Ein anschauliches Beispiel dafür, wie die Biases der beteiligten Gestalter*innen in ein technisches Gerät transferiert werden können, ist das eines Seifenspenders, welcher bei der Reflexion des Lichtstrahls von der Hand zurück zum Gerät automatisch Seife abgibt. Die Entwickler*innen hatten das gültige Licht-Spektrums unwissend so festgelegt, dass der Seifenspender nur für weiße Menschen funktionierte.

Ursache 2: Beeinflussung von Künstlicher Intelligenz durch verzerrte Daten

Im Bereich der Künstlichen Intelligenz (KI) werden u.a. angelehnt an die Funktionsweise neuronaler Netze oder mathematisch statistischer Modelle, Systeme zur Mustererkennung, für Vorhersagen oder im Bereich Robotik entwickelt. Beispiele hierfür sind Autonomes Fahren, die automatische Song-Empfehlung bei Spotify oder die Sprachassistenz Alexa. Das Besondere an KI-basierten Anwendungen ist, dass Programmierer*innen, Algorithmen-Designer*innen und Data Scientists bei deren Entwicklung lediglich eine Art Grundgerüst erzeugen. Das System kann später auch vorher nicht-definierte Probleme selbstständig lösen. Getrieben durch die Errungenschaften des Maschinellen Lernens sind solche Systeme außerdem häufig in der Lage, aus vergangenen Erfahrungen zu lernen. Damit ein KI-basiertes System maschinell lernen, d.h. seine Leistung selbstständig verbessern kann, muss es mit Lerndaten trainiert werden. Verzerrte Stichproben in Lerndaten können einen Algorithmic Bias in ein KI-basiertes System transferieren. Wird ein System zur Gesichtserkennung beispielsweise nur mit Fotos von Europäer*innen mit einer runden Augenform trainiert, so kann das dazu führen, dass eine mandelförmigere Augenform, wie man sie häufig bei Asiat*innen findet, später nicht erkannt wird, weil das System diese Augen als geschlossen identifiziert. Beim Trainieren eines KI-basierten Systems mit historisch verzerrten Daten kann ebenfalls ein Algorithmic Bias entstehen. Wird eine Anwendung zur Vorhersage des späteren Einkommens mit aktuellen Daten deutscher Beschäftigter trainiert, so wird das System wahrscheinlich zu der Erkenntnis kommen, dass Frauen generell weniger verdienen. Das System kann nicht wissen, dass hier der Lohnunterschied auf strukturelle Diskriminierungsformen zurückzuführen ist.

Ursache 3: Der Einsatz einer digitalen Anwendung entscheidet über deren Wirkung

Auch eine neutrale Entwicklung kann sich durch den falschen Einsatz zu einer diskriminierenden Technik entwickeln. Eine KI-basierte Smartphone-App zur Schichtplanung durch Mitarbeitende kann unfair wirken, sogar, wenn sie Bias-sensibel entwickelt und mit vielfältigen Lerndaten trainiert wurde, wenn nicht alle im Team Zugang zu einem mobilen Endgerät haben. Auch eine Anwendung zur Ermittlung des passenden Weiterbildungsangebots für Beschäftigte kann nicht erfolgreich sein, wenn nicht genügend Mittel für Weiterbildungsmaßnahmen genehmigt wurden. Zur Auflösung eines Algorithmic Bias bedarf es umfassender Veränderungen

Je nach Ursache eines Algorithmic Bias müssen Veränderungsprozesse ebenfalls auf den drei Ebenen ansetzen:

  • 1. Faire Entwicklung: zur Verminderung eines Transfers der Unconscious Biases der an Entwicklung von digitalen Anwendungen beteiligten Menschen sind in erster Linie zwei Maßnahmen sinnvoll: Divers besetzte Entwickler*innen-Teams bringen im Vergleich zu homogenen Teams mehr Perspektiven ein, wodurch Bias bedingte Fehler von vorneherein vermieden werden können. Zum zweiten die Verminderung von Unconscious Bias durch vielfaltssensible und transparente Standards und Prozesse sowie spezifische Trainings. Im besten Fall beides.
  • 2. Faire Daten: Gerade im Bereich von Künstlicher Intelligenz und des Maschinellen Lernens ist eine Offenlegung sowie die Reflexion der verwendeten Daten und angewendeten technischen Methoden sowie eine Protokollierung von automatisierten Entscheidungen essentiell.
  • 3. Fairer Einsatz: Zuletzt sollte der Einsatz einer Software bzw. einer auf Künstlicher Intelligenz basierten Anwendung ständig reflektiert werden. Das bedeutet, dass vor der Einführung eines Systems die abgebildeten (analogen) Prozesse hinsichtlich ihrer Fairness geprüft werden und sichergestellt wird, dass eine digitale Entwicklung für alle zugänglich und erreichbar ist. Prozesse, in denen weitreichende Entscheidungen getroffen werden, verlangen stärkere Überprüfungen als andere.

Personalarbeit: Ein differenzierter Blick ist gefordert

Der Einsatz von digitalen Technologien und Anwendungen in einer Organisation ist aber nicht per se schlecht. Ein differenzierter menschlicher Blick ist gerade im Personalbereich notwendig. Durch digitale Systeme können wir administrative Tätigkeiten reduzieren, geordneter und nachvollziehbarer arbeiten und uns auf unsere Kernaufgaben fokussieren. Aber es bedarf eben auch einem Bewusstsein über den Algorithmic Bias, und einer gleichsamen Auseinandersetzung mit der Datenherkunft, dem Entwicklungsprozess und dem Einsatz digitaler Anwendungen. Das obliegt weiterhin Menschen, die sich ihrer Verantwortung gegenüber ihren (potenziellen) Mitarbeiter*innen bewusst sind – auch oder gerade wenn digitale Anwendungen sie beim Entscheidungsfindungsprozess unterstützen. Darüber hinaus kann die Digitalisierung auch zu mehr Vielfalt und Chancengerechtigkeit beitragen, denn automatisierte Prozesse können helfen, analoge Personalaufgaben fairer zu gestalten. Gerade in jüngster Zeit wurden vermehrt digitale, zum Teil auf Künstlicher Intelligenz basierte, Anwendungen entwickelt, mit denen existierende Unconscious Biases (unbewusste Verzerrungen) in der Personalarbeit reduziert werden. Zwei Beispiele: Mittels sogenanntem Augmented Writing – automatisiertem Schreiben – können verzerrte Formulierungen in Stellenausschreibungen automatisch so anpasst werden, dass sich mehr Bewerbende angesprochen fühlen, was den Pool der Bewerber*innen vielfältiger macht. Eine auf Künstlicher Intelligenz basierte Software schlägt individuelle, passende Weiterbildungsmöglichkeiten vor und unterstützt damit die berufliche Entwicklung gezielt.

Weitere Informationen zum Angebot der EAF sind hier abrufbar.