Wie Einstellungssoftware voreingenommen sein kann (und was man dagegen tun kann)

Herunterladen Article

Dieses Video ansehen

Füllen Sie das Formular unten mit Ihren Kontaktdaten aus, um darauf zugreifen zu können

Bitte lesen Sie unsere Datenschutzrichtlinie für Details darüber, wie wir Ihre Daten verwalten können.

Gespeichert unter:
March 24, 2025
Placeholder text for "read time" DO NOT REMOVE

Wir alle haben gesehen, welche Rolle künstliche Intelligenz (KI) in unserem täglichen Leben spielen kann. Es erscheint oft unschuldig. Sie geben eine Frage in Google ein und sie wird automatisch vervollständigt. Manchmal macht Google es richtig und manchmal nicht. Wenn Google es falsch versteht, müssen Sie einfach den Rest Ihrer Frage zu Ende tippen. Vielleicht dauert es ein paar Sekunden, aber es ist keine große Sache.

Wenn es jedoch um die Einstellung von Software geht, sind die Folgen einer falschen KI viel schwerwiegender. Es kann der Unterschied sein, ob der Lebenslauf eines/r Bewerbers/in auf dem Schreibtisch eines/r Personalvermittlers/in landet, zu einem Vorstellungsgespräch und möglicherweise zu einem Stellenangebot führt – oder auf dem Ablehnungsstapel landet, bevor ein Mensch ihn jemals gesehen hat.

Beim Open Forum 2021 kamen mehrere Talentexperten und Vordenker zusammen, um die Rolle von Vorurteilen und Ethik bei der Einstellung von Software zu untersuchen. Jon Stross, President und Mitbegründer von Greenhouse, moderierte eine Podiumsdiskussion mit John Sumser, Gründer und Principal Analyst bei HRExaminer, Mona Khalil, Senior Data Scientist bei Greenhouse, und Riham Satti, CEO und Mitbegründer von MeVitae. Sehen Sie sich unten die Höhepunkte ihres Gesprächs an oder sehen Sie sich hier die On-Demand-Aufzeichnung an.


Warum Vorurteile in der Technologie bestehen

Es ist verlockend zu denken, dass Technologie neutral ist und es uns helfen kann, Vorurteile zu überwinden. Aber die Wahrheit ist, dass KI genauso anfällig für Vorurteile ist wie die Menschen, die sie bauen. Mona erklärt: „Wenn wir über KI sprechen, sprechen wir über Modelle, die auf der Grundlage bereits vorhandener Daten erstellt werden. Ein Algorithmus, der eine Entscheidung für Sie trifft, kommt nicht aus dem Nichts – er wird auf der Grundlage einer Reihe von zuvor vorhandenen Daten trainiert, die Aufzeichnungen menschlicher Entscheidungen enthalten.“

Im Falle eines Modells, das Ihnen sagt, ob ein*e Bewerber*in qualifiziert ist, werden frühere Einstellungsentscheidungen berücksichtigt. Da diese Entscheidungen unglaublich voreingenommen sein können, wird ein darauf trainierter Algorithmus diese Vorurteile nachbilden und möglicherweise verstärken.

Warum bauen wir diese Vorurteile in unsere Software ein, auch wenn es unbeabsichtigt ist? Riham erinnert uns daran, dass Vorurteile mentale Abkürzungen sind, die wir alle machen. „Unser Gehirn muss verschiedene Informationen und Reize verarbeiten, also legt es Dinge in Eimer, um sie schneller verarbeiten zu können, und hier kommen Vorurteile ins Spiel.“ Es gibt über 140 kognitive Verzerrungen – wie Bestätigungsfehler und der Halo-Effekt – die unsere Entscheidungsfindung beeinflussen. „Wir können Vorurteile niemals aus dem menschlichen Gehirn entfernen, aber was wir tun können, ist zu versuchen, sie so weit wie möglich zu mildern oder zu verschieben“, sagt Riham.


Was Sie über die Einstellung von Software KI wissen müssen

Die Raffinesse der KI in der Einstellungssoftware von heute ist wie bei frühen Autos, erklärt John. Als Autos entwickelt wurden, gab es noch keine Sicherheitsgurte oder Airbags. Im Laufe der Zeit haben wir gelernt, Autos sicherer zu machen. Mit KI in der HR-Technologie müssen wir sicherstellen, dass wir alle Bewerber*innen fair berücksichtigen und die von uns ausgewählten Personen für unser Unternehmen geeignet sind. „Die Technologie ist zu primitiv, um bereits Entscheidungen über einen Menschen durch die Technologie treffen zu lassen“, sagt John. Aus diesem Grund empfiehlt John, die Meinung der Maschine als eine Eingabe zu nehmen und nicht Ihre gesamte Entscheidung darauf zu stützen.

Das bedeutet nicht, dass Sie KI nicht verwenden können – es bedeutet nur, Zeit zu investieren, um zu verstehen, wie sie funktioniert. „Sie müssen Ihre Technologie prüfen“, sagt Riham. „Sie möchten verstehen, welche Art von Daten Sie verwenden, wenn eine Maschine eine Entscheidung trifft, und warum sie diese Entscheidungen trifft.“


Tipps für die Arbeit mit KI-Softwareanbietern

„Es gibt eine Reihe von Tools, mit denen Sie Ihre Modelle auf Fairness zwischen verschiedenen Gruppen prüfen können“, sagt Mona. Sie fügt hinzu, dass es für Anbieter*innen immer einfacher wird, diese Fairness-Audits durchzuführen und die Ergebnisse zu teilen. Hier sind einige der Fragen, die Sie prüfen oder Ihrem Anbieter*innen stellen könnten:

  • Prüfen Sie Ihre Daten regelmäßig über verschiedene Gruppen hinweg (insbesondere gefährdete Gruppen wie Geschlecht, Rasse und ethnische Minderheiten, Personen, die eine andere Muttersprache sprechen, und Personen, die sich aus verschiedenen Teilen der Welt bewerben)?

  • Welche Daten haben Sie verwendet, um Ihr Modell zu erstellen und zu trainieren?

  • Haben Bewerber*innen aus verschiedenen demographischen Gruppen ähnliche Ergebnisse mit dem Modell?

  • Gibt es Gruppen, die benachteiligt werden, nachdem ein Matching-Algorithmus auf sie angewendet wurde?


Was kommt als Nächstes?

Mit Blick auf die Zukunft sehen wir Gesetze, die sich auch darauf auswirken können, wie Unternehmen KI nutzen können. Die Europäische Union erwägt Richtlinien ähnlich der DSGVO, die es Bewerber*innen ermöglichen könnten, anzufragen, welche Informationen verarbeitet und wie sie verwendet werden. Dies kann den Bewerber*innen auch die Möglichkeit geben, Einstellungsentscheidungen anzufechten und zusätzliche Informationen zur Überprüfung einzureichen.

Der Stadtrat von New York erwägt auch einen Gesetzentwurf, der Unternehmen dazu verpflichten würde, alle Algorithmen und automatisierten Systeme offenzulegen, die zur Bewertung eines/r Bewerber*in im Einstellungsprozess verwendet werden.

Unabhängig davon, ob diese Gesetze verabschiedet werden oder nicht, erwarten wir eine Zukunft, die viel mehr Klarheit und Transparenz darüber erfordern wird, wie Einstellungsentscheidungen getroffen werden.

Die Gespräche im Open Forum geben Ihnen die Möglichkeit, von anderen Führungskräften und Talentprofis zu lernen, die vielfältige, leistungsstarke Teams aufgebaut haben. Sind Sie daran interessiert, von weiteren wirkungsvollen Sitzungen bei Building Belonging zu lernen? Sehen Sie sie hier.

Filed under:
August 6, 2021

Download this article

Click download to access this content.
Download
Gespeichert unter:
March 24, 2025
Melissa Suzuno  

is a freelance writer and former Content Marketing Manager at Greenhouse. Melissa previously built out the content marketing programs at Parklet (an onboarding and employee experience solution) and AfterCollege (a job search resource for recent grads), so she's made it a bit of a habit to help people get excited about and invested in their work. Find Melissa on Twitter and LinkedIn.