Die sich entwickelnde rechtliche Landschaft der KI im Einstellungsprozess

Wenn es um KI geht, ist klar, dass es eine Vielzahl von Möglichkeiten gibt, wie diese bahnbrechende Technologie die Talentakquise beeinflussen kann und wird, sowohl in nächster Zeit als auch in der Zukunft. Die Aufregung und Spekulationen über die potenziell transformative Kraft von KI sind an einem Höhepunkt. Dennoch sind wir der Meinung, dass wir bezüglich des Ausmaßes der Fähigkeiten oder ihrer Auswirkungen auf fast jeden Aspekt des menschlichen Lebens noch am Anfang stehen.
Unsere Mission bei Greenhouse ist es, jedem Unternehmen zu helfen, bei der Einstellung großartig zu werden. Aus diesem Grund suchen wir Möglichkeiten, wie wir die Leistung von KI im Einstellungsprozess nutzen können, um die Personalbeschaffung und Vorstellungsgespräche zu optimieren. Gleichzeitig wollen wir weiterhin ethische und gerechte Praktiken zur Verringerung von Vorurteilen fördern.
Die Rechtslandschaft entwickelt sich rasant
Angesichts der prominenten Rolle von KI im öffentlichen Diskurs ist es keine Überraschung, dass wir plötzlich viele Fragen von Kund*innen und Bewerber*innen bekommen. Dazu gehören Bedenken darüber, ob Greenhouse Algorithmen verwendet, um Bewerber*innen automatisch vorzuschlagen oder abzulehnen (Spoiler-Warnung: tun wir nicht) oder ob unsere Produkte die Gesetze einhalten, die die Verwendung von KI im Einstellungsprozess und bei Einstellungstools regeln (das tun sie).
Diese Bedenken sind berechtigt, da die Regulierungsbehörden in den USA und im Ausland schnell ihre Besorgnis über die zunehmende Verwendung von KI bei der Einstellung und ihr Potenzial kundtun, ungerechte Ergebnisse für unterrepräsentierte Gemeinschaften zu liefern. Anfang dieses Jahres hat die EEOC beispielsweise Titel VII Leitlinien für Arbeitgeber herausgegeben, die sich bei der Einstellung auf KI und andere automatisierte Tools zur Entscheidungsfindung verlassen. Das lokale Gesetz 144 von New York City, das die Verwendung von sogenannten automatisierten Entscheidungsfindungstools im Beschäftigungskontext regelt, trat diesen Sommer in Kraft. Ähnliche Gesetzesentwürfe sind in Washington D.C., Massachusetts und anderswo im Land anhängig. Gleichzeitig ist die EU bereit, den weltweit ersten umfassenden rechtlichen Rahmen für künstliche Intelligenz, das KI-Gesetz, innerhalb des nächsten Jahres zu verabschieden. Der Gesetzesentwurf für das KI-Gesetz bezeichnet KI-Systeme, die bei der Einstellung verwendet werden, ausdrücklich als „hochriskant“ und diese Systeme werden intensiv geprüft. Details darüber, wie das Gesetz durchgesetzt wird, sind jedoch noch nicht verfügbar.
Das lokale Gesetz 144 von New York City ist das erste in den USA, das die Verwendung von algorithmischer Entscheidungsfindung bei der Einstellung behandelt. Experten sind der Meinung, dass es als Modell für die zukünftige Gesetzgebung in diesem Bereich dienen wird. Das Gesetz schreibt insbesondere vor, dass ein Tool, das automatisierte Entscheidungen über die Einstellung oder Beförderung trifft, einer Vorurteilsprüfung unterzogen werden muss, und dass Arbeitgeber*innen, die solche Tools verwenden, die Ergebnisse dieser Audits veröffentlichen müssen. Software-Lösungen für die Einstellung, die Black-Box-Algorithmen verwenden, um Einstellungsentscheidungen zu treffen, die weder die Bewerber*innen noch die Personalvermittler*innen erklären können, werden es schwer haben, dieses neue regulatorische Regime einzuhalten.
Auch verwandte Rechtsstreitigkeiten nehmen zu. Eine anhängige Sammelklage wirft beispielsweise vor, dass die internen Screening-Tools eines großen HRIS-Anbieters, die die Annahme oder Ablehnung von Bewerbungen empfehlen, schwarze Bewerber*innen oder jene mit Behinderungen oder die älter als 40 sind, unverhältnismäßig oft disqualifizieren. In einem anderen Beispiel hat ein Arbeitgeber, der seine Einstellungssoftware so programmiert hat, dass Bewerber*innen basierend auf dem Alter automatisch abgelehnt werden, eine von der EEOC eingereichte Durchsetzungsmaßnahme beigelegt.
So denkt Greenhouse über die Integration von KI in den Einstellungsprozess
Für viele unserer Kund*innen ist die Vereinfachung des Personalbeschaffungsprozesses mit KI oder maschinellem Lernen (ML) trotz der potenziellen rechtlichen Risiken sehr überzeugend. Der Schlüssel wird sein, sicherzustellen, dass KI auf verantwortungsvolle und ethische Weise für den Einstellungsprozess angewendet wird.
Da sich der moderne Arbeitsplatz weiter verändert, wird erwartet, dass interne Personalbeschaffungsteams zunehmend ihre Leistungsmetriken überwachen, darüber berichten und effizient arbeiten. Viele davon können durch KI oder ML erreicht werden, um einige der Schritte auf dem Weg zur Einstellung der richtigen Personen zu automatisieren. Der universelle Zugang zum Internet und die drastische Verlagerung zur Remote-Arbeit aufgrund der COVID-Pandemie bedeuten, dass viele Unternehmen eine beispiellose Anzahl von Bewerbungen aus einem erweiterten geografischen Spektrum erhalten. Die Fähigkeit, diese Bewerbungen auf optimale und skalierbare Weise zu sortieren, ist entscheidend für die Einrichtung und Aufrechterhaltung eines erfolgreichen Einstellungsprogramms.
Das Bedürfnis nach Geschwindigkeit muss jedoch immer mit der Wahrscheinlichkeit abgewogen werden, dass Algorithmen, die mit historischen Einstellungsdaten trainiert wurden, bestimmte Bevölkerungen überrepräsentieren. Darüber hinaus können KI-Algorithmen langjährige Vorurteile gegen Gruppen von Menschen aufrechterhalten, die im Beschäftigungskontext traditionell diskriminiert wurden. Personalvermittler*innen können ihre eigenen Vorurteile durch Achtsamkeit korrigieren; ein KI-generierter Algorithmus ist von Natur aus undurchsichtig und besitzt diese Fähigkeit nicht. Einfach ausgedrückt, könnte die Verwendung von KI oder ML, um die menschliche Entscheidungsfindung bei der Einstellung zu ersetzen, selbst bei den besten Absichten zu einem inakzeptablen Kompromiss führen, bei dem faire, gerechte und zuverlässige Einstellungsergebnisse der Effizienz zum Ofer fallen.
Es ist gut, sich der potenziellen Herausforderungen von KI im Einstellungsprozess bewusst zu sein – aber mit einer bedachten Anwendung, dem Bewusstsein für Fallstricke und einer klaren Absicht kann die KI so viele Vorteile bieten.
Aus diesem Grund sollten Unternehmen sich die Zeit nehmen, die Möglichkeiten zur Automatisierung in ihren Personalbeschaffungs- und Einstellungspraktiken sorgfältig zu bewerten, um sowohl vorurteilsbehaftete Ergebnisse als auch unerwünschte rechtliche Folgen zu vermeiden.
Greenhouse verwendet KI nicht, um die menschliche Entscheidungsfindung zu ersetzen
Es gibt viele Aspekte der Einstellung, die durch KI-fähige Automatisierung oder Rationalisierung drastisch verbessert werden können, ohne dass ein zusätzliches Risiko von Vorurteilen entsteht – wie die Verwendung generativer KI, um die Erstellung von Stellenausschreibungen zu unterstützen, oder die Technologie für Schulungskalender, um auf Anfragen in natürlicher Sprache zu antworten, um Vorstellungsgespräche zu planen, unter Berücksichtigung der Verfügbarkeit aller relevanten Teilnehmer*innen. Diese Art von Innovation, die keinen direkten Einfluss darauf hat, ob Bewerber*innen letztendlich eingestellt oder abgelehnt werden, ist nicht das Ziel der aktuellen Gesetzgebung, die KI-Einstellungstools regelt. In der Tat enthält die Funktionen von Greenhouse bereits einige dieser Technologien, und wir planen, in den kommenden Monaten und Jahren Produktverbesserungen in dieser Richtung zu verfolgen.
Die Vereinfachung umständlicher Entwurfs- und Planungsaufgaben, die nicht anfällig für Vorurteile sind, ist jedoch weit davon entfernt, einen Algorithmus über die Eignung von Bewerber*innen für eine Stelle bestimmen zu lassen. Um das Risiko von Vorurteilen zu vermeiden, das mit diesem Szenario verbunden ist, ist die Software von Greenhouse absichtlich so konzipiert, dass Menschen in jeden Schritt des Einstellungsentscheidungsprozesses involviert sind. Wir verwenden kein ML oder andere algorithmische Techniken, um automatisch Empfehlungen zur Verfügung zu stellen, Qualitätsbewertungen zu vergeben oder Bewerber*innen zu bewerten, da dies unser Engagement für Fairness und Transparenz im Einstellungsprozess gefährden würde. Darüber hinaus würde dies Gesetze wie das lokale Gesetz 144 von NYC verletzen.
Greenhouse-Kund*innen können den Bewerbungsprozess optimieren, ohne rechtliche oder ethische Stolpersteine zu verursachen, indem sie mit unseren regelbasierten Automatisierungsfunktionen sicherstellen, dass Menschen (und nicht Algorithmen) immer noch alle Entscheidungen darüber treffen, welche Qualifikationen für eine bestimmte Rolle erforderlich sind und ob Bewerber*innen diese Qualifikationen erfüllen. Greenhouse kann den Prozess der Ablehnung von Bewerber*innen automatisieren, aber nur basierend auf ihrer isolierten Antwort auf eine benutzerdefinierte Frage, die nach dem alleinigen Ermessen des Arbeitgebers ausgewählt und erstellt wird, ohne dafür Trainingsdaten oder maschinelles Lernen heranzuziehen.
Wenn Sie beispielsweise für eine bestimmte Stelle nach Bewerber*innen mit mehr als fünf Jahren Erfahrung suchen, können Sie ihr Greenhouse-Konto so konfigurieren, dass Bewerber*innen, die auf diese Frage mit „nein“ antworten, automatisch abgelehnt werden. Es gibt keine Black Box – es ist ein Entscheidungsfindungsprozess, der leicht zu verstehen ist und allen Beteiligten wertvolle Zeit und Energie spart, die bei der Suche besser genutzt werden kann.
Mit Greenhouse wissen Menschen immer darüber Bescheid, welche Bewerber*innen am besten geeignet sind. Dies bedeutet, dass Greenhouse kein „automatisiertes Tool für die Beschäftigungsentscheidung“ ist und daher nicht unter das lokale Gesetz 144 von NYC fällt – ebenso wie unter alle anhängigen oder zukünftigen Gesetze, die Systeme regeln möchten, die Bewerber*innen nach Algorithmus einstellen oder Bewerber*innen auf der Grundlage von maschinellem Lernen bewerten.
Greenhouse verfolgt die relevanten rechtlichen Entwicklungen und setzt sich dafür ein, dass unsere Kund*innen für die Zukunft einstellen und Vorurteile reduzieren können.
Unser Ansatz des Structured Hirings ermöglicht es Unternehmen, die Abstimmung zwischen Recruiter*innen und Hiring Managern zu erleichtern, die Erfahrung der Bewerber*innen zu verbessern und allgemein bessere Personaleinstellungen zu realisieren. Erfahren Sie mehr über unseren KI-Ansatz und die Entwicklungen bei Produktinnovationen.