Wer es bis zum Bewerbungsgespräch schafft, muss in manchen Unternehmen zunächst das maschinelle Auswahlverfahren überstehen.
Foto: dpa/Christin Klose

BerlinWer sich heute um einen Job bewirbt, muss davon ausgehen, dass seine Bewerbung von einem Algorithmus gescannt wird, bevor sie in den Händen eines Personalers landet. 99 Prozent aller Fortune-500-Unternehmen, darunter Starbucks, Nike und Airbnb, nutzen automatisierte Systeme (Applicant tracking systems, kurz ATS), um Bewerbungen zu filtern. 

Theoretisch soll damit Diskriminierung nach Geschlecht, Alter oder Herkunft verhindert werden. Eine Maschine schert sich nicht darum, ob ein Bewerber Thomas oder Tarek heißt. In der Praxis sieht das allerdings anders aus. Denn die Machine-Learning-Algorithmen werden mit historischen Daten trainiert, die durch den Menschen verzerrt sind.

Algorithmen identifizieren in riesigen Textmengen Regelmäßigkeiten – zum Beispiel, dass der Beruf Programmierer meist mit männlichen Namen in Verbindung steht – und leiten daraus Muster ab. Der Mann ist Ingenieur, die Frau Erzieherin. Dieser Bias wirkt sich dann wiederum auf Personalentscheidungen aus.

So hat Amazons Bewerbungsroboter zwischen 2014 und 2017 systematisch Bewerberinnen diskriminiert. Das Problem: Das Modell war darauf trainiert, Muster von erfahrenen Bewerbern mit über zehn Jahren Berufserfahrung zu selektieren. Und weil das in der Praxis überwiegend Männer sind, hat das System Frauen aussortiert. Das System brachte sich selbst bei, dass Männer bei der Bewerbung bevorzugt werden, indem es beispielsweise Lebensläufe, die das Wort „women’s“ (etwa in „women’s chess club captain“) enthielten, schlechter bewertete. Auch Mädcheninternate wurden automatisch downgegradet.

Verstärkung von Diskriminierungspraktiken durch eine Maschine

Zwar hat Amazon das Modell nachjustiert. Eine Garantie, dass die Maschine nicht doch diskriminiert, gibt es aber nicht. Maschinenethiker kritisieren, dass durch solche Black-Box-Systeme Diskriminierungspraktiken verstärkt und Stereotype zementiert werden.

Natürlich ist auch der menschliche Bewerbungsprozess eine Black Box. Man kann nicht in den Kopf des Personalers hineinschauen. Und man kann ihm auch schlecht nachweisen, dass man wegen seines Geschlechts oder Gewichts für die Stelle abgelehnt wurde, weil ja immer andere Gründe eine Rolle gespielt haben könnten.

Die Diskriminierung beginnt aber nicht erst bei der Bewerbung, sondern bereits bei der Stellensuche. Eine Untersuchung der Northeastern University und University of Southern California kam zu dem Ergebnis, dass Facebook-Anzeigen für Supermarkkassierer zu 85 Prozent Frauen ausgespielt wurden, Jobs für Taxifahrer zu 75 Prozent Schwarzen. Wegen selektiver Werbeanzeigen reichten im vergangenen Jahr US-Anwaltskanzleien Diskriminierungsklage gegen Facebook ein.

Auch die Sprache kann ein Diskriminierungsmerkmal sein. Zwar sind Telefoninterviews insofern blind, als der Interviewer den Kandidaten und damit seine Hautfarbe nicht sehen kann. Doch wie jemand am Telefon klingt, hat einen Einfluss darauf, ob man einen Job bekommt. Die US-Management-Dozentin Faye Cocchiara fand in einer Studie heraus, dass Arbeitgeber Jobbewerber anhand soziolinguistischer Merkmale kategorisieren – und diskriminieren. So gibt es im Soziolekt des African-American Vernacular English (AAVE) bestimmte Wörter wie „Yo“, die den Sprecher einer Ethnie ausweisen. Und das kann einem in einer bestimmten Phase des Auswahlprozesses zum Nachteil gereichen.

Immer mehr Unternehmen setzen auf KI-gestützte Recruitment-Tools wie die Interview-Software Hirevue. Während der Bewerber Fragen des Interviewers vor einer laufenden Kamera beantwortet, wird sein Gesicht von einem Algorithmus gescreent. Die KI analysiert zum Beispiel Worthäufungen sowie Veränderungen der Mimik und Stimme. Zuckt der Bewerber mit den Wimpern? Läuft er rot im Gesicht an? Wird seine Stimme zittrig? Maschinen detektieren kleinste Regungen, sogenannte Mikroexpressionen, die dem Menschen verborgen bleiben. Während eines halbstündigen Interviews sammelt die Software bis zu 500.000 Datenpunkte. Laut einem Bericht der „Washington Post“ sollen mit der Software bereits 12 Millionen Bewerber weltweit gescreent worden sein. Der Algorithmus entscheidet mit, wer den Job bekommt. Die Frage ist nur: Wie neutral ist das Werkzeug?

Die US-Bürgerrechtsorganisation Electronic Privacy Information Center (EPIC) hat im vergangenen Jahr offiziell Beschwerde bei der Verbraucherschutzbehörde FTC eingereicht: Das System von Hirevue produziere Ergebnisse, die „verzerrt, nicht nachweisbar und nicht replizierbar“ seien. Menschen mit Autismus, die Augenkontakt meiden und dem Sprecher auf den Mund schauen, würden durch eine solche Software benachteiligt. Vielleicht sollte man doch darüber nachdenken, Menschen statt Maschinen einzusetzen. Die haben zwar Vorurteile. Aber eben auch die Fähigkeit zur Empathie, die Maschinen abgeht.