Künstliche Intelligenz (KI) und ChatGPT als ihre derzeit wohl nutzerfreundlichste Anwendung, sind in der modernen Arbeitswelt angekommen. Auch das Recruiting, die Branche, in der ich tätig bin, ist hiervon betroffen. Hätte man unserem talentsconnect Senior Recruiter Kai vor einem Jahr erzählt, dass bald ein Chatbot kommt, der ihm bei der Erstellung von Jobprofilen und Interviewleitfäden helfen kann – for free! –, wären ihm wahrscheinlich die Augen ausgefallen. Heute ist das Realität und fühlt sich auf der Sonnenseite super an! Aber spätestens, wenn ChatGPT anfängt, rassistische Stellenanzeigen zu formulieren oder Jobinteressenten mit robotischen Antworten auf ihre Nachfragen zu vergraulen, offenbaren sich auch einige Schattenseiten.
Mich fasziniert dabei ein Aspekt besonders: Nicht, WIE ChatGPT, Bard & Co. unsere Personalbeschaffung verändern werden, sondern besonders auch der Einfluss solcher Technologien darauf, WEM wir letztlich einen Vertrag zuschicken.
Welche Chancen und Gefahren birgt es für Kandidat:innen und folglich Arbeitgeber:innen, wenn wir das Recruiting an einen Chatbot “outsourcen”?
Genau das habe ich ChatGPT selbst gefragt, und die Antwort lässt sich in einem Satz zusammenfassen: Wenn wir uns zu sehr auf die eintrainierten Algorithmen solcher KI-Technologien verlassen, wird der menschliche Faktor im Recruiting reduziert. Dies wiederum kann Konsequenzen für die Auswahl von Mitarbeitenden und deren gesamten Employee Life Cycle haben.
Ist das wirklich immer schlecht? Immerhin ist Unconscious Bias immer wieder Gegenstand von Diversity Trainings im Personalbereich … Um dem auf den Grund zu gehen, müssen wir zunächst verstehen, wie KI funktioniert. Die heutige, sogenannte “schwache” KI kann noch nichts grundlegend Neues erfinden; sie kann nur das, was schon da ist, auf bestimmte Ziele optimieren. Darin ist sie sehr gut, aber menschliche Kreativität und Inspiration kann sie nicht ersetzen. Ein einfaches Beispiel hierfür: Wer einmal online ein Sofa gekauft hat, bekommt immer wieder personalisierte Ads für weitere Sofas eingespielt - nie aber für die Sofakissen!
Zurück in der HR Welt können wir uns anhand der typischen Aufgaben eines Recruiting-Verantwortlichen verdeutlichen, welche Folgen dieses Defizit der KI für die Kandidat:innen und potenziellen Mitarbeitenden haben kann. Drei solcher täglichen To-Dos in der Personalauswahl sind 1) Stellenanzeigen schreiben, 2) Bewerber:innen vorauswählen und 3) die Kommunikation zwischen Bewerber:innen und dem Fachbereich unterstützen.
Stellenanzeigen: Per Chatbot definieren, wen man sucht
Der Recruiting Prozess beginnt typischerweise mit einer Jobanalyse, bzw. einer entsprechenden Stellenanzeige. Sprich, die Recruiter:innen prüfen, welche Arten von Tätigkeiten ausgeübt werden und welche Qualifikation potenzielle Kandidat:innen mitbringen sollen. ChatGPT und weiterführende Technologien können Recruiter:innen Vorschläge für Stellenanzeigen machen und diese beispielsweise ansprechender für die Zielgruppe gestalten. Auch könnte man ChatGPT dazu auffordern, automatisch Übersetzungen bereitzustellen und möglichst so zu formulieren, dass das Ergebnis hoch bei Suchmaschinen rankt. Ein Plus für Kandidat:innen, denn so stoßen sie auf Stellenanzeigen, die sie sonst vielleicht nicht gefunden hätten und fühlen sich durch die passende Ansprache auch noch motivierter, sich tatsächlich zu bewerben.
Andererseits gibt der Algorithmus das wieder, was er in der Vergangenheit gelernt hat: Und das sind häufig diskriminierendes Wording und nicht inklusive Aufgabenbeschreibungen. Ein Vergleich der Plattform Develop Diverse über 7000 zufällig ausgewählte Stellenanzeigen zeigte, dass die Sprache von KI-generierten Stellenanzeigen durchschnittlich 40% mehr Bias, also kognitive Verzerrungen, aufwiesen als aktuelle Anzeigen, die durch Menschen formuliert waren. Untersucht wurde die Sprache der Stellenanzeigen z.B. auf diskriminierende Ausdrücke zu Alter, Ethnie und Geschlecht. Der Einsatz von KI kann also historische Ungerechtigkeiten reproduzieren und einer diversen Belegschaft potenziell im Weg stehen.
ChatGPT gibt an, gegen Bias und Diskriminierung in den Algorithmen vorzugehen. Dies kann jedoch leicht umgangen werden, wie folgender Twitter-Post beeindruckend zeigt - der Chatbot kategorisiert weiße Männer automatisch als gute Wissenschaftler.
Bewerber:innen Screening: Eine automatisierte Vorauswahl treffen
Tools, die auf Large Language Models (LLM) wie GPT-4 aufbauen, werden schon heute dafür genutzt, um CVs zu scannen und so die geeignetsten Kandidat:innen effizient aus dem Bewerberpool herauszufischen. Das ist toll für Recruiter:innen, die im Jahr 2022 durchschnittlich 27 Stellen gleichzeitig zu betreuen hatten (zum Vergleich: Personio empfiehlt eine Betreuung von maximal 10 Stellen). Gesetzt den Fall, dass die Stellenanzeige inklusiv verfasst und die Auswahlkriterien objektiv formuliert wurden, so verspricht ChatGPT in diesem Schritt eine fairere Auswahl der Kandidat:innen, da rein auf Fertigkeiten, Erfahrung und den erreichten Bildungsabschluss geschaut wird. Der Name, das Bewerbungsfoto im Lebenslauf, sowie evtl. Angaben zum Alter der Bewerber:innen spielen keine Rolle. Datenschutzrechtlich ist dies möglich, wenn Jobsuchende solchen Methoden beim Abschicken der Bewerbung aktiv zustimmen.
Allerdings könnte hierin auch ein Schwachpunkt liegen. Hier kommt wieder der “menschliche Faktor” ins Spiel: Denn in unserer modernen Arbeitswelt zählen immer mehr auch Soft Skills wie Kommunikation und Empathie, sowie die Fähigkeit, sich Wissen eigenständig anzueignen und auf neue Situationen anzuwenden. Es ist zu vermuten, dass ein automatisierter CV Scan solchen Feinheiten zwischen den Zeilen weniger Bedeutung zuschreibt. Quereinsteiger:innen oder Menschen, die ähnliche Soft Skills in nicht priorisierten Branchen erworben haben, können hier leicht übersehen werden – oder sie sehen im schlimmsten Fall entmutigt von einer Bewerbung ab, weil sie wissen, dass diese automatisiert verarbeitet wird.oder, wenn sie wissen, dass mit Automatisierung gearbeitet wird, sogar gleich ganz entmutigt werden, sich zu bewerben.
Jobinterviews: Die Kommunikation durch KI streamlinen
Ein Großteil der anfänglichen Bewerber:innenkommunikation lässt sich mit Anwendungen automatisieren, die mit ChatGPT oder anderen LLM arbeiten. Im Extremfall beginnt dies bei Chatbots, welche individuelle Fragen der Bewerber:innen beantworten, und reicht über ein erstes standardisiertes (KI-geführtes) Interview, bis hin zur maschinellen Vereinbarung von Kennenlern-Terminen zwischen dem Fachbereich und den Kandidat:innen. Ein großes Problem im Recruiting liegt derzeit in langsamen Prozessen und Absprachen. Viele gute Kandidat:innen nehmen in mehreren Bewerbungsprozessen gleichzeitig teil. Für die Unternehmen birgt ChatGPT das Potenzial, der Konkurrenz zeitlich voraus zu sein und die begehrtesten Talente schnell anzusprechen.
Doch auch die talentiertesten Mitarbeiter:innen schöpfen ihr Potenzial nur voll aus, wenn sie sich mit dem Unternehmen verbunden und wertgeschätzt fühlen. Menschen arbeiten für Menschen, und ein gutes Onboarding beginnt schon beim Bewerbungsprozess. Und genau hierin liegt ein Risiko. So berichtet Haufe, dass immer mehr Mitarbeitende in den ersten 100 Tagen kündigen. Gründe hierfür: mangelnde Einarbeitung und ein wenig realistischer Ausblick auf den eigentlichen Job während des Bewerbungsprozesses. Die automatisierte Kommunikation könnte dazu führen, dass neue Mitarbeitende erst spät im Prozess in den persönlichen Austausch gehen und so grundlegend weniger Commitment zu ihrem neuen Unternehmen aufbauen. Letztlich kann kein Chatbot dieser Welt den Bewerber:innen vermitteln, was es wirklich bedeutet, in der neuen Firma zu arbeiten.
Wie wir sicherstellen, dass die Chancen durch ChatGPT für die Personalauswahl die Risiken überwiegen
ChatGPT ist mächtig. Und mit großer Macht kommt große Verantwortung, das wissen wir spätestens seit Spiderman. So beeindruckend die Vorteile von ChatGPT im Recruiting auch sind: Die große Stärke solcher Technologien kann zu einer noch größeren Schwäche werden, wenn wir sie nicht verantwortungsvoll nutzen. Wurden im Recruiting von Entscheider:innen bisher individuelle Bauchentscheidungen getroffen, die unbewusst bestimmte Stereotype verstärkten, so kann eine im gesamten Unternehmen genutzte Technologie diesen Bias strukturalisieren und die getroffenen Entscheidungen “gefährlich objektiv” erscheinen lassen. Jegliche KI und insbesondere ChatGPT ist und bleibt ein Tool, welches unterstützend eingesetzt werden sollte, um Routineaufgaben mit weniger Aufwand zu erledigen. Die gewonnene Zeit sollten Recruiter:innen in Zukunft dafür einsetzen, den “Human Factor” in ihrer Personalarbeit zu stärken - durch einen kreativen, menschlichen und ganzheitlichen Blick auf alle ihre Entscheidungen.