AI im Recruiting: Lasst es uns ausprobieren!
27.04.2020
Von Dr. Philipp Seegers
Wie viel Verantwortung wir uns von künstlicher Intelligenz abnehmen lassen dürfen, steht seit Jahren im Fokus der öffentlichen Diskussion rund um die Anwendung von Algorithmen. Auch im Personalwesen werden die Chancen neuer Technologien thematisiert und, zurecht, kritisch beäugt. Nicht selten fehlt diesen Debatten jedoch der praktische Bezug. Dies führt zu Unsicherheiten, wenn es darum geht, wie Algorithmen bei der Lösung eines Problems überhaupt konkret helfen können und wie sie tatsächlich funktionieren.
Im Recruiting sollte es nicht länger darum gehen, ob Algorithmen helfen sollen, sondern ob sie konkret helfen können
Warum die Automatisierung des Vorauswahlprozesses von Kandidaten sinnvoll sein kann, wurde in vielerlei Hinsicht in den letzten Jahren beantwortet und ist den meisten Entscheidungsträgern im Personalwesen bewusst: Der Prozess ist deutlich schneller, wenn zum Beispiel Lebensläufe maschinell ausgewertet werden können und dann erst in vorsortierter Form weiter begutachtet werden. Allerdings sollte AI nicht einfach nur bisherige Prozesse automatisiert abbilden, sondern den Anspruch haben diese zu verbessern. Und hier birgt die Digitalisierung des Vorauswahlprozesses die Chance, Diskriminierung im Recruiting abzubauen.
Die Frage, wie genau solche Algorithmen aussehen sollen, ist jedoch nicht eindeutig beantwortet. Die Möglichkeiten und Auswirkungen von computergestützten Auswahlverfahren sind in der Forschung und bei Unternehmen noch nicht vollständig untersucht. Zwar können manche Lebenslaufinformationen, wie zum Beispiel Bildungsabschlüsse bereits wissenschaftlich fundiert und fair miteinander verglichen werden, aber es besteht bei der vollständigen Automatisierung des Auswahlprozesses weiterhin die Gefahr, dass auf Arbeitserfolg trainierte Algorithmen bestehende Diskriminierung fortschreiben und so manifestieren. So plädiert auch unsere Kooperationspartnerin im FAIR-Projekt, Prof. Pia Pinger von der Universität zu Köln: „Der Forschungsstand muss diesbezüglich erweitert werden, um ethisch vertretbare Algorithmen entwickeln zu können und mit Validierungsstudien die Wirksamkeit der Technik transparent darzustellen." Nur dann kann das Vertrauen von Unternehmen gewonnen werden, sich der Implementierung solcher Technologien zu widmen. FAIR, ein Projekt von HR-Tech Unternehmen candidate select und der Universität zu Köln, hat sich genau dies zur Aufgabe gemacht und forscht an Methoden, die Diskriminierung eines Algorithmus zu messen.
Wie genau muss so ein Algorithmus aussehen?
Algorithmen, die eine Vorauswahl von Kandidaten treffen sollen, müssen Informationen wie Bildung, Arbeitserfahrung, soziales Engagement und spezielle Fähigkeiten analysieren können und dabei valide Voraussagen treffen, ohne bestimmte Gruppen zu diskriminieren. Die Gefahr besteht also nicht nur darin, dass Algorithmen diskriminieren, sondern auch, dass sie zwar automatisierte, aber schlechte Entscheidungen treffen.
Ein Beispiel: Bildungsabschlüsse lassen sich vordergründig über den erreichten Abschluss und die Abschlussnote qualifizieren. Schon im Jahresbericht des Wissenschaftsrat 2012 (Seite 9, Absatz 1, Drs. 2627-12, Hamburg 09.11.2012) wird angemerkt, dass Vergleiche auf diesem Niveau nicht ausreichend Informationen für eine sinnvolle Voraussage liefern. Noten ergeben nur im genauen Kontext Sinn, weshalb Abschlüsse auf Schul- bzw. Programmebene betrachtet werden sollten. Grundsätzlich muss ein Modell auf Basis von Kontextinformationen die Komplexität reduzieren, um anschließend anhand von Trainingsdatensätzen weniger komplexe Faktoren optimieren zu können. Oder, in den Worten meines Mitgründers Dr. Jan Bergerhoff: "In Deutschland gibt es über 5.000 verschiedene Schulen, an denen das Abitur erworben werden kann. Da zentral gestellte Abschlussprüfungen nur einen kleinen Teil der finalen Abiturnote ausmachen, weist in der Praxis jede dieser Schulen einen unterschiedlichen Notenstandard auf. In der Konsequenz gibt es auch innerhalb einzelner Bundesländer Abweichungen in der Durchschnittsnote von mehr als einem Notenschritt. Darüber hinaus ist die Leistungsdichte an verschiedenen Schulen unterschiedlich.“ Klassische “Machine-Learning”-Anwendungen sind hier in Anbetracht der limitierten Trainingsdaten und der hohen Komplexität im Bildungssystem schlicht nicht in der Lage brauchbare Vorhersagen zu treffen – ganz unabhängig davon, ob solche Algorithmen einzelne Gruppen diskriminieren.
Wenn Technologie transparent erklärt und wissenschaftlich validiert ist, schwindet die Skepsis
Um gemeinsam Digitalisierung und die Optimierung bestehender Prozesse durch neue Technologien voranzutreiben, müssen sich Anbieter und HR-Abteilungen gleichermaßen öffnen. Die einen sollten bereit für neue Technik und aufklärende Gespräche sein, und die anderen müssen ihre Algorithmen transparenter erklären. Und vor allem, selbst der beste Experte kann einen Algorithmus nicht ohne Datengrundlage überprüfen. Deswegen gilt, HR und auch andere Bereiche sollten bereit sein, verantwortungsvoll Daten zu sammeln und zu analysieren. Datengetriebene HR-Arbeit findet viel zu selten statt, dabei ist dies die Grundlage dafür zu beantworten, ob ein Algorithmus in einem bestimmten Kontext valide Voraussagen trifft und diskriminierungsfrei arbeitet. Wie Algorithmen auf Diskriminierung überprüft werden können, erklärt Larissa Fuchs von der Universität zu Köln im Blog Beitrag „Fair Play - Das Zusammenspiel von Mensch und Maschine im Recruiting“. Diese Analysen sind im Übrigen auch die Bedingung dafür, dass solche Verfahren überhaupt langfristig eingesetzt werden. Und, natürlich sollte die Evaluation auch neben dem Einsatz weiterlaufen – auch das kann man automatisieren. Das alles ist natürlich mehr Arbeit als grundsätzlich einseitig auf die Vorteile oder aber auch auf die Gefahren von AI hinzuweisen. Aber wenn AI die aktuellen Prozesse nicht nur digital abbildet, sondern diese auch tatsächlich durch bessere Einstellungen und weniger Diskriminierung verbessert, dann eröffnen wir wirtschaftliche Potentiale die dies in jedem Fall rechtfertigen.
Zum Autor:
Dr. Philipp Karl Seegers beschäftigt sich als „Labour Economist" mit dem Übergang zwischen Bildung und Arbeitsmarkt. Zusammen mit Dr. Jan Bergerhoff und Dr. Max Hoyer hat Philipp das HR-Tech Unternehmen candidate select GmbH (CASE) gegründet, welches große Datensätze und wissenschaftliche Methoden nutzt, um Bildungsabschlüsse vergleichbar zu machen. Philipp ist Projektleiter des durch das Land NRW und die EU geförderten Projektes FAIR („Fair Artificial Intelligence Recruiting“). Darüber hinaus forscht Philipp als Research Fellow der Maastricht University und als Initiator der Studienreihe „Fachkraft 2030“ aktiv an Fragestellungen im Bereich Bildungsökonomie, psychologische Diagnostik und Arbeitsmarkt.