Richtlinien: Chancen von KI stärker herausstellen!

Gerade die HR-Abteilung ist der organisationale Bereich, der am wenigsten datengetrieben ist, obwohl es hier diverse Einsatzmöglichkeiten von KI gibt. Der Ethikbeirat HR-Tech hat hierzu Richtlinien erarbeitet, um eine (reflektiertere) Nutzung von KI im Personalbereich voranzutreiben – scheint dabei jedoch in der positiven Bewertung konkreter Anwendungsszenarien vorsichtig.


Gedämpfte Stimmung in Deutschland

Künstliche Intelligenz oder auch KI bzw. AI im Englischen – ein Begriff den frau oder man in letzter Zeit nicht mehr los wird, so auch in der HR-Abteilung. Bislang wurde in Deutschland diesbezüglich entlang der Employee Journey (im Vergleich zu anderen Ländern) sehr vorsichtig gearbeitet und das Thema kontrovers diskutiert. Die mediale Berichterstattung und Diskussionsrunden sind hierzulande vor allem stark in der Betonung dystopischer Zukunftsszenarien, u.a. in der Singularity-Debatte (Mensch oder Maschine?). Umso wichtiger scheint es, diesen Diskurs fachlich und ethisch zu rahmen und (hoffentlich!) voranzubringen, weshalb im Dezember 2018 der Ethikbeirat HR-Tech gegründet wurde. Dieser besteht aus 17 Wissenschaftler*innen, Gewerkschafter*innen und (Personal-) Manager*innen aus Unternehmen und Start-ups. Am 24. Juni 2019 veröffentlichte der Ethikbeirat HR-Tech einen ersten Entwurf für zehn Richtlinien, die den Umgang mit Künstlicher Intelligenz im HR-Management verantwortungsvoll gestalten sollen. Diese Richtlinien sind noch offen für Anregungen und Kommentare, um den Diskurs so partizipativ wie möglich zu halten.

Sinnvolles iteratives Vorgehen im Diskurs

Das iterative Vorgehen, das angesprochen wird, scheint für den anzustoßenden Diskurs, in dem viel noch geklärt und eine gehörige Portion Fachkenntnis vermittelt werden muss, angemessen. Die auf den S. 14/15 angebotene Übersicht mit Begriffsklärungen wie Big Data oder Blockchain ist daher sehr gelungen, ebenso wie die Benennung von Einsatzmöglichkeiten innerhalb des Employee Lifecycle (S. 26). Anwendungsbereiche sind etwa der Rekrutierungsprozess, das Performance-Management und diagnostische Eignungstest (z.B. für eine Führungsposition). Häufig geht es darum, von Daten auf zukünftiges Potenzial und Verhalten von Mitarbeiter*innen zu schließen.

Es wird betont, dass die Richtlinien „keine in Stein gemeißelten Gebote sind, sondern Vorschläge, die im Lauf einer anhaltenden Diskussion und praktischer Erfahrungen immer wieder angepasst werden können“. Diese urdemokratische Ausrichtung wird auch durch die Verwendung des Gendersternchens (leider nicht immer konsequent: Mitarbeitersuche, S. 16) und die diverse Zusammensetzung des Ethikrates bzgl. Alter, Geschlecht und Branche unterstützt. Allerdings stellt sich die Frage, wie diese Perspektive mit dem geforderten Ziel „normativer Meinungsbildung“ (S. 11) zusammenpasst. Doch eher top-down? Auch eine paritätische Zusammensetzung sollte bei bis dato zwölf Männern vs. fünf Frauen überdacht werden.

Praktikabilität und Inhalt weiter ausbaufähig

Die Richtlinien klingen insgesamt sehr sinnvoll. Wer allerdings einen Beitrag zu den Richtlinien leisten will, muss sich durch eine hybride gestaltete Textsorte – sind Richtlinien doch meist kompakter gehalten – aus Empfehlungen, Interviews und Schlagworterklärungen von über 20 Seiten arbeiten, die mit gängigen Vorurteilen und negativen Perspektiven auf KI in einem typisch deutschen Diskurs konfrontieren. Die Häufigkeit des Risiko-Begriffs, Passagen unter Zwischenüberschriften wie „Schwarzmalerei führt nicht weiter“, „Algorithmen-basierte Prognosen sind mit Vorsicht zu genießen“ und KI-Systeme tun nur schlau sowie diverse Negationen (kein, nicht) vermitteln eine eher negative Textstimmung. Das Erklären von KI-Technologien anhand von Negativbeispielen wie die Reproduktion von Vorurteilen gegenüber „schwarzen Straftäter*innen“ (sprachkritisch: Wo bleibt hier die Ethik?) und Lügendetektorenunterstützt diesen Eindruck. KI-Technologien sollen die Subjektqualität, also die willentliche Selbstbestimmung des Menschen achten. Es sollen keine „Daten erhoben [werden], die Menschen willentlich weder zur Verfügung stellen noch beeinflussen können.“ Diese Empfehlung ist durchaus kritisch zu hinterfragen, wenn ein Mitglied des Beirats HR-Tech der CEO des Technologieunternehmens PRECIRE ist, das aus 15-minütigen Sprachproben die Persönlichkeit von Bewerber*innen erkennen will, die Software jedoch scheinbar auf einer einzigen Stichprobe von 300 Probanden beruht und bezüglich ihrer prognostischen Validität in Fachkreisen diskutiert wird

Vorteile von KI im HR-Bereich stärker fokussieren

Chancen und Möglichkeiten von KI, wie sie Personalabteilungen unterstützen und effizienter machen kann, sind in den Richtlinien weniger abgebildet. Gerade in der HR-Abteilung gibt es diverse, bereits gut belegteEinsatzmöglichkeiten von KI, vor allem in den sprachlichen Daten, die in der HR-Abteilung zusammenfließen, z.B.: Kann eine Stellenanzeige bestimmte Zielgruppen wie Frauen ansprechen (um einen Male Bias zu reduzieren)? Kann schlechte Stimmung im Team anhand sprachlicher Aussagen aufgedeckt werden? In der Tat gibt es derzeit noch vereinzelte Probleme mit KI-Lösungen, z.B. diskriminierende Bewerbungsroboter, welche zum Beispiel in männerdominierten Branchen weibliche Bewerbungen herausfiltern, da sie von den bisherigen Textmerkmalen männlicher Mitarbeiter lernten. Das System kann also einen bestehenden Bias reproduzieren. Dennoch kann KI aber auch helfen, den menschlichen Bias (der in der Regel viel größer ist), zu erkennen

Spezifische Intelligenz der KI für den menschlichen Bias nutzen

Marek Posard von der University of Maryland (2014) ließ Studierende mit einem Computer interagieren. Vordergründig ging es um das Austesten von zukünftigen Prüfungsfragen. Hintergründig ging es um das Testen von Geschlechterstereotypen. Das Ergebnis lautete: Der Computer mit männlicher Stimme wurde um 1.490 Dollar teurer eingeschätzt als derjenige mit weiblicher Stimme (5.870$ vs. 4.380 $). Ähnliche Befunde ergeben sich auch bei Leistungsbeurteilungen oder Einschätzungen zu Führungsfähigkeit, wobei Frauen global schlechter abschneiden. In unseren eigenen Untersuchungen (vgl. Burel/Spitzer/Tschütz,2018) analysierten wir einen Korpus mit 32.000 Online-Stellenanzeigen und stellten fest, dass gerade in besser bezahlten Jobs sowie Führungspositionen stereotyp männlich codiertes Vokabular genutzt wurde (ehrgeizig, analytisch etc.), das Frauen abschreckte. Hier kann KI helfen. Die Sprachanalyse unseres Softwarepartners „100 Worte“, greift auf eine Liste von 54.600 indikativen Wörtern aus 62 Studien aus Psychologie und Linguistik zurück, mit denen wir Stellenanzeigen analysieren und so optimieren, dass sich bis zu 33% mehr Frauen bewerben. Im Bereich Gender Equality und Diversity kann KI demnach unterstützend wirken, wenn sie mit menschlicher Kompetenz kombiniert wird.

Vertiefung des Diskurses

Wir brauchen definitiv einen Ethikbeirat HR-Tech. Wir brauchen allerdings auch HR-Partner*innen, die offen für KI-Projekte sind. Derzeit wird in Deutschland der Chatbot Betty für HR getestet, der bislang noch relativ lange Antwortzeiten aufweist, aber auf häufig gestellte Fragen bereits verlässlich antwortet. Mit dem Ethikbeirat HR-Tech ist eine Vertiefung des Diskurses definitiv möglich und Berührungsängste in Unternehmen können behutsam reduziert werden. Die Richtlinien liefern einen wichtigen Auftakt in einen neuen Abschnitt progressiver HR-Arbeit. Eine Kurzfassung, die auch für weniger lesebegeisterte Menschen attraktiv ist sowie eine Aufbereitung für andere (Social-Media-) Kanäle, empfiehlt sich hierzu.


Über die Autorin

Dr. Simone Burel ist Geschäftsführerin von LUB GmbH – Linguistische Unternehmensberatung und vor allem im Bereich Strategieentwicklung im Kommunikations-, Personal- und CSR-Bereich tätig. Dr. Simone Burel ist daneben als Keynote-Speakerin und in der Weiterbildung zu sprachlichen Themen für Konzerne und Ministerien tätig. Sie ist Mitglied im Wirtschaftsrat Deutschland, Mentorin an den Universitäten Mainz und Konstanz, Autorin zahlreicher Publikationen sowie Gastautorin bei wallstreet online. Ihre wissenschaftlichen Arbeiten wurden bereits von der Gesellschaft für Angewandte Linguistik sowie dem Karriereportal academics für ihre enorme Praxisrelevanz ausgezeichnet, ihr Unternehmen vom Wirtschaftsförderpreis der Stadt Mannheim.


Schreibe den ersten Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert