Corporate Digital Responsibility muss mehr als geltendes Recht abbilden

Die „Zehn Regeln für den verantwortungsvollen Einsatz von KI in Human Resources“ des Ethikbeirats HR-Tech sind aus ethischer und unternehmerischer Perspektive unbedingt zu begrüßen. Als Bündelung der aktuellen Rechtslage bieten sie für Personaler wichtige Informationen – als gelungene Selbstverpflichtung müssen sie jedoch darüber hinaus reichen.

Corporate Digital Responsibility

Das Aufstellen ethischer Grundregeln verpflichtet das eigene Handeln. Demnach liegt der ethische Sinn von Selbstverpflichtungen vor allem darin, über die rechtlich sowieso bindenden Regeln hinaus, die eigene, branchenspezifische Verantwortung zu erkennen, zu benennen und in das eigene wirtschaftliche Handeln zu integrieren. Denn wozu brauchte man extra Ethik, wenn man „nur“ das rechtlich Gebotene einhält? In digitalen Zeiten kann man diese ethische Reflektion des eigenen Handelns „Corporate Digital Responsibility“ nennen; erkennbar knüpft dies an „Corporate Social Responsibility“ und die Diskussionen darum an.

Was rechtlich erlaubt ist, ist ethisch nicht immer richtig

In unserer ethisch-philosophischen Beratungsfirma (dimension2 consult) helfen wir Unternehmen, diese „Lücke“ zwischen „legal“ (rechtlicher Rahmen) und „legitim“ (was in moralischem Sinne richtig wäre) zu benennen und ökonomisch wertschaffend in Prozesse zu implementieren. Und: Nicht immer ist das, was rechtlich erlaubt ist, auch ethisch richtig. Auch hier helfen wir, Awareness zu schaffen und praktische Konsequenzen zu entwickeln.

Unseres Erachtens ist eine wichtige Testfrage für gelungene Selbstverpflichtungsregeln vor allem, ob sich Elemente finden lassen, die nicht bereits durch das Recht abgedeckt werden und somit zum Standard gehören. Zu den zehn Richtlinien des Ethikbeirats HR-Tech fällt uns aus dieser Perspektive deshalb Folgendes auf: Der vorliegende Entwurf geht kaum über das gesetzliche Mindestmaß hinaus.

Transparenzforderung bereits durch DSGVO eingeführt

Der erste Punkt fordert einen transparenten Zielsetzungsprozess: „Vor der Einführung einer KI-Lösung muss die Zielsetzung für die Nutzung geklärt werden. In diesem Prozess sollen alle relevanten Interessensgruppen identifiziert und eingebunden werden.“ Die Transparenzforderung, oft auch als Recht auf Erklärbarkeit bezeichnet, wurde mit dem in Kraft treten der EU-DSGVO (Art. 12 und 13) bereits gesetzlich verpflichtend eingeführt. Ebenso setzt die Verarbeitung von personenbezogenen Daten die Identifikation und Abwägung berechtigter Interessen schon als Rechtsgrundlage (Art. 6 DSGVO) voraus.

Warum nur bei wichtigen Personalentscheidungen?

Die dritte Richtlinie besagt „Menschen entscheiden: Wer KI-Lösungen einsetzt, muss sicherstellen, dass die Handlungsträgerschaft der Menschen bei wichtigen Personalentscheidungen nicht eingeschränkt wird.“ Hier stellt sich die Frage, warum dies nur bei wichtigen Personalentscheidungen erfolgen soll und nicht bei allen. Wir denken, dass es keine unwichtigen Personenentscheidungen gibt. In dem Interview mit Dr. Elke Eller in der Konsultationsfassung der Richtlinien ist ja auch die Rede davon, dass „Menschen stets das letzte Wort haben“ sollen – gerade in sensiblen Bereichen und speziell im Kontext von automatisierten Entscheidungen weist auch hier die DSGVO (Art. 22) bereits daraufhin, dass die Letztentscheidungsbefugnis einer natürlichen Person obliegt.

Insbesondere Richtlinie fünf, die die Haftung und Verantwortung behandelt und diese den Nutzern von KI zuweist, verdeutlicht: Die elementare Funktion ethischer Leitlinien (i.e. praktische Orientierungsdirektiven aufzeigen) ist noch zu unkonkret, da sie keine Handlungsempfehlung darstellt, sondern eine Tatsache festhält.

Informationspflicht zu schwach formuliert

Auch Punkt sieben ist uns zu schwach formuliert. Hier wird zum Thema Informationspflicht u.a. Folgendes festgehalten: „Vor bzw. beim Einsatz einer KI-Lösung müssen die davon betroffenen Menschen über ihren Einsatz, ihren Zweck, ihre Logik und die erhobenen und verwendeten Datenarten informiert werden.“ Einerseits existieren auch hierzu schon umfangreiche gesetzliche Regelungen. Andererseits geht es in der Praxis inzwischen gar nicht mehr allein um vollständig automatisierte Entscheidungen, wie das Beispiel der algorithmisch-unterstützten Studienplatzvergaben in Katalonien und Frankreich gezeigt hat (Anm.: Der französische Gesetzgeber hat deshalb an dieser Stelle mit zusätzlichen Regulierungen für nicht vollständig automatisierte algorithmenbasierte behördliche Entscheidungen schon nachgelegt). Dort wo Menschen von algorithmischen Entscheidungen betroffen sind (etwa Ablehnung einer Stellenbewerbung oder auch die Einladung zum Bewerbungsgespräch) müssen die Menschen davon informiert sein. Doch speziell in der Art und Weise – wie diese Informationen sinnvoll aufbereitet werden können – besteht derzeit großes Gestaltungspotential (siehe bspw. Art. 12 Abs. 7 DSGVO), auf welches in den Richtlinien leider nicht weiter eingegangen wird

Datenqualität, Diskriminierung und stetige Überprüfung

Mit Blick auf Punkt neun und zehn – also den Richtlinien zu „Datenqualität und Diskriminierung“ sowie zur „Stetige[n] Überprüfung“ – ließe sich noch anmerken, dass neben der Überprüfung bei der Weiterentwicklung von KI-Technologien auch eine regelmäßige Ergebnis-Kontrolle aufgrund der bisherigen Erfahrungen in bestehenden Systemen wichtig ist, um Fehlentwicklungen rechtzeitig zu erkennen (Diskriminierung, Außerachtlassen von Parametern, etc.). Falls das durch diese beiden Punkte mitabgedeckt werden sollte, erscheint uns die Ausformulierung etwas unglücklich.

Übersetzung und Verdichtung des bestehenden rechtlichen Rahmens

Zusammenfassend handelt es sich bei den „ethischen“ Richtlinien aus unserer Sicht primär um eine Übersetzung und Verdichtung des bestehenden rechtlichen Rahmens. Das Dokument wäre demnach für eine nach innen gerichtete Informationsmaßnahme, d.h. für Mitarbeiterinnen und Mitarbeiter aus dem HR-Bereich zu empfehlen, die die DSGVO noch nicht kennen. Nach außen gerichtet informieren die Richtlinien über einige zentrale Punkte der Betroffenenrechte. Ethisch gesehen geht die Selbstverpflichtung aber nicht über rechtliche Mindeststandards hinaus. Ein Ethiker/eine Ethikerin (Philosoph:in, Theolog:in) und mehr Fachfremde hätten dem Ethikbeirat gutgetan – so wirkt es doch wie eine interne HR-Gruppe, die der eigenen Branche nicht weh tun will.

Cover der Konsultationsfassung der Richtlinien für den verantwortungsvollen Einsatz von KI in HR: ein männliches und ein weibliches Business-Avatar, jeweils ohne Kopf - dafür mit einem digital anmutenden Gehirn.
Die Konsultationsfassung der Richtlinien für den verantwortungsvollen Einsatz von KI in HR lassen sich auf der Website des Ethikbeirates downloaden.

Die Autoren

Prof. Dr. Alexander Filipović ist Professor für Medienethik an der Hochschule für Philosophie in München. Unter anderem arbeitet er zur Ethik der Künstlichen Intelligenz und ist sachverständiges Mitglied in der Enquete-Kommission des Deutschen Bundestages zur Künstlichen Intelligenz. Er koordiniert das Netzwerk Medienethik und leitet zusammen mit Klaus-Dieter Altmeppen das zem::dg – Zentrum für Ethik der Medien und der digitalen Gesellschaft. Er ist Partner bei der Unternehmensberatung dimension2 economics & philosophy GmbH.

Christopher Koska ist freiberuflicher IT Project Manager und Digital Architect, Partner bei der Unternehmensberatung dimension2 economics & philosophy GmbH und freier Forschungsmitarbeiter am zem::dg. Er promoviert im Themenfeld Algorithmenethik und konzipiert Lösungen, um ethische Leitlinien in Unternehmen lebendig werden zu lassen.

Schreibe den ersten Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert