Menschenwürdiges Arbeiten mit KI

In vielen Anwendungen steckt KI. Oft versteckt – aus wirtschaftlichem Interesse oder weil wir hinsichtlich der Auswirkungen noch nicht genug sensibilisiert sind. Es braucht einen transparenten Dialog zum Umgang mit KI und daraus entwickelt einen Wegweiser für menschenwürdiges Arbeiten. Hierzu trägt der Ethikbeirat HR-Tech bei. Zu seinen Richtlinien einige Ergänzungen.

1. Transparenter Zielsetzungsprozess: Wissen, was wir noch nicht wissen können?

Die Zielsetzungen der einzuführenden KI-Lösung müssen transparent und umfassend formuliert werden. Kritisch ist hierbei ist, dass die Einbeziehung *aller* an der KI unmittelbar wie mittelbar Beteiligten nicht immer gewährleistet werden kann. Denn: KI wird sich per definitionem nicht immer eingrenzen lassen. Bestimmte Automatisierungen oder komplexe Entscheidungsprozesse sind schwer im Vorfeld zu erfassen. Die KI wird uns auf Fragen Antworten geben, die wir noch nicht gestellt haben.

Die Beteiligungs- und Mitbestimmungsprozesse sind daher ebenfalls transparent zu gestalten. Ein nicht verzichtbarer Faktor, der aber schwer durchsetzbar ist, wenn nicht gleichzeitig entsprechende Führungsstrukturen, Prüfroutinen, Sachkenntnis der beteiligten Gremien und eine *externe* Überprüfbarkeit gegeben sind. Ein KI-Beauftragter müsste demnach an entsprechende Behörden berichten und von Zielkonflikten innerhalb eines Unternehmens befreit sein.

2. Fundierte Lösungen: Ein neuer KI-TÜV?

Die Ausgestaltung und Weiterentwicklung der KI-Qualitätsstandards und Gütesiegel sind von höchster Relevanz. Im Vergleich zu den aktuell führenden KI-Nationen können dediziert europäische Werte wie Transparenz, Qualität, Überprüfbarkeit und Standards einen langfristigen Vorteil bieten, wenn wir lernen, diese als Stärke einzusetzen.

Für die Qualitätsbeurteilung muss jedoch federführend der Staat in seiner sozioökonomischen Pflicht sowie seinem sicherheitspolitischen Auftrag einen adäquaten Gestaltungsraum bekommen, um gemeinsam mit der Wirtschaft entsprechende Qualitätskriterien zu entwickeln.

3.  Menschen entscheiden: Oder auch nicht?

Eine menschliche Entscheidung kann kontraproduktiv sein, wenn die Wertschöpfung ohne den Menschen, aber mit Einsatz von KI wesentlich höher ist – aber betrifft das nicht auch die soziale Integrität?

Ist ein Mitarbeiter aufgrund der feinen Schwankungen im Arbeitsverhalten als „abwanderungsgefährdet“ identifiziert, ist es nur ein kleiner Schritt zum Mitarbeitergespräch. Ist das wünschenswert? Dass die Personalentwicklung solche Trends in der Belegschaft erkennen kann, mag vorteilhaft sein. Bei dem Anspruch, dass Menschen entscheiden, müssen Systemergebnisse einem Gremium zur letztlichen Entscheidung zugeführt werden. Aber wie sehen solche Prozesse und Richtlinien im praktischen Alltag aus? Das sind entscheidende Fragen, insbesondere dann, wenn der Mensch gerade nicht entscheiden soll, kann oder im Vertrauen auf „das KI-System“ nicht will.

4. Notwendiger Sachverstand: Verstehen wir noch, was mit uns passiert?

Wie sichern wir den fachgerechten Umgang und die nachhaltige Entwicklung von KI – und zwar am Standort Deutschland? In einer globalisierten Ökonomie werden wir immer Schnittstellen zur internationalen Zusammenarbeit aufbauen und pflegen müssen. Es ist jedoch wichtig, dass Europa und Deutschland in entscheidenden Schlüsseltechnologien die jeweiligen Fachkompetenzen entwickeln und fördern.

Um das zu erreichen, müssen wir Fachkompetenzen an Schulen und Universitäten stärken, Public Private Partnerships ausbauen, Aus- und Weiterbildung von Personal gewährleisten und entsprechende Anreize setzen. Es kann keine KI-Lösung nachhaltig in Unternehmen eingeführt werden, wenn die entsprechenden Fachkompetenzen dauerhaft an Dritte ausgelagert sind. Sobald solche Fähigkeiten beim externen KI-Anbieter liegen, entstehen fatale, unternehmerisch riskante wie auch sicherheitsrelevante Abhängigkeiten.

5. Haftung und Verantwortung: Ist der Algorithmus schuld?

Fragen zur Haftung und Verantwortung sind nur durch entsprechende regulatorische Rahmenrichtlinien zu beantworten – ausgestattet mit einem Katalog an fördernden wie auch restriktiven Maßnahmen. Des Weiteren müssen Haftungsprozesse entlang der kompletten Wertschöpfungskette geklärt werden.

Dazu ein Beispiel: Warum sollte sich ein Personaler nicht auf die transparente, schlüssige KI-basierte Empfehlung für einen Kandidaten verlassen können? Vielleicht weil diese KI-Anwendung mit den falschen Datensätzen trainiert worden ist und unbemerkt vorurteilsbelastete Ergebnisse herausgibt? Haftet nun der Zulieferer der KI? Die Aufarbeitung eines solchen Falls, wenn ein abgelehnter Bewerber klagt, kann recht komplex werden.

Auch problematisch: Wie geht man mit den vielen freiwerdenden Stellen um, die durch KI-Einsatz entstehen werden? Welche Rolle spielt die Mitbestimmung? In welcher rechtlichen Haftung (und moralischer Pflicht) steht das Unternehmen?

6. Zweckbindung und Datenminimierung: Geht das überhaupt mit KI?

Der Ruf nach Zweckbindung ist inspiriert durch das Bundesdatenschutzgesetz und der Europäischen Datenschutzgrundverordnung (DSGVO). Hier hat es seinen Sinn, Daten nicht ohne die Bindung an einen spezifischen, vorab zu kommunizierenden Zweck und nicht ohne Einwilligung zu erheben.

KI ist allerdings im explorativen Bereich gerade auf hohe Mengen an Daten angewiesen. Um das noch zu verschärfen, erzielen KI-gesteuerte Systeme oft den größten Mehrwert, wenn sie Daten in ihre Bewertungen einbeziehen können, die unspezifisch, zweckfremd und anderweitig erhoben und erfasst wurden. Es entstehen neue Korrelationsmuster und Erkenntnisse, die sonst nicht erkennbar gewesen wären.

So sind z.B. nötige Maßnahmen zur Mitarbeitermotivation frühzeitig erkennbar, um die Kündigung einer Fachkraft zu vermeiden. Es kann durchaus unternehmenskritisch sein, das Sozialverhalten eines Mitarbeiters zu kennen. Was aber aus deutscher oder europäischer Sicht fragwürdig erscheinen mag, ist in anderen Ländern teilweise gelebte Praxis. Wie geht man mit diesem Datenhunger der KI in Abwägung zwischen Datenschutz und Wertschöpfung um?

7. Informationspflicht: Wie behalte ich die Übersicht?

Bei explorativen KI-Anwendungen werden Daten über viele verschiedene und zum Teil nicht mehr nachvollziehbare Verarbeitungsschritte aus unterschiedlichen Quellen und über mehrere Dimensionen genutzt. Hier greifen viele Systeme ineinander, die eine klar strukturierte Nutzung und die Eingrenzung der daran beteiligten Systeme nicht immer transparent gewährleisten können.

Der Ruf nach Datensystemen, die nur in der Hand der Datenurheber liegen, werden immer lauter. Die Idee: Jede Person verwaltet seine eigenen Daten hoheitlich und kann so Nutzungsrechte vergeben und entsprechend entziehen. Das wäre ein entscheidender Paradigmenwechsel in der Datennutzung. Ich halte solche Modelle für den Erfolg zukünftiger KI-Anwendungen für wegweisend. Nur so kann eine Informationspflicht nachhaltig sichergestellt werden.

8.  Achten der Subjektqualität: Wollen wir alles sehen?

Diese Dimension wird für KI-Lösungen entscheidend sein. Wie unter Punkt 6 ausgeführt, wird die Erfassung von Daten, die ein Mensch unkontrolliert bzw. nicht willentlich preisgibt, nicht vermeidbar sein. Das wird umso kritischer, wenn Verarbeitungsschritte durch einen Dritt-Dienstleister geschehen.

Viele Social Media-Daten werden anhand dieser Kriterien verarbeitet. Die Klassifizierung von Gender-Merkmalen oder das Ziehen von Rückschlüssen aus Gesichtsform und Mimik auf sexuelle Präferenzen sind nur ein paar der banal wirkenden, aber durchaus relevanten Beispiele, die wir in den letzten Jahren gesehen haben. Es werden zudem bereits heute Algorithmen bei video-gestützten Kandidateninterviews verprobt, die die Reaktionen der Kandidaten automatisch auswerten. Wie stellen wir also sicher, dass zukünftig solche Daten aus dem Kandidaten-Profil ausgeschlossen werden?

9. Datenqualität und Diskriminierung: Shit-In, Shit-Out Prinzip?

Offensichtliche Diskriminierung ist bei KI-Systemen, die auf Unmengen von Datenpunkten zurückgreifen, oft in den Details versteckt. So kann z.B. die Auswertung des Krankenstandes in einem Unternehmen zwar mit äußeren Faktoren korrelieren, aber nicht ursächlich zusammenhängen und so zu den falschen Schlüssen führen.

Was werden wir wirklich erleben, wenn Unternehmen über alle Prozessschritte und Mitarbeiterinteraktionen einen konstanten Datenstrom erfassen und auswerten? Es kommen bereits jetzt falsche Auswertungen zustande, die z.B. behaupten, Männer wären produktiver, weil die Datenbasis falsch eingegrenzt oder gewichtet wurde. Durch KI können Vorurteile und Diskriminierung signifikant verstärkt werden. Die Haftungsrisiken sind hoch und bisher kaum zu kalkulieren – hier müssen neue Qualitätsstandards und Steuerungsinstrumente aufgesetzt und zur freiwilligen wie auch vorgeschriebenen Anwendung verabschiedet werden.

10. Stetige Überprüfung: Freiwilligkeit, Kontrollinstanzen & technische Kontrolle

Ich glaube nicht an die durchgängige Freiwilligkeit von Unternehmen, die sich einem Kodex unterwerfen und selbstregulierend auf eine mögliche Wertsteigerung des Shareholder Values durch KI verzichten würden: ein klassischer Zielkonflikt zwischen Profit und Ethik. Wir brauchen, aufbauend auf einem Kodex, ein gut austariertes System von Kontrollinstanzen und Führungsmodellen (Governance), das mit entsprechenden Befugnissen und Rechten ausgestattet ist. Ex-post Kontrolle, Möglichkeiten zur Begehung und Einsichtnahme gehören genauso dazu wie rein technische Lösungen zur automatischen Erkennung von Befangenheit, Reportingsysteme, klar definierte IT-Schnittstellen in den Prozessen und ein wesentlich überarbeiteter, KI-angepasster Datenschutz.

Abschluss: zum Wegweiser für KI und menschenwürdiges Arbeiten werden

Es geht verstärkt darum, dass solide, gut definierte, anpassbare, aber auch transparente Grundlagen geschaffen werden, die mit den Ansprüchen der zukünftigen Entwicklungen mitwachsen.

Wir brauchen dringend eine übergreifende, konzertierte Verprobung mit der Wirtschaft: exemplarische Testanwendungen, die verschiedene Stakeholder in einem Prozess und einem Unternehmen einbeziehen und schnell die Schwachstellen wie auch Stärken sichtbar machen. Deutschland und Europa können dabei gemeinsam zu einem globalen Wegweiser werden und erfolgreich testen, wie KI und menschenwürdiges Arbeiten zusammen einhergehen können.


Über den Autor

Pascal Morgan war u.a. CIO der Coca-Cola Company und ist heute als Speaker, Berater und Coach im Bereich der digitalen Transformation tätig.

Pascal Morgan ist Technologiepionier, kreativer Denker, leidenschaftlicher Sprecher und branchenübergreifender Berater für Digitale Transformation. Er blickt zurück auf eine über 27-jährige Karriere in den Bereichen IT, Technologie, Medien und Innovation als Executive und Stratege für Fortune-500-Unternehmen und Branchenführer wie Coca-Cola, Deutsche Telekom, AOL und Pixelpark.

Er ist Gründer von think.speak.transform., wo er sich mit den Themen Vernetzung, Beratung, Forschung, Transformation, disruptive Technologien, neue Geschäftsmodelle und ethische Herausforderungen für eine nachhaltige Zukunft auseinandersetzt. Er ist Mitglied des Vorstands bei EUTEC (European Technology Chamber), Co-Gründer und Beirat des Company Builders ‚United Peers‚ und u.a. auch regelmäßiger Guest Lecturer an Universitäten zu den Themen Innovation und Transformation.

Schreibe den ersten Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.