Ein KI-Algorithmus behandelt Patienten, lenkt Autos, kauft Immobilien, zieht in den Krieg und kann über Leben und Tod entscheiden. Darf er das und werden ethische Prinzipien eingehalten?

Die wohl häufigste ethische Problemgröße der KI-Systeme ist die Fairness.

Im Optimalfall kommt die künstliche Intelligenz, abhängig vom Anwendungsfall, auch bei der Betrachtung einer Minderheit und deren sozio-kulturellen Eigenschaften zu einem gleichwertigen Ergebnis.

Dies ist jedoch bei einer Vielzahl an umgesetzten KI-Systemen nicht der Fall und einzelne Gruppen werden gegenüber anderen bevorzugt. („Bias“)

Ein solcher Bias ist zumeist bei der Entwicklung eines KI-Systems nicht offensichtlich erkennbar und kann somit im Echtbetrieb zu großen Problemen führen.

Fallbeispiel bias KI - Das System COMPAS

Das amerikanische Justizwesen implementierte ein System (COMPAS), das aufgrund von personenbezogenen Daten (Bilder, Alter, Herkunft…) Personen in Kriminalitätsklassen einteilt.

Dies bedeutet: Wenn dem System Personendaten zur Verfügung gestellt werden, so gibt es Auskunft darüber, wie hoch die vom System geschätzte Wahrscheinlichkeit ist, dass derjenige zukünftig wieder eine Straftat begehen wird.

Dieses System wird in einigen amerikanischen Bundesstaaten als Assistenzsystem für gerichtliche Entscheidungen eingesetzt und kann daher unter Umständen Gerichtsurteile beeinflussen.

Vor wenigen Jahren wurde das System jedoch genauer durchleuchtet und man konnte feststellen, dass es unter gewissen Umständen grobe Fehlentscheidungen, auf Kosten von schwarzen Häftlingen, trifft. So stufte es zu jenem Zeitpunkt dunkelhäutige Häftlinge als doppelt so gefährlich wie hellhäutige Häftlinge ein.

Das KI System COMPAS behandelt schwarze Personen nachteilig

In der Darstellung ein Auszug der Resultate von COMPAS. Hierbei kann man erkennen, dass Dunkelhäutige, trotz der harmloseren Strafregister, als gefährlicher eingestuft wurden.1

Wie kam nun COMPAS zu diesen Ergebnissen?

Hinter der COMPAS-Software stecken intelligente Algorithmen, die mit einer Vielzahl von Gefangenen-Daten trainiert worden waren. Diese Trainingsdaten bestanden jedoch mehrheitlich aus Daten von dunkelhäutigen Häftlingen, die schlussendlich für den resultierenden Bias sorgten.

AUSWIRKUNGEN VON „UNFAIRNESS“ AUF UNTERNEHMEN

Da Unternehmen auf künstlicher Intelligenz basierende Systeme oftmals mit Fokus auf Kunden oder Mitarbeiter einsetzen, ist gerade deswegen verstärkte Sorgfalt geboten.

Eine wahrgenommene Diskriminierung kann das Vertrauen zu Kunden oder Mitarbeitern schädigen und eventuell langfristig negativ beeinflussen. Aus diesem Grund ist eine genaue Durchleuchtung der implementierten KI-Systeme auf einen vorliegenden „Bias“ unbedingt erforderlich.

Wie kann man der Unfairness künstlicher Intelligenz entgegenwirken?

  1. Gleichverteilung der Datenbestände Oftmals liegen Ungleichverteilungen in den Basisdaten vor. Diese muss man durch verstärkte Datensammlung oder durch eine Reorganisation des Datenbestandes auflösen.
  2. Kontrafaktische Analyse Oftmals entsteht durch eine Vielzahl an zusammenhängenden Kausalketten eine solche Diskriminierung. Diese sind zumeist nicht auf den ersten Blick erkennbar und erfordern analytische Vorgehensmethoden.
  3. KI-Modell-Architektur adjustieren Durch diverse Anpassungen der KI-Modell-Architektur ist es möglich einem solchen „Bias“ entgegenzuwirken.
  4. Standardisierter Dokumentationsprozess für Entwickler Oftmals liegt die Hauptursache darin, dass sich die Entwickler aufgrund mangelnder Zeit oder mangelnden Interesses nicht mit solchen sozio-ethischen Fragenstellungen auseinandersetzen. Diesem Problem kann man durch die Einführung eines standardisierten KI-Dokumentationsprozesses entgegenwirken. Dadurch werden Entwickler dazu angeregt, sich genau mit diesen Problemgrößen auseinanderzusetzen.

  1. Primärquelle Bilder: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing