KI-Ethik II: Warum wir eine Qualitätskontrolle brauchen

Künstliche Intelligenz macht keine Fehler, doch genau das kann zu einem großen Problem werden.

KI-Ethik II: Warum wir eine Qualitätskontrolle brauchen

Im ersten Teil der kleinen KI-Serie ging es bereits um die Frage, warum wir Künstliche Intelligenz nicht überall bedenkenlos einsetzen sollten. Warum wir auch dann genau hinsehen müssen, wenn KI für sehr lobenswerte Zielsetzungen eingesetzt wird, zeigt dieser zweite Teil.

Wer kontrolliert die Entwicklung von KI und deren gesellschaftskonforme Qualität?

Die Frage, wofür wir KI wirklich einsetzen wollen, also beispielsweise zur lückenlosen Überwachung der Bevölkerung, wird uns langfristig beschäftigen. Ein ganz anderes, aber keineswegs geringeres Problem stellt die Kontrolle der KI dar: Was genau macht sie, welche Daten werden genutzt, und wie wird sichergestellt, dass die Ergebnisse den gesellschaftlichen Werten und Normen entsprechen?

Die Anwendung von Künstlicher Intelligenz bedeutet immer auch einen gewissen Kontrollverlust. Egal, ob es sich um einen einfachen oder komplexen Algorithmus handelt, um eine schwache oder eine starke KI, um Machine oder Deep Learning – all diese unterschiedlichen Formen sind für uns größtenteils intransparent. Wir wissen, dass Facebook unseren persönlichen Newsfeed mit einem Algorithmus generiert, wir können aber von außen nicht erkennen, warum uns Inhalte angezeigt werden und welche uns aus welchen Gründen vorenthalten werden. Das weiß nicht mal Facebook, sondern nur der Algorithmus. Dennoch entsteht daraus ein Teil unserer persönlichen Realität.

Wie problematisch die Übertragung von Entscheidungen an eine KI sein kann, zeigen verschiedene Beispiele, bei denen es paradoxerweise um die Vermeidung von Diskriminierungen und Benachteiligungen ging. KI-Anwendungen unterstützen uns schon heute bei der Vergabe von Krediten, bei der Auswahl der besten Kandidaten für Vorstellungsgespräche, oder bei der Berechnung der Wahrscheinlichkeit, mit der ein Krimineller zum Wiederholungstäter wird. In all diesen Bereichen kam es in der Vergangenheit häufig zu Diskriminierungen. Die sollen nun mittels KI ausgeschlossen werden. Die Basis dafür ist die Annahme, dass eine KI rein objektiv urteilt, da sie frei von diskriminierendem oder emotionalem Denken ist.

Die künstlichen Entscheidungsträger müssen aber mit hohem Aufwand trainiert werden, damit sie die gewünschte Anforderung erfüllen können. Sie sind nicht in einem Sinne intelligent, dass man ihnen einfach eine neue Aufgabe gibt und sie erfüllen diese wie gewünscht. Sie benötigen eine möglichst große Datenbasis, aus der sie die erforderlichen Muster und Regelmäßigkeit ableiten können. Die dafür eingesetzten Daten bestimmen maßgeblich die Qualität der späteren Ergebnisse und sind zugleich oft die Schwachstelle: Da sie menschliche Entscheidungen simulieren sollen, werden zum Training in der Regel auch menschliche Entscheidungen aus der Vergangenheit genutzt. Die Datenbasis kann unter Umständen nicht gewünschte Muster enthalten, die die KI erkennt und nutzt. Damit verstärken sich die diskriminierenden Anteile in den Entscheidungen aber im schlimmsten Fall – nämlich dann, wenn die KI die Diskriminierung als Muster erkennt. Zudem fehlt ihr der moralische Kompass, mit dem ein Mensch seine Entscheidungen nochmals überdenken kann. Dazu kommen die fehlende Transparenz bei der Datenbasis und das mangelnde Bewusstsein, dass auch KI-Entscheidungen diskriminierend sein können.

Auch KI kann diskriminieren

Das Vertrauen in die Entscheidungen einer Künstlichen Intelligenz steigt, wie eine Bitkom-Umfrage zeigt: „6 von 10 Bundesbürgern würden in bestimmten Situationen eher die Entscheidung einer KI akzeptieren als die eines Menschen“. Aber ist dieses Vertrauen auch gerechtfertigt?

Es gibt Beispiele, die das Gegenteil zeigen. So entwickelte Amazon bereits 2014 einen Bewerbungsroboter, der aus der Fülle an Bewerbungen automatisch die für eine freie Stelle am besten geeigneten Kandidaten vorauswählen sollte. Später stellte sich heraus, dass die KI Frauen benachteiligte. Der Grund liegt in einer Mustererkennung, die die Entwickler nicht vorausgesehen haben: Da in der Technologie-Branche mehr Männer als Frauen arbeiten, schlussfolgerte die KI, dass sich Männer eher für das Unternehmen begeistern können und filterte Frauen heraus. Es gibt weitere ganz ähnliche Beispiele, bei denen die eingehenden Bewerbungen mit den erfolgreichen Einstellungen der letzten Jahre verglichen wurden. Eigentlich ein sinnvolles Vorgehen, nur verbergen sich in den Daten der Neueinstellungen oft schon diskriminierende Muster, die die KI erkennt und anschließend selbst nutzt.

Dass wir nicht alle Muster vorhersehen, die von einem Algorithmus erkannt werden, zeigt der Harvard-Student Tyler Vigen mit seinen „Spurious Correlations“. Demnach gibt es zum Beispiel zu 99,79 Prozent eine Korrelation zwischen den US-Ausgaben für Wissenschaft, Raumfahrt und Technologie und der Zahl der Selbstmorde durch Erhängen, Strangulieren und Ersticken. Das sagen zumindest die Daten. Wir ahnen schnell, dass dies kein Ursache-Wirkungszusammenhang sein kann, doch eine Maschine versteht nur die Aussagekraft der Daten, denn eine Überprüfung der Plausibilität setzt ein grundsätzliches Verständnis der Untersuchungsgegenstände voraus, den die KI aber nicht besitzt.

Weitere Beispiele

ProPublica listet zahlreiche Fälle auf, bei denen die datenbasierten Prognosen für Wiederholungstaten bei Straftätern in den USA von rassistischen Vorurteilen geprägt waren.

Forscher fanden heraus, dass die menschliche Sprache nicht zum Training von KI geeignet ist, da sich sonst kulturelle Vorurteile manifestieren.

Ein sehr offenes Training kann ebenfalls schnell Probleme verursachen, wie Microsoft mit seinem Chatbot Tay erfahren musste.

Fazit:

Die Entwicklung einer diskriminierungsfreien KI ist also auf einen Datensatz angewiesen, der selbst keine diskriminierenden Muster enthält. Das zu erkennen, ist die eigentliche Herausforderung, denn nicht immer sind Benachteiligungen offensichtlich. Dabei dürfen wir auch nicht vergessen, dass KI-Diskriminierungen nicht immer ungewollt sind, sie können auch gezielt eingesetzt werden, um den Anschein von Objektivität zu erwecken.

Ausblick: Im abschließenden dritten Teil der KI-Ethik-Serie stellen wir verschiedene Initiativen vor, die bereits Anforderungen für eine Kontrolle der KI formuliert haben.