KI-Ethik III: Welche Kontroll-Anforderungen gibt es?

Wenn Maschinen immer mehr Entscheidungen für Menschen treffen, stellt sich auch die Frage: Wer kontrolliert sie?

KI-Ethik III: Welche Kontroll-Anforderungen gibt es?

Algorithmen sind das Produkt aus menschlicher Programmierung und dem Training mit Daten, die Menschen ausgesucht haben. Damit sind sie am Ende so voreingenommen, wie die Menschen, die an der Entstehung beteiligt waren. Dazu kommen die Absichten, die mit dem Algorithmus verfolgt werden, die selbst gegen gesellschaftliche Werte und Normen verstoßen können. Algorithmen können also explizit oder implizit Muster erkennen und als Standard definieren, die gesamtheitlich betrachtet unerwünscht sind.

Verhindern lässt sich das nicht automatisch, aber wir können an einer Qualitätskontrolle arbeiten, die nicht gewünschte “Biases” (kognitive Verzerrungen) erkennen und korrigieren kann. Eine solche Kontrollinstanz wird umso wichtiger, je größer die Auswirkungen einer auf KI basierenden Entscheidung auf gesellschaftliche Prozesse werden. Dabei ist es wichtig zu verstehen, dass eine Offenlegung des Quellcodes nur ein Teil der notwendigen Kontrolle sein kann. Ein Algorithmus kann selbst mit den besten Absichten programmiert werden, doch wenn die Trainingsdaten unerwünschte Muster enthalten, kann das Ergebnis dennoch problematisch sein. Daher gehört zu einer wirksamen Kontrolle von KI-Anwendungen auch ein Einblick in die Datenbasis und eine Dokumentation der beabsichtigten Zielsetzungen.

 

Initiativen für KI-Ethik

Es gibt bereits einige Initiativen, die sich konkrete Gedanken darüber gemacht haben, welche Anforderungen eine KI-Kontrolle erfüllen muss.

 

Ethik-Kodex #alorules

Zusammen mit der Bertelsmann Stiftung erarbeitet der Think Tank iRights.Lab einen Gütekriterienkatalog für gesellschaftlich relevante Algorithmen. Dazu läuft seit Ende November 2018 auch eine Online-Umfrage zur Bürgerbeteiligung. Folgende Kriterien wurden bereits aufgestellt:

1. Kompetenz aufbauen
Die Funktionsweisen und Wirkungen von Algorithmen müssen verstanden werden.

2. Verantwortung zuweisen
Für die Wirkungen eines algorithmischen Systems muss eine natürliche Person verantwortlich sein.

3. Ziele und erwartete Wirkung nachvollziehbar machen
Die Ziele und die erwartete Wirkung eines Algorithmus müssen nachvollziehbar gemacht werden.

4. Sicherheit gewährleisten
Der Einsatz von algorithmischen Systemen muss sicher sein.

5. Transparenz erhöhen
Der Einsatz eines algorithmischen Systems muss gekennzeichnet sein.

6. Beherrschbarkeit sichern
Der Einsatz von algorithmischen Systemen muss beherrschbar sein.

7. Wirkung überprüfen (lassen)
Die Auswirkungen eines algorithmischen Systems auf den Menschen müssen regelmäßig überprüft werden.

8. Korrigierbarkeit herstellen
Entscheidungen eines Algorithmus dürfen nie unumkehrbar sein.

 

D64: Grundwertepapier „Künstliche Intelligenz“

Der Think Tank „D64 – Zentrum für Digitalen Fortschritt“ hat ein Grundwertepapier zur KI erarbeitet, in dem 18 konkrete Forderungen formuliert wurden, die sicherstellen sollen, dass KI als wesentlicher Teil der Digitalisierung zu einem gesellschaftlichen Fortschritt beträgt. Dazu gehört beispielsweise die Schaffung eines Ethikrats auf nationaler und globaler Ebene, die Anpassung der rechtlichen Rahmenbedingungen und eine Modernisierung der Datenschutzgesetze im Sinne der Bürgerinnen- und Bürgerrechte.

 

AI Now Institute

Das AI Now Institute ist eine Forschungseinrichtung an der New York University, das 2017 von den Wissenschaftlerinnen Kate Crawford (Microsoft) und Meredith Whittaker (Google) mit dem Ziel gegründet wurde, sicherzustellen, dass KI-Systeme sensibel auf die komplexen sozialen Bereiche reagieren, in denen sie eingesetzt werden. Im Jahresbericht 2018 stellt das Forschungsinstitut eine Reihe von klaren Empfehlungen aus. Dazu gehört zuallererst die Forderung nach einer staatlichen Regulierung von KI, damit in den verschiedenen Einsatzbereichen wie Gesundheitswesen, Bildung, Strafrecht und Soziales die gleichen Regeln, Normen und Zertifizierungen gelten. Zudem sei es im öffentlichen Interesse, die Gesichtserkennung streng zu reglementieren. Das AI Now Institute stuft außerdem die Überprüfbarkeit von KI-Software höher ein als das Geschäftsgeheimnis der KI-Unternehmen.

 

Fazit: Wir brauchen Kontroll-Instanzen für KI

Die dargestellten Problemfelder verdeutlichen, dass wir für die KI-Entwicklung auch einen politisch-gesellschaftlichen Diskurs benötigen. Besonders der Fall „Amazon Rekognition“ ist dabei Warnschuss und Hoffnungsträger zugleich. Eine Warnung, weil KI auch von einem Rechtsstaat auf eine Art und Weise eingesetzt werden kann, die stark an den totalitären Überwachungsstaat aus Orwells dystopischem Roman 1984 erinnert. Ein Hoffnungsträger, weil sich die Belegschaft von Amazon klar gegen einen solchen Einsatz positioniert. Die Forderungen der verschiedenen Initiativen sind ein erster Schritt für einen breiten Diskurs, an dem Wirtschaft, Wissenschaft und Forschung, Politik und die Bevölkerung gleichermaßen beteiligt sein müssen. Gelingt dieser Diskurs nicht, riskieren wir das grundlegende Vertrauen der Menschen in eine hoffnungsvolle Technologie.

Zunächst sollte sich jedes Unternehmen, das KI einsetzt, umfassend über die Problematiken informieren und sich selbst höchste Qualitätskriterien auferlegen. Für noch mehr Vertrauen kann eine Begutachtung durch eine neutrale Instanz beitragen: Eine maximale Transparenz beim Code, den Daten und den Zielsetzungen machen algorithmen-basierte Entscheidungen weniger fehleranfällig und vertrauenswürdiger.

 

KI-Ethik Teil I: Wofür wollen wir KI einsetzen?

KI-Ethik Teil II: Warum wir eine Qualitätskontrolle brauchen