KI-Ethik I: Wofür wollen wir KI einsetzen?

Künstliche Intelligenz kann viele Probleme lösen helfen – aber auch neue erschaffen, wenn wir nicht aufpassen.

KI-Ethik I: Wofür wollen wir KI einsetzen?

Künstliche Intelligenz wird zur grundlegenden Technologie der digitalisierten Welt und die Entwicklung ist ebenso umfassend wie rasant. Aus dem jahrzehntelangen Traum von Wissenschaftlern und Forschern wird mehr und mehr Realität, auch wenn es uns in weiten Teilen noch nicht bewusst ist. Echtzeit-Übersetzungen auf Knopfdruck, Gesichtserkennung, Sprachsteuerung, dies alles wäre ohne KI nicht denkbar. Doch im fraglos enormen Potenzial der Künstlichen Intelligenz verbergen sich auch ethische Fragestellungen, die wir dringend diskutieren müssen.

Grundsätzlich ergeben sich zwei wichtige Fragestellungen:

  1. Wie wollen wir KI zukünftig einsetzen? Wo sollen Grenzen gezogen werden?
  2. Wer kontrolliert die Entwicklung von KI und deren gesellschaftskonforme Qualität?

Dazu gesellt sich zudem noch eine wichtige Aufgabe: Wie können wir KI ethisch kontrollieren?

Warum wir KI nicht für alles einsetzen sollten

Es steht außer Frage, dass KI einen wertvollen Beitrag zur Entwicklung der Wirtschaft und Gesellschaft liefern kann und wird. Dennoch müssen wir uns auch darüber bewusst sein, dass es sich bei der Künstlichen Intelligenz um eine Technologie handelt, die kaum natürliche Grenzen kennt. Die angeführte Gesichtserkennung ist ein gutes Beispiel zur Verdeutlichung der Problematik. Während Amazon das Deep-Learning-Projekt Rekognition ursprünglich als Cloud-Dienst zum Erkennen, Analysieren und Labeln von Objekten und Personen entwickelte, sorgte der Ausbau in Richtung Gesichtserkennung für zwiespältige Gefühle: Die US-Behörde Immigration and Customs Enforcement (ICE) will die Software für die Identifizierung von Personen aus der Ferne an den Grenzen einsetzen. Als die Pläne bekannt wurden, sprachen sich Hunderte Amazon-Mitarbeiter gegen den Verkauf der Software an die US-Regierung aus. Sie fürchten, der Einsatz der Gesichtserkennung könnte sich schnell zum Instrument für die Massenüberwachung entwickeln.

Es geht hier also nicht nur um die Grenzen für den ökonomisch motivierten KI-Einsatz innerhalb von Konzernen, sondern auch oder gerade um die gesellschaftlichen Folgen beim Einsatz der KI-Technologien durch staatliche Behörden.

 

Beispiel China: Willkommen im Orwellschen 1984

Dass solche Befürchtungen keinesfalls unbegründet sind, sehen wir bereits in China. Dort zeigen sich in verschiedenen Szenarien, wie KI zur lückenlosen Überwachung eingesetzt wird. Geschätzte 176 Millionen Überwachungskameras zeichnen die Bewegungen der Bevölkerung auf und identifizieren einzelne Personen anhand von Gesichtserkennung. Bis 2020 sollen 600 Millionen Kameras das Netz noch engmaschiger machen, damit verschiedene Handlungen bewertet und in den „Social Score“ einfließen können. Das ist so etwas wie ein gigantisches Schufa-System für die gesamte Bevölkerung Chinas. Allerdings beschränkt es sich nicht auf finanzielle Aspekte: Wer beispielsweise als Fußgänger bei Rot über eine Straße geht, bekommt dafür eine negative Bewertung.

Da der Social Score bei Kreditvergaben, Beförderungen oder der Wohnungssuche eingesetzt wird, können sich viele kleine Sünden verheerend auswirken. Sogar die Benutzung von Verkehrsmitteln wie Zügen oder Flugzeugen kann bei einem schlechten Score eingeschränkt werden: „Die rechtschaffenen und vertrauenswerten Bürger sollen sich frei unter dem Himmel bewegen können. Wer aber in Verruf gerät, dessen Bewegungsfreiheit soll stark eingeschränkt sein“, sagt die Regierung. Und die nächste Ausbaustufe macht das System dann sogar unabhängig von der Gesichtserkennung: Eine neue KI soll Personen anhand ihres Gangbildes eindeutig identifizieren, auch wenn das Gesicht durch zum Beispiel durch eine Kapuze verdeckt ist.

 

KI-Personalisierung wird zum Tanz auf der Rasierklinge

Im Marketing gibt es viele Aufgaben für die KI. Neben zahlreichen Automatisierungen und Datenanalysen steht hier vor allem die Personalisierung ganz oben auf der Liste. Dienste wie Netflix oder Spotify haben mit ihren Algorithmen die persönlichen Empfehlungen auf ein neues Level gebracht. Und da Konsumenten dazu neigen, die jeweils beste Nutzererfahrung als neuen Standard anzunehmen, sind nun alle anderen Unternehmen gefordert, mit ihrer Personalisierung nachzuziehen. Dabei ist die Aufgabe sehr komplex, da sie nicht nur verschiedene technologische Anforderungen mit sich bringt, sondern auch sehr viel Feingefühl erfordert.

Zum einen kann eine zu starke Personalisierung für die Konsumenten beängstigend wirken, vor allem, wenn die Transparenz fehlt. Wird ein Kunde in Bereichen personalisiert angesprochen, in denen er es nicht gewöhnt ist und es auch nicht erwartet, kann das sogar negative Folgen für die Marke haben: Der Kunde fühlt sich unter Umständen unangenehm verfolgt. Zum anderen kann eine Personalisierung auch dann Ablehnung hervorrufen, wenn der Benefit zu stark auf der Seite des Unternehmens liegt: Es geht nicht um eine noch effektivere Werbe-Penetration, sondern um die Erhöhung der Relevanz – und zwar aus der Kundenperspektive heraus.

Ausblick: Im Teil 2 der KI-Ethik-Serie geht es um die Qualität der KI und warum sie zum Problem werden kann.