Wie schlau ist Künstliche Intelligenz wirklich?

KI kann Erstaunliches leisten oder spektakulär versagen. Experten sagen: Wir müssen uns dieser Grenzen bewusst sein.

Wie schlau ist Künstliche Intelligenz wirklich?

Erst ungebremste Euphorie, dann tiefe Enttäuschung: Die bisherige Geschichte der Künstlichen Intelligenz (KI) ist diesem Muster seit den 50er Jahren bereits mehrmals gefolgt. Denn manchmal verblüfft uns KI damit, was sie kann und manchmal damit, wie dumm sie weiterhin ist.

Ein Beispiel: Forscher testeten die Grenzen einer KI, die Gegenstände in Fotos erkennen kann. Sie manipulierten dazu das Bild eines Wohnzimmers, indem sie an verschiedenen Stellen einen Elefanten einfügten. Ein Mensch würde das sicherlich kurios finden, aber deshalb trotzdem den Elefanten im Bild erkennen und ebenso das Sofa oder das Buch. Nicht so die KI: Je nachdem, wo der Elefant platziert war, übersah sie ihn manchmal ganz oder identifizierte ihn gar als Stuhl. Ähnlich verwirrt war sie mit einem Mal über andere Gegenstände im Bild.

Zugleich müssen es gar keine drastischen Änderungen sein: Selbst ein Schatten im Bild oder andere Störungen können zu falschen Ergebnissen oder einem Totalausfall der KI führen. So machte Googles KI-Spezialisten von DeepMind beispielsweise damit Schlagzeilen, dass eines ihrer Systeme das klassische Computerspiel „Breakout“ von Grund auf lernte und nach vier Stunden des Experimentierens auf dem Level erfahrener menschlicher Spieler war. Aber wie andere Forscher zeigten: Man muss das Spiel nur minimal abändern und das System scheitert kläglich.

Eine Ursache dafür: Heutige KIs haben kein grundlegendes, abstraktes Konzept der Welt. Sie können mit der „Deep Learning“-Technik zwar Muster in Daten erkennen. Sie verstehen aber nicht, was es mit diesen Daten auf sich hat. Weshalb Prof. Gary Marcus von der New York University schreibt:

„For many reasons deep learning cannot be considered (as it sometimes is in the popular press) as a general solution to artificial intelligence.“

 

Wo sind die autonomen Fahrzeuge?

Das dürfte auch einer der Gründe sein, warum autonome Fahrzeuge nicht die Fortschritte machen, die vor einigen Jahren prognostiziert wurden. Selbst Googles Tochterfirma Waymo ist noch weit von diesem Ziel entfernt: Zwar haben sie in Phoenix, Arizona, einen Dienst mit selbstfahrenden Taxis gestartet. Die aber sind nur in einem eng begrenzten Teil der Stadt unterwegs und haben auch sonst zahlreiche Beschränkungen. Dabei gilt Waymo als das Unternehmen, dass allen anderen in diesem Bereich weit voraus ist.

Um ein Auto unfallfrei zu lenken, muss man eben als erstes Straßenmarkierungen, Schilder und Ampeln jederzeit zuverlässig interpretieren können. Selbst das ist nicht immer gegeben, wie gezeigt wurde: Aufgrund einiger Sticker interpretierte ein KI-System ein Stopp-Schild plötzlich als Tempolimit. Aber damit nicht genug: Als Fahrer muss man etliche unterschiedliche Situationen beurteilen, indem man sie mit früheren Erfahrungen vergleicht. Darin aber sind heutige KI-Systeme weiterhin schlecht.

 

Die Schwierigkeit, saubere Daten zu bekommen

Zudem funktionieren heutige Anwendungen dann gut, wenn sie sehr viele passende Trainingsdaten zur Verfügung haben. Entsprechend kann ein KI-Algorithmus aber zugleich nur so neutral sein, wie die Daten, die er als Trainingsmaterial bekommt. Silicon Valley hat beispielsweise ein erhebliches Problem damit, dass hier überwiegend weiße, heterosexuelle Männer arbeiten. Da ist es kein Wunder, dass KI-Systeme plötzlich versagen, wenn es beispielsweise um dunkelhäutige Personen geht. Auch KI-Werkzeuge für das Personalmanagement können vorhandene Vorurteile weiter verstärken, wenn die bereits in den Lerndaten vorhanden sind. Saubere, neutrale, repräsentative Daten sind viel gesucht und nicht immer einfach zu finden.

Deshalb lauert die große Gefahr der KI derzeit nicht darin, dass wir aus Versehen eine Super-Intelligenz erschaffen, die dann die Menschheit auslöschen will. Eine akute Gefahr ist vielmehr, dass wir der KI zu sehr vertrauen und uns dabei ihrer Grenzen nicht bewusst sind. Das sagt beispielsweise Prof. Melanie Mitchell von der Portland State University:

„The most dangerous aspect of A.I. systems is that we will trust them too much and give them too much autonomy while not being fully aware of their limitations.“

 

Fazit

Eine menschenähnliche KI scheint in weiter Ferne zu liegen. Vielleicht gibt es bald einen Durchbruch, eine neue Methode, neue Möglichkeiten, die das verändern. Vielleicht dauert es aber auch noch mehrere Jahrzehnte.

Das allerdings sollte nicht den Blick dafür verstellen, dass KI zugleich bereits heute Erstaunliches leisten und uns an vielen Stellen unterstützen kann. Wir dürfen dabei nur nicht vergessen, dass eine Maschine Fehler machen oder manipuliert werden kann.