Essay: Die sieben Todsünden der KI-Vorhersagen

Falsche Extrapolationen, begrenzte Vorstellungskraft und andere Fehler halten uns davon ab, produktiver über die Zukunft der künstlichen Intelligenz nachzudenken.

Lesezeit: 7 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 1 Beitrag
Von
  • Rodney Brooks
Inhaltsverzeichnis

Brooks ist Gründer von Rethink Robotics und iRobot. Dieser Essay erschien ursprünglich auf rodneybrooks.com.

Um uns herum herrscht eine Hysterie darüber, wie mächtig künstliche Intelligenz eines Tages wird – und was sie dann mit unseren Jobs anstellt. Vor Kurzem sagte ein Artikel voraus, dass Roboter in 10 bis 20 Jahren die Hälfte der heutigen Jobs übernehmen werden. Von rund einer Million Stellen für Straßenbauarbeiter in den USA sollen gar nur 50000 übrig bleiben.

Mehr Infos

Solche Behauptungen sind lächerlich. Wie viele Roboter sind derzeit in diesen Jobs im Einsatz? Null. Wie viele realistische Demonstrationen gab es in diesem Bereich? Null. Ähnliches gilt für alle vergleichbaren Branchen. Diese Vorhersagen führen zu unberechtigten Ängsten, sei es vor dem Verlust von Arbeitsplätzen oder vor einer künstlichen Intelligenz, die uns vernichten will.

Wir müssen diesem fehlerhaften Denken entgegentreten. Aber worauf beruht es? Ich sehe sieben Gründe:

1. Gleichzeitig über- und unterschätzen

Roy Amara war Mitgründer des Institute for the Future in Palo Alto, dem intellektuellen Herzen des Silicon Valley. Er hat eine Faustregel aufgestellt, die bis heute als "Amaras Gesetz" bekannt ist: Wir neigen dazu, die Wirkung einer Technologie kurzfristig zu überschätzen und auf lange Sicht zu unterschätzen.

TR 12/2017

Technology Review 12/2017

(Bild: 

[Link auf https://shop.heise.de/zeitschriften/technology-review]

)

Der Text stammt aus der Dezember-Ausgabe von Technology Review (ab 9.11. im Handel und im heise shop erhältlich). Weitere Artikel des Hefts:

Es steckt viel drin in diesen 16 Wörtern. Ein Optimist kann sie auf die eine, ein Pessimist auf die andere Art lesen. Ein großartiges Beispiel dafür ist das Satellitennavigationssystem GPS. Es wurde 1978 gestartet, um das US-Militär zu unterstützen. Doch in den 1980er-Jahren stand es mehrfach auf der Kippe. Der erste bestimmungsgemäße Einsatz erfolgte erst 1991 im Irak-Krieg.

Heute wird GPS auf eine Art und Weise genutzt, die damals unvorstellbar war. Es bringt Flugzeuge ans Ziel, überwacht Straftäter und Lastwagenflotten, es verrät dem Bauern, wo er auf seinen Feldern wie viel säen muss. Würde es ausgeschaltet, würden wir uns nicht einfach nur verirren: Wir wären unterkühlt, hungrig und wahrscheinlich tot.

Ein ähnliches Muster sehen wir auch bei anderen Technologien der letzten 30 Jahre – ob Genomsequenzierungen, Sonnenenergie, Windkraft oder die Lieferung von Lebensmitteln nach Hause: Zuerst ein großes Versprechen, anschließend Enttäuschung und dann langsam wachsendes Vertrauen in Ergebnisse, bis diese letztlich die ursprünglichen Erwartungen übertreffen.

Künstliche Intelligenz wurde immer wieder überschätzt, in den 1960ern, in den 1980ern, und ich glaube jetzt auch wieder. Ihre langfristigen Auswirkungen werden hingegen gleichzeitig unterschätzt. Die Frage ist aber: Wie lang ist langfristig? Die nächsten sechs Denkfehler erklären, warum dieser Zeitraum stark unterschätzt wird.

2. Vorstellungen von Magie

Stellen Sie sich vor, wir hätten eine Zeitmaschine und könnten Isaac Newton vom späten 17. Jahrhundert in die Gegenwart beamen. Jetzt drücken Sie ihm ein iPhone in die Hand, spielen ihm etwas Kirchenmusik aus seiner Zeit vor, zeigen ihm online die Seiten seines persönlich kommentierten Exemplars der "Principia Mathematica".

Könnte Newton erklären, wie dieses kleine Gerät all das schafft? Obwohl er Optik und Gravitation erklärte, war er zeitlebens nie in der Lage, Chemie und Alchemie voneinander abzugrenzen. Ich glaube, er könnte nicht einmal eine vage zusammenhängende Erklärung für die Funktion eines Smartphones liefern. Es wäre für ihn nicht von Magie zu unterscheiden. Und denken Sie daran: Newton war ein wirklich kluger Kerl.

Wenn etwas magisch ist, ist es schwer, seine Grenzen zu kennen. Angenommen, wir zeigen Newton nun, wie das Gerät fotografiert und Töne aufnehmen, arithmetische Berechnungen mit unglaublicher Geschwindigkeit anstellen oder Menschen auf der ganzen Welt anrufen kann. Was dürfte Newton dem Gerät noch alles zutrauen? Vielleicht auch Blei in Gold zu verwandeln?

Dieses Problem haben wir mit allen unseren erdachten Zukunftstechnologien. Wenn sie weit genug von unserer vertrauten Technik entfernt sind, kennen wir ihre Grenzen nicht. Und wenn sie von der Magie nicht mehr zu unterscheiden sind, sind alle Aussagen über sie nicht mehr falsifizierbar.

Damit werde ich regelmäßig konfrontiert, wenn ich mit Menschen diskutiere, ob wir vor einer "Allgemeinen künstlichen Intelligenz" Angst haben sollten – also vor autonomen Agenten, die ähnlich wie Menschen agieren. Mir wurde oft gesagt, dass ich nicht verstehe, wie mächtig sie sein werden. Aber das ist kein Argument. Die moderne KI-Forschung scheint immer noch die gleichen Probleme mit dem gesunden Menschenverstand zu haben wie vor 50 Jahren. Wir haben noch immer keine Ahnung, wie man eine Allgemeine künstliche Intelligenz bauen soll. Ihre Eigenschaften sind völlig unbekannt, also wird sie in der Rhetorik schnell magisch, allmächtig und grenzenlos.

Aber nichts im Universum ist grenzenlos. Achten Sie auf Aussagen, die magisch sind. Sie können niemals widerlegt werden. Sie sind Argumente des Glaubens, nicht der Wissenschaft.

3. Leistung versus Kompetenz

Wir alle nutzen Hinweise darüber, wie Menschen bestimmte Aufgaben schaffen, um einzuschätzen, wie gut sie in anderen Bereichen sind. Wenn uns jemand erzählt, dass ein Foto frisbeespielende Menschen im Park zeigt, gehen wir natürlich davon aus, dass er beispielsweise auch weiß, wie weit man ein Frisbee werfen kann, ob die Scheibe essbar ist, und ob heute gutes Wetter zum Frisbeespielen herrscht. Computer können die Bilder von Frisbeespielern zwar ebenfalls als solche erkennen.

Aber sie haben keine Chance, die entsprechenden Fragen zu beantworten. Sie wissen zum Beispiel nicht, was eine Person ist, dass sich Parks in der Regel im Freien befinden, und dass Wetter mehr ist als nur ein bestimmter Look der Fotos. Das bedeutet nicht, dass diese Systeme nutzlos sind; sie sind für Suchmaschinen von großem Wert.

Aber wenn Leute hören, dass irgendein KI-System eine bestimmte Aufgabe geschafft hat, verallgemeinern sie diese Leistung oft zu einer generellen Kompetenz, die sie einem Menschen zusprechen würden, der die gleiche Aufgabe erledigt hat.

Dabei sind die Leistungen heutiger Roboter und KI-Systeme unglaublich eng umgrenzt. Sie lassen sich nicht verallgemeinern.

4. Kofferwörter

Marvin Minsky nannte Wörter, die eine Vielzahl von Bedeutungen haben, "Kofferwörter". "Lernen" ist so ein mächtiges Kofferwort. Lernen, mit Stäbchen zu essen, ist beispielsweise eine ganz andere Erfahrung als das Erlernen eines Songs.

Wenn Menschen nun hören, dass maschinelles Lernen in einem neuen Bereich große Fortschritte gemacht hat, neigen sie dazu, dies mit menschlichem Lernen zu vergleichen. Maschinelles Lernen erfordert allerdings viel Vorbereitung durch Forscher sowie spezielle Programmierung und Trainingsdaten für jedes neue Problem. Es hat nichts mit dem schwammartigen Lernen zu tun, mit dem sich Mensch neue Domänen rasch und ohne chirurgische Eingriffe aneignen.

Auch wenn die Leute erfahren, dass Computer Schach oder Go "spielen", glauben sie, dabei handele es sich um etwas Ähnliches wie das Spielen eines Menschen. Aber Menschen wirft eine kleine Regeländerung nicht um. Bei KI-Programmen wie AlphaGo oder Deep Blue ist das anders.

Kofferwörter täuschen uns darüber, wie gut Maschinen menschliche Aufgaben tatsächlich erledigen. Das liegt zum Teil daran, dass KI-Forscher – und schlimmer noch, ihre Pressestellen – gern große Fortschritte in einem bestimmten Fall eines Kofferworts verkünden. Die Betonung liegt hier auf in einem bestimmten Fall. Dieses Detail geht schnell verloren, wenn Schlagzeilen das Ergebnis heraustrompeten.

Dies verzerrt das allgemeine Verständnis davon, wo künstliche Intelligenz steht und was sie demnächst erreichen kann.

5. Exponentiell

Viele Menschen leiden unter schwerer Exponentialitis. Jeder hat schon von Moores Gesetz gehört. Es besagt, dass sich die Zahl der Komponenten eines Mikrochips jedes Jahr verdoppelt. Dies traf 50 Jahre lang zu, wobei sich die Zeit für eine Verdopplung allerdings von einem auf über zwei Jahre allmählich verlängert hat – und ein Ende dieses Musters abzusehen ist.

Moore's Law war bislang erfolgreich, weil es auf einer Wahr-oder-falsch-Aussage beruht: Gibt es in einem Stromkreis eine Spannung oder nicht? Nun aber werden die Chipkomponenten immer kleiner – bis sie eine physikalische Grenze erreichen, wo so wenige Elektronen fließen, dass Quanteneffekte dominieren. An diesem Punkt sind wir mit unserer siliziumbasierten Chiptechnologie nun angekommen.

Wenn Menschen unter Exponentialitis leiden, denken sie, das exponentielle Wachstum, mit dem sie ihre Argumente stützen, werde ewig weitergehen. Aber Moore's Law und andere scheinbar exponentielle Gesetze können enden – zumal, wenn sie überhaupt nicht wirklich exponentiell sind.

Anfang dieses Jahrhunderts, als ich das Computer Science and Artificial Intelligence Laboratory des MIT leitete und Geld für über 90 verschiedene Forschungsgruppen einwerben musste, versuchte ich, Sponsoren mit dem Speicherwachstum der iPods davon zu überzeugen, dass sich die Dinge weiterhin sehr schnell ändern.

Hier die Daten für 400-Dollar-iPods: Extrapoliert man das bis heute, landet man bei 160000 Gigabyte. Aber selbst das aktuelle Top-iPhone (das weit mehr als 400 Dollar kostet) hat nur 256 Gigabyte. Das Wachstum stoppte, als der Speicherplatz für sämtliche Musik, Apps, Fotos und Videos eines normalen Nutzers ausreichte. Exponentialfunktionen können kollabieren, wenn ein physikalisches Limit erreicht ist oder es keinen ökonomischen Grund mehr gibt, sie fortzusetzen.

Ähnlich sieht es mit der plötzlichen Leistungssteigerung von KI-Systemen dank Deep Learning aus. Viele Leute glauben offenbar, dass die KI-Leistung weiterhin ähnlich schnell steigen wird. Aber die aktuellen Erfolge basieren auf 30 Jahren Vorarbeit und sind ein Einzelfall.

Das bedeutet nicht, dass es künftig keine plötzlichen Leistungssprünge mehr geben wird. Aber es gibt kein Gesetz, das vorhersagt, wie oft so etwas passieren wird.

6. Hollywood-Szenarien

In vielen Science-Fiction-Filmen ist die Welt so wie heute, aber mit einem bestimmten neuen Twist. In "Der 200 Jahre Mann" lässt sich Richard Martin, gespielt von Sam Neill, beim Frühstück von einem sprechenden, humanoiden Roboter bedienen, gespielt von Robin Williams. Dabei liest Richard eine Zeitung. Eine Zeitung! Gedruckt auf Papier! Kein Tablet-Computer, kein Podcast eines Echo-ähnlichen Geräts, keine direkte neuronale Verbindung zum Internet.

Viele KI-Experten und ihre Kritiker haben eine ähnlich beschränkte Vorstellungskraft – vor allem jene, die vorhersagen, dass künstliche Intelligenz außer Kontrolle geraten wird. Sie ignorieren, dass sich die Welt erheblich verändert haben wird, bis wir in der Lage sind, solch intelligente Geräte zu bauen.

Die bösen Super-Intelligenzen, die uns loswerden wollen, werden uns nicht überraschen. Lange vor ihnen wird es etwas weniger intelligente, etwas weniger aggressive Maschinen geben. Und davor lästige, arrogante oder unfreundliche Geräte. Wir werden unsere Welt entsprechend anpassen.

Ich sage nicht, dass es keine Herausforderungen geben wird. Aber sie werden nicht so plötzlich und unerwartet kommen, wie viele denken.

7. Geschwindigkeit der Verbreitung

Software-Updates werden in einigen Branchen sehr häufig verbreitet. Dies funktioniert, weil die Grenzkosten dafür sehr, sehr nahe bei null liegen. Der Einsatz neuer Hardware verursacht dagegen erhebliche Grenzkosten. Viele der Autos, die wir heute kaufen, werden im Jahr 2040 wahrscheinlich immer noch unterwegs sein. Und wenn wir heute ein neues Haus bauen, können wir damit rechnen, dass es über 100 Jahre alt wird. Dies bedeutet eine eingebaute Grenze dafür, wie schnell sich selbstfahrende Autos oder Smart Homes verbreiten werden.

Die Investitionskosten halten Hardware lange Zeit intakt. Die U.S. Air Force fliegt zum Beispiel immer noch B-52H-Bomber. Die letzten davon wurden 1962 gebaut. Nach aktuellem Stand sollen diese Flugzeuge noch mindestens bis 2040 fliegen – man spricht sogar von einer Verlängerung ihres Einsatzes auf 100 Jahre.

In Fabriken überall auf der Welt stoße ich regelmäßig auf jahrzehntealte Maschinen – zum Beispiel PCs, auf denen Windows 3.0 von 1990 läuft. Die Denke dahinter lautet: "Wenn's nicht kaputt ist, reparier's nicht." Und selbst die modernsten Anlagen werden noch von Speicherprogrammierbaren Steuerungen (SPS) kontrolliert.

Diese wurden 1968 eingeführt, um elektromechanische Relais zu ersetzen. Man programmiert sie, als wären sie ein Netz aus 24-Volt-Relais.

Immer noch. Um den Informationsfluss zu ändern, braucht man meist viele Wochen und ganze Beraterteams. Einer der großen Hersteller hat mir kürzlich verraten, dass er eine Frequenz von drei Software-Upgrades in 20 Jahren anstrebt.

Im Prinzip könnte es auch anders funktionieren. In der Praxis tut es das aber nicht. Selbst Tesla sucht derzeit nach SPS-Experten für seine Fabrik. Also wird die Herstellung des intelligentesten Autos aller Zeiten weiterhin von Relais-Emulationen gesteuert.

Viele Experten glauben, dass die Welt bereits digital ist und dass die Einführung neuer KI-Systeme sofort bis zum Design, zur Fabrikhalle und zur Lieferkette durchsickert. Nichts ist weiter von der Wahrheit entfernt. Fast alle Innovationen in der Robotik und KI brauchen viel, viel länger, um sich durchzusetzen, als die Leute sich das vorstellen.

(bsc)