Smarte Maschinen

Mensch-Maschine-Beziehungen

Ein vieldiskutiertes Modell ist das autonome Fahrzeug, das nicht nur das Fahren übernimmt, sondern durch die Anbindung an ein Netzwerk aktuelle Informationen über mögliche Staus, Wetterlage, Gefahrenlagen aufnimmt und sollte es selbst betroffen sein, diese Information an andere Fahrer weitergeben kann.

Die Herausforderung, rotes Ampellicht vom Rücklicht eines vorfahrenden Autos zu unterscheiden, ist nicht zu unterschätzen. Was für menschliche Verkehrsteilnehmer durch Beobachtung und Kombination leicht(er) zu lösen ist, wird für autonom fahrende Fahrzeuge schwierig. Radarsensoren und Kameras wie auch eine Software, die die gewonnenen Bilddaten in Echtzeit auswertet, müssen fehlerfrei miteinander agieren. Ein Objekt auf der Straße mag für ein Computer-Auto ein Hindernis darstellen, ob es nun eine Papiertüte oder ein Stein ist. Die identische Form unterscheiden zu können in Bezug auf das Gewicht, wird durch Deep Learning versucht.

",Olli" ein autonomer Bus, der durch Watson gesteuert wird (CeBIt 2017). Bild: Frank Schwichtenberg / CC-BY-SA-4.0

Deep Learning bezeichnet die Mustererkennung - Maschinen müssen wie kleine Kinder die Gegenstände kennen lernen und den richtigen Umgang damit beigebracht bekommen. Die Rechenleistung, so die Planung der Robotiker, erleichtert den Abgleich der wahrgenommenen Bilddaten mit einer Datenbank. Eine hohe Menge an Informationen kann abgeglichen und entsprechend kategorisiert werden. Schwierig wird es, von den meist zweidimensionalen Bildbeständen im Internet auf dreidimensionale Gegenstände in der Realwelt zu schließen.

Wird ein solches System vom Menschen benutzt und die Erkenntnisfähigkeiten dieses Spezialisten durch die Maschine verstärkt, ergeben sich angestrebte synergetische Effekte.

So ermöglicht der IBM-Supercomputer Watson in Schwellenländern eine Fernbehandlung - er ist mit dem System einer US-Klinik, einem Krebszentrum, verbunden und kann durch Bilddiagnose die Tumore mit dem bestehenden Datenstand vergleichen. Innerhalb kurzer Zeit werden mögliche Therapieformen durchforscht und vorgeschlagen. Hochauflösende Bildübertragung ermöglicht auch Fernchirurgie.

Kinderhirn im Supercomputer

Dennoch sprechen manche Forscher noch von "Kinderhirnen im Supercomputer". Die aktuelle Forschung setzt sich - je nach Perspektive - ambitionierte oder bescheidene Ziele: Die Intelligenz eines etwa zehnjährigen Kindes soll etwa bei dem Aristo-Projekt erreicht werden. Dazu erzählt Oren Etzioni:

Wir wollen […] erreichen, dass unser System im Jahr 2016 bei Tests für Viertklässler besser als das durchschnittliche amerikanische Kind abschneidet. (Eberl, S. 139)

Ein Computersystem kann zwar eine Vielzahl an Daten überschauen, doch die richtigen Schlüsse zu ziehen, erfordert ein Hintergrundwissen. Ein gutes Beispiel wäre, ein gutes Buch schreiben. Wie kann man einer Maschine den Unterschied zwischen einem guten von einem schlechten Buch erklären? Sind diese Werturteile nicht Ergebnisse jahrhundertelanger Kanonisierungs- und Ausschlussprozesse? Lassen sich einer smarten Maschine Minimalanforderungen an Stil und Rhetorik beibringen? Schreiben zukünftig Roboter Texte für Menschen?

Bislang wird die in den Achtzigern begonnene Automatisierung weiter ausgebaut. Die Interaktion mit menschlichen Arbeitern soll zunehmend verfeinert werden. Roboter stellen sich auf die menschlichen Kollegen ein; wenn eine Erschütterung von den Sensoren wahrgenommen wird, schaltet der Roboter in einen "soften Sicherheitsmodus" um. Der menschliche Kollege soll nicht durch die Wucht des Metallarms verletzt werden. Die Grundidee ist es, die Arbeit zu erleichtern oder stark mechanisierte Vorgänge von Robotern erledigen zu lassen.

Aber ist dieser Gedanke noch aktuell?

Human-Brain-Projekt

Es geht längst darüber hinaus. International arbeitet die Robotik an einer möglichst überzeugenden Simulation des menschlichen Hirns; das Projekt firmiert unter dem Namen "Human Brain". Einerseits ist eine hohe Rechnerleistung notwendig, andererseits müssen die Roboter feinmotorische Abläufe einstudieren. Bislang sind die Fähigkeiten noch begrenzt. Der Atlas-Roboter kann zumindest auf Treppenstiegen hüpfen und eine Rolle nach hinten machen.

Ziel des Projekts "Human Brain" ist es hingegen, ein menschliches Hirn mit seiner Schnelligkeit und Komplexitätserfassung im Metallkopf eines Robots zu simulieren. In Heidelberg entwickelt der Physiker Karlheinz Meier einen ziemlich neuen Supercomputeransatz: "neuromorphe Chipstrukturen" ersetzen digitale Technologie. Sie funktionieren wie Nervenzellen im Hirn. Meier führt dazu aus:

Das ist im Gehirn genauso. Da sind die Nervenzellen und ihre Verbindungen Prozessor und Speicher zugleich - und die Neuronen entscheiden selbst, wann sie feuern. Nämlich dann, wenn ihr Membranpotenzial einen bestimmten Schwellenwert erreicht hat. (Eberl, S. 149)

Die neuromorphen Chips sind 10000 Mal schneller als das biologische System. Zugleich lassen sie sich frei einstellen und den zu nachbildenden biologischen Modellen anpassen. Aus diesem Material könnten dann eventuell auch bio-mechanische Wesen gebaut werden, die der Auffassungsgabe des Menschen ziemlich nahe kommen könnten. Die Neuronen stülpen sich über die elektronischen "Implantate".

Kodomoroid® der erste Nachrichtensprecher-Android von Hiroshi Ishiguro. Bild: Franklin Heijnen / CC-BY-SA-2.0

Phänotypisch arbeitet der japanische Ingenieur Hiroshi Ishiguro in Osaka an einem menschlichen Doppelgänger. Ein weibliches Modell (Geminoid F) erinnert nicht von ungefähr an manche Science Fiction-Phantasie. Von Ishiguro gibt es auch einen Doppelgänger - die Ähnlichkeit zwischen Mensch und Maschine ist verblüffend. Vorbehalte hat der Visionär nicht:

Sie werden in Zukunft eigenständiges Verhalten bekommen sowie Bedürfnisse und Ziele. Sie sollen nach Menschen Ausschau halten, mit ihnen sprechen und eine Vorstellung davon entwickeln, was ihr Gegenüber gerade tun will", erläutert Ishiguro. Das wäre eine "Theory of Mind also, dazu Gefühle, eine innere Motivation mit Belohnungen und eigenständigen Zielen. Das sei eine enorme Herausforderung, betont Ishiguro, denn mit Androiden sei so etwas noch nie angegangen worden. (Eberl, S. 323-324)

Die schwedische SF-Serie "Real Humans (Äkta människor)" stellt die Frage nach der Trennlinie zwischen Mensch und menschenähnlichem Roboter (Android).

Inmitten der schwedischen Gegenwart sind Hubots erhältlich (menschenähnliche Roboter), die für den Haushalt, als Chauffeur, als verlässliche Arbeitskräfte, aber auch schon als Partner für alleinerziehende Mütter oder pubertierende Teenager zu erwerben sind. Doch sind nicht alle Hubots für den rein kommerziellen Zweck geschaffen. Eine kleine Gruppe von Hubots sagt sich von der Vermarktung los und entwickelt vom Menschen unabhängige Pläne.

Die Serie spricht den Zwiespalt zwischen Maschine und menschenähnlichen Wesen an - welche Rolle übernehmen Roboter, die wie Menschen aussehen und teilweise darauf programmiert sind, so wie wir zu fühlen?

Diese Frage berührt die Simulation des menschlichen Hirns - wenn sie möglich ist, könnten dann Apparate, die nicht durch Geburt auf unsere Welt gekommen sind, aus Erfahrungen lernen, selbstständig werden? Für Produktionsabläufe ist ein menschliches Aussehen nicht erforderlich. Greifarme sind wichtiger als schöne Hände.

Sollen die Roboter jedoch im menschlich-persönlichen Bereich eingesetzt werden, wären ansprechbare Gesichter und feinmotorische Finger vonnöten. Das bereits erwähnte "unheimliche Tal" liegt dazwischen. Ist der Roboter menschenunähnlich, könnten pflegebedürftige Senioren Ängste entwickeln. Ist er wiederum zu menschenähnlich, könnte die gesellschaftliche Angst vor zu großer Nähe umgehen.

Neujahr 2018 feierte der Roman "Frankenstein" der britischen Schriftstellerin Mary Shelley 200. Geburtstag. Frankensteins Monster wird aus Leichenteilen zusammengeflickt, ein künstlicher Mensch geschaffen. Frankenstein ist ein Produkt des 1. Maschinenzeitalters. Können Roboter also die Frankensteine des 2. Maschinenzeitalters werden? Statt Dampf und Elektrizität nun Digitalisierung und Prozessortechnologie. Shelleys Roman entwirft eine Zukunft, in der die technologischen Möglichkeiten das ethische Bewusstsein übersteigen. Doktor Frankenstein ist nicht in der Lage, seinem geschaffenen Wesen Orientierung zu geben.

Die Roboter unterscheiden sich hiervon deutlich: bislang überwachen die Entwickler jeden Schritt ihrer metallischen Zöglinge. Wenig wahrscheinlich, dass einer der Roboter zu einem frankensteinschen Monster mutiert. Die Bewegung solch künstlicher Intelligenz in der Welt der Dinge scheint unendlich schwieriger als hochkomplexe Rechenaufgaben in Sekundenschnelle lösen zu lassen.

Dennoch geht eine andere Angst um: Nicht so sehr vor einem neuen Frankenstein-Monster, sondern vor dem Verlust des eigenen Arbeitsplatzes. Oder aber der drohende Verlust der Kontrolle im eigenen Smart Home.