Menü
Technology Review

Futurologe rechnet ab 2020 mit Maschinen mit Bewusstsein

vorlesen Drucken Kommentare lesen 572 Beiträge

Ian Pearson, Chef-Futurologe bei British Telecom, geht davon aus, dass die Konvergenz von Nano- und Biotechnik, Informatik und Kognitionswissenschaften spätestens im Jahr 2020 die ersten Prototypen von Maschinen mit Bewusstsein hervorbringen wird. Die würde laut Pearson – wahrscheinlich mittels evolutionärer Algorithmen – ihre ganz eigene Art von Intelligenz entwickeln, berichtet Technology Review in einem sechzehnseitigen Schwerpunkt zum Stand der Forschung in der Künstlichen Intelligenz (die aktuelle Ausgabe 9/07 ist ab dem 30. August am Kiosk oder online portokostenfrei zu bestellen). "Wir müssen das akzeptieren", sagt Pearson. Am Ende stünde eine Maschine, die möglicherweise fähig wäre, zu denken – "aber sie wird nicht genau auf die gleiche Weise wie wir denken".

Mit diesen ersten Prototypen denkender Maschinen müsse man dann sehr vorsichtig umgehen, warnt Pearson. Einfach darauf zu vertrauen, die künstliche Intelligenz würde den Menschen aktiv bei der Lösung drängender Probleme wie der Welternährung oder den Folgen des Klimawandels helfen, hält der Zukunftsforscher nicht für das ideale Szenario. Lieber wäre es ihm, man fände einen Weg, die künstlichen Gehirne direkt an menschliche zu koppeln, um die "gefährliche Intelligenz-Kluft zwischen Maschinen und Menschen" zu überbrücken.

Dass diese Idee nicht mehr im Bereich spekulativer Sciencefiction angesiedelt ist, zeigen drei sehr ernst gemeinte Forschungsprojekte: An der Eidgenössischen Technischen Hochschule Lausanne simuliert das "Blue Brain"-Projekt um Henry Markram das Zusammenspiel von 10.000 Neuronen eines Rattenhirns auf einem Hochleistungsrechner; Kwabena Boahen, Neuroingenieur an der Stanford University, will eine Million Neuronen aus Silizium schaffen; und Soo-Young Lee vom Korea Advanced Institute of Technology arbeitet mit Kollegen an einer naturgetreuen Nachbildung menschlicher Sinnesorgane samt Signalverarbeitung.

Die Forscher um Soo-Young Lee arbeiten seit 1998 an der Hard- und Software-Plattform, die sie schlicht "Artificial Brain" nennen. Die Hardware erinnert entfernt an einen Kunstkopf: Zwei Kameras sind beweglich aufgehängt, ihre Signale werden von Schaltungen weiterverarbeitet, die der menschlichen Netzhaut nachempfunden sind. Zwei Mikrofone sind an verbesserte Cochlear-Chips angeschlossen – Spezialprozessoren, wie sie in einfacherer Form seit Jahren Gehörlosen implantiert werden.

Der Vorteil dieser Sensoren nach biologischem Vorbild: Sie melden nicht stumpf Reize weiter, sondern übernehmen die erste Verarbeitungsstufe selbst. So können die Kunstohren dazu gebracht werden, nur dann Signale weiterzuleiten, wenn deren Charakteristik etwa auf einen menschlichen Sprecher als Quelle hinweist. Das könnte die dahinterliegende Verarbeitungsinstanz, eine relativ klassisch angelegte KI-Software, erheblich entlasten. Kameras und Mikrofone sind laut Lee fertig entwickelt, jetzt widmet er sich verstärkt der Software. Wie das biologische Vorbild soll das künstliche Gehirn durch die Erregung von Aufmerksamkeit gesteuert werden – es dreht also beispielsweise den Kopf hin zum Sprecher. Aus der Kombination von visuellen und akustischen Reizen soll die Steuerungssoftware selbsttätig lernen; als erstes Anwendungsbeispiel haben die Forscher Assistenzaufgaben in einer Büroumgebung ins Auge gefasst. Neben Aufmerksamkeit wollen sie Emotionen nutzen, um der Software bei Entscheidungen zu helfen. (wst)