Mit Neurotechniken werden sich Absichten, Gefühle und Entscheidungen manipulieren lassen

Bild: US Naval Institute

Eine Gruppe von Wissenschaftlern fordert zur Regulierung der Neurotechnik auf, in der KI und Gehirn-Computer-Schnittstellen konvergieren, und formuliert vier ethische Prinzipien

Nach den KI- und den Robotikwissenschaftlern haben sich nun auch Neurowissenschaftler und -techniker sowie Ethiker und Mediziner in die Reihen der Experten eingereiht, die vor Entwicklungen aus ihrer Forschung warnen und letztlich die Gesellschaft bzw. die Politik auffordern, nicht alles einfach wild weiterlaufen zu lassen und auch zu finanzieren, sondern die Entwicklung zu steuern oder auch zu begrenzen. Verwiesen wird auf die großen Investitionen, die von der Privatwirtschaft wie von Kernel oder Elon Musk oder vom Staat mit der US Brain Initiative oder von der Darpa gemacht wurden und werden.

Anzeige

Einen in der Zeitschrift Nature veröffentlichten "Kommentar" von Biologieprofessor Rafael Yuste an der Columbia University und Philosophieprofessorin Sara Goering an der University of Washington, in dem sie vier ethische Richtlinien formulierten, wurde von 25 weiteren Kollegen aus zahlreichen Ländern unterzeichnet. Sie gehören der Morningside Group an und haben sich im Mai getroffen, um die Ethik der Neurotechnik und der Maschinenintelligenz zu besprechen.

Die Autoren gehen davon aus, dass es vermutlich bald möglich sein wird, "die geistigen Prozesse der Menschen zu decodieren und direkt die Gehirnmechanismen zu manipulieren, die ihren Absichten, Gefühlen und Entscheidungen zugrundeliegen. Überdies werde es möglich sein, dass die Menschen nur durch das Denken miteinander zu kommunizieren, sie also weder Sprache noch Schrift oder andere Symbole benötigen. Und es werde "mächtige Computersysteme geben, die direkt mit den Gehirnen der Menschen verbunden sind und für sie die Interaktionen mit der Welt so unterstützen, dass ihre geistigen und körperlichen Fähigkeiten in großem Maße erweitert werden".

Es sind selbstverständlich keine Ludditen, die ein Ende der Forschung wünschen. Sie gehen, auch im eigenen Interesse, davon aus, dass die medizinischen und gesellschaftlichen Vorteile der Neurotechniken "riesig" sein werden, aber man müsse ihre Entwicklung auf eine Weise lenken, so dass sie "das Beste in der Menschheit respektieren, schützen und befähigen". Auch wenn bislang bei der Forschung und Entwicklung von Gehirn-Computer-Schnittstellen medizinische Anwendung dominieren, so dass gelähmte Menschen einen Cursor, einen motorisierten Rollstuhl oder eine Prothese durch Abnahme von neuronalen Signalen in den motorischen Arealen steuern können, so werden Neurotechniken irgendwann zum Alltag gehören.

Jetzt schon sei es grundsätzlich, wenn auch sehr eingeschränkt möglich, neuronale Signale so zu entziffern, dass man erkennen kann, ob ein Mensch an eine Person oder ein Auto denkt. Wenn aber Neurotechnik mit Künstlicher Intelligenz konvergiert, entstünde etwas qualitativ ganz Neues, kogntive Cyborgs nämlich: "Die direkte Verbindung von menschlichen Gehirnen mit der Maschinenintelligenz und das Umgehen der sensomotorischen Funktionen von Gehirnen und Körpern."

Die Autoren schreiben die angenommene Fortschrittsgeschichte fort und sind der Meinung, dass bislang bestehende ethische Richtlinien nicht ausreichend seien, also die Deklaration von Helsinki mit ihren Grundsätzen für die medizinische Forschung am Menschen, den Belmont-Bericht zum Schutz der Menschen in der biomedizinischen und Verhaltensforschung und auch die nach einer Konferenz des Future of Life Institute zu Beginn des Jahres formulierten "Asilomar AI Principles" mit gleich 23 Prinzipien für die KI-Forschung ( Hawking warnt: Roboter könnten die Menschen ersetzen). Warum diese Prinzipien nicht ausreichen, wird nicht begründet, statt dessen wollen die Autoren mit einem eigenen Manifest andere Prinzipien geltend machen.

Anzeige