Missing Link: Wie KI das menschliche Handlungsvermögen untergräbt

Wie steht es mit der Handlungsfähigkeit des Menschen, wenn ihn zunehmend Expertensysteme alias KI umgeben und seine Entscheidungen vorwegnehmen?

Lesezeit: 8 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 211 Beiträge

(Bild: PHOTOCREO Michal Bednarek/Shutterstock.com)

Von

Es ist das Mantra, das von Verfechtern der Künstlichen Intelligenz (KI) immer wieder als Beruhigungspille gereicht und von Datenethikern allseits gefordert wird: Die "letzte" Entscheidungsgewalt über auch noch so ausgefuchste Algorithmen-getriebene Systeme hat natürlich der Mensch. Ob es ums Töten mit Killer-Drohnen geht oder die brenzlige Situation beim Fahren mit Autopilot: ein vernunftbegabtes Wesen aus Fleisch und Blut soll immer eingriffsfähig sein und die Geschicke auf Basis der maschinellen Erkennungsmöglichkeiten im Endeffekt lenken.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Vor allem im militärisch-industriellen Komplex, wo längst an autonomen tödlichen Waffen geforscht und gearbeitet wird, wird diese Zauberformel beschworen. Der Mensch bleibe auch bei weitgehend autonom agierenden Kampfsystemen "in the loop", lautet hier die Standardversicherung. Er bestimme also, welches Ziel die Maschine angreift, und löse innerhalb der Entscheidungskette dann auch die Hellfire-Rakete oder den Gewehrschuss aus.

"Wir haben nicht die Absicht, Systeme einzuführen, die autonom töten", betont der Leiter der Unterabteilung Zukunftsentwicklung bei der Bundeswehr, Gerald Funke. Die deutschen Streitkräfte müssten sich aber trotzdem damit beschäftigen, "was Autonomie von Waffensystemen bedeutet" und was "die andere Seite" möglicherweise damit anstellen könne.

Das Verteidigungsministerium habe zudem ein Interesse daran, etwa im Kampf gegen Hyperschallraketen "die Geschwindigkeit zu erhöhen", große Datenmengen mit KI besser zu bewältigen oder eine "möglichst hohe Durchsetzungsfähigkeit" beim eingesetzten Instrumentarium zu erreichen, weiß der Brigadegeneral. Es spreche nichts etwa gegen Drohnen, die autonom auch eine zerstörte Landebahn ansteuerten, oder gegen Roboter, die sich bei der Bergung Verwundeter selbst die ungefährlichste Route suchten. Bei einigen Systemen sei es also doch vorstellbar, "dass wir nicht mehr 'Human in the Loop' haben", solange schnelle und sachgerechte Entscheidungen gewährleistet würden.

So unterscheiden das Militär und Forscher bereits zwischen "in the Loop" und "on the loop". Beim zuletzt genannten Ansatz soll der Mensch zwar auch noch irgendwie das Sagen haben und die selbständig agierende Maschine zumindest überwachen und übersteuern können. Doch spätestens dabei ist für Beobachter kaum mehr erkennbar, ob eine tatsächliche Kontrolle noch möglich ist.

Die Göttinger Technikphilosophin Catrin Misselhorn erläutert dies in einem Gespräch mit der "Zeit": "Nominell bleibt der Mensch zwar verantwortlich. Doch muss er nicht davon ausgehen, dass die Maschine in einer besseren Entscheidungssituation ist als er selbst?" Diese sei so konstruiert und programmiert worden, dass sie dem Menschen "epistemisch überlegen", also in der speziellen Kampfsituation in einer besseren Erkenntnislage sei. Der Nutzer müsse ihr daher eigentlich vertrauen.

In solch einer Lage sei der Mensch zudem von der Zuarbeit der Maschine abhängig, führt die Professorin aus. Er bleibe ja bereits weitgehend außen vor, wenn die zugrundeliegenden Daten zusammengestellt, gefiltert und algorithmisch verarbeitet würden, auf deren Basis ein Ziel ausgesucht und beschossen werde. Der Anwender sei damit zumindest in einem Dilemma: "Erkennt er die Überlegenheit der Maschine an, kann er den Schuss eigentlich nicht verweigern." Von Kontrolle sei dann keine Rede mehr. Misstraue der Mensch dem System dagegen prinzipiell und folge er dessen Vorgaben nicht, "wäre die Maschine hinfällig im Sinne ihrer Erfinder".

Die Expertin für Roboterethik hat ihre Kritik zunächst nur auf ein "On the Loop"-Szenario bezogen. Doch sie lässt sich genauso auf Systeme übertragen, bei denen der Bediener am Ende des automatisierten Entscheidungsprozesse noch – mehr oder weniger symbolisch – einen Knopf drücken muss.

(Bild: sdecoret/Shutterstock.com)

Ein Beispiel aus einem anderen Bereich bringt Louise Amoore, die als Professorin für Geographie an der britischen Durham-Universität den Einsatz von Big-Data-Analysen nicht nur im Bereich von Grenzkontrollen untersucht. "Einer der frappierendsten Momente in meiner jüngsten Forschung war, als eine erfahrene Chirurgin mir berichtete, dass der Einsatz eines chirurgischen Roboters beim Herausschneiden von Tumoren die Einschätzung der Grenzen ihrer eigenen Handlungsfähigkeit veränderte", berichtet die Wissenschaftlerin in einem Interview zur "Politik der Künstlichen Intelligenz".

Die Ärztin hat Amoore zufolge überhaupt nicht mehr unterschieden zwischen dem Hilfsgerät, den Algorithmen, die die Schnittstelle zu der Maschine lebendig wirken ließen, und ihren menschlichen Fähigkeiten. Alle drei Kategorien seien für sie völlig miteinander verwoben gewesen.

"Dieselbe Gruppe von Algorithmen wird in autonomen Waffen und autonomen Fahrzeugen verwendet", gibt die Forscherin zu bedenken. Neuronale Netzwerke orteten dabei die Enden des Krebsgeschwürs genauso wie Territorien, Gesichter und ähnliche Dinge durch die Datensets, mit denen sie trainiert worden seien. Da Techniken wie Bilderkennung und Sprachverarbeitung auf Deep Learning setzen, "redeten" intelligente Objekte in der Umgebung in ganz neuer Weise mit den Menschen.

"Dieses Phänomen sollte stärker berücksichtigt werden in Debatten über den Menschen 'in the loop'", fordert Amoore. Solche Diskussionen würden eh oft nur geführt, um autonome Systeme mit einem Hauch von Ethik zu versehen. Es gelte zu beachten, wie die Beziehungen dieser Anwender von KI-Systemen geprägt würden durch ihre Kollaboration mit Algorithmen.

Die Einwände der Datenforscherin beziehen sich keineswegs nur auf Operations- oder Killer-Roboter, sondern auch auf automatisierte Entscheidungssysteme wie Predictive Policing, Scoring bis hin zum chinesischen "Sozialkreditwesen" oder die in den USA im Justizwesen eingesetzte Technik Correctional Offender Management Profiling for Alternative Sanctions (Compas), die Rückfallwahrscheinlichkeiten von Kriminellen abschätzt. Der Mensch und seine Überlebenschancen werden ihr zufolge generell immer stärker von Algorithmen abhängig.

Ein Polizist, ein Grenzkontrolleur oder ein Richter könnten sich zwar irren und falsche Entscheidungen treffen, räumt Amoore ein. Dies zweifle aber auch kaum jemand an und deswegen gebe es einschlägige Beschwerde- und Berufungsmöglichkeiten. Komme ein neuronales Netz, das als Instrument zur Entscheidungshilfe beschrieben wird, dagegen zu einem Ergebnis, gehe mit diesem der Anspruch einer neutralen, korrekten Lösung einher. Von Unwägbarkeiten sei dabei meist keine Rede, obwohl das zugrundeliegende KI-System in der Regel eine Blackbox sei und der Weg hin zu einem Resultat ebenfalls im Dunkeln bleibe.

Für Elke Schwarz, Dozentin für politische Theorie an der Queen-Mary-Universität in London, ist ebenfalls nicht mehr klar, ob der Mensch noch selbst entscheidet, wenn er "vollends eingebettet ist in die Maschinenlogik" und selbst "hauptsächlich auch nur als Systemteil funktioniert". Dies gelte vor allem dann, wenn Algorithmen auf eine Art und Weise arbeiteten, "die der Mensch intellektuell und kognitiv nicht so richtig verstehen kann", erläuterte sie in einem Vortrag über KI, autonome Waffen und "politisch-moralische Verkümmerung" auf dem Jahreskongress 2019 des Forums InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF).

Angesichts omnipräsenter digitaler Systeme ist es Schwarz zufolge wichtig zu erkunden, "in welchem Maß wir überhaupt die Technologie als pures Instrument benutzen können, und inwieweit unser Handeln, Denken, unser Verlangen, unsere Ideen und auch unsere Rechtfertigungen von technologischen Strukturen geformt werden". Gerade wenn es gelte, umgeben von Netzwerken und digitalen Schnittstellen, unter Umständen in Sekundenschnelle zu handeln, "wird es problematisch mit der Kontrolle" und der Frage, wer verantwortlich sei für die Folgen etwa eines Knopfdrucks.

Die kognitive Psychologie bestätige, "dass wir im Umgang mit Maschinen dazu tendieren, nicht das kontrollierte Denken einzuschalten, sondern das automatische", weiß die Ethikexpertin. Ganz speziell in der Interaktion mit KI-Systemen neige der Mensch dazu, sich auf vorgelegte Daten und Beweise zu verlassen, keine alternativen Fakten mehr zu suchen und großes Vertrauen in die Technik zu legen. Dabei sei es hier besonders schwierig, Ergebnisse richtig einzuschätzen, wenn die Einsicht in die verwendeten Trainingsdatensätze und in die Funktionsweise der Algorithmen nur sehr begrenzt erfolgen könne.

(Bild: sdecoret / Shutterstock.com)

Der tödliche Uber-Unfall in Arizona in 2018 veranschaulicht für Schwarz den Kontrollverlust auf tragische Weise. Das "autonome Auto" habe zu wenig Daten gehabt, um die Frau richtig zu kategorisieren, die ihr Fahrrad über die Straße geschoben habe. Zusätzlich sei das Fahrzeugsystem auf eine kurze Verzögerungszeit vor einem Bremsvorgang eingestellt gewesen, um exzessive Fehlstopps zu vermeiden. Die Fahrerin wiederum habe der Technik so sehr vertraut, dass sie ein Video anschaute und die Situation ebenfalls nicht rechtzeitig angemessen einschätzen konnte. Genau an diesem Punkt entstehe "ein moralisches Vakuum" und die Frage bleibe offen, wer die Verantwortung für das Todesopfer übernehmen solle.

Um diese Lücke zu füllen, werde zunehmend versucht, ethische Entscheidungen "in die Maschine selbst zu verlagern", konstatiert die Autorin von "Death Machines: The Ethics of Violent Technologies". Dies funktioniere aber allenfalls bei einem rein rationalen, primär Kosten-Nutzen-orientierten Denkansatz, der die Welt primär in wirtschaftlich-mathematischen Konturen sehe. Wer davon ausgehe, dass sich ethisches Handeln berechnen lasse, reduziere dieses aber auf reines Risikomanagement: Alles, was nicht als Daten aufgefasst werden könne, sei auch nicht moralisch adressierbar und bleibe außen vor.

Eine solche "Ethik des Krieges" stelle nur noch auf die berühmt-berüchtigten "Kollateralschäden" ab, moniert Schwarz. Alles drehe sich so um die Frage, wie viele Todesfälle in der Zivilbevölkerung in Kauf genommen werden könnten, um ein Ziel zu erreichen. Nicht thematisierbar seien dabei etwa "die weniger mess- und zählbaren, aber dennoch zahlreichen Traumata und psychologischen oder physischen Verwundungen, die ein Krieg immer verursacht".

So verkümmert der Forscherin zufolge die menschliche (moralische) Handlungsfähigkeit im KI-Zeitalter. Ein früherer US-Scharfschütze habe dies auf den Punkt gebracht: "Wenn man sich auf den Mythos der Technologie und des distanzierten Tötens verlässt, um die rationalen Grundlagen für einen vereinfachten Krieg zu legen, wird man seine Seele verlieren."

Dass Künstlicher Intelligenz der Nimbus der kalten Rationalität und ein Hauch von Unfehlbarkeit anhaftet, ist auch der Kommunikationswissenschaftlerin Tanja Sihvonen nicht entgangen. Gebe man KI in eine Bildersuche ein, sehe man vor allem stilisierte menschliche Gehirne, Synapsen- und Netzwerkdarstellungen sowie Roboterköpfe, teilte die Finnin ihre diesbezüglichen Erkenntnisse auf der Konferenz "Ambient Revolts" 2018 in Berlin. Fast allen Abbildungen gemeinsam sei, dass in ihnen die Farbe Blau in unterschiedlichsten Abstufungen dominiere. Der Ton wirkt auf Menschen traditionell kühl wie Eis, Wasser oder der Himmel.

Offenbar soll so vor allem die Fähigkeit eines nicht-menschlichen "Gehirns" veranschaulicht werden, menschliches Verhalten und Gefühle anhand von Datenspuren zu interpretieren, schätzt Sihvonen. KI stehe oft für analytische Prognoseverfahren, "die uns sagen, was wir als nächstes tun, denken, oder kaufen werden". Die dafür verwendeten Algorithmen seien unsichtbar, müssten aber auch bildhaft vermittelt werden, um sie irgendwie begreifbar zu machen.

Blau ist für die Professorin an der Universität Vaasa dabei eigentlich eine schlechte Wahl, da Algorithmen "die Welt in einer gewissen Art und Weise erscheinen lassen" und andere Interpretationsweisen damit ausschlössen. Die Programmroutinen seien so "niemals unschuldig". Berechtigt sei daher zudem die Frage, "was Algorithmen wollen". Sihvonen geht davon aus, dass sie "ihre eigene Handlungsfähigkeit haben. Sie wollen eine Verbindung und Koexistenz mit uns, die vorteilhaft ist für beide Seiten".

Virtuelle Agenten wie Alexa, Bob, Clippy und Cortana, die in ihren aktuellen Varianten eine einfache Benutzerschnittstelle für dahinterliegende Systeme der Künstlichen Intelligenz darstellen, sprechen laut der Medienforscherin für diese These. Microsofts fehlgeleitete, nach kurzer Zeit im Umgang mit anderen Nutzern rassistische Züge aufweisende KI Tay habe aber auch gezeigt, dass der wundervolle Traum von sich einfühlsam gebenden Social Bots nur sehr kurzlebig gewesen sei. Es gelte daher, immer auch die kleinen Sprünge und Fehler im System beziehungsweise in der Matrix im Blick zu behalten und aktiv aufzuspüren.

Die menschliche Handlungsmacht wird nicht erst im KI-Zeitalter angezweifelt. In der politischen Theorie des klassischen Liberalismus verankern Denker die Handlungsfähigkeit zwar noch im rationalen Individuum selbst, schreibt der Medientheoretiker Felix Stalder in einem Essay zum einschlägigen Fachbegriff "Agency" im Netzzeitalter. Sie basiert darin "auf dessen freien Willen, Fähigkeit zur Selbstreflexion, der Rationalität und Intentionalität des Handelns". In den meisten anderen Perspektiven der Neuzeit werde Handlungsvermögen aber nur noch relational zu den Umständen angesehen, in denen sich ein Akteur befinde.

Der Marxismus etwa verortet Handlungsfähigkeit laut Stalder "primär auf der Ebene der Kollektive, geformt durch deren objektive historische Bedingungen". Karl Marx selbst habe dies so ausgedrückt: "Die Menschen machen ihre eigene Geschichte, aber sie machen sie nicht aus freien Stücken, nicht unter selbstgewählten, sondern unter unmittelbar vorgefundenen, gegebenen und überlieferten Umständen." Post-marxistische, psychoanalytische und post-strukturalistische Theoretiker wie Louis Althusser, Sigmund Freud oder Michel Foucault sähen den menschlichen Aktionsradius wiederum als reinen Effekt ideologischer, unbewusster oder sprachlicher Prozesse und Dispositive, "die zu einem wesentlichen Teil jenseits oder zumindest außerhalb der Kontrolle des Individuums angesiedelt werden".

Der Topos des menschlichen Kontrollverlusts, den Experten aufgrund von KI derzeit häufig im Munde führen, ist also nicht ganz neu. Der Post-Strukturalismus sei es auch gewesen, der sich in den 1980er Jahren für das Potenzial nicht-menschlicher Akteure zu interessieren begonnen habe, erläutert Stalder. Als zentrale Begriffe der Debatte hätten "Maschine" als Gefüge einer neuen handelnden Einheit unterschiedlicher Elemente beziehungsweise "Assemblage" (Gilles Deleuze und Félix Guattari) sowie "Akteur-Netzwerk" (Bruno Latour) gedient.

Auch den US-Soziologen Langdon Winner und seinen Aufsatz "Do Artifacts have Politics" reiht der Medienforscher hier ein. Demnach erwächst der politische Charakter von Technologien nicht nur aus ihrer Nutzung. Vielmehr sind spezielle politische Abläufe bereits in die technischen Methoden selbst eingebaut, um in jeder Form ihrer Anwendung eine spezielle Wirkung zu entfalten. Technische Gegenstände alias Artefakte wohnt demnach eine politische Wirkmächtigkeit inne: eine Erntemaschine etwa trägt das Programm der industriellen Rationalisierung in sich.

Weitgehend zeitlich parallel entstehen im kulturellen Bereich Science-Fiction-Filme wie Colossus, in denen übermächtig scheinende Computer die Handlungsfähigkeit des Menschen völlig unterlaufen. Ein riesiges, in den USA für die Raketenabwehr gebautes Elektronengehirn vereinigt sich in dem Streifen von 1970 zunächst mit einem vergleichbaren sowjetischen Verteidigungssystem und plant die globale Machtübernahme. Wissenschaftler, die sich dagegen zu wehren suchen, müssen auf Befehl des Superrechners, der nach der von den Engländern im Zweiten Weltkrieg genutzten Dechiffriermaschine benannt ist, erschossen und verbrannt werden.

Ähnlich wie Orwells Großer Bruder verlangt die ziemlich blechern klingende KI, dass die Menschen ihre Herrschaft innerlich akzeptieren und sie lieben lernen sollten. Wer sich nicht fügt, wird ausgelöscht, schon um den Frieden auf Erden zu wahren. "Hal 9000" lässt grüßen, denn Stanley Kubrick hatte in seinem Oscar-prämierten Filmklassiker "2001: Odyssee im Weltraum" schon zwei Jahre zuvor einen schier allwissenden Supercomputer mit rot leuchtendem Auge in Szene gesetzt, der ein für die Astronauten unschönes Eigenleben entwickelt und Tote verursacht.

Den Gedanken, dass wir alle in einer computerprogrammierten Wirklichkeit leben und von Maschinen ferngesteuert werden könnten, haben die Kinogänger spätestens mit der Matrix-Trilogie seit 1999 in sich aufgesogen. Der Aufstand beziehungsweise die Rebellion der Maschinen gipfelte schließlich vorläufig nach den bereits opulenten Anfängen aus dem Jahr 1984 knapp zwei Jahrzehnte später 2003 in "Terminator 3".

(Bild: Phonlamai Photo / Shutterstock.com)

"Wenn die Computer die Stufe erreichen, dass sie sich selbstständig entwickeln können, dann nehmen sie sicher auch untereinander Beziehungen auf, das machen sie heute schon", spekulierte der Physiker Bertram Köhler 2006 über den weiteren Evolutionsverlauf. "Wenn man an das Internet denkt, alle Computer sind schon miteinander in Kontakt und tauschen Informationen aus." Dies könne die Grundlage dafür sein, "dass in Zukunft ähnliche Beziehungen aufgebaut werden wie wir sie heute von Menschen kennen".

Eine Ende 2018 veröffentlichte Studie des US-Marktforschungsinstituts Pew auf Basis einer Umfrage unter 979 Technologiepionieren, Erfindern, Entwicklern, wirtschaftlichen und politischen Führungskräften, Forschern und Aktivisten ergab, dass sich viele von einer vernetzten KI vor allem eine Steigerung der menschlichen Effektivität versprechen. Skeptiker sehen darin aber auch eine große Gefahr für die Autonomie, Handlungsfähigkeit und andere Fertigkeiten des Menschen.

Die Entscheidung über Schlüsselaspekte des digitalen Lebens wird automatisch abgetreten an Code-getriebene "Blackbox-Werkzeuge", lautete eine immer wieder geäußerte Befürchtung im Rahmen der Untersuchung. Die Menschen seien bereit, ihre Unabhängigkeit, Privatheit und Macht für Bequemlichkeit und vermeintlich mehr Wahlmöglichkeiten zu opfern, eine andere. Es wachse der Druck auf alle Gesellschaftsmitglieder, so zu leben, wie es "das System" als "das Beste für uns" vorgebe. KI werde nicht zuletzt die gegenwärtigen Überwachungs- und Haftungsprobleme verschärfen, lautete eine weitere oft genannte Sorge. Wie lang wirkt da noch das Narkosemittel, dass der Mensch doch immer am Drücker bleibt?

(bme)