Welche Grenzen setzen wir Künstlicher Intelligenz?

Wie weit die Möglichkeiten Künstlicher Intelligenzen gehen, ist bislang nur eine technologische Frage. Und jeden Tag werden die Grenzen des Machbaren weiter nach hinten verschoben

Es ist gut und richtig, dass Philosophen und Soziologen immer wieder kritische Fragen stellen und die Entwickler und deren Finanziers auf ihre gesellschaftliche Verantwortung hinweisen. Es ist gut und richtig, dass Juristen darauf aufmerksam machen, wo die Rechtsprechung angesichts immer mächtigerer algorithmischer Prozesse an ihre Grenzen gelangt. Doch in welchen Fragen KIs eigenständig entscheiden sollen und wo sie lediglich dem Menschen bei der Entscheidungsfindung helfen sollen, ist keine juristische, keine philosophische und keine soziologische Frage.

Es ist eine Frage nach den Grenzen, die wir Menschen der KI setzen wollen.

Welche Funktionalität und welchen Autonomiegrad wir uns für smarte Geräte und Dienste wünschen und wo die Intelligenz den Rahmen unserer Zustimmung verlässt, spielt in Studien und Umfragen bislang ebenso wenig eine Rolle wie im medialen Diskurs. Doch wir brauchen eine solche Position - als Verbraucher, Staatsbürger, Arbeitnehmer und als diejenigen, die Verantwortung für künftige Generationen tragen.

Ein paar Gedankenspielereien:

Wenn ein schlauer Algorithmus in Diensten einer Versicherung heute schon die Schadensabwicklung übernimmt, kann er dann mit Duplex‘ Fähigkeiten nicht auch künftig die Kundenberater ersetzen? Oder gar mit Bildmanipulations-Algorithmen den Schadensanspruch für unbegründet erklären?

Sollen uns Neuronale Netze nur bei der Erforschung von Medikamenten und der Behandlung von Kranken helfen oder auch gleich - wie es das US-Startup "Aspire Health" anbietet - die Behandlungskosten angesichts der errechneten Lebenserwartung prognostizieren? Braucht es in Zukunft noch analoge Kontakte, wenn man heute schon Beziehungen zu KIs aufbauen kann, wie es sich die Cozmo-Entwickler vorstellen? Wenn Gesichtserkennungs-Algorithmen heute schon Kriminelle erkennen können, erkennen sie künftig auch Fremdgeher, Hände-Nicht-Wascher, Klingelbeutel-Boykotteure, Hundekot-Liegenlasser?

Wir haben gesehen, dass auch Schwache KIs, also auf eine Aufgabe oder wenige Aufgaben beschränkte Systeme, deutliche Auswirkungen auf unser Leben und unsere Gesellschaft haben. Deshalb muss bei den heute verfügbaren Anwendungen neben den vielen noch offenen Fragen vor allem die Frage nach der Grenze des Gewollten beantwortet werden - sei es bei algorithmischen Entscheidungen, bei autonomen Autos, intelligenten Haushaltsgeräten, Deep Fakes oder von Computern geschaffener Kunst.

Auch über gesetzliche Grenzen der KI-Entwicklung müssen wir nachdenken. Das geschieht bereits an verschiedenen Stellen, wenn auch ein Konsens noch in weiter Ferne ist, ganz zu schweigen von einem internationalen. Bislang haben noch nicht einmal alle Länder eine eigene KI-Strategie und wenn, dann bestehen sie in der Regel aus Willensbekundungen, die wiederum eher die Förderung der KI denn deren Begrenzung, sprich: Regulierung, betreffen.1

Das betrifft auch die im November 2018 veröffentlichte KI-Strategie der deutschen Bundesregierung. Diese möchte das Land unter dem Motto "AI made in Germany" zu einem "führenden KI-Standort" machen. Dennoch bleibt die Strategie in ethischen und sozialen Fragen, die zu Grenzsetzungen im Sinne dieses Kapitels führen könnten, sehr vage ("Wir wollen […] sensibilisieren; prüfen, ob […] weiterentwickelt werden muss, und die Beachtung ethischer und rechtlicher Grundsätze […] fördern und fordern."). Bereits das vorbereitende Eckpunkte-Papier vom Juli 2018 wurde in der ZEIT mit Blick auf die Ethik als "bemerkenswert defensiv" kritisiert; der Weg zum KI-Standort Nr. 1 sei "unkonkret, unausgegoren und unsortiert", urteilte die FAZ. Auch die Aussprache im Bundestag zu KI-Strategie enthielt viel Kritik: Das Papier sei nur ein Maßnahmenkatalog, rein wettbewerbsorientiert und ihm würden die Gemeinwohlorientierung sowie ethische Kriterien fehlen, monierte die Linke. Der FDP fehlten klare "Messpunkte" und Bündnis 90/Die Grünen kritisierten unter anderem die fehlende Einbindung in ein europäisches KI-Netzwerk.

Doch gibt es das überhaupt? Was die EU in Sachen KI - und vor allem in Sachen Ethik und KI - will, ist zumindest dem Autor dieses Textes nicht ganz klar. Da gibt es zum einen die reichlich unkonkrete KI-Strategie der Kommission vom April 2018, die für die EU "auf der Grundlage ihrer Werte eine führende Rolle in der KI-Revolution" prognostiziert. Dann gibt es den "koordinierten Plan" von Kommission und Mitgliedsstaaten, der im Dezember 2018 vorgestellt wurde. Er sieht unter anderem vor, dass alle EU-Länder bis Mitte 2019 eigene KI-Strategien entwickeln, die dann in die "Diskussionen auf EU-Ebene einfließen". Gemeinsam wolle man die Entwicklung und Nutzung der KI in Europa fördern. Ethische Fragen überantwortet der koordinierte Plan einer von der Kommission eingesetzten Expertengruppe.

Diese "Hochrangige Expertengruppe für Künstliche Intelligenz" legte im April 2019 ihre Ethischen Leitlinien für eine vertrauenswürdige KI vor. Das Dokument betont allerdings weniger die Ethik denn den wirtschaftlichen Nutzen der KI. Die Experten setzen beispielsweise auf eine freiwillige Übernahme der Leitlinien durch die betroffenen Unternehmen und Institutionen und verzichten auf die Festschreibung unverhandelbarer ethischer Prinzipien. Ein frustriertes Mitglied, der Mainzer Philosophieprofessor Thomas Metzinger, schreibt dieses Ergebnis unter anderem der "extremen Industrielastigkeit" der Gruppe zu.2

Der Text stammt aus dem Buch "Künftige Intelligenz: Menschsein im KI-Zeitalter" von Michael Brendel. Der Essay beschreibt die Geschichte und aktuelle Anwendungsfelder Künstlicher Intelligenz in gut verständlicher Sprache und wirft einen Blick in die nahe und mögliche fernere Zukunft mit der "Schlüsseltechnologie des 21. Jahrhunderts", wie Chinas Staatschef Xi Jinping sie nennt. Im Mittelpunkt steht die Frage, welche Haltung wir Menschen als Individuen, als Gesellschaft und als Völkergemeinschaft zu den immer leistungsfähigeren smarten Algorithmen finden. Denn die Technologie dringt, meist unbemerkt, in immer mehr Lebensbereiche vor, die bislang als menschliche Domänen gegolten haben - denken wir an die Automatisierung der Arbeitswelt, selbstfahrende Autos oder autonome Waffensysteme.

Am gleichen Tag wie die Expertengruppe stellte die EU-Kommission ein eigenes KI-Papier vor, dass auf den Ergebnissen der (von ihr berufenen) Experten basiert, aber eine ganz andere Sprache spricht.3 Der luxemburgische Theologieprofessor und Ethikexperte Erny Gillen hebt hervor, dass die Chancen, die KI bietet, in dem Kommissionspapier kritisch und realistisch eingeschätzt und auch die Herausforderungen ernstgenommen würden.

Tatsächlich spricht das Dokument viele in diesem Buch erwähnten Knackpunkte an: Es betont beispielsweise, dass die KI im Dienste des Menschen stehen müsse, der beispielsweise die "volle Kontrolle" über seine Daten behalten müsse. Hervorgehoben wird auch die Forderung nach der Nachprüfbarkeit algorithmischer Entscheidungen. Die Kommission spricht sich für die Pflicht aus, sämtliche Entscheidungen und den gesamten Weg bis zur Entscheidung zu dokumentieren. In der Forderung, Bürger in die KI-Entwicklung einzubeziehen, bleibt das Kommissionspapier leider vage, ebenso in der Forderung, KI-Prozessen müssten im Blick auf das "gesellschaftliche oder ökologische Wohlergeben" geprüft werden.

Sowohl die Bundesregierung als auch die EU sind mit ihren KI-Planungen noch nicht am Ende. Berlin will KI-Anwendungen in "Reallaboren" testen und die nationale KI-Strategie 2020 überprüfen und gegebenenfalls weiterentwickeln, Brüssel will die Leitlinien in einer Pilotphase von KI-Entwicklern und -Anwendern prüfen lassen und mit den Mitgliedsstaaten den koordinierten Plan weiterverfolgen.

Es scheint, als sei das Thema KI in der Politik angekommen. Doch konkrete Festlegungen zur Begrenzung algorithmischer Prozesse finden sich in keinem der hier erwähnten Dokumente. So verstreicht wichtige Zeit, während der die KI-Implementierung in Anwendungen und Prozessen fortschreitet und in vielen Bereichen Fakten geschaffen werden.

Konkrete Regulierungen auf internationaler Ebene fordern auch Marcel Dickow und Daniel Voelsen in einem Artikel für die Stiftung Wissenschaft und Politik. Sie weisen zudem darauf hin, dass auch öffentliche Institutionen KI einsetzen (Polizeiarbeit, autonome Waffen etc.; auch die Bundesregierung will verstärkt KI in Verwaltung und Gefahrenabwehr einsetzen, Anm. des Autors). Daraus folgern die Autoren: "Die gesetzgebenden Institutionen, Aufsichtsbehörden und internationalen Gremien stehen daher vor der Herausforderung, einen Teil ihrer eigenen Analyse und Entscheidungsfindungsinstrumente regulieren zu müssen."

Möglicherweise ist diese Tatsache (neben dem vermeintlichen Wettbewerbsnachteil) ein weiterer Faktor, der eine verbindliche Regulierung für Staaten unattraktiv macht. Doch was genau soll eigentlich reguliert werden?

Diese Frage stellen das Deutsche Forschungszentrum für Künstliche Intelligenz und der Bitkom-Verband in einem gemeinsamen Papier von 2017. Beide Organisationen werden von der Softwareindustrie (mit-) finanziert (beim DFKI sind u. a. Google und Microsoft im Boot) und sind staatlicher Regulierung gegenüber eher kritisch eingestellt. Doch weisen die Autoren zu Recht darauf hin, dass die Qualität einer KI nicht nur vom Algorithmus, sondern auch von den verwendeten Daten abhängig ist. Sowohl die Daten als auch der Algorithmus würden sich aber ständig verändern: Der Datenbestand werde ständig aktualisiert, und die Algorithmen "lernen permanent dazu". Dadurch fehle ein Anknüpfungspunkt für eine mögliche Regulierung: "Ebenso wenig kann hier regelmäßig eine Offenlegung des Algorithmus und die Dokumentation von Veränderungen auch kein[e] Abhilfe schaffen, ist diese doch bereits unmittelbar nach ihrer Fertigstellung aufgrund der stetigen Entwicklungen bereits veraltet und überholt."

Die hier aufgeworfene Frage ist bedenkenswert und fehlt in der aktuellen Diskussion weitgehend - betrifft aber natürlich auch die von Regulierungsskeptikern propagierte freiwillige Selbstkontrolle von KI-Firmen.

Dass sich die Industrie einer Begrenzung der KI nicht komplett verschließt, zeigen die Asilomar KI-Prinzipien. Im Januar 2017 fand im kalifornischen Asilomar die vom Future of Life Institute initiierte Tagung Beneficial AI (Wohltätige KI) statt. Die 23 Prinzipien, die eine verantwortungsvolle KI-Entwicklung fördern sollen, wurden dort in einem kooperativen Prozess von den gut 100 Teilnehmenden entwickelt und im Nachgang von 4.000 Forschern und Unternehmensvertretern unterschrieben. Zu den Unterzeichnern zählen neben Stephen Hawking, Elon Musk und Stuart Russell auch Ray Kurzweil, Googles Forschungsdirektor Peter Norvig, Facebooks KI-Direktor Yann LeCunn, die Mitgründer von Deep Mind, Skype und Apple, Forscher von IBM und Microsoft sowie ein Forscher der Hebei Universität in China.

Die Prinzipien beinhalten zuvorderst die Festlegung, keine "ungerichtete KI" zu entwickeln, sondern stets die Nützlichkeit und Wohltätigkeit anzustreben. Zudem sollen KI-Entwicklungen den Idealen der Menschenrechte, Menschenwürde und der kulturellen Vielfalt entsprechen, die Freiheit schützen und nicht nur einzelnen Personengruppen nutzen. Die Entwickler werden in die Pflicht genommen, moralische Werte mit zu bedenken und ihre Systeme nicht zum Untergraben bürgerlicher und sozialer Prozesse einzusetzen. Fortgeschrittene KI-Systeme sollten zudem strenge Sicherheits- und Kontrollmechanismen enthalten. Auf eine Obergrenze der Leistungsfähigkeit künftiger KI-Systeme konnten sich die Asilomar-Teilnehmer jedoch nicht einigen.

Somit ist die Frage der Grenzziehung erneut bzw. erst recht Aufgabe eines gesellschaftlichen Diskurses, den dieser Essay anstoßen und befördern möchte. Die Zeit drängt. Denn für eine Positionierung könnte es zu spät sein, wenn in möglicherweise nicht allzu ferner Zukunft starke KI-Systeme am Horizont erscheinen. Wenn Maschinen erst einmal so intelligent sind wie Menschen, könnte eine völlige Entgrenzung unaufhaltbar sein.