Debatte über KI: Hersteller sollen auch ohne Verschulden haften

Schärfere Haftung für Schäden durch KI-Systeme und zahlreiche ethische Prinzipien beim Einsatz empfehlen Fachleute bei einem Forum des Weizenbaum-Instituts.

Lesezeit: 4 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 42 Beiträge

(Bild: metamorworks/Shutterstock.com)

Von
  • Ulrich Hottelet

Die schwierige Frage der Haftung für Schäden, die beim Einsatz von Künstlicher Intelligenz entstehen, stand im Zentrum des Forums "Ich war's nicht – der Computer war's. Wer haftet für den Einsatz von lernfähigen Robotern?" des Weizenbaum-Instituts für die vernetzte Gesellschaft.

In seiner technischen Einführung wies Rainer Rehak, wissenschaftlicher Mitarbeiter des Instituts, auf das Problem hin, dass die KI-Entwickler am Ende der Konfiguration oft nicht wissen, warum ihre KI zu einem bestimmten Ergebnis oder einer Entscheidung gekommen ist, auch wenn sie die Bestandteile des Systems zuvor verstanden haben. "Eine solche Blackbox kann es aber auch bei Nicht-KI-Systemen geben", sagte er. "Letztlich hat Machine Learning wenig mit menschlichem Lernen zu tun."

Die Maschine sei kein Akteur, sondern bleibe ein Werkzeug. Daraus folge, dass ein verantwortliches und rücksichtsvolles Verhalten im Sinne des §1 Straßenverkehrsordnung für eine KI sehr schwer umzusetzen sei. Ihre technische Leistungsfähigkeit steige im Gegensatz zur Hardware-Kapazität nach dem Mooreschen Gesetz nur linear.

Der IT-Rechts-Professor und Direktor des Weizenbaum-Instituts Herbert Zech plädierte bei hochriskanter KI für eine verschuldensunabhängige Gefährdungshaftung der Hersteller. "Wir sollten sie einführen, weil sie Risiken internalisiert und richtige Anreize zu deren Verringerung setzt", sagte er. Robotik, Lernfähigkeit und Vernetzung sind dabei Risikotreiber. In diese Richtung gehe auch ein Gesetzesvorschlag des EU-Parlaments vom Oktober 2020. Zech legte einen Beschluss des Parlaments dazu so aus, dass bei Schäden durch hochriskante KI deren Fehlerhaftigkeit vermutet werden sollte. Das entspricht einer Beweislastumkehr der EU-Produkthaftung und einer Parallele zur verschuldensunabhängigen Kfz-Halterhaftung.

Als Grund für seine Empfehlung nannte er die Zwecke der Haftung und die Steuerungswirkungen. "Wenn man nur bei Verschulden haftet, wird man sich als Hersteller nur gerade so verhalten, dass man nicht haftet. Wenn man aber in jedem Fall haftet, wägt man ab, ob sich die Pflichtenübernahme lohnt. Risiken sollten nur eingegangen werden, wenn das sinnvoll ist." Das setze auch den Anreiz, Techniken sicherer zu entwickeln. Noch Zukunftsmusik ist seine Überlegung, eine haftungsersetzende gesetzliche KI-Unfallversicherung ähnlich wie bei der Berufsunfähigkeit einzuführen. Zech verspricht sich davon die Förderung von Technik und mehr Technikakzeptanz sowie eine Vermeidung von Beweisproblemen.

Die Rechtsphilosophin Kirsten Bock ging in ihrem Vortrag auf sieben ethische Prinzipien beim Einsatz von KI ein, die von Fachleuten in der EU derzeit diskutiert werden. Bock vertritt die Aufsichtsbehörden der Länder in Arbeitsgruppen des europäischen Datenschutzausschusses EDSA. An erster Stelle sei die Aufsicht über Technologie nötig, um Grund- und Menschenrechte einzuhalten. Dabei müsse man überlegen, welche Behörden die Aufsicht führen sollten und welche Eingriffsmöglichkeiten sie bräuchten. Weitere Kriterien sind die technische Robustheit, data governance und Datenschutz sowie Transparenz.

Für viel Diskussionsstoff in den vergangenen Jahren sorgte das Prinzip der Nicht-Diskriminierung durch KI-Systeme. Oft hatten die eingefütterten Daten zu unfairen Entscheidungen geführt, ohne dass das beabsichtigt war. Um das "gesellschaftliche und ökologische Wohlergehen" zu sichern, hielt Bock es für überlegenswert, Nachhaltigkeitsmanager nach Vorbild von Datenschutzbeauftragten in die Unternehmen zu schicken. Als siebtes und letztes Prinzip nannte sie die Rechenschaftspflicht, wobei diese durch das Produkthaftungs- und Vertragsrecht im Wesentlichen abgedeckt sei.

Im Anschluss sprach sie vom grundsätzlichen Problem, dass Unternehmen ausschließlich auf Gewinnmaximierung ausgerichtet seien. Die Gesellschaft müsse daher überlegen, wie sie daraus resultierende Risiken zugunsten des Gemeinwohls regeln und verringern wolle. "Warum reden wir nur über das autonome Auto und nicht über den autonomen Rollstuhl? Der ist kommerziell uninteressanter, wäre aber gesellschaftlich wohl wertvoller."

Zum Abschluss des Forums nahmen die drei Fachleute zur Empfehlung der SPD Stellung, für KI eine "tastende Regulierung" einzuführen. "Mir fehlt da der Mut, Position zu beziehen. Die KI-Enquete-Berichte sind zu vorsichtig. Sie sollten besser eine Richtung vorgeben", sagte Rehak. Zech erklärte, dass Regulierung immer nur reagieren könne. Man müsse abwägen, in welchen Bereichen man keine KI wolle. Bock nannte die SPD-Formulierung "trivial". "Wir tasten uns immer voran. Ich vermisse dagegen die Frage: Wie wollen wir künftig leben? Wollen wir mehr KI? Besonders junge Menschen sollten das entscheiden."

(mho)