Missing Link: Künstliche Intelligenz - Justitias Freund und Helfer?

Die Pandemie hat Gerichte zur Digitalität gezwungen. eAkte und elektronischer Rechtsverkehr bringen viele elektronischen Daten. Geht es nicht mehr ohne KI?

Lesezeit: 15 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 49 Beiträge

(Bild: Shutterstock/Phonlamai Photo)

Von
  • Monika Ermert
Inhaltsverzeichnis

Teils Schwerfälligkeit der Apparate, teils gesunde Skepsis der Richterschaft haben die deutsche Justiz bislang vor der Mode bewahrt, dass ohne KI nichts mehr geht. Doch die Gerichte werden von Anwalts- und Strafverfolger-Seite gezwungen, sich mit dem Thema auseinanderzusetzen und zu überlegen, wo die Grenzen automatisierter Rechtsfindung liegen.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Vor einem Jahr berichtete die New York Times die Geschichte von Robert Julian-Borchak Williams, Mitarbeiter eines Autozulieferers in Detroit, schwarz. Williams war von der Polizei in Detroit vor den Augen seiner Familie verhaftet worden, weil die Gesichtserkennungssoftware der Firma DataWorks Plus sein Führerscheinbild als Match einer Videoüberwachungsaufzeichnung ausgespuckt hatte, die einen Einbruch in einem Juweliergeschäft zeigte.

Williams Festnahme wurde als erster – nach Ansicht von Experten wohl eher erster bekannt gewordener – Fall eines auf einen Algorithmus zurückzuführenden Justizirrtums bezeichnet.

Der Tag, an dem künstliche Intelligenz und von ihr angetriebene Maschinen, die Beweisaufnahme im Gerichtssaal oder gar richterliche Entscheidungen unterstützen, sei längst da, sagte der Vorsitzende Richter des Obersten Gerichtshofs der USA, Chief Justice Roberts schon drei Jahre zuvor.

Tatsächlich werden bekanntermaßen seit langem Computerprogramme zur Berechnung des Risikos eingesetzt, mit dem ein Straftäter rückfällig werden könnte. Richter in vielen Bundesstaaten verwenden etwa die von COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) errechneten Score-Werte bei der Straf-, der Kautionszumessung oder bei Entscheidungen über eine vorzeitige Haftentlassung ein.

Der US-amerikanische Non-Profit-Newsdesk "ProPublica" für investigativen Journalismus analysierte vor fünf Jahren, dass COMPAS Schwarze diskriminiere. Eine neue Studie befand, dass die Vorhersagen des Programms in der Genauigkeit der einer Gruppe von Laien entspreche. Dennoch läuft COMPAS nach wie vor.

Das COMPAS-Beispiel fehlt in keiner der aktuellen deutschen Fachberichte über Chancen und Risiken von KI in der Justiz, und immer wird es mit spitzen Fingern angefasst.

Nicht nur eine etwaige vollautomatisierte Entscheidung im Gerichtsverfahren verbiete das Grundgesetz, genauer gesagt Artikel 92, in dem eine natürliche Person als Richter vorgeschrieben ist, heißt es im 120 Seiten starken Abschlussbericht einer Länderarbeitsgruppe der Justizministerien zum Thema "Legal Tech: Herausforderungen für die Justiz".

Auch eine Bindung des Richters "an von außen kommende Leitlinien und Verwaltungsvorschriften" sei untersagt, "so dass computergestützte Entscheidungshilfen nur dann zulässig sind, wenn dem Richter die Möglichkeit einer unabhängigen Entscheidung dadurch erhalten wird, dass entweder mehrere Rechenmethoden als Folge unterschiedlicher möglicher Auslegungsvarianten zur Wahl gestellt werden oder für den Richter ohne weiteres erkennbar ist, dass der Berechnung eine bestimmte Auslegung zugrunde liegt (..)".

Auf gut Deutsch gesagt, seien Richter durchaus dankbar für neue Werkzeuge, sagt der Reutlinger Amtsrichter Sierk Hamann. "Aber man muss wissen, was unter der Motorhaube passiert."

Das ist nicht ganz leicht und wird im Fall von Gerichtsverfahren noch dadurch erschwert, dass richterliche Entscheidungen nicht schlichten Wenn-Dann-Schlüssen folgen. Zwar lasse sich auch Kontext einpflegen in Algorithmen, schreibt die Wissenschaftlerin Hannah Ofterdinger vom Lehrstuhl für Strafrecht und Strafprozessrecht an der Universität Hamburg. Aber Dinge wie die aus einer Tat sprechende Gesinnung, die Richter etwa bei der Strafzumessung mit berücksichtigen sollen, sind schwer zu operationalisieren. Dabei gehe es, so zitiert Ofterdinger aus der Fachliteratur, auch um ethische Fragestellungen – harte Kost für Programmierer und Algorithmus.

Schon ohne solche heiklen Wertungsfragen sind die Algorithmen komplex genug, dass Offenheit schwierig sein kann. Ohne Transparenz von verwendeten Kriterien und einfließenden Wertungen verletzt der Einsatz von Algorithmen das Recht auf ein faires und für die Beteiligten nachvollziehbares Verfahren, schreibt die Bund-Länder-Gruppe, und verstößt gegen das Willkür-Verbot.

Angesichts solch klarer Worte von Juristen aus der Praxis, der Wissenschaft und aus der eigens zu dem Thema eingesetzten Bund-Länder-Arbeitsgruppe, könnte man an dieser Stelle einen Punkt machen.