Missing Link: Künstliche Intelligenz - Justitias Freund und Helfer?

Die Pandemie hat Gerichte zur Digitalität gezwungen. eAkte und elektronischer Rechtsverkehr bringen viele elektronischen Daten. Geht es nicht mehr ohne KI?

Lesezeit: 15 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 49 Beiträge

(Bild: Shutterstock/Phonlamai Photo)

Von
  • Monika Ermert
Inhaltsverzeichnis

Teils Schwerfälligkeit der Apparate, teils gesunde Skepsis der Richterschaft haben die deutsche Justiz bislang vor der Mode bewahrt, dass ohne KI nichts mehr geht. Doch die Gerichte werden von Anwalts- und Strafverfolger-Seite gezwungen, sich mit dem Thema auseinanderzusetzen und zu überlegen, wo die Grenzen automatisierter Rechtsfindung liegen.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Vor einem Jahr berichtete die New York Times die Geschichte von Robert Julian-Borchak Williams, Mitarbeiter eines Autozulieferers in Detroit, schwarz. Williams war von der Polizei in Detroit vor den Augen seiner Familie verhaftet worden, weil die Gesichtserkennungssoftware der Firma DataWorks Plus sein Führerscheinbild als Match einer Videoüberwachungsaufzeichnung ausgespuckt hatte, die einen Einbruch in einem Juweliergeschäft zeigte.

Williams Festnahme wurde als erster – nach Ansicht von Experten wohl eher erster bekannt gewordener – Fall eines auf einen Algorithmus zurückzuführenden Justizirrtums bezeichnet.

Der Tag, an dem künstliche Intelligenz und von ihr angetriebene Maschinen, die Beweisaufnahme im Gerichtssaal oder gar richterliche Entscheidungen unterstützen, sei längst da, sagte der Vorsitzende Richter des Obersten Gerichtshofs der USA, Chief Justice Roberts schon drei Jahre zuvor.

Tatsächlich werden bekanntermaßen seit langem Computerprogramme zur Berechnung des Risikos eingesetzt, mit dem ein Straftäter rückfällig werden könnte. Richter in vielen Bundesstaaten verwenden etwa die von COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) errechneten Score-Werte bei der Straf-, der Kautionszumessung oder bei Entscheidungen über eine vorzeitige Haftentlassung ein.

Der US-amerikanische Non-Profit-Newsdesk "ProPublica" für investigativen Journalismus analysierte vor fünf Jahren, dass COMPAS Schwarze diskriminiere. Eine neue Studie befand, dass die Vorhersagen des Programms in der Genauigkeit der einer Gruppe von Laien entspreche. Dennoch läuft COMPAS nach wie vor.

Das COMPAS-Beispiel fehlt in keiner der aktuellen deutschen Fachberichte über Chancen und Risiken von KI in der Justiz, und immer wird es mit spitzen Fingern angefasst.

Nicht nur eine etwaige vollautomatisierte Entscheidung im Gerichtsverfahren verbiete das Grundgesetz, genauer gesagt Artikel 92, in dem eine natürliche Person als Richter vorgeschrieben ist, heißt es im 120 Seiten starken Abschlussbericht einer Länderarbeitsgruppe der Justizministerien zum Thema "Legal Tech: Herausforderungen für die Justiz".

Auch eine Bindung des Richters "an von außen kommende Leitlinien und Verwaltungsvorschriften" sei untersagt, "so dass computergestützte Entscheidungshilfen nur dann zulässig sind, wenn dem Richter die Möglichkeit einer unabhängigen Entscheidung dadurch erhalten wird, dass entweder mehrere Rechenmethoden als Folge unterschiedlicher möglicher Auslegungsvarianten zur Wahl gestellt werden oder für den Richter ohne weiteres erkennbar ist, dass der Berechnung eine bestimmte Auslegung zugrunde liegt (..)".

Auf gut Deutsch gesagt, seien Richter durchaus dankbar für neue Werkzeuge, sagt der Reutlinger Amtsrichter Sierk Hamann. "Aber man muss wissen, was unter der Motorhaube passiert."

Das ist nicht ganz leicht und wird im Fall von Gerichtsverfahren noch dadurch erschwert, dass richterliche Entscheidungen nicht schlichten Wenn-Dann-Schlüssen folgen. Zwar lasse sich auch Kontext einpflegen in Algorithmen, schreibt die Wissenschaftlerin Hannah Ofterdinger vom Lehrstuhl für Strafrecht und Strafprozessrecht an der Universität Hamburg. Aber Dinge wie die aus einer Tat sprechende Gesinnung, die Richter etwa bei der Strafzumessung mit berücksichtigen sollen, sind schwer zu operationalisieren. Dabei gehe es, so zitiert Ofterdinger aus der Fachliteratur, auch um ethische Fragestellungen – harte Kost für Programmierer und Algorithmus.

Schon ohne solche heiklen Wertungsfragen sind die Algorithmen komplex genug, dass Offenheit schwierig sein kann. Ohne Transparenz von verwendeten Kriterien und einfließenden Wertungen verletzt der Einsatz von Algorithmen das Recht auf ein faires und für die Beteiligten nachvollziehbares Verfahren, schreibt die Bund-Länder-Gruppe, und verstößt gegen das Willkür-Verbot.

Angesichts solch klarer Worte von Juristen aus der Praxis, der Wissenschaft und aus der eigens zu dem Thema eingesetzten Bund-Länder-Arbeitsgruppe, könnte man an dieser Stelle einen Punkt machen.

Ganz so einfach aber ist es nicht. Denn natürlich gibt es Begehrlichkeiten in der Justiz, den KI-Zug nicht ganz abfahren zu lassen und Staatsanwaltschaft, Ermittler und Anwälte unterliegen nicht den gleichen strengen Beschränkungen.

Aber auch für die Gerichte sollen gleich mehrere Projekte erkunden, wie KI etwa für das Amtsgericht 4.0 genutzt werden kann. Am digitalen Amtsgericht 4.0 Projekt wird seit vergangenem Jahr im saarländischen Ottweiler "gebaut".

In Rheinland-Pfalz und Bayern kümmert man sich um die semantische Analyse von Gerichtsakten, um das Anlegen der e-Akte zu erleichtern. Gearbeitet wird daher an der automatisierten – KI-gestützten – Erfassung von Metadaten aus den gescannten Akten, an der Kategorisierung der Schriftstücke in den Akten in zunächst 10, später rund 40 Einzelkategorien und an der schlichten Aufspaltung der gescannten Konvolute in Einzeldokumente, die frisch eingescannt als Gesamtopus bei den Richtern anlangen, berichteten Sören Preissler, Diplom Wirtschaftsinformatiker und Projektleiter SMART und eIP beim Oberlandesgericht Zweibrücken und Robert Wunderer, Richter und Leiter des Sachgebiets IT C.3 beim IT Servicezentrum der bayerischen Justiz.

Die Automatisierung tut Not. Fünf e-Akte-Gerichte gibt es laut einer Präsentation beim EDV-Gerichtstag 2020 bislang in Bayern, 16 in Rheinland-Pfalz. Das bedeutet das Scannen von monatlich 130.000 Seiten.

Die Trefferquote bei der Trennung, der Kategorisierung und der Identifikation etwa des Aktenzeichens seien schon gut. Mit einer Ausnahme liegen sie bei 92 oder 93 Prozent. Nur beim Datum müsse man das System noch mehr trainieren, das erkenne die Software erst in 86 Prozent der Fälle. 100 Prozent Treffergenauigkeit zu erreichen, könne übrigens nicht das Ziel sein, sagte Preissler. Lieber solle man das System "agil" einführen. Gebraucht wird es dringend, wenn bis 2026 die Gerichte bundesweit komplett auf e-Akten umstellen sollen.

Als weitere KI Projekte der deutschen Justiz nennt der Wissenschaftliche Dienst des Deutschen Bundestags noch die datenschutzkonforme automatisierte Anonymisierung gerichtlicher Entscheidungen, die man im Vorgriff auf eine mögliche Schaffung einer Datenbank von Gerichtsentscheidungen für "Predictive Analytics" – vorhersagende Analysen für die Entscheidung künftiger Rechtsfälle –, vor allem im Zivilrecht, vornehme. Das Fehlen von großen Datensätzen als Trainingsdaten für eigene smarte Datenbanksystem gilt als ein großes Problem für die KI-Pläne der Justiz. Zur Verfügung gestellt haben einige Länder immerhin schon mal die Probeklausuren ihrer Jurastudenten.

Wie rasch selbst bei solchen Projekten Kritik aus den Reihen der Richterschaft kommt, zeigte beim EDV Gerichtstag die Vorstellung eines in Baden-Württemberg entwickelten automatisiertes On-Premise-Übersetzungssystem. Das Ländle leitet den durch die Bund-Länder-Kommission für Informationstechnik in der Justiz eingesetzten Themenkreis "Kognitive Systeme in der Justiz".

Zwangsmaßnahmen auf Basis automatisierter Übersetzungen anzuordnen, beziehungsweise die automatischen Übersetzungen ohne Hinzuziehung eines vereidigten Übersetzers in den Strafprozess einzubringen, steht nach Ansicht der Experten noch unter dem Vorbehalt, dass automatische Übersetzungen immer gut klingen, auch wenn sie falsch sind, wie Björn Beck konzedierte, Staatsanwalt und Referent im Ministerium der Justiz und für Europa, Baden-Württemberg.

Mehr Automatisierung für die Justiz kann sich Benedikt Quarch, einer der Gründer des Legal Tech Unternehmens RightNow Group, vorstellen. Das Start-Up kauft seit 2016 Reisenden deren Ansprüche für nicht angetretene Flüge ab, für die von Rechts wegen wenigstens Steuern und Gebühren, und manchmal mehr erstattet werden muss. Die Einschaltung von RightNow, beziehungsweise ihres Services "Geld-für-Flug.de", ist niederschwellig. Von der über ein Online Formular getriggerten Prüfung der Erfolgschancen, über das Gebot zur Übernahme der Forderung bis hin zum später von FlightRight geführten Verfahren, läuft praktisch alles automatisiert.

Gebündelt, entweder wenn ein Paket mit Forderungen voll ist oder wenn die Frist des ältesten Anspruchs im Paket abläuft, werden die Ansprüche angemeldet. Wird man sich außergerichtlich nicht einig – bei den Fluglinien passiert das in weniger als der Hälfte der Fälle – schalten Quarch und seine Kollegen Partnerkanzleien ein. Erst dann sieht erstmals ein Mensch die Klage, aber auch der wird unterstützt durch vom System ausgespuckte Schriftsatzvorlagen. Auf diese Weise schafft RightNow laut Quarch die Durchsetzung von rund 10.000 Ansprüchen pro Monat.

Weil die Verfahren stark standardisierbar sind, wäre aus seiner Sicht in diesen Fällen letztlich sogar eine automatische Entscheidung möglich.

Das in der Cyberpolitik immer etwas wagemutigere Estland macht es vor, mit "Euer Ehren KI", wie das Harvard Magazine kürzlich titelte. Zivilrechtsfälle bis 7.000 Euro können in dem osteuropäischen EU-Mitglied voll automatisiert erledigt werden. Der Vorteil aus Sicht der estnischen Macher: eine Entlastung der Gerichte, die sich stärker um die Verfahren kümmern können, in denen individuellere Fragen zu beantworten sind.

Noch einen anderen Gesichtspunkt vertritt Quarch. Für viele der Geschädigten lohnt sich der Gang zum Anwalt und ein Verfahren vor Gericht nicht. Darauf spekuliert manches Unternehmen. Die Chance, seinen Anspruch zu verkaufen und dadurch noch einen Teil des Betrages zurückzuerhalten, auf den man Anspruch hat, bietet einen niederschwelligen Zugang zur Rechtsdurchsetzung. Auch für andere Bereiche hat RightNow schon dieses Angebot an Verbraucher gemacht, Mietnebenkosten, Zugverspätungen, Unfallregulierung, aber nicht immer ging die Rechnung für das Start-Up auf.

Die Pandemie hat das Geschäft mit den Flugrückerstattungen nochmal angeheizt und RightNow pickte sich während des Lockdowns auch noch das Thema Rückerstattungen von Gebühren in Fitnessstudios heraus. Neben dieser Anpassung an den Bedarf liegt der Erfolg mit den Flugrückerstattungen aber wohl auch an der mittlerweile mit über 80 Millionen Datensätzen gefütterten Datenbank. Die erlaubt sehr treffsichere Prognosen über die Erfolgschancen der Fälle und eine scharfe Kalkulation, welches Angebot man den geschädigten Flugreisenden machen kann.

Ein neuer Schlager, so hofft Quarch, könnte das neu aufgenommene Produkt "Durchsetzung von Schadenersatzansprüchen nach Datenschutzgrundverordnung" (§82) gegen die großen Plattformen werden. Im Falle eines Datenlecks haben die Nutzer Anspruch auf Schadenersatz. Die Mühe, den Anspruch einzuklagen, mache sich derzeit kaum jemand. Das will RightNow gerne ändern. Eine Art Abmahnwelle gegen Google, Facebook und Konsorten? Zur Durchsetzung der DSGVO vielleicht nicht übel. Um die Höhe werde zwar derzeit noch gerungen bei den Gerichten – 0 bis 5.000 Euro haben die Gerichte bereits zugesprochen.

Mehr Automatisierung an den Gerichten würden die Legal Tech-Unternehmen begrüßen, macht es doch ihre Arbeit noch effektiver, und wäre es nicht gut, fragt Quarch, wenn Deutschland mit den Legal Tech Anwendungen mal selbst Unicorns stellt?

Fürs zivilrechtliche Kleinvieh seien die Legal Tech Ansätze natürlich nicht schlecht, mein Richter Hamann. Wo es aber um den Versuch gehe, Bußgeldzahlungen zu beschneiden oder ganz abzubiegen – auch dafür gibt es spezielle Legal Tech Anbieter – wird es aus seiner Sicht unerfreulich "und für die Mandanten der Legal Techs manchmal eher unerfreulich". Hier funktioniert natürlich das Abkaufen nicht, der Falschparker oder Raser bleibt der (Bußgeld-)Sünder. Dadurch ergeben sich übrigens auch für die Legal Techs spezielle Anforderungen, denn eigentlich ist die Vertretung durch Nichtanwälte und Dinge wie Erfolgshonorare im Gesetz nicht vorgesehen. Ob der Gesetzgeber der neuen Branche durch eine Liberalisierung der Bestimmungen entgegenkommt, ist vorerst noch nicht absehbar.

Mehr Sorgen als der Ansturm der Kleinstverfahren, wenn auch in gebündelter Form, bereitet Hamann der Einsatz von KI-Hilfsmittel auf Ermittler Seite. Bei den Polizeibehörden ist man weniger zimperlich mit dem Einsatz von Algorithmen, deren intrinsische Wertungen und effektive Wirksamkeit man nicht so genau kennt. Wie soll der Richter mit Beweismitteln umgehen, die mittels KI gewonnen wurden?

Ist etwa eine vermeintlich kleine Hand auf dem Bild eines masturbierenden Torsos ein tragfähiger Beweis, dass es sich um Jugendpornographie handelt, fragt Hamann aus seiner Praxis.

Was, wenn Unschärfen dieser oder anderer Art sich in die KI-Lösung wie ZAC-AIRA einschleicht, die gemeinsam von Microsoft, dem Land NRW, der Zentral und Ansprechstelle Cybercrime (ZAC), dem EDV Gerichtstag und der Universität des Saarlandes NRW entwickelt wurde.

Muss der Richter auch hier im Verfahren darauf drängen, dass eingehende Bewertungen und Kriterien offen gelegt werden? Oder gilt dieses Transparenz- und Nicht-Willkür-gebot nur für den Einsatz von KI direkt bei Gericht?

Mit dieser Frage werden sich die Gerichte wohl früher und mehr herumschlagen müssen als mit dem eigenen KI-Einsatz, denn der Markt für smarte Ermittlertools ist fast schon unüberschaubar groß. Aufgemerkt haben die Strafverteidiger. Sie müssen sich fit halten, um durch mehr oder weniger smarte Software gewonnene Beweismittel nachträglich zu überprüfen und vielleicht Fehler oder Schwächen zu finden. Uwe Ewald, Rechtsanwalt und Analyst, warnte beim Strafverteidigertag Ende vergangenen Jahres, dass Strafverteidigern sich mit den analytischen Grundlagen der digitalen Beweismittelanalyse befassen und Kompetenzen in der eigenständigen Auswertung entwickeln müssen, um der geballten digitalen Power der Anklage-Seite zu begegnen. Zugleich erhob er auch die Frage, ob den Strafverteidigern für Waffengleichheit nicht auch Lizenzen überlassen werden müssten.

Tools zur Beweismittelanalyse

(Bild: Dr. Uwe Ewald)

Wie viele Tools im Einsatz sind, ohne dass darüber die Öffentlichkeit, aber auch die Experten und Strafverteidiger ausreichend informiert sind, zeigte Monika Simmler in einer Fallstudie der Universität St. Gallen zum Einsatzes von KI Werkzeugen in der Schweiz. In Interviews bestätigten Praktiker aus Polizei und Justiz, dass in allen Kantonen algorithmische Werkzeuge eingesetzt werden, schreibt Simmler in ihren Schlussfolgerungen und empfiehlt dringend Know-How über die Funktionsweise aufzubauen und die Software durch Evaluationen zu überprüfen. Zum Einsatz von Precobs, dem zur Identifizierung von Einbruchsschwerpunkten auch in Deutschland eingesetzten Softwaretool, gibt es mittlerweile ernüchternde Einschätzungen bezüglich der Wirksamkeit. Zudem müsse beim Einsatz von Algorithmen die Rechtsstaatlichkeit gewahrt werden. Algorithmen dürften "weder zu einer Diffusion von Verantwortung noch zu Intransparenz oder Diskriminierung führen". Simmler rät zu einem aktiven öffentlichen Dialog über den Einsatz.

Bereiche Smart criminal justice

(Bild: Simmler, e.a.)

Den verdienen auch die Projekte der deutschen Polizeibehörden, von der Berliner Precobs-Alternative KrimPo, NRWs Skala, Hessens KLB-operativ oder das vom BMBF geförderte Zitis Forschungsprojekt KIRSTA, mit dem künftig anhand von Hasspostings im Netz auf künftige Straftaten geschlossen werden soll.

Zurück zur falschen Gesichtserkennung wie im Fall des US-Amerikaners Williams. Richter Hamann kennt aus der eigenen Praxis einen Fall, der, wenn auch einer süddeutschen Kleinstadt angepassten Rahmen passiert ist. Ein Fahrkartenkontrolleur des Tübinger Stadtbusses fotografierte einen vermeintlichen Schwarzfahrer, der sich bei einer Kontrolle aus dem Staub machte. Auf Basis eines Abgleichs mit einer "polizeilichen Gesichtserkennungssystem-Recherche" beantragte die Staatsanwaltschaft Anklage gegen einen Mann, der sich in dem Foto gar nicht wiedererkennen wollte. Der Richter in dem Fall verwahrte sich gegen eine "nicht nachvollziehbare Methode" und eine "nicht ansatzweise erklärte Technik, wohl unter Anwendung eines jedenfalls dem Gericht nicht bekannten Algorithmus zur Gesichtserkennung". So nicht, entschied der Richter, und das war wohl auch im Sinne der Verhältnismäßigkeit. Der Schaden hatte 2,50 Euro betragen.

(bme)