Missing Link: Wer bändigt die Künstliche Intelligenz?

Vorbild Datenschutzgrundverordnung

Inhaltsverzeichnis

Die Datenschutz-Grundverordnung (DSGVO) bezeichnete der "juristische Kopf" hinter dem Normenwerk als Inspiration und Wegweiser für weitergehende Regeln auch für Künstliche Intelligenz. Letztere könnten daher "viel weniger komplex sein" als die grundsätzliche Vorarbeit, in der vieles schon festgesetzt sei. So gebe es mit der DSGVO etwa schon die Ansage in Artikel 22, dass keine Person "einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen" werden darf.

Dies schließt nach Nemitz' Lesart auch Situationen ein, in denen ein Mensch von einem KI-System unterstützt wird und auf dem Bildschirm eine entsprechende Vorgabe nur noch abliest. Ferner könnten Betroffene laut dem zusätzlichen Transparenzgebot "aussagekräftige Informationen" über die involvierte Logik und deren Auswirkungen verlangen und so "im Streitfall auch in den Algorithmus reingucken".

In einem Beipackzettel für Medikamente "müssen wichtige Risiken drinstehen", brachte der Experte ein Beispiel. Daneben gebe es noch "ein dickes Buch für den Arzt". Letzteres müsse prinzipiell aber ebenfalls "für alle verfügbar sein", also etwa auch für zivilgesellschaftliche Akteure, die solche Auskünfte sonst einklagen könnten. Wenn KI so mächtig werde wie vielfach angekündigt, sei zudem für einzelne Anwendungen eine Folgenabschätzung über betroffene Rechte in Form einer 360-Grad-Analyse nötig.

Datenschutzbehörden sollten im Zweifelsfall die einschlägigen DSGVO-Artikel "mutig" im Sinne von bürgerrechtsfreundlich auslegen, betonte der Kommissionsvertreter. Internetkonzerne wie Facebook oder Google machten tausende Verhaltensvorhersagen für einzelne Nutzer pro Tag und könnten Leute längst selbst ohne automatisierte Gesichtserkennung identifizieren. Die Aufsichtsbehörden müssten sich daher "mit den Großen" anlegen und getrieben von einer "Terriernatur" etwa bei rechtswidrig abgenötigten Einwilligungen Jagd auf diese machen und "beißen", da sie sonst auch wegen Untätigkeit von zivilgesellschaftlichen Organisationen verklagt werden könnten.

"Die Kaffeetrinken-Kultur muss aufhören", erklärte Nemitz. Die Internetriesen verdienten "irre viel Geld" mit den Daten der Nutzer und es gebe viele Berichte darüber, dass dabei im Bereich der Privatheit nicht alles richtig laufe. Sollte die für ein Unternehmen zuständige Stammbehörde nicht tätig werden, gebe es in der DSGVO Instrumente für einstweilige Maßnahmen von Kontrolleuren in anderen Mitgliedsstaaten, von denen diese reger Gebrauch machen sollten.

Auch aus der Wissenschaft kommen Forderungen, lernende Maschinen stärker an die Hand zu nehmen. Angesichts eines Probelaufs eines vollautomatisierten Schiedsgerichts in Estlands oder der computergestützten Entscheidung über die Aussetzung von Strafen auf Bewährung auf Grundlage von Persönlichkeitstests mit dem System Compas in den USA, Predictive Policing oder Algorithmen, die die Lebenserwartung von Schwerkranken berechnen sollen, tut für den Speyerer Staatsrechtler Mario Martini ein "Kontrollregime für unterstützende Entscheidungen not". Sonst drohe die Zunahme des "Pontius-Pilatus-Effekts", wonach sich etwa Amtsträger die Hände in Unschuld wüschen.

Die Grundzüge der Funktionsweise und der Kriterien von KI müssten Hersteller bekannt machen, verlangt das Mitglied der Datenethik-Kommission. Mögliche Fehlerquellen sollten angegeben, bei behördlichen Anwendungen mit besonders hoher Diskriminierungsgefahr auch Trainingsdaten schon im Vorfeld kontrolliert und ein fortlaufender Prüfmechanismus für Ergebnisse geschaffen werden. Dafür erforderlich sei eine "Live-Schnittstelle" mit Protokollierungsfunktion, sprach sich Martini für eine Art "Stiftung Datentest" aus. Richter etwa benötigten zudem eine "Unterstützungseinheit mit technischem Sachverstand" nach dem Vorbild des Bundesamts für Sicherheit in der Informationstechnik (BSI).

"Wir müssen Künstliche Intelligenz härter regulieren als menschliche Entscheider", postuliert Katharina Zweig, Sozioinformatikerin an der Universität Kaiserslautern. Das Training und die Ausbildung algorithmischer Systeme seien wesentlich schlechter nachvollziehbar als bei Menschen, begründete sie dies. Zudem müssten in diesen menschliche Werte wie ein Qualitäts- und Fairnessmaß festgeschrieben werden, "nach denen optimiert wird". Da die Technologie "meist länger läuft als geplant", könnten die dahinterstehenden ideologischen Perspektiven später auch nicht mehr kontextsensitiv ausgehandelt werden.

Was KI könne, sollte man nicht überschätzen, räumte Zweig mit gängigen Mythen auf. Menschliches Verhalten sei "kaum vorhersagbar", sodass Scoring-Systeme rückgebaut und digitale Tutoren sowie virtuelle Assistenten vielfach wieder eingesammelt würden. Deutschland tue daher gut daran, vor allem Maschinenbau- und Fahrzeugdaten für maschinelles Lernen zu nutzen.