Missing Link: Wer bändigt die Künstliche Intelligenz?

Mit Spannung wird der Rahmen der EU-Kommission für menschliche und ethische KI erwartet: gelingt ein Wurf wie die DSGVO? Forscher sind für harte Regulierung.

Lesezeit: 9 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 124 Beiträge
Missing Link: Wer bändigt die Künstliche Intelligenz?

(Bild: sdecoret/Shutterstock.com)

Von
  • Stefan Krempl
Inhaltsverzeichnis

"Daten können Leben retten." Mit dieser Ansage warb Roland Eils, Gründungsdirektor des Zentrums "Digitale Gesundheit" am Berliner Institut für Gesundheitsforschung, am Donnerstag bei einer PR-nahen Veranstaltung des Bundespresseamts für eine bessere Verfügbarkeit forschungsrelevanter Patienteninformationen. Eine solche sei nötig, um Konzepte der Künstlichen Intelligenz (KI) im Gesundheitswesen im großen Maßstab nutzen zu können. Wichtig seien daher etwa bundeseinheitliche Vorgaben für die Datenspende von Patienten.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Gerade die datengetriebene Genomsequenzierung bringe mittlerweile deutliche Vorteile in der klinischen Versorgung mit sich, begründete der einstige Leiter des Bereichs "Bioinformatik und funktionelle Genomik" an der Universität Heidelberg sein Plädoyer. Bei einem dortigen Projekt mit 1800 schwer Krebskranken habe mithilfe der Genomentschlüsselung am Ende der Computer Therapien empfohlen, was "wunderbar funktioniert" habe. Für 80 Prozent der Teilnehmer habe das eingesetzte KI-System Ratschläge ausgesprochen, die die Ärzte zumindest in einem Drittel der Fälle umgesetzt hätten. Knapp die Hälfte der Palliativ-Patienten habe auf die so erfolgte Behandlung positiv angesprochen.

Zugleich verwies Eils auf Erfolge der "automatisierten Unterstützung" von Medizinern bei bildgebenden Verfahren gerade im Bereich der Radiologie und goss damit Wasser auf die Mühlen von Andreas Lemke, Gründer des Berliner Startups Mediaire, das an Assistenzsystemen zur Analyse medizinischer Bilddaten in der Strahlenheilkunde arbeitet. "Ein Radiologe hat nur drei Sekunden Zeit für eine Diagnose", erläuterte der Physiker. Hier könne die KI ansetzen, und dem menschlichen Experten "einfache Aufgaben" bei der Erkennung etwa von Anzeichen für Alzheimer oder Multipler Sklerose abnehmen.

Vom Radiologen bekommt der Bestrahlte in der Regel eine CD mit Bildmaterial. Solche Formate sollten Patienten schon jetzt Forschern verfügbar machen, wünschte sich Lemke. Zudem gebe es in diesem Medizinsektor bereits einen recht großen Pool an wissenschaftlichen Daten, die "fast schon zu gut sind für die Wald- und Wiesenradiologie". Um eine Generalisierbarkeit herzustellen, könne es aber "gar nicht genug Daten geben", solange diese qualitativ hochwertig seien.

Doch bei so manchen Erfolgsmeldungen aus diesem Bereich ist Vorsicht geboten. Anfang des Jahres sorgten Forscher aus den USA und Großbritannien mit einer Studie für Schlagzeilen, wonach Googles KI DeepMind Brustkrebs besser erkennen könne als Radiologen. Bis zu 9,4 Prozent habe die Fehlerrate bei der Auswertung von Mammografien niedriger gelegen.

Der Berliner Psychologe Gerd Gigerenzer und sein Team von der "Unstatistik des Monats" verweisen dagegen darauf, dass in Großbritannien das KI-System im Durchschnitt nur etwas besser als der erste Radiologe und leicht schlechter als der zweite und das Konsensus-Urteil gewesen sei. Die Autoren der Studie hätten selbst klargestellt, dass die Ergebnisse generell bei spezialisierten Radiologen wahrscheinlich besser ausgefallen wären.

Die "Unstatistiker" geben zu bedenken: "Je besser die Diagnose-Systeme werden, desto mehr kleine und klinisch irrelevante Krebsformen werden entdeckt, die nur technisch gesehen Krebs sind." Da man zum Zeitpunkt der Früherkennung diese harmlosen Formen von anderen nicht unterscheiden könne, erhielten bereits heute viele verunsicherte Patientinnen unnötige Operationen und Strahlen- oder Chemotherapien. Die Gesamtzahl der Frauen, die an Krebs sterben, ändere sich durch Screenings nicht.

Gerade im Gesundheitsbereich ist zudem der Datenschutz ein sensibles Thema. Dieser sei bei solchen Initiativen sehr wichtig, versichert Eils. Der Gesetzgeber dürfe es damit aber auch "nicht übertreiben". Gerade bei länderübergreifenden Forschungsprojekten stellten einschlägige Auflagen schon jetzt einen "regulatorischen Albtraum" dar. Es sei daher kein Wunder, dass die meisten Ärzte Daten noch auf Papier erfassten und faxten.

Für die deutsche und die europäische Politik ist angesichts dieser Ausgangslage klar: Der Staat muss einen ausgewogenen Rahmen setzen, um für Innovationen und Sicherheit rund um Künstliche Intelligenz zu sorgen. Eine "vertrauenswürdige KI" auf Basis "europäischer Werte" soll damit gefördert werden im Gegensatz zur marktgetriebenen Laissez-faire-Haltung inklusive Überwachungskapitalismus aus dem Silicon Valley und zum Staatsdirigismus Chinas mit Social Scoring und der kommunistischen Variante von Massenüberwachung.

Die Bundesregierung hat sich im November 2018 eine KI-Strategie mit Schwerpunkten wie Gemeinwohlorientierung, Ethik und Verantwortung verpasst. Am 19. Februar will nun EU-Wettbewerbskommissarin Margrethe Vestager auftragsgemäß einen "koordinierten Ansatz für die menschlichen und ethischen Auswirkungen" der Künstlichen Intelligenz vorstellen.

Die Erwartungen sind hoch. Das EU-Parlament rief vor Kurzem bereits nach Vorschriften für eine nachvollziehbare und transparente KI. Vestager selbst plädierte vorab auf diesem Feld für "Vertrauen by Design", also für den Einbau von akzeptanzfördernder Mechanismen direkt in die Technik. Anfang der Woche unterstrichen die Kommissionsvizepräsidenten, die Europa fit machen soll fürs digitale Zeitalter, dass KI an "besonders hohen Standards hinsichtlich Transparenz und Zurechenbarkeit" gemessen werden müsse.

Gleichzeitig arbeiten die Bundesregierung und die Brüsseler Kommission an begleitenden Datenstrategien. Es gelte, die Nutzung von und die Kompetenz im Umgang mit dem vielfach als Öl des 21. Jahrhunderts bezeichneten Rohstoffs zu fördern, gibt Digitalstaatsministerin Dorothee Bär (CSU) hier als Losung aus. Maschinelles Lernen könne etwa die Gesundheitsversorgung enorm verbessern, knüpft sie an Aussagen von Praktikern an und erklärt wie diese: "Es geht um Leben und Tod."

Dem parlamentarischen Gesundheitsstaatssekretär Thomas Gebhart (CDU) schwebt zugleich ein "europäischer Gesundheitsdatenraum als Grundlage für gemeinsame Forschungsvorhaben" vor. Kanzleramtsminister Helge Braun will für die Datenstrategie "die ganze Community" an Bord holen. Laut dem Christdemokraten geht es letztlich um die Frage: "Wie wohl fühlt sich der Mensch im Zukunft im Netz – und können wir den Wohlstand halten?"

Paul Nemitz, Chefberater der Europäischen Kommission in der Generaldirektion für Recht und Verbraucherschutz

(Bild: heise online / Stefan Krempl)

Mögliche zentrale Eckpunkte des geplanten Weißbuchs der EU-Kommission für einen KI-Rahmen umriss Paul Nemitz, Chefberater der Generaldirektion für Recht und Verbraucherschutz bei der Brüsseler Regierungseinrichtung, am Dienstag auf einem Symposium der Datenschutzkonferenz von Bund und Ländern zum Thema "Künstliche Intelligenz – zwischen Förderung und Bändigung". Der Jurist ließ durchblicken: Im weiten Feld von "Macht, Wettbewerb, Demokratie und Innovationsfähigkeit" in der vernetzten Gesellschaft werde man angesichts von Marktanteilen von teils über 90 Prozent bei den US-Internetriesen "mit freundlichen Worten und Ethik-Katalogen in Form der Selbstregulierung nicht vorankommen."

Gegenüber "omnipräsenten Plattformen" im Netz sei eine "übergreifende Regulierung" nötig, legte sich Nemitz fest. Die Ausgangsbasis dafür bildeten "die Demokratie und die Grundrechte". Wenn KI sich "wie Stroh" überall verbreite, sollten auch Ingenieure und Entwickler mal wieder einen Grundkurs in Demokratie bekommen. Andersherum könne so manchem Politiker mehr Einblicke in die Technik nicht schaden. Letztlich müssten Gesetze so offen formuliert sein, dass die Anwender damit jederzeit eingehen könnten auf die technologische Entwicklung.

Die Datenschutz-Grundverordnung (DSGVO) bezeichnete der "juristische Kopf" hinter dem Normenwerk als Inspiration und Wegweiser für weitergehende Regeln auch für Künstliche Intelligenz. Letztere könnten daher "viel weniger komplex sein" als die grundsätzliche Vorarbeit, in der vieles schon festgesetzt sei. So gebe es mit der DSGVO etwa schon die Ansage in Artikel 22, dass keine Person "einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen" werden darf.

Dies schließt nach Nemitz' Lesart auch Situationen ein, in denen ein Mensch von einem KI-System unterstützt wird und auf dem Bildschirm eine entsprechende Vorgabe nur noch abliest. Ferner könnten Betroffene laut dem zusätzlichen Transparenzgebot "aussagekräftige Informationen" über die involvierte Logik und deren Auswirkungen verlangen und so "im Streitfall auch in den Algorithmus reingucken".

In einem Beipackzettel für Medikamente "müssen wichtige Risiken drinstehen", brachte der Experte ein Beispiel. Daneben gebe es noch "ein dickes Buch für den Arzt". Letzteres müsse prinzipiell aber ebenfalls "für alle verfügbar sein", also etwa auch für zivilgesellschaftliche Akteure, die solche Auskünfte sonst einklagen könnten. Wenn KI so mächtig werde wie vielfach angekündigt, sei zudem für einzelne Anwendungen eine Folgenabschätzung über betroffene Rechte in Form einer 360-Grad-Analyse nötig.

Datenschutzbehörden sollten im Zweifelsfall die einschlägigen DSGVO-Artikel "mutig" im Sinne von bürgerrechtsfreundlich auslegen, betonte der Kommissionsvertreter. Internetkonzerne wie Facebook oder Google machten tausende Verhaltensvorhersagen für einzelne Nutzer pro Tag und könnten Leute längst selbst ohne automatisierte Gesichtserkennung identifizieren. Die Aufsichtsbehörden müssten sich daher "mit den Großen" anlegen und getrieben von einer "Terriernatur" etwa bei rechtswidrig abgenötigten Einwilligungen Jagd auf diese machen und "beißen", da sie sonst auch wegen Untätigkeit von zivilgesellschaftlichen Organisationen verklagt werden könnten.

"Die Kaffeetrinken-Kultur muss aufhören", erklärte Nemitz. Die Internetriesen verdienten "irre viel Geld" mit den Daten der Nutzer und es gebe viele Berichte darüber, dass dabei im Bereich der Privatheit nicht alles richtig laufe. Sollte die für ein Unternehmen zuständige Stammbehörde nicht tätig werden, gebe es in der DSGVO Instrumente für einstweilige Maßnahmen von Kontrolleuren in anderen Mitgliedsstaaten, von denen diese reger Gebrauch machen sollten.

Auch aus der Wissenschaft kommen Forderungen, lernende Maschinen stärker an die Hand zu nehmen. Angesichts eines Probelaufs eines vollautomatisierten Schiedsgerichts in Estlands oder der computergestützten Entscheidung über die Aussetzung von Strafen auf Bewährung auf Grundlage von Persönlichkeitstests mit dem System Compas in den USA, Predictive Policing oder Algorithmen, die die Lebenserwartung von Schwerkranken berechnen sollen, tut für den Speyerer Staatsrechtler Mario Martini ein "Kontrollregime für unterstützende Entscheidungen not". Sonst drohe die Zunahme des "Pontius-Pilatus-Effekts", wonach sich etwa Amtsträger die Hände in Unschuld wüschen.

Die Grundzüge der Funktionsweise und der Kriterien von KI müssten Hersteller bekannt machen, verlangt das Mitglied der Datenethik-Kommission. Mögliche Fehlerquellen sollten angegeben, bei behördlichen Anwendungen mit besonders hoher Diskriminierungsgefahr auch Trainingsdaten schon im Vorfeld kontrolliert und ein fortlaufender Prüfmechanismus für Ergebnisse geschaffen werden. Dafür erforderlich sei eine "Live-Schnittstelle" mit Protokollierungsfunktion, sprach sich Martini für eine Art "Stiftung Datentest" aus. Richter etwa benötigten zudem eine "Unterstützungseinheit mit technischem Sachverstand" nach dem Vorbild des Bundesamts für Sicherheit in der Informationstechnik (BSI).

"Wir müssen Künstliche Intelligenz härter regulieren als menschliche Entscheider", postuliert Katharina Zweig, Sozioinformatikerin an der Universität Kaiserslautern. Das Training und die Ausbildung algorithmischer Systeme seien wesentlich schlechter nachvollziehbar als bei Menschen, begründete sie dies. Zudem müssten in diesen menschliche Werte wie ein Qualitäts- und Fairnessmaß festgeschrieben werden, "nach denen optimiert wird". Da die Technologie "meist länger läuft als geplant", könnten die dahinterstehenden ideologischen Perspektiven später auch nicht mehr kontextsensitiv ausgehandelt werden.

Was KI könne, sollte man nicht überschätzen, räumte Zweig mit gängigen Mythen auf. Menschliches Verhalten sei "kaum vorhersagbar", sodass Scoring-Systeme rückgebaut und digitale Tutoren sowie virtuelle Assistenten vielfach wieder eingesammelt würden. Deutschland tue daher gut daran, vor allem Maschinenbau- und Fahrzeugdaten für maschinelles Lernen zu nutzen.

Trotzdem hält es das Mitglied der Enquete-Kommission für Künstliche Intelligenz des Bundestags für wichtig, "Kataloge von Transparenz- und Nachvollziehbarkeitspflichten" aufzustellen. Es brauche Mechanismen, um Aussagen der Maschine überprüfen zu können. Nur so könne verhindert werden, das ein System Beobachtungen oder Korrelationen einfach direkt in Kausalketten übersetze. Die technologischen Ansätze für eine solche "Explainable Artifical Intelligence" seien im Wesentlichen da, flankierende Gesetze sollten aber dazukommen.

Um KI nachvollziehen zu können, "muss ich nicht in die Blackbox hineingucken", warnt Zweig zugleich vor zu hohen Auflagen. Systeme für algorithmische Entscheidungen "bringen ganz viele Informationen mit". So könne man bei einem automatisierten Prüfverfahren für Arbeitnehmer etwa sehen, wie viele Frauen sich auf welchem Level beworben und wie viele abgewiesen worden seien. Auf dieser Basis könne man "mit Statistiken argumentieren".

Nemitz will sich mit einer solchen einschränkten Transparenzlösung nicht zufrieden geben: "Es kann keine regulierungsfreie Räume geben", lautet seine Maxime. Die Politik dürfe nicht den Anspruch aufgeben, nur Technologien einzusetzen, "wo wir ganz selbstverständlich wissen", wie sie funktionierten. Dafür sei auch ein "Zugang zu Quellcode" unabdingbar. Gerade wer KI-Systeme an den Staat verkaufen wolle, müsse diese vollständig erklärbar liefern: "Sonst funktioniert die richterliche Nachprüfung nicht mehr."

Mit der Nachvollziehbarkeit gestaltet es sich aber nicht so einfach. Die Microsoft-Forscherin Jennifer Wortman Vaughan und ihr Team fanden 2018 im Rahmen einer Studie heraus, dass Transparenzhinweise wie grafische Übersichten oder Angaben zu den verwendeten Daten für ein Modell für ein neuronales Netzwerk bei Prüfern zu einer Informationsüberlastung führen können. Die Werkzeuge halfen den kontrollierenden Wissenschaftlern zwar, einige Fehler im Ausgangsmaterial auszumachen, dazu kam aber die Tendenz, sich auf die Visualisierungen einfach zu verlassen und sie sogar falsch zu interpretieren, nach dem Motto, dass die Maschine schon richtig liege. Manche Teilnehmer hinterfragten ein KI-Schema selbst dann nicht, wenn sie zugeben mussten, dessen Funktionsweise nicht zu verstehen.

Kulturwissenschaftler beschreiben selbstlernende Algorithmen, denen Programmierer nur gewisse Regeln zur Zielerreichung vorgeben, häufig als völlig undurchdringliche Blackbox-Systeme. Es handle sich um Objekte, "die nur durch ihr äußeres Verhalten verstanden werden können, deren innere Struktur sich aber der Erkennung entzieht", schreibt der Schweizer Medientheoretiker Felix Stalder. Dieser Charakter trägt laut den Initiatoren des Projekts "Silent Works", Magdalena Taube und Krystian Woznicki, zu der weit verbreiteten Annahme bei, dass solche Algorithmen quasi-autonom arbeiteten und Training oder Aufsicht unnötig seien.

Diese Vorstellung enthüllt für das Duo, das sein aktuelles Forschungsvorhaben am Freitag auf dem Berliner Medienkunstfestival Transmediale präsentierte, "die Agenda des KI-getriebenen Kapitalismus". In diesem solle in logistisch optimierten und von menschlicher Arbeit emanzipierten Prozessen Wert geschaffen werden. Es gehe darum, praktisch unhinterfragt Daten zu sammeln, zu zählen und zu analysieren und sich des Ärgers entledigen, den menschliche Arbeiter durch Streiks, Revolten und andere Formen des Ungehorsams immer wieder verursacht hätten. 24 Stunden im Netz aktive Bots seien daher der Idealtypus des digitalen Sklaven.

Dass im Hintergrund oft weiter Menschen auf die im globalen Süden erstellten Bildschirme starrten, in sozialen Netzwerken Inhalte teilten oder moderierten und so "die stille Arbeit der Optimierung" verrichteten, bleibt in diesem Bild den Projektmachern zufolge oft außen vor. Dabei seien just diese Tätigkeiten unentbehrlich für den Überwachungskapitalismus, sodass Arbeit wieder eine "einzigartige politische Qualität" gewinne und sich die Ausführenden dieser Machtposition auch bewusst werden müssten.

Mitten in der lebhaften Debatte sind gut drei Viertel der Bundesbürger dafür, algorithmische Systeme einzuhegen: 78 Prozent der Deutschen fordern, dass der Staat Gesetze und Vorschriften zur Regulierung von KI verabschieden sollte. Dies hat eine am Montag veröffentlichte Studie des TÜV-Verbands ergeben. Für die repräsentative Untersuchung befragte das Marktforschungsunternehmen Ipsos hierzulande 1000 Personen über 16 Jahren.

85 Prozent der Teilnehmer sprechen sich dafür aus, dass Produkte und Anwendungen mit KI an Bord klar gekennzeichnet werden. Genauso viele sind der Meinung, dass derlei Technik erst auf den Markt gebracht werden sollte, wenn unabhängigen Stellen ihre Sicherheit getestet haben. Dafür müsste der Zugang zu den dafür notwendigen sicherheitsrelevanten Daten aber zunächst gewährleistet sein.

Was Schwächen von KI angeht, sind die Bundesbürger nicht sonderlich tolerant. 40 Prozent erwarten 100 Prozent Fehlerfreiheit, 34 Prozent würden einem KI-System in Ausnahmefällen Unvollkommenheiten zugestehen. 17 Prozent sind aber der Ansicht, Fehler gehörten dazu. Geht es um die besonders sicherheitskritische Anwendung des automatisierten Fahren stimmen wiederum 84 Prozent der Befragten der Aussage zu, dass autonome Fahrzeuge absolut fehlerfrei arbeiten müssten. Genauso viel Zuspruch findet die These, dass KI-Systeme in Fahrzeugen von unabhängigen Stellen überprüft werden sollten.

Laut der Umfrage kennen 94 Prozent der Befragten den Begriff Künstliche Intelligenz, aber nur etwa jeder Dritte kann ihre wichtigsten Eigenschaften erklären oder die Technologie in ihren Facetten beschreiben. Mit 46 Prozent empfindet fast die Hälfte der Deutschen etwas Positives, wenn sie an KI denken, für 28 Prozent ist das Phänomen negativ besetzt. 75 Prozent der Bevölkerung befürworten den Einsatz von KI in der Forschung, 73 Prozent in der Industrie, 65 und in der Medizin. Überwiegend positiv bewerten die Befragten auch eine verbesserte Verbrechensbekämpfung oder Wissensvermittlung etwa durch persönliche Assistenten.

Negativ sehen es 69 Prozent der Teilnehmer, wenn KI menschliche Kontakte ersetzt. Überwiegend kritisch beurteilen sie auch algorithmische Entscheidungsfindungen in der Rechtsprechung (66 Prozent), in der Verteidigung (50 Prozent) oder in der Altenpflege (49 Prozent). 72 Prozent der Bundesbürger haben große Sorgen vor Hackerangriffen, die mit Hilfe von KI automatisiert oder personalisiert werden können. An zweiter Stelle steht mit 71 Prozent die Angst, dass die Technologie missbraucht wird, um Menschen zu manipulieren. Zwei von drei Befragten befürchten, dass KI-Systeme bei sicherheitskritischen Anwendungen Fehler machen, zum Beispiel bei hoch automatisierten Fahrzeugen. (tiw)