Künstliche Intelligenz und Medizin: Klage über zu wenig Daten aus Deutschland

Der Bioinformatiker Christoph Lippert moniert, es sei immer schwierig, etwa mit molekularen Daten zur Gesundheitsvorsorge im Inland zu arbeiten.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 11 Beiträge

(Bild: whiteMocca/Shutterstock.com)

Von
  • Stefan Krempl

Christoph Lippert und sein Team vom Fachgebiet Digital Health und Machine Learning am Hasso-Plattner-Institut Potsdam entwickeln Modelle, um Krankheitsbilder in MRT- und CT-Aufnahmen sowie molekularen Daten zu erkennen und statistisch zu beschreiben. Er könne sich nicht beklagen über einen mangelnden Zugang zu dem benötigten Rohmaterial etwa aus Kollaborationen oder öffentlichen Archiven, sagt der Professor. Viel davon sei aber "typischerweise nicht aus Deutschland".

"Wir würden gern mehr hier machen", erklärte Lippert am Freitag bei einer Online-Debatte der liberalen Friedrich-Naumann-Stiftung zu Künstlicher Intelligenz (KI) in der Medizin. Es liege nahe, "öffentliche Mittel zu verwenden, um die Gesundheit hier voranzubringen." Aber es sei "einfach immer deutlich schwerer, mit deutschen Daten zu arbeiten" als mit ausländischen.

Etwa für "individuelle Gesundheitsinterventionen" im Rahmen von App-basierten Studien versuchten die Potsdamer Forscher durchaus, die hiesige regulatorische Landschaft inklusive der Datenschutz-Grundverordnung (DSGVO) besser zu verstehen und mehr Messwerte zu erhalten. Dies sei aber immer aufwendig und dauere lange. Er persönlich habe "gar nicht die Zeit dazu" sich damit zu befassen. Große Firmen mit eigenen Rechtsabteilungen seien da besser aufgestellt.

Die DSGVO "macht es erst möglich, die sensitiven Gesundheitsdaten zu verarbeiten", sieht Petra Ritter, Leiterin der Gehirnsimulation The Virtual Brain an der Berliner Charité, die EU-Vorgaben nicht als großes Hindernis an. Diese stellten sicher, dass "die Rechte und Freiheiten der Versuchspersonen mit berücksichtigt werden". So müssten persönliche Daten verschlüsselt und hinter Firewalls gehalten werden. Ferner dürften nur bestimmte Personen mit speziellen Rechten darauf zugreifen. Vor einer Freigabe für weitere Forschungen sei zu garantieren, dass Personen nicht mehr identifizierbar seien.

Teils seien dafür recht komplexe technische Lösungen nötig, für die es noch keine Zertifizierungsmechanismen gebe, sieht aber auch Ritter Verbesserungspotenzial. Zudem müssten Doktoranden die unerfreuliche Arbeit machen, erhobene Daten zunächst zu annotieren und aufzubereiten. Dies sei auch bei Algorithmen erforderlich, um deren Einsatz reproduzier- und nachvollziehbar zu machen. Oft sei es auch schwierig, aus einem abgeschlossenen, nicht vernetzten medizinischen Gerät überhaupt Daten zu extrahieren.

Auch die "Nachnutzung" gewonnenen Materials sei nicht einfach, berichtete die Neurowissenschaftlerin. Patienten und Probanden müssten in eine solche auf Basis eines Aufklärungsbogens einwilligen. Vielen fehle aber trotzdem das Bewusstsein, für welche Zwecke sie ihre Daten letztlich freigäben: oft werde alles "bereitwillig unterzeichnet". Andererseits hätten etwa Alzheimer-Patienten "besondere Ängste vor der Vorhersage ihrer Krankheitsentwicklung" mithilfe von KI.

Dazu kommt laut Ritter die Herausforderung, im Bereich der Gesundheitsforschung mit Google, Facebook & Co. konkurrieren zu müssen. Sie plädiere daher für Open-Source-Lösungen, die die Community weiterentwickeln könne.

Beim "Virtual Brain" selbst gehe es darum, das Nervensystem besser zu verstehen und auf den jeweiligen Patienten zugeschnittene Modelle für ein besseres Verständnis von Krankheitsprozessen im Gehirn zu generieren, führte die Medizinerin aus. Die personalisierte Simulation löse Signale aus, mit denen sich Beobachtungen durchführen, Hirnströme messen und komplexe Interaktionen reproduzieren ließen. So könnten etwa Bereiche für epileptische Aktivität ausfindig gemacht werden. In die aktuelle Testphase seien 400 Probanden eingeschlossen.

Die Wissenschaft sei "weit davon entfernt, dass KI alles alleine macht", dämpfte Lippert zu große Erwartungen. Die derzeit verfügbaren Algorithmen seien nicht sonderlich intelligent. Sie assistierten zwar viel, "zeichnen etwas ein in die Bilder, lesen etwas heraus". Aber sie könnten nicht automatisch eine Diagnose erstellen. Es werde zwar "immer mal etwas publiziert", wonach Erkennungsverfahren mit maschinellem Lernen besser als alle Ärzte seien. Wer zwischen den Zeilen lese, stelle aber fest, dass es "oft doch noch nicht ganz so ist".

Deutschland habe beim Nutzen von Gesundheitsdaten ein Henne-Ei-Problem, meinte Mario Brandenburg, technologiepolitischer Sprecher der FDP-Bundestagsfraktion: "Wir sind etwas hintendran." Krankenhäuser etwa seien unterfinanziert und würden noch "nicht als Ort der Datengewinnung gesehen". Wenn schon bei der Aufnahme und später beim Bestand in Systemen an die Forschung gedacht würde, wäre die Folgekette einfacher.

Lesen Sie auch

Für einen selbstbestimmten Umgang mit Algorithmen und Gesundheitsdaten "müssen Informationen für die Nachvollziehbarkeit da sein", mahnte der IT-Sicherheitsberater Viktor Schlüter. Solange IT nur so finanziert werde, dass sie "gerade so funktioniert", sei dies nicht nachhaltig. Dies gelte es zu bedenken, bevor man in Krankenhäusern Riesen-Datentöpfe aufmache oder autonome Entscheidungssysteme einführe. Wenn das Genom oder die ganze Gesundheitsakte erst irgendwo im Netz stünden, könnten die sensiblen Daten nicht mehr zurückgeholt werden.

(tiw)