Medizinische KI mit Datenschutz

An der Stanford University läuft der erste große Test, bei dem Maschinenlern-Algorithmen aus Patientendaten lernen, die vor unbefugten Zugriffen geschützt sind.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 2 Beiträge
Roboter, Gesicht, Künstliche Intelligenz KI
Von
  • Will Knight

Künstliche Intelligenz-Systeme (KI) könnten in der Medizin eine große Hilfe sein und Krankheiten diagnostizieren, ihnen vorbeugen sowie unsere Lebensdauer verlängern. Doch dieses Potenzial hat einen Haken: KI-Algorithmen benötigen riesige Datenmengen zum Lernen, allerdings können medizinische Aufnahmen, genetische Informationen und elektronische Patientenakten sensible persönliche Informationen enthalten. Deshalb arbeiten Forscher der Stanford Medical School gemeinsam mit der der University of California (UC) Berkeley, deren Ausgründung Oasis Labs, sowie Wissenschaftlern der ETH Zürich daran, den Lernprozess so abzusichern, dass die Daten nicht in unbefugte Hände geleakt oder anderweitig missbraucht werden können.

Im Rahmen eines Anfang Mai gestarteten großangelegten Tests können Patienten mit Augenproblemen wählen, ob sie ihre medizinischen Daten dem Training einer KI zur Verfügung stellen wollen. Diese soll Erkrankungen wie diabetische Retinopathie (Netzhautschäden durch zu hohen Blutzucker) und Glaukome (Netzhaut- und Sehnerv-Schäden) anhand von Aufnahmen diagnostizieren lernen, ohne dass die Algorithmen jemals Zugriff auf persönliche Daten haben. Die Patienten geben in einer App ophthalmologische Testergebnisse und Daten aus ihrer Krankengeschichte frei.

Oasis Labs speichert die privaten Patientendaten auf einem gesicherten Chip, den es zusammen mit der UC Berkeley entwickelt hat. Die Daten bleiben dabei stets innerhalb der Oasis-Cloud. Außenstehende können Algorithmen einspeisen und Ergebnisse erhalten, ohne dass die Daten selbst jemals das System verlassen. Trifft eine Zugriffsanfrage ein, wird ein sogenannter smarter Vertrag ausgelöst, also eine Software, die einer Blockchain vorgeschaltet ist. Die Software notiert, wie die Daten verwendet wurden und prüft zudem, ob die Maschinenlern-Programmierung korrekt ausgeführt wurde. "Es ist sehr spannend, dass wir das mit echten Daten testen können, um zu zeigen, dass es funktioniert", sagt Dawn Song, Mitgründer von Oasis Labs und Professorin an der UC Berkeley. Je mehr Daten in das Training hineinfließen, desto genauer werde das System.

Probleme bei der Handhabung privater Patientendaten zeichnen sich schon seit einiger Zeit ab. In vielen Ländern ist es etwa aus rechtlichen Gründen nicht einfach, medizinische Akten für das Trainieren von KI zu nutzen. Selbst wenn es möglich ist, werden in der Regel relativ kleine Datenmengen verwendet, was das Potenzial der Technologie erheblich einschränkt. Das will Oasis Lab nun ändern.

Die neue Schutztechnologie könnte es auch einfacher machen, KI auf andere vertrauliche Informationen wie Finanzberichte, die Kaufgewohnheiten von Kunden oder Surfdaten im Internet anzuwenden. Laut Song ist geplant, die medizinischen Anwendungen zu erweitern, bevor auf andere Bereiche verwiesen wird.

Mehr Infos

"Es ist eine unglaublich starke Idee, Berechnungen durchzuführen und dabei [sensible] Daten geheim halten zu können", sagt David Evans von der University of Virginia.

Wenn maschinelles Lernen über Krankenhäuser und verschiedene Patientengruppen hinweg angewandt werde, eröffne das völlig neue Möglichkeiten dafür, Krankheiten mit Genomik- und anderen Testergebnissen sowie weiteren Patienteninformationen zu verknüpfen, sagt der Experte für maschinelles Lernen und Sicherheit. "Es wäre schön, wenn Forscher in allen medizinischen Unterlagen nachlesen könnten", sagt Evans. "Sie könnten analysieren, warum ein Medikament nicht wirkt. Aber das geht heute noch nicht."

Trotz dieser Möglichkeiten gibt sich Evans vorsichtig. Das Speichern von Daten in sicherer Hardware könne zu einem potenziellen Fehler führen. Wenn der Hersteller der Datensicherungs-Hardware gehackt wird, sind alle verarbeiteten Daten gefährdet. Die Sicherheit von Blockchains sei relativ unbewiesen, fügt er hinzu. Bei Oasis Labs' Ansatz "kommen viele verschiedene Technologien zusammen. Einige sind ausgereift, während andere zwar auf dem neuesten Stand sind, aber noch mit Herausforderungen kämpfen."

(vsz)