Medizinalgorithmen: Kalkuliertes Sterben

Software kann die voraussichtliche Lebensdauer eines Patienten auf der Intensivstation prognostizieren. Das schafft massive ethische Probleme.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 127 Beiträge

(Bild: Shutterstock)

Von

Das klassische Verfahren, um die Überlebenswahrscheinlichkeit von Patienten auf der Intensivstationen zu berechnen, ist der so genannte Apache-Index (Acute Physiology And Chronic Health Evaluation). Es wurde 1981 erstmals veröffentlicht und berechnet eine Art Gesundheitskennzahl. Je höher der Wert, desto schlechter der Gesundheitszustand, mithin die Überlebenschance. Das Verfahren liefert aber keine Aussage über die voraussichtliche Lebensdauer.

Mit den Methoden des maschinellen Lernes ändert sich das: Informatiker der Stanford University etwa trainierten ein tiefes neuronales Netz mit elektronischen Patientendaten von zwei Millionen Erwachsenen und Kindern. Nun kann das System mit einer Trefferquote von 90 Prozent vorhersagen, wie wahrscheinlich der Tod eines Patienten innerhalb der nächsten zwölf Monate eintritt.

Die Forscher erhoffen sich von ihrer KI eine bessere Versorgung für Todkranke. Die Gefahr ist allerdings, der Prognose-KI zu viel Gewicht bei der Entscheidung über lebenserhaltende Maßnahmen zu geben. Umso wichtiger wäre es, betonen Experten in der aktuellen Ausgabe von TR, dass die Anbieter Einblick in ihre Programme gewähren.

Leider ist das nicht immer der Fall – selbst dann nicht, wenn es um ethisch bedenkliche Schlussfolgerungen geht. Aspire Health etwa, ein von der Google-Mutter Alphabet finanziertes Unternehmen, bietet einen Algorithmus an, der verhindern soll, dass todkranke Patienten zu lange mit unnötigen Behandlungen traktiert werden.

Doch das Kerngeschäft von ­Aspire Health sind Angebote für eine ambulante Palliativversorgung. Das legt den Verdacht nahe, dass die künstliche Intelligenz möglichst viele Patienten als geeignet identifizieren soll. Genährt wird die Vermutung durch die Tatsache, dass Aspire Health eine Validierung seiner Software bisher schuldig blieb. Die genaue Funktionsweise des „Todes-Algorithmus“ ist Betriebsgeheimnis, wie gut die Voraussagen des Programms zutreffen, ist unbekannt. „Aus ethischer Sicht ist das ein No-Go“, kritisiert ­Georg Marckmann, Leiter des Münchner Instituts für Ethik, Ge­schichte und Theorie der Medizin. (wst)