Genforschung im Schwebezustand

Vom Gen-Reduktionismus zur Forschung am Lebendigen und der Genanalyse von Populationen

Im Zuge der sogenannten "Entschlüsselung" des menschlichen Genoms wurden weit reichende Versprechen in die mediale Umlaufbahn gebracht: "maßgeschneiderte Medikamente" mit drastisch reduzierten Nebenwirkungen seien zu erwarten. Ein Patient müsse beim Arzt nur noch einen Gentest machen, mit dem seine Suszeptibilität (Empfänglichkeit) für bestimmte Krankheiten bestimmt werde, und schon könne seine Reaktion auf eine Arznei vorhergesagt werden. Um diese Vision Wirklichkeit werden zu lassen, haben sich Pharmakologie und Genomforschung zu den Pharmacogenomics zusammengeschlossen. Als oberstes Ziel wurde die Suche nach neuen Ansatzpunkten für Wirkstoffe - sogenannten targets - definiert. Noch ist kein einziges Medikament auf dem Markt, das auf einer genomischen Hypothese beruht. Derzeit wird aber auch immer deutlicher, wie kompliziert es ist, die im Zuge der Entzifferung des menschlichen Genoms gewonnenen Daten für die Medikamentenentwicklung zu nutzen.

Seitdem im Januar 2001 bekannt wurde, dass das menschliche Genom nur ca. 30.000 statt der vermuteten über 100.000 Gene besitzt, bekommt das biomedizinische Paradigma, das die Gene als zentrale Steuerungsinstanz vorsieht, zunehmend Risse. Wie die Gentechnik-Kritikerin Florianne Koechlin im Gen-ethischen Informationsdienst analysiert hat, befindet sich die Forschung derzeit in einer Art "Schwebezustand" - zwischen dem noch nicht abgelösten alten und einem noch nicht allgemeingültigen neuen Paradigma. Diese Krise zeigt sich daran, dass vermehrt das Zusammenspiel von Genen und Umwelt zum Gegenstand von Forschungsprojekten gemacht wird.

An erster Stelle müsse heute "das Gesamtverständnis des Systems stehen, erst danach können targets gesucht werden", fordert beispielsweise Werner Meves vom Institut für Bioinformatik der TU München. Es dürfe nicht mehr wie früher mit einer kontextunabhängigen Hypothese gearbeitet werden, aufgrund derer dann die einzelne Zelle untersucht werde. Meves warnt vor Vereinfachungen, die dann zu targets führten. "Es werden Millionen investiert, um falsche Genomdaten zu erhalten!" In einer Zeit, in der pro Tag in jedem einzelnen Labor ein bis zehn Gigabyte an Daten generiert werden, die nicht unmittelbar nützlich sind, müsse die ganze Aufmerksamkeit auf ihre Interpretation gelegt werden. Die Herausforderung der Pharmacogenomics bestehe darin, das Ganze des lebendigen Organismus zu erfassen.

Das Problem ist nicht die Analyse der Gene, sondern die der Phänotypen

Auf den ersten Blick scheinen sich hier die Positionen von Genomforschung und KritikerInnen anzunähern: Dass den Umweltfaktoren größere Aufmerksamkeit geschenkt werden müsse, ist seit langem eine beliebte Figur der Gentechnik-Kritik. An den Grundannahmen der Genomforschung hat sich jedoch nichts geändert: Da noch kein neues Paradigma bereit steht, wird Leben weiterhin als Informationsprozess begriffen, den es mit den Methoden der Bioinformatik zu berechnen gilt. Es sei das "Informationsparadigma", das der molekularen Medizin die Chance eröffne, den "300-jährigen Reduktionismus in der Medizin aufzugeben", meint etwa Norbert Paul vom Berliner Max-Delbrück Centrum. Seit der funktionellen Anatomie sei die Medizin den Weg des Reduktionismus gegangen - "über die Leiche".

Das grundsätzliche Problem bestehe darin, dass medizinisches Wissen bisher immer auf der in vitro-Ebene, also im Reagenzglas generiert worden sei. Wenn die Genomanalyse weiter mit statischen Modellen arbeite, habe sie es weiterhin mit einer Leiche zu tun. Für den Genomforscher ist diese Analyse Anlass, neben der Bioinformatik die Forschung am Menschen stark zu machen: Komplex sich entfaltende Merkmale erforderten eine "dynamische Modellierung", so Paul. Die Kluft zwischen dem in vitro-Studium des Lebens unter idealisierten Laborbedingungen und dem lebendigen Organismus in vivo müsse durch Studien am Lebendigen selbst abgebaut werden, fordert Paul. Gerade für die Suche nach targets sei dies entscheidend. Man müsse also "von vorneherein von klinischen Fragestellungen ausgehen und Populationen untersuchen".

Genau darauf zielt die Arbeit des Berliner Unternehmens Ingene ab. Während die meisten Genomforschungsunternehmen vom Genotyp zum Phänotyp gelangen wollen, verfolgt Ingene den umgekehrten Weg: "Das Problem sind nicht die 30.000 Gene, sondern die fehlenden Phänotypen!", behauptet Ingene-Geschäftsführer Richard Grosse. Seine Devise lautet: "Ganze Populationen müssen phänotypisiert werden." Zu diesem Zweck hat das Unternehmen damit begonnen, eine Phänotyp-Datenbank aufzubauen. Die Daten werden derzeit von sechs Berliner Kliniken und 19 angeschlossenen Arztpraxen gesammelt, in Zukunft sollen aber auch in Lettland, Litauen, der Ukraine und Singapur ähnliche Projekte aufgezogen werden. Während die beiden anderen großen europäischen Datenbanken in Island und Estland vor allem Diagnosen sammeln, setzt Ingene auf die akribische Sammlung zahlreicher Merkmale, aus denen erst im zweiten Schritt Diagnosen erstellt werden.

Über 3.000 Freiwillige haben seit April letzten Jahres einen 23 Seiten umfassenden Fragebogen ausgefüllt und DNA-Proben abgegeben. Um eine Diagnose zu erstellen, werden dann klinische und genetische Daten im Computer miteinander verglichen. Dieser Ansatz hat zum Ziel, bestimmte Übereinstimmungen von DNS-Proben und Phänotypen zu finden und auszuwerten. Für ein bestimmtes Phänotyp-Cluster wird dann ein Genotyping angestrebt bzw. mit den bestehenden Annotationsdatenbanken verglichen. Ein genomweites Screening soll so umgangen werden. Diese am Phänotyp erstellten Gen-Profile sollen es später erlauben, Angriffspunkte für die Medikamentenentwicklung zu gewinnen.

Vermutlich wird auch dieses komplexe Modell die oben genannten Versprechen nicht einlösen können, da es weiterhin auf dem Glauben beruht, Leben sei Information. Zu befürchten ist allerdings, dass die Forschung an lebendigen Individuen und ganzen Bevölkerungen in Zukunft noch stärker boomen wird. (Fabian Kröger)