Technology Review 10/2017
S. 28
Horizonte
Ethik

Wohin soll’s gehen?

Foto: Shutterstock

Die grundsätzliche Frage, ob Menschen Schöpfer spielen sollten, ist längst beantwortet. Denn von Beginn der Menschheitsgeschichte an greifen wir in die Natur ein und formen sie nach unserem Willen. Nun geben uns neue Technologien wie das Gen-Editing oder die künstliche Intelligenz mehr Macht als je zuvor. Doch damit ist auch unsere Verantwortung so groß wie nie zuvor.

Was früher das Schicksal war, ist heute eine Entscheidung. Wir müssen sie treffen, ob zur Genveränderung unserer Kinder oder der Frage, welchen Einfluss wir einer KI geben wollen. Denn keine Entscheidung ist auch eine.

Gleichzeitig rücken die Technologien immer näher an den Menschen heran. Die Entscheidungen werden damit zunehmend persönlicher. Wir haben 12 große Fragen zusammengetragen, die auf uns warten – und nach den Antworten gesucht.

Darf ich einer KI Entscheidungen überlassen?

In vielen Lebensbereichen steuert künstliche Intelligenz bereits das Geschehen – zumindest zeitweise. An den Autopiloten im Flugzeug, automatisierte Kreditwürdigkeitsprüfungen und algorithmengesteuerten Aktienhandel haben wir uns gewöhnt. In der Medizin bekommt künstliche Intelligenz immer größere Bedeutung bei Diagnose und Therapie. KI-Systeme für die Leistungsbeurteilung von Studierenden und Arbeitnehmern befinden sich im Praxistest. Regulär eingesetzt wird auch Predictive Policing – vorausschauende Polizeiarbeit –, um damit Straftaten zu verhindern. Das Instrumentarium, auch aus dem Film „Minority Report“ bekannt, nutzt seit 2012 unter anderem das Santa Cruz Police Department in den USA. Noch treffen die Systeme aber keine weitreichenden Entscheidungen. Sie verschreiben keine Medikamente und fällen keine Gerichtsurteile. Viele Forscher sind jedoch überzeugt, dass dies in wenigen Jahren kommen wird. Aber wäre der Schritt auch ethisch vertretbar?

Foto: Yodsapatoo/Fotolia

Viele Experten sind der Ansicht, dass es eine Grenze geben muss. „Entscheidungen, die mit der Ausübung von körperlicher Gewalt einhergehen, dürfen nicht an Maschinen delegiert werden“ – so lautet beispielsweise der Konsens, auf den sich das International Committee for Robot Arms Control verständigt hat.

Wie plausibel oder zwingend ist der Gedanke einer solchen Grenze? Susanne Burri, Assistant Professor am Department of Philosophy Logic & Scientific an der London School of Economics, hat sich eingehend mit der ethischen Debatte über „Killerroboter“ befasst. Ein Argument, das von KI-Skeptikern häufig vorgebracht wird, lautet: Um die Würde des Gegenübers zu respektieren, müsse man ihm oder ihr als Person gegenübertreten. Aber ist Würde mehr wert als zuverlässiges Funktionieren? Die Wissenschaftlerin meint: Wenn es im Falle einer kriegerischen Auseinandersetzung moralisch legitim sei, feindliche Soldaten zu töten, dann sollten Zivilisten und die eigenen Streitkräfte einer möglichst geringen Gefahr ausgesetzt werden. Unter der Voraussetzung, dass autonome Waffen dies am besten bewerkstelligen könnten, sei es fraglich, dass „Menschlichkeit“ mehr zählen solle als die Sicherheit der Beteiligten.

Ein anderes, oft vorgetragenes Argument unterstellt, dass Maschinen keine Verantwortung tragen können. Dazu sagt Burri: „Entweder sie können dies tatsächlich nicht – dann sind Menschen verantwortlich, die die Maschinen programmieren. Oder sie sind verantwortlich und können auch bestraft werden: Maschinen können schließlich zerstört, ausgeschaltet oder umprogrammiert werden.“ Für die Wissenschaftlerin handelt es sich bei den „Killerrobotern“ um Werkzeuge. „Viel Weitblick, Vorsicht und Sorgsamkeit sind nötig, um solche Werkzeuge in einer moralisch verantwortlichen Weise zu entwickeln und einzusetzen. Aber prinzipiell sehe ich keinen Grund, warum dies nicht möglich sein sollte.“

Solche Überlegungen lassen sich auf andere Bereiche übertragen. Darf man etwa Gerichtsentscheide einer künstlichen Intelligenz überlassen? Der Ansatz wäre zumindest unkonventionell. Wir sind es gewohnt, dass Personen in Rechtsfragen entscheiden – die dafür auch einstehen können. Für Fehlurteile haftet ein Richter schließlich mit seinem Ruf und seiner Karriere.

Aber auch hier kommt diesem persönlichen Aspekt nur ein relativer Wert zu. Dies wird deutlich anhand einer kürzlich in Israel durchgeführten Studie. Sie offenbarte, dass Strafrichter in ihrem Urteil davon beeinflusst werden, wie nah oder fern die nächste Essenspause ist. Mit gefülltem Magen richtet es sich offenbar milder.

Umgekehrt zeigen jüngste Erfahrungen aber auch, dass eine künstliche Intelligenz nicht so objektiv urteilt wie häufig angenommen. Ob bei der Auswahl von Jobkandidaten oder der Bewertung des Rückfallrisikos von Straftätern – auch Maschinen können Vorurteile haben. Für beide Bereiche zeigen Beispiele aus den USA, dass Algorithmen Menschen mit schwarzer Hautfarbe diskriminieren. Der Grund liegt in den Daten, mit denen sie geschult werden (siehe TR 8/2017).

Am Ende muss es darauf hinauslaufen, dass Nutzer für jeden Anwendungsfall beweisen, dass menschliche und maschinelle Urteile mindestens gleichwertig sind. Wenn sie sogar besser sind – dann werden Menschen vielleicht sogar verlangen, dass ein Computer die Entscheidung fällt. RALF GRÖTKER

Darf man einen Bot beschimpfen?

Die Logfiles eines Chatbots oder eines digitalen Assistenten sind ein Lexikon zeitgenössischer Beschimpfungen in sämtlichen denkbaren Varianten. Warum ist das so? Zum einen vermutlich, weil die Maschinen zwar suggerieren, wie ein menschlicher Gesprächspartner zu reagieren, dann aber trotzdem oft nur Bahnhof verstehen. Das macht die Nutzer gereizt. Zum anderen wohl, weil Bots die Möglichkeit bieten, ohne großen sozialen Flurschaden mal richtig Dampf abzulassen. Ein drittes Motiv mag Neugier sein, die Grenzen des Systems auszuloten. Wie auch immer: Selbst die intelligentesten Bots sind noch weit davon entfernt, dass wir ihnen eine eigene Persönlichkeit mit entsprechendem Gefühlsleben unterstellen können. Sie dürften die Anwürfe also nicht persönlich nehmen. Die Frage, ob man sie anpöbeln darf, scheint daher zunächst einmal absurd.

Foto: Shutterstock

Ist sie aber nicht. Forscher wie Kate Darling, Roboter-Ethikerin am Massachusetts Institute of Technology, machen sich schon Gedanken darüber, ob gewisse Menschenrechte auch auf soziale Roboter ausgeweitet werden sollten. Sie fürchtet, dass schlechter Umgang mit Maschinen auch auf den Umgang mit Menschen abfärben könnte. Ein umgekehrter Fall ist bereits dokumentiert: Der selbstlernende Chatbot Tay von Microsoft sollte aus dem Gespräch mit Nutzern lernen – und wurde binnen eines Tages zur Schleuder rassistischer Sprüche. Wir werden uns wohl irgendwann daran gewöhnen müssen, unsere Bots selbst sorgfältig zu erziehen.

Zudem werden die Logfiles regelmäßig von Menschen gelesen, um herauszufinden, welche Lücken im Wortschatz noch bestehen. Die meisten dieser „Botmaster“ dürften sich mit der Zeit zwar ein dickes Fell zugelegt haben, aber erfreulicher wird ihr Job durch die routinemäßige Lektüre von Beschimpfungen sicherlich nicht. Und Gegenstrategien gegen die ständigen Pöbeleien binden Arbeitskraft, welche bei den Kernfunktionen besser untergebracht wäre. Wer einen schlecht funktionierenden Bot beschimpft, stiehlt Menschen also Zeit und hält sie davon ab, ihn besser zu machen. GREGOR HONSEL

Darf ich private Daten posten und trotzdem mehr Datenschutz wollen?

Private Fotos posten, die Telefonnummer, E-Mail-Adresse und den Beziehungsstatus veröffentlichen und gleichzeitig mehr Datenschutz fordern? Darf ich das? Irgendwann taucht in Datenschutz-Debatten immer das Argument auf: Die Menschen teilen sich doch so bereitwillig über Facebook mit, da können sie doch nicht ernsthaft Staat oder Unternehmen so penibel auf die Finger schauen. Doch der Widerspruch „ist eigentlich keiner“, sagt Oliver Bendel, Wirtschaftsinformatiker und Informationsethiker an der Fachhochschule Nordwestschweiz FHNW in Basel: „Ich kann ja daran interessiert sein, dass fremde personenbezogene Daten geschützt werden, etwa die meiner Kinder. Zugleich kann ich mich dafür entscheiden, bei meinen persönlichen Daten freizügig zu sein.“ Wichtig ist für Bendel letztlich, „dass die Entscheidung über meine Daten bei mir liegt“.

Bei sozialen Medien ist dies zunächst der Fall. Jeder kann entscheiden, was er postet. Dann hört die Kontrolle aber schon auf. Zwar kann man bei Facebook etwa einstellen, wer von den eigenen Kontakten bestimmte Daten sehen darf: Die Plattform erwirbt aber eine „nichtexklusive Lizenz“ für die Nutzung der Inhalte und leitet die Daten in die USA weiter, wo sie zu Geld gemacht werden. Ob sich das durch die Forderung nach mehr Datenschutz ändern wird, darf bezweifelt werden. „Trotzdem ist das Beharren darauf sinnvoll“, sagt Bendel. Durch den vermehrt laxen Umgang mit Daten drohe sonst die Aufweichung des Rechts. Die Politik könnte sich auf die scheinbar veränderte Geisteshaltung beziehen und einen schwächeren Datenschutz durchsetzen, warnt der Experte. DENIS DILBA

Darf ich das Erbgut meiner Kinder entschlüsseln lassen?

Als das menschliche Genom 2001 ein erstes Mal sequenziert war, galt das als Sensation. Inzwischen ist die Entschlüsselung des genetischen Materials schon fast eine Routineangelegenheit. Die Technik ist weithin verfügbar und kostet mittlerweile meist weniger als 1000 Euro. Viele private Unternehmen bieten einen Gentest sogar als Service an. Nach einigem Hin und Her erhielt das Biotech-Unternehmen 23andMe in diesem April von der amerikanischen Gesundheitsbehörde FDA die Erlaubnis, seine Kunden über Krankheitsrisiken zu informieren. Zu diesen zehn verschiedenen genetisch bedingten Leiden gehören Alzheimer, Parkinson oder auch Blutgerinnungsstörungen.

Foto: Shutterstock

Inzwischen hat man in den Vereinigten Staaten und China aber auch junge Eltern als Zielgruppe entdeckt. Das Bostoner Unternehmen Veritas Genetics bietet für eine Gebühr von 1500 Dollar an, das komplette Genom Neugeborener zu entschlüsseln. Die Eltern erhalten Hinweise auf mehr als 950 wichtige Krankheitsrisiken sowie 200 Gene im Zusammenhang mit der Wirksamkeit von Medikamenten. Auch in Deutschland geht die Entwicklung in diese Richtung. So wird zum Beispiel darüber nachgedacht, das Neugeborenen-Screening noch durch Gentests zu erweitern.

Eltern stehen damit vor einer schweren Entscheidung: Sollen sie ihr Kind testen lassen, um möglicherweise gefährliche Erbleiden früh zu entdecken? Oder geben sie ihrem Kind dadurch ein Wissen mit, das mehr Bürde als Nutzen ist? Schließlich sind längst nicht alle Erbleiden so gut therapierbar wie die Phenylketonurie. Diese Stoffwechselerkrankung kann bei Kindern schwere geistige Beeinträchtigungen auslösen, lässt sich aber durch eine Diät gut behandeln. Zu einem ähnlich positiven Beispiel soll sich nun auch die spinale Muskelatrophie entwickeln. Die Muskelschwäche führt bisher zu einem frühen Tod. Seit Anfang des Jahres ist jedoch das Präparat Nusinersen zur Behandlung in Deutschland zugelassen. Nun hoffen Ärzte, dass die obligatorische Neugeborenenuntersuchung künftig noch um einen Gentest auf dieses Leiden erweitert wird.

Andere Erbkrankheiten spielen ohnehin erst später im Leben eine Rolle. Die Mutter könnte zum Beispiel Trägerin der BRCA1-Mutation sein, bei der rund 70 von 100 Betroffenen in ihrem Leben an Brustkrebs erkranken werden. Die derzeit einzig wirkungsvolle Therapie ist, beide Brüste prophylaktisch zu entfernen. Das Leiden tritt jedoch erst etwa ab dem 30. Lebensjahr auf. Was also bringt der Test im Kindesalter? Dagegen ist die Wahrscheinlichkeit groß, dass in 20 Jahren, wenn das Mädchen zur Frau geworden ist, Alternativen zur radikalen Operation existieren. Eine weitere, in Deutschland relativ häufige genetische Krankheit ist die Hämochromatose, die eine erhöhte Ablagerung von Eisen bewirkt. Auch sie bedroht Menschen in der Regel erst nach dem 40. Lebensjahr. Wieder andere Leiden dagegen bessern sich überhaupt nicht. Bei der Huntington-Krankheit gibt es zum Beispiel keine Therapie. Zwar treten die Symptome meist nicht vor dem 40. Lebensjahr auf. Aber die Erkrankung zerstört Teile des Gehirns – oft mit schweren Verläufen, die zum Tod führen.

Das Wissen um vererbte Gesundheitsgefahren, die im eigenen oder im Körper des Kindes schlummern, macht das Leben nicht unbedingt einfacher. Deshalb entscheiden sich viele Menschen auch bewusst dagegen, etwas darüber zu erfahren. Der Molekularbiologe James Watson zum Beispiel, einer der Entdecker der Doppelhelix, ließ zwar im Jahr 2008 sein Genom sequenzieren. Aber nur unter der Bedingung, dass die für Alzheimer verantwortliche Stelle ausgespart blieb.

Auch das kürzlich erschienene Buch „Das Gen“ von Pulitzerpreisträger und Arzt Siddhartha Mukherjee dreht sich in vielen Passagen um die Schizophrenie, die es seit mehreren Generationen in seiner Familie gibt. Der Bestsellerautor hat sich oft gefragt, ob er sein Genom und das ausgewählter Familienangehöriger sequenzieren lassen soll. Aber nach wie vor fehlt „die Identifizierung der meisten Genvarianten oder Variantenkombinationen, die das Krankheitsrisiko erhöhen“, schreibt er in dem Band. Er geht aber davon aus, dass diese Rätsel in einigen Jahren gelöst sind – und diese Aussicht belastet den Mediziner schon jetzt.

Eine vollständige Analyse des Erbguts ergibt für die Politologin Barbara Prainsack vom Londoner King’s College deshalb nur bei kranken Kindern Sinn: „Da ist es den Aufwand wert, wenn ich einer Diagnose oder Therapie näher komme.“ Eltern von gesunden Kindern rät das Mitglied der österreichischen Bioethikkommission von diesem Schritt ab. „Sie handeln sich eventuell Diagnosen ein, die zu Lebzeiten niemals Probleme bereiten werden.“ Zuverlässige Voraussagen rein aus dem Erbgut sind immer noch selten. Sie setzen ein Wissen um die Korrelation von Genvarianten und Gesundheitsrisiken voraus – das in vielen Fällen schlicht noch nicht existiert. Es könnte sogar sein, dass eine Erbgutkonstellationen das Risiko für eine Krankheit erhöht, eine andere aber wiederum verhindert, dass sie wirklich ausbricht. „Da müssen wir noch viele Jahre und vielleicht auch Jahrzehnte Sequenzdaten von unterschiedlichen Populationen sammeln und auch das Zusammenspiel zwischen DNA und der Ausprägung von Krankheiten studieren“, sagt die Sozialwissenschaftlerin. INGE WÜNNENBERG

Dürfen sich Gesunde von der Versicherung belohnen lassen?

Immer mehr Versicherungen machen ihren Kunden ein verlockendes Angebot: Wer nachweist, dass er besonders vorsichtig fährt, sich gesund ernährt oder regelmäßig Sport macht, bekommt Rabatte oder andere Vergünstigungen (siehe TR 8/2016, S. 18 ). Doch widerspricht dies nicht dem Solidaritätsgedanken einer Versicherung, wonach die Starken für die Schwachen aufkommen? Darf man als gesunder und verantwortungsvoller Mensch so ein Angebot annehmen?

Die Versicherungen argumentieren: Erst durch solche Programme bekommen viele Menschen einen ausreichenden Anreiz, etwas für ihre Gesundheit zu tun. Und dadurch sänken die Kosten für alle. Klingt einleuchtend, aber ob dies tatsächlich so ist oder ob es eher den ohnehin Gesundheitsbewussten einen angenehmen Nebennutzen verschafft, ist mangels Erfahrungswerten derzeit schlecht zu sagen.

Ein weiteres Argument: Durch das Angebot werde niemand schlechter gestellt. Wer es – aus welchen Gründen auch immer – nicht annimmt, zahle das Gleiche wie sonst. Ob das langfristig so bleiben wird, ist allerdings offen. Denn wenn die Anreize nicht wie erhofft wirken, wird irgendjemand die geringeren Einnahmen durch die fitten Mitglieder ja kompensieren müssen. Im Zweifel werden dies die weniger Fitten sein. Ob der eine einen Rabatt oder der andere einen Aufschlag bekommt, ist letztendlich egal. Beides stellt das bisherige Prinzip der Solidarität infrage.

Befürworter erwidern, als gesundheitsbewusster Mensch sei es zu viel verlangt, uneingeschränkt solidarisch mit all jenen zu sein, die sich nicht groß um ihre Gesundheit scheren. Außerdem orientierten sich solche Bonusprogramme – je nach Ausgestaltung – nicht notwendigerweise am absoluten Gesundheitszustand der Kunden, sondern daran, wie weit sie sich bemühen, ihn zu verbessern. Aus dieser Sicht heraus scheint es nur fair, die Strebsamen zu belohnen.

Ethisch also doch alles im grünen Bereich? Nicht unbedingt, denn es gibt da noch einen anderen Aspekt: den Datenschutz. Was Versicherer von ihren Kunden alles erfahren wollen, ist mitunter starker Tobak – etwa die Daten von Bewegungstrackern, die Einkäufe in Supermärkten, die Trainingsfrequenz im Fitnessstudio. Es gibt gute Gründe, sich dem zu widersetzen, selbst für vorbildliche Zeitgenossen. Wenn sich aber immer mehr Kunden freiwillig überwachen lassen, steigt das Risiko für den renitenten Rest, von der Versicherung in eine höhere Risikoklasse gesteckt zu werden. Es geht also hier nicht nur um die Frage, wie weit sich gesundheitsbewusste mit weniger gesundheitsbewussten Menschen solidarisieren sollten. Sondern auch um die Solidarität der datenbewussten Kunden untereinander. GREGOR HONSEL

Darf ich meine Nachkommen genetisch verändern?

Bislang war die Debatte über einen Eingriff in die Keimbahn mit Auswirkungen auf sämtliche nachfolgenden Generationen quasi theoretischer Natur. Nun aber sind solche Manipulationen dank des neuen Gen-Editing-Verfahrens CRISPR ziemlich praxisnah. Welches Potenzial in der Methode steckt, zeigt eine im August in dem renommierten Journal „Nature“ veröffentlichte Studie: Einem Team um den US-Forscher Shoukhrat Mitalipov ist es gelungen, in Embryonen einen Gendefekt zu beheben. Die Mutation betrifft ungefähr einen unter 500 Menschen und führt später im Leben zu einer schweren Herzkrankheit, der familiären hypertrophen Kardiomyopathie.

Foto: Shutterstock

Für ihre Studie injizierten die Forscher von der Oregon Health & Science University in Portland einer Eizelle die CRISPR-Genschere gleichzeitig mit den Spermien des kranken Spenders. So konnte Mitalipov weitgehend verhindern, dass die Mutation nur in einem Teil der Zellen korrigiert wurde. Außerdem führte das Gen-Editing in mehr als 70 Prozent der Fälle zu gesunden Embryonen. Die Erfolgsquote war damit deutlich höher als jene der chinesischen Teams, die bereits in den vergangenen zwei Jahren ähnliche Experimente durchgeführt haben.

Noch zählen solche Versuche zur Grundlagenforschung. Doch die Reparatur einer Erbkrankheit schon in der Phase der Befruchtung der Eizelle wäre ein Eingriff in die sogenannte Keimbahn und würde sämtliche Nachkommen betreffen. Bisher sind Keimbahninterventionen deshalb für viele ein Tabu. In Deutschland verbietet das Embryonenschutzgesetz Experimente wie das von Mitalipov. Die Politologin Barbara Prainsack vom Londoner King’s College räumt ein, dass man die „Reparatur“ eines mutierten Gens auch als Herstellung des ursprünglichen gesunden Zustands für einen Menschen und dessen Nachkommen sehen könnte. „Das Problem ist nur, dass man nicht klar unterscheiden kann zwischen Enhancement, also einer Verbesserung, und Reparatur oder Therapie.“

Daher verdammt die Politologin, die der österreichischen Bioethikkommission angehört, Eingriffe in die Keimbahn nicht grundsätzlich: „Ich bin auf der Seite derer, die sagen, dass man das im Einzelfall entscheiden muss.“ Dem Argument der Gegner, dass die behandelten Kinder den gentechnischen Maßnahmen nicht zugestimmt hätten, begegnet Prainsack mit dem Hinweis auf andere, ebenso unfreiwillige und moralisch fragwürdige Einflüsse. „Auch Umweltverschmutzung, Stress, Mangelernährung und Gewalterfahrungen hinterlassen Signaturen und Marker“, sagt sie. Diese Veränderungen würden teilweise ebenfalls vererbt, und niemand hätte dem explizit zugestimmt.

Die Frage also, ob es erlaubt ist, die Fortpflanzungszellen zu verändern, scheint vor diesem Hintergrund und angesichts der sich rasant entwickelnden technischen Möglichkeiten des Gen-Editings schon beinahe überholt zu sein. Selbst Theologen wie Peter Dabrock, Vorsitzender des Deutschen Ethikrats, haben offensichtlich kapituliert: „Ich würde mir wünschen, dass die Vereinten Nationen (UN) eine Resolution beschließen, dass zumindest die Implantation genmanipulierter Embryonen so lange verboten bleiben muss, bis dadurch verursachte Gesundheitsrisiken ausgeschlossen werden können“, sagt er. Aber dann werden die Therapien kommen, glaubt auch Dabrock. „Man scheint heute nur noch um den Zeitraum zu streiten, wann es denn so weit ist.“ INGE WÜNNENBERG

Darf ich die Dienste der Gig Economy nutzen?

Als meine Mutter zu alt wurde, um die Wohnung selbst in Ordnung zu halten, bestellten wir eine Putzhilfe. Voraus gingen lange, erbitterte Diskussionen, denn die Notwendigkeit einer Putzhilfe war für sie nicht nur ein sichtbares Zeichen ihres körperlichen Verfalls. Es war meiner Mutter schlichtweg peinlich, ihren Dreck von anderen Leuten wegräumen zu lassen. Und so ließ sie es sich nicht nehmen, der Frau bei jedem Putzeinsatz eine Tasse Kaffee zu kochen – liebevoll von Hand aufgebrüht.

Foto: Fabrizio Bensch/Reuters

Was im Rückblick wie eine persönliche Marotte wirkt, offenbart einen tiefen gesellschaftlichen Wandel. Während persönliche Dienstleistungen wie Putzen, Chauffeurdienste oder Botengänge für die Nachkriegsgeneration noch Ausdruck einer klaren gesellschaftlichen Hierarchie waren – etwas für die feinen Leute –, sind sie heute von diesem Makel befreit. Einen wesentlichen Anteil daran haben die Plattformen der Gig Economy: Uber, Helpster und wie sie alle heißen.

Auf den ersten Blick scheint die Gig Economy eine klassische Win-win-Situation zu schaffen: Auf der einen Seite oftmals schlecht ausgebildete Menschen, die auf diese Weise jederzeit leicht, transparent und legal einen Job bekommen. Auf der anderen Seite die Auftraggeber, die nicht mühsam nach geeigneten Kräften suchen und über Vertragsbedingungen und Bezahlungen diskutieren müssen.

Auf den zweiten Blick haben Uber und Co. aus dem Stand ein neues digitales Heer von Tagelöhnern geschaffen. „50 Millionen digitale Arbeiter weltweit“, gebe es mittlerweile, schätzt der Geograf Mark Graham, der das Phänomen Gig Economy für das Oxford Internet Institute erforscht. Neben den klassischen Dienstleistungsjobs sind das auch sogenannte „Clickworker“, die etwa Fotos mit Stichwörtern versehen, Daten eingeben oder Texte übersetzen. „Da immer mehr Menschen aus einkommensschwachen Ländern online gehen, stehen sie in einem harten individuellen Wettbewerb miteinander“, sagt er. Die Arbeitsplätze der Plattformen seien daher oftmals gekennzeichnet durch „lange und unregelmäßige Arbeitszeiten, niedriges Einkommen und hohen Stress“. Nur sehr wenige Plattformen würden existierende Regulierungen beachten, sagt Graham. Tatsächlich argumentieren Plattformen wie Foodora oder Uber damit, dass sie ja keine Angestellten hätten, sondern eine Plattform für freie Selbstständige seien – für die Arbeitsschutzrechte nicht greifen. Ungeachtet dieses juristischen Streits würden die Plattformen langfristig das Lohnniveau und die Arbeitsbedingungen untergraben, befürchtet Graham, „und zwar sowohl in Ländern mit niedrigem als auch mit hohem Einkommen“.

Darf man die Angebote also annehmen? Das Dilemma ist offensichtlich: Der einzelne Gig-Arbeiter freut sich, aber gleichzeitig sinken die Chancen für alle auf faire Arbeitsbedingungen. Der Ökonomin Nora Stampfl, die mit ihrer Denkfabrik f/21 die Zukunft der Arbeit erforscht, sieht keinen Grund für einen Boykott. „Bestimmt ist die Kluft zu regulären Beschäftigungsverhältnissen in puncto Löhne und Arbeitsbedingungen ein Thema – aber deshalb die Dienste nicht zu nutzen, wem wäre damit geholfen?“, fragt sie.

Ähnlich sieht das auch die Ethnologin Alex Rosenblat. Sie hat für das Data & Society Research Institute in New York Fahrer von Uber befragt und ist der Überzeugung: „Grundsätzlich hilft es aus Fahrerperspektive nicht direkt, wenn Verbraucher Plattformen boykottieren. Die Fahrer verlieren nur ihr Geschäft.“ Sie würden nur dann profitieren, wenn die Kunden andere Plattformen verstärkt nachfragen, die seriöser sind. Auch Mark Graham argumentiert in diese Richtung: „Wenn wir Fairtrade-Schokolade, Kaffee oder Gurken kaufen können, dann sollte es auch Suchmaschinen geben, auf denen man nach fairen Arbeitsbedingungen suchen kann“, sagt er.

Hilft das aus dem moralischen Dilemma? Nicht wirklich. Der Soziologe Trebor Scholz von der New School in New York hatte einen radikaleren Vorschlag: Er plädiert dafür, dass die Beschäftigten einfach eigene Plattformen gründen, die sie als Kooperative betreiben. Eine Art Uber in der Hand der Fahrer zum Beispiel. Mit dem US-Anbieter Arcade City gibt es sogar schon einen Vorreiter (siehe Seite 79). Ich bin sicher, diese Idee hätte meiner Mutter gefallen. Wolfgang Stieler

Darf ich meine sozialen Kontakte per künstlicher Intelligenz pflegen?

Heute sind Computer vor allem dazu da, Anweisungen entgegenzunehmen. Die meisten Menschen nutzen digitale Privatsekretäre wie Siri, Alexa oder Google Assistant dafür, ihnen etwas zu befehlen: auf eine SMS zu antworten, jemanden während einer Autofahrt anzurufen oder einem guten Freund auf den letzten Drücker ein Buch zum Geburtstag zu bestellen. Die Entscheidung darüber, wie sich die Interaktion mit anderen Menschen konkret gestaltet, liegt aber noch beim Nutzer selbst. Noch, denn schon heute können künstliche Intelligenzen einen Teil der Korrespondenz autonom bestreiten.

Fotos: Shutterstock,Yakobchuk Olena/Fotolia

Erste Anwendungen dieser Art sind bereits auf dem Markt. So brauchen Facebook-Nutzer in den USA auf eine Geburtstagserinnerungs-SMS nur reagieren, indem die eine „1“ eintippen, und schon erscheint ein „Happy Birthday“ auf der Seite des Adressaten. Und seit ein paar Monaten gibt es sogar ein Plug-in für den Chrome-Browser namens „Birthday Buddy“, das einen „persönlichen Geburtstagswunsch zum richtigen Zeitpunkt“ an alle Facebook-Kontakte schickt. Künftig könnten KIs ihre Nutzer auf die Blumen zum Hochzeitstag hinweisen oder ihnen raten, einem guten Freund eine Aufmerksamkeit zu schicken, weil er gerade im Krankenhaus liegt. Der Nutzer drückt dann nur noch den Bestätigungsknopf. Der Service ist zweifellos bequem. Aber was bedeutet er für die sozialen Beziehungen? Immerhin sollen im Jahr 2021 rund 1,8 Milliarden Menschen eine künstliche Intelligenz als persönlichen Assistenten einsetzen, so die Prognose des Marktforschungsinstituts Tractica.

Oliver Zöllner, Leiter des Instituts für digitale Ethik der Stuttgarter Hochschule der Medien, hält sie für eine Art von Entmenschlichung. „Ich habe einmal zum Geburtstag einen Brief von meinem Stromanbieter bekommen“, sagt er. „Das war vielleicht ganz nett gemeint.“ Doch die höchstpersönlichen und herzlichsten Wünsche des Unternehmens ärgerten Zöllner. „Man weiß einfach sofort, dass man nur als Marketingobjekt angesprochen wird.“

Als die automatisierte Post lediglich auf Marketing und Kundenpflege beschränkt war, konnte der Empfänger den Trick immerhin noch leicht durchschauen. Wenn nun aber die automatische Kontaktpflege auf Freunde und Familie übergreift, bekommt die Methode eine andere Dimension. Sie unterhöhlt das eigentliche Signal des Blumenstraußes: „Ich denke an dich.“ Schließlich ist das eigenständige Erinnern von wichtigen Terminen gerade deshalb von Bedeutung, weil wir uns Mühe geben müssen, besondere Menschen in unserem Leben nicht zu vergessen. Zöllner beurteilt die Automatisierung der Kommunikation daher als „große Gleichmacherei“ des Menschen. Er sieht darin ein weiteres Kapitel im großen Narrativ des Internets, den perfekten Menschen zu erschaffen.

Virtuelle Beziehungen entstehen, die aber alle als real empfinden. Im Extremfall könnte sich das persönliche soziale Netz so weit von der Wirklichkeit entfernen, dass Nutzer nicht einmal mehr mitbekommen, ob der Mensch am anderen Ende der Leitung überhaupt noch lebt. Das soziale Netz Eter9 etwa kreiert einen virtuellen Avatar des Nutzers, der dessen Persönlichkeit zu Lebzeiten aus Interaktionen kennenlernt. In Abwesenheit und auch im Falle des Todes postet der virtuelle Assistent dann fleißig weiter. „Das ist geradezu eine Negation des Todes, eine Verkörperung des Übersinnlichen“, sagt Zöllner dazu. Er vermutet, dass solche KIs es Menschen letztlich schwerer machen werden, Abschied von Verstorbenen zu nehmen.

Die Pflege der Sozialkontakte durch eine künstliche Intelligenz verwischt also nicht nur die Grenze zwischen guten Freunden und entfernten Bekannten. Sie macht womöglich nicht einmal einen Unterschied zwischen Lebenden und Toten. CHRISTIAN HONEY

Darf ich Informationen über andere auf sozialen Medien teilen?

Die Wahrscheinlichkeit, dass sich der Leser dieser Zeilen in den vergangenen Wochen oder Monaten strafbar gemacht hat, ist groß. Oder wann haben Sie zuletzt ein Foto von Freunden oder der Familie in sozialen Medien veröffentlicht und vorher ausdrücklich um Erlaubnis gefragt? In Paragraf 22 des Kunsturhebergesetzes heißt es: „Bildnisse dürfen nur mit Einwilligung des Abgebildeten verbreitet oder öffentlich zur Schau gestellt werden.“ Eine „unbefugte Veröffentlichung“ stellt eine Verletzung des „höchstpersönlichen Lebensbereichs“ dar, und das kann nach dem Strafgesetzbuch geahndet werden. In der Praxis scheint das allerdings kaum jemanden zu stören: Das Persönlichkeitsrecht gehört sehr wahrscheinlich zu den mit einigem Abstand am häufigsten ignorierten Regeln in den sozialen Medien.

Foto: Fotolia detailblick-foto

Meistens geht das gut, aber eben nicht immer, weiß Andreas Diekmann, Soziologe an der Eidgenössischen Technischen Hochschule Zürich: „Es kommt eben auch darauf an, was man veröffentlicht, wer die Daten sehen kann und wie peinlich diese Informationen sind beziehungsweise von anderen gewertet werden können.“ Wenn der potenzielle Arbeitgeber vor dem Bewerbungsgespräch die unbedarft geteilte und verbal ungezügelte Abrechnung des Freundes mit der alten Firma auf Facebook liest, wirft das bestimmt kein gutes Licht auf den Kandidaten. Und auch unvorteilhafte Partyfotos sind keine gute Werbung. Sie können künftig sogar über die Vergabe von Krediten entscheiden: Dass Kreditscoring-Firmen wie die Schufa früher oder später auch die Profile von Facebook und Co auswerten, gilt als sicher. „Eigentlich sollte das Einschätzungsvermögen darüber, was kritisch ist und was nicht, Teil der eigenen Medienkompetenz sein“, sagt Diekmann. „Trotzdem gibt es aber leider immer wieder solche Vorfälle.“

Noch bedenklicher findet der Soziologe, dass ein Großteil der WhatsApp-Nutzer Daten über Dritte weitergibt, ohne es zu wissen. Seit Ende vorigen Jahres reicht der Messenger-Dienst alle auf der Plattform gespeicherten Kontakte an die Server der Mutterfirma Facebook weiter. „Das Gemeine daran ist, dass der Konzern die illegale Praktik auf die Nutzer abwälzt“, sagt Diekmann. Wer WhatsApp nutzen wolle, müsse die Übermittlung zulassen und sei damit verantwortlich. Wer kein Risiko eingehen wolle, müsse sich entweder abmelden oder aber alle Kontakte um Erlaubnis bitten. „Auf eine Regulierung seitens der Politik kann man vermutlich lange warten“, sagt Diekmann. Beim nächsten Post, der Daten von Freunden oder der Familie enthalte, sollte man sich also am besten fragen: Würde ich selbst einer Veröffentlichung zustimmen? Und bei dem geringsten Zweifel lieber bei den Betroffenen nachfragen – oder es einfach sein lassen. DENIS DILBA

Darf ich mein Gehirn künstlich verbessern?

Eine Breitbandschnittstelle zum Gehirn, über die man sich direkt mit einer künstlichen Intelligenz vernetzen kann: So lautet die jüngste Vision des Tesla-Gründers Elon Musk. Dafür hat er jetzt die Firma Neuralink gegründet. Sie soll die Elektroden entwickeln, die den direkten Draht zwischen Gehirn und Maschine herstellen. Zumindest die Technologie für die Funkverbindung existiert bereits. Forscher der Northeastern University in Boston stellten kürzlich im Journal „Nature Communications“ eine neuartige Miniaturantenne vor, über die Informationen mit dem Gehirn ausgetauscht werden könnten. Ihr Entwickler, Nian Sun, arbeitet mit Neurochirurgen zusammen, um damit das Gehirn von Patienten direkt zu stimulieren und auszulesen.

Bereits heute setzen Mediziner Elektroden in Gehirnen ein, etwa zur Therapie von Parkinson. Foto: Zephyr/Science Photo Library

Neu ist der Wunsch nicht, die eigenen mentalen Fähigkeiten zu steigern. Tatsächlich ist das „Neuroenhancement“ mit Medikamenten beliebt. Laut dem DAK- Gesundheitsreport von 2015 haben 6,7 Prozent aller Berufstätigen in Deutschland schon einmal ein Medikament genommen, um auf der Arbeit mehr zu leisten. Bei Studenten liegt die Quote vermutlich noch höher: In einer Umfrage der Wilhelmshavener Jade Hochschule vom April 2017 gaben 23 Prozent der Studenten an, im Klausurstress Neuroenhancer zu nehmen, um effektiver zu lernen.

Leider haben pharmakologische Neuroenhancer Nebenwirkungen. Zum Beispiel verheißt der Beipackzettel von Ritalin, ein Standardmittel bei ADHS, neben mehr Wachheit und größerer Konzentration auch Schlaflosigkeit und Kopfschmerzen. Modafinil, bei Menschen mit Narkolepsie eingesetzt, kann Herzrhythmusstörungen, Angstzustände und heftige Hautreaktionen auslösen. Und der Wachmacher Amphetamin macht schnell süchtig. Ist die Schnittstelle zu unserer Hirnrinde also der perfekte Plan, um die Menschheit in ein klügeres Zeitalter zu katapultieren?

„Ich glaube nicht, dass ein perfekter Neuroenhancer jemals möglich sein wird“, sagt Sabine Müller, Leiterin der Arbeitsgruppe Neurophilosophie, Neuroethik und Medizinethik an der Berliner Charité. „Das Gehirn ist so stark vernetzt und komplex, dass man nicht selektiv in eine seiner Funktionen eingreifen kann, ohne andere mit zu beeinflussen.“ Bei den chemischen Präparaten jedenfalls hat diesen Heiligen Gral der Psychiatrie bislang noch niemand gefunden. Für Müller gilt daher auch: Alle Neuroenhancer, ob mit Hirnschnittstelle oder ohne, sollten staatlich reguliert sein, so wie die heute verfügbaren leistungssteigernden Medikamente auch.

Marcello Ienca, Doktorand am Institut für Bio- und Medizinethik der Universität Basel, widerspricht Müllers Skepsis. Es gibt „keinen prinzipiellen Grund, warum Neuroenhancer immer starke Nebenwirkungen haben sollten“. Wenn man sich die Entwicklung der Medizin anschaue, sei es plausibel anzunehmen, dass ein solcher Neuroenhancer einmal verfügbar sein werde.

Hoffnung machen den Befürwortern neue Technologien wie die transkranielle Magnetstimulation (TMS). Mittels TMS lässt sich die Hirnrinde durch die Schädeldecke hindurch mit starken magnetischen Feldern stimulieren. Tatsächlich sei TMS „sehr vielversprechend“ für das Neuroenhancement, schließt etwa eine Übersichtsstudie im Journal „NeuroImage“ aus dem Jahr 2014. Nebenwirkungen konnten bisher nicht beobachtet werden. Allerdings geben die Studienautoren zu bedenken, dass „jede Intervention im Gehirn zu langfristigen und breiten Veränderungen in der Physiologie führen könnte“. Nur lang angelegte, über viele Jahre durchgeführte Untersuchungen könnten diese Frage letztlich klären.

Aber einmal angenommen, der perfekte Neuroenhancer würde Realität: Wäre es dann fair, damit seine geistige Leistung zu steigern? Zumindest im Gaming-Sport scheint die Frage schon heute entschieden: Bei der E-Sport-Liga ESL zum Beispiel sind Neuroenhancer jeglicher Art verboten. Seit 2015 werden sogar Dopingtests durchgeführt. Der Alltag aber ist kein Wettkampf. Für Ienca lautet daher auch die Antwort anders. „Jeder Mensch sollte frei entscheiden, ob und wie er sein Gehirn verbessert.“ Wichtig sei dabei, dass sich die Menschen sowohl der Wirkungen als auch der Risiken bewusst seien.

Wie frei aber wäre eine solche Entscheidung, wenn alle um mich herum dank Neuroenhancer leistungsfähiger werden? Womöglich blieben Menschen, die sich dagegen entscheiden, hinter den anderen zurück. In dieser Frage aber sind sich Müller und Ienca einig. Und ihre Antwort überrascht: Ein perfekter Neuroenhancer könnte die Gesellschaft sogar gerechter machen. „Menschen mit kognitiven Einbußen oder mit Schlafmangel profitieren mehr von Neuroenhancern als Gesunde“, sagt Müller. „So ein perfekter Neuroenhancer könnte soziale Unterschiede nivellieren.“ Warum sollte es gerechter sein, wenn das Schicksal eines Menschen von den angeborenen geistigen Kapazitäten bestimmt wird? Christian Honey

Darf ich ein Auto ohne Assistenzsysteme fahren, wenn es das Leben anderer gefährdet?

Fahrhilfen in Autos haben einen Entwicklungsstand erreicht, an dem sie Leben retten, ohne bemerkenswert die Bequemlichkeit zu stören. Ist es da noch moralisch vertretbar, ein altes Auto ohne eine solche Assistenz zu fahren? Es gibt immerhin einige ökonomische und ökologische Gründe, das Alte zu behalten. Nicht jeder will sich zudem durch solch ein Assistenzsystem indirekt überwachen lassen. Die Ethik-Kommission zum automatisierten Fahren gibt in ihrem Bericht aus diesem Sommer eine eindeutige Antwort. Die „Verminderung der Sicherheitsrisiken“ sei gegen die Einschränkung der persönlichen Freiheit abzuwägen, argumentierte das vom Bundesverkehrsministerium einberufene Gremium. Aber: „Es besteht keine ethische Regel, die Sicherheit immer vor Freiheit setzt.“

Foto: Shutterstock

Die Kommission wägt also sowohl die Freiheit des Bürgers als auch die Sicherheit als Rechtsgüter gegeneinander ab, ohne eines davon grundsätzlich zu bevorzugen. Da sonst in Diskussionen hierzulande fast immer der Sicherheit der Vorzug gegeben wird, betont der Bericht gleich an mehreren Stellen den Wert der Freiheit als schützenswertes Rechtsgut.

In der Praxis hängt die Bewertung jedoch stark von der jeweiligen gesellschaftlichen Stimmung ab. Michael Decker, Professor für Technikfolgenabschätzung am Karlsruher Institut für Technologie, sieht Parallelen zur Vergangenheit: Der Anschnallgurt im Auto war in der öffentlichen Wahrnehmung – auch aufgrund von Messergebnissen – irgendwann so eindeutig positiv besetzt, dass der Gesetzgeber eine allgemeine Pflicht beschloss. Dementsprechend hält Eric Hilgendorf, Professor für Strafrecht, Strafprozessrecht, Rechtstheorie, Informationsrecht und Rechtsinformatik an der Universität Würzburg, eine gesetzliche Pflicht zum Einsatz von Assistenzsystemen künftig für durchaus möglich. „Wenn die Systeme infolge der technischen Entwicklung immer sicherer werden, werden veraltete und deshalb unsichere Systeme irgendwann kritisch. Das ist etwa so, als ob man heute mit völlig veralteten Bremsen fahren würde. Ein derartiges Verhalten würde nicht bloß als unmoralisch eingestuft, weil es andere Verkehrsteilnehmer unverhältnismäßig gefährdet, sondern auch als fahrlässig – mit den entsprechenden rechtlichen Folgen“, sagt Hilgendorf.

Bis zu solch einer gesetzlich eindeutigen Klärung aber bleiben wir in der moralischen Frage unser eigener Richter. Denn die Kehrseite der Freiheit ist schließlich die Verantwortung jedes Einzelnen für die Folgen seines Tuns. CLEMENS GLEICH

Darf ich Genlachs essen?

Fast 25 Jahre hat es gedauert, bis AquaBounty Technologies seine ersten Fische verkaufen konnte. Das Unternehmen hatte Atlantischem Lachs zwei neue Gensequenzen aus anderen Fischarten eingepflanzt. Nun ist er schon nach 18 statt sonst 30 Monaten ausgewachsen (siehe TR 1/2016, S. 66). Auseinandersetzungen mit Tierrechtlern, Verbraucherschützern und Gesundheitsbehörden waren programmiert, entsprechend weit war der Weg auf den Markt. Im August nun meldete das Unternehmen aus Massachusetts den Absatz der ersten fünf Tonnen Fisch in Kanada. Dort stuften die Behörden den „AquAdvantage Salmon“ 2016 nach vier Jahren Prüfung als gesundheitlich und geschmacklich unbedenklich ein, eine GV (gentechnisch verändert)-Kennzeichnung wird nicht verlangt. Auch in den USA könnte es bald so weit sein. 20 Jahre lang prüfte die Gesundheitsbehörde FDA den „AquAdvantage Salmon“, 2015 ließ sie ihn zu. Nun muss AquaBounty noch eine letzte gesetzliche Hürde nehmen und darlegen, wie es die Kunden über den GV-Aspekt informieren will. Dann darf der Lachs in Geschäften angeboten werden.

Foto: Paul Darrow/Polaris/Laif

Der Fall illustriert das Spannungsfeld, das der Einsatz von Gentechnik in der Tierzucht erzeugt. Denn der Lachs dürfte nicht das einzige Nutztier bleiben, dem Forscher künftig genetische Verbesserungen einbauen werden. Mittlerweile haben Forscher Werkzeuge, die AquaBounty noch nicht zur Verfügung standen. Insbesondere moderne Gen-Editiermethoden wie CRISPR erlauben viel genauere DNA-Modifizierungen als bisher. Weltweit versuchen Wissenschaftler und Unternehmen zum Beispiel, Schweine vor fatalen Erregern zu schützen und allergenfreie Hühnereier zu erzeugen.

Unternehmen wie Forscher führen Vorteile für die Gesundheit, die Umwelt und die Wirtschaft ins Feld. AquaBounty zufolge soll der Genlachs ein besserer Futterverwerter sein, wodurch sich ein Viertel der sonst üblichen Futtermenge und Emissionen bei deren Erzeugung einsparen ließen. Bei Zuchtanlagen im Inland wären auch die Transportwege zum Kunden kürzer. Verbraucher und Tierschützer hingegen sehen oft das Gegenteil: Sie betrachten das Wohl der Tiere als gefährdet, befürchten Gesundheitsschäden für Mensch und Tier sowie eine unbeabsichtigte Weitergabe der genetischen Veränderungen an die wilden Arten. Letzteres konnte AquaBounty bei seinem Lachs immerhin ausschließen: Dem Unternehmen gelang der Beweis, dass nur unfruchtbare weibliche Tiere heranwachsen. Außerdem stehen die Zuchtbecken abseits von allen natürlichen Gewässern. Dennoch bleibt eine wesentliche Frage bestehen, beflügelt von einem generellen Unbehagen gegenüber einer gezielten Veränderung der Natur: Rechtfertigt hier der Nutzen wirklich die Mittel? Darf man Lebensmittel auf der Basis gentechnisch veränderter Tiere essen, wenn sie angeboten werden?

Für Peter Dabrock, den Vorsitzenden des Deutschen Ethikrats, ist dies allerdings nicht die erste Frage, die zu klären wäre. Er hält die derzeitigen Tierschutzgesetze und Mindeststandards bei den Tierrechten grundsätzlich für unzureichend. „Bevor wir einzelne Technologien verteufeln oder hochloben, müssen wir uns die unangenehme Frage stellen, wie ausbeuterisch wir mit Nutztieren umgehen“, mahnt der Theologe. Man könne durchaus unter Tierschutz-Gesichtspunkten über Veränderungen mit medizinischen Vorteilen nachdenken. Allerdings träten Krankheiten wie die Schweinepest oft erst aufgrund der Haltungsbedingungen auf. Wer den Genlachs wolle, müsse glaubhaft darlegen, dass die Tiere nicht unter dem zusätzlichen Wachstum leiden.

Wenn eine Mastpute vor lauter Brustfleisch nicht mehr laufen kann, ist das unabhängig von der Methode Tierquälerei. Lassen sich Krankheiten bei guten Lebensbedingungen nur mit gentechnischen Methoden abwehren, ohne den Tieren zu schaden, macht der Einsatz offensichtlich Sinn. An die Kritiker appelliert Dabrock im Gegenzug, befürchtete Gefahren auch rational zu belegen.

Trotzdem ist die Kennzeichnung als gentechnisch verändertes Lebensmittel unabdingbar – auch wenn das Produkt gesundheitlich unbedenklich ist. Verbraucher müssen frei entscheiden dürfen, ob sie es kaufen und verzehren wollen. VERONIKA SZENTPÉTERY-KESSLER