iX 7/2018
S. 3
Editorial
Juli 2018
David Fuhr

Doch böse? Das Ringen der IT um die Moral

Die kritische Mehrheit innerhalb der IT-Gemeinde hatte Googles Wahlspruch „Don’t be evil“ (sei nicht böse) sowieso nie getraut. Das „inoffizielle“ Motto des späteren Internetriesen hatte immerhin seit etwa 2000 dessen Verhaltenskodex eingeleitet und vermutlich eine größere Berühmtheit erlangt als das eigentliche, aus heutiger Sicht kaum noch überraschende Mission Statement „Organize the world’s information and make it universally accessible and useful“.

Solange Computersysteme nur Einsen und Nullen bewegten und Algorithmen reine Beschleunigungen manueller Prozesse darstellten, waren die meisten ethischen Diskussionen eher theoretischer Natur. Klar gab es immer die Diskurse um Überwachung und Datenschutz sowie das übergreifende Thema des Turbokapitalismus, der sich mittels IT weiter beschleunigt. Aber immerhin brachten Rechner selten jemanden um und taten sowieso in der Regel nur das, was fiese Regierungen andernfalls einer Bank, einem Killerkommando oder einem Adolf Eichmann aufgetragen hätten.

Dass ausgerechnet Google nun in den letzten Wochen von einer heftigen internen Diskussion um einen zunächst kleinen, aber potenziell extrem lukrativen Auftrag des amerikanischen Verteidigungsministeriums erschüttert wurde, hat vor allem zwei Gründe. Zum einen hat sich die Mächtigkeit von Algorithmen, also die Grenze dessen, wozu Computer heute imstande sind, entscheidend erweitert. Zum Zweiten hat künstliche Intelligenz inzwischen so viel dazugelernt, dass wir nicht mehr alles überblicken können, was sie tut. Eine bedrohliche Kombination.

Im aktuellen Fall des Drohnen-Projekts „Maven“ lenkte am Ende die Konzernführung zwar ein und will Googles KI-Dienste für das Pentagon nicht über 2019 hinaus bereitstellen. Bezeichnend ist dabei aber vor allem, dass Fei-Fei Li, Chief Scientist bei Google Cloud für künstliche Intelligenz, bereits im September 2017 in einer E-Mail dazu riet, beim Prahlen mit dem Auftrag unter keinen Umständen KI zu erwähnen. Sie lag goldrichtig mit ihrer Einschätzung, dass KI-Tools für die Bilderkennung in Drohnen bereits zu nah am PR-Gift „autonome Waffensysteme“ liegen. Aber die eigentliche, ethische Diskussion hat gerade erst begonnen.

Zwar hat die dem Konzern immer nachgesagte Offenheit für Kritik und Widerspruch von innen Mitarbeitern zufolge in letzter Zeit spürbar abgenommen. Aber dass in diesem Fall die moralische Frage nicht nur intern heiß diskutiert, sondern – aus Sicht der Konzernspitze unfreiwillig – öffentlich und von über 800 renommierten Akademikern begleitet wurde, ist wertvoll über den Einzelfall hinaus.

Es ist nicht die Aufgabe von Konzernen, die ethischen Fragen unserer Gesellschaften zu klären oder gar zu entscheiden. Gleichwohl wird immer mehr Entscheidendes in Kaninchenställen des Silicon Valley und ähnlichen Orten festgelegt.

„Don’t be evil“ ist immer noch in Googles Verhaltenskodex zu finden, ganz am Ende, quasi als Postskriptum. Als Postskriptum für jegliche neue technische Idee und Umsetzung ist es auch gut aufgehoben. Es ist, wie an derselben Stelle zwei Sätze zuvor steht, nicht möglich, jede moralische Frage im Vorhinein auszubuchstabieren. Vielmehr muss es darum gehen, dass möglichst viele von uns bemerken, wenn etwas schiefläuft. Wenn das Maven-PR-Desaster dazu dient, dass einige Mitarbeiter bei Google und hoffentlich viele weitere Mitglieder der weltweiten Tech-Szene begreifen, dass „Don’t be evil“ ein Prozess ist, den es konkret und initiativ zu füllen gilt, hätte sich die Diskussion gelohnt.

Unterschrift David Fuhr David Fuhr

Kommentare lesen (1 Beitrag)