Menü

Grüne suchen nach Ethik für smarte Maschinen und soziale Medien

Algorithmen werden mächtiger, der Hass im Netz zündender, die Datenflut größer. Forscher, Bürgerrechtler und Erklärbären suchten auf dem 3. netzpolitischen Kongress der Grünen nach Lösungen für Missstände der Digitalwelt.

von
vorlesen Drucken Kommentare lesen 52 Beiträge
Kongress der Grünen

(Bild: Krempl)

"Es ist hervorragend, dass wir endlich über Ethik sprechen", begrüßte Reinhard Karger vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) das Motto, unter das die Bundestagsfraktion der Grünen ihren 3. netzpolitischen Kongress am Freitag gestellt hatte. "Das hätte vor 20 Jahren schon stattfinden sollen." Algorithmen würden immer mächtiger, brachte der Computerlinguist ein Beispiel für dringenden Regulierungsbedarf. Der Gesetzgeber müsse etwa verhindern, dass lernende Maschinen in einen "Selbsterhaltungsmodus" verfielen.

Am Freitag fand der 3. netzpolitischen Kongress der Grünen statt.

(Bild: Stefan Krempl)

Neuronale Netze und Deep Learning sind für Karger an sich zunächst "tolle Technologien". Sie könnten etwa darauf trainiert werden, Kollisionen im Straßenverkehr zu vermeiden. Das war eine Steilvorlage für Eric Hilgendorf, Leiter der Forschungsstelle Robot-Recht an der Universität Würzburg. Wenn etwa ein autonomes Auto in eine Situation komme, in der "einer oder zwei Menschen getötet werden", sei es besser, wenn nur einen Unschuldigen dieses Los treffe. Dies müsse den Systemen eingeimpft werden können, auch wenn es rechtlich derzeit nicht erlaubt sei. Generell dürften Menschenleben nicht verrechnet werden.

Künstliche Intelligenz hält Hilgendorf zumindest rechtlich für beherrschbar. Es gebe bewährte Konzepte wie die Gefährdungshaftung, um auf die Hersteller zurückzugreifen. Bei einer gewissen Komplexitätsstufe von Computersystemen sollte diesen eine "gewisse Haftungssumme" zugeordnet werden etwa mit einer Versicherung. Auf diese könne man dann abstellen und eine Maschine selbst wie eine juristische Person verklagen, wenn es nicht mehr möglich sei, den Hersteller selbst zivil- oder strafrechtlich heranzuziehen. Es gebe auch keinen Automatismus, dass Roboter "uns die Kontrolle aus der Hand nehmen: es sind unsere".

Schwieriger gestalte sich die Sache beim "Papiertiger" Datenschutz, meinte der Jurist. Es gebe kaum ein Gebiet mit mehr Vollzugsdefiziten. Zudem fielen nicht-personenbezogene Informationen, die sich etwa auf den Abrieb von Motoren oder Abnutzungserscheinungen an Maschinen bezögen, derzeit "ins Leere", seien "gemeinfrei". Wenn es gut laufe, zögen Hersteller oder Werkstätten diese Big-Data-Bestände ab, sonst wanderten sie ins Silicon Valley. Eigentümern eines Wagens etwa sollte es erlaubt werden, mit den Daten zu handeln. Rechtlich sei dies aber nicht vorgesehen, erklärte der Innenexperte der Grünen im EU-Parlament, Jan Philipp Albrecht. Persönliche Informationen dürften allenfalls aus rein freien Stücken zum Verkauf angeboten werden, wenn eine Wahl zwischen gleichwertigen Alternativen bestehe.

Jillian York von der US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF): "Algorithmen seien 'verstehbar' zu halten."

(Bild: Stefan Krempl)

Algorithmen seien "kein neuer Gott, aber wir wissen noch nicht, wohin sie führen", beschied Christoph Meinel vom Potsdamer Hasso-Plattner-Institut. Tesla oder Google dächten mit ihren Projekten für selbstfahrende Autos nicht darüber nach, dass die Lkw- oder Taxi-Fahrer betroffen sind, konstatierte Jillian York von der US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF). Sie forderte: "Wir müssen erkennen können, wer die Programme baut und anhand welcher Kriterien sie funktionieren." Algorithmen seien "verstehbar" zu halten, sonst sei die Gefahr der Diskriminierung groß. Die meist weißen und männlichen Entwickler im Silicon Valley betrachteten sonst nur Ihresgleichen als Endnutzer und bauten ihre Vorurteile in die Systeme mit ein.

Eine gesetzliche Vorgabe, dass Maschinen nicht allein entscheiden können sollten, sei eventuell nötig, befand der europäische Regulierungsexperte von Google, Nicklas Lundblad. Vorurteile in lernenden Systemen seien eine große Herausforderung. Audits seien wichtig, um nachvollziehen zu können, was ein System macht. Zugleich stellte er klar: Künstliche Intelligenz sei aus dem militärischen Bereich am besten herauszuhalten. Prinzipiell unterlägen Online-Plattformen aber schon sehr vielen gesetzlichen Bestimmungen. Google biete Nutzern schon jetzt an, ihre Daten zu anderen Diensten von Dritten mitzunehmen. Er könne sich auch vorstellen, dass dies künftig auf ein "Trainingsset" etwa für digitale Assistenten ausgeweitet werde.

Bürger müssten proaktiv über Datenbestände aufgeklärt werden und ein Verbot algorithmischer Diskriminierung kommen, wollte sich Frank Rieger vom Chaos Computer Club (CCC) davon nicht abspeisen lassen. Online-Firmen sollten zudem verpflichtet werden, ihren gleichen Dienst, der momentan durch Daten finanziert wird, gebührenbasiert anzubieten. Die Preise dafür dürften nicht diskriminierend hoch sein; es gehe vor allem darum, den Datenmarkt generell in eine andere Richtung zu lenken.

Sascha Lobo beleuchtet die Frage, wie Netzbürger ihre Datensouveränität wahren können.

Der Plattform-Kapitalismus und die Zukunft der Arbeit gehören auch für Sascha Lobo zu den großen offenen Ethik- und Regulierungsfragen der vernetzten Gesellschaft. Wie im Zeitalter von Facebook oder Google Nutzer noch ihre Datensouveränität wahren könnten, ohne das Geschäftsmodell der Portale "zu verunmöglichen", habe sich noch nicht herauskristallisiert.

Eine klarere Meinung vertrat der Erklär-Irokese in Punkto Netzneutralität, die als weitere ethische Basis des Internets unbedingt erhalten werden müsse. Sonst "könnte Google niemals vom Thron gestoßen werden", wenn alternative Angebote, die "kein Schutzgeld bezahlen", nicht ganz so schnell oder gar nicht verbreitet würden. Nötig sei zudem ein "Vernetzungspfennig" in Höhe von insgesamt rund einer Milliarde Euro, um endlich Glasfaser in die Straßen und Häuser zu bringen und die "mittelgroße Katastrophe" der Netzinfrastruktur hierzulande zu stoppen.

Nachbesserungsbedarf machte Lobo ferner im Bereich "Hass und Social" aus. "Auch die linksliberale Öffentlichkeit betrachtet sich als immun gegen die Wirkmechanismen des Internets", kritisierte der Blogger und beschrieb diese mit "schneller Vorverurteilung, Verbreitung ungeprüfter Informationen und Anfälligkeit für Verschwörungstheorien". Demgegenüber gelte es herauszufinden, "wie der User 2.0 herangezogen werden kann". Es müsse geklärt werden, ob "in einer Facebook-Gruppe der Funke entsteht, der dazu führt, dass Menschen islamistische Terroranschläge begehen oder Flüchtlingsheime anzünden".

"Wir dürfen den Hass im Netz nicht verharmlosen", verlangte die Aktivistin Kübra Gümüşay. "Er verändert uns schleichend." In der digitalen Suböffentlichkeit hätten sich Angst und Hetze organisiert radikalisiert, bis sie normal erschienen. In der Echo-Kammer des Internet "schreien wir uns unsere Meinungen vom Leib" und hörten nur diejenigen, die den eigenen entsprächen. Algorithmen täten ihr Übriges, "indem sie uns das zeigen, was wir lesen wollen". So entstehe die stark verzerrte Wahrnehmung der Realität, "dass wir voneinander abgekoppelt sind". Unerlässlich sei demgegenüber "Mut zum wohlwollenden Streit". (Stefan Krempl) / (pen)

Anzeige
Zur Startseite
Anzeige