Menü

re:publica: Gegen das Netz als Black Box

Intransparente Hardware gefährdet die Internetsicherheit, eine unkritische Akzeptanz von Algorithmen zersetzt die Öffentlichkeit. Auf der Internetkonferenz sprechen sich Referenten für neue Regeln und neues Leben für alte Werte aus.

Lesezeit: 3 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 6 Beiträge

Harvard-Professor Frank Pasquale plädiert für mehr Mut zur nationalen Regulierung .

(Bild: heise online/Torsten Kleinz)

Von

War die Internet-Konferenz re:publica in den vergangenen Jahren oft vom Widerstand gegen unbotmäßige Regulierungen des sozialen Raums Internet geprägt, drehten sich mehrere Beiträge zur Eröffnung darum, wie man das Auseinandergleiten des Internets vermeiden kann. Insbesondere Harvard-Juraprofessor Frank Pasquale sprach sich dafür aus, keine falsche Scheu vor nationaler Regulierung des Internets zu haben.

"Viele Entwicklungen der letzten fünf Jahre haben die utopischen Versprechen des Internets ins Gegenteil verkehrt", kritisierte Pasquale. Wegen der Zentralisierung der Macht im Internet und einer unkritischen Akzeptanz von Algorithmen habe sich der soziale Raum Internet in eine Art Black Box verwandelt, dessen Funktionsweise sich der Kontrolle und damit der Kritik entziehe.

Als Grundübel sieht Pasquale den derzeit in den USA vorherrschenden extremen Begriff von Meinungsfreiheit, der auch die dort angesiedelten Social-Media-Konzerne präge. Sogar der Einsatz von Social-Media-Bots, die zum Beispiel den Hashtag #blacklivesmatter mit rassistischen Inhalten fluteten, würde dort als legaler Wettkampf der Meinungen betrachtet. "Aber egal, wie sehr ich mich anstrenge – ich kann als Mensch niemals mit einem Bot konkurrieren, der pro Stunde 100 verschieden Beiträge online stellt", erklärte der Autor. Dieses Verständnis der Meinungsfreiheit gehe so weit, dass man sich um so stolzer zeige, je schlimmer die Auswüchse der Hassrede annehme.

Als eine Ursache für die zunehmende Verbreitung von Fake-News und zutiefst parteiischen Postings identifizierte Pasquale die Gleichgültigkeit der Algorithmen gegenüber den Inhalten. So erscheine der Artikel einer Fake-News-Site auf Facebook fast identisch zu einer Geschichte der New York Times. Diese Ignoranz werde von interessierten Kreisen ausgenutzt.

Zum Beispiel zeige Google in seinen Suchergebnissen auf solche Fragen wie "Sind Juden schlecht?" oder "War Hitler schlecht?" an prominenten Stellen Artikel von Nazis an, die die Geschichte umschreiben wollten. Wenn man eine soziale Gruppe wie "black woman" eingebe, lieferten die Vorschlags-Algorithmen der Suchmaschine eine Zusammenstellung rassistischer Klischees an. Solche Auswüchse führten bereits vereinzelt direkt zu Gewalttaten: So habe sich der Mörder Dylann Roof, der im Sommer 2015 in einer afroamerikanischen Kirche neun Menschen erschoss, darauf berufen, dass er online die Belege für einen herrschenden Rassenkrieg gegen Weiße gefunden habe. Noch seien solche Gewalttaten Einzelfälle – so befürchtet Pasquale, dass ein durch soziale Medien ausgelöster Genozid im Bereich des Möglichen ist.

Die Konzerne zeigten zu wenig Problembewusstsein. So habe Google im Jahr 2004 eine Neonazi-Seite noch mit einer Fußnote gekennzeichnet -- heute gebe es solche Vorbehalte kaum noch, obwohl Google inzwischen viel einflussreicher sei. Ein KI-Forscher habe die Unmöglichkeit, die Ergebnisse von künstlicher Intelligenz Menschen zu vermitteln mit der Bemühung verglichen, einem Hund das Werk von Shakespeare vermitteln zu wollen. An dieser Stelle müsste die Zivilgesellschaft eingreifen. "Zum einen sind diese Algorithmen nicht Shakespeare", kritisierte Pasquale. Zudem sei auch die Immobilienkrise mit den weltweit desaströsen Auswirkungen dadurch zu Stande gekommen, dass Menschen es nicht mehr als notwenig erachteten, die Funktionsweise des Immobilienmarktes in Frage zu stellen.

Die Auswüchse kämen auch zustande, weil es keine wirksame Regulierung für die Entwicklungen im Internet gebe. Allenfalls Konzerne wie Google und Facebook fungierten als Kontrollinstanzen – ohne sich aber für Ergebnisse oder Prozesse rechtfertigen zu müssen. Da dieser Weg sich aber als falsch erweisen habe, sei es Zeit für staatliche Interventionen.

So plädierte Pasquale dafür, dass die Internetkonzerne den Widerstand gegen sinnvolle Regulierungen in funktionierenden Gesellschaften aufgeben sollten. Die Befürchtung, dass nationale Regeln zwangsläufig das Internet zerstören würden, sei übertrieben. So sei auch das Recht auf Vergessen, das von Internetaktivisten immer wieder kritisiert wird, nicht grundsätzlich verkehrt – wenn die Umsetzung auch besser sein könne.

Ähnliche Überlegungen präsentierte der Chef der Mozilla Foundation Mark Surman. Hatte er bereits im vergangenen Jahr vor den Effekten der zunehmenden Zentralisierung des Internets gewarnt, sei es nun dringend, Gegenaktivitäten zu entfalten. "Wir können noch ein ethisches Netz bauen", erklärte der Open-Source-Manager in Berlin. Dafür müssten die Bürger aber nun aktiv werden.

Die Kombination des Internet Of Things mit virtuellen Realitäten und dem Maschinenlernen berge explosives Potenzial. So sei ein rapider Anstieg der Arbeitslosigkeit zu erwarten, wenn Techniken wie selbstfahrende Autos die Tätigkeiten von Menschen übernähmen. Statt nur zu fragen "Was ist möglich", sei es nun geboten auch die Frage zu stellen: "Was ist verantwortliches Verhalten?"

Als Vorbild zeigte Surman die Open-Hardware-Bewegung, die an die Werte anknüpfe, die einst den Homebrew Computer Club ausgezeichnet hatten, aus dem Konzerne wie Apple hervorgegangen sind. So hatten Hobbytüftler Fingerabdruckscanner und Bewegungssensoren entwickelt, die ohne Cloud-Anbindung und unnötige Datenflüsse auskommen.

Um eine Infrastruktur zu schaffen, in die die Nutzer noch Einblick haben können und die nicht so anfällig für Botnetze ist, arbeitet die Mozilla Foundation mit anderen Organisationen an Prinzipien für die Entwicklung von IoT-Geräten. Mit einer neuen Initiative will die gemeinnützige Stiftung hinter dem Browser Firefox untersuchen, wie gesund das Internet sei. (axk)