Wie das Metaversum zum Safe Space werden könnte

Immer mehr Techfirmen drängt es in virtuelle Welten. Ein Konsortium soll nun eine Ethik formulieren.

Lesezeit: 11 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 46 Beiträge

(Bild: jamesteohart/Shutterstock.com)

Von
  • Tanya Basu
Inhaltsverzeichnis

Hassrede, Cybermobbing, Kriminalität: Trotz der vielen Vorteile, die das Internet hat, ist es auch ein Hort der Gefahr für viele Nutzer. Doch wird das Metaversum, das Konzerne wie Facebook (jetzt Meta) oder Microsoft planen, besser werden? Oder vielleicht sogar schlimmer?

Virtuelle Belästigungen dort gibt es bereits. Entsprechend wichtig wäre es, die richtigen Grundlagen zu legen. Tiffany Xingyu Wang glaubt, dass sie eine Lösung dafür hat. Im August 2020 – ein Jahr vor der Ankündigung von Facebook, sich in Meta umzubenennen und den Schwerpunkt von der Social-Media-Plattform hin ins Metaversum zu verlagern – gründete sie das gemeinnützige Oasis Consortium, eine Gruppe von Spielefirmen und Netzunternehmen, die sich ein ethisch sauberes Internet erhoffen, "in dem künftige Generationen darauf vertrauen können, dass sie frei von Hass und Toxizität interagieren, mitgestalten und existieren können".

Wang ist der Meinung, dass Oasis ein sichereres und besseres Metaversum schaffen kann, indem es Technologieunternehmen bei der Selbstregulierung hilft. Anfang Januar veröffentlichte die Gruppe ihre Standards für Benutzersicherheit – eine Reihe von Richtlinien, die unter anderem die Einstellung eines Vertrauens- und Sicherheitsbeauftragten, das Moderieren von Inhalten und die Einbeziehung neuester Forschungsergebnisse im Bereich Internetgewalt beinhalten. Unternehmen, die dem Konsortium beitreten, verpflichten sich, auf diese Ziele hinzuarbeiten. "Ich möchte dem Web und dem Metaversum neue Möglichkeiten geben", sagt Wang, die in den letzten 15 Jahren in den Bereichen KI und Content-Moderation gearbeitet hat. "Wenn das Metaversum überleben soll, muss es diese Sicherheit bieten."

Lesen Sie auch

Aber können wir wirklich darauf vertrauen, dass die Unternehmen des Silicon Valley in der Lage sein werden, sich im Metaversum selbst zu regulieren? Nur so, glauben Beobachter, kann sich die Technik wirklich als sinnvoll für die Menschheit erweisen. Zu den Unternehmen, die sich bisher bei Oasis angemeldet haben, gehören unter anderem die Spieleplattform Roblox, das Dating-Unternehmen Grindr und der Videospielkonzern Riot Games. Zusammen haben sie Hunderte Millionen von Nutzern, von denen viele bereits aktiv in virtuellen Räumen unterwegs sind.

Bemerkenswert ist aber, dass Wang bislang nicht mit Meta, dem wohl größten Akteur im zukünftigen Metaversum, gesprochen hat. Ihre Strategie ist es, auf Big Tech zuzugehen, "sobald sie die Veränderungen sehen können, die wir an der Speerspitze dieser Bewegung vornehmen". (Meta verwies auf Nachfrage auf zwei Dokumente: eine Pressemitteilung, in der Partnerschaften mit Gruppen und Einzelpersonen für den "verantwortungsvollen Aufbau des Metaversum" beschrieben werden – sowie ein Blogbeitrag über die Sicherheit virtueller Räume. Beide wurden von Meta-Technikchef Andrew Bosworth verfasst.)

Wang sagt, dass sie hofft, auf verschiedene Weise für mehr Transparenz zu sorgen. Zum einen durch die Schaffung eines Bewertungssystems, damit die Öffentlichkeit weiß, wie es um die Vertrauenswürdigkeit und die Sicherheit eines Unternehmens bestellt ist. Das ähnelt Systemen, mit denen Restaurants bei der Einhaltung von Sauberkeitsstandards durch Kommunen bewertet werden. Eine weitere Möglichkeit besteht darin, von den Mitgliedsunternehmen zu verlangen, einen Vertrauens- und Sicherheitsbeauftragten zu beschäftigen. Diese Position ist in größeren Unternehmen immer häufiger anzutreffen, aber es gibt keine gemeinsamen Standards, an die sich jede dieser Beschäftigten halten muss, sagt Wang.

Mehr von MIT Technology Review Mehr von MIT Technology Review

Ein Großteil der Pläne von Oasis bleibt jedoch bestenfalls idealistisch. Ein Beispiel ist der Vorschlag, maschinelles Lernen einzusetzen, um Belästigungen und Hassrede zu erkennen. Doch diese Systeme funktionieren nicht wirklich – sie geben Online-Beleidigungen entweder zu viel Raum zur Verbreitung oder sie zensieren zu viel. Dennoch verteidigt Wang KI als moderierendes Werkzeug. "KI ist so gut, wie die Daten sind", sagt sie. "Die Plattformen haben unterschiedliche Moderationsmethoden, aber alle arbeiten an einer besseren Genauigkeit, schnelleren Reaktionen und der Vermeidung von Sicherheitslücken."

Das zentrale Papier von Oasis ist sieben Seiten lang und umreißt die künftigen Ziele des Konsortiums. Vieles davon liest sich noch wie ein Leitbild – und Wang räumt ein, dass sich die Arbeit der ersten Monate auf die Einrichtung von Beratungsgruppen konzentrierte, die bei der Erarbeitung der Ziele helfen sollten. Andere Vorstellungen der Gruppe wie z. B. die Strategie zur Moderation von Inhalten sind vage. Wang nach sollten Unternehmen ausreichend Mitarbeiter einstellen, damit Angehörige von Minderheiten nicht belästigt werden, etwa farbige Menschen, die sich nicht als männlich identifizieren. Der Plan enthält jedoch keine weiteren Schritte zur Erreichung dieses Ziels.

Das Konsortium erwartet von den Mitgliedsunternehmen auch, dass sie Daten darüber weitergeben, welche Nutzer besonders häufig zu Opfern werden, was für die Ermittlung von Wiederholungstätern wichtig ist. Die teilnehmenden Technologieunternehmen sollen mit NGOs, Regierungsbehörden und Strafverfolgungsbehörden zusammenarbeiten, um bei der Entwicklung neuer Sicherheitsrichtlinien zu helfen, sagt Wang. Sie plant außerdem, dass Oasis ein Kontaktteam für Strafverfolgungsbehörden einrichtet, dessen Aufgabe es sein wird, die Polizei über Belästigungen und Missbrauch zu informieren. Es bleibt jedoch unklar, wie sich die Arbeit dieser Taskforce mit den Strafverfolgungsbehörden vom aktuellen Status quo unterscheiden wird.

Lesen Sie auch