Wikipedia soll freundlicher werden

Dem Online-Nachschlagewerk Wikipedia laufen die freiwilligen Helfer weg – unter anderem, weil sich neue Mitarbeiter häufig zu harsch behandelt fühlen. Ein neues System mit Künstlicher Intelligenz soll das ändern.

Lesezeit: 4 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen
Von
  • Tom Simonite

Dem Online-Nachschlagewerk Wikipedia laufen die freiwilligen Helfer weg – unter anderem, weil sich neue Mitarbeiter häufig zu harsch behandelt fühlen. Ein neues System mit Künstlicher Intelligenz soll das ändern.

Wikipedia führt eine neue Software ein, die darauf trainiert ist, versehentliche Fehler von absichtlichem Vandalismus zu unterscheiden. Dadurch soll das Editieren von Artikeln in dem Online-Nachschlagewerk psychologisch weniger unschön werden. Entwickelt wurde die Software von der Wikimedia Foundation, der nichtkommerziellen Stiftung, die Wikipedia betreibt.

Ein Grund für das Projekt ist der deutliche Rückgang bei der Zahl der Nutzer, die aktiv zur englischen Flaggschiff-Ausgabe von Wikipedia beitragen: In den vergangenen acht Jahren ist sie um 40 Prozent auf etwa 30.000 Personen gefallen. Untersuchungen zeigen, dass die Ursachen dafür in der komplexen Bürokratie von Wikipedia liegen – und den häufig harschen Reaktionen auf Fehler von Neulingen, deren Änderungen mit Hilfe von halbautomatischen Werkzeugen leicht gelöscht werden können.

Aaaron Halfaker ist leitender Forscher bei der Wikimedia Foundation und hat zur Diagnose dieses Problems beigetragen. Jetzt leitet er ein Projekt zu seiner Bekämpfung, basierend auf Algorithmen, die ein Gefühl für menschliche Fehlbarkeit haben. Sein System ORES, kurz für „Objektive Revision Evaluation Service“, lässt sich darauf trainieren, die Qualität von Änderungen in Wikipedia zu bewerten und zu entscheiden, ob sie mit guter Absicht vorgenommen wurde oder nicht.

Mit ORES möchte Halfaker die Werkzeuge verbessern, die Wikipedia-Redakteuren die neuesten Änderungen anzeigen und ihnen die Möglichkeit geben, sie mit einem Klick rückgängig zu machen. Die Werkzeuge wurden einst eingeführt, um ein echtes Bedürfnis nach besserer Qualitätskontrolle zu erfüllen, als Wikipedia populärer wurde. Eine Nebenwirkung davon aber war, dass die ersten Beiträge von neuen Mitwirkenden oft schnell und ohne Erklärung verschwanden, nur weil sie versehentlich eine der vielen Regeln von Wikipedia verletzten.

ORES soll die Editierwerkzeuge jetzt so ergänzen, dass Redakteure zuerst zu den kritischsten Änderungen geleitet werden. Außerdem hilft ihnen die Software dabei, angemessener mit unschuldigen Fehlern umzugehen, sagt Halfaker. "Ich glaube, das aggressive Verhalten von Wikipedianern in der Qualitätskontrolle kommt daher, dass sie sehr schnell entscheiden und dass sie nicht ermuntert werden, in eine menschliche Interaktion einzutreten", erklärt er. Mit ORES dagegen geben die Werkzeuge beispielsweise einen Hinweis dieser Art aus: "Wenn du das rückgängig machst, solltest du vielleicht vorsichtig sein und der Person, von der die Änderung stammt, eine Nachricht schicken".

Bislang funktioniert ORES für die Wikipedia-Ausgaben in Englisch, Portugiesisch, Türkisch und Farsi. Um die Qualität von Änderungen zu bewerten und um Schädliches von Versehentlichem zu unterscheiden, nutzt das System Daten von Wikipedia-Redakteuren, die mit einem Online-Werkzeug Beispiele früherer Änderungen gekennzeichnet hatten. Einige der Wikipedianer, die sich um die Pflege von Werkzeugen zum Editieren kümmern, haben schon begonnen, mit dem System zu experimentieren.

Frühere Versuche, Wikipedia für Neulinge freundlicher zu machen, scheiterten just an der Community, die davon profitieren sollte. Im Jahr 2013 gab es einen Aufstand, als Wikimedia als neuen Standard ein Editier-Interface ähnlich wie ein Textverarbeitungsprogramm einführte; letztlich wurde es zur freien Wahlmöglichkeit zurückgestuft. Der voreingestellte Editor verwendet bis heute eine komplizierte Markup-Sprache namens Wikitext.

Halfaker geht davon aus, dass sein neuer algorithmischer Helfer auf mehr Akzeptanz stoßen wird – unter anderem deshalb, weil er zwar fortschrittlicher ist als frühere Wikipedia-Software, den Nutzern aber nicht aufgezwungen wird. "Auf gewisse Weise ist es merkwürdig, Künstliche Intelligenz und Maschinenlernen auf ein so massiv soziales Projekt loszulassen. Aber letztlich machen wir nichts anderes, als wenn andere Software-Änderungen an der Website vorgenommen werden", sagt Halfaker. "Jede unserer Änderungen hat Auswirkungen auf das Verhalten."

(sma)