Die Anomalienjäger

9/11 als historischer Testfall für die digitale Öffentlichkeit

Die Attacken vom 11. September 2001 haben das noch junge Jahrhundert entscheidend geprägt. Von den Afghanistan- und Irak-Feldzügen bis zur von Snowden offengelegten digitalen Vollüberwachung mussten und müssen sie als Legitimationsgrundlage für weitreichende und kontroverse politische Entscheidungen herhalten. Eine kritische und exakte Analyse der Ereignisse ist somit mehr als angebracht. Für demokratische Gesellschaften scheint es da ein Glücksfall zu sein, dass sich mehr oder weniger zeitgleich das Internet etablierte. Denn es ermöglichte nicht nur die Bereitstellung detaillierter Informationen zu den Attacken. Auch ihre Auswertung und Interpretation konnte nun von zahlreichen Akteuren vorgenommen worden - nicht nur in den üblichen Expertenzyklen. Wie hat die neue Technologie die Debatte zum Großereignis 11. September geformt und was lässt sich aus über einem Jahrzehnt internet-basierten Diskurs lernen?

Beschäftigt man sich mit dem Thema 9/11 im Internet, stößt man sehr schnell auf eine Art analog-digitale Kluft: Während in den traditionellen Medien größtenteils Konsens über die Urheberschaft der Anschläge und gewisse Grundfakten zu den Ereignissen besteht (etwa, dass die gekaperten Flugzeuge für den Einsturz der Gebäude in New York verantwortlich waren und keine Sprengung), wird diese "offizielle Version" in unzähligen Online-Kanälen fundamental infrage gestellt.

Online organisierter Zweifel

Erste Zweifel zum Tathergang wurden bereits unmittelbar nach den Anschlägen geäußert (u.a. in einer Telepolis-Serie von Mathias Bröckers) und verdichteten sich schließlich zur sogenannten "9/11-Wahrheitsbewegung" (Englisch: "9/11 Truth Movement"). Diese arbeitet vor allem online und wie andere Internetbewegungen ist sie hinsichtlich ihrer Weltanschauung und Zielsetzung nicht eindeutig zu verorten.

Eine übergeordnete Gemeinsamkeit ist jedoch der organisierte Zweifel, d.h. die mehr oder weniger systematische und detaillierte Dekonstruktion der "offiziellen Version" des 11. Septembers. Anhänger der Bewegung werden von den etablierten Medien größtenteils pauschal als "Verschwörungstheoretiker" diffamiert, pathologisiert und ausgegrenzt, was diese wohl nicht gerade von der Richtigkeit der "offiziellen Version" überzeugen dürfte, wie Andreas Anton (Verschwörungstheorien zum 11. September) richtig argumentierte.

Eine Pauschalablehnung alternativer Deutungen scheint auch schon aufgrund faktischer Verschwörungen in der Vergangenheit und tatsächlichen Fehlern in der Berichterstattung und Aufklärung zu 9/11 unangebracht. Zudem verkennt die Stigmatisierung als "Verschwörungstheorien", dass die 9/11-Zweifler eher selten tatsächlich Theorien generieren. Ein vielzitiertes Motto kommt stattdessen aufklärerisch daher: "Ask questions, demand answers" ("Stelle Fragen, fordere Antworten").

Selbstformulierte Antworten in Form von konkret und detailliert ausbuchstabierten Alternativversionen findet man dagegen selten. Das Zusammenfügen von den zahlreichen mehr oder weniger dekontextualisierten Informationen, Desinformationen, Fakten und Fiktionen bleibt somit dem Individuum überlassen, das sich online seine Wirklichkeit "ergoogelt", wie Michael Schetsche es ausdrückte.

Doch während das Internet prinzipiell viele Wirklichkeiten nebeneinander zulässt, gibt es auch hier wissenssoziologische Hierarchien und Institutionen, die die Sichtbarkeit von Informationen strukturieren. Wie entscheiden die neuen Online-Gatekeeper, was inkludiert und was exkludiert wird?

Der Streitfall 9/11 in Wikipedia

Paul Schreyer hatte zu dieser Frage kürzlich bei Telepolis einen "Selbstversuch" unternommen, in dem er sich darum bemühte, alternative Deutungen in den deutschsprachigen Wikipedia-Artikel zum 11. September einzubringen. Die harsche Ablehnung, mit der die Community auf seine relativ zurückhaltenden Editierversuche reagierte, überraschte Schreyer. Er kritisierte, Wikipedias "Gralshüter der Wahrheit" würden Quellen voreilig und ohne rechte Diskussion als "verschwörungstheoretisch" ablehnen.

Tatsächlich konnte man diese restriktive Vorgehensweise auch bereits vor Jahren beobachten. Einer von uns hatte den Diskussionsverlauf des Artikels Schritt für Schritt analysiert. Diese historische Perspektive gibt Aufschluss darüber, wie es zu der rigorosen Exklusionspolitik kam und zeigt gleichzeitig Kernprobleme der Wikipedia - und letztlich auch des digitalen Diskurses insgesamt - auf.

Es offenbarte sich schon zu Beginn der Diskussion, dass es an Fachwissen mangelte, um die verschiedenen Detailfragen hinreichend zu bewerten. Immerhin ging es etwa um die Einsturzursache der Gebäude, ein Vorgang also, der gewöhnlich Experten wie Bauingenieure, Statiker und Architekten beschäftigt. Auch wenn die Enzyklopädie mittlerweile zunehmend professionalisiert wird (die von Paul Schreyer zitierten PR-Aktivitäten sind da ein eher unrühmliches Beispiel), bleibt sie doch ein Freiwilligenprojekt.

Das galt natürlich umso mehr in den frühen 2000er Jahren, als der Artikel entstand. Als solches fehlte es an personellen und vor allem fachlichen Kapazitäten, um die fortlaufende Hinterfragung scheinbar offensichtlicher Grundannahmen diskursiv zu bearbeiten. Also reagierte man mit Defensivmechanismen, die durchaus typisch für derart gelagerte Fälle in der Wikipedia sind: Mit dem Verweis auf die Wikipedia-Richtlinie gegen "Theoriefindung" (Englisch: "No Original Research") wurde erläutert, dass nur bereits etablierte Quellen berücksichtigt werden sollen.

So mag der Artikel von Laien verfasst worden sein, repräsentiert wird jedoch "orthodoxes Wissen", wie Andreas Anton es nennt (Verschwörungstheorien zum 11. September), d.h. solches Wissen, das über gesellschaftliche und "fachlich beglaubigte" Anerkennung verfügt. Auf diese Weise wird bei Wikipedia die fehlende Expertise sozusagen externalisiert - ohne dass unbedingt inhaltliche Diskussionen zu Einzelaspekten geführt würden.

Gleichzeitig immunisierte man sich vor weiterem Protest und Widerspruch, indem man entsprechende Beiträge löschte, oder in Diskussionsarchive oder den quasi als "Entlastungsbecken" fungierenden Artikel zu 9/11-Verschwörungstheorien verschob. Ähnliches widerfuhr auch Paul Schreyer in seinem "Selbstversuch" (Verschwörungstheorie!). Doch wie ist dies zu bewerten? Handelt es sich hier um eine skandalöse Form der Zensur oder um eine legitime Form der Ausgrenzung irrelevanter Inhalte?

Im Partizipationsdilemma

Zunächst mag das restriktive Vorgehen der Community als Widerspruch zu Wikipedias Grundsatz der Förderung freien Wissens wahrgenommen werden. Doch der Kampf zwischen toleranten "Inklusionisten" und "Exklusionisten" begleitet das Projekt bereits seit Beginn. Er erklärt sich dadurch, dass Wikipedia neben seiner zweifellos wichtigen "Befreiungsideologie" auch eine "Produktideologie" verfolgt, wie der Soziologe Christian Stegbauer in seiner Forschung resümierte (Stegbauer, C., 2009, Wikipedia: Das Rätsel der Kooperation, Wiesbaden: VS Verlag für Sozialwissenschaften).

Gerade in den Anfangsjahren war man darum bemüht, Wikipedia als ernstzunehmende Enzyklopädie zu etablieren, eben weil dies dem Projekt ohne formale Partizipations- und Publikationsschranken anfangs kaum jemand zutraute. Aus dieser Perspektive erscheint der vehemente Ausschluss alternativer Wirklichkeitsdeutungen nur konsequent - unabhängig davon, wie man diesen nun bewertet. Wikipedias Exklusionspolitik stellt somit auch keinen Widerspruch zu ihrer strukturellen Offenheit dar, sondern vielmehr ihr Resultat.

Im Gegensatz zur handverlesenen bildungsbürgerlichen Autorenschaft traditioneller Enzyklopädien wirken bei Wikipedia prinzipiell alle, die sich dazu berufen fühlen - mit entsprechend grundsätzlich divergierenden Sichtweisen. Würde man diese demokratisch und gleichwertig nebeneinander abbilden, wäre der Artikel ein chaotisches Essay, aber sicher kein enzyklopädischer Artikel zum schnellen Nachschlagen.

Exklusion ist also unausweichlich und die Kriterien hierzu werden im Zweifelsfall zu Ungunsten abweichender Auslegungen und zu Gunsten konservativer Interpretationen angelegt. Eben darin liegt die Tragik dieses Partizipationsdilemmas, das letztlich auch nicht auf Wikipedia beschränkt ist, sondern dem die Netzöffentlichkeit insgesamt gegenüber steht: Die technisch-soziale Offenheit ist gleichzeitig Grundlage und Hemmnis für das aufklärerische Potenzial des Internets.

Um der Beliebigkeit zu entgehen, muss bei zunehmend vielseitigem Dissens umso stärker hierarchisiert und ausgegrenzt werden. Stimmt man dem zu, drängt sich die Frage auf, welche Kriterien hierzu verwendet werden sollten. Oder konstruktiver formuliert: Welche Bedingungen sind nötig, um das aufklärerische Potenzial des Internets zu realisieren? Bevor wir diese Frage beantworten, werfen wir einen Blick auf einen weiteren Fall, der interessante Parallelen zu Wikipedia aufweist.

Seite 1 von 4
Nächste Seite
x
Fehler melden
Telepolis zitieren
Vielen Dank!
Anzeige
Hellwach mit Telepolis
Anzeige
Cafe
Telepolis-Cafe

Hochwertiger Kaffee und Espresso aus Costa Rica: Die Telepolis-Edition für unsere Leser

Anzeige
Anzeige

Digitale Mauern um iOS, Windows oder Android

Der bunte Gerätepark drängt zunehmend zur Loyalität mit einem der großen Hersteller

Datenschatten Das gekaufte Web SETI
bilder

seen.by

Mit dem Schalter am linken Rand des Suchfelds lässt sich zwischen der klassischen Suche mit der Heise-Suchmaschine und einer voreingestellten Suche bei Google wählen.

Tastenkürzel:

ctrl-Taste:
Zum Wechseln zwischen Heise- und Google-Suche

esc-Taste:
Verlassen und Zurücksetzen des Eingabe-Felds

Buchstaben-Taste F
Direkt zur Suche springen

SUCHEN

Mit dem Schalter am linken Rand des Suchfelds lässt sich zwischen der klassischen Suche mit der Heise-Suchmaschine und einer voreingestellten Suche bei Google wählen.

SUCHEN

.
.