Digitaler Strukturwandel der Öffentlichkeit

05.11.2009

Darum sollte sich die politische Diskussion um Veränderungen zum Urheberrecht drehen: Erleichterung, nicht Restriktion

Die rechtspolitische Debatte um das "Google Book Settlement" ist zum mehr oder weniger offen ausgetragenen Kulturkampf geworden. Dieser jedoch verdeckt die wahre Dimension der Unsicherheit im politischen Umgang mit dem Wandel der Medienkultur

Das Urheberrecht gehört angepasst – aber wie? Das WWW ist die Fortsetzung des seit der Aufklärung geforderten Rechts auf Publizität mit neuen, elektronischen Mitteln. Es ermöglicht Formen der Distribution und des Auffindens von Texten, von denen Leibniz und Kant begeistert gewesen wären. Es fördert vor allem die kollektiven Strukturen, ohne die keine Wissenschaft möglich wäre. Heute wird den Autoren gern die Bedrohung ihrer individualrechtlichen Ansprüche durch Digitalmedien eingeflüstert – Ansprüche, die sie längst an ihre Verlage abgetreten haben.

Während der entscheidende Schritt in die digitale Gebrauchskultur längst vollzogen ist, und Autoren ein starkes Interesse an der uneingeschränkten Auffindbarkeit, Zugänglichkeit und Zitierbarkeit ihrer Texte haben sollten, herrscht große Verunsicherung. Auch Kanzlerin Merkel ist in ihrem Video-Podcast der wie immer "festen Überzeugung", dass mit dem Einscannen von Büchern etwas nicht stimmt. Das ist natürlich richtig, denn wir werden von Politikern regiert, denen wirtschaftliche Interessen wichtiger sind als bürgerliche Rechte, wie jenes auf Informationsfreiheit.

Kulturrevolutionen sind technisch

Die Buchkultur als Wissensformat ist ein historisches Phänomen. Für die kulturelle Moderne ist Publizieren gleichbedeutend mit der Schaffung eines einheitlichen Bezugsrahmens, innerhalb dessen sich wissenschaftliche Informationen verarbeiten lassen. Seit dem 15. Jahrhundert bedingt das Druckwesen eine neue Grundlage für die Kommunikation innerhalb der gesellschaftlichen Funktionseliten. War vormals den handkopierten Texten und Bildern nicht zu trauen, so schafft die Konservierungskraft des Buchdrucks jene Gelehrtenrepublik, deren Informationsbestand einander unbekannte Menschen auf unpersönliche Weise miteinander verband. Beschreibt man die Geschichte der Druckerpresse mit solchen Worten, wie Elisabeth Eisenstein in ihrem Buch The Printing Press as an Agent of Change es tut, dann liegt jene technische Kulturrevolution schon ganz in der Nähe zur heutigen, die seit gut vier Jahrzehnten mit elektronischen Mitteln der Vernetzung agiert.

Noch gut erinnerlich ist die Nonchalance, mit der geisteswissenschaftliche Professoren in den 90er-Jahren das Internet als eine technische Spinnerei, als eine vorübergehende Sache abtaten. Dass die neue Technologie sich nicht von Ungefähr entwickelt hat, sondern ein altes Programm erfüllt, ist ihnen nicht aufgefallen. Historische Ansätze, wie der des belgischen Gelehrten und Bibliotheksreformers Paul Otlet (siehe Von Karteikarten zum vernetzten Hypertext-System) blieben zu unbekannt, um auch nur ignoriert zu werden. Otlet hat Anfang des 20. Jahrhunderts ein hypermediales Dokumentationssystem realisiert, das durch Querverweise die Schwächen der Bibliothek als Wissenssystem zu überwinden versprach:

Kino, Phono, Radio, Tele: als Substitute für das Buch genommen, sind diese Instrumente in der Tat das neue Buch geworden, die Werke mit dem mächtigsten Wirkungsgrad zur Verbreitung des menschlichen Denkens.

Traité de Documentation. Le livre sur le livre, théorie et pratique, 1934

Es war kein plakatives Bedrohungsszenario, das Otlet hier entwarf, im Gegenteil. Moderne Wissenssysteme sind auf die Möglichkeit zur Partizipation und auf den unproblematischen Zugang zu Inhalten angewiesen. Die Teletechnologien gehen darin weit über das Potenzial des Datenträgers Papier hinaus: die Wissensorganisation folgt mehr und mehr der Logik von Datenbanken, nicht jener der gedruckten Monografie. Es sei betont, dass diese Einsicht nunmehr gut ein Jahrhundert alt ist. Inzwischen gibt es die Technologie, so dass an jedem Arbeitsplatz in die zitierten Bücher innerhalb weniger Augenblicke Einblick genommen werden kann. Nur ist das erst ein kleiner Teil dessen, was Otlet sich erträumte und was heute technisch möglich wäre.

Verleger und Autoren, ein zunehmend ungleiches Machtverhältnis

Keine Frage, dass es zur Reproduktion kulturellen und wissenschaftlichen Wissens in nurmehr eingeschränkter Form des Buches bedarf. Keine Frage auch, dass die Verlagsproduktionen sich ausschließlich am Massenmarkt orientieren und dass einzig ihr Verwertungsinteresse den Markt bestimmt. Dieser Markt ist mit Titeln überschwemmt, an denen Verlagslektoren mehr Anteil tragen als Autoren. Bei immer mehr Fachverlagen sind die Autoren zudem radikal auf die Rolle der Drittmittelzubringer reduziert worden. Ohne Zuschuss vom Autor keine Publikation, und fast jedes Wissenschaftsbuch schafft es nurmehr als vom Autor direkt dem Verlag bezahltes Projekt (mindestens 8 bis 12 Euro pro Druckseite) auf den Markt. Dies ist ein beliebtes Geschäftsmodell für Sachbuchverlage geworden.

Die Verlagslobby heult naturgemäß auf, wenn dieses lukrative Gefüge durch die neuen Medien gestört wird. Und viele Autoren, die an sich froh um ein wenig mehr Verbreitung sein müssten, heulen mit den Verlagen mit. Es geht dabei nicht um illegale "Downloads" von Texten, wie in Analogie zur Klage der Musikindustrie behauptet wird. Wenn es so einfach wäre – der Agent des Bösen (Google Books) stellt ungefragt alle Texte online und ein unverantwortliches Publikum kann einfach "downloaden", statt in die Buchhandlung zu gehen, um teure Verlagsprodukte zu erwerben.

Wissenschaftsautoren sind ohnehin zu unbezahlten Heimarbeitern mutiert. Sie erledigen freiwillig Lektorat, Schriftsatz und Layout für ihren Verleger. Es ist keine zynische Behauptung, dass vor allem die Wissenschaftsautoren für Verlage nurmehr als Rechnungsadressen existieren. Im Reigen des enormen Publikationsdrucks – in der Gelehrtenrepublik gilt: Publish or perish! – sind Autoren gezwungen, das unredliche Spiel mitzumachen. Die verlegerische Gegenleistung besteht in der Produktion von meist nicht mehr als zwei- bis dreihundert lieblos gestalteten Büchern, wenn man die geleimten Papierstapel noch so nennen darf.

So ist der wissenschaftliche Publikationszwang eine nahezu risikofreie Wertschöpfungsquelle für Verleger. Verlagsverträge beginnen mit einer "Rechtseinräumung" und bestehen meist in einer umfassenden Rechteabtretung an den Verlag. Die wenigsten Autoren lukrieren etwas von den ca. 8 Prozenten, die ihnen vom Nettoverkaufspreis eines Buches vertraglich zustehen. 92 Prozent teilen sich Verleger und Buchhändler – ein signifikantes Verhältnis! Vom Verwertungsrecht profitiert allein eine hier konstruierte Rechtsfigur der "Inhaltebesitzer", die unterm Deckmantel eines Schutzes der Urheberrechte vom sogenannten geistigen Eigentum der Autoren profitiert.

Geistiges Eigentum – welcher Geist waltet hier?

Der Begriff des geistigen Eigentums ist in dieser Debatte der am stärksten missbrauchte. Reflexhaft dessen per Gesetzesverschärfung verlangten "Schutz" zustimmend, meinen ahnungslose Autoren, ihre Eigeninteressen zu wahren. Doch es handelt sich wesentlich um eine Wahrung der Verlagsinteressen an ihrem hergebrachten Geschäftsmodell. Der Geist, der hier waltet, ist der des Marketing. Da wird nichts weiter gesucht als ein probates Instrument der wirtschaftlichen Ausbeutung kreativer Leistungen.

Der Begriff des geistigen Eigentums droht zur Ideologie zu werden, und es ist daran zu erinnern, dass seine Rechtsgrundlage, das Immaterialgüterrecht, in vielen Bereichen unklar ist. Es wird immer einseitig diskutiert, im Interesse der Verleger: Im Rahmen der Informationsfreiheit, des Rechts auf das Zitat, oder des Rechts auf die Privatkopie existiert seitens des Gesetzgebers jedoch eine Rechtseinschränkung des Urheberrechts, die sich im Interesse der Allgemeinheit auch gegen einen Rechteinhaber wenden kann.

Die Verlage fürchten sich davor, mit den neuen Technologien ausgebootet zu werden: was wäre, wenn ihre Autoren und das Publikum sich kurzschließen, und nur noch mächtige Online-Agenten wie Google, Amazon etc. als Direktvertriebspartner von den Leistungen der Autoren profitieren? Und was wäre, wenn die technisch unbedarften Schriftsteller und Sachbuchautoren dahinter kommen, dass dies nicht nur möglich ist, sondern auch lukrativ für sie sein könnte – weil sie mit jedem Klick an den Einnahmen des Online-Geschäfts beteiligt wären?

Doch es ist falsch, hier nur an die herkömmliche Publikationsform zu denken. Forschung ist auf Archive angewiesen, und hier spielen die digitalisierten Bestände eine zunehmend wichtige Rolle. Mit den computerbasierten Techniken verändert sich die Struktur wissenschaftlichen Arbeitens. Tradierende und wissensbewahrende Aufgaben übernehmen die Datenbanken der Rechenzentren. Ein Vorteil dabei ist ihre allgemeine und jederzeitige Verfügbarkeit, während sie früher, in Form von teuren Büchern, meist unerreichbar in Professorenzimmern vor sich hin staubten. Das Auffinden und Überprüfen von Zitaten kanonischer Texte, häufig mit geisteswissenschaftlicher Ausbildung als solcher gleichgesetzt, bedienen gegenwärtig Online-Archive in annehmbarer Form, wie z. B. textlog.de.

Digitale Gebrauchskultur

Immer mehr Texte stehen online, und einen Weg zurück gibt es nicht. Manche der Beteiligten haben das immer noch nicht verstanden, weil ihr Denken auf eine Zeit der kulturell konditionierten Wertschätzung bezogen bleibt, nach der man Brot immer aufzuessen hatte und nach der gedruckte Bücher das Gute schlechthin verkörpern, dem bedingungslos eine ritualisierte Achtung entsprechen muss (die Haptik! der Geruch! niemals wegschmeissen!). Zu bedenken gilt, dass die Form des Zugriffs auf digitale Inhalte – grafische Benutzeroberflächen – erst seit gut einem Jahrzehnt allgemein verfügbar ist. Wir sind gegenwärtig alle Zeugen der Entstehung einer neuen digitalen Gebrauchskultur, aber noch längst nicht alle ihre Teilnehmer.

Wer diese Kultur begreifen möchte, sollte nicht über technische und rechtliche Bedingungen nachdenken, sondern diese Kulturen selbst einer genaueren Beobachtung unterziehen. Die neuen Technologien können ihren Wert ja nicht als solche haben, als technisch gebotene Möglichkeit, sondern gewinnen ihn erst aus entsprechenden Verwendungsformen. Die Dynamik, die sie verkörpern, ist mit der Piratenpartei bei den Europawahlen vergangenen Juni ins öffentliche Aufmerksamkeitsfeld gerückt.

Es geht dabei nur oberflächlich um Downloadfreiheit. Was mit dem schwedischen Filesharing-Portal Pirate Bay begann, ist Symptom des Eigensinns einer Netzkultur, von dem eine ignorante Politik jetzt langsam eingeholt wird – und gleichzeitig manifeste Kritik an der Vorstellung, der Weg in die Informationsgesellschaft bestehe ausschließlich in einer Stärkung der kulturindustriellen Verwertungsinteressen.

Denn die Informationsgesellschaft ist zum guten Teil auch eine Wissensgesellschaft, die genuin auf Öffentlichkeit beruht. Im Prinzip sagen dies schon Grundsatzerklärung und Aktionsprogramm des UN-Weltgipfels zur Informationsgesellschaft von 2003. Damit in der nationalen Umsetzung nicht all das unterschlagen wird, was der Industrie nicht unmittelbar von Nutzen ist, formierten sich von den Medien weniger beachtete Initiativen zur anstehenden Anpassung des Urheberrechts, damit "die Potenziale der digitalen Medien und Kommunikationssysteme für die Allgemeinheit und hier insbesondere für die Wissenschaft offen nutzbar bleiben und nicht vorrangig zur privatwirtschaftlichen Vermarktung von Information restriktiv reguliert werden" (Göttinger Erklärung 2004).

Kann umgekehrt betrachtet jemandem, der mit Fördergeldern forscht, abverlangt werden, die mit öffentlichen Mitteln erzielten Ergebnisse auch öffentlich zur Verfügung zu stellen? Wem gehören diese Forschungsergebnisse? Die Frage dreht sich nicht um Forscher, die durch ihr Geschick oder einen Zufall zu Bestseller-Autoren oder zu Patente-Inhabern werden. Sie dreht sich um die privatwirtschaftliche Aneignung öffentlicher Mittel, die mit der Bindung der Vergabe von Fördermitteln an eine Open-Access-Publikation dann eben nicht mehr funktionieren würde. Weiter geht es um die Nachhaltigkeit der Möglichkeit von sekundären Datenauswertungen. Das Web kann unnötige Barrieren in der Forschung abbauen und diese umso effizienter machen, je mehr Daten und Materialien öffentlich zugänglich sind (vom 19. bis 23. Oktober fand die internationale "Open Access Week" statt, die mit lokalen Aktionen für den freien Zugang zu Wissen und Information aus öffentlich geförderter Forschung warb).

Jenseits der Monografie – digitale Medienkultur

Wissenschaft ist ein kollektives Unternehmen, und keineswegs die Leistung individueller Autoren, einsamer Genies oder epochaler Erfinder. Auch wenn unsere Kultur bevorzugt den individuellen Beitrag prämiert – etwa beim jährlichen Ritual der Nobelpreisverleihung, der in den Naturwissenschaften aber immer schwieriger nur einer Person zuerkannt werden kann, weil meist ganze Teams an der Arbeit waren – so besteht die Struktur wissenschaftlichen Arbeitens mit nachvollziehbarer Methodik, eindeutiger Zitationsweise und Peer Review als eine Fabrikation des Kollektiven.

Jeder technische Schritt, der diese mit Publizität verbundene wissenschaftliche Produktivität fördert und erleichtert, konnte sich historisch bislang immer noch durchsetzen, und so wird auch der digitale Strukturwandel der Öffentlichkeit sich Geltung verschaffen – weil er auch dann Sinn macht, wenn deutsche Geisteswissenschaftler nicht an ihn glauben, weil sie ausschließlich in Kategorien des monografischen Publizierens denken.

Sie pochen dann auf die "individualrechtlichen Ansprüche, die sich an die Herstellung von künstlerischen und wissenschaftlichen Werken knüpfen" – ganz so, als ob einem Fachbuch, das digital verfügbar ist, diese Rechte per definitionem nicht mehr zustehen. Wie erwähnt haben die meisten Autoren ihre Bücher ohnehin mit dem Lehrstuhlbudget bezahlt und haben, nach der Vergütung durch die VG Wort, ohnehin keine Ansprüche, die sie geltend machen könnten.

Die grotesk verzerrte Panikmache des Heidelberger Appells entlarvt seine Wortführer der Unkenntnis digitaler Medienkultur. Unterstützt von den Journalisten konservativer Zeitungen tun sie so, als stünde eine Verstaatlichung des wissenschaftlichen Publizierens unmittelbar bevor. Doch hinter der Maske der Besorgnis steckt nichts als ein elitäres Kulturmodell, das die Wertschöpfungskette von Verlegern, Druckereien, Vertrieb und Buchhandel stützt. Leibniz und Kant würden in schallendes Gelächter ausbrechen, könnten sie dieses Elaborat deutscher Professoren und Autoren am Beginn des 21. Jahrhunderts zur Kenntnis nehmen!

Von Open Access zu Open Data

Dabei geht es nicht allein um Buchpublikationen, da Digitaltechnologie den Zugriff auf jede Form von audiovisuellen Daten erlaubt. Das gewaltige Meer an Forschungsdaten, die laufend produziert werden, erfordert eine Abkehr von dem Prinzip, nach welchem nur eine monographische Publikation zu neuen Erkenntnissen führt. Die Wissenschaft pflegt längst einen anderen Umgang mit allen möglichen Formen von Forschungsdaten. So müssen beispielsweise zwecks Sicherung der guten wissenschaftlichen Praxis empirisch erhobene Daten aufbewahrt werden, um die veröffentlichten Resultate einer Studie überprüfbar zu halten. Einmal vorliegende Daten können auch einer Sekundärauswertung unterzogen werden, die auf anders geartete Erkenntnis zielt. All dies bedeutet, dass nach dem Prinzip Open Data eine neue Problemlage vorliegt, die mehr bedeutet als der Zugang zu textbasierten Dokumenten, den Open Access gewährleistet sehen will.

Verfahren und Formen des Datenzugriffs werden immer dann besonders brisant, wenn übergeordnete Interessen ins Spiel kommen, wie es etwa bei der Verbreitung von Epidemien der Fall ist. Es ist darüber hinaus eine Web-basierte wissenschaftliche Forschung im Entstehen begriffen, deren Richtlinien eben erst von Initiativen wie "Science Commons" diskutiert werden. Der Konsens aber geht unweigerlich in die Richtung, dass Forschungsdaten aus geförderten Studien in die Public Domain gehören. Jeder kann (muss aber nicht) im Netz die eigenen Schutzrechte an einem bestimmten Inhalt aufgeben und diesen nach den Regeln des Fair use zur Verfügung stellen (siehe creativecommons) . Hier formieren sich neue Distributionsformen, neue Werke, und mit Sicherheit auch neue Geschäftsmodelle.

Eine zweite Aufklärung

Kaum eine Beobachtung war jemals so treffend wie jene Marshall McLuhans (siehe McLuhan, Magier des Medienzeitalters) , der den Blick in den Rückspiegel beim Autofahren als Paradigma kulturellen Umgangs mit dem Neuen dechiffrierte: wir klammern uns gerade dann an die Atmosphäre der jüngsten Vergangenheit, wenn wir einer völlig neuen Situation gegenüberstehen. So, wie das Auto einst eine Kutsche ohne Pferde war, würden wir die Gegenwart im Rückspiegel betrachten. Damit aber entgeht uns die Essenz dessen, was die Gegenwart ausmacht.

Im 19. Jahrhundert entstand auf Basis von Elektrizität die Telekommunikation, die Welt wurde kontinuierlich verkabelt, und die Datennetze verdichteten sich zu einer ungeahnten globalen Medienkultur. Es ist ein neuer, ein digitaler Strukturwandel der Öffentlichkeit zu verzeichnen, dessen Grundlage Datenbanken und Glasfaserkabel sind, und der eine inzwischen nicht mehr hintergehbare kulturelle Nutzungsebene hervorgebracht hat. Die erleichterte Nutzung ist entscheidend, und eben darum sollte sich die politische Diskussion um Veränderungen zum Urheberrecht drehen: Erleichterung, nicht Restriktion.

Was für Musik und Filme längst Praxis ist, wird auch die Bücher betreffen: es geht um ihre unkomplizierte Verfügbarkeit und nicht um die Form des Datenträgers. Aus Paul Otlets Traum wurde kulturelle Wirklichkeit. Der digitale Strukturwandel der Öffentlichkeit vollzieht eine zweite Aufklärung, er leistet für die Gegenwart das, was die erste Aufklärung mit ihrem publizistischen Imperativ (Immanuel Kant) für die Druckkultur geleistet hat: abermals transzendiert Medientechnik die Bedingungen der Möglichkeit für Publizität.

Zum Abschluss eine Anekdote. Die pathetischen Verteidiger der publizistischen Printkultur erinnern an die Klagen der Telegraphisten zum Ende des 19. Jahrhunderts, die ihren Berufsstand vom Telefon bedroht sahen. Damit, so ihre Gewerkschaftsvertreter, könne ja jeder Beliebige in eine Leitung gelangen, was nur zum Chaos und logischerweise zum Zusammenbruch der Kommunikationen führe. Das könne nun wirklich niemand wollen, weshalb das Telefon keine ersichtlichen Vorteile und mit Sicherheit keine Zukunft habe. Wie gut, dass es letztlich nie darum geht, was eine bestimmte Interessensgruppe will, sondern um den übergeordneten kulturellen Bedarf. Daran müssen deutsche Geisteswissenschaftler, daran müssen auch die Politiker ab und zu erinnert werden.

Dr. Frank Hartmann ist Professor für Kommunikationstheorie an der Bauhaus-Universität Weimar

x
Fehler melden
Telepolis zitieren
Vielen Dank!
Anzeige
Anzeige
Hellwach mit Telepolis
Anzeige
Cafe
Telepolis-Cafe

Angebot des Monats:
Kaffee und Espresso aus Nicaragua in der Telepolis-Edition für unsere Leser

Cover

Aufbruch ins Ungewisse

Auf der Suche nach Alternativen zur kapitalistischen Dauerkrise

Anzeige
Cover

Die Form des Virtuellen

Vom Leben zwischen den Welten

Machteliten

Von der großen Illusion des pluralistischen Liberalismus

bilder

seen.by

Mit dem Schalter am linken Rand des Suchfelds lässt sich zwischen der klassischen Suche mit der Heise-Suchmaschine und einer voreingestellten Suche bei Google wählen.

Tastenkürzel:

ctrl-Taste:
Zum Wechseln zwischen Heise- und Google-Suche

esc-Taste:
Verlassen und Zurücksetzen des Eingabe-Felds

Buchstaben-Taste F
Direkt zur Suche springen

SUCHEN

Mit dem Schalter am linken Rand des Suchfelds lässt sich zwischen der klassischen Suche mit der Heise-Suchmaschine und einer voreingestellten Suche bei Google wählen.

SUCHEN

.
.