E-Publish or Perish

Der vernetzte Weg zur ‘Freien Wissenschaft’

Wissen | Hintergrund

Forscher bauen mit elektronischen Veröffentlichungen an weltweiten Wissensarchiven im Web und umgehen damit die Monopole der kommerziellen Fachverlage. Gestützt werden sie von immer mehr Initiativen, die dazu aufrufen, das wissenschaftliche Publikationswesen in die Hände der Wissenschaft selbst zu legen.

Seit langem köchelt im wissenschaftlichen Publikationswesen der Streit zwischen Forschern, Autoren, Urhebern sowie Fachbibliotheken auf der einen und Verlagen und Verwertern auf der anderen Seite um Kosten, Rechte und Zugänge zum Wissen (siehe dazu den vorhergehenden Artikel ‘Ein Netz im Netz der Netze’ auf S. 80). Die Wissenschaftler wundert gleichzeitig, dass die Verleger die Abtretung von mehr und mehr Rechten fordern. Verstärkt entdecken sie so das Internet als zusätzlichen oder hauptsächlichen Publikationsort und feilen an Vernetzungsmöglichkeiten digitaler Archive.

Die Fronten haben sich dabei in den vergangenen anderthalb Jahren zugespitzt. Dazu beigetragen hat vor allem die Konzentration im Verlagswesen: Der Markt wird im umsatzstarken Sektor der ‘harten’ Naturwissenschaften, der Technologie und der Medizin inzwischen von einer guten Hand voll Häusern wie Reed Elsevier, Thomson, Wolters Kluwer, Wiley, Springer oder Blackwell’s dominiert. ‘Ein paar große Verlage bestimmen das Geschäft’, betont Martin Grötschel, Mathematikprofessor an der TU Berlin. ‘Kleine werden komplett rausgedrückt’. Das Auftreten der Verleger gegenüber den Autoren fällt entsprechend aus. ‘Das Urheberrecht wird von ihnen verstärkt genutzt, um öffentliche Rechte auszuhebeln’, klagt Grötschel. Das Profitinteresse der Konzerne gehe zu Lasten der Ansprüche der Allgemeinheit und der wissenschaftlichen Gemeinde. Parallelen sieht der arrivierte Mathematiker zu den Praktiken der mit allen Mitteln um ihre Rendite kämpfenden Musikindustrie.

Die Ironie ist, dass das politische und wissenschaftliche Projekt der ‘Informationsgesellschaft’ eigentlich angetreten war, um mit Hilfe der Technik die Informationsversorgung zu verbessern und die Bildungschancen zu erhöhen. Doch nun geht es laut Grötschel fast nur noch um die ‘rechtliche und technische Wissensverwertung’ des eigentlich zu ‘99 Prozent’ mit öffentlichen Mitteln geförderten ‘intellektuellen Eigentums’ und um die Einkerkerung von Wissen. ‘Wir müssen nach Frankfurt, Leipzig oder Berlin fahren, um dort in den Bunkern der Deutschen Bibliothek eine E-Kopie lesen zu können’, empört sich Grötschel über die jüngsten Absprachen auf dem deutschen Fachinformationsmarkt. Stein des Anstoßes ist die im März abgeschlossene Rahmenvereinbarung zwischen dem Börsenverein des Deutschen Buchhandels als Vertreter der Verlage und der Deutschen Bibliothek. Sie legt fest, ‘dass die gespeicherten Netzpublikationen ausschließlich in den engen Grenzen hausintern vorhandener Zugangsmöglichkeiten genutzt werden können’. Ein ‘Fernzugriff’ ist nur auf Basis gesonderter Vereinbarungen vorgesehen.

Als ‘Abschied vom Informationszeitalter, dem eine gewisse Komik nicht abzusprechen ist’, kritisiert die IUK-Initiative der Wissenschaftlichen Fachgesellschaften [1|#literatur] die Absprache. Die Deutsche Bibliothek schiebt den schwarzen Peter den Verlagen zu, die mit einem kostenfreien Zugang zu ihren elektronischen Publikationsservern die international geschützten Urheber- und Leistungsrechte gefährdet sähen. Kritiker rechnen dagegen vor, dass die Herausgeber gleich doppelt von der öffentlichen Hand profitieren würden: Einmal, indem die größtenteils vom Steuerzahler entlohnten Wissenschaftler ihnen gratis Forschungsergebnisse zur Veröffentlichung zur Verfügung stellen; und zum zweiten, wenn die ebenfalls aus staatlichen Kassen unterstützten Bibliotheken die Informationen in Form von Abonnements ‘zurückkaufen’. Und das zu immer stolzeren Preisen: Wie eine Aufstellung des Bielefelder Mathematikers Ulf Rehmann zeigt, waren in den vergangenen sieben Jahren durchschnittliche Preiserhöhungen von 17 Prozent pro Jahr keine Seltenheit [2|#literatur].

Mit dem Aufkommen des World Wide Web und seinen digitalen E-Publishing-Möglichkeiten formten sich schon früh Initiativen, die den Praktiken der Fachverlage die Verbreitung von Forschungsergebnissen in Eigenregie entgegensetzten. Als Vater der Bewegung gilt der Physiker Paul Ginsparg, der 1991 in Los Alamos einen Server für ‘Preprints’ [3|#literatur], also noch nicht durch den kollegialen wissenschaftlichen Begutachtungsprozess (Peer-Review) gelaufene Veröffentlichungen in der Hochenergiephysik aufsetzte. Im vergangenen Jahrzehnt entwickelte sich der bald alle physikalischen Forschungsfelder umschließende, inzwischen von der Cornell University unter dem Namen ‘ArXive’ [4|#literatur] gehostete und über zahlreiche Universitätsserver durchsuchbare Archivdienst zu einer der wichtigsten Recherchequelle im mathematisch-physikalischen Sektor - nicht zuletzt dank der jahrelangen Förderungen durch US-Einrichtungen wie der National Science Foundation. Das Angebot umfasst bereits an die 200 000 Artikel. Besonders profitieren davon Forscher aus Ländern, die bislang nicht als Hochstätten der Wissenschaft galten. Es sei nun nicht mehr nötig, freut sich ein chilenischer Physikprofessor, in Princeton oder Paris zu sein, um an der Spitze der Forschung zu stehen.

Das Beispiel hat Nachahmer gefunden. Mehrere amerikanische Hochschulen etwa beginnen diesen Sommer mit dem Aufbau von digitalen Publikations-Sammelstellen. Professoren und wissenschaftliche Mitarbeiter werden zu diesem Zweck aufgefordert, ihre Publikatio-nen und Forschungspapiere in einem gemeinsamen, leicht durchsuchbaren ‘Super-Archiv’ der einzelnen Institutionen online zu stellen. Das ambitionierteste Projekt ist am Massachusetts Institute of Technology (MIT) angelaufen, wo der ‘Dspace’ [5|#literatur] den gesamten intellektuellen Output der renommierten Einrichtung aufnehmen soll.

Die Mathematiker wollen eine Vorreiterstellung übernehmen. Über ihren Weltverband, die International Mathematical Union (IMU) [6|#literatur], haben sie Mitte Mai Empfehlungen zum elektronischen Publizieren abgegeben [7|#literatur]. So wird mit dem Papier, das sich weit gehend mit den Richtlinien der deutschen Math-Net-Vereinigung [8|#literatur] deckt, jeder Mathematiker angehalten, seine Publikationen elektronisch in offenen Formaten wie LaTeX ins Netz zu stellen und seine Werke allgemein über die eigene Homepage oder Sammelbecken wie ArXive zugänglich zu machen. Die Logiker sollen die Verlage zudem bitten, die bei ihnen veröffentlichten Artikel nach einer gewissen Zeit - hier streitet sich die IMU noch über Perioden zwischen sechs Monaten und fünf Jahren - frei verfügbar in bibliothekarische Online-Archive einzufügen.

Ziel der vereinten Zahlenjongleure ist der Aufbau einer weltweiten ‘Digital Mathematical Library’, mit der die gesamte Literatur der Disziplin im Netz ohne Zugangsbeschränkungen aufbewahrt werden soll. ‘Wir brauchen zehn Terabyte und 100 Millionen Dollar’, erläutert der im Leitungsgremium der IMU sitzende Grötschel den Plan, für den mehrere Länder bereits ihre Zustimmung signalisiert haben. Von dem ambitionierten Projekt, mit dessen Verwirklichung ‘zwei Drittel der Weltliteratur’ online verfügbar wären, soll ein weiteres Signal an die Verleger ausgehen. ‘Wir sind die Autoren, die anderen nur die Vermarkter’, sagt Grötschel mit einem Hauch von ‘zivilen Ungehorsams’ gegen das System.

Die Palastrevolte wird beflügelt durch die Fortschritte der drei Jahre alten Open Archives Initiative (OAI). Die Gruppe von Wissenschaftlern hat im Juni Version 2.0 des OAI-Protokolls vorgestellt, das quasi als Lötzinn zwischen all den aus dem virtuellen Boden sprießenden Publikationsservern dienen soll. Denn ein großes Problem ist die Auffindbarkeit der auf einzelnen Sites verstreuten wissenschaftlichen Texte, da die gängigen Suchmaschinen mit den meisten ihrer Formate nichts anfangen können. Die OAI-Spezifizierung kann dabei helfen, Metadaten über die Artikel maschinenlesbar zu machen. Auch die Robots der Search-Engines können die in die Datensets eingebauten Angaben wie Titel des Aufsatzes, Name des Verfassers oder Schlüsselwörter ‘ernten’. So sollen die vielen Einzelarchive interoperabel und wie eine globale Gesamtdatenbank durchsucht werden können. Eingebettet ist die Initiative, deren Protokoll vor allem auf die Metadaten-Sprachen XML und RDF (Resource Description Framework) setzt, in die Bemühungen des World Wide Web Consortium (W3C), ein ‘semantisches’, verstehendes Hypermedium zu schaffen.

Ähnliche Ziele wie die OAI verfolgt das vom Bundesforschungsministerium mit 450000 Euro geförderte Projekt Science-to-Science (S2S), das die Berliner Firma neofonie im Verbund mit dem Deutschen Forschungsnetz (DFN) entwickelt. Bis Anfang 2004 wollen die Partner ein Peer-to-Peer-System für die Wissenschaft auf Basis des vom Sun-Cheftechnologen Bill Joy mitentwickelten Standards JXTA aufbauen. Die Projektträger gehen von der Annahme aus, dass ein Großteil der rund 550 Milliarden Dokumente im Internet nicht über Verlinkungen zu erreichen und damit im so genannten ‘Deep Web’ begraben sind. Dazu zählen den Entwicklern zufolge auch viele Informationen, die Wissenschaftler in ihrer täglichen Arbeit gesammelt oder erfasst, jedoch noch nicht im traditionellen Verlagsbetrieb veröffentlicht haben. Diese bislang eher schlecht als recht archivierten Daten soll S2S durchsuch- und tauschbar machen.

Die Linie, dass Wissenschaftler ihre Zeitschriftenbeiträge in frei zugänglichen elektronischen Archiven ablegen können und sollen, unterstützt ferner die Budapest Open Access Initiative (BOAI) [10|#literatur]. Erst vor kurzem ins Leben gerufen, könnte sie sich als Sammelbecken bereits bestehender Bewegungen entpuppen. Sie ist das geistige Kind des britischen Psychologen Stevan Harnard, der sich seit langem für die Öffnung des wissenschaftlichen Publikationsbetriebs ausspricht. Unter ‘Open Access’ versteht das BOAI-Manifest, das ‘Interessierte die Volltexte lesen, herunterladen, kopieren, verteilen, drucken, in ihnen suchen, auf sie verweisen und sie auch sonst auf jede denkbare legale Weise benutzen können.’ Dabei sollen keine finanziellen, gesetzlichen oder technischen Barrieren neben den Kosten für den Internet-Zugang bestehen. Mit dem Urheberrecht steht die Initiative aber keineswegs auf dem Kriegsfuß. Seinen Sinn sieht sie darin, Autoren die Kontrolle über ihre Arbeit zu erhalten und ihnen das Recht zu sichern, dass ihre Arbeit angemessen anerkannt und zitiert wird.

Neben der ‘Selbst-Archivierung’ will die BOAI auch ernsthafte Alternativen zu den Fachzeitschriften der Verlage in elektronischer Form fördern. Die Hürden liegen dabei vor allem in den Kosten der fürs Renommee wichtigen Peer Reviews, selbst wenn die ‘Gegenleser’ ihre Arbeitsleistung umsonst erbringen (zur Problematik der Peer Reviews siehe auch den vorherigen Artikel ‘Ein Netz im Netz der Netze’ auf S. 80). Doch Harnard hält ‘zahlreiche alternative Misch-Finanzierungen’ für möglich, etwa ‘durch private und staatliche Stiftungen und Fördereinrichtungen, Universitäten oder Spenden’. Einnahmen ‘aus Werbe-Add-ons auf den Texten’ bringt die BOAI genauso ins Spiel wie finanzielle Beiträge, ‘die Wissenschaftler selbst zu zahlen bereit sind’. Schließlich hofft sie ‘auf Mittel, die frei werden, indem überteuerte Zeitschriften abbestellt werden’.

Einen Mittelweg zwischen der ‘Selbst-Veröffentlichung’ im Web und dem traditionellen Verlagsweg sucht ferner die 1998 ins Leben gerufene und inzwischen rund 200 Institutionen vereinende Scholarly Publishing in Academic and Research Coalition (SPARC), die von der American Research Libraries Group (ARL) mitgetragen wird. Wissenschaftler organisieren ihre Publikationen und den ‘Peer-Review’ zur Evaluation dort selbst und wollen so den ‘Disfunktionalitä-ten im Forschungskommunikationsmarkt’ entgegenwirken. Das Ergebnis sind E-Zeitschriften, deren Qualität teilweise mit der von traditionellen Verlagsausgaben verglichen wird. Dass die wissenschaftlichen Begutachtungsfunktionen nicht immer teuer sein müssen, belegt SPARC mit ‘sehr kostengünstigen Jahresabonnements für Bibliotheken’.

Die etablierten Verlagshäuser sehen der E-Publishing-‘Revolte’ trotz der Bedrohung ihres Kerngeschäfts offiziell (noch) gelassen entgegen. Dietrich Götze, Geschäftsführer des Heidelberger Springer-Verlags, vertraut darauf, dass gerade aufsteigende Wissenschaftler Veröffentlichungen in einem viel zitierten Verlagsjournal als ‘Qualitätsnachweis’ auch in Zukunft für ihre Karriere brauchen. Seine Zweifel an der Tragfähigkeit der ‘Business-Modelle’ alternativer Zeitschriften teilen die Chefs von Elsevier Science. Die ‘moralischen’ Bedenken der Rädelsführer der offenen Archivierungsbewegungen lassen die Verlagsbosse kalt. Die Forschung sei zwar staatlich gefördert, erklärt die Firma. Doch das Verlagswesen sei es nicht.

Ähnlich argumentiert Götze: ‘Es ist nicht so, dass wir uns etwas nehmen und Geld dafür verlangen. Dazwischen steckt ein aufwendiger Arbeitsprozess.’ So müssten auch beim E-Publishing, auf das Springer vehement mit seinem nach fünf Jahren etwa 600000 Artikel umfassenden ‘Link’-Angebot [12|#literatur] setzt, Inhalte geordnet und fürs gezielte Abrufen straff organisiert werden. Mit dem ‘sozialistischen Gedanken, dass der Zugang frei sein muss’, hat Götze daher seine Probleme. Immerhin erhalten die Springer-Autoren nach zwölf Monaten ihre mit der Publikation abgetretenen Verwertungsrechte zurück. Nur die direkte Präsentationsform sei dann noch geschützt, so der Verlagsführer. Dass die Forscher ihre Artikel auch auf der eigenen Homepage vorhalten, befürwortet Springer gar ausdrücklich. Hintergedanke: Der Verlag spart sich teure Sonderdrucke für Autoren.

Bestärkt werden die Konzernmanager vom ambivalenten Erfolg der Wissenschaftlervereinigung Public Library of Science [13|#literatur]: Über 30 000 Forscher haben die Forderung der Freigabe von wissenschaftlichen Reports durch die Verleger nach sechs Monaten unterzeichnet; das damit verbundene Ultimatum, nach dessen Ablauf im vergangenen September die Aufständischen eigentlich nicht mehr bei ungefügigen Verlagen publizieren und deren Zeitschriften abbestellen sollten, verpuffte allerdings weit gehend. ‘Der Aufruf hatte keinen dramatischen Effekt’, gesteht Mitorganisator Harold Varmus ein. Die Gruppe will nun vom kommenden Jahr an ähnlich wie SPARC eigene Journale herausgeben. Zwei davon sollen direkt den Platzhirschen ‘Science’ und ‘Nature’ Konkurrenz machen. Um ein derartiges Niveau zu erwerben und die Qualitätskontrolle zu sichern, sind pro akzeptierten Beitrag Eigenbeteiligungen um die 500 US-Dollar im Gespräch.

Ein Rückschritt ist in den Augen der ‘Open-Access’-Verfechter auch der neue Informationsverbund Getinfo [14|#literatur], der vom Fachinformationszentrum Karlsruhe und der Technischen Informationsbibliothek Hannover mit Mitteln des Bundesforschungsministeriums aufgebaut wurde. Darüber lassen sich zwar elektronische Artikel und Werke aus zahlreichen renommierten Häusern recherchieren - aber nur mittels Pay per View. Das ‘Mieten’ der Literatur schlägt je nach Seitenumfang und ‘Ausleihdauer’ rasch mit satten Gebühren im dreistelligen Euro-Bereich zu Buche. Selbst die von Getinfo akzeptierten Preprints gibt es nicht umsonst.

Doch derlei teure Angebote werden rasch wieder überholt von neuen Ansätzen zur Förderung des digitalen Gemeinguts. So hat der amerikanische Urheberrechtsexperte Larry Lessig von der Stanford University im Mai den Start einer Unternehmung für den ‘Umweltschutz’ im digitalen Raum bekannt gegeben: Creative Commons sieht sich als kostenloses Archiv nicht nur für wissenschaftliche Texte, sondern auch für Musikstücke, Filme und andere kreative Werke. Mit der modernen Form der Allmende will Lessig ‘es Künstlern und Autoren einfacher machen, einige oder alle ihrer Rechte kostenlos verfügbar zu machen.’ Eine ähnlich gelagerte Plattform mit Schwerpunkt auf Deutschland will das Tübinger Open Community Projekt [15|#literatur] etablieren.

Mittelfristig wird sich das ‘demokratische Potenzial des Internet’ so definitiv positiv auf den wissenschaftlichen Verlagsbetrieb auswirken, ist sich Diann Rusch-Feja vom Max-Planck-Institut für Bildungsforschung sicher. Der Veränderungsprozess werde aber langwierig sein. ‘Wir müssen jetzt vor allem das Bewusstsein bei den Forschern schaffen, dass ihre Autorenrechte ein wichtiges Thema sind. Es muss ihnen klar sein, dass sie mehr mitbestimmen können.’ Das ‘Beharrungsvermögen’ im System sei groß, ergänzt ihr Mitstreiter Martin Grötschel: ‘Eitelkeiten spielen oft eine wichtigere Rolle als der Preis und die Politik eines Journals’. Entscheidend ist für den Vizepräsident des Konrad-Zuse-Zentrums für Informationstechnik Berlin, dass die Wissenschaftler mehrgleisig fahren und ihre Veröffentlichungen auch selbst ins Web stellen. (jk)

[1] www.iuk-initiative.org

[2] www.mathematik.uni-bielefeld.de/~rehmann/BIB/AMS/Publisher.html

[3] http://xxx.lanl.gov/

[4] http://arxiv.org; deutsche Spiegel-Server http://de.arxiv.org

[5] http://web.mit.edu/dspace

[6] http://elib.zib.de/IMU/

[7] www.ceic.math.ca/Best-Practices.pdf

[8] www.math-net.de

[9] www.neofonie.de/profil/forschung_und_entwicklung/s2s.jsp

[10] www.soros.org/openaccess/g/index.shtml

[11] www.arl.org/sparc

[12] http://link.springer.de/

[13] www.publiclibraryofscience.org

[14] www.getinfo-doc.de

[15] www.oc4home.org