Zirkelspiele

Die wissenschaftliche Literaturversorgung steckt weltweit in der Krise

Wissen | Reportage

Wissenschaftliche Zeitschriften werden immer teurer, die Bibliotheken können nicht mehr mithalten. Doch bei der Umstellung auf das elektronische Publizieren blockieren sich die Akteure gegenseitig.

Aufmacher

Der Schritt war ungewöhnlich. Anfang des Jahres richtete die Kommission des Deutschen Bibliotheksinstituts für Erwerbung und Bestandsentwicklung einen offenen Brief an sieben führende Wissenschaftsverlage. ‘Der Markt für wissenschaftliche Fachinformation droht zu kollabieren’, hieß es darin; ‘die Kassen der öffentlichen Hand sind leer. Die Etats der Bibliotheken stagnieren oder sinken. Ihre Kunden sind objektiv nicht mehr in der Lage, die von Ihnen angekündigten erhöhten Preise zu zahlen.’

Die Bibliotheken stehen mit dem Rücken an der Wand. Zahlungsunfähig, müssen sie ein Abonnement nach dem anderen kündigen. Hielt die Universitätsbibliothek der TU Berlin beispielsweise bis 1990 circa 10 000 Zeitschriftentitel, sind es heute noch etwa 7400. ‘Wir haben allein im letzten Jahr 300 Zeitschriften abbestellen müssen’, berichtet der Leiter der Erwerbungsabteilung, Georg Malz: ‘in diesem Jahr bereiten wir in bestimmten Fachgebieten weitere Abonnementkündigungen vor, weil uns die Preise besonders im naturwissenschaftlichen Bereich über den Kopf gewachsen sind.’

Wie sehr sich die Lage insgesamt verschlechtert hat, verdeutlichen einige Vergleichszahlen: Den deutschen Universitätsbibliotheken stehen für Erwerbungen jährlich insgesamt rund 225 Millionen Mark zur Verfügung; 1997 lag das Etatvolumen nominal nur 1,3 % über dem von 1991. Doch im gleichen Zeitraum verteuerten sich die Zeitschriften im Bereich der Geistes- und Sozialwissenschaften um durchschnittlich 27 % und in den Natur- und Ingenieurwissenschaften um 77 %.

Die Krise ist kein isoliertes deutsches Problem. Die amerikanische Association of Research Libraries (ARL) ermittelte, dass der Durchschnittspreis pro Zeitschrift von 1987 bis 1997 um 169 % angestiegen war, dreimal so stark wie die Inflationsrate. Die ihr angeschlossenen 122 Bibliotheken mussten 1997 für sieben Prozent weniger Zeitschriftentitel 124 Prozent mehr an Abonnementkosten aufbringen [#lit1 [1]]. Im selben Jahr erzielte der Marktführer unter den Verlagen, Reed-Elsevier, allein im Geschäftsbereich Wissenschaft einen Gewinn von 230 Millionen Pfund auf einen Umsatz von 571 Millionen Pfund [#lit2 [2]].

Dass die wissenschaftlichen Verlage so üppig zulangen können, liegt an den Besonderheiten eines Marktes, der in Wahrheit keiner ist. Der Vizepräsident des Konrad-Zuse-Zentrums für Informationstechnik (ZIB), Martin Grötschel, beschreibt ihn als ‘Anhäufung von atomistisch kleinen Nischen’, in denen oft nur ein einziger Titel einer kleinen, aber hochspezialisierten Forschergemeinde als Sprachrohr dient. Zeitschriften zur altfranzösischen Literatur stehen nicht im Wettbewerb zu Journalen in der Algebra; auf beiden Feldern sind zwar Publisher tätig, aber sie müssen um Autoren und Abonnenten nicht konkurrieren. ‘Daraus resultieren die absurden Preisstrukturen.’

Weltweit haben sich nur wenige Peer-Review-Zeitschriften fächerübergreifend als Leitmedien für die Wissenschaft etablieren und behaupten können. Die Flaggschiffe sind ‘Science’ von der American Association for the Advancement of Science (AAAS) und die britische ‘Nature’, die von Macmillan Magazines Ltd. - seit kurzem ein Tochterunternehmen der Holtzbrinck-Gruppe - herausgegeben wird. Beide Zeitschriften decken noch das gesamte Spektrum der naturwissenschaftlichen Forschung ab. Bei den meisten anderen sichern die staatlichen Abnehmer selbst hochpreisigen Produkten in kleinster Auflage die Existenz. Der Gang der Wissenschaft hat in beispielloser Weise zur Ausdifferenzierung immer neuer Teilgebiete geführt und das Ausufern der Zeitschriftenlandschaft nach sich gezogen. Herausgeber einer Zeitschrift zu sein krönt, mehr noch als die Zahl der Veröffentlichungen in renommierten Journalen, die Biografie. Das Karrierestreben der Forscher und die Geschäftstüchtigkeit der Verlage gingen Hand in Hand.

Die Situation zeigt auffallende Parallelen zur Kostenexplosion im Gesundheitswesen, wo weder Ärzte ihre medizinischen Angebote noch die Patienten die Inanspruchnahme von Leistungen einschränken wollen, solange sie Verträge zu Lasten Dritter schließen können. Im wissenschaftlichen Publikationswesen befinden sich die Bibliotheken - und indirekt der Steuerzahler - in einer ähnlichen Rolle wie die Krankenkassen: Sie müssen die Mittel zur Literaturversorgung aufbringen und können das Verhältnis von Angebot und Nachfrage nicht beeinflussen.

Jetzt aber rast das System auf eine Wand zu, an der die erfolgreiche Symbiose zu zerschellen droht, weil es nicht mehr finanzierbar ist. Die regelmäßigen Preiserhöhungen führen mit derselben Regelmäßigkeit zu Abbestellungen und reduzieren die Auflagen; die rückläufigen Verkaufszahlen kompensieren die Verlage wiederum durch weitere Preiserhöhungen - eine tödliche Spirale, die inzwischen die Produktions-, die Distributions- und die Rezeptionsprozesse in der Wissenschaft gefährdet. ‘Das ist ein Teufelskreis’, meint Georg Malz wie viele seiner Kollegen. ‘Weil die Zeitschriften zu teuer sind, bestellen die Universitätsbibliotheken sie ab; dadurch sinkt die Auflage, und der Preis steigt weiter.’ Denn weil die Verlage mit einem konstanten Fixkostenblock operieren, verteilen sie die Kosten auf einen kleineren Kreis von Abonnenten.

Aber der Umsturz ist schon in vollem Gange. Wie oftmals Revolutionen kündigte er sich in kleinen Schritten an. Das World Wide Web hat die Randbedingungen des wissenschaftlichen Publikationswesens einschneidend verändert. Die erste Zäsur kam 1991, als Paul Ginsparg vom Los Alamos National Laboratory damit begann, die Preprints, die ihm Kollegen aus aller Welt per E-Mail zuschickten, auf einen Server zu legen und damit einer größeren Fachöffentlichkeit zugänglich zu machen. Der Server http://xxx.lanl.gov/ in Los Alamos bedient inzwischen zehntausende von Nutzern in aller Welt und verzeichnet pro Woche etwa 600 000 Zugriffe. Rund 2500 ‘Paper’ werden hier jeden Monat neu abgelegt. Das Spektrum hat sich von der Elementarteilchenphysik längst auf zahlreiche andere Gebiete von der Astrophysik bis zur Optik, der Algebraischen Geometrie bis zur Wahrscheinlichkeitstheorie ausgeweitet.

In der Physik und Mathematik ist Ginspargs Server der schnellste Weg zur Kommunikation mit den Fachkollegen; er hat die gedruckte Literatur überholt, aber nicht vom Markt verdrängt. Die Verlage tolerierten notgedrungen, dass die Autoren Erstveröffentlichungsrecht und Copyright unterliefen - nicht zuletzt deshalb, weil das der wachsenden Kritik an den monatelangen Vorlaufzeiten vom Einreichen des Manuskripts bis zum Erscheinen der Veröffentlichung in den Bibliotheksregalen die Spitze nahm. Einen Musterprozess hätten sich die Verlage in der fragilen Situation wohl auch kaum leisten können, denn damit hätten sie nur die Autoren auf die Barrikaden getrieben und eine Entwicklung beschleunigt, an der ihnen nicht gelegen sein kann.

Spektakulärer war die Aktion von Michael Rosenzweig, einem prominenten Ökologen an der University of Arizona, der 1984 mit dem britischen Verlag Chapman & Hall die Zeitschrift ‘Evolutionary Ecology’ ins Leben gerufen hatte. Damals bezahlten die Bibliotheken unter den weltweit 400 Abonnenten 100 Dollar und Einzelabonnenten 35 Dollar für den Jahrgang. Dann kam es zu einer feindlichen Übernahme der Aktienmehrheit an Chapman & Hall durch die International Thomson Corporation (ITC), in deren Folge sich das Abonnement um 275 % verteuerte. Nachdem der Verlag Anfang 1998 erneut den Besitzer wechselte und an den holländischen Verlag Wolters-Kluwer verkauft wurde, setzten die neuen Eigner den Bibliothekspreis sofort von 464 auf 777 Dollar herauf und schafften zudem die Individual-Abonnements zu Vorzugspreisen ab. Rosenzweig verließ daraufhin unter Protest mitsamt der 34-köpfigen Redaktion das Unternehmen und gründete ein neues Magazin, ‘Evolutionary Ecology Research’, das er für 305 US-$ im Selbstverlag herausgibt und das nun in erster Linie elektronisch vertrieben wird (www.evolutionary-ecology.com); eine Papierversion soll jedoch vorläufig beibehalten werden. ‘Emotional sind die Autoren aus irgendwelchen Gründen noch nicht auf ein reines Internet-Journal eingestellt’, begründet Rosenzweig das vorsichtige Herangehen; ‘sie möchten ihre Arbeiten noch im altmodischen Druck wiederfinden.’

Einen Abschied von Gutenberg wird es also so schnell nicht geben, obwohl sich auch die etablierten Wissenschaftsverlage längst der Herausforderung durch das Internet gestellt haben. Elsevier bietet zurzeit mehr als 1200 Zeitschriften online an, Springer 419, Academic Press 174. Suchmaschinen ermöglichen die gezielte Suche nach Fachaufsätzen über alle Zeitschriftentitel. Obwohl der elektronische Vertrieb Lagerhaltungs- und Distributionskosten einsparen könnte, billiger ist es dadurch nicht geworden. Die Strategien, die die Preis- und Vertriebspolitik der weltweit rund 300 Verlage aus dem STM-Bereich (Science, Technology, Medicine) bestimmen, zielen vielmehr darauf ab, die bisherigen Umsätze im Bereich der Print-Zeitschriften zu stabilisieren und auszubauen. Dabei soll das Angebot von Parallelversionen im Netz zusätzliche Erträge bringen.

Auf der anderen Seite, um ihre Position gegenüber den kommerziellen Anbietern zu stärken, schließen sich die Bibliotheken zunehmend zu regionalen ‘Einkaufsgemeinschaften’ zusammen und handeln die Konditionen gemeinsam aus. Der erste Konsortialvertrag kam 1997 in Nordrhein-Westfalen zwischen acht Universitätsbibliotheken und Elsevier zu Stande. In Berlin und Brandenburg machen fünf Hochschulen und zahlreiche außeruniversitäre Institute im Friedrich-Althoff-Konsortium gemeinsame Sache, um im Verbund die Literaturversorgung zu optimieren und allen Mitarbeitern der beteiligten Einrichtungen den Zugriff auf die elektronischen Journale zu sichern. So hat die TU Berlin beispielsweise nur 123 Titel aus dem Elsevier-Sortiment abonniert, gewinnt über das Konsortium aber den Zugriff auf 530 Zeitschriften des Verlages. Ähnliche Vereinbarungen gibt es mit Springer und Academic Press.

Die Paketlösungen könnten sich jedoch durchaus als Bumerang erweisen, weil sie die Abnehmer an die großen Verlage binden. So kann eine angeschlossene Bibliothek beispielsweise einzelne Titel nicht mehr abbestellen, wenn sie stattdessen die Zeitschrift eines anderen Verlages abonnieren will. Zudem hat das System einen weiteren gravierenden Nachteil: Der Online-Zugriff ist nur den Mitarbeitern und Studenten der angeschlossenen Institute möglich.

In der ‘Akademischen Gemeinschaft’ gibt es daher schon sehr viel weiter gehende Überlegungen zu alternativen Ansätzen. Die radikalsten Vorstöße kommen aus den USA, wo die preistreibende Politik der Verlage zunehmend Gegenreaktionen auslöst. Als Hebel zur Umgestaltung des wissenschaftlichen Publikationswesens gelten insbesondere die Trennung des Peer Review vom Verlagsgeschäft, die restriktivere Handhabung des Urheberrechts, sowie der Aufbau alternativer Vertriebswege und Distributionsplattformen.

Eine subversive Idee, die das konservative Qualitätsbewusstsein mit dem radikalen Abschied vom Papier verbindet, hat unlängst Stevan Harnad von der Multimedia Research Group im Electronics and Computer Science Department der University Southampton in die Debatte geworfen. Er schlägt vor, die Begutachtungskosten nicht dem Leser (bzw. dem Bibliotheksetat), sondern dem Autor oder seiner Heimatinstitution aufzubürden. Die Deutsche Physikalische Gesellschaft und das britische Institute of Physics haben sich bereits auf das Experiment eingelassen: Bei dem neuen New Journal of Physics (http://njp.org) müssen Autoren beim Einreichen des Manuskripts einen Scheck über 500 Dollar beilegen; die Lektüre ist kostenlos, und schon die ersten NJP-Paper haben etliche tausend Leser heruntergeladen.

Den zweiten Hebel bietet die restriktivere Handhabung des Urheberrechts. Nach dem amerikanischen Urheberrechtsgesetz gibt es für die Arbeiten von Angehörigen des Öffentlichen Dienstes keinen Copyright-Schutz. Deren Veröffentlichungen gelten als Public Domain und können von jedermann frei genutzt werden. Gleichwohl haben die STM-Verlage in der Praxis bislang von den Autoren die Abtretung des Copyrights ihrer Veröffentlichungen verlangt und damit faktisch die Möglichkeit zur unabhängigen Online-Veröffentlichung durch die Autoren unterbunden. Eine zwölfköpfige Studiengruppe der American Academy of Arts and Sciences, der Wissenschaftler, Bibliothekare und Verlagsvertreter angehören, hat kürzlich den Finger auf die offene Wunde gelegt und an die Rechtslage erinnert.

Das dritte Element der Strategie zur Kostendämpfung und gleichzeitiger Förderung des Electronic Publishing besteht in dem Aufbau alternativer Plattformen für E-Journale. So startete die ARL vor einem Jahr die Scholarly Publishing and Academic Resources Coalition (SPARC) (www.arl.org). Sie will Fachgesellschaften und kleinere Verleger zum Wettbewerb mit den etablierten kommerziellen Verlagen ermuntern und ihnen ein gemeinsames Distributionsdach für die elektronischen Journale anbieten. Als Erste war die American Chemical Society dabei; unlängst schloss sich die britische Royal Society of Chemistry der Initiative an.

Eine weitere Kampfansage kam von der Stanford Universitätsbibliothek. Sie hat ein gemeinnütziges Unternehmen, HighWire Press, ins Leben gerufen, das wie SPARC ein zweifaches Ziel verfolgt: Es soll Universitäten und Fachgesellschaften Hilfestellung beim kostengünstigen Verlegen von Zeitschriften geben und zugleich verhindern, dass die kapitalkräftigen Marktführer angesichts der Investitionen in das Electronic Publishing die Kleinverlage im Wettbewerb erdrücken.

HighWire Press ist wie SPARC eine Vertriebsgemeinschaft, die von der ‘Academic Psychiatry’ bis zur ‘Thorax’ bereits mehr als 250 E-Journale im Portefeuille hat; dazu gehören das weltweit am meisten zitierte ‘Journal of Biological Chemistry’ sowie die ‘Proceedings of the National Academy of Sciences’. Ende letzten Jahres brachte die britische Oxford University Press ihre 160 Zeitschriften in das Unterfangen ein und übertrug HighWire Press die Abwicklung der elektronischen Produktion und das Webhosting (http://intl.highwire.org).

Den jüngsten und zurzeit umstrittensten Vorstoß startete der Präsident des amerikanischen Bundesgesundheitsamtes, Harold Varmus, Mitte dieses Jahres mit dem Ziel, am National Institute of Health (NIH) ein umfassendes Online-Archiv für die mit öffentlicher Förderung entstandenen biomedizinischen Veröffentlichungen und Daten einzurichten. Das Archiv - ursprünglich ‘E-biomed’ genannt und jetzt in ‘E-biosci’ umgetauft, nachdem sich herausstellte, dass der vorgesehene Titel bereits rechtlich geschützt ist - soll jedermann und jederfrau mit Computer und Internet-Anschluss ‘den freien, schnellen und vollständigen Zugang zur gesamten biomedizinischen Forschungsliteratur’ verschaffen (www.nih.gov).

Als Zuwendungsgeber verfügt das NIH über ein starkes Druckmittel. Mit einem Gesamthaushalt von knapp 16 Milliarden Dollar ist das Bundesgesundheitsamt nach dem Energieministerium (17,8 Mrd $) und noch vor der NASA (13,6 Mrd $) der zweitgrößte Finanzier von Forschung und Entwicklung in den USA. Während SPARC und HighWire Press auf die Kooperation der Autoren angewiesen sind, kann die Behörde die Vergabe von Projektmitteln an die Bedingung knüpfen, dass das Copyright der nachfolgenden Veröffentlichungen bei den Autoren - im Extremfall sogar beim NIH selbst - verbleibt und die Aufsätze in elektronischer Form über E-biosci öffentlich zugänglich gemacht werden.

Unklar ist, in welcher Weise die Verlage sich - wenn überhaupt - an E-biosci beteiligen können - ob mit Abstracts, Volltext oder nur den URLs zu den Artikeln auf ihren eigenen Servern. Einige haben bereits die Absicht bekundet, auch die Volltexte über den kostenlosen E-biosci-Zugang bereitzustellen, wollen dies aber erst mit einer Verzögerung von einigen Wochen bis zu sechs Monaten nach dem Erscheinen der Zeitschrift bei den Abonnenten tun. Der Ausgang der Kontroverse ist offen.

Das Parallelvorhaben im benachbarten Energieministerium, PubScience, findet da schon eher das Wohlwollen der Verlage. Die Forschungsabteilung des Department of Energy (DoE) plant, noch in diesem Jahr ihre Datenbank mit den Titeln und Abstracts der Artikel von einigen hundert Zeitschriften der Natur- und Ingenieurwissenschaften jedem für das Retrieval über das Internet zu öffnen (www.doe.gov). Das bringt den kommerziellen Verlegern Kunden in den Laden: Links sollen dann das Durchklicken von den Abstracts zu den Volltexten auf den Verlagsservern erlauben, ohne dass ihnen der freie Zugang abverlangt wird. ‘Wir unternehmen keinen Versuch, die Verleger zu ersetzen’, erklärt die Leiterin der Forschungsabteilung im DOE, Martha Krebs; ‘wir wollen es nur einfacher machen, an das veröffentlichte Material heranzukommen.’

Zu emanzipatorischen Aktionen wie der von Rosenzweig hat sich in Deutschland noch kein Wissenschaftler hinreißen lassen. Bibliotheksinitiativen wie SPARC oder HighWire Press sucht man hier zu Lande vergebens, und auch kein Forschungspolitiker hat bislang derart ketzerische Pläne wie Harold Varmus mit E-biomed vorzubringen gewagt.

Dabei starteten schon vor fünf Jahren in der Bundesrepublik Bemühungen, die Möglichkeiten des WWW stärker für die wissenschaftliche Kommunikation zu nutzen [#lit3 [3]]. Pioniere waren die Physiker, Mathematiker, Informatiker und Chemiker, die in ihren jeweiligen Fachgesellschaften zahlreiche Projekte anstießen, um das Informationsangebot auf den Fachbereichsservern überschaubar zu gestalten und nach dem Muster Ginspargs die Erschließung der ‘Grauen Literatur’ in der Form von Preprints, Forschungsberichten und technischen Reports auf eine breitere Basis zu stellen. Zur Vermeidung von Doppelentwicklungen und zur fächerübergreifenden Kooperation gründeten die Deutsche Mathematiker-Vereinigung (DMV), die Deutsche Physikalische Gesellschaft (DPG), die Gesellschaft Deutscher Chemiker (GdCh) und die Gesellschaft für Informatik (GI) 1995 die ‘Gemeinsame Initiative der wissenschaftlichen Fachgesellschaften zur elektronischen Information und Kommunikation’.

Die IuK-Initiative stellte eine Graswurzelbewegung von Wissenschaftlern dar, die den Anschluss an die internationale Entwicklung nicht verlieren und mit den eigenen Arbeiten im WWW für die Fachkollegen sichtbar bleiben wollten. Ihr schlossen sich zahlreiche andere Fachgesellschaften an. Sie entwickelten fachbezogene Suchmaschinen zu Personen, Projekten, Publikationen und Veranstaltungen, und ihre Vertreter beteiligten sich in internationalen Gremien wie dem W3C und der Dublin Core Group an der Erarbeitung von Strukturstandards für Online-Dokumente, so etwa RDF und den als ‘Dublin Core’ bekannten Satz von Metadaten zur Klassifizierung (siehe [#kasten1 Kasten]).

Auf die Anregung der Initiative ging auch das Projekt ‘Dissertationen Online’ hervor, das dann von der DFG gefördert wurde. Am weitesten preschten die Mathematiker und Physiker voran. Mit MathNet und PhysNet bauten sie Prototypen verteilter und Informations- und Publikationssysteme auf, die inzwischen außerhalb der Landesgrenzen aufgegriffen wurden, den Intentionen des Bonner Forschungsministeriums jedoch zuwiderliefen. Sie mussten ohne die Unterstützung des BMBF auskommen; nicht einmal die 9000 Mark Mitgliedsbeitrag für die Beteiligung an den W3C-Aktivitäten wollten die amtlichen Innovationsförderer beisteuern.

Denn das damalige Rüttgers-Ministerium verfolgte andere Zielsetzungen und setzte eigene Randbedingungen. Es versuchte, sein Fachinformationsprogramm neu zu ordnen und von der Fokussierung auf die in den Siebzigerjahren entstandenen wissenschaftlichen Datenbanken zu lösen. So entstanden, teilweise in ausgeprägtem Gegensatz zu den Vorstellungen der wissenschaftlichen Fachgesellschaften, im Rahmen des Förderprogramms ‘Information als Rohstoff für Innovation’ nacheinander die Projekte MeDoc, InterDoc und Global-Info.

Politische Priorität hatte die Förderung von Verlagen bei der Umstellung auf die elektronische Produktion und Distribution (Modellprojekt: Der elektronische Verlag) und die Privatisierung der Fachinformationszentren, weniger dagegen die direkte Verbesserung der Literaturversorgung in der Wissenschaft.

Dabei benötigen gerade die Bibliotheken Führung. Sie sind hochgradig gefährdet, denn ob sie bei den elektronischen Zeitschriften noch als Mittler gebraucht werden, steht in Frage. So erwartet Andrew Odlyzko, Mathematiker bei AT&T und ein ausgewiesener Analytiker der Ökonomie des wissenschaftlichen Publikationswesens, eine Verschiebung der Arbeitsteilung, derzufolge künftig die Verlage zunehmend Bibliotheksfunktionen übernehmen.

Die Verlage sind ohnehin in einer günstigeren Position. Es sind zahlenmäßig weniger (den weltweit 300 STM-Publishern stehen allein in der Bundesrepub-lik 2434 wissenschaftliche Bibliotheken gegenüber), sodass es ihnen leichter fällt, Veränderungen zu initiieren. Sie sind aggressives Marketing gewohnt, während Bibliotheken traditionell auf Abstimmung und Kooperation setzen und eher defensiv reagieren. Zudem besitzen die Verlage das Copyright der bereits archivierten Materialien, das heißt, ohne ihre Zustimmung können Bibliotheken, die mit dem Aufbau eigener digitaler Archive rationalisieren und das Überleben sichern wollen, das Altmaterial gar nicht erschließen. ‘Um ihre Erlöse und Gewinne zu schützen’, so Odlyzkos Folgerung, ‘werden die Verlage die Rolle und Ressourcen von Bibliotheken usurpieren’.

Dabei ist die Archivierung eine klassische Aufgabe der Bibliotheken. Sie stellten bisher sicher, dass die Arbeiten von gestern den Forschern auch morgen noch zur Verfügung stehen. Selbst wenn der Aufwand für die Lagerhaltung im umgekehrten Verhältnis zum ‘Ertrag’, das heißt zur Zahl der Zugriffe auf die alten Zeitschriften, steht, so sollen sie doch dem kollektiven Gedächtnis erhalten bleiben. Es kommt immer wieder vor, dass historische und längst vergessene Arbeiten plötzlich zum Ausgangspunkt neuer Fragestellungen werden. So entdeckten beispielsweise 1934 zwei deutsche Chemiker das absonderliche Phänomen, dass Ultraschallwellen Fotoplatten so schwärzten, als ob sie belichtet worden waren. In der ‘Zeitschrift für Physikalische Chemie’ schilderten sie damals den fotoakustischen Effekt, als irrelevante Kuriosität fiel er jedoch der Vergessenheit anheim. Mehr als ein halbes Jahrhundert später stößt die seltsame Erscheinung, Sonolumineszenz genannt, jetzt wieder auf das Interesse der Physiker - theoretisch, weil es immer noch keine überzeugende Erklärung für das Phänomen gibt, und praktisch, weil die enorme Energiebilanz des Prozesses Anwendungen in Fusionsreaktionen denkbar erscheinen lässt oder die direkte Umwandlung von Schall in Licht möglicherweise der Photonik neue Anwendungen erschließt.

Eine derartige Langzeit-Archivierung von E-Prints ist heute noch kaum denkbar. Bislang halten die Verlage noch das gesamte Material, das sie elektronisch veröffentlicht haben, auf ihren Servern vor. Doch ob dies eine dauerhafte Lösung sein wird, ist durchaus fraglich: Kommerzielle Unternehmen können in Konkurs gehen, aufgekauft werden oder bestimmte Geschäftsfelder einstellen. Erfahrungen mit ‘elektronischen Antiquariaten’ als Makler für aufgelassene Datenbanken gibt es naturgemäß noch nicht. Eine Bestandsgarantie wird mit dem privaten Sektor schwerlich zu realisieren sein.

Bibliothekare bezweifeln sogar das Interesse der Verlage an der dauerhaften digitalen Archivierung selbst ihrer eigenen Produktion. ‘Die wollen das gar nicht’, vermutet Georg Malz von der TU Berlin. Denn auch wenn die Massenspeichermedien immer billiger geworden sind (die Erfassung der Daten hingegen zunehmend teurer) - letztlich wird das Vorhalten älterer Zeitschriftenjahrgänge immer unwirtschaftlich sein, weil umso seltener darauf zugegriffen wird, je weiter die Veröffentlichungen zurückliegen.

‘Für die Bibliotheken ist das natürlich genauso ein Problem’, meint Malz. Zwar hat die Deutsche Bibliothek (DDB) in Frankfurt (Main) einen gesetzlichen Auftrag zur vollständigen Sammlung, Erschließung und dauerhaften Sicherung aller deutschsprachigen oder in Deutschland erschienenen Publikationen, der auch digitale Publikationen einschließt - dies allerdings nur, sofern sie auf physischen Trägern verbreitet werden. Die Ablieferung eines ‘Pflichtexemplars’ für Netzveröffentlichungen ist im Gesetz über die DDB bisher nicht vorgesehen. Die DDB bemüht sich aber in dem Arbeitskreis ‘Elektronische Depotbibliothek’ gemeinsam mit Verlegern um eine Regelung auch für diesen Fall. Erste Erfahrungen mit der elektronischen Archivierung werden derzeit in dem Projekt ‘Dissertationen Online’ gesammelt. Dazu erhält die DDB von den Universitätsbibliotheken jeweils eine Kopie der eingereichten digitalen Dissertationen überspielt, die sie auf dem vor einem Jahr eingerichteten Dokumentenserver deposit.ddb.de zentral für die Bundesrepublik vorhält.

Das sind interessante Zeiten’, meint David Lipman, der Direktor des US National Centers for Biotechnology Information und einer der geistigen Väter von E-Biomed, ‘ die Verleger wissen nicht, welchen Kurs sie einschlagen sollen, und die Bibliotheken wissen es auch nicht’. Doch selbst wenn sie es wüssten - die Weiterentwicklung der Infrastruktur der künftigen wissenschaftlichen Informationsversorgung machen Verlage und Bibliotheken nicht unter sich allein aus. Alles hängt davon ab, wie sich die anderen Akteure positionieren.

Zwischen die Mühlen geraten in jedem Falle die kommerziellen wissenschaftlichen Datenbanken und insbesondere die Fachinformationszentren, die in der Bundesrepublik unter massiver staatlicher Förderung mit dem IuD-Programm 1974-77 geschaffen wurden. Sie füllen bisher die Rolle eines elektronischen Nachweissystems in dem Meer der Zeitschriften-Volltexte aus, indem sie Recherchen nach Autor, Titel oder Keywords erlauben und mit der Lieferung von Abstracts erleichtern. Doch schon beim Retrieval der Volltexte stoßen sie an die durch das Copyright der Verlage gezogenen Grenzen. Die Recherche-Funktionen werden nach wie vor benötigt, aber die Organisationsform wird sich definitiv ändern. Die jüngsten Entwicklungen des WWW und die Verfügbarkeit mächtiger Suchmaschinen zur strukturierten Suche wie Harvest sind im Begriff, ihnen die Geschäftsgrundlage zu entziehen. Überleben werden sie vielleicht als eine Art von Portalsite für die kommerziellen Verlage.

Und schließlich sind da noch die Wissenschaftler selbst in ihrer doppelten Funktion als Autoren und Nutzer, als Content Provider und recherchierende Leser. Für sie sind Zeitschriftenkrise und Kostendruck der Bibliotheken kein direkter Anreiz zur Migration in das elektronische Medium, weil sie die Kosten des Publikationssystems nicht tragen. Wissenschaftler benötigen Veröffentlichungen für die Karriere, aber sie bezahlen die Abonnements nicht selbst, und somit fehlt die Motivation, ihre Arbeiten nicht bei den renommierten, hochpreisigen Zeitschriften einzureichen. Solange diese die bekannten Namen, Koryphäen und Wortführer einer Forschungsrichtung anziehen, stehen die Bibliotheken unter dem Druck, die teuren Journale weiterhin zu beziehen.

Entscheidend ist letztlich aber die Sichtbarkeit in der Gemeinschaft der unmittelbaren Fachkollegen. In dynamischen Nischen, in denen es kaum mehr als eine Hand voll Experten gibt, denen es auf den schnellen Austausch ihrer Erkenntnisse und Ergebnisse ankommt, finden sich daher immer wieder Pioniere, die Vorbildern wie Paul Ginsparg oder Michael Rosenzweig nacheifern, ein neues E-Journal im Selbstverlag herausbringen und quasi im Nebenberuf zu Electronic Publishern werden. In einem solchen Schritt haben beispielsweise die Gründer der Zeitschrift ‘Conservation Ecology’, die Ökologen Shealagh Pope und Lee Miller von der Cornell University, gleich die gesamte Abwicklung vom Einreichen der Arbeiten über das Peer Review und die Abschlussredaktion bis zur Veröffentlichung und Distribution weitgehend automatisiert (www.consecol.org).

Es gibt jedoch gute Gründe für die Annahme, dass solche Selbsthilfe-Projekte noch nicht der Weisheit letzter Schluss sind. Auf Dauer werden die Forscher die Abwicklung und Organisation ihrer Veröffentlichungen vermutlich lieber anderen überlassen. ‘Wir wollen Wissenschaft betreiben, keine Datenbanken’, bringt Martin Grötschel, Vizepräsident des Konrad-Zuse-Instituts für Informationstechnik, die Schnittstelle auf den Punkt.

Es macht wenig Sinn, die Rollenverteilung des heutigen Publikationswesens unbesehen in das Web zu übertragen. ‘Man will ja nicht täglich die Server von Elsevier, Springer oder Academic Press nach relevanten Arbeiten abklappern’, meint Wolfram Sperber, Sprecher der IuK-Fachgruppe in der Deutschen Mathematiker-Vereinigung; ‘die elektronische Fachinformation kriegt man mit einer 1:1-Abbildung nicht mehr vernünftig hin, da braucht man andere Zugangsfunktionen.’ Die stehen inzwischen zur Verfügung. Die jüngsten Empfehlungen des W3C, namentlich XML (Extensible Markup Language) und RDF (Resource Description Framework) bieten zahlreiche Ansätze zur abgestuften Handhabung von Dokumenten, die weit über die Möglichkeiten von HTML-Dokumenten hinausgehen.

Statische Veröffentlichungen (frozen documents) erfüllen die bisherige Funktion der Zeitschriftenversion: Sie spiegeln den Erkenntnisstand und vor allem den Originalbeitrag des Urhebers zu einem gegebenen Zeitpunkt wider. Diese Archivfunktion ist in einem auf Reputation beruhenden System wie der Wissenschaft unabdingbar, in dem es darauf ankommt, wem welcher Beitrag zuzuschreiben ist.

Dynamische Dokumente sind elektronische Publikationen, die vom Autor oder von Arbeitsgruppen gepflegt und fortgeschrieben werden; sie geben den neuesten Stand in einem Forschungsgebiet wieder.

Interaktive Dokumente schließlich bilden eine Plattform zur Telekooperation, etwa indem sie den Beteiligten erlauben, mit den darin enthaltenen Formeln, Daten und Programmen eigene Berechnungen, Auswertungen und Forschungen durchzuführen und in den Diskussionsprozess einzukoppeln.

Begutachtung und Diskussion, Leserbriefe, Textanmerkungen und Fortschreibungen im Rahmen eines Forschungs-Threads werden sich künftig mit einer Veröffentlichung verbinden, ohne dass sich die Grenzen zwischen Kommunikation und Publikation dabei verwischen.

Bei allem Wandel gibt es jedoch zwei Konstanten: Erstens soll die fachliche Diskussion aus Gründen der Effektivität und Zeitökonomie auf die Peers beschränkt bleiben; niemand hat ein Interesse daran, dass der Betrieb, wie in Newsgroups häufig zu beobachten, durch Spam lahm gelegt wird, wenn missliebige oder umstrittene Forscher wie etwa der britische Psychologe Hans Jürgen Eysenck oder der Bremer Neuroinformatiker Andreas Kreiter ihre Arbeiten der Fachwelt zur Diskussion stellen. Wissenschaft soll öffentlich sein, aber der fachliche Diskurs hinter dem Schaufenster ungestört verlaufen.

Zweitens wird auch weiterhin das Peer-Review-System zur Qualitätssicherung benötigt. Wie kurz der Weg vom akzeptierten Wissenschaftler zum abgestempelten Außenseiter oder Scharlatan sein kann, mussten beispielsweise die Physikalischen Chemiker Stanley Pons und Martin Fleischmann erfahren, die den Fehler begingen oder das Pech hatten - die Darstellungen variieren -, ihre scheinbar spektakulären Ergebnisse zur ‘kalten Kernfusion’ an die Presse gelangen zu lassen, bevor die Fachwelt sie einer eingehenden Begutachtung unterzog.

Die Einführung von Metadaten in Verbindung mit XML und RDF wird die Kennzeichnung des Status von Web-Dokumenten und die klare Unterscheidung von begutachteten Artikeln und Diskussionspapieren oder Preprints erlauben. Eine Vorstufe bildete die Einführung der ‘Platform for Internet Content Selection’ durch das W3C. PICS definiert Filterregeln, die Browser evaluieren können, und erhielt enormen Auftrieb durch die politische Debatte über Pornografie im Internet, weil sie die Möglichkeit bot, Webseiten mit anstößigen Inhalten zu indizieren, ohne zum Holzhammer der Zensur greifen zu müssen. Kaum beachtet wurde bislang die Generalisierbarkeit über die Markierung von Rotlicht-Bezirken des WWW hinaus, nämlich zur Strukturierung von Angeboten und Leserschaft: Dritte, die nicht die Ersteller der zu beschreibenden oder indizierenden Quelldokumente sind, können Aussagen über die Quelldokumente machen, und der User nutzt diese Metadaten, die er von einer Labeling-Instanz seines Vertrauens bezieht. Der auf PICS aufbauende DSig-Standard erlaubt überdies, die Metadaten digital zu unterschreiben; das sichert ihre Authentizität und verhindert Missbrauch.

Dieses Labeling-System ist vom W3C zum Resource Description Framework (RDF) weiterentwickelt worden und bildet eine geeignete Plattform für das Online Peer Review. Ein Dokument, das der Autor zunächst als Preprint veröffentlicht, indem er es nach den Regeln seiner Heimatinstitution auf den lokalen Server legt, kann nachfolgend dem Peer Review einer anerkannten und unabhängigen Einrichtung - sei es eines Verlages oder des Gutachtergremiums einer Fachgesellschaft - unterzogen werden und erhält dann mit einem digital signierten RDF-Tag quasi ein Prüfsiegel, das den neuen Status als E-Print öffentlich sichtbar macht. Auf diese Weise entsteht im Internet ein ‘Web of Trust’, das der konventionellen Qualitätssicherung durch die gedruckten Zeitschriften in keiner Weise nachsteht.

Die Zukunft des wissenschaftlichen Publikationswesens hat demnach gerade erst begonnen. Die größten Hindernisse zur Bewältigung der bevorstehenden Umwälzungen sind derzeit noch Angst, Trägheit und Tradition. Aber die Fortschreibung der alten Rollenverteilung in eine neue Umgebung ist immer nur ein allererster Schritt, bevor sich gänzlich andere Strukturen herausbilden. (ae)

[1] http://www.arl.org/newsltr/200/200toc.html

[2] Butler, Declan: ‘The Writing is on the Web for Science Journals in Print’; Nature 397, 105 (1999)

[3] Sietmann, Richard: ‘Elektronisches Publizieren: Vor dem Phasensprung’; Phys. Blätter 50 (1994) 9.

[4] http://interdoc.theo-phys.uni-essen.de/zw_bericht/
eval-with-hyperlinks-acroread-special.pdf

[5] Dissertationen Online; http://www.educat.hu-berlin.de/diss_online/index.html

[6] Schmiede, Rudi: ‘Digital Library Activities in Germany’; http://www.global-info.org/

[7] Klapsing, Reinhold: ‘Metadaten im Web: Resource Description Framework’; iX 8/1999

[8] Griebel, Rolf u. Tscharnke, Ulrike: ‘Etatsituation der wissenschaftlichen Bibliotheken 1997/1998’, Zeitschrift für Bibliothekswissenschaften und Bibliografie, ZfBB 45 (1998) 6.

[9] Odlyzko, Andrew: ‘Competition and Cooperation: Libraries and Publishers in the Transition to Electronic Scholarly Journals’; (1999) http://www.research.att.com/~amo

[10] Borggraefe, Stefan: ‘Reiche Ernte; Hierarchische Suchindizes mit Harvest’; iX 3/1999

[11] Hilf, Eberhard: ‘Elektronische Informationen für die Physik’; Phys. Blätter 53 (1997) 4.

[12] http://www.dbi-berlin.de/vdbhome/vdbho1.htm

[13] Nentwich, Michael: ‘Cyberscience: Die Zukunft der Wissenschaft im Zeitalter der Informations- und Kommunikationstechnologien’; TA-Datenbank-Nachrichten Nr. 2 (Juli 1999)

[#anfang Seitenanfang]


Metadaten vereinfachen die Recherche und das Retrieval durch Strukturinformationen; wie klassische Bibliothekskataloge, die mit einem strukturierten Satz von bibliografischen Angaben den archivierten Bestand beschreiben, stellen sie ‘Information über Information’ bereit. Auch die Tags in HTML-Dokumenten sind Metadaten; sie sagen dem Browser, wie er eine Webseite auf dem Display darstellen soll.

In der Form von ‘Meta-Tags’ bieten sie die Möglichkeit, dem Dokument bibliografische Angaben mitzugeben. Getrennt vom Textteil (‘Body’) werden sie in einem besonders markierten Vorspann, dem ‘Head’, untergebracht und ihre Sonderstellung mit dem Stichwort ‘Meta’ gekennzeichnet. Diese Informationen werden nicht vom Browser am Bildschirm angezeigt, können aber mit einem Texteditor sichtbar gemacht und von speziellen Suchmaschinen in eine Datenbank überführt werden, beispielsweise durch den Gatherer von Harvest.

Dazu muss man sich aber über die Art und Weise einigen, in der die Meta-Informationen mit Meta-Tags dargestellt werden. Ein solcher Kern (core) von Vorschlägen, der vor etwa zwei Jahren in Dublin, Ohio (USA) von einer Gruppe von Informationswissenschaftlern, Bibliothekaren und Dokumentaren gemacht wurde und sich zu einer Norm entwickelt hat, ist der so genannte ‘Dublin Core’ (http://purl.org/dc). Ursprünglich als Satz von Deskriptoren für Autoren zur Beschreibung ihrer Web-Dokumente gedacht, ist er inzwischen von Museen, Bibliotheken, Behörden und kommerziellen Organisationen zur Charakterisierung ihrer Ressourcen aufgegriffen worden. Der Dublin Core sieht 15 Elemente vor, die als allgemein verständliche Bezeichner von Meta-Tags verwendet werden können und unter anderem die Einordnung von Materialien in ein Klassifikationssystem ermöglichen, so etwa Autor, Titel, Schlagworte, Art des Mediums, ISBN, Copyright, Verfallsdatum.

Die anfängliche Idee der ‘semantischen Interoperabilität’, nämlich eine einheitliche und einfache Ressourcenbeschreibung für gezieltere Internet-Recherchen zu schaffen, deren Komplexität die von Bibliothekskatalogen nicht übersteigt, wird derzeit jedoch von der aktuellen Entwicklung überholt. So stellt das vom World Wide Web Consortium (W3C) verabschiedete Resource Description Format (RDF) eine generische Plattform dar, auf der sich für spezielle Einsatzbereich zugeschnittene Klassifikationssysteme ausdifferenzieren können.

[#anfang Seitenanfang]


Die Erkenntnisse frisch gebackener Doktoren füllen allein in Deutschland jedes Jahr viele hunderttausend bedruckte Seiten. Das Promotionsverfahren an deutschen Universitäten schreibt die Veröffentlichung der jährlich rund 20 000 Dissertationen vor. Dies geschieht entweder als Abdruck in einer anerkannten Fachzeitschrift oder per Nachweis einer Verbreitung über den Buchhandel durch einen gewerblichen Verleger mit einer Mindestauflage von 150 Exemplaren. In der Mehrzahl der Fälle genügt jedoch die ‘Verbreitung’ im Selbstverlag und die Ablieferung von 40 oder 80 gedruckten Exemplaren ‘auf alterungsbeständigem holz- und säurefreiem Papier’ an die Universitätsbibliothek dem Kriterium der Veröffentlichung.

Diese Fülle für Wissenschaftler und andere Interessierte zugänglich zu machen kostet Zeit, Geld und Platz in den Universitätsbibliotheken. Dagegen erlaubt die Bereitstellung einer Dissertation im Internet nicht nur den sekundenschnellen Zugriff auf den gesuchten Titel, sondern auch eine gezielte Recherche nach indizierbaren Bestandteilen wie Begriffen, Schlagwörtern und zitierter Literatur. Zudem hebt sie einige Beschränkungen des Textformats auf, indem sie auch den Zugriff auf Farbillustrationen, VR-Beschreibungen chemischer Verbindungen, Audiodateien mit Sonogrammen des Gesangs von Singvögeln, Demonstrationen der neu entwickelten 3D-Visualisierungssoftware oder Videoaufnahmen des Quastenflossers eröffnet.

Auf Betreiben der IuK-Initiative der Fachgesellschaften hatte die Kultusministerkonferenz im Herbst 1997 beschlossen, auch die elektronische Form als Veröffentlichung zuzulassen - ‘durch die Ablieferung einer elektronischen Version, deren Datenformat und deren Datenträger mit der Hochschulbibliothek abzustimmen sind’.

Als eine der Ersten änderte die TU Chemnitz ihre Promotionsordnung entsprechend, indem sie am 15. April 1998 die Veröffentlichungsanforderungen präzisierte:

‘Der Autor stellt die Arbeit in standardisierter Form (html, postscript, dvi) für das WWW bereit. Der Autor meldet die Arbeit mittels elektronischem Formular zur Archivierung an. Dabei sind mindestens fünf Descriptoren nach Schlagwortnormdatei und eine Aufbewahrungszeit von 10 Jahren einzutragen. Ferner muss der Autor (Archivierende) ein File ‘abstract’ bereitstellen, das eine kurze und prägnante Zusammenfassung der Publikation im ASCII-Format enthält. Zum Nachweis der Anmeldung erhält der Autor eine (automatisch erstellte) Mail mit den Archivierungsdaten, die er zur Bestätigung im Dekanatsbüro vorlegt.

Der Autor übergibt sechs gedruckte Exemplare mit dem URL seiner Arbeit auf dem Titelblatt an die Universitätsbibliothek und erhält dafür sowie über die vorgenommene Archivierung eine Quittung.’

Ähnliche Regelungen haben inzwischen eine Reihe von Universitäten und Fachbereichen eingeführt. So akzeptiert die Universitätsbibliothek Duisburg die elektronische Veröffentlichung von Dissertationen in einem der gängigen Textverarbeitungsformate (Word, LaTex, html) und in PostScript auf 3,5"-Disketten, CD-ROM oder als E-Mail Attachment, falls das Dekanat des Fachbereichs sich damit einverstanden erklärt hat - und unter der Voraussetzung, dass der Doktorand nach wie vor vier Printversionen seines Werkes abliefert.

In den USA ist man schon ein Stück weiter. Die Bibliothek der Technischen Universität in Blacksburg (Virginia), Virginia Tech, verlangt seit Januar 1997 elektronische Versionen von Diplomarbeiten und Dissertationen und akzeptiert kein Papier mehr. Seither haben sich mehr als 60 Universitätsbibliotheken in der National Digital Library of Theses and Dissertations NDLTD zusammengeschlossen. Aus ihr entsteht zurzeit gerade die ‘Networked University Digital Library (NUDL)’-Initiative, an der sich auch ausländische Einrichtungen beteiligen können (www.ndltd.org).

In der Bundesrepublik archivierte bislang Die Deutsche Bibliothek (DDB) in Frankfurt/Main jeweils ein Belegexemplar jeder Dissertation; seit dem 1. Juli 1998 nimmt sie diese auch in elektronischer Form von den zuständigen Universitätsbibliothek entgegen und will sie künftig über das Internet frei verfügbar machen. Noch sind allerdings nicht alle Fragen befriedigend gelöst, so etwa die Dokumentformate und ihre Konvertierbarkeit (beispielsweise die Umstellung auf RDF), die Authentifizierung und Unveränderbarkeit sowie die Katalogisierung anhand einheitlicher und dissertationsspezifischer Metadaten. Sie werden derzeit in dem Projekt ‘Dissertationen Online’ mit Unterstützung der Deutschen Forschungsgemeinschaft (DFG) und von einer Arbeitsgruppe der IuK-Initiative der fünf Fachgesellschaften (Deutsche Gesellschaft für Erziehungswissenschaft, DGfE, Deutsche Mathematiker-Vereinigung, DMV, Deutsche Physikalische Gesellschaft, DPG, Gesellschaft deutscher Chemiker, GDCh, Gesellschaft für Informatik, GI) in sieben Teilprojekten bearbeitet.

Auf einem speziellen Gebiet stellt ‘Dissertationen Online’ ein Testbett für das Electronic Publishing dar. So haben die Forscher in Zusammenarbeit mit der Deutschen Bibliothek ein Programm erarbeitet, das die wissenschaftlichen Texte mit Metadaten, also den zur Recherche notwendigen Strukturinformationen, versieht; es wird derzeit an der Duisburger Universitätsbibliothek erprobt. Ein weiteres Teilprojekt beschäftigt sich mit der Entwicklung einer Search Engine für das Retrieval. Breiten Raum nimmt auch die Untersuchung von Multimediaformaten und die Erweiterung der für eine multimediale Wissensrepräsentation benötigten Datenformate ein.

‘Dissertationen Online’ ist in dem Lenkungsausschuss der amerikanischen NUDL-Initiative vertreten. Die Koordination des Projektes liegt in der Hand von Peter Diepold von der Humboldt-Universität Berlin. Autoren-Hinweise für Doktoranden sind auf dem Projektserver abrufbar [#lit5 [5]].

[#anfang Seitenanfang]


MathNet (www.math-net.de) ist ein verteiltes Informationssystem für die Mathematik, das auf den lokalen Informationsangeboten der Fachbereiche basiert. Es besteht aus einem WWW-basierten Netz von Servern an den mathematischen Fachbereichen, das den Zugriff auf einen Preprint-Server MPRESS, auf ein elektronisches Verzeichnis von Mathematikern an deutschen Instituten (Persona Mathematica), einen Katalog mathematischer Software (Elib) und eine Suchmaschine für die relevanten Ressourcen (SIGMA) umfasst.

Der verteilten Architektur und dem effizienten Zugriff liegt eine standardisierte Beschreibung der Dokumente mit den auf die Bedürfnisse der Mathematik angepassten bibliografischen Metadaten des Dublin Core Sets zu Grunde. Diese Informationen werden auf lokaler, regionaler und überregionaler Ebene vom Harvest-System gesammelt und indexiert, und - anders als bei konventionellen Suchmaschinen, die keinen Refresh-Mechanismus kennen - regelmäßig erneuert, sodass über den MathNet-Zugang stets die aktuellen Daten zur Verfügung stehen.

Harvest ist ein von der Internet Research Task Force on Resource Discovery unter der GNU Public License entwickeltes, Unix-basiertes und modulares Indexiersystem. Seine Kernbestandteile sind die Gatherer und Broker. Das Sammeln der Informationen durch die Gatherer ist hinsichtlich des Pfades, der Dokumenttypen und der in den Dokumenten enthaltenen Metadaten (etwa von Autor und Titel in Latex-Dateien) weitgehend konfigurierbar. Diese Indexdaten bietet der Gather-Dämon ‘gatherd’ in einem standardisierten Format (Summary Object Interchange Format, SOIF) über das Netz an, wo ein Broker sie übernimmt und verwaltet. Der Broker baut aus den SOIF-Daten von mehreren Gatherern (oder auch von anderen Brokern) ebenfalls eine Indexdatenbank auf. Er ist, als Query-Manager, die Anlaufstelle für Suchanfragen.

Die verteilte Struktur von MathNet beruht nun darauf, dass jede Einrichtung selbst einen Gatherer installieren kann, der seine Daten einem regionalen Broker zur Verfügung stellt; die Indexierung findet somit vor Ort statt und es muss nicht jedes Mal zur Extraktion der Metadaten der gesamte Serverinhalt über das Netz zu einer Indexiermaschine geschickt werden. ‘Durch die hierarchische Indexierung mit Harvest’, so Projektleiter Wolfgang Dalitz vom ZIB, ‘ist das System weltweit beliebig skalierbar’. Beispielsweise auf die rund 1500 Forschungseinrichtungen in der Mathematik oder die 5000 Physik-Fachbereiche in aller Welt, aber das zuständige Referat des BMBF winkte ab. Es sah die Interessen der wissenschaftlichen Verlage gefährdet.

In dem Projekt, das von 1997 bis zum März dieses Jahres von DeTeBerkom, der Forschungstochter der Deutschen Telekom AG, und dem DFN-Verein gefördert wurde, wurde insbesondere auch der Bereich der ‘Grauen Literatur’ von Preprints erschlossen, der für den Zugang zu aktuellen Forschungsresultaten immer wichtiger wird. International hat das Konzept breite Beachtung und Akzeptanz gefunden. Mit dem MPRESS-System (mathnet.preprints.org) ist daraus ein globales Preprint-System für die Mathematik entstanden, das inzwischen Informationen über mehr als 30 000 Vorab-Veröffentlichungen enthält.

Nach Auslaufen des Projekts im März 1999 wird das MathNet durch die Fachgruppe ‘Information und Kommunikation’ der DMV weiterentwickelt und fortgeführt. Der Schwerpunkt der Arbeiten liegt jetzt auf der Einbettung der Dublin Core Metadaten in das Resource Description Framework (RDF) und der Erschließung der Möglichkeiten, die dieser neue W3C-Standard für das Knowledge Management und die fachspezifische Kommunikation der mathematischen Community bietet.

In diesem Jahr hat das Committee on Electronic Information and Communication (CEIC) der International Mathematical Union (IMU) die Dachorganisation aller mathematischen Fachgesellschaften - beschlossen, das MathNet-Konzept der verteilten Informationsversorgung aufzugreifen und als weltweite Infrastruktur für die mathematischen Fachbereiche und Forschungsinstitute einzuführen.

Das Informations- und Publikationssystem der Physiker, PhysNet (www.physik.uni-oldenburg.de/EPS/PhysNet/physnet.html), stimmt in Konzept und Architektur mit MathNet überein und verwendet denselben Satz von Metadaten. Es wird von der European Physical Society organisiert. Das System verzeichnet pro Tag mehr als 1000 Suchzugriffe auf den Bestand von 100 000 Dokumenten. Mit rund 5000 Links sind weltweit nahezu alle Physik-Fachbereiche erfasst.

[#anfang Seitenanfang]


MeDoc

‘Multimediale elektronische Dokumente’ (MeDoc) war ein im September 1995 gestartetes Verbundprojekt (medoc.informatik.tu-muenchen.de), an dem sich 23 Universitäten, Fachhochschulen, Forschungseinrichtungen und Unternehmen beteiligten und das unter der Leitung eines Konsortiums aus der Gesellschaft für Informatik (GI), des Heidelberger Wissenschaftsverlag Springer sowie des Fachinformationszentrums (FIZ) Karlsruhe stand. Ziel war der Aufbau der ersten Volltext-Netzbibliothek auf der Basis des Internet für den Bereich der Informatik-Fachliteratur.

Der MeDoc-Dienst sollte als Vermittler zwischen den Verlagen und den Nutzern auftreten und die Rolle eines Anbieters von elektronischer Fachinformation übernehmen. Man entwickelte Geschäftsmodelle, arbeitete Musterlizenz- und Nutzungsverträge aus und richtete deutschlandweit sechs Server ein, die die entsprechenden Dokumente vorhalten. Dazu wurden mit 13 Verlagen Lizenzvereinbarungen über 42 Monografien, drei Lexika, ein Tagungsband und neun Zeitschriften abgeschlossen, die in das System eingespeist wurden und 34 lizenznehmenden Instituten den Zugriff auf die Werke erlaubten. Daneben installierte man an der FU Berlin einen elektronischen Nachweisdienst für die informatikrelevante Internet-Literatur, die Suchmaschine ARIADNE (ariadne.inf.fu-berlin.de:8000).

InterDoc

Ursprünglich sollte MeDoc nach der zweijährigen Förderungsphase ‘in einer wirtschaftlich tragfähigen Form’ weitergeführt werden. Dieses Ziel ist nicht erreicht worden. Stattdessen gab es ein Brückenprojekt ‘Interdisziplinäre Dokumentenverarbeitung auf Basis des MeDoc-Dienstes’ (InterDoc), das als Sonderfördermaßnahme schnell eingesetzt wurde, als MeDoc ausgelaufen war, ohne dass bereits ein Nachfolgekonzept gefunden war (interdoc.offis.uni-oldenburg.de). Darin wurde unter der Projektleitung der TU Braunschweig der MeDoc-Dienst evaluiert und für den Zugriff auf 60 Bücher und fünf Zeitschriften von 12 Verlagen durch 45 Nutzerinstitutionen verschiedene Lizenz- und Abrechnungsmodelle - Individuallizenzen, so genannte Gleitlizenzen (einwöchige Dauer zu 20-30% des Ladenpreises), Campus-Lizenzen für Zeitschriften - erprobt. Beteiligt waren neben einigen Hochschulen das Fast eV-Konsortium, dem eine Reihe von Informatik-Verlagen - darunter Addison Wesley, International Thomson Publishing, Springer, Teubner und Vieweg - angehörten.

Der MeDoc-/InterDoc-Dienst wurde während der gesamten Förderungsdauer von den Adressaten der Fachinformation nicht angenommen. Aufschluss über das Nutzerverhalten gaben die Logdateien der Webserver, ‘in denen’, wie sich bei der Evaluation herausstellte, ‘selten ein Name mehrfach auftaucht’. Die Software drohe ‘schnell zu veralten’, sei nicht portabel, sondern liefe nur auf Sun Workstations, und beim Zusammenfügen der Komponenten sei nicht immer darauf geachtet worden, ‘internationale Standards zu verwenden’ [#lit4 [4]]. An die Ausweitung von der Informatik auf andere Fachgebiete war nicht zu denken. Am Ende waren nicht einmal mehr die beteiligten Verlage von der Tragfähigkeit des Ansatzes überzeugt. Er glaube nicht daran, dass auf dieser Plattform eine kritische Masse herzustellen und breite Akzeptanz zu finden sei, resümierte beispielsweise der Springer-Verlag und sah ‘daher keine Grundlage, bei der Fortführung des InterDoc-Projektes mitzuwirken’.

Global-Info

Anfang 1998 wurde dann das Projekt ‘Globale Elektronische und Multimediale Informationssysteme für Naturwissenschaft und Technik’ (Global-Info) gestartet, für das das BMBF 60 Mio DM über einen Gesamtzeitraum von sechs Jahren in Aussicht stellte. Global-Info (www.global-info.org) konzentriert sich auf fünf Schwerpunkte: 1. Bearbeitung und Präsentation von Inhalten, 2. Vernetzung von Lehr- und Lernmaterialien, 3. formale Beschreibung, Identifikation und Retrieval, Metadaten, Vernetzung, 4. Nutzung von Inhalten, 5. Wirtschaftlichkeitsmodelle und Abrechnung.

Gesteuert werden die Aktivitäten vom Global-Info Consortium (GIC), dem Vertreter wissenschaftlicher Fachgesellschaften, der Verlage, der Bib-liotheken und der Fachinformationszentren angehören.

Schon in der Anlaufphase traten tief greifende Differenzen zwischen den Fachwissenschaftlern und dem BMBF auf, weil das zuständige Bonner Referat die Projektdefinition nicht dem GIC allein überlassen wollte, sondern nach der bereits abgeschlossenen Begutachtung mit eigenen Anhörungen in das Verfahren eingriff und selbst eine Auswahl traf. Das GIC empfand dies als ‘Desavouierung’; es ‘missbilligt das vom BMBF initiierte Verfahren’ und mahnt ‘eine nachvollziehbare Art und Weise’ der Entscheidungsfindung an, heißt es in einem Beschluss vom Februar dieses Jahres.

Nach dem Rücktritt einiger führender Fachwissenschaftler beschloss daraufhin das GIC Mitte des Jahres, im Rahmen von Global-Info nicht mehr gutachterlich für das BMBF tätig zu werden. ‘Die bislang gleichzeitig ausgeübte Funktion der operativen Projektleitung’, hielten die verbliebenen Mitglieder des Gremiums im Protokoll fest, ‘wird nicht weitergeführt’. Vorhang zu, und alles offen.

[#anfang Seitenanfang]


Das Resource Description Framework (RDF), dessen Spezifizierung im Februar des Jahres vom W3C verabschiedet wurde (www.w3.org/TR/PR-rdf-syntax/), ist eine weitere konkrete Ausgestaltung der XML-Syntax (Extensible Markup Language) zum Zwecke der Übermittlung von Metadaten. Er führt in das WWW so etwas Ähnliches wie einen Bibliothekskatalog ein und wird das Retrieval von Dokumenten bei größerer Treffsicherheit wesentlich beschleunigen.

RDF legt die Grundlage zur maschinellen Verarbeitung von Metadaten, die Inhalte und inhaltliche Beziehungen zwischen Webdokumenten beschreiben oder bewerten; sie können zur Sicherung der Authentizität digital signierte Urheberrechtsvermerke, Document Identifiers oder Gutachter-Zertifikate enthalten, Dokumente nach etablierten, hierarchisch aufgebauten Klassifikationssystemen (in der Wissenschaft etwa der Mathematics Subjects Classification, MSC) bestimmten Fachgebieten zuordnen, oder Filterregeln für Nutzer und Anbieter von Informationen angeben.

Die Strukturierung des Informationsraumes mit RDF-Metadaten wird das Retrieval bestimmter Dokumente erheblich vereinfachen und effektivieren. Search Engines brauchen dann nicht im gesamten Web nach dem Bifurcations-Experten Anton Mueller zu fahnden - womit sie heute schon überfordert sind, weil selbst die besten Suchmaschinen nur einen Bruchteil des WWW erfassen, sondern können die Suche gezielt auf den durch die Metadaten Autor ‘Mueller’ in dem Fachgebiet MSC 34A47 ‘Bifurcation’ charakterisierten Teilraum beschränken.

Durch die Objektorientierung des RDF-Modells ist die Flexibilität beim Aufkommen neuer Metadaten-Definitionen gewährleistet; Teile der alten können ’wiederverwendet’ oder unterschiedliche Schemata kombiniert werden. Beim Thema ’Bifurcation’ etwa gibt es Überschneidungen der Mathematik mit der Evolutionsbiologie, die durch die Kombination der entsprechenden RDF-Metadatenklassen abgebildet werden können. Ohne dabei Annahmen über die speziellen Anwendungsbereiche und die dort verwendete Semantik zu machen, ermöglicht RDF als generischer Standard beliebige Strukturierungen und unterschiedliche Sichtweisen auf ein und denselben Datenbestand.

Noch ist alles im Fluss; und das Ausmaß der Transformation des WWW durch XML und RDF nicht absehbar. ‘Das Knowledge Management durch das inhaltliche Clustern von Dokumenten im Web wird noch nicht in diesem oder im nächsten Jahr kommen’, meint der Sprecher der IuK-Fachgruppe in der Deutschen Mathematiker-Vereinigung, Wolfram Sperber; ‘aber das Potenzial ist gewaltig’.

[#anfang Seitenanfang]


Arnoud deKemp

Bereichsleiter für Marketing, Sales und Corporate Development im wissenschaftlichen Springer-Verlag

‘Solange wir noch in der gedruckten Welt leben und solange die Buchstaben noch das Wort führen, ist das Printmodell das Hauptmodell. Wir ermöglichen kostenlos den parallelen Zugang zu der elektronischen Version - das ist nicht kostenlos für uns, aber wir stellen es nicht in Rechnung - und erzielen damit eine enorme Wertschöpfung innerhalb des Abonnements. Dazu gibt es dann auch noch multimediale Supplemente, Audio-Files, Videosequenzen, Labormanuale, Computer-Simulationen oder das Farbdia zu der Schwarzweiß-Abbildung im Text.’

[#anfang Seitenanfang]


Prof. Dr. Martin Grötschel

lehrt an der TU Berlin und ist Vizepräsident des Konrad-Zuse-Zentrums für Informationstechnik in Berlin

‘Die eigentliche Frage ist, wer, was, wann, wie und wo im wissenschaftlichen Publikationswesen leistet, wer wie viel Geld wofür erhält, und wie viel Geld zur Verfügung steht. Wenn die anderen Akteure in ihren Positionen verharren und keine rechten Ideen hervorbringen, wie es weitergehen soll, werden die Wissenschaftler den Übergang zum elektronischen Publizieren in die Hand nehmen müssen.’

Anzeige