Sietmann, Richard: Zirkelspiele, in: c't, Verlag Heinz Heise, 20 1999.

THEMES: Sietmann, Richard
YEAR: 1999
 
http://www.heise.de/ct/



    Richard Sietmann

    Zirkelspiele

    Die wissenschaftliche Literaturversorgung steckt weltweit in der Krise

    Wissenschaftliche Zeitschriften werden immer teurer, die Bibliotheken können nicht mehr mithalten. Doch bei der Umstellung auf das elektronische Publizieren blockieren sich die Akteure gegenseitig.

    Der Schritt war ungewöhnlich. Anfang des Jahres richtete die Kommission des Deutschen Bibliotheksinstituts für Erwerbung und Bestandsentwicklung einen offenen Brief an sieben führende Wissenschaftsverlage. ‘Der Markt für wissenschaftliche Fachinformation droht zu kollabieren’, hieß es darin; ‘die Kassen der öffentlichen Hand sind leer. Die Etats der Bibliotheken stagnieren oder sinken. Ihre Kunden sind objektiv nicht mehr in der Lage, die von Ihnen angekündigten erhöhten Preise zu zahlen.’

    Die Bibliotheken stehen mit dem Rücken an der Wand. Zahlungsunfähig, müssen sie ein Abonnement nach dem anderen kündigen. Hielt die Universitätsbibliothek der TU Berlin beispielsweise bis 1990 circa 10 000 Zeitschriftentitel, sind es heute noch etwa 7400. ‘Wir haben allein im letzten Jahr 300 Zeitschriften abbestellen müssen’, berichtet der Leiter der Erwerbungsabteilung, Georg Malz: ‘in diesem Jahr bereiten wir in bestimmten Fachgebieten weitere Abonnementkündigungen vor, weil uns die Preise besonders im naturwissenschaftlichen Bereich über den Kopf gewachsen sind.’

    Wie sehr sich die Lage insgesamt verschlechtert hat, verdeutlichen einige Vergleichszahlen: Den deutschen Universitätsbibliotheken stehen für Erwerbungen jährlich insgesamt rund 225 Millionen Mark zur Verfügung; 1997 lag das Etatvolumen nominal nur 1,3 % über dem von 1991. Doch im gleichen Zeitraum verteuerten sich die Zeitschriften im Bereich der Geistes- und Sozialwissenschaften um durchschnittlich 27 % und in den Natur- und Ingenieurwissenschaften um 77 %.

    Die Krise ist kein isoliertes deutsches Problem. Die amerikanische Association of Research Libraries (ARL) ermittelte, dass der Durchschnittspreis pro Zeitschrift von 1987 bis 1997 um 169 % angestiegen war, dreimal so stark wie die Inflationsrate. Die ihr angeschlossenen 122 Bibliotheken mussten 1997 für sieben Prozent weniger Zeitschriftentitel 124 Prozent mehr an Abonnementkosten aufbringen [1]. Im selben Jahr erzielte der Marktführer unter den Verlagen, Reed-Elsevier, allein im Geschäftsbereich Wissenschaft einen Gewinn von 230 Millionen Pfund auf einen Umsatz von 571 Millionen Pfund [2].

    Pseudomarkt

    Dass die wissenschaftlichen Verlage so üppig zulangen können, liegt an den Besonderheiten eines Marktes, der in Wahrheit keiner ist. Der Vizepräsident des Konrad-Zuse-Zentrums für Informationstechnik (ZIB), Martin Grötschel, beschreibt ihn als ‘Anhäufung von atomistisch kleinen Nischen’, in denen oft nur ein einziger Titel einer kleinen, aber hochspezialisierten Forschergemeinde als Sprachrohr dient. Zeitschriften zur altfranzösischen Literatur stehen nicht im Wettbewerb zu Journalen in der Algebra; auf beiden Feldern sind zwar Publisher tätig, aber sie müssen um Autoren und Abonnenten nicht konkurrieren. ‘Daraus resultieren die absurden Preisstrukturen.’

    Das Konrad-Zuse-Zentrum für Informationstechnik propagiert das dezentrale Modell der Informations- und Literaturversorgung.

    Weltweit haben sich nur wenige Peer-Review-Zeitschriften fächerübergreifend als Leitmedien für die Wissenschaft etablieren und behaupten können. Die Flaggschiffe sind ‘Science’ von der American Association for the Advancement of Science (AAAS) und die britische ‘Nature’, die von Macmillan Magazines Ltd. - seit kurzem ein Tochterunternehmen der Holtzbrinck-Gruppe - herausgegeben wird. Beide Zeitschriften decken noch das gesamte Spektrum der naturwissenschaftlichen Forschung ab. Bei den meisten anderen sichern die staatlichen Abnehmer selbst hochpreisigen Produkten in kleinster Auflage die Existenz. Der Gang der Wissenschaft hat in beispielloser Weise zur Ausdifferenzierung immer neuer Teilgebiete geführt und das Ausufern der Zeitschriftenlandschaft nach sich gezogen. Herausgeber einer Zeitschrift zu sein krönt, mehr noch als die Zahl der Veröffentlichungen in renommierten Journalen, die Biografie. Das Karrierestreben der Forscher und die Geschäftstüchtigkeit der Verlage gingen Hand in Hand.

    Die Situation zeigt auffallende Parallelen zur Kostenexplosion im Gesundheitswesen, wo weder Ärzte ihre medizinischen Angebote noch die Patienten die Inanspruchnahme von Leistungen einschränken wollen, solange sie Verträge zu Lasten Dritter schließen können. Im wissenschaftlichen Publikationswesen befinden sich die Bibliotheken - und indirekt der Steuerzahler - in einer ähnlichen Rolle wie die Krankenkassen: Sie müssen die Mittel zur Literaturversorgung aufbringen und können das Verhältnis von Angebot und Nachfrage nicht beeinflussen.

    Jetzt aber rast das System auf eine Wand zu, an der die erfolgreiche Symbiose zu zerschellen droht, weil es nicht mehr finanzierbar ist. Die regelmäßigen Preiserhöhungen führen mit derselben Regelmäßigkeit zu Abbestellungen und reduzieren die Auflagen; die rückläufigen Verkaufszahlen kompensieren die Verlage wiederum durch weitere Preiserhöhungen - eine tödliche Spirale, die inzwischen die Produktions-, die Distributions- und die Rezeptionsprozesse in der Wissenschaft gefährdet. ‘Das ist ein Teufelskreis’, meint Georg Malz wie viele seiner Kollegen. ‘Weil die Zeitschriften zu teuer sind, bestellen die Universitätsbibliotheken sie ab; dadurch sinkt die Auflage, und der Preis steigt weiter.’ Denn weil die Verlage mit einem konstanten Fixkostenblock operieren, verteilen sie die Kosten auf einen kleineren Kreis von Abonnenten.

    Frühe Rebellen

    Aber der Umsturz ist schon in vollem Gange. Wie oftmals Revolutionen kündigte er sich in kleinen Schritten an. Das World Wide Web hat die Randbedingungen des wissenschaftlichen Publikationswesens einschneidend verändert. Die erste Zäsur kam 1991, als Paul Ginsparg vom Los Alamos National Laboratory damit begann, die Preprints, die ihm Kollegen aus aller Welt per E-Mail zuschickten, auf einen Server zu legen und damit einer größeren Fachöffentlichkeit zugänglich zu machen. Der Server http://xxx.lanl.gov/ in Los Alamos bedient inzwischen zehntausende von Nutzern in aller Welt und verzeichnet pro Woche etwa 600 000 Zugriffe. Rund 2500 ‘Paper’ werden hier jeden Monat neu abgelegt. Das Spektrum hat sich von der Elementarteilchenphysik längst auf zahlreiche andere Gebiete von der Astrophysik bis zur Optik, der Algebraischen Geometrie bis zur Wahrscheinlichkeitstheorie ausgeweitet.

    In der Physik und Mathematik ist Ginspargs Server der schnellste Weg zur Kommunikation mit den Fachkollegen; er hat die gedruckte Literatur überholt, aber nicht vom Markt verdrängt. Die Verlage tolerierten notgedrungen, dass die Autoren Erstveröffentlichungsrecht und Copyright unterliefen - nicht zuletzt deshalb, weil das der wachsenden Kritik an den monatelangen Vorlaufzeiten vom Einreichen des Manuskripts bis zum Erscheinen der Veröffentlichung in den Bibliotheksregalen die Spitze nahm. Einen Musterprozess hätten sich die Verlage in der fragilen Situation wohl auch kaum leisten können, denn damit hätten sie nur die Autoren auf die Barrikaden getrieben und eine Entwicklung beschleunigt, an der ihnen nicht gelegen sein kann.

    Die digitale Bibliothek im Vestibül der Humboldt-Universität Berlin

    Spektakulärer war die Aktion von Michael Rosenzweig, einem prominenten Ökologen an der University of Arizona, der 1984 mit dem britischen Verlag Chapman & Hall die Zeitschrift ‘Evolutionary Ecology’ ins Leben gerufen hatte. Damals bezahlten die Bibliotheken unter den weltweit 400 Abonnenten 100 Dollar und Einzelabonnenten 35 Dollar für den Jahrgang. Dann kam es zu einer feindlichen Übernahme der Aktienmehrheit an Chapman & Hall durch die International Thomson Corporation (ITC), in deren Folge sich das Abonnement um 275 % verteuerte. Nachdem der Verlag Anfang 1998 erneut den Besitzer wechselte und an den holländischen Verlag Wolters-Kluwer verkauft wurde, setzten die neuen Eigner den Bibliothekspreis sofort von 464 auf 777 Dollar herauf und schafften zudem die Individual-Abonnements zu Vorzugspreisen ab. Rosenzweig verließ daraufhin unter Protest mitsamt der 34-köpfigen Redaktion das Unternehmen und gründete ein neues Magazin, ‘Evolutionary Ecology Research’, das er für 305 US-$ im Selbstverlag herausgibt und das nun in erster Linie elektronisch vertrieben wird (www.evolutionary-ecology.com); eine Papierversion soll jedoch vorläufig beibehalten werden. ‘Emotional sind die Autoren aus irgendwelchen Gründen noch nicht auf ein reines Internet-Journal eingestellt’, begründet Rosenzweig das vorsichtige Herangehen; ‘sie möchten ihre Arbeiten noch im altmodischen Druck wiederfinden.’

    Einkaufsgemeinschaften

    Einen Abschied von Gutenberg wird es also so schnell nicht geben, obwohl sich auch die etablierten Wissenschaftsverlage längst der Herausforderung durch das Internet gestellt haben. Elsevier bietet zurzeit mehr als 1200 Zeitschriften online an, Springer 419, Academic Press 174. Suchmaschinen ermöglichen die gezielte Suche nach Fachaufsätzen über alle Zeitschriftentitel. Obwohl der elektronische Vertrieb Lagerhaltungs- und Distributionskosten einsparen könnte, billiger ist es dadurch nicht geworden. Die Strategien, die die Preis- und Vertriebspolitik der weltweit rund 300 Verlage aus dem STM-Bereich (Science, Technology, Medicine) bestimmen, zielen vielmehr darauf ab, die bisherigen Umsätze im Bereich der Print-Zeitschriften zu stabilisieren und auszubauen. Dabei soll das Angebot von Parallelversionen im Netz zusätzliche Erträge bringen.

    Im Unterschied zu den bisher praktizierten Subskriptions-, Site-License- oder Pay-per-view-Modellen tragen beim New Journal of Physics die Autoren die Kosten des Peer Review; das E-Journal ist für die Leser kostenlos.

    Auf der anderen Seite, um ihre Position gegenüber den kommerziellen Anbietern zu stärken, schließen sich die Bibliotheken zunehmend zu regionalen ‘Einkaufsgemeinschaften’ zusammen und handeln die Konditionen gemeinsam aus. Der erste Konsortialvertrag kam 1997 in Nordrhein-Westfalen zwischen acht Universitätsbibliotheken und Elsevier zu Stande. In Berlin und Brandenburg machen fünf Hochschulen und zahlreiche außeruniversitäre Institute im Friedrich-Althoff-Konsortium gemeinsame Sache, um im Verbund die Literaturversorgung zu optimieren und allen Mitarbeitern der beteiligten Einrichtungen den Zugriff auf die elektronischen Journale zu sichern. So hat die TU Berlin beispielsweise nur 123 Titel aus dem Elsevier-Sortiment abonniert, gewinnt über das Konsortium aber den Zugriff auf 530 Zeitschriften des Verlages. Ähnliche Vereinbarungen gibt es mit Springer und Academic Press.

    Die Paketlösungen könnten sich jedoch durchaus als Bumerang erweisen, weil sie die Abnehmer an die großen Verlage binden. So kann eine angeschlossene Bibliothek beispielsweise einzelne Titel nicht mehr abbestellen, wenn sie stattdessen die Zeitschrift eines anderen Verlages abonnieren will. Zudem hat das System einen weiteren gravierenden Nachteil: Der Online-Zugriff ist nur den Mitarbeitern und Studenten der angeschlossenen Institute möglich.

    Neue Ansätze

    In der ‘Akademischen Gemeinschaft’ gibt es daher schon sehr viel weiter gehende Überlegungen zu alternativen Ansätzen. Die radikalsten Vorstöße kommen aus den USA, wo die preistreibende Politik der Verlage zunehmend Gegenreaktionen auslöst. Als Hebel zur Umgestaltung des wissenschaftlichen Publikationswesens gelten insbesondere die Trennung des Peer Review vom Verlagsgeschäft, die restriktivere Handhabung des Urheberrechts, sowie der Aufbau alternativer Vertriebswege und Distributionsplattformen.

    Eine subversive Idee, die das konservative Qualitätsbewusstsein mit dem radikalen Abschied vom Papier verbindet, hat unlängst Stevan Harnad von der Multimedia Research Group im Electronics and Computer Science Department der University Southampton in die Debatte geworfen. Er schlägt vor, die Begutachtungskosten nicht dem Leser (bzw. dem Bibliotheksetat), sondern dem Autor oder seiner Heimatinstitution aufzubürden. Die Deutsche Physikalische Gesellschaft und das britische Institute of Physics haben sich bereits auf das Experiment eingelassen: Bei dem neuen New Journal of Physics (http://njp.org) müssen Autoren beim Einreichen des Manuskripts einen Scheck über 500 Dollar beilegen; die Lektüre ist kostenlos, und schon die ersten NJP-Paper haben etliche tausend Leser heruntergeladen.
    Den zweiten Hebel bietet die restriktivere Handhabung des Urheberrechts. Nach dem amerikanischen Urheberrechtsgesetz gibt es für die Arbeiten von Angehörigen des Öffentlichen Dienstes keinen Copyright-Schutz. Deren Veröffentlichungen gelten als Public Domain und können von jedermann frei genutzt werden. Gleichwohl haben die STM-Verlage in der Praxis bislang von den Autoren die Abtretung des Copyrights ihrer Veröffentlichungen verlangt und damit faktisch die Möglichkeit zur unabhängigen Online-Veröffentlichung durch die Autoren unterbunden. Eine zwölfköpfige Studiengruppe der American Academy of Arts and Sciences, der Wissenschaftler, Bibliothekare und Verlagsvertreter angehören, hat kürzlich den Finger auf die offene Wunde gelegt und an die Rechtslage erinnert.


    Das dritte Element der Strategie zur Kostendämpfung und gleichzeitiger Förderung des Electronic Publishing besteht in dem Aufbau alternativer Plattformen für E-Journale. So startete die ARL vor einem Jahr die Scholarly Publishing and Academic Resources Coalition (SPARC) (www.arl.org). Sie will Fachgesellschaften und kleinere Verleger zum Wettbewerb mit den etablierten kommerziellen Verlagen ermuntern und ihnen ein gemeinsames Distributionsdach für die elektronischen Journale anbieten. Als Erste war die American Chemical Society dabei; unlängst schloss sich die britische Royal Society of Chemistry der Initiative an.

    Eine weitere Kampfansage kam von der Stanford Universitätsbibliothek. Sie hat ein gemeinnütziges Unternehmen, HighWire Press, ins Leben gerufen, das wie SPARC ein zweifaches Ziel verfolgt: Es soll Universitäten und Fachgesellschaften Hilfestellung beim kostengünstigen Verlegen von Zeitschriften geben und zugleich verhindern, dass die kapitalkräftigen Marktführer angesichts der Investitionen in das Electronic Publishing die Kleinverlage im Wettbewerb erdrücken.

    HighWire Press ist wie SPARC eine Vertriebsgemeinschaft, die von der ‘Academic Psychiatry’ bis zur ‘Thorax’ bereits mehr als 250 E-Journale im Portefeuille hat; dazu gehören das weltweit am meisten zitierte ‘Journal of Biological Chemistry’ sowie die ‘Proceedings of the National Academy of Sciences’. Ende letzten Jahres brachte die britische Oxford University Press ihre 160 Zeitschriften in das Unterfangen ein und übertrug HighWire Press die Abwicklung der elektronischen Produktion und das Webhosting (http://intl.highwire.org).

    Den jüngsten und zurzeit umstrittensten Vorstoß startete der Präsident des amerikanischen Bundesgesundheitsamtes, Harold Varmus, Mitte dieses Jahres mit dem Ziel, am National Institute of Health (NIH) ein umfassendes Online-Archiv für die mit öffentlicher Förderung entstandenen biomedizinischen Veröffentlichungen und Daten einzurichten. Das Archiv - ursprünglich ‘E-biomed’ genannt und jetzt in ‘E-biosci’ umgetauft, nachdem sich herausstellte, dass der vorgesehene Titel bereits rechtlich geschützt ist - soll jedermann und jederfrau mit Computer und Internet-Anschluss ‘den freien, schnellen und vollständigen Zugang zur gesamten biomedizinischen Forschungsliteratur’ verschaffen (www.nih.gov).

    Als Zuwendungsgeber verfügt das NIH über ein starkes Druckmittel. Mit einem Gesamthaushalt von knapp 16 Milliarden Dollar ist das Bundesgesundheitsamt nach dem Energieministerium (17,8 Mrd $) und noch vor der NASA (13,6 Mrd $) der zweitgrößte Finanzier von Forschung und Entwicklung in den USA. Während SPARC und HighWire Press auf die Kooperation der Autoren angewiesen sind, kann die Behörde die Vergabe von Projektmitteln an die Bedingung knüpfen, dass das Copyright der nachfolgenden Veröffentlichungen bei den Autoren - im Extremfall sogar beim NIH selbst - verbleibt und die Aufsätze in elektronischer Form über E-biosci öffentlich zugänglich gemacht werden.

    Unklar ist, in welcher Weise die Verlage sich - wenn überhaupt - an E-biosci beteiligen können - ob mit Abstracts, Volltext oder nur den URLs zu den Artikeln auf ihren eigenen Servern. Einige haben bereits die Absicht bekundet, auch die Volltexte über den kostenlosen E-biosci-Zugang bereitzustellen, wollen dies aber erst mit einer Verzögerung von einigen Wochen bis zu sechs Monaten nach dem Erscheinen der Zeitschrift bei den Abonnenten tun. Der Ausgang der Kontroverse ist offen.

    Das Parallelvorhaben im benachbarten Energieministerium, PubScience, findet da schon eher das Wohlwollen der Verlage. Die Forschungsabteilung des Department of Energy (DoE) plant, noch in diesem Jahr ihre Datenbank mit den Titeln und Abstracts der Artikel von einigen hundert Zeitschriften der Natur- und Ingenieurwissenschaften jedem für das Retrieval über das Internet zu öffnen (www.doe.gov). Das bringt den kommerziellen Verlegern Kunden in den Laden: Links sollen dann das Durchklicken von den Abstracts zu den Volltexten auf den Verlagsservern erlauben, ohne dass ihnen der freie Zugang abverlangt wird. ‘Wir unternehmen keinen Versuch, die Verleger zu ersetzen’, erklärt die Leiterin der Forschungsabteilung im DOE, Martha Krebs; ‘wir wollen es nur einfacher machen, an das veröffentlichte Material heranzukommen.’

    Deutsche Tristesse

    Zu emanzipatorischen Aktionen wie der von Rosenzweig hat sich in Deutschland noch kein Wissenschaftler hinreißen lassen. Bibliotheksinitiativen wie SPARC oder HighWire Press sucht man hier zu Lande vergebens, und auch kein Forschungspolitiker hat bislang derart ketzerische Pläne wie Harold Varmus mit E-biomed vorzubringen gewagt.

    Dabei starteten schon vor fünf Jahren in der Bundesrepublik Bemühungen, die Möglichkeiten des WWW stärker für die wissenschaftliche Kommunikation zu nutzen [3]. Pioniere waren die Physiker, Mathematiker, Informatiker und Chemiker, die in ihren jeweiligen Fachgesellschaften zahlreiche Projekte anstießen, um das Informationsangebot auf den Fachbereichsservern überschaubar zu gestalten und nach dem Muster Ginspargs die Erschließung der ‘Grauen Literatur’ in der Form von Preprints, Forschungsberichten und technischen Reports auf eine breitere Basis zu stellen. Zur Vermeidung von Doppelentwicklungen und zur fächerübergreifenden Kooperation gründeten die Deutsche Mathematiker-Vereinigung (DMV), die Deutsche Physikalische Gesellschaft (DPG), die Gesellschaft Deutscher Chemiker (GdCh) und die Gesellschaft für Informatik (GI) 1995 die ‘Gemeinsame Initiative der wissenschaftlichen Fachgesellschaften zur elektronischen Information und Kommunikation’.

    Die IuK-Initiative stellte eine Graswurzelbewegung von Wissenschaftlern dar, die den Anschluss an die internationale Entwicklung nicht verlieren und mit den eigenen Arbeiten im WWW für die Fachkollegen sichtbar bleiben wollten. Ihr schlossen sich zahlreiche andere Fachgesellschaften an. Sie entwickelten fachbezogene Suchmaschinen zu Personen, Projekten, Publikationen und Veranstaltungen, und ihre Vertreter beteiligten sich in internationalen Gremien wie dem W3C und der Dublin Core Group an der Erarbeitung von Strukturstandards für Online-Dokumente, so etwa RDF und den als ‘Dublin Core’ bekannten Satz von Metadaten zur Klassifizierung (siehe Kasten).

    E-Journal im Selbstverlag und Redaktionssystem im Eigenbau: 'Conservation Ecology' wird von Wissenschaftlern herausgegeben.

    Auf die Anregung der Initiative ging auch das Projekt ‘Dissertationen Online’ hervor, das dann von der DFG gefördert wurde. Am weitesten preschten die Mathematiker und Physiker voran. Mit MathNet und PhysNet bauten sie Prototypen verteilter und Informations- und Publikationssysteme auf, die inzwischen außerhalb der Landesgrenzen aufgegriffen wurden, den Intentionen des Bonner Forschungsministeriums jedoch zuwiderliefen. Sie mussten ohne die Unterstützung des BMBF auskommen; nicht einmal die 9000 Mark Mitgliedsbeitrag für die Beteiligung an den W3C-Aktivitäten wollten die amtlichen Innovationsförderer beisteuern.

    Denn das damalige Rüttgers-Ministerium verfolgte andere Zielsetzungen und setzte eigene Randbedingungen. Es versuchte, sein Fachinformationsprogramm neu zu ordnen und von der Fokussierung auf die in den Siebzigerjahren entstandenen wissenschaftlichen Datenbanken zu lösen. So entstanden, teilweise in ausgeprägtem Gegensatz zu den Vorstellungen der wissenschaftlichen Fachgesellschaften, im Rahmen des Förderprogramms ‘Information als Rohstoff für Innovation’ nacheinander die Projekte MeDoc, InterDoc und Global-Info.

    Politische Priorität hatte die Förderung von Verlagen bei der Umstellung auf die elektronische Produktion und Distribution (Modellprojekt: Der elektronische Verlag) und die Privatisierung der Fachinformationszentren, weniger dagegen die direkte Verbesserung der Literaturversorgung in der Wissenschaft.

    Dabei benötigen gerade die Bibliotheken Führung. Sie sind hochgradig gefährdet, denn ob sie bei den elektronischen Zeitschriften noch als Mittler gebraucht werden, steht in Frage. So erwartet Andrew Odlyzko, Mathematiker bei AT&T und ein ausgewiesener Analytiker der Ökonomie des wissenschaftlichen Publikationswesens, eine Verschiebung der Arbeitsteilung, derzufolge künftig die Verlage zunehmend Bibliotheksfunktionen übernehmen.

    Die Verlage sind ohnehin in einer günstigeren Position. Es sind zahlenmäßig weniger (den weltweit 300 STM-Publishern stehen allein in der Bundesrepub-lik 2434 wissenschaftliche Bibliotheken gegenüber), sodass es ihnen leichter fällt, Veränderungen zu initiieren. Sie sind aggressives Marketing gewohnt, während Bibliotheken traditionell auf Abstimmung und Kooperation setzen und eher defensiv reagieren. Zudem besitzen die Verlage das Copyright der bereits archivierten Materialien, das heißt, ohne ihre Zustimmung können Bibliotheken, die mit dem Aufbau eigener digitaler Archive rationalisieren und das Überleben sichern wollen, das Altmaterial gar nicht erschließen. ‘Um ihre Erlöse und Gewinne zu schützen’, so Odlyzkos Folgerung, ‘werden die Verlage die Rolle und Ressourcen von Bibliotheken usurpieren’.

    Wiedergefunden

    Dabei ist die Archivierung eine klassische Aufgabe der Bibliotheken. Sie stellten bisher sicher, dass die Arbeiten von gestern den Forschern auch morgen noch zur Verfügung stehen. Selbst wenn der Aufwand für die Lagerhaltung im umgekehrten Verhältnis zum ‘Ertrag’, das heißt zur Zahl der Zugriffe auf die alten Zeitschriften, steht, so sollen sie doch dem kollektiven Gedächtnis erhalten bleiben. Es kommt immer wieder vor, dass historische und längst vergessene Arbeiten plötzlich zum Ausgangspunkt neuer Fragestellungen werden. So entdeckten beispielsweise 1934 zwei deutsche Chemiker das absonderliche Phänomen, dass Ultraschallwellen Fotoplatten so schwärzten, als ob sie belichtet worden waren. In der ‘Zeitschrift für Physikalische Chemie’ schilderten sie damals den fotoakustischen Effekt, als irrelevante Kuriosität fiel er jedoch der Vergessenheit anheim. Mehr als ein halbes Jahrhundert später stößt die seltsame Erscheinung, Sonolumineszenz genannt, jetzt wieder auf das Interesse der Physiker - theoretisch, weil es immer noch keine überzeugende Erklärung für das Phänomen gibt, und praktisch, weil die enorme Energiebilanz des Prozesses Anwendungen in Fusionsreaktionen denkbar erscheinen lässt oder die direkte Umwandlung von Schall in Licht möglicherweise der Photonik neue Anwendungen erschließt.

    MeDoc: Aufwändige Administration, nicht skalierbar, mangelnde Berücksichtigung internationaler Standards - die Evaluation des Projekts kam zu vernichtenden Ergebnissen [4].

    Eine derartige Langzeit-Archivierung von E-Prints ist heute noch kaum denkbar. Bislang halten die Verlage noch das gesamte Material, das sie elektronisch veröffentlicht haben, auf ihren Servern vor. Doch ob dies eine dauerhafte Lösung sein wird, ist durchaus fraglich: Kommerzielle Unternehmen können in Konkurs gehen, aufgekauft werden oder bestimmte Geschäftsfelder einstellen. Erfahrungen mit ‘elektronischen Antiquariaten’ als Makler für aufgelassene Datenbanken gibt es naturgemäß noch nicht. Eine Bestandsgarantie wird mit dem privaten Sektor schwerlich zu realisieren sein.

    Bibliothekare bezweifeln sogar das Interesse der Verlage an der dauerhaften digitalen Archivierung selbst ihrer eigenen Produktion. ‘Die wollen das gar nicht’, vermutet Georg Malz von der TU Berlin. Denn auch wenn die Massenspeichermedien immer billiger geworden sind (die Erfassung der Daten hingegen zunehmend teurer) - letztlich wird das Vorhalten älterer Zeitschriftenjahrgänge immer unwirtschaftlich sein, weil umso seltener darauf zugegriffen wird, je weiter die Veröffentlichungen zurückliegen.

    ‘Für die Bibliotheken ist das natürlich genauso ein Problem’, meint Malz. Zwar hat die Deutsche Bibliothek (DDB) in Frankfurt (Main) einen gesetzlichen Auftrag zur vollständigen Sammlung, Erschließung und dauerhaften Sicherung aller deutschsprachigen oder in Deutschland erschienenen Publikationen, der auch digitale Publikationen einschließt - dies allerdings nur, sofern sie auf physischen Trägern verbreitet werden. Die Ablieferung eines ‘Pflichtexemplars’ für Netzveröffentlichungen ist im Gesetz über die DDB bisher nicht vorgesehen. Die DDB bemüht sich aber in dem Arbeitskreis ‘Elektronische Depotbibliothek’ gemeinsam mit Verlegern um eine Regelung auch für diesen Fall. Erste Erfahrungen mit der elektronischen Archivierung werden derzeit in dem Projekt ‘Dissertationen Online’ gesammelt. Dazu erhält die DDB von den Universitätsbibliotheken jeweils eine Kopie der eingereichten digitalen Dissertationen überspielt, die sie auf dem vor einem Jahr eingerichteten Dokumentenserver deposit.ddb.de zentral für die Bundesrepublik vorhält.

    Fünfgestirn

    Das sind interessante Zeiten’, meint David Lipman, der Direktor des US National Centers for Biotechnology Information und einer der geistigen Väter von E-Biomed, ‘ die Verleger wissen nicht, welchen Kurs sie einschlagen sollen, und die Bibliotheken wissen es auch nicht’. Doch selbst wenn sie es wüssten - die Weiterentwicklung der Infrastruktur der künftigen wissenschaftlichen Informationsversorgung machen Verlage und Bibliotheken nicht unter sich allein aus. Alles hängt davon ab, wie sich die anderen Akteure positionieren.


    Die Akteure und ihre Rollenverteilung

    Zwischen die Mühlen geraten in jedem Falle die kommerziellen wissenschaftlichen Datenbanken und insbesondere die Fachinformationszentren, die in der Bundesrepublik unter massiver staatlicher Förderung mit dem IuD-Programm 1974-77 geschaffen wurden. Sie füllen bisher die Rolle eines elektronischen Nachweissystems in dem Meer der Zeitschriften-Volltexte aus, indem sie Recherchen nach Autor, Titel oder Keywords erlauben und mit der Lieferung von Abstracts erleichtern. Doch schon beim Retrieval der Volltexte stoßen sie an die durch das Copyright der Verlage gezogenen Grenzen. Die Recherche-Funktionen werden nach wie vor benötigt, aber die Organisationsform wird sich definitiv ändern. Die jüngsten Entwicklungen des WWW und die Verfügbarkeit mächtiger Suchmaschinen zur strukturierten Suche wie Harvest sind im Begriff, ihnen die Geschäftsgrundlage zu entziehen. Überleben werden sie vielleicht als eine Art von Portalsite für die kommerziellen Verlage.


    Zwischen Tradition und Moderne: die Deutsche Bibliothek

    Und schließlich sind da noch die Wissenschaftler selbst in ihrer doppelten Funktion als Autoren und Nutzer, als Content Provider und recherchierende Leser. Für sie sind Zeitschriftenkrise und Kostendruck der Bibliotheken kein direkter Anreiz zur Migration in das elektronische Medium, weil sie die Kosten des Publikationssystems nicht tragen. Wissenschaftler benötigen Veröffentlichungen für die Karriere, aber sie bezahlen die Abonnements nicht selbst, und somit fehlt die Motivation, ihre Arbeiten nicht bei den renommierten, hochpreisigen Zeitschriften einzureichen. Solange diese die bekannten Namen, Koryphäen und Wortführer einer Forschungsrichtung anziehen, stehen die Bibliotheken unter dem Druck, die teuren Journale weiterhin zu beziehen.

    Entscheidend ist letztlich aber die Sichtbarkeit in der Gemeinschaft der unmittelbaren Fachkollegen. In dynamischen Nischen, in denen es kaum mehr als eine Hand voll Experten gibt, denen es auf den schnellen Austausch ihrer Erkenntnisse und Ergebnisse ankommt, finden sich daher immer wieder Pioniere, die Vorbildern wie Paul Ginsparg oder Michael Rosenzweig nacheifern, ein neues E-Journal im Selbstverlag herausbringen und quasi im Nebenberuf zu Electronic Publishern werden. In einem solchen Schritt haben beispielsweise die Gründer der Zeitschrift ‘Conservation Ecology’, die Ökologen Shealagh Pope und Lee Miller von der Cornell University, gleich die gesamte Abwicklung vom Einreichen der Arbeiten über das Peer Review und die Abschlussredaktion bis zur Veröffentlichung und Distribution weitgehend automatisiert (www.consecol.org).

    Vor der Transformation

    Es gibt jedoch gute Gründe für die Annahme, dass solche Selbsthilfe-Projekte noch nicht der Weisheit letzter Schluss sind. Auf Dauer werden die Forscher die Abwicklung und Organisation ihrer Veröffentlichungen vermutlich lieber anderen überlassen. ‘Wir wollen Wissenschaft betreiben, keine Datenbanken’, bringt Martin Grötschel, Vizepräsident des Konrad-Zuse-Instituts für Informationstechnik, die Schnittstelle auf den Punkt.

    Es macht wenig Sinn, die Rollenverteilung des heutigen Publikationswesens unbesehen in das Web zu übertragen. ‘Man will ja nicht täglich die Server von Elsevier, Springer oder Academic Press nach relevanten Arbeiten abklappern’, meint Wolfram Sperber, Sprecher der IuK-Fachgruppe in der Deutschen Mathematiker-Vereinigung; ‘die elektronische Fachinformation kriegt man mit einer 1:1-Abbildung nicht mehr vernünftig hin, da braucht man andere Zugangsfunktionen.’ Die stehen inzwischen zur Verfügung. Die jüngsten Empfehlungen des W3C, namentlich XML (Extensible Markup Language) und RDF (Resource Description Framework) bieten zahlreiche Ansätze zur abgestuften Handhabung von Dokumenten, die weit über die Möglichkeiten von HTML-Dokumenten hinausgehen.

    Statische Veröffentlichungen (frozen documents) erfüllen die bisherige Funktion der Zeitschriftenversion: Sie spiegeln den Erkenntnisstand und vor allem den Originalbeitrag des Urhebers zu einem gegebenen Zeitpunkt wider. Diese Archivfunktion ist in einem auf Reputation beruhenden System wie der Wissenschaft unabdingbar, in dem es darauf ankommt, wem welcher Beitrag zuzuschreiben ist.

    Dynamische Dokumente sind elektronische Publikationen, die vom Autor oder von Arbeitsgruppen gepflegt und fortgeschrieben werden; sie geben den neuesten Stand in einem Forschungsgebiet wieder.

    Interaktive Dokumente schließlich bilden eine Plattform zur Telekooperation, etwa indem sie den Beteiligten erlauben, mit den darin enthaltenen Formeln, Daten und Programmen eigene Berechnungen, Auswertungen und Forschungen durchzuführen und in den Diskussionsprozess einzukoppeln.

    Begutachtung und Diskussion, Leserbriefe, Textanmerkungen und Fortschreibungen im Rahmen eines Forschungs-Threads werden sich künftig mit einer Veröffentlichung verbinden, ohne dass sich die Grenzen zwischen Kommunikation und Publikation dabei verwischen.

    Bei allem Wandel gibt es jedoch zwei Konstanten: Erstens soll die fachliche Diskussion aus Gründen der Effektivität und Zeitökonomie auf die Peers beschränkt bleiben; niemand hat ein Interesse daran, dass der Betrieb, wie in Newsgroups häufig zu beobachten, durch Spam lahm gelegt wird, wenn missliebige oder umstrittene Forscher wie etwa der britische Psychologe Hans Jürgen Eysenck oder der Bremer Neuroinformatiker Andreas Kreiter ihre Arbeiten der Fachwelt zur Diskussion stellen. Wissenschaft soll öffentlich sein, aber der fachliche Diskurs hinter dem Schaufenster ungestört verlaufen.

    Zweitens wird auch weiterhin das Peer-Review-System zur Qualitätssicherung benötigt. Wie kurz der Weg vom akzeptierten Wissenschaftler zum abgestempelten Außenseiter oder Scharlatan sein kann, mussten beispielsweise die Physikalischen Chemiker Stanley Pons und Martin Fleischmann erfahren, die den Fehler begingen oder das Pech hatten - die Darstellungen variieren -, ihre scheinbar spektakulären Ergebnisse zur ‘kalten Kernfusion’ an die Presse gelangen zu lassen, bevor die Fachwelt sie einer eingehenden Begutachtung unterzog.

    Die Einführung von Metadaten in Verbindung mit XML und RDF wird die Kennzeichnung des Status von Web-Dokumenten und die klare Unterscheidung von begutachteten Artikeln und Diskussionspapieren oder Preprints erlauben. Eine Vorstufe bildete die Einführung der ‘Platform for Internet Content Selection’ durch das W3C. PICS definiert Filterregeln, die Browser evaluieren können, und erhielt enormen Auftrieb durch die politische Debatte über Pornografie im Internet, weil sie die Möglichkeit bot, Webseiten mit anstößigen Inhalten zu indizieren, ohne zum Holzhammer der Zensur greifen zu müssen. Kaum beachtet wurde bislang die Generalisierbarkeit über die Markierung von Rotlicht-Bezirken des WWW hinaus, nämlich zur Strukturierung von Angeboten und Leserschaft: Dritte, die nicht die Ersteller der zu beschreibenden oder indizierenden Quelldokumente sind, können Aussagen über die Quelldokumente machen, und der User nutzt diese Metadaten, die er von einer Labeling-Instanz seines Vertrauens bezieht. Der auf PICS aufbauende DSig-Standard erlaubt überdies, die Metadaten digital zu unterschreiben; das sichert ihre Authentizität und verhindert Missbrauch.

    Dieses Labeling-System ist vom W3C zum Resource Description Framework (RDF) weiterentwickelt worden und bildet eine geeignete Plattform für das Online Peer Review. Ein Dokument, das der Autor zunächst als Preprint veröffentlicht, indem er es nach den Regeln seiner Heimatinstitution auf den lokalen Server legt, kann nachfolgend dem Peer Review einer anerkannten und unabhängigen Einrichtung - sei es eines Verlages oder des Gutachtergremiums einer Fachgesellschaft - unterzogen werden und erhält dann mit einem digital signierten RDF-Tag quasi ein Prüfsiegel, das den neuen Status als E-Print öffentlich sichtbar macht. Auf diese Weise entsteht im Internet ein ‘Web of Trust’, das der konventionellen Qualitätssicherung durch die gedruckten Zeitschriften in keiner Weise nachsteht.

    Langer Weg

    Die Zukunft des wissenschaftlichen Publikationswesens hat demnach gerade erst begonnen. Die größten Hindernisse zur Bewältigung der bevorstehenden Umwälzungen sind derzeit noch Angst, Trägheit und Tradition. Aber die Fortschreibung der alten Rollenverteilung in eine neue Umgebung ist immer nur ein allererster Schritt, bevor sich gänzlich andere Strukturen herausbilden. (ae)

    Literatur

    [1] http://www.arl.org/newsltr/200/200toc.html

    [2] Butler, Declan: ‘The Writing is on the Web for Science Journals in Print’; Nature 397, 105 (1999)

    [3] Sietmann, Richard: ‘Elektronisches Publizieren: Vor dem Phasensprung’; Phys. Blätter 50 (1994) 9.

    [4] http://interdoc.theo-phys.uni-essen.de/zw_bericht/eval-with-hyperlinks-acroread-special.pdf

    [5] Dissertationen Online; http://www.educat.hu-berlin.de/diss_online/index.html

    [6] Schmiede, Rudi: ‘Digital Library Activities in Germany’; http://www.global-info.org/

    [7] Klapsing, Reinhold: ‘Metadaten im Web: Resource Description Framework’; iX 8/1999

    [8] Griebel, Rolf u. Tscharnke, Ulrike: ‘Etatsituation der wissenschaftlichen Bibliotheken 1997/1998’, Zeitschrift für Bibliothekswissenschaften und Bibliografie, ZfBB 45 (1998) 6.

    [9] Odlyzko, Andrew: ‘Competition and Cooperation: Libraries and Publishers in the Transition to Electronic Scholarly Journals’; (1999) http://www.research.att.com/~amo

    [10] Borggraefe, Stefan: ‘Reiche Ernte; Hierarchische Suchindizes mit Harvest’; iX 3/1999

    [11] Hilf, Eberhard: ‘Elektronische Informationen für die Physik’; Phys. Blätter 53 (1997) 4.

    [12] http://www.dbi-berlin.de/vdbhome/vdbho1.htm

    [13] Nentwich, Michael: ‘Cyberscience: Die Zukunft der Wissenschaft im Zeitalter der Informations- und Kommunikationstechnologien’; TA-Datenbank-Nachrichten Nr. 2 (Juli 1999)