20 Jahre Berliner Erklärung für Open Access: Wie ist die Lage in Berlin und Brandenburg?

Nachbericht zur Podiumsdiskussion

Am 24. Oktober 2023 luden das Institut für Bibliotheks- und Informationswissenschaft (IBI) der Humboldt-Universität zu Berlin (HU), der Kooperative Bibliotheksverbund Berlin-Brandenburg (KOBV), das Open-Access-Büro Berlin (OABB) und die Vernetzungs- und Kompetenzstelle Open Access Brandenburg (VuK) dazu ein, im Zuse Institut Berlin (ZIB) den Status von Open Access in der Region Berlin-Brandenburg zu diskutieren. Unter dem Motto „Was wurde erreicht und wo geht es hin?” saßen insgesamt sechs Vertreter*innen der Berliner und Brandenburger Open-Access-Community auf dem Podium.

Foto: Georg Fischer unter CC BY 4.0

Von links nach rechts auf dem Podium:

Ganz rechts am Pult: Maxi Kindling (Open-Access-Büro Berlin)

Ausführliche Informationen zu den Diskutant*innen und ihren fachlichen Hintergründen finden sich hier.

Zitiervorschlag: Fischer, G. (2023). 20 Jahre Berliner Erklärung für Open Access: Wie ist die Lage in Berlin und Brandenburg?, Open Access Blog Berlin. https://doi.org/10.59350/yy5kk-3tz25.

20 Jahre Berliner Erklärung

Nach einer kurzen Begrüßung durch die Leiterin des OABB Maxi Kindling führte Andreas Brandtner, Direktor der Universitätsbibliothek der Freien Universität Berlin und Ko-Leiter der Arbeitsgruppe Open-Access-Strategie Berlin, als Moderator durch die Diskussion. Heimlicher Stargast, so der allgemeine Tenor des Nachmittags, war die Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen aus dem Jahr 2003, deren Erscheinen sich fast auf den Tag genau zum 20. Mal jährte. Ein guter Zeitpunkt, um zurückzublicken, kritisch den Status Quo zu evaluieren und Akzente für die zukünftige Entwicklung zu setzen. Die vielfältigen Aspekte der Diskussion in Gänze darzustellen ist schwerlich umzusetzen, daher beschränkt sich der Veranstaltungsbericht auf die großen Linien der Diskussion.

Open-Research-Praktiken in Wissenschaft und Kulturerbe 

Schnell wurde klar: Die Open-Access-Transformation ist noch lange nicht abgeschlossen, im Gegenteil: Sie ist ein Prozess mit offenem Ende und – obgleich schon viel erreicht wurde – weiterhin Herausforderung und Chance zugleich für die Wissenschaft in der Region Berlin-Brandenburg wie auch weltweit. 

Die Forderung, Open Access zu publizieren, ist mittlerweile selbst zum Standard geworden und auch die weitere Öffnung des Forschungsprozesses im Sinne von Open Research lässt sich erfreulicherweise vielerorts beobachten. In diesem Sinne betonten sowohl Kathrin Grotz als auch Ariane Jeßulat diverse Vorzüge, die frei verfügbare und offen lizenzierte Texte, Daten und andere Materialien für Wissenschaft und genauso für die Kunst und die künstlerische Forschung brächten: So einfach wie heute sei es noch nie gewesen, auf digitalem Wege an Quellen zu kommen. Der digitale Fernzugriff habe den Forschenden wie auch der interessierten Öffentlichkeit in den letzten 20 Jahren enorme Ersparnisse an Zeit und Ressourcen gebracht, so Jeßulat. Gleichzeitig erinnerte die UdK-Professorin aber auch an die in der Berliner Erklärung angelegte Trennung zwischen wissenschaftlichen Forschungs- und künstlerischen Kulturdaten. Eine solche Trennung halte sie inzwischen für überholt – tatsächlich sei ein hybrider Datenraum zwischen Wissenschaft und Kulturerbe entstanden, der für Offene Forschung (Open Research) von herausragender Bedeutung sei.

Indirekt bestätigte Kathrin Grotz den Befund ihrer Kollegin, als sie die zahlreichen Praktiken erläuterte, mit denen moderne Museen heutzutage Daten verarbeiten, vernetzen und auswerten würden. Und sie wies darauf hin, dass aufgrund der technologischen Entwicklungen weitere wichtige Anwendungen entstünden, die sich heute noch gar nicht oder nur in Umrissen erkennen ließen. Man müsse daher strategisch und in langfristigen Zeithorizonten denken und – so paradox es zunächst klingen mag – dem Unvorhergesehenen Raum lassen. Manchmal, so unterstrich die Stellvertretende Direktorin des Instituts für Museumsforschung, würden bestimmte Daten erst in 20 Jahren wertvoll werden.

Open Access zwischen Community und Kommerz

Neben der Einheit von Wissenschaft und Kunst hinsichtlich Open Research zog sich das Spannungsfeld von „Community und Kommerzialisierung”, angelehnt an das diesjährige Motto der internationalen Open-Access-Week, wie ein roter Faden durch die Diskussion. 

Einerseits war man sich auf dem Panel durchaus einig in der Frage, dass die Open-Access-Community ihre vielfältigen Kooperations- und Vernetzungsarbeiten weiterhin so engagiert wie bisher führen und weiter ausbauen sollte, gerade in Zeiten allgemein schrumpfender Etats. Das sei neben adäquater politischer Förderstrukturen ein Schlüssel zum Erfolg, wie Heinz Pampel betonte. Andererseits zeigte man sich auf dem Podium auch etwas zerknirscht, als die Sprache auf die kürzlich abgeschlossenen Verhandlungen zum DEAL-Vertrag zwischen der Allianz der deutschen Wissenschaftsorganisationen und dem international agierenden Großverlag Elsevier kam. Jürgen Christof etwa merkte sehr deutlich an, dass die Finanzströme, die das wissenschaftliche Publizieren sicherten, den Forschenden oftmals verborgen blieben. Das aber ändere nichts an den erheblichen Beträgen, die vorrangig an die Großverlage fließen und die sich so in den letzten Jahrzehnten eine ebenfalls erhebliche Marktmacht aufbauen konnten – nicht trotz, sondern gerade aufgrund von Open Access und den damit von den Verlagen aufgerufenen Gebühren. 

Dass die DEAL-Verträge mit Springer Nature, Wiley und nun auch Elsevier eigentlich als Transformationsverträge gedacht waren, also das Flipping der Zeitschriften zum Ziel hatten, kann man gerade in der 20-jährigen Rückschau nach der Berliner Erklärung getrost als Flop bezeichnen. Dazu kommt das – innerhalb der Diskussion nur am Rande besprochene – digitale Tracking von Forschenden und ihrem Nutzungsverhalten. Mithilfe der Aggregation und Analyse von Nutzungsdaten konnten sich wissenschaftliche Großverlage wie Elsevier in den vergangenen Jahren u.a. dank enormer Open-Access-Gebühren ein neues, durchaus lukratives Geschäftsmodell aufbauen. Mittlerweile wird es von vielen Stellen als Gefahr für die freie Wissenschaft gesehen.

Informiert publizieren, juristisch beraten, nachhaltig fördern

Wissenschaftsgeleitete Publikationsformate und Diamond Open Access seien darauf die richtige Antwort und auch auf dem Vormarsch, diagnostizierte Peter Kostädt unter zustimmendem allgemeinem Nicken auf dem Podium. Gleichzeitig führe das zum nächsten Problem, nämlich den jahrzehntelang gewachsenen Reputationsstrukturen, die in der Transformation sichtbar würden. Hier seien innere Widerstände seitens der Wissenschaft oder – positiv ausgedrückt – nicht ausreichend Anreize vorhanden, die Forschende dazu bringen würden, von den Großverlagen und ihren etablierten Zeitschriften Abstand zu nehmen. Publikationsentscheidungen, so Pampel, sollten „informierte Entscheidungen” der Forschenden sein und die Bibliotheken hätten die verantwortungsvolle Aufgabe, hierbei zu beraten und zu unterstützen.

Informiert müssten wissenschaftlich und künstlerisch Forschende aber nicht nur in ihrem eigenen Fachgebiet und den dortigen Publikationsstrukturen sein. Kathrin Grotz zufolge drängten sich den Forschenden im Alltag auch vielfältige juristische und ethische Fragen auf. Solche Fragen hätten sich im Zuge der Digitalisierung erheblich vermehrt und auch in ihrer Komplexität verstärkt, wie sie am Beispiel der Forschungs- und Kulturdaten untermauerte. Ariane Jeßulat hob die Rechtsberatung durch den Legal Helpdesk der Initiative NFDI4Culture als wegweisendes Beispiel hervor. Auch plädierte sie für die vielfältigen Potentiale, die im Management von Forschungs- und Kulturdaten steckten, die sich ohne juristische Beratung aber nur unzureichend heben ließen. Und schob hinterher, dass gerade bei Sammlungen und Kulturdaten die langfristige Perspektive von großer Bedeutung sei.

Dem stünde, wie mehrere Teilnehmer*innen auf dem Podium auch in anderen Kontexten klarstellten, in zu vielen Fällen die Logik der zeitlich befristeten Projekte entgegen. Jürgen Christof formulierte hier deutlich, wie notwendig ein ordentlich ausfinanzierter Regelbetrieb sei, über den sich Infrastrukturen aufbauen und Ideen über Projektende hinaus realisieren ließen. Die Überführung von Drittmittel-finanzierten Projekten in einen nachhaltig und institutionell langfristig gesicherten Regelbetrieb müsse daher stärker politisch gefördert werden.

Das harte Brett der Open-Access-Transformation

Die Zwänge, die sich aus Förderlogik und dem föderalen System nach wie vor ergeben würden, monierte gegen Ende der Diskussion auch Martin Grötschel, der die Open-Access-Transformation langjährig begleitet und vorangetrieben hatte. Seiner Meinung nach habe deswegen die Entwicklung bisher „doppelt bis dreifach so lange gedauert” als ursprünglich erwartet. Auch betonte er die zahlreichen, teils in verschiedenen Geschwindigkeiten laufenden Parallel-Prozesse. Jürgen Christof wiederum wünschte sich eine Halbierung der wissenschaftlichen Publikationen bis zum Jahre 2040. 

Am Ende zeigt sich deutlich, dass Open Access und Open Research keine vereinzelten Themen der Wissenschaft sind, sondern an der Transformation eines ganzen Wissenschaftssystems hängen. Daraus ergeben sich zwei wichtige Perspektiven für die Zukunft: Die Zusammenarbeit und Kooperation unter verschiedenen Interessengruppen werden noch wichtiger werden als bisher. Und gleichzeitig werden der Aufbau und die Finanzierung offener Infrastrukturen darüber entscheiden, ob diese Bemühungen auch dauerhaft der Kommerzialisierung von Wissen etwas entgegenhalten können. Denn offene, selbst getragene Infrastrukturen können auch für andere Probleme, insbesondere das oft kritisierte Datentracking von Verlagen, eine geeignete Antwort bieten, insofern sich die Wissenschaft das Publizieren der eigenen Forschung wieder stärker in die eigenen Hände holen könnte.

 

Weitere Berichte zur Podiumsdiskussion:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Captcha
Refresh
Hilfe
Hinweis / Hint
Das Captcha kann Kleinbuchstaben, Ziffern und die Sonderzeichzeichen »?!#%&« enthalten.
The captcha could contain lower case, numeric characters and special characters as »!#%&«.