Bericht zur Diskussion „Open Access Monitoring – Chancen und Herausforderungen für die offene Wissenschaft“

Bericht zur Auftaktveranstaltung in der Reihe „Quo vadis offene Wissenschaft in Berlin und Brandenburg 2024/25“ von Lorenz Weinberg und Miriam Wildermuth (Universitätsbibliothek der FU Berlin)

Als Auftakt der Reihe „Quo vadis offene Wissenschaft in Berlin und Brandenburg 2024/25“ und im Rahmen der International Open Access Week fand am 21. Oktober die Online-Diskussionsveranstaltung „Open Access Monitoring – Chancen und Herausforderungen für die offene Wissenschaft“ statt.

Zitiervorschlag:

Weinberg, L. & Wildermuth, M. (2024). Bericht zur Diskussion "Open Access Monitoring – Chancen und Herausforderungen für die offene Wissenschaft". Open Access Blog Berlin, November. https://doi.org/10.59350/wavyp-5z810

Die Diskussionsrunde wurde organisiert vom Institut für Bibliotheks- und Informationswissenschaft (IBI) der Humboldt-Universität zu Berlin und dem Open-Access-Büro Berlin. Moderiert von Prof. Dr. Heinz Pampel (IBI der HU Berlin), diskutierten auf dem Podium Irene Barbers (Forschungszentrum Jülich), Najko Jahn (SUB Göttingen), Dr. Jochen Johannsen (RWTH Aachen) und Dr. Maxi Kindling (OABB) über den Status quo und Zukunftsperspektiven von Open Access Monitoring und beleuchteten dabei zahlreiche Facetten, die dieses Themenfeld mit sich bringt.

Daten, Zahlen, Nummern –  Quantitative Herangehensweisen – Status quo

Quantitative Operatoren, genaue Zahlen und messbare Daten sind gegenwärtig die zentralen Bezugsgrößen, um Open Access Monitoring zu betreiben. Dementsprechend drehte sich der erste Block der Diskussion um die Bedeutung von Daten. Der Direktor der Universitätsbibliothek der RWTH Aachen Dr. Jochen Johannsen sprach über den hohen Stellenwert von Publikationszahlen und -kosten und erläuterte in diesem Zusammenhang die Arbeit der Abteilung für Bibliometrie und Hochschulbibliographie innerhalb der UB. Insgesamt würden vielen Diskussionen an der RWTH auf der Grundlage von Zahlen geführt, die dann meistens von der UB geliefert werden. Konkrete Zahlen und datenbasierte Statistiken seien insbesondere für die Zusammenarbeit von Universitätsleitung und Bibliothek zentral und fungieren nicht selten als wichtige Argumentationsgrundlage. Gerade was zum Beispiel Publish & Read-Agreements angeht gibt es oft in den Hochschulleitungen Missverständnisse, was diese Agreements eigentlich bedeuten, und was dadurch für Kosten auf die Hochschule zukommen. So spielen konkrete quantitative Daten auch in den Diskussionen zur OA-Transformation eine entscheidende Rolle, mit denen sich Unileitungen nun auch zunehmend mehr beschäftigen.

Auch innerhalb von Bibliotheken spielen Zahlen zu Open Access eine wichtige Rolle. Um diese zu ermitteln wurde am Forschungszentrum Jülich das Open-Access-Barometer entwickelt. Irene Barbers führte aus, inwiefern der Open-Access-Barometer bei der Erstellung eines Informationsbudget-Dashboards wichtig war, um exakt erhobene Daten möglichst umfänglich darzustellen. Das Informationsbudget-Dashboard wiederum unterstützt die Bibliothek bei der Planung von Erwerbungsetats. Finanzielle Zusammenhänge werden so auch für die Forschenden und Nutzenden klarer: wenn mehr publiziert wird, müssen Subskriptionen gekündigt werden, damit die Publikationskosten gedeckt werden können. So können Fragen nach Subskriptions- vs. Publikationskosten und Diskussionen um die Finanzierung von Diamond-Open-Access-Modellen mit konkreten Zahlen im Hinterkopf zielführend behandelt bzw. geführt werden.

Nachdem also die Nützlichkeit von quantitativen Daten und konkreten Zahlen deutlich gemacht wurde, lenkte der Moderator die Diskussion nun auf die konkreten Zahlen: Dr. Maxi Kindling vom OABB sprach über den Open-Access-Anteil der Publikationen der Berliner Hochschulen. Dabei führte sie aus, dass das Ziel der Open-Access-Strategie Berlin von 2015, eine 60%-Quote bis 2020 unter Berücksichtigung der neun publikationsstärksten Hochschulen zu erreichen, erfüllt sei. Obgleich das durchaus ein Erfolg ist, machte Maxi Kindling an dieser Stelle auch deutlich, dass das dazu durchgeführte Monitoring an einigen Stellen noch einige Lücken aufweist. So hätten einige Institutionen gar nicht umfassend betrachtet werden können, da nicht alle Publikationen in allen Datenbanken abgefragt werden konnten. Der Schwerpunkt liegt hier deutlich auf publizierten Beiträgen in den wissenschaftlichen Zeitschriften, andere Publikationsformen müssten noch ergänzt werden.

Für die nachfolgenden Publikationsjahre greift das OABB auf den Open Access Monitor zurück, wenn es um Publizieren in wissenschaftlichen Zeitschriften geht. Bezogen auf die 13 Berliner Hochschulen des Landes und die Charité betrug der Anteil der OA-Publikationen im Jahr 2023 bereits 73,2 % (vgl. Open-Access-Bericht Berlin). Das liegt im Trend mit den anderen Bundesländern.

Zur Entwicklung des Open-Access-Anteils in Deutschland zeigte Irene Barbers auf, dass 67% der Zeitschriftenpublikationen mit Stand April 2024 im Open Access veröffentlicht wurden. Die Kurve über den Anteil sei dabei in den späten 2010ern zunächst stetig gestiegen, flacht nun aber seit 2021 leicht ab. Dies könnte damit zusammenhängen, so Barbers, das 2022 generell weniger publiziert wurde. Es ist außerdem zu erkennen, dass der Anteil des hybriden OA-Publizierens ansteigt und nun fast das gleiche Niveau wie Gold Open Access erreicht.

Auch in den Konsortien und Verhandlungen mit den Verlagen sind Zahlen und Daten von zentraler Bedeutung. Diese Tatsache veranschaulichte Jochen Johannsen entlang der DEAL-Verhandlungen. Das Credo „Kenne deine Daten; und zwar besser als der Verlag“ nannte er als Ausgangsbasis für erfolgreiche Verhandlungen. Durch den Zusammenschluss zu Konsortien konnten die Zahlen nun untereinander verglichen werden und als gemeinsame Verhandlungsbasis fungieren. Ungleichbehandlungen der verschiedenen Einrichtungen von Seiten der Verlage konnten durch die Dateneinsicht erkannt und für zukünftige Aushandlungen umgangen werden. Somit steht der Einblick in und Überblick über die quantitativen Daten inzwischen am Anfang einer jeden Verhandlung.

Wozu das Monitoring? Transparenz und verbesserte Datenverfügbarkeit

Im weiteren Verlauf der Diskussion wurde nun auf die Meta-Ebene gewechselt und über weitere übergeordnete Ziele von Open Access Monitoring gesprochen. In diesem Kontext stellte Najko Jahn das an der Uni Göttingen entwickelte Hybrid Open Access Dashboard (HOAD) vor, das zunächst entwickelt wurde, um die Diskussionen um Transformationsverträge zu unterstützen. Das Monitoring über das Dashboard leistet einen wichtigen Beitrag zu mehr Transparenz. Dies wird, so Najko Jahn, erstens dadurch erreicht, dass darüber berichtet wird, wie hoch der Anteil von OA im Zeitschriftenportfolio der Verlage genau sei (auch national vs. international) und zweitens führe Monitoring zu einer verbesserten Datenverfügbarkeit. Das Hybrid OA Dashboard basiert auf offenen Daten. Dementsprechend betont Jahn, dass Monitoring zwar beinhalte, dass auch Fremddaten genutzt werden können, aber eben auch wichtig sei, Daten frei zur Verfügung zu stellen. Auch Jochen Johannsen stellt fest, dass die Wissenschaftsinfrastruktur-Community vor allem dann vorankommt, wenn sie ihre Daten miteinander teilt, und somit Vergleiche ziehen und Hinweise geben kann.

Dies gilt auch für die Offenlegung von Kosten. Die RWTH erfasst ihre Open-Access-Publikationskosten pro finanziertem Artikel in ihrem Hochschulrepositorium und macht sie dort – differenziert z.B. nach APC und DEAL-Servicepauschale – hochschulöffentlich und in naher Zukunft auch weltweit sichtbar. Darüber hinaus werden die Daten auch an OpenAPC geliefert. Johannsen hält an dieser Stelle aber auch selbstkritisch fest, dass die Datenlieferung der RWTH in der Vergangenheit etwas zu wünschen übrig ließ, da das Kostenmonitoring damals noch nicht den Reifegrad hatte, denn es mittlerweile erreicht hat. Nur das Prinzip der Reziprozität könne die Open Access Community weiterbringen: durch vergleichbare Daten könne man zum Beispiel bei Rektoraten und anderen Geldgebern besser argumentieren, oder die Daten von Anderen als Gegencheck für die eigene Arbeit nutzen. Dabei kann unter anderem das openCost Metadatenschema helfen, das Metadaten zu Kosten von Publikationen bereitstellt.

Kritische Reflektionen: Quantität vs. Qualität?

Die Diskussion über quantitative und qualitative Daten im Kontext des Open Access Monitorings ist besonders spannend und vielschichtig. Dementsprechend wurde diese Frage auch auf dem Podium verhandelt. Während er Fokus von Open Access Monitoring oft auf quantitativen Daten liegt, wurde im Open-Access-Bericht Berlin des OABB ein breiterer Ansatz verfolgt. Maxi Kindling sprach über diese Herangehensweise und verweist auf die verschiedenen Studien und Aktivitäten an den einzelnen Institutionen, die als Grundlage des Berichts dienten. Es wurden also nicht nur bloße Zahlen, sprich das Publikationsaufkommen der Institutionen in den Blick genommen, sondern auch qualitative Aspekte wie OA-Strategien und -Services der Einrichtungen berücksichtigt. Diese Kriterien wurden in einem Methoden-Mix erhoben. Eine Quelle war der oa.atlas, der seit 2020 im Projekt oa.network durch das OABB entwickelt wird. Er erfasst Open-Access-Strategien und erfasst Indikatoren wie die Existenz von Informationsangeboten und Beauftragten an Hochschulen und außeruniversitären Einrichtungen in Deutschland.

Die Notwendigkeit, qualitative Einordnungen vorzunehmen, wurde auch von Najko Jahn hervorgehoben, der neben der Nützlichkeit von Daten auch auf die Grenzen der Aussagekraft von Daten hinwies. Insbesondere die Unterschiede zwischen den Disziplinen stellen eine Herausforderung dar; so haben beispielsweise Ingenieurswissenschaften eine andere Publikations- und Wissenschaftskultur als Geisteswissenschaften.

Es wurde deutlich: Die Heterogenität der Forschungs- und Publikationskulturen, die sich in den Ergebnissen des Monitorings zeige, erschwere nicht nur die Erhebung und Analyse von Daten, sondern erfordert auch eine differenzierte Betrachtung der individuellen Gegebenheiten der Einrichtungen. Der Monitoring-Prozess sollte daher nicht nur quantitative Daten liefern, sondern auch qualitative Maßnahmen erfassen, um ein umfassendes Bild der Open-Access-Transformation zu zeichnen.

Entwicklungsbogen und Diskurs über offene Daten; Zukunftsperspektiven

Auch in Bezug auf den Entwicklungsbogen der Open-Access-Transformation und Zukunftsfragen wurde auf dem Podium die zentrale Bedeutung von Aspekten betont, die über Publikationszahlen und Publikationen hinausgehen. Maxi Kindling lenkte den Fokus auf den übergeordneten Bereich der offenen Wissenschaft und warf interessante Fragen in den Raum: Wie können Good Practices sichtbar(er) gemacht werden? Wie können wissenschaftliche Prozesse, die jenseits des Publizierens stattfinden, dokumentiert werden? Das OABB möchte hier Antworten finden und Ideen entwickeln. Dies geht einher mit der Entwicklung einer Open-Research-Strategie des Landes Berlin.

Nichtsdestotrotz wurde die Entwicklung im Bereich Open Access und Open Data auf der Veranstaltung positiv bewertet. So sprach etwa Najko Jahn von einer vielversprechenden Entwicklung offener Bibliometriedaten, insbesondere mit Blick auf die Dokumentenvielfalt. In Bezug auf Partizipation der Institutionen bzw. Möglichkeiten als Institution etwas zurückzuspielen und eigene Daten zu veröffentlichen, sei allerdings noch Luft nach oben.

Fragen aus dem Publikum und offene Diskussionsfragen

Nach einer vielseitigen und spannenden Diskussion der eingeladenen Sprecher*innen, wurde das Podium abschließend für das Publikum geöffnet. Die zahlreichen Fragen und Anmerkungen in Chat unterstrichen das Interesse und rundeten die Diskussionsveranstaltung ab. So wurde auf Anregung aus dem Chat über konkrete Beispiele für die Darstellung von Open-Research-Aktivitäten einzelner Institutionen gesprochen, noch einmal die Bedeutung qualitativer Ansätzen im OA-Monitoring hervorgehoben und über Disziplinunterschiede diskutiert. Auch auf die Ökonomisierung von Daten und Unterschiede in der Verwendung von Daten seitens der Wissenschaft versus der Verlage wurde eingegangen sowie über Chancen und Herausforderungen von Künstlicher Intelligenz für das Monitoring gesprochen. Für die etwa 120 Teilnehmenden war es eine informative Veranstaltung, die aktuelle Probleme in der Open-Access-Transformation offen dargelegt hat, aber auch die Errungenschaften der letzten Jahren aufgezeigt und Zukunftsperspektiven greifbar gemacht hat.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Captcha
Refresh
Hilfe
Hinweis / Hint
Das Captcha kann Kleinbuchstaben, Ziffern und die Sonderzeichzeichen »?!#%&« enthalten.
The captcha could contain lower case, numeric characters and special characters as »!#%&«.