Call for Participation zum Aufbau von Open Science Dashboards

Sie praktizieren offene Wissenschaft, indem sie Forschungsdaten und Software publizieren, Open Educational Resources bereitstellen oder Citizen-Science-Projekte durchführen? Sie interessieren sich dafür, wie offene Wissenschaftspraxis systematisch sichtbar gemacht werden kann? Sie haben eine Datenquelle, die Informationen zu offener Wissenschaftspraxis an einer Einrichtung, einem Lehrstuhl oder einer Forscher*innengruppe enthält, aber keine Möglichkeit, diese auszuwerten? Sie sind an einer der der BUA-Einrichtungen aktiv, d.h. der Humboldt-Universität, der Freien Universität oder der Technischen Universität in Berlin? Dann würden wir gerne mit Ihnen zusammenarbeiten.

Im von der Berlin University Alliance (BUA) geförderten Projekts BUA Open Science Dashboards interessieren wir uns für die Vielfalt von Open-Science-Praktiken in verschiedenen Wissenschaftsdisziplinen und wollen hierfür gemeinsam mit Partner*innen Indikatoren entwickeln, die in interaktiven Dashboards präsentiert werden können. Das Monitoring von Open-Science-Praktiken ist wichtig, um die Open-Science-Aktivitäten in den unterschiedlichen Disziplinen sichtbar zu machen, zu fördern und zu etablieren oder um Impulse für die Entwicklung von Policies oder Infrastrukturangeboten zu setzen.

Im ersten Projektteil haben wir bereits ein FAIR Data Dashboard umgesetzt, das die Nachnutzbarkeit von Forschungsdaten an der Charité – Universitätsmedizin Berlin anhand der FAIR Data Principles evaluiert. Das FAIR Data Dashboard stellen wir ausführlich in einem weiteren Blogpost vor. Open-Science-Indikatoren wie dieser entstehen mit selbst- bzw. weiterentwickelten Tools, die zu einem transparenten Daten-Analyse-Workflow verknüpft werden. Die Ergebnisse werden visualisiert und können als Dashboard in bestehende institutionelle oder projektbezogen erstellte Webseiten integriert werden.

Wenn Sie mögliche Open-Science-Indikatoren vor Augen haben, bei deren Entwicklung Sie Unterstützung benötigen, dann freuen wir uns über eine Zusammenarbeit mit unserem Projekt, um gemeinsam disziplinspezifische Indikatoren zu entwickeln. Diese Indikatoren müssen nicht nur quantitativ sein, sondern können auch eine qualitative Beschreibung von Open-Science-Aktivitäten darstellen, z.B. die narrative und kontextualisierte Darstellung eines einschlägigen Forschungsprojekts, das viele offene Wissenschaftspraxen umsetzt oder die Herausgabe von Lehrmaterialien, die nach den Prinzipien von Open Access frei verfügbar gemacht und in der Disziplin nachgenutzt werden.

Bei Interesse können Sie sich gerne an das Open-Access-Büro Berlin wenden.

Mehr zum Projekt können Sie in diesem Blogbeitrag lesen.

Call for Participation

Do you apply Open Science practices by publishing research data and software, developing Open Educational Resources or conducting citizen science projects? Are you interested in how Open Research practices can be made visible? Do you have data sources that contain information on Open Science activities but no means of evaluating these sources? Are you working at one of the BUA institutions, i.e. the Humboldt Universität, the Freie Universität or the Technische Universität? Then we would like to work with you.

Within the BUA (Berlin University Alliance) Open Science Dashboards project, we are interested in the diversity of Open Science practices in various scientific disciplines. In collaboration with project partners, we would like to develop indicators that can be visualised in interactive dashboards. Monitoring Open Science practices is important to showcase the variety of Open Science activities across the various disciplines, to promote and establish these OS Practices, and/or to support policy or research infrastructure development.

In the first project part, we have implemented a FAIR Data Dashboard, based on the FAIR Data Principles, which evaluates the reusability of research data at the Charité – Universitätsmedizin Berlin. The Open Science indicators are developed with various tools to create a transparent data analysis workflow. Results are visualized and can be integrated into existing institutional or project-related websites as a dashboard.

Do you have potential Open Science indicators in mind, and do you need help to develop these discipline-specific indicators? Then we would like to work with you. These indicators do not necessarily have to be quantitative, but can also represent a qualitative description of Open Science activities, e.g. the description of a relevant research project or the publication of teaching materials that are made freely available according to the Open Access principles.

Please get in touch with Open-Access-Büro Berlin when you are interested in collaborating.

You can read more about the project in this blog post (in German).

Looking back at the Open Science Conference 2022

Authors: Maaike Duine (ORCiD) and Franziska Harnisch (ORCiD)

In March 2022, the 9th international Open Science conference of the Leibniz Research Alliance took place. Just like last year, the conference was online and preceded by the Open Science Barcamp. The conference and Barcamp topics revolved around multiple aspects of Open Science, from community building and public engagement, to FAIR research software and data mining. The two events complemented each other very well; the Barcamp focused more on general exchange of ideas, whereas the conference was mostly about presenting „state of the art“ developments and projects.

Open Science Barcamp
Topics for short sessions were suggested by some Barcamp participants and everyone decided on the spot which ones to join. Out of 14 different sessions each participant attended up to 3 sessions. The full schedule including links to the documentation pads of each session are accessible here. Below, we’ve highlighted a few of the sessions we visited.

How to move Open Science forward at institutional level
Esther Plomp (Delft University of Technology) proposed a session to discuss success stories and challenges in moving Open Science forward at the institutional level. The success stories ranged from meaningful partnerships within an institution, e.g. with the Research Integrity Office and partnerships with external project partners, to institutions‘ policies and programs on Open Access, Open Science and Research Data Management. Participants also mentioned that having enthusiastic OS advocates in the right position is a great way to move OS forward, as well as encouraging grassroots community initiatives. Organizing events and discussions on various OS topics is helpful too. This can be challenging, however, as not everyone is aware of the different aspects of OS, and, as someone said, ‚the term Open Science can be overwhelming for some people‘. Some suggested renaming it Open Research, Research Integrity or Sustainable Research. Plomp shared some useful links for sharing OS initiatives, such as the Open Scholarship Grassroots Community Network and concluded that the multitude of OS initiatives taking place at various levels across institutions is a good sign.

Rethinking Scholarly Communication
In the Barcamp session, Digitalize Knowledge, Not Documents! Rethinking Scholarly Communication, Anna-Lena Lorenz (Leibniz Information Centre for Science and Technology (TIB)), introduced the Open Research Knowledge Graph (ORKG). This initiative aims to describe research papers, research data, methods and other research objects in a structured manner to help researchers find relevant contributions and create comparisons and reviews. By organizing research contributions in the ORKG, researchers can keep oversight over the state-of-the-art within their field of interest. In her session, Lorenz invited participants to think about how to further develop the ORKG. Several participants stressed that it is important to keep in mind that researchers need to be made aware of the benefits using ORKG, otherwise it will not be used to its full potential. It is definitely good to rethink scholarly communication as we need to move away from the static PDF and such Knowledge Graph does look promising in enabling comparisons and visualizations to keep an overview of research content.

Open Science communities and their role within institutions
The session, How to Start an OS Community proposed by Yvana Glasenapp from Leibniz Information Centre for Science and Technology (TIB), revolved around three questions: What is an OS community, how to find those communities, and, how to support OS communities at one’s own institution. Eleven participants shared their experiences and it stood out to everyone that there is a lack of coordination and a fragmentation of OS communities on campuses. Additionally, a gap between provided infrastructures and the actual needs of the communities is common. The lively discussion around the above mentioned topics ranged from promoting beacon projects, establishing rewards and incentives for OS practices, to creating value sets within OS Communities. As a wrap-up, some helpful actions were identified: OS communities need supporting structures; case studies addressing actual research problems to show the benefits of OS, and key persons, like data stewards, who can distribute information within communities and advocate for OS practices. Notes of this session, including a list of useful resources, can be found here.

Library Outreach Activities
The session, How Can Libraries Support Researchers with Open Science, started with the question whether researchers would contact libraries with questions about Open Science or if libraries need to reach out to them more proactively. While researchers, who realize what kind of support libraries can offer, do consult the services offered, libraries in general need to promote their supporting services repeatedly on various levels. Furthermore, libraries can perform a connecting element between departments therefore enabling knowledge-exchange. Within the discussion different formats and inputs were mentioned which libraries could apply and try out, before evaluating what users might be more receptive to. However, the conclusion of this session is to move on quickly if formats are not working! Documentation on this session can be found here.

Open Science Conference

In his opening speech, Prof. Klaus Tochtermann stated that OS practices are moving forward since Open Science entered the European Research Agenda. When applying for EU funding, an OS declaration is needed and there are several European initiatives on OS assessment. However, clear commitments and specific guidelines are needed in order to push for more openness. Out of ten presentations at the Open Science Conference some focused on ways to further promote Open Science practices, and in the following we highlight some aspects.

In his talk, Prof. Daniel S. Katz (University of Illinois) stated that even though digitalization has opened up opportunities to share scientific ideas, methods and results, economic concerns and competition are still hampering full implementation of OS practices. On the one hand, researchers are not used to mechanisms of sharing and, on the other hand, commercial entities profit from restricting access. Another reason mentioned by Daniel Katz is that metrics for evaluating shared research objects are underdeveloped. With the FAIR (Findable, Accessible, Interoperable, Reusable) Principles, there has been a focus on sharing and reusing Research Data. Katz posed the important question: What about other research objects? He added that there are differences in how non-data objects are created, used, stored and shared, but also how and where the object’s metadata is stored and indexed. There is a need for FAIR for non-data objects, for example for Research Software. He explained further, that software is unlike data in many aspects: it is executable, provides a tool, and is a creative work with different licensing and copyright practices. That’s why the FAIR4ResearchSoftware Working Group has been initiated in collaboration with FORCE11 and RDA. As principles on interoperability and reusability are quite different when compared to the principles for FAIR Data, Katz concluded that there is still a lot of work to do, and that future steps should involve further work on metrics, incentives and policies.

The project Road to Openness focuses on further incentivizing Open Science and was introduced by Dr. Verena Heise (Freelance Open Science Researcher). The project consists of an OS self assessment tool that has been developed with, and piloted, at three German universities. It is freely available online and,if used, provides insight on Open Science activities within an institution. Heise stressed the tool has not been developed for objective comparison between institutions or as a type of ranking tool. The assessment process consists of two stages. The first stage focuses on collecting information about the institute, e.g. on current Citizen Science practices. The institute can fill in all sorts of questions on its current Citizen Science practices, training and infrastructure. After completing all questions, during the second stage of the process, the institute receives the results and with these at hand the responsible parties can assess for themselves what they might want to improve on, and develop a roadmap for further improving their Open Science practices. Verena Heise stated that during the pilot phase, the project’s results have already shown that it is difficult to create a culture of openness in the current academic system and that there is a need to create intrinsic motivation for working openly. With the assessment tool, the conversation can be initiated. She added that there is a need to focus on reasons why Open Science is useful and on the promotion of good practices.

Dr. Tony Ross-Hellauer (Graz University of Technology) presented results of the ON-MERRIT project. The project’s main result is a confirmation of an already frequently described imbalance: OS cannot per se eliminate inequalities and might even create new ones. For example, simply publishing research as an Open Access publication does not automatically mean that the published information is available to all, in the sense of being understandable. Other findings of the study referred to the lack of incentives for OS practices for researchers. In order to make the most of the potential Open Science offers, proposals for action were developed in four main areas: „Resources of Open Research„, „Publication Charges and the Stratification of Open Access Publication„, „Societal Involvement in Research and The Formulation of Policies„, and „Reform of Reward and Recognition„. In close connection to the UNESCO recommendations, global scale thinking was recommended in order to seek international exchange and to develop common political approaches, thus ensuring the success of Open Science transformation.

Prof. Diethard Tautz (Max Planck Institute for Evolutionary Biology) presented the online journal NAL-live as an infrastructure using the concept of Open Documents. This concept is straightforward: publications are published under the CC BY 4.0 license after a review process, and further developments in research, such as new findings or additions, can be added by anyone. Based on documentation and the possibility of renewed peer review processes, the documents can be updated repeatedly. Persistent identifiers are used to track changes and to allow the process of scientific research to be transparent. The project’s potential lies in terms of changing scientific publishing and involving a potential public. It remains to be seen how it can be successfully implemented and what role scientific societies such as the Max Planck Society can play here.

This year’s conference was organized in collaboration with the German Commission for UNESCO and the conference concluded with two sessions in the context of the UNESCO Recommendation on Open Science: a panel discussion ‚Promoting Open Science globally: the UNESCO Recommendation on Open Science‚ and a workshop on Open Science initiatives in the African continent. Until November 2021, 193 member states have adopted the Open Science Recommendation. Vera Lacoeuilhe (Permanent Delegation of Saint Lucia to UNESCO) added that the biggest challenge is yet to come: the implementation of Open Science. Dr. Peggi Oti-Boateng (UNESCO HQ) added that UNESCO is planning programs, an Open Science toolkit, funding mechanisms, and a global repository that maps existing Open Science guidelines to further implementation. The subsequent panel discussion focused on what should be prioritized in the coming years. Themes like equity (e.g. more women in leadership positions, and more cooperation and exchange with the Global South), universal access to knowledge and changing research assessment practices were mentioned. During the UNESCO Workshop: ‚Fostering Open Science in Africa – Practices, Opportunities, Solutions‘, 10 different Open Science projects were presented: national initiatives such as Eko Konnekt in Nigeria or Mboalab in Cameroon, but also pan-African initiatives like Libsense, Africarxiv, and Writing Hub Africa.

Conclusion

The wide variety of topics and lively discussions at the conference demonstrated that even though Open Science is moving forward, there is still a lot of work to do. It was stressed by many speakers that creating a true culture of openness remains a challenge. The UNESCO panelists added that it is a shared responsibility of all stakeholders to ensure that OS tools, principles and policies that are being developed, are put into practice. A truly open and inclusive research system can only be achieved if stakeholders from different backgrounds, disciplines and countries collaborate. Dr. Peggy Oti-Boateng concluded: „UNESCO wants science for People, Planet and Peace. Science that leaves no one behind.“

Das BUA Open Science Dashboard Projekt: die Entwicklung disziplinspezifischer Open-Science-Indikatoren

Autorinnen: Maaike Duine (ORCiD) und Maxi Kindling (ORCiD)

Open-Science-Praktiken

Open Access, Open Data, Open Educational Resources, Open Hardware, Open Software, Open Code, Citizen Science: Das Konzept von Open Science umfasst viele Praktiken, die im wissenschaftlichen Alltag zunehmend relevant werden. Sie haben zum Ziel, den wissenschaftlichen Arbeitsprozess, seine Quellen und Ergebnisse langfristig offen zugänglich, nachvollziehbar und nachnutzbar zu machen. Im Berliner Hochschulgesetz wird offene Wissenschaft seit 2021 im §41 adressiert. Dort ist formuliert, dass sie sich auf den „uneingeschränkten und langfristigen Zugang zu wissenschaftlichen Texten, Forschungsdaten, Software und weiteren Forschungsergebnissen und -quellen sowie Lehr- und Bildungsmaterialien“ bezieht, den die Hochschulen ebenso unterstützen sollen wie „einen transparenten Forschungsprozess einschließlich der Bereitstellung von Forschungsinformationen“.

Die Verbreitung von Praktiken offener Wissenschaft ist allerdings im Vergleich von Forschungsinstitutionen, Disziplinen und Wissenschaftler*innen unterschiedlich weit fortgeschritten. Weithin bekannt ist, dass der Anteil an Open-Access-Publikationen in Zeitschriften in den Lebens- und Naturwissenschaften höher ist als in den Sozial- und Geisteswissenschaften [1]. In der Umweltforschung sind Citizen-Science-Praktiken, d.h. die Beteiligung der Öffentlichkeit bzw. von Laien-Wissenschaftler*innen an der Forschung, verbreiteter als in anderen Disziplinen [2]. Weitere Beispiele findet man im Bereich der Veröffentlichung von Preprints, d.h. nicht-begutachteten Vorabveröffentlichungen von Manuskripten im Open Access, die in der Mathematik und anderen naturwissenschaftlichen Fächern gängiger sind (z.B. über die Preprintserver ArXiv oder BioArXiv) [3]. Auch das Teilen von Forschungsdaten (Data Sharing) nimmt zwar in allen Disziplinen stetig zu, aber im disziplinären Vergleich gibt es große Unterschiede. Disziplinen wie die Hochenergiephysik, in denen traditionell viel in (großen) Forschungskollaborationen zusammengearbeitet wird und Data Sharing notwendig ist, werden eher Daten nach den Prinzipien von Offenheit geteilt, als in Disziplinen, in denen das weniger üblich und notwendig ist [4, 5].

Was ist Monitoring und wozu machen wir das? Warum ist das ein wichtiges, aber auch schwieriges Thema?

Mit der Verbreitung offener Wissenschaft steigt auch der Bedarf nach einem Monitoring von Open-Science-Praktiken. Dies erlaubt einen breiten Blick auf die Aktivitäten, kann neue Anreize schaffen, Open Science umzusetzen und setzt Impulse für die Entwicklung von Policies oder Infrastrukturangeboten. Ein Monitoring kann sowohl quantitative wie auch qualitative Darstellungen enthalten. So kann es einerseits darum gehen, den Anteil von offen verfügbar gemachten Publikationen in Bezug auf eine Gesamtzahl von Publikationen zu bestimmen. Aufgrund der unterschiedlichen Publikationskulturen in den Disziplinen ist diese „an Zahlen orientierte“ Herangehensweise aber nicht in allen Forschungsfeldern sinnvoll und adäquat. Eine qualitative Beschreibung von Open-Science-Aktivitäten kann daher ebenso von Bedeutung sein, indem beispielsweise Projekte oder Publikationen deskriptiv und kontextualisierend dargestellt werden, um den Impact in einem bestimmten Forschungsgebiet hervorzuheben.

Ein Monitoring kann sich darüber hinaus auf die Aktivitäten einzelner Wissenschaftler*innen, auf Institutionen, auf Förderprogramme, auf eine nationale oder z.B. auf die europäische Ebene beziehen. Ein Monitoring kann beispielsweise für Förderorganisationen einen Einblick in die Anzahl der Open-Access-Publikationen aus einem bestimmten Förderprogramm geben oder für Institutionen ein Benchmarking (einen Vergleich mit, bzw. eine Orientierung an anderen Institutionen) ermöglichen. Dies zeigt bereits, dass mit dem Monitoring bestimmte Herausforderungen verbunden sind. Dazu gehört die Frage, inwieweit ein Monitoring zum unpassenden Vergleich von Disziplinen führt. Eine weitere Frage ist die nach der Bedeutung etablierter Indikatoren für wissenschaftliche Leistungen im Vergleich zu Open-Science-Indikatoren. Der Journal Impact Factor als Parameter ist hier ein häufig angeführtes und kritisch betrachtetes Beispiel, um die wissenschaftliche Leistung von Individuen und Institutionen zu vergleichen. Initiativen wie die San Francisco Declaration on Research Assessment und Plan S haben zum Ziel, Verfahren zur Leistungsmessung über den Journal Impact Factor und Journal Metrics hinaus zu entwickeln. Die Entwicklung von Indikatoren für offene Wissenschaft (z.B. für die im nächsten Abschnitt erwähnten Monitoring-Ansätze) gehen in die gleiche Richtung, die Forschungsevaluation neu zu denken und beispielsweise Indikatoren wie den offenen Zugang zu Ergebnissen wie Daten und Software, aber auch die Durchführung von offenen Begutachtungsprozessen (Open Peer Review) oder die Zusammenarbeit (Team Science) zu fördern.

Monitoring-Ansätze

Auf europäischer Ebene gibt es verschiedene Initiativen, die das Monitoring von Open-Science-Praktiken voranbringen wollen. Ein Beispiel ist OpenAIRE’s Open Science Observatory, das die Anzahl der Open-Access-Publikationen, Open Data und Open-Access-Journals pro Land anzeigt. Zur Visualisierung der Daten aus verschiedenen Quellen werden Dashboards entwickelt. Im Fall des Open Science Observatory basieren die Daten auf dem OpenAIRE Research Graph, der Daten von institutionellen Repositorien und Zeitschriften mit Daten von Services wie CrossrefUnpaywallORCID und Grid.ac verknüpft. Ein anderes Beispiel ist der Open Science Monitor der Europäischen Kommission. Er zeigt in unterschiedlichen Dashboards Trends für Open-Access-Publikationen, Open Data und Open Collaboration. Das Monitoring der Open-Access-Publikationen basiert auf Scopus, Unpaywall und DataCite sowie qualititativen Daten von Umfragen. Darüber hinaus wird angezeigt, wie oft OA-Publikationen auf Social Media und anderen Medien erwähnt werden und die Anzahl der Policies von Forschungsförderorganisationen zu Open Access, Open Data sowie Journal Policies zu Open Data, Open Code und Open Hardware wird angegeben. 

In Deutschland ist der Open Access Monitor ein wichtiges Instrument zur Erfassung des Open-Access-Publikationsaufkommens deutscher akademischer Einrichtungen in wissenschaftlichen Zeitschriften. Der Monitor bereitet die Angabe kategorisiert nach Gold/Green/Hybrid OA und Closed Access auf. Der Open Access Monitor Deutschland basiert ebenfalls auf mehreren Datenquellen. Dazu gehören DimensionsWeb of Science, Scopus, Unpaywall, Directory of Open Access Journals und weitere. Es können aber auch weitere Indikatoren bei nationalen Monitoring-Ansätzen vorgefunden werden: Im niederländischen Open Science Dashboard und dem französischen Open Science Monitor werden z.B. die Zertifizierung von und die Nutzung von persistenten Identifikatoren für Forschungsdaten in Repositorien dargestellt.

Auch auf Landesebene ist das Monitoring relevant: Das OABB koordiniert seit einigen Jahren eine Arbeitsgruppe, die seit 2016 das Open-Access-Publikationsaufkommen in wissenschaftlichen Zeitschriften für die neun publikationsstärksten Berliner Hochschulen erfasst. Dies steht im Zusammenhang mit dem in der Berliner Open-Access-Strategie formulierten Ziel, bis 2020 einen Open-Access-Anteil bei Zeitschriftenartikeln von 60 % zu erreichen. Der zuletzt erschienene Bericht über das Publikationsjahr 2019 wies einen Open-Access-Anteil von 51,6 % nach (der Bericht über das Publikationsjahr 2020 wird derzeit vorbereitet).

Abbildung 1: Screenshot des Open Access Monitor Deutschland: Gold Open Access und die Anteile für Open/Closed Access bei Zeitschriftenartikeln der letzten fünf Jahre (Abrufdatum: 11. April, 2022). URL: https://open-access-monitor.de/

Diese Monitoring-Ansätze sind spezialisiert auf das Publizieren in Zeitschriften und zeigen aus verschiedenen Gründen nicht die Diversität der Publikationsformate in den Fachkulturen, die auch Monografien, Sammel- und Konferenzbände, Forschungs-/Kulturdaten, Software, Quellcode, Lehrbücher, Open Educational Resources, Publizieren in Blogs sowie nicht-textuelle Medien, wie z.B. Audio-visuelle Medien und 3D-Modelle umfassen. Ein Problem sind die fehlenden bzw. nicht standardisierten Nachweisquellen, fehlende Indikatorik, Metriken und automatisierte Screening-Tools für diese Formate. Daher sind Monitoring-Ansätze bzw. Dashboards, die auf Disziplinen fokussieren, bislang die Ausnahme.

Das BIH Quest Dashboard

Für die biomedizinische Forschung hat das BIH QUEST Center das Charité Dashboard on Responsible Research erstellt. Die fünf dargestellten OS-Indikatoren Open Access, Open Data, Open Code, Preprints und Anzahl der Forscher*innen mit ORCiD. Datenquellen für OA-Artikel, Preprints und ORCiD sind Unpaywall, Dimensions, und die ORCiD API. Für die OS-Indikatoren Open Data und Open Code wurden die Charité-Publikationen mit einem von QUEST entwickelten Textmining-Algorithmus analysiert: ODDPUB (Open Data Detection in Publications) [6]. ODDPub durchsucht den Volltext der Publikationen nach Aussagen, die auf Daten- oder Code-Sharing hindeuten.

Abbildung 2: Screenshot des Charité Dashboards: Indikatoren für Open Science (Abrufdatum: 7. April, 2022). URL: https://quest-dashboard.charite.de/

Zuletzt wurde das Charité Dashboard um ein FAIR Dashboard erweitert: Forschungsdaten, die in Publikationen von Charité-Autor*innen aus dem Jahr 2020 erwähnt wurden, werden auf die Umsetzung der FAIR Data Principles geprüft, d.h. ob sie in den Repositorien, in denen sie veröffentlicht wurden, auffindbar, zugänglich, interoperabel und nachnutzbar sind [7]. Dafür wurde das F-UJI Automated FAIR Data Assessment Tool verwendet. Anhand von 16 Metriken wird so die FAIRness eines Forschungsdatenobjekts in einem Repositorium bewertet und kann als Hilfsmittel für Forscher*innen dienen, Services auszuwählen, die Daten möglichst umfassend nachnutzbar bereitstellen.

Entwicklung prototypischer Dashboards im BUA Open Science Dashboard Projekt

Für das Monitoring im biomedizinischen Bereich besteht mit dem Charité Dashboard eine funktionale Lösung, während es für viele weitere Disziplinen keine vergleichbaren Ansätze gibt. Ziel des von der Berlin University Alliance (BUA) geförderten Projekts Open Science Dashboards ist es, mit weiteren ausgewählten Instituten bzw. wissenschaftlichen Communities an den BUA-Einrichtungen zusammenzuarbeiten und gemeinsam Indikatoren für ein prototypisches Dashboard zu entwickeln. Die bestehenden Open-Science-Indikatoren des Charité Dashboards können als Ausgangspunkt für weitere disziplinspezifische Dashboards genutzt werden. Außerdem können neue Indikatoren wie z.B. für Citizen Science, Software, Open Educational Resources oder Open-Access-Bücher entwickelt werden.

Die Dashboard-Prototypen können von Instituts- oder Fakultätsleitungen intern genutzt, von Forscher*innen der Communities selbst verwendet, sowie bei Wunsch auch offen verfügbar gemacht werden. Ein besonderer Schwerpunkt liegt dabei auf der Automatisierbarkeit der Erhebung von Indikatoren sowie der Berücksichtigung der FAIR-Prinzipien.

Wir freuen uns über Fragen und Feedback zu diesem Projekt: oabb@open-access-berlin.de.

Referenzen

  1. Severin A, Egger M, Eve MP and Hürlimann D. Discipline-specific open access publishing practices and barriers to change: an evidence-based review [version 2; peer review: 2 approved, 1 approved with reservations]. F1000Research 2020, 7:1925. https://doi.org/10.12688/f1000research.17328.2
  2. Pettibone L, Vohland K, Ziegler D (2017) Understanding the (inter)disciplinary and institutional diversity of citizen science: A survey of current practice in Germany and Austria. PLoS ONE 12(6): e0178778. https://doi.org/10.1371/journal.pone.0178778
  3. Kristijan Armeni, Loek Brinkman, Rickard Carlsson, Anita Eerland, Rianne Fijten, Robin Fondberg, Vera E Heininga, Stephan Heunis, Wei Qi Koh, Maurits Masselink, Niall Moran, Andrew Ó Baoill, Alexandra Sarafoglou, Antonio Schettino, Hardy Schwamm, Zsuzsika Sjoerds, Marta Teperek, Olmo R van den Akker, Anna van’t Veer, Raul Zurita-Milla, Towards wide-scale adoption of open science practices: The role of open science communities, Science and Public Policy, Volume 48, Issue 5, October 2021, Pages 605–611. https://doi.org/10.1093/scipol/scab039
  4. Tedersoo, Leho & Küngas, Rainer & Oras, Ester & Köster, Kajar & Eenmaa, Helen & Leijen, Äli & Pedaste, Margus & Raju, Marju & Astapova, Anastasiya & Lukner, Heli & Kogermann, Karin & Sepp, Tuul. (2021). Data sharing practices and data availability upon request differ across scientific disciplines. Scientific Data. 8. 192. https://doi.org/10.1038/s41597-021-00981-0
  5. Zuiderwijk A, and Spiers H (2019) Sharing and re-using open data: A case study of motivations in astrophysics. International Journal of Information Management: 49, pp: 228-241. https://doi.org/10.1016/j.ijinfomgt.2019.05.024
  6. Riedel, N., Kip, M. and Bobrov, E., 2020. ODDPub – a Text-Mining Algorithm to Detect Data Sharing in Biomedical Publications. Data Science Journal, 19(1), p.42. http://doi.org/10.5334/dsj-2020-042
  7. Wilkinson, M., Dumontier, M., Aalbersberg, I. et al. The FAIR Guiding Principles for scientific data management and stewardship. Sci Data 3, 160018 (2016). https://doi.org/10.1038/sdata.2016.18