{"id":1245,"date":"2022-09-30T10:40:14","date_gmt":"2022-09-30T08:40:14","guid":{"rendered":"https:\/\/blogs.fu-berlin.de\/open-access-berlin\/?p=1245"},"modified":"2025-06-18T14:57:29","modified_gmt":"2025-06-18T12:57:29","slug":"fairdatatadashboard","status":"publish","type":"post","link":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/2022\/09\/30\/fairdatatadashboard\/","title":{"rendered":"Entwicklung eines Open-Science-Indikators am Beispiel des FAIR Data Dashboards der Charit\u00e9"},"content":{"rendered":"\n<pre>Zitierhinweis: Taubitz, Jan (2022) Entwicklung eines Open-Science-Indikators am Beispiel des FAIR Data Dashboards der Charit\u00e9 \u2013 Open Access Blog Berlin. DOI: <a href=\"https:\/\/doi.org\/10.59350\/nyts9-7q976\">https:\/\/doi.org\/10.59350\/nyts9-7q976<\/a><\/pre>\n\n\n\n<p>Dieser Beitrag zeigt am Beispiel des <a href=\"https:\/\/quest-dashboard.charite.de\/#tabFAIR\" target=\"_blank\" rel=\"noreferrer noopener\">FAIR Data Dashboards<\/a> der Charit\u00e9 \u2014 Universit\u00e4tsmedizin Berlin, wie Open-Science-Indikatoren entstehen k\u00f6nnen. Hierzu greifen eine Reihe von selbst- und weiterentwickelten Datenanalyse- und Datenextraktions-Tools ineinander, um die <a href=\"https:\/\/www.go-fair.org\/fair-principles\/\" target=\"_blank\" rel=\"noreferrer noopener\">FAIRness<\/a> von in Datenrepositorien publizierten Forschungsdaten einer Forschungseinrichtung zu analysieren.<\/p>\n<p><!--more--><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">An wen richtet sich dieser Beitrag?<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li>An alle, die sich f\u00fcr Open Science Monitoring und die Entwicklung von Open-Science-Indikatoren interessieren.<\/li>\n<li>An alle, die sich mit FAIR Data Assessment besch\u00e4ftigen \u2014 insbesondere mit einem automatischem FAIR Data Assessment auf institutioneller Ebene.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Was sind die FAIR Principles?<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li>2016 ver\u00f6ffentlicht als <a href=\"https:\/\/doi.org\/10.1038\/sdata.2016.18\" target=\"_blank\" rel=\"noreferrer noopener\">FAIR Guiding Principles for scientific data management and stewardship<\/a><\/li>\n<li>Open-Data-Grunds\u00e4tzen folgend sollen sie sicherstellen, dass Forschungsdaten <em>findable<\/em>, <em>accessible<\/em>, <em>interoperable<\/em> und <em>reusable<\/em> sind<\/li>\n<li>Der Fokus liegt auf der Maschinenlesbarkeit von (Meta-)Daten<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Die Ausgangssituation<\/h2>\n\n\n\n<p>Unser Ziel war klar: Wir wollten im <a href=\"https:\/\/www.berlin-university-alliance.de\" target=\"_blank\" rel=\"noreferrer noopener\">BUA<\/a>-gef\u00f6rderten Projekt <a href=\"https:\/\/www.bihealth.org\/de\/translation\/innovationstreiber\/quest-center\/projekte\/projekt\/bua-open-science-dashboards\" target=\"_blank\" rel=\"noreferrer noopener\">Open Science Dashboards<\/a> einen Open-Science-Indikator entwickeln, der die Nachnutzbarkeit von Forschungsdaten von Forschenden der Charit\u00e9 anhand der <a href=\"https:\/\/doi.org\/10.1038\/sdata.2016.18\" target=\"_blank\" rel=\"noreferrer noopener\">FAIR Principles<\/a> evaluiert.<\/p>\n\n\n\n<p>Im ersten Schritt mussten wir herausfinden, welche Forschungsdaten \u00fcberhaupt in \u00f6ffentlich zug\u00e4nglichen Datenrepositorien ver\u00f6ffentlicht sind. Hierzu wurde am <a href=\"https:\/\/www.bihealth.org\/de\/translation\/innovationstreiber\/quest-center\" target=\"_blank\" rel=\"noreferrer noopener\">BIH QUEST Center<\/a> ein Workflow mit selbst- und weiterentwickelten Tools erstellt, um die in \u00f6ffentlich zug\u00e4nglichen Repositorien ver\u00f6ffentlichten Forschungsdaten von Angeh\u00f6rigen der Charit\u00e9 zu ermitteln. Der Workflow startet beim Journal-Artikel. Dieser Startpunkt der Analyse wurde gew\u00e4hlt, da wir nur Forschungsdaten analysieren wollten, die mit einem Forschungs-Output in Form eines Artikels verkn\u00fcpft sind. Wir waren allerdings auch aus praktischen Gr\u00fcnden angeraten, beim Forschungsartikel zu starten. F\u00fcr Forschungsartikel existieren eine Vielzahl bibliographischer Datenbanken, in denen nach Artikeln mit Charit\u00e9-Affiliation gesucht werden kann. F\u00fcr unser Vorhaben wurden beispielsweise die bibliographischen Meta-Datenbanken Web of Science und Embase verwendet. F\u00fcr Forschungsdaten ist die Suche in Meta-Datenbanken anhand der Affiliation der Autor*innen bislang nicht zuverl\u00e4ssig m\u00f6glich, was haupts\u00e4chlich daran liegt, dass in den existierenden Datenbanken viele Repositorien noch nicht indexiert werden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Text Mining der Journal-Artikel mit ODDPub<\/h2>\n\n\n\n<p>Um aus der Publikationsliste zu ermitteln, welche Forschungsartikel mit ver\u00f6ffentlichten Forschungsdaten verkn\u00fcpft sind, wurde das R-Package <a href=\"https:\/\/github.com\/ropensci\/fulltext\">fulltext<\/a> genutzt. Damit k\u00f6nnen Volltexte von abonnementbasierten Artikeln, die von mehreren gro\u00dfen Verlagen via API angeboten werden (z.B. Elsevier, Wiley oder Springer\/Nature), sowie Volltexte von Open-Access-Artikeln \u00fcber die <a href=\"https:\/\/unpaywall.org\/products\/api\" target=\"_blank\" rel=\"noreferrer noopener\">Unpaywall API<\/a> heruntergeladen werden. Die Volltexte wurden in einem n\u00e4chsten Schritt mit dem ebenfalls selbstentwickelten Text-Mining-Algorithmus <a href=\"https:\/\/github.com\/quest-bih\/oddpub\" target=\"_blank\" rel=\"noreferrer noopener\">Open Data Detection in Publications (ODDPub)<\/a> analysiert. ODDPub identifiziert die Data Statements in Artikeln und kennzeichnet diejenigen Publikationen, in denen Hinweise auf Daten-Repositorien und\/oder Akzessions-Nummern von Forschungsdaten gegeben sind.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"908\" height=\"528\" class=\"wp-image-1262\" src=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/oddpub-1.png\" alt=\"\" srcset=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/oddpub-1.png 908w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/oddpub-1-300x174.png 300w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/oddpub-1-768x447.png 768w\" sizes=\"auto, (max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 1362px) 62vw, 840px\" \/>\n<figcaption>Von ODDPub detektiertes Data Statement\u00a0(<a href=\"https:\/\/doi.org\/10.7554\/eLife.51156\">https:\/\/doi.org\/10.7554\/eLife.51156<\/a>)<\/figcaption>\n<\/figure>\n\n\n\n<p><a href=\"https:\/\/datascience.codata.org\/article\/10.5334\/dsj-2020-042\/\" target=\"_blank\" rel=\"noreferrer noopener\">ODDPub detektiert zwar ziemlich pr\u00e4zise<\/a>, ob der Artikel mit Forschungsdaten verkn\u00fcpft ist. Das Tool zeigt jedoch nicht, mit welchen Forschungsdaten ein Artikel verkn\u00fcpft ist und es kann nicht erkennen, ob die Forschungsdaten auch tats\u00e4chlich von den Autor*innen des Artikels erstellt wurden oder ob es sich um eine Nachnutzung von Forschungsdaten handelt, was wir in unserer Analyse nicht ber\u00fccksichtigen wollten.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Manuelles Screening der Data Statements und Journal-Artikel mit Numbat<\/h2>\n\n\n\n<p>Um die durch ODDPub ermittelten Data Statements zu validieren, kommt ein weiteres Tool zum Einsatz. Es handelt sich um <a href=\"https:\/\/github.com\/bgcarlisle\/Numbat\" target=\"_blank\" rel=\"noreferrer noopener\">Numbat<\/a>. Es ist ein Screening Tool, das urspr\u00fcnglich f\u00fcr die Extraktion von Daten aus Prim\u00e4rquellen oder Artikeln beispielsweise f\u00fcr Systematic Reviews und andere \u00dcbersichtsarbeiten programmiert wurde. Mit einigen Anpassungen konnte es jedoch f\u00fcr unsere Zwecke genutzt werden. Durch einen manuellen Fragepfad kann mit Numbat zuverl\u00e4ssig ermittelt werden, ob es sich bei den im Artikel zitierten Forschungsdaten um selbsterstellte Forschungsdaten handelt und welche IDs diese Forschungsdaten haben. Der Nachteil von Numbat ist sicherlich, dass es einen hohen zeitlichen Aufwand verursacht, da es auf einem manuellen Screening basiert. Der ODDPub- und Numbat-Workflow ist ausf\u00fchrlich in einem <a href=\"https:\/\/dx.doi.org\/10.17504\/protocols.io.q26g74p39gwz\/v1\" target=\"_blank\" rel=\"noreferrer noopener\">Protokoll auf protocols.io<\/a> beschrieben.<\/p>\n\n\n\n<p>Am Ende von Numbat und des gesamten Workflows, der mit der Publikationsliste startet, steht eine Liste mit Globally Unique Identifiers (GUIDs: URLs oder DOIs) von in Repositorien ver\u00f6ffentlichten und mit Charit\u00e9-Autor*innen verkn\u00fcpften Datens\u00e4tzen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">FAIR Assessment mit F-UJI<\/h2>\n\n\n\n<p>Die IDs k\u00f6nnen nun auf ihre Nachnutzbarkeit nach den FAIR Principles \u00fcberpr\u00fcft werden. Hierzu gibt es eine Reihe von Assessment-Tools, die die Forschungsdaten-IDs als Input nehmen und Metadaten \u00fcber die Landing Pages der Repositorien und\/oder \u00fcber DataCite abfragen. Mittels der abgefragten Metadaten kann die FAIRness evaluiert werden. Als zuverl\u00e4ssigstes Tool mit der besten Dokumentation und gutem Support hat sich <a href=\"https:\/\/www.f-uji.net\/\" target=\"_blank\" rel=\"noreferrer noopener\">F-UJI<\/a> herausgestellt, das im Rahmen des <a href=\"https:\/\/www.fairsfair.eu\" target=\"_blank\" rel=\"noreferrer noopener\">FAIRsFAIR-Projekt<\/a> entstanden ist und nun im <a href=\"https:\/\/fair-impact.eu\" target=\"_blank\" rel=\"noreferrer noopener\">FAIR-IMPACT-Projekt<\/a> weiterentwickelt wird. Es gibt eine Reihe von Tools, die \u00e4hnlich funktionieren und vielversprechend sind. Hierzu geh\u00f6ren der <a href=\"https:\/\/fairsharing.github.io\/FAIR-Evaluator-FrontEnd\/#!\/\" target=\"_blank\" rel=\"noreferrer noopener\">FAIR Evaluator<\/a> oder auch <a href=\"https:\/\/fair-enough.semanticscience.org\" target=\"_blank\" rel=\"noreferrer noopener\">FAIR Enough<\/a>. F-UJI (und die anderen Tools) sind allerdings f\u00fcr die Analyse einzelner Forschungsdaten konzipiert. Um unsere Liste mit Forschungsdaten abfragen zu k\u00f6nnen, musste F-UJI zun\u00e4chst lokal installiert werden. Anschlie\u00dfend konnte \u00fcber eine API unsere Liste mit den IDs abgefragt werden:<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code># Function to query local F-UJI server\nfuji_local_server &lt;- function(rd_id){\n  headers = c(\n    `accept` = \"application\/json\",\n    `Content-Type` = \"application\/json\")\n  \n  data &lt;- list(metadata_service_endpoint = \"\", \n               metadata_service_type = \"oai_pmh\",\n               object_identifier = rd_id,\n               test_debug = TRUE,\n               use_datacite = TRUE)\n  \n  res &lt;- httr::POST(url = \"http:\/\/localhost:1071\/fuji\/api\/v1\/evaluate\", httr::add_headers(.headers = headers), body = data, encode = \"json\")  \n  \n  fuji_local_parsed &lt;- content(res)\n  return(fuji_local_parsed)\n}\n\n# Query large set of research data ids\nfuji_local_list &lt;- map(charite_rd_2020_guid, fuji_local_server)<\/code><\/pre>\n\n\n\n<p>Der Output von F-UJI ist eine JSON-Datei mit dem FAIR Assessment. Das FAIR Assessment von F-UJI basiert auf den <a href=\"https:\/\/doi.org\/10.5281\/zenodo.6461229\" target=\"_blank\" rel=\"noreferrer noopener\">FAIRsFAIR-Metriken<\/a>, die die abstrakten FAIR Principles zun\u00e4chst in \u00fcberpr\u00fcfbare Metriken und anschlie\u00dfend in <a href=\"https:\/\/www.f-uji.net\/index.php?action=methods\" target=\"_blank\" rel=\"noreferrer noopener\">durchf\u00fchrbare Tests<\/a> \u00fcbertragen.<\/p>\n\n\n\n<p>Der F-UJI-Output wurde noch mit Informationen \u00fcber die Repositorien angereichert, die <a href=\"https:\/\/www.re3data.org\" target=\"_blank\" rel=\"noreferrer noopener\">re3data (Registry of Research Data Repositories)<\/a> bereitstellt. Anschlie\u00dfend wurde der Output statistisch analysiert.<\/p>\n\n\n\n<p>Hier der gesamte Workflow in einem High Level Flowchart:<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" class=\"wp-image-1269\" src=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Flowchart_FDD_2-1024x576.png\" alt=\"\" srcset=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Flowchart_FDD_2-1024x576.png 1024w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Flowchart_FDD_2-300x169.png 300w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Flowchart_FDD_2-768x432.png 768w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Flowchart_FDD_2-1536x864.png 1536w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Flowchart_FDD_2-2048x1152.png 2048w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Flowchart_FDD_2-1200x675.png 1200w\" sizes=\"auto, (max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 1362px) 62vw, 840px\" \/>\n<figcaption>Workflow vom FAIR Data Dashboard<\/figcaption>\n<\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Pr\u00e4sentation der Ergebnisse in einem Dashboard<\/h2>\n\n\n\n<p>Das Ergebnis wurde als Teil des <a href=\"https:\/\/quest-dashboard.charite.de\/#tabStart\" target=\"_blank\" rel=\"noreferrer noopener\">Charit\u00e9 Dashboards for Responsible Research<\/a> ver\u00f6ffentlicht. Im Zentrum steht ein FAIR Score, der die prozentuale Erf\u00fcllung der <a href=\"https:\/\/doi.org\/10.5281\/zenodo.6461229\" target=\"_blank\" rel=\"noreferrer noopener\">FAIRsFAIR-Metriken<\/a> abbildet.<\/p>\n\n\n\n<p>Pr\u00e4sentiert werden die Ergebnisse u.a. in einem Sunburst-Chart, der auf einen Blick die Erf\u00fcllung und die Gewichtung der einzelnen FAIR Principles darstellt. Das F1-Prinzip (&#8222;(Meta)data are assigned a globally unique and persistent identifier&#8220;) ist beispielsweise mit 8,3% gewichtet, wohingegen das R1-Prinzip (&#8222;(Meta)data are richly described with a plurality of accurate and relevant attributes&#8220;) mit 16,7% in die Gesamtwertung einflie\u00dft.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"834\" class=\"wp-image-1271\" src=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-26-at-11.37.51-1024x834.png\" alt=\"\" srcset=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-26-at-11.37.51-1024x834.png 1024w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-26-at-11.37.51-300x244.png 300w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-26-at-11.37.51-768x625.png 768w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-26-at-11.37.51-1200x977.png 1200w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-26-at-11.37.51.png 1344w\" sizes=\"auto, (max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 1362px) 62vw, 840px\" \/>\n<figcaption>Ausschnitt <a href=\"https:\/\/quest-dashboard.charite.de\/#tabFAIR\" target=\"_blank\" rel=\"noreferrer noopener\">FAIR Data Dashboard<\/a> im Charit\u00e9 Dashboard on Responsible Research<\/figcaption>\n<\/figure>\n\n\n\n<p>Die Ergebnisse der Evaluation k\u00f6nnen nach Repositoriums-Typ (fachspezifisch oder allgemein) sowie nach den einzelnen Repositorien gefiltert werden. So wird deutlich, dass allgemeine Repositorien wie Figshare oder Zenodo deutlich besser abschneiden als beispielsweise die an der Charit\u00e9 intensiv genutzten fachspezifischen Repositorien des U.S. National Center for Biotechnology Information (NCBI).<\/p>\n\n\n\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-1 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"862\" data-id=\"1277\" class=\"wp-image-1277\" src=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.42-1024x862.png\" alt=\"\" srcset=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.42-1024x862.png 1024w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.42-300x252.png 300w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.42-768x646.png 768w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.42-1536x1292.png 1536w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.42-1200x1010.png 1200w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.42.png 1614w\" sizes=\"auto, (max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 1362px) 62vw, 840px\" \/><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"865\" data-id=\"1278\" class=\"wp-image-1278\" src=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.58-1024x865.png\" alt=\"\" srcset=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.58-1024x865.png 1024w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.58-300x254.png 300w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.58-768x649.png 768w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.58-1536x1298.png 1536w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.58-1200x1014.png 1200w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.08.58.png 1614w\" sizes=\"auto, (max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 1362px) 62vw, 840px\" \/><\/figure>\n\n<figcaption class=\"blocks-gallery-caption\">FAIR Scores f\u00fcr Figshare und NCBI Gene Expression Omnibus im Vergleich<\/figcaption>\n<\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Was haben wir durch das FAIR-Assessment gewonnen?<\/h3>\n\n\n\n<p>Mit dem FAIR Score k\u00f6nnen wir die Nachnutzbarkeit von Forschungsdaten auf institutioneller Ebene bewerten. Unseres Wissens gibt es weltweit keine andere Einrichtung, die die FAIRness der von ihren Forschenden publizierten Forschungsdaten evaluiert und offenlegt.<\/p>\n\n\n\n<p>Ein weiterer Vorteil dieser Darstellung ist, dass durch das FAIR Assessment und dessen Visualisierung die FAIR Principles nachvollziehbarer werden und somit Wissen \u00fcber FAIR Data vermittelt werden kann. Das ist n\u00f6tig, da unter der Oberfl\u00e4che des eing\u00e4ngigen Akronyms FAIR die FAIR Principles schnell sehr technisch werden. Das FAIR Data Dashboard zeigt die hinter den FAIR Principles liegenden deutlich konkreteren <a href=\"https:\/\/doi.org\/10.5281\/zenodo.6461229\" target=\"_blank\" rel=\"noreferrer noopener\">FAIRsFAIR-Metriken<\/a>, was Nutzer*innen des Dashboards \u00fcber den Aufbau eines FAIR Assessments informiert. Neben dem wissensvermittelnden Aspekt gewinnen wir Informationen \u00fcber die von an der Charit\u00e9 Forschenden verwendeten Datenrepositorien und deren FAIRness, die f\u00fcr Beratungen und Interventionen eingesetzt werden k\u00f6nnen.<\/p>\n\n\n\n<p>Der FAIR Score ist zun\u00e4chst nur eine Nummer, der die Ergebnisse verschiedener Metadaten-Tests zusammenfasst. Ob sich der FAIR Score zur Beschreibung der Nachnutzbarkeit von Forschungsdaten etabliert oder ob sich eine andere (anschaulichere?) Skala durchsetzt, wird sich zeigen.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"715\" class=\"wp-image-1280\" src=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.16.31-1024x715.png\" alt=\"\" srcset=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.16.31-1024x715.png 1024w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.16.31-300x209.png 300w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.16.31-768x536.png 768w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.16.31-1536x1072.png 1536w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.16.31-1200x837.png 1200w, https:\/\/blogs.fu-berlin.de\/open-research-berlin\/files\/2022\/09\/Screenshot-2022-09-27-at-10.16.31.png 1602w\" sizes=\"auto, (max-width: 709px) 85vw, (max-width: 909px) 67vw, (max-width: 1362px) 62vw, 840px\" \/>\n<figcaption>Hierarchische Darstellung der Metriken im <a href=\"https:\/\/quest-dashboard.charite.de\/#tabFAIR\" target=\"_blank\" rel=\"noreferrer noopener\">FAIR Data Dashboard<\/a><\/figcaption>\n<\/figure>\n\n\n\n<p>Eine wichtige Einschr\u00e4nkung ist, dass durch das FAIR Assessment ausschlie\u00dflich die Metadaten der Datens\u00e4tze untersucht werden. Das hei\u00dft, die Qualit\u00e4t der den Forschungsdaten zugrundeliegende Forschung, die tats\u00e4chliche Reproduzierbarkeit der Analysen und die Vollst\u00e4ndigkeit der Daten kann mit den automatischen Tools nicht \u00fcberpr\u00fcft werden. Das ist ein Aspekt, der auch andere Open-Science-Metriken betrifft: Ein gr\u00fcner oder goldener Open-Access-Status trifft eine Aussage zur Offenheit des Forschungsartikels, aber nicht zu seiner Originalit\u00e4t oder methodischen Genauigkeit.<\/p>\n\n\n\n<p>Das FAIR Data Dashboard und der FAIR Score ist ein Beispiel, wie Open-Science-Indikatoren durch den Einsatz von selbstentwickelten Tools sowie die Nutzung und Weiterentwicklung bestehender Tools entstehen k\u00f6nnen. Wer Interesse an der Entwicklung eigener Open-Science-Indikatoren hat, der sollte sich unseren <a href=\"https:\/\/blogs.fu-berlin.de\/open-access-berlin\/2022\/09\/13\/call-for-participation-dashboards\/\">Call for Participation<\/a> ansehen:<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-rich is-provider-twitter wp-block-embed-twitter\">\n<div class=\"wp-block-embed__wrapper\">https:\/\/twitter.com\/oa_berlin\/status\/1569952920971481090<\/div>\n<\/figure>\n","protected":false},"excerpt":{"rendered":"<p>Zitierhinweis: Taubitz, Jan (2022) Entwicklung eines Open-Science-Indikators am Beispiel des FAIR Data Dashboards der Charit\u00e9 \u2013 Open Access Blog Berlin. DOI: https:\/\/doi.org\/10.59350\/nyts9-7q976 Dieser Beitrag zeigt am Beispiel des FAIR Data Dashboards der Charit\u00e9 \u2014 Universit\u00e4tsmedizin Berlin, wie Open-Science-Indikatoren entstehen k\u00f6nnen. Hierzu greifen eine Reihe von selbst- und weiterentwickelten Datenanalyse- und Datenextraktions-Tools ineinander, um die FAIRness &hellip; <a href=\"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/2022\/09\/30\/fairdatatadashboard\/\" class=\"more-link\"><span class=\"screen-reader-text\">\u201eEntwicklung eines Open-Science-Indikators am Beispiel des FAIR Data Dashboards der Charit\u00e9\u201c<\/span> weiterlesen<\/a><\/p>\n","protected":false},"author":6379,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[575088],"tags":[75562,448984],"class_list":["post-1245","post","type-post","status-publish","format-standard","hentry","category-bua-open-science-magnifiers","tag-monitoring","tag-fair"],"_links":{"self":[{"href":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/wp-json\/wp\/v2\/posts\/1245","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/wp-json\/wp\/v2\/users\/6379"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/wp-json\/wp\/v2\/comments?post=1245"}],"version-history":[{"count":1,"href":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/wp-json\/wp\/v2\/posts\/1245\/revisions"}],"predecessor-version":[{"id":3294,"href":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/wp-json\/wp\/v2\/posts\/1245\/revisions\/3294"}],"wp:attachment":[{"href":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/wp-json\/wp\/v2\/media?parent=1245"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/wp-json\/wp\/v2\/categories?post=1245"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.fu-berlin.de\/open-research-berlin\/wp-json\/wp\/v2\/tags?post=1245"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}