Qualitätskriterien und bibliometrische Kennzahlen

Impact-Faktor und h-Index – bibliometrische Kennzahlen zum Messen wissenschaftlicher Qualität?

 Wissenschaftler*innen und ihre Forschung stehen häufig im Wettbewerb um Aufmerksamkeit, Positionen und Forschungsgelder. Bibliometrische Kennzahlen wie Impact-Faktor und (H)irsch-Index zum Vergleich von Forschungsleistungen heranzuziehen, erscheint so als korrekte und eindeutig belegte Methode.

Die Zitationsdatenbank Web of Science bietet dafür den Journal Impact Faktor für Zeitschriften an, der sich aus der Anzahl der Publikationen und die Anzahl der Zitationen dieser Publikationen für die zurückliegenden zwei Jahre errechnet. Ein hoher JIF bedeutet, dass Artikel einer Zeitschrift viel Aufmerksamkeit finden. Sie können also feststellen, ob Wissenschaftler*innen in renommierten Zeitschriften ihres Fachgebiets veröffentlicht haben und ob Ihre Publikationen die Aufmerksamkeit der Fachkolleg*innen erhalten haben. Auskunft über die inhaltliche Qualität der Arbeiten gibt der Journal Impact Faktor nicht.

Die Datenbank Scopus des Verlags Elsevier bietet mit dem Cite Score eine ähnliche Kennzahl an. CiteScore soll als Konkurenz zum Impact-Faktor ebenfalls den Stellenwert von Zeitschriften innerhalb ihres Fachgebiets zeigen. Die Werte weichen zum Teil ab,  da sich die Datengrundlage und die Berechnung unterscheiden.

Autor*innen können mit dem Impact-Faktor und dem CiteScore Zeitschriften mit hohem Prestige ermitteln, die zum Publizieren attraktiv sind, da die Wahrscheinlichkeit zitiert zu werden hoch ist.

h-Index oder Hirsch-Index:

Im Web of Science, in Sopus, und Google Scholar finden Sie außerdem den h-Index von Forscher*innen, der sich aus der Anzahl ihrer Publikationen und der Zitierhäufigkeit errechnet. Ein hoher h-Index zeigt, dass Wissenschaftlerinnen produktiv sind und ihre Forschung innerhalb ihres Fachgebiets viel Aufmerksamkeit findet. Über die inhaltliche Qualität trifft  auch diese Kennzahl keine Aussage.

Peer Review als Qualitätssicherung im Publikationsprozess:

Peer Review bezeichnet die Bewertung wissenschaftlicher  Arbeiten durch unabhängige Gutachter, Wissenschaftler*innen desselben Fachgebiets. Es ist wichtiger Faktor bei der Einschätzung der Qualität einer wissenschaftlichen Zeitschrift. Das Peer-Review-Verfahren ist jedoch nicht unumstritten, da :

  • Sorgfalt, inhaltliche Tiefe des Gutachtens nicht nachvollziehbar sind
  • Plagiate, Betrug, Täuschung  nicht immer aufgedeckt werden (vgl. Spiegel-Online-Artikel, 23.05.2017)
  • Manipulation möglich ist

Bei Interesse an einer ausführlichen Auseinandersetzung mit Qualitätskriterien wissenschaftlicher Publikationen bietet die Universitätsbibliothek sowohl ein moderiertes Online-Format (digital oder in Präsenz)  als auch einen Selbstlernkurs an. Dieses Angebot richtet sich an fortgeschrittene Studierende und Doktorand*innen.

Auch gehen wir in unserer Evening Lecture am Dienstag, den 14. Dezember 2021 ab 17:00 Uhr auf Impact-Faktor und h-Index ein.

Vielen Dank für den Text an Heike Thomas (Universitätsbibliothek).

Siehe auch: Akademisches Identitätsmanagement – Sehen und gesehen werden

(Bildquelle: Pixabay.com)

„Scirus has retired“

homepage_logoScirus, die „dienstälteste“ Suchmaschine für wissenschaftliche Inhalte, wurde Ende Januar 2014 leider eingestellt.
Die Suchmaschine, die seit 2001 vom Elsevier-Verlag betrieben wurde, bezeichnete sich selbst als weltweit umfangreichste wissenschaftliche Suchmaschine. Ihr Index umfasste zuletzt über 500 Millionen wissenschaftliche Dokumente vor allem aus Open-Access-Repositories, aber auch Webseiten. Die Inhalte lagen meist im Volltext und kostenfrei vor, die Suchmöglichkeiten waren sehr differenziert.
Elsevier möchte nach eigenen Angaben seine Kräfte auf das Kerngeschäft konzentrieren und verweist auf der Website „Scirus has retired“ auf seine kostenpflichtigen Angebote ScienceDirect und Scopus. Die Datenbank ScienceDirect hat die FU dauerhaft lizenziert, für die Datenbank Scopus besteht ein zweijähriger bezahlter Test bis Ende 2014.

Ihren Dienst eingestellt hat auch die wissenschaftliche Suchmaschine Scientific Commons. Sie wurde am Institut für Medien und Kommunikationsmanagement der Universität St.Gallen entwickelt und verstand sich als eine Plattform, die die Suche nach frei zugänglichen wissenschaftlichen Publikationen aus allen Fachgebieten ermöglichte. Über die Suchmaschine waren mehr als 30 Millionen Publikationen von über 1000 Dokumentenservern aus über 60 Ländern auffindbar.

Wissenschaftliche Suchmaschinen können interessant sein, um an Informationen für das Studium zu gelangen. Sie bieten neben den Volltexten aus Open-Access-Quellen mitunter auch einen Link zu Volltexten, die über die Uni lizenziert sind. Der Zugriff von außerhalb des FU-Campus auf diese Volltexte ist für FU-Angehörige möglich mit Hilfe des VPN-Clients (Virtual Private Network) oder des Eintrags des entsprechenden Proxy-Servers in den Browser.

Drei wichtige wissenschaftliche Suchmaschinen sind auch weiterhin über unsere Digitale Bibliothek erreichbar: BASE, Google Scholar und OAIster.