Peer-Review ist ein wesentlicher Bestandteil des Forschungs- und wissenschaftlichen Lebenszyklus. Dennoch werden Peer-Review-Aktivitäten von Forschern selten als grundlegender Beitrag zur Forschung anerkannt. Gleichzeitig stößt die Notwendigkeit, mehr Forscher zur Teilnahme am Begutachtungsprozess zu ermutigen, um eine immer größere Zahl von Manuskripten und Zuschüssen zu bearbeiten, mit dem wachsenden Wunsch zusammen, Wege zu finden, um mehr Vertrauen in Peer-Review-Prozesse aufzubauen. Es ist an der Zeit, kreativ darüber nachzudenken, wie das geht Anreize (einschließlich öffentlicher Anerkennung) und Vertrauen (durch Validierung) schaffen.
Die Praxis der Anerkennung von Peer-Reviews
Mit diesem im Verstand, ORCID und F1000 haben sich zusammengetan, um ein praktisches Mittel zur Zitierung von Peer-Review-Aktivitäten zu entwickeln, das auf einem Standardsatz von Begriffen und der Verwendung persistenter Identifikatoren basiert. „Der formelle, aber völlig transparente Peer-Review-Prozess nach der Veröffentlichung, der auf beiden Seiten angewendet wird F1000Prime Artikelempfehlungsdienst und zu Artikeln, die in veröffentlicht wurden F1000Research bietet uns die Möglichkeit, die Anerkennung zu maximieren, die wir unseren Gutachtern für den oft erheblichen Zeit- und Arbeitsaufwand zurückgeben können, der für die Erstellung eines guten Peer-Reviews erforderlich ist – Arbeit, die normalerweise unsichtbar bleibt“, sagt Rebecca Lawrence, Geschäftsführerin von F1000Research. „Schiedsrichter haben dadurch die Möglichkeit, ihre oft umfangreichen Schiedsrichterberichte zu zitieren und sie in Listen ihrer Ergebnisse aufzunehmen, z. B ORCID Aufzeichnungen ist ein großer Fortschritt bei der ordnungsgemäßen Anerkennung dieser Tätigkeit, die für die Weiterentwicklung des wissenschaftlichen Verständnisses von wesentlicher Bedeutung ist.“
Zusammenarbeit mit den Konsortien zur Förderung der Standards in der Forschungsverwaltungsinformation (CASRAI), haben wir a Gemeinschaftsarbeitsgruppe um einen Standardfeldsatz und Geschäftsregeln zu definieren, die für die vielen Arten von Peer-Reviews gelten, die in den Bereichen Veröffentlichung, Finanzierung, universitäres Forschungsmanagement und Konferenzpräsentationen verwendet werden. Bei allen formellen Begutachtungstypen haben wir festgestellt, dass die größte Herausforderung darin besteht, einen Standard zu definieren, der flexibel genug ist, um das gesamte Spektrum an Begutachtungen zu ermöglichen, von anonymen Doppelblindverfahren bis hin zu vollständig offenen Begutachtungen. Als Gruppe kamen wir zu dem Schluss, dass das Unternehmen, das Bewertungen anfordert und verwaltet, bei anonymen Bewertungen eine Gesamtzahl der Bewertungen für diesen Prüfer über einen angemessenen Zeitraum bereitstellen sollte.
Empfehlungen der Arbeitsgruppe
Wir freuen uns, die Veröffentlichung der Empfehlungen der Arbeitsgruppe für a bekannt zu geben Peer-Review-Aktivitätsdatenprofil. Die Arbeitsgruppe kam zu dem Schluss, dass die folgenden Zitierdatenelemente zur Beschreibung des Peer-Reviews verwendet werden sollten:
- PERSON: Felder, einschließlich einer Personenkennung, die die Person beschreiben, die die Überprüfung durchgeführt hat und für diese Überprüfungsaktivität anerkannt wird.
- REVIEW: Felder, einschließlich einer Bewertungskennung, die die Bewertung selbst beschreiben. Bei blinden oder anderweitig nicht geteilten Bewertungen können diese Informationen leer bleiben.
- THEMA: Felder, die den Gegenstand der Begutachtung beschreiben, z. B. die Arbeit, das Stipendium oder einen anderen Gegenstand. Bei blinden oder anderweitig nicht geteilten Bewertungen können diese Informationen auch leer bleiben.
- ORGANISATION: Felder, einschließlich einer Organisationskennung, die die Organisation beschreiben, die die Person für die Überprüfungsaktivität auszeichnet, z. B. ein Herausgeber, eine Vereinigung oder ein Geldgeber.
Um die Beiträge klarer zu formulieren und besser zu typischen Peer-Review-Arbeitsabläufen zu passen, empfahl die Arbeitsgruppe, jeden Review-Beitrag unabhängig zu beschreiben. Wenn eine Person beispielsweise vier Rezensionen für eine bestimmte Zeitschrift durchführt, wären vier Rezensionsbeschreibungen erforderlich, um die Aktivität zu beschreiben. Um jedoch die Anonymität zu gewährleisten, die manchmal für Peer-Review-Aktivitäten erforderlich ist, sind die Aggregation von Aktivitäten und minimale Metadaten akzeptabel, wobei nur die Person, die Organisation/Ressource, die die Überprüfung gesponsert hat, die Anzahl der Bewertungen über einen bestimmten Zeitraum usw. angegeben werden eine eindeutige Quellenkennung, z. B. eine Titelseite mit einer Auflistung der Rezensenten, die zur Erkennung des Beitrags erforderlich ist.
Empfehlungen umsetzen
Mehrere Organisationen planen, diesen Peer-Review-Zitierstandard beim Sammeln, Speichern und Austauschen von Peer-Review-Informationen zu übernehmen. Im April 2015 wurde die ORCID Das technische Team hat mit der Interpretation und Umsetzung der Empfehlungen der Arbeitsgruppe begonnen und wir werden diesen Sommer die Unterstützung für Peer-Review in unseren APIs und unserer Benutzeroberfläche einführen. Folgendes planen einige andere Organisationen:
- F1000 plant die Implementierung des neuen Zitierdatenmodells für Rezensionen, um validierte Rezensionsaktivitäten an den Rezensenten zu senden ORCID Aufzeichnungen über ihre Plattform und arbeiten mit ihren Partnern zusammen, um die Integration in die Arbeitsabläufe zur Konferenzbesprechung zu erleichtern.
- American Geophysical Union, arbeiten mit eJournalPress, planen die Implementierung eines Workflows zum Sammeln ORCID IDs für ihre Prüfer und veröffentlichen Sie validierte Prüfaktivitäten an den Prüfer ORCID Datensätze mit dem neuen Datenstandard.
- Die Zeitschrift Politics and Religion der APSA plant eine Sammlung ORCID iDs für seine Rezensenten.
- Wissenschaftsstand plant zu integrieren ORCID und den Zitierstandard für Rezensionen in die neue Funktion „Rezensentenprofile“ integriert.
- Europa PubMedCentral plant, Prüferinformationen und Links zu offenen Rezensionen anzuzeigen.
- Ansehen planen, mit ihnen zusammenzuarbeiten ORCID um Arbeitsabläufe und APIs für die Anzeige von Peer-Review-Zitaten in einer Impact-Management-Plattform eines Drittanbieters zu testen.
Wir appellieren an alle Organisationen, die Peer-Review nutzen – Verlage, Geldgeber, Verbände, Universitäten –, ihren Gutachtern eine angemessene Anerkennung ihrer Arbeit zu ermöglichen. Helfen Sie uns, die Nachricht zu verbreiten!
Mitverfasst von Rebekka Lawrence, Geschäftsführer, F1000 Research.