Peer-Review

Ein oder eine Peer-Review (englisch von Peer, Gleichrangiger und Review, Begutachtung, seltener deutsch: Kreuzgutachten) ist ein Verfahren zur QualitÀtssicherung einer wissenschaftlichen Arbeit oder eines Projektes durch unabhÀngige Gutachter aus dem gleichen Fachgebiet.

Peer-Review gilt im heutigen Wissenschaftsbetrieb als eine sehr wichtige Methode, um die QualitĂ€t von wissenschaftlichen Publikationen zu gewĂ€hrleisten. Diese QualitĂ€t und die VeröffentlichungswĂŒrdigkeit korrelieren.[1]

Die Autoren der begutachteten Arbeit mĂŒssen dabei etwaige Kritik ernst nehmen und entdeckte Fehler korrigieren oder darlegen, weshalb die Kommentare der Gutachter unzutreffend sind, bevor die Studie publiziert werden kann. Daneben wird eine wissenschaftliche Behauptung zumindest in den Naturwissenschaften erst dann zu einer potentiell validen These, wenn sie erfolgreich einem Peer-Review-Prozess unterzogen wurde.[2]

Viele wissenschaftliche Fachzeitschriften nutzen ein Peer-Review. Ebenso wird die QualitÀt von AntrÀgen zur Förderung von Forschungsprojekten in aller Regel mittels Peer-Review beurteilt (siehe auch Drittmittel).

Auch in anderen gesellschaftlichen Bereichen außerhalb des Wissenschaftsbetriebs wird die Methode des Peer-Reviews mitunter zur QualitĂ€tssicherung verwendet.

Akademisch-wissenschaftlicher Bereich

Ablauf und Zweck

Im akademisch-wissenschaftlichen Bereich sind Peer-Reviews von Zeitschriftenartikeln (und zunehmend auch von Monographien) ĂŒblich, bei denen einer oder mehrere Experten des entsprechenden Gebietes die zur Veröffentlichung vorgeschlagene Studie bewerten. Üblicherweise schickt der Autor seinen Artikel als Manuskript an einen Verantwortlichen (z. B. den Herausgeber) einer Zeitschrift oder Schriftenreihe. Wenn dieser den Text fĂŒr grundsĂ€tzlich geeignet hĂ€lt, wĂ€hlt er Gutachter aus, die nach inhaltlicher PrĂŒfung ein Votum abgeben, ob der Artikel in der eingereichten Form veröffentlicht, zur Überarbeitung an den Autor zurĂŒckgeschickt oder endgĂŒltig abgelehnt werden sollte. Diese auch Reviewer oder Referee genannten Experten dĂŒrfen beim Peer-Review nicht aus dem Umfeld des Autors stammen; diese Regel soll Befangenheit vermeiden. Die UnabhĂ€ngigkeit des Gutachters vom zu bewertenden Objekt gilt als Voraussetzung eines Peer-Reviews; sie muss von den Herausgebern sichergestellt werden.

Eine AnonymitĂ€t des Gutachters ist dabei nicht unbedingt erforderlich, aber oftmals gegeben. Die AnonymitĂ€t dient dazu, dem Gutachter das Äußern von Kritik und den Hinweis auf MĂ€ngel der Publikation zu ermöglichen, ohne dass er die Revanche des möglicherweise hierarchisch oder an Reputation und Einfluss höher stehenden Autors fĂŒrchten muss. Das soll eine grĂŒndliche und unvoreingenommene ÜberprĂŒfung ohne Ansehen der Person des Autors sichern und letztlich zu einem höheren wissenschaftlichen Niveau beitragen. Das Prinzip der AnonymitĂ€t des Gutachters ist nicht unumstritten.[3]

Das Peer-Review ist nicht als Methode gedacht, um Plagiate, FĂ€lschungen oder in betrĂŒgerischer Absicht gemachte Experimente aufzudecken. Es kann und braucht auch nicht sicherstellen, dass die wissenschaftliche Arbeit frei von Fehlern ist. Der Gutachter kann nur im Rahmen seiner Möglichkeiten die Signifikanz und AktualitĂ€t der Fragestellung, die OriginalitĂ€t und ValiditĂ€t des Lösungsansatzes und die PlausibilitĂ€t der Resultate im Kontext prĂŒfen sowie auf methodische Fehler und Probleme hinweisen.

Der Sinn der Begutachtung liegt vor allem in einer Bewertung der QualitĂ€t eines eingereichten Manuskripts, die dem Herausgeber der Fachzeitschrift Anhaltspunkte liefert, ob dieses als Artikel darin veröffentlicht werden kann. Durch die hohe Anzahl von wissenschaftlichen Fachzeitschriften und Fachgebieten sind die BewertungsmaßstĂ€be oft sehr unterschiedlich und richten sich nach dem Leserkreis und der Reputation des Fachjournals. In der Regel wird der Gutachter das Manuskript nach offensichtlichen Defiziten oder Verbesserungsmöglichkeiten bewerten und nur gelegentlich auf Rechtschreibfehler oder sprachliche UnzulĂ€nglichkeiten hinweisen. Sehr detaillierte Gutachten, inklusive PrĂŒfung der verwendeten Methoden, werden vor allem von Artikeln verlangt, die Themen in umstrittenen oder prestigetrĂ€chtigen Fachgebieten (z. B. Stammzellenforschung) behandeln oder von außerordentlich hohem Interesse fĂŒr einen großen Leserkreis sind (z. B. in Nature oder Science).

Neben der QualitÀtssicherung dient das Peer Review auch dem Zweck, Argumente in einer reviewten Arbeit stichhaltiger darzustellen.[2]

Doppelblindgutachten

Bleiben sowohl Gutachter als auch Begutachteter anonym, so wird von Doppelblindgutachten (englisch double-blind review) gesprochen. Mit diesem Verfahren soll vermieden werden, dass die Bekanntheit des Einreichenden oder eine etwaige Beziehung zwischen dem Gutachter und dem Einreichenden einen Einfluss auf die Bewertung seiner Arbeit hat oder der Einreichende den Gutachter beeinflusst. Gerade junge Wissenschaftler können durch dieses Verfahren profitieren, weil ihr Beitrag (und nicht ihr Renommee) entscheidet. Die Autoren sind dann gehalten, im Text Passagen zu vermeiden, die der AnonymitĂ€t zuwiderlaufen könnten (z. B. Selbstzitierungen in der ersten Person, Hinweise auf die eigene Forschungseinrichtung). In vielen FĂ€llen können jedoch anhand der Referenzen, der experimentellen Möglichkeiten etc. die Autoren trotzdem erraten werden, zumal wenn das betreffende Spezialgebiet von einer ĂŒberschaubaren Anzahl von Leuten beforscht wird. Daher und aus anderen GrĂŒnden wird in vielen FĂ€llen auf die Verdeckung der Autorennamen verzichtet.

Geschichte

Einer Legende nach[4] sah sich Henry Oldenburg, erster SekretĂ€r der Royal Society of London und GrĂŒndungsherausgeber der seit 1665 in London erscheinenden Philosophical Transactions, als Theologe nicht in der Lage, die QualitĂ€t eingereichter AufsĂ€tze zu naturwissenschaftlichen Themen selbst angemessen zu beurteilen. Er delegierte diese Aufgabe daher an andere Wissenschaftler, die zum jeweiligen Thema als fachkompetent galten. Dieses Verfahren wurde spĂ€ter von anderen wissenschaftlichen Zeitschriften ĂŒbernommen.[5] Melinda Baldwin zufolge entstand die Legende 1971.[4] Sie gehe auf die Wissenschaftssoziologen Harriet Zuckerman und Robert K. Merton zurĂŒck, habe aber mit der wissenschaftlichen Praxis in der Royal Society des 17. Jahrhunderts so gut wie nichts zu tun.[6]

Verbreitung

Weltweit gibt es etwa 21.000 Zeitschriften, die verschiedene Arten von Peer-Review einsetzen. Sie veröffentlichen jÀhrlich etwa 1 Million AufsÀtze. Es gibt allerdings auch viele wissenschaftliche Zeitschriften, die lediglich mit editorial review arbeiten.

Peer-Review-Publikationen haben aufgrund der mit der Begutachtung verbundenen QualitĂ€tsprĂŒfung einen besseren Ruf als andere Formen der Veröffentlichung wie etwa KongressbeitrĂ€ge oder Fachzeitschriften ohne Peer-Review. Die Anzahl solcher Veröffentlichungen wird als Maß fĂŒr die ProduktivitĂ€t und den Einfluss der Autoren auf ein Wissensgebiet angesehen.

VortÀuschen von Peer-Review

Neben Zeitschriften mit echtem Peer-Review gibt es auch solche, die ein qualitĂ€tssicherndes Peer-Review nur vortĂ€uschen, sog. predatory journals.[7] Angesichts einer immer grĂ¶ĂŸeren Zahl solcher elektronischer Open-Access-Zeitschriften, die hĂ€ufig nur behaupteten, eine Art Peer Review durchzufĂŒhren, testete der Journalist John Bohannon[8] diese 2013 mit einer gefĂ€lschten klinischen Studie eines Krebsmedikaments, die ganz offensichtliche schwere Fehler enthielt (unter anderem versprachen die Autoren, Patienten ohne Abwarten weiterer Ergebnisse mit dem Medikament zu behandeln). Es wurden mehrere Versionen der Studie an 304 Online-Journale versandt, von denen 255 antworteten und 106 einen Review durchfĂŒhrten. Rund 70 % (insgesamt 156) akzeptierten den Aufsatz (nicht mehr erscheinende Zeitschriften wurden dabei nicht mitgerechnet; berĂŒcksichtigt man auch diese, waren es rund 60 %). Nur eine Zeitschrift (PLOS one) fĂŒhrte einen genauen Review durch, um den Aufsatz dann wegen des schweren Verstoßes gegen Ethikregeln abzulehnen. Bohannon veröffentlichte seine Ergebnisse in Science, das die Ergebnisse als deutliches PlĂ€doyer fĂŒr etablierte Zeitschriften mit seriösem Peer Review wertete.[9] Einige der betroffenen Online-Journale stammten allerdings aus international angesehenen großen VerlagshĂ€usern. FĂŒr Online-Journale mit unseriösen Praktiken prĂ€gte Jeffrey Beall den Begriff Raubtierjournale (Predatory Journals).

Kritik

Das Peer-Review-Verfahren wird aus mehreren GrĂŒnden kritisiert:[10]

  1. Es dauert meist etliche Monate, in manchen FĂ€llen sogar Jahre, bis ein Fachartikel erscheint.
  2. Die NeutralitÀt der Gutachter ist nicht garantiert. Es gibt keine GewÀhr, dass die Gutachter nicht ihren eigenen Standpunkt zu strittigen Fragen als Entscheidungsgrundlage heranziehen.

Vereinzelt wird kritisiert, dass es ĂŒberzogenes, destruktives Kritisieren begĂŒnstige. Etablierte Experten eines Teilgebiets der Wissenschaft könnten durch unfundiert-abwertende Gutachten das Eindringen von Konkurrenten in ihre „Nische“ verhindern und mĂŒssten sich bei AnonymitĂ€t dafĂŒr nicht namentlich rechtfertigen. Die AnonymitĂ€t der Gutachter fördere so das „Revierverhalten“ und behindere einen effizienten QualitĂ€tswettbewerb.

AnonymitĂ€t des Gutachters kann zu Beurteilungen fĂŒhren, die aus Zeitmangel, ungenĂŒgendem Interesse oder Unwissen nicht gewissenhaft genug erstellt wurden. So kann ein schlechter Artikel im Begutachtungsverfahren fĂŒr gut befunden werden, ohne dass der Gutachter um seinen guten Ruf in der Wissenschaftsgemeinde fĂŒrchten muss.

Der Statistiker und Methodenkritiker John Ioannidis, ein Verfechter von Peer-Reviews (er hat (Stand 2008) etwa 400 peer-reviewte Publikationen veröffentlicht und ist Mitglied des Redaktionsausschusses von 18 peer-reviewten Fachzeitschriften),[11] kritisiert, dass diese suboptimal seien: Renommierte PrĂŒfer können ĂŒber das Peer-Review-Verfahren das Auftreten und die Verbreitung von Forschungsresultaten unterdrĂŒcken, die ihren Erkenntnissen zuwiderlaufen und so innerhalb ihres Forschungsfeldes falsche Dogmen aufrechterhalten. Empirische Belege zeigten, dass Expertenmeinungen Ă€ußerst unzuverlĂ€ssig sind.[12]

Peer-Reviews sind wiederholt Gegenstand von Verschwörungstheorien mit naturwissenschaftlichem Bezug geworden, wie sie in den letzten Jahrzehnten hĂ€ufiger auftraten, etwa im Zusammenhang mit der Klimawandelleugnung: Darin wurde ihnen unterstellt, sie wĂŒrden insgeheim einer politischen Agenda folgen oder wichtige Punkte unterschlagen. Der amerikanische Soziologe Ted Goertzel plĂ€diert daher dafĂŒr, sie transparenter zu gestalten: Die Zusammensetzung der Review-Panels solle nicht mehr anonym sein, sĂ€mtliche Daten der Forscher mĂŒssten ihnen zugĂ€nglich gemacht werden, Spezialisten mĂŒsse die Gelegenheit gegeben werden, auch alternative Sichtweisen darzustellen, soweit sie auf einer angemessenen Datenbasis beruhten. GĂ€nzlich ausschließen lassen wĂŒrden sich verschwörungstheoretische VerdĂ€chtigungen gegen Peer-Reviews aber wohl nie.[13]

Vincent Calcagno et al. stellten in einer 2012 in Science veröffentlichten Studie fest, dass AufsĂ€tze, die zunĂ€chst von einer Zeitschrift abgelehnt, dann bei einer anderen Zeitschrift eingereicht und schließlich veröffentlicht wurden, tendenziell öfter zitiert werden als andere AufsĂ€tze in dieser Zeitschrift. Das kann daran liegen, dass in dem Aufsatz ein kontroverses Thema behandelt oder eine neue Methode angewandt wird, die von einem Gutachter kritisch gesehen wird, aber dennoch fĂŒr die Fachwelt von Interesse ist.[14]

2015 stellten Forscher in Nature eine Methode zum Bewerten der Reproduzierbarkeit von psychologischen Studien vor. Dabei konnten Gutachter in einem börsenbasierten Modell auf bestimmte Studien wetten. Dies erzielte deutlich bessere Ergebnisse als die Bewertung durch einzelne Gutachter.[15]

Der Historiker Caspar Hirschi kritisierte 2018 die EinfĂŒhrung von Peer-Review nach 1960 als Teil einer „prĂ€zedenzlosen Instrumentalisierung der Wissenschaft fĂŒr politisch-militĂ€rische Zwecke“, die eine „ebenso prĂ€zedenzlose Kommerzialisierung der wissenschaftlichen Publizistik ermöglicht“ habe. Das anonymisierte Gutachterverfahren breite ĂŒber gescheiterte AntrĂ€ge den Mantel des Schweigens.[16] „Die Effizienz von Peer Review liegt in der konfrontationsfreien MachtausĂŒbung, haben doch die Gutachter kein Gesicht und die Begutachteten keine Stimme. Das System schafft vollendete Tatsachen im Stillen. FĂŒr die kommerziellen Zeitschriftenverlage hat Peer Review den doppelten Vorteil, dass sie die Selektionsarbeit zum Nulltarif auslagern und fĂŒr die QualitĂ€t der publizierten Inhalte nicht haftbar gemacht werden können. Im Fall von betrĂŒgerischen oder fehlerhaften Publikationen fĂ€llt die Verantwortung zuerst auf die Gutachter, dann auf die Herausgeber und erst zuletzt auf den Verlag.“[17] Hirschi spricht sich fĂŒr eine Abschaffung von Peer-Review aus. Die QualitĂ€tskontrolle von Manuskripten bei den Zeitschriften sollte, wie bei Buchverlagen mit teils hochstehenden wissenschaftlichen Reihen, mit eigenen Lektoren durchgefĂŒhrt werden. In staatlichen Fördergesellschaften mĂŒssten entscheidungsbefugte Expertengremien so breit besetzt werden, dass bei PrĂŒfung von AntrĂ€gen auf externe EinschĂ€tzungen mittels Peer-Review verzichtet werden kann.[18]

Der Literaturwissenschaftler und -kritiker Magnus Klaue kritisierte das Verfahren in den Geistes- und Sozialwissenschaften 2020 in einem Artikel in der Frankfurter Allgemeinen Zeitung. Insbesondere das Double-blind-Peer-Review-Verfahren, bei dem weder der Begutachtete noch die Gutachter erfahren, um welche Personen es sich jeweils handelt, sei fĂŒr die Beurteilung philosophischer, kunstwissenschaftlicher oder geschichtswissenschaftlicher Texte weniger geeignet, da dort die Kenntnis der Autorschaft wichtiger sei als in den Naturwissenschaften. Klaue verglich das Verfahren mit der kollektiven Autorschaft der Wikipedia, die die AnfĂ€lligkeit fĂŒr Ungenauigkeiten und Manipulationen steigere und die Notwendigkeit stĂ€ndiger Selbstkontrolle bestĂ€rke. Im Gegensatz zu Wikipedia Ă€nderten Peer-Reviews bei wissenschaftlichen AufsĂ€tzen jedoch urheberrechtlich nichts an der Autorschaft der begutachteten Texte. Individuelle Autorschaft werde so formell aufrechterhalten, aber de facto aufgeweicht, da der Einfluss der Gutachter auf den Inhalt des letztlich veröffentlichten Werkes den Lesern verborgen bleibe.[19]

Alternativen zum traditionellen Peer-Review

In Zusammenhang mit der Zeitschriftenkrise und dem elektronischen Publizieren entwickeln sich neue QualitĂ€tssicherungsverfahren. Ein Pionier auf diesem Gebiet ist Stevan Harnad. Seine VorschlĂ€ge, die etwas an ein Wiki erinnern, haben sich jedoch noch nicht durchgesetzt, und es sind kaum Erfahrungswerte darĂŒber bekannt.

2006 startete eine Wissenschaftler-Gruppe aus Großbritannien das Online-Journal Philica,[20] bei dem sie die Probleme des traditionellen Peer Review zu lösen versuchten. Anders als sonst ĂŒblich werden alle eingereichten Artikel zuerst publiziert, und der Open-Peer-Review-Prozess startet erst danach. Die Gutachter werden dabei nicht von den Herausgebern ausgesucht, sondern jeder Forscher, der das möchte, kann den Artikel kritisieren. Der Gutachter bleibt dabei anonym. Die Gutachten werden am Ende jedes Artikels angehĂ€ngt und geben dem Leser so eine EinschĂ€tzung der QualitĂ€t der Arbeit. Der Vorteil dieses Systems ist, dass auch unorthodoxe ForschungsansĂ€tze publiziert werden und nicht, wie im klassischen Peer-Review, von etablierten Experten unterdrĂŒckt werden können.

Ein Ă€hnliches Projekt ist Dynamic-Peer-Review der Webseite Naboj.[21] Der Unterschied zu Philica besteht darin, dass Naboj kein vollstĂ€ndiges Online-Journal ist, sondern ein Forum fĂŒr Gutachten von Preprint-Artikeln der Seite arXiv.org. Das System ist dem Beurteilungssystem von Amazon.com nachempfunden und bietet den Benutzern die Möglichkeit, sowohl die Artikel als auch die einzelnen Reviews zu bewerten. Dadurch bietet das System den Vorteil (bei einer genĂŒgend großen Zahl von Benutzern und Gutachtern), dass die QualitĂ€t demokratisch beurteilt wird.

Im Juni 2006 begann Nature mit einem Versuch namens parallel open peer review. Einige Artikel, die fĂŒr einen traditionellen Review-Prozess eingereicht wurden, wurden parallel dazu auch öffentlich zugĂ€nglich gemacht, um kommentiert zu werden. Der Versuch wurde im Dezember 2006 als erfolglos bewertet und eingestellt.[22]

Eine zunehmende Anzahl von Fachzeitschriften geht mittlerweile zum Format des registrierten Berichts (engl. registered report) ĂŒber, um wissenschaftlichem Fehlverhalten wie HARKing und p-Hacking entgegenzutreten.[23] Bei einem registrierten Bericht erstellen Autoren einer Studie einen Antrag, der den theoretischen und empirischen Hintergrund, Forschungsfragen und Hypothesen sowie ggf. Pilotdaten enthĂ€lt. Nach Einsendung bei der Fachzeitschrift wird der Antrag begutachtet, noch bevor die eigentlichen Daten erhoben werden. Im Falle einer positiven Begutachtung wird das nach Datenerhebung zu erstellende Manuskript unabhĂ€ngig von den Studienergebnissen automatisch veröffentlicht.[24]

Begutachtung von AntrÀgen

Im Wissenschaftsbetrieb findet Peer-Review nicht nur bei Zeitschriftenveröffentlichungen statt, sondern auch bei der Bewilligung von Messzeiten an Großforschungseinrichtungen und von Projektfinanzierungen. Reviews dienen den Geldgebern (staatlichen Organisationen wie der Deutschen Forschungsgemeinschaft oder dem Schweizerischen Nationalfonds, NGOs und privaten Geldgebern wie der Bill & Melinda Gates Foundation) oft als Kriterium fĂŒr die Mittelvergabe.

QualitÀtssicherung in Unternehmen

Unternehmen setzen Peer-Review zur QualitĂ€tssicherung ein. So fĂŒhren Unternehmen, die im Bereich WirtschaftsprĂŒfung oder Beratung tĂ€tig sind, sogenannte Peer-Review durch. Dabei wird ein Projekt (WirtschaftsprĂŒfung oder Beratungsprojekt) eines Unternehmens durch einen Experten oder ein Expertenteam eines anderen Unternehmens derselben Branche anhand von Projektunterlagen und Arbeitspapieren ĂŒberprĂŒft. Diese geben dann in einem Gutachten eine Bewertung ĂŒber die GĂŒte des Projektes ab. Durch die Wahl eines Fremdunternehmens als PrĂŒfer wird die UnabhĂ€ngigkeit von PrĂŒfer und PrĂŒfling in hohem Maße sichergestellt. Damit erhĂ€lt das Peer-Review bei Unternehmen in der QualitĂ€tssicherung mehr Gewicht als z. B. ein Inter-Office-Review (Gutachter einer anderen Niederlassung) oder Local-Office-Review (Gutachter derselben Niederlassung).

FĂŒr WirtschaftsprĂŒfer und WirtschaftsprĂŒfungsgesellschaften ist eine regelmĂ€ĂŸige externe QualitĂ€tskontrolle (Peer-Review) inzwischen gesetzlich vorgeschrieben. Derzeit muss die Begutachtung alle drei Jahre durchgefĂŒhrt werden. Bis zum 31. Dezember 2005 musste eine erstmalige externe QualitĂ€tskontrolle erfolgen. Mit der Siebten WPO-Novelle (Berufsaufsichtsreformgesetz) wird die Befristung der Teilnahmebescheinigung ĂŒber eine durchgefĂŒhrte QualitĂ€tskontrolle fĂŒr WP/vBP-Praxen, die keine börsennotierten Unternehmen prĂŒfen, berufsrechtlich von drei auf sechs Jahre verlĂ€ngert.

QualitÀtssicherung im Gesundheitsbereich

Das Peer-Review-Verfahren wird im Rahmen des QualitĂ€tssicherungsprogrammes der gesetzlichen Rentenversicherung durchgefĂŒhrt. Zielsetzung ist die Sicherung der ProzessqualitĂ€t in den von der gesetzlichen Rentenversicherung belegten Rehabilitationseinrichtungen. Hierbei wird ein durch wissenschaftliche Untersuchungen belegter Zusammenhang zwischen ProzessqualitĂ€t wĂ€hrend der Rehabilitation und der QualitĂ€t der medizinischen Entlassungsberichte zu Grunde gelegt. Konkret bedeutet das Peer-Review-Verfahren, dass erfahrene Reha-Mediziner des jeweiligen Fachgebietes („Peers“) nach dem Zufallsprinzip ausgewĂ€hlte, anonymisierte medizinische Entlassungsberichte anderer Rehabilitationseinrichtungen (zumeist 20–25 pro Durchgang) nach bestimmten, vorher definierten Kriterien beurteilen. Beurteilt werden sechs fĂŒr den Rehabilitationsprozess wichtige Teilkategorien (Anamnese, Diagnostik, Therapieziele und Therapie, Klinische Epikrise, Sozialmedizinische Epikrise sowie WeiterfĂŒhrende Maßnahmen und Nachsorge) nach dem Vorhandensein von MĂ€ngeln (keine MĂ€ngel, leichte MĂ€ngel, deutliche MĂ€ngel, gravierende MĂ€ngel) sowie mit einer zu vergebenden Punktzahl (10 Punkte = sehr gut, 0 Punkte = sehr schlecht). Aus den zusammenfassenden Bewertungen der Teilbereiche ergibt sich die zusammenfassende Bewertung des gesamten Rehabilitationsprozesses. Das Peer-Review-Verfahren findet sowohl in den somatischen Indikationsbereichen (Gastroenterologie, Kardiologie, Neurologie, Onkologie, OrthopĂ€die / Rheumatologie, Pneumologie, Dermatologie) als auch fĂŒr psychosomatische Erkrankungen und AbhĂ€ngigkeitserkrankungen statt und sollte alle ein bis zwei Jahre auf Veranlassung der Deutschen Rentenversicherung Bund durchgefĂŒhrt werden.[25][26]

Literatur

  • Ann C. Weller: Editorial Peer Review: Its Strengths and Weaknesses. asis&t, 2001, ISBN 1-57387-100-1 (Übersicht von Studien ĂŒber das Kreuzgutachtensystem aus verschiedenen Fachbereichen von 1945 bis 1997).
  • Thomas Gold: New Ideas in Science. In: Journal of Scientific Exploration. Band 3, 1989, Nr. 2, S. 103–112.[27]
  • Gerhard Fröhlich: “Informed Peer Review” – Ausgleich der Fehler und Verzerrungen? In: Von der QualitĂ€tssicherung der Lehre zur QualitĂ€tsentwicklung als Prinzip der Hochschulsteuerung. Hochschulrektorenkonferenz, Bonn 2006, S. 193–204 (PDF).
  • Gerhard Fröhlich: Peer Review auf dem PrĂŒfstand der Wissenschaftsforschung. In: medizin-bibliothek-information Band 3, 2003, Nr. 2, S. 33–39 (PDF) (Memento vom 11. Januar 2005 im Internet Archive).
  • Stefan Hornbostel, Meike Olbrecht: Peer Review in der DFG: Die Fachkollegiaten. iFQ-Working Paper No 2, Bonn 2007, ISSN 1864-2799 (PDF).
  • Stefan Hornbostel, Dagmar Simon (Hrsg.): Wie viel (In-)Transparenz ist notwendig? – Peer Review Revisited. iFQ-Working Paper No 1. Bonn 2006, ISSN 1864-2799 (PDF).
  • Heinrich Zankl: FĂ€lscher, Schwindler, Scharlatane: Betrug in Forschung und Wissenschaft. Wiley-VCH, Weinheim 2003, ISBN 3-527-30710-9.
  • Science between Evaluation and Innovation: A Conference on Peer Review (= Max-Planck-Forum. Band 6). MĂŒnchen 2003 (Dokumentation einer Tagung der Max-Planck-Gesellschaft und der Deutschen Forschungsgemeinschaft).
  • Hans-Hermann Dubben, Hans-Peter Beck-Bornholdt: Unausgewogene Berichterstattung in der medizinischen Wissenschaft. Institut fĂŒr Allgemeinmedizin des UniversitĂ€tsklinikums Hamburg-Eppendorf, Hamburg 2004 (PDF) (Memento vom 31. Januar 2012 im Internet Archive).
  • Wissenschaftsrat: Begutachtungen im Wissenschaftssystem. Positionspapier, Berlin 2017.

Rundfunkberichte

Weblinks

Einzelnachweise

  1. ↑ Maria Gutknecht-Gmeiner: Externe Evaluierung durch Peer Review: QualitĂ€tssicherung und -entwicklung in der beruflichen Erstausbildung. Springer-Verlag, 2008. https://books.google.co.uk/books?id=CoNxvRwPCOEC
  2. ↑ a b Naomi Oreskes, Erik M. Conway: Die Machiavellis der Wissenschaft (Original:Merchants of Doubt: How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming). Weinheim 2014, S. XVIII.
  3. ↑ Ronald N. Kostoff: Research Program Peer Review: Purposes, Principles, Practices, Protocols (PDF; 852 kB). Office of Naval Research, Arlington, VA, (Report) 2004, S. 23.
  4. ↑ a b volltext.merkur-zeitschrift.de: Caspar Hirschi: Wie die Peer Review die Wissenschaft diszipliniert
  5. ↑ Irving E. Rockwood: Peer review: more interesting than you think. In: Choice 44.2007,9, S. 1436.
  6. ↑ Caspar Hirschi: Skandalexperten, Expertenskandale. Zur Geschichte eines Gegenwartsproblems. Matthes & Seitz, Berlin 2018, ISBN 978-3-95757-525-8, Die Macht einer erfundenen Traditiom, S. 304.
  7. ↑ Raubverlage schaden Wissenschaft. Internetseite der Leibniz-Gemeinschaft. Abgerufen am 12. Dezember 2019.
  8. ↑ Bohannon, Who’s Afraid of Peer Review?, Science, Band 342, 2013, S. 60–65, Online
  9. ↑ Dan Vergano: Fake Cancer Study Spotlights Bogus Science Journals. National Geographic, 4. Oktober 2013.
  10. ↑ Alfred Kieser: Die Tonnenideologie der Forschung. Akademische Rankings. In: Frankfurter Allgemeine Zeitung. 11. Juni 2010, abgerufen am 9. Januar 2012.
  11. ↑ Ioannidis, John P. A. Effectiveness of antidepressants: an evidence myth constructed from a thousand randomized trials?, Philosophy, Ethics, and Humanities in Medicine 3.1 (2008): 14.
  12. ↑ John P. A. Ioannidis: Why Most Published Research Findings Are False. In: PLoS Medicine. Band 2, Nr. 8, 19. MĂ€rz 2017, S. e124, doi:10.1371/journal.pmed.0020124, PMID 16060722, PMC 1182327 (freier Volltext).
  13. ↑ T. Goertzel: Conspiracy theories in science. In: EMBO reports. Band 11, Nummer 7, Juli 2010, S. 493–499, doi:10.1038/embor.2010.84, PMID 20539311, PMC 2897118 (freier Volltext).
  14. ↑ Ruth Williams: The Benefits of Rejection, The Scientist, 11. Oktober 2012
  15. ↑ Reproduzierbarkeit von Studien: Der Psychologen-Markt erkennt gute Forschung. In: spektrum.de. Abgerufen am 27. Februar 2016.
  16. ↑ Caspar Hirschi: Skandalexperten, Expertenskandale. Zur Geschichte eines Gegenwartsproblems. Matthes & Seitz, Berlin 2018, ISBN 978-3-95757-525-8, Wie gut funktioniert Peer Review?, S. 318.
  17. ↑ Caspar Hirschi: Skandalexperten, Expertenskandale. Zur Geschichte eines Gegenwartsproblems. Matthes & Seitz, Berlin 2018, ISBN 978-3-95757-525-8, Wie gut funktioniert Peer Review?, S. 319–320.
  18. ↑ Caspar Hirschi: Skandalexperten, Expertenskandale. Zur Geschichte eines Gegenwartsproblems. Matthes & Seitz, Berlin 2018, ISBN 978-3-95757-525-8, Wissenschaft als reprĂ€sentative Öffentlichkeit, S. 324–325.
  19. ↑ Magnus Klaue: Spiel „Peer Review“: Die Community denkt mit. In: FAZ.NET. ISSN 0174-4909 (faz.net [abgerufen am 22. Oktober 2020]).
  20. ↑ Offizielle Website von Philica.
  21. ↑ Offizielle Website von Naboj.
  22. ↑ Overview: Nature’s trial of open peer review. In: nature.com. Abgerufen am 11. Juni 2009 (englisch).
  23. ↑ Promoting reproducibility with registered reports. In: Nature Human Behaviour. 1, 2017, S. 0034, doi:10.1038/s41562-016-0034.
  24. ↑ https://www.ejp-blog.com/blog/2017/2/3/streamlined-review-and-registered-reports-coming-soon
  25. ↑ Deutsche Rentenversicherung – Peer Review-Verfahren. In: deutsche-rentenversicherung.de. Abgerufen am 26. Mai 2020.
  26. ↑ Peer Review. In: BundesĂ€rztekammer. Abgerufen am 27. Februar 2016.
  27. ↑ (online) (Memento vom 9. Oktober 2010 im Internet Archive). (Anstelle konformitĂ€tsfördernder AnonymitĂ€t von Spezialisten zur Begutachtung fordert Gold einen science court mit Wissenschaftlern aus unterschiedlichen Fachgebieten von einer FakultĂ€t)
Original: Original:

https://de.wikipedia.org/wiki/Peer-Review