Struktur der Vertrauenskrise

Im Gespräch über Präregistrierungen – eine Methode zur Erhöhung der Replizierbarkeit eines Befundes – entgegnete ein Kollege: “Schön und gut, aber solange sich das System nicht ändert, wird sich an Replikationsraten nichts ändern.” Wie lässt sich dieser Einwand verstehen? Zäumen (bzw. trensen) wir dazu das Pferd von hinten auf: Spätestens seit dem Reproducibility Project Psychology (Open Science Collaboration, 2015) ist den meisten Psycholog*innen klar, dass es große Probleme bei der Replizierbarkeit von Befunden gibt. Woher kommen diese genau? Ein wichtiges Problem ist hierbei der Publikationsbias, womit gemeint ist, dass bei der Veröffentlichung von wissenschaftlichen Berichten eine Auswahl getroffen werden muss und dadurch nur bestimmte Ergebnisse publiziert werden (z.B. Ergebnisse, die eine bestimmte Theorie stützen). Dadurch entsteht ein verzerrtes Bild der Realität. Oft schreiben Wissenschaftler*innen sogar nur bestimmte Befunde zu Berichten zusammen. “Fehlgeschlagene Experimente”, also solche, bei denen eine Hypothese nicht bestätigt oder eine Theorie nicht gestützt werden konnte, landen in der Schublade (engl. File-Drawer-Problem; Rosenthal (1979); Sterling (1959)). In extremeren Fällen bedienen sich Wissenschaftler*innen verschiedener, größtenteils anerkannter Methoden, die Daten so darzustellen, dass sie die Hypothese stützen oder tun so, als ob das, was sich aus den Daten lesen lässt, von Beginn an die Hypothese gewesen wäre (HARKing, Parsons u. a. (2022)). Aber was treibt Personen, die sich für einen Beruf in der Wissenschaft vor allem wegen ihrem Interesse an der Funktionsweise der Welt entschieden haben, die Wahrheit unbewusst zu schönen oder sogar bewusst zu manipulieren? Am Anfang des komplexen Prozesses, welcher zur Replikationskrise geführt hat, steht das aktuelle wissenschaftliche System: Ein Großteil der in der Wissenschaft Beschäftigten arbeitet unter extremem Druck und prekären Arbeitsbedingungen. Um nach ein bis zwei Jahren eine Vertragsverlängerung zu erhalten, müssen Publikationen von Artikeln in möglichst angesehenen Fachzeitschriften nachgewiesen werden. Diese kriegt man durch besonders aussagekräftige und spannende Ergebnisse. Das Anreizsystem der Wissenschaft belohnt also nicht Wahrheit, Genauigkeit, Bescheidenheit, oder Transparenz, sondern vor allem diejenigen Dinge, die nicht in der Hand eine*r Wissenschaftler*in liegen: Spannende und eindeutige Ergebnisse (Bakker, van Dijk, und Wicherts 2012).

Der Prozess von prekären Arbeitsbedingungen bis zur niedrigen Replikationsrate ist hier veranschaulicht. In den folgenden Kapiteln werden die Probleme und Lösungsansätze im Detail diskutiert.

Abbildung 2

Das Anreizsystem der Wissenschaft als Ursache für Replikationsfehlschläge

Literatur

Bakker, Marjan, Annette van Dijk, und Jelte M. Wicherts. 2012. „The Rules of the Game Called Psychological Science“. Perspectives on psychological science : a journal of the Association for Psychological Science 7 (6): 543–54. https://doi.org/10.1177/1745691612459060.
Parsons, Sam, Flávio Azevedo, Mahmoud M. Elsherif, Samuel Guay, Owen N. Shahim, Gisela H. Govaart, Emma Norris, u. a. 2022. „A community-sourced glossary of open scholarship terms“. Nature Human Behaviour 6 (3): 312–18. https://doi.org/10.1038/s41562-021-01269-4.
Rosenthal, Robert. 1979. „The file drawer problem and tolerance for null results“. Psychological Bulletin 86 (3): 638–41. https://doi.org/10.1037/0033-2909.86.3.638.
Sterling, Theodore D. 1959. „Publication decisions and their possible effects on inferences drawn from tests of significance—or vice versa“. Journal of the American statistical association 54 (285): 30–34.