Evidenz wirkt leider schwächer als eine gute Geschichte. Lernen Sie, Publikationen einzuschätzen und so Wissenschaft und Glaube auseinanderzuhalten.
Ratschläge zur Ernährung widersprechen einander oft. Es existieren zu viele gegensätzliche Behauptungen, zu viele Interessen, zu viel Verwirrung. Dieser Widerspruch ist kein Zufall. Er ist das direkte Ergebnis des Systems. Finanzielle Interessen, Karrieredruck und mediale Aufmerksamkeit wirken mächtiger als reine Wahrheitssuche. Um hier zu bestehen, braucht es kein medizinisches Studium, sondern dieses Handwerkszeug für kritische LeserInnen.
Was ist dieses "Handwerkzeug"? Es beginnt mit der einfachen Frage: Existiert "vollständige Evidenz"? Die Antwort entlarvt die häufigsten Trixereien: Nein. Evidenz ist nie vollständig. Sie ist immer ein vorläufiges Abbild der aktuellen Datenlage. Wer "vollständige Beweise" fordert, um einfache Wahrheiten zu diskreditieren, missbraucht die Wissenschaft als Totschlagargument.
Wir schreiben für alle, die Evidenzfragen verfolgen oder selbst evidenzbasiert arbeiten. Evidenz bedeutet Beweisbarkeit: Sie beschreibt, wie gut ein Zusammenhang durch überprüfbare Daten gestützt ist. In Medizin und Wissenschaft beruht dieser Begriff auf systematisch erhobenen und nachvollziehbaren Ergebnissen.
Der Begriff weicht deutlich vom philosophischen Ursprung ab. Dort meinte evidentia – von evidere, "offenkundig darlegen". Eine Einsicht ohne Beobachtung oder Messung. Heute steht evidence im englischen Sinn für "Beweis" oder "Nachweis". Dieser Gebrauch ist auch im Deutschen etabliert. Dies primär in der evidenzbasierten Medizin (EbM). Unsere Beispiele stammen ausschliesslich aus Ernährung und Medizin. Das hilft jedem Menschen, auch wenn er nicht so an Evidenz interessiert ist.
Die folgenden Ausführungen beschreiben das Thema für einige Menschen zu konzentriert. Schliesslich streben wir an, Sie umfassend zu informieren und diese systemischen Verzerrungen schonungslos aufzudecken. Weniger komplizierte Informationen zur Interpretation von statistischen Resultaten finden Sie im Beitrag Wissenschaftliche Publikationen einschätzen.
Warum ist solide Aufklärung nötig? Weil starke Geschichten, Einzelbeispiele und Marketing lauter sprechen als Daten. Bücher und Beiträge sammeln mitunter Erfahrungen oder lose Fakten. Es fehlen robuste Belege. Selbst umfangreiche Texte mit vielen Studien vermitteln leicht ein verzerrtes Bild. Das passiert, indem sie Studiendesigns vermischen, Surrogatmarker überbewerten oder gegensätzliche Resultate ausblenden.1,2
Unser Gegenmittel heisst Transparenz und Gewichtung. Planung und Durchführung bestimmen die Aussagekraft einer Studie weit stärker als ihr formaler Typ. Transparenz verwandelt widersprüchliche Resultate in ein nachvollziehbares Gesamtbild.3
Forschungsprojekte kosten viel und finanzstarke Akteure kämpfen um Schlagzeilen und Marktanteile. Gezieltes Design lässt ungesunde Produkte in Studien harmlos oder gar gesund erscheinen. Positive Ergebnisse dominieren, während kritische Befunde in den Hintergrund treten.
Besonders in der Ernährungsforschung führen solche Interessen zu widersprüchlichen Resultaten. Studien, die eine ausgewogene Ernährung überzeugend belegen, bleiben selten. Kaum jemand investiert in Forschung ohne direkten Profit.
Warum ist dieses Handwerkzeug nötig?
Weil das System der Evidenzproduktion krank ist. Forscher wie John Ioannidis von der Stanford University belegen: Finanzielle Interessen und Karrieredruck verformen die Wissenschaft systematisch. In der Forschung dominieren Studien zu teuren, vermarktbaren Produkten. Einfache, wirksame Lebensstil-Interventionen bleiben dagegen oft im Evidenz-Schatten. Das hat System. Diesem System setzen wir ein klares Handwerkzeug entgegen.
Wie der Text aufgebaut ist:
Er beginnt mit der Frage, warum Wissen oft widersprüchlich wirkt. Aber auch, welche Effekte das Resultat verzerren und was das mit dem System der Forschung zu tun hat. Dann folgen die Grundlagen: wie Studien entstehen und wie ihre Aussagekraft zu beurteilen ist. Darauf aufbauend erklärt der Text, wie theoretische Evidenz praktische Urteilsfähigkeit formt. Am Schluss steht die Verantwortung, mit Wissen bewusst umzugehen. Das jenseits von Dogma oder Meinung. Konkret bedeutet das: von System → Methode → Praxis → Kommunikation → Haltung.
Nutzen Sie das Inhaltsverzeichnis für einen raschen Überblick. Es ist je nach Ihrer Einstellung ein Click-For, bitte öffnen. Es legt die behandelten Themen und ihre Zusammenhänge klar offen.
In diesem Text lernen Sie:
Systemische Verzerrungen (Bias) zu identifizieren: Wie methodische Probleme und finanzielle Interessen Ergebnisse verzerren. Wie Sie diese Biases erkennen.
Die Sprache der Evidenz zu verstehen: Wie Sie mit drei Evidenz-Kategorien die Stärke einer Studie schnell einordnen.
Konkrete Prüfwerkzeuge anzuwenden: Wie Sie mit einer einfachen 6-Punkte-Checkliste jede Studie auf Herz und Nieren prüfen.
Kritisch mit Grossstudien umzugehen: Wie Sie auch vermeintlich "gesicherte" Grundlagen der öffentlichen Debatte hinterfragen.
Sich belastbares Wissen für die Praxis anzueignen: Wie Sie in Kenntnis der Widersprüche die wichtigen Zusammenhänge erkennen und verantwortungsvolle Entscheidungen für Ihr Leben treffen.
Damit lernen Sie, systemische Verzerrungen zu erkennen. Das erlaubt Ihnen fundierte Urteile. Der nächste Teil legt dar, warum das nötig ist – und wie leicht Interessen Evidenz im Alltag verschleiern.
Wer die eigene Gesundheit oder die der Familie aktiv schützt, steht einem Dschungel aus Versprechen gegenüber. Extreme wie Low Carb oder Rohkost klingen auf den ersten Blick plausibel. Studienresultate stehen im Widerspruch. Empfehlungen gehen weit auseinander. Anekdoten und selektive Fakten verstärken die Verwirrung. Medien, Werbung und Bestseller befeuern das. Je weniger Sie prüfen, desto leichter gewinnt das Marketing an Einfluss und desto nachhaltiger wirken einfache Geschichten.
Wir alle nehmen Aussagen leichter an, wenn sie unsere eigene Meinung oder die gängige Sicht bestätigen. Widersprüche wirken schnell störend oder gar verstörend. Viele Bücher oder Sachbeiträge umgehen das, indem sie persönliche Erlebnisse erzählen oder Fakten anhäufen. Meist erfolgt das ohne Belege mit hoher Evidenz, denn oberflächlich plausible Texte erlauben beliebige Interpretationen.
Bei einseitiger Auswahl bilden umfangreiche Werke mit vielen Studien ebenfalls ein verzerrtes Bild. Wissen entsteht via Erklärung biologischer Mechanismen und deren Absicherung durch stark evidenzbasierte Studien. Ausschlaggebend bleiben dabei Angaben zur Art, Dauer und Grösse einer Studie.
Diesen Widersprüchen liegen konkrete, systematische Muster zugrunde. Sie bilden methodische Schwachstellen und gezielte Hebel. Diese Biases verzerren die Evidenzproduktion systematisch. Wer sie erkennt, durchschaut das Spiel.
Evidenz wirkt wie ein festes Fundament. Sie offenbart, ob eine Aussage trägt. Studien liefern Antworten, die über Meinungen hinausgehen. Das Bild bleibt widersprüchlich.
Studien erlauben es, Hypothesen zu prüfen, Irrtümer zu korrigieren und Wissen zu verdichten. Gleichzeitig mindern viele Faktoren die Tragfähigkeit: Studiendesign, statistische Auswertung, Veröffentlichungspraxis, wirtschaftliche Interessen.
So entsteht ein Alltag voller Ambivalenz. Selbst die beste Forschung kennt Widersprüche. Empfehlungen fordern situatives Abwägen. Wer die Mechanismen kennt, versteht: Evidenz ist kein Block aus Stein, sondern ein Prozess. Evidenz gilt immer vorläufig, steht immer im Zwielicht.
Statistik verleiht Ergebnissen Gewicht. Zahlen wirken neutral und exakt. Allerdings hängt die Aussicht von der Methode ab: Welche Daten Forschende sammeln, wie sie Gruppen bilden, welche Kennzahlen sie wählen. Kleine Unterschiede erlauben es, das Resultat zu verändern. Statistik schafft Transparenz – oder Täuschung.
Auch grosse Studien bleiben anfällig. Falsch gesetzte Endpunkte oder selektive Auswertung erzeugen scheinbar klare, in Wahrheit fragile Ergebnisse.
Als Mass für die Evidenz hat der Statistiker (und das Genie) Sir Ronald Aylmer Fisher den p-Wert eingeführt. Zudem die F-Verteilung (Varianzverhältnis) und weitere statistische Methoden. Der p-Wert bewertet die statistische Signifikanz. Er kennzeichnet, wie stark das Ergebnis mit der zugrunde liegenden Annahme übereinstimmt. Mit anderen Worten: Wenn die Annahme stimmt, wie unwahrscheinlich ist dann das beobachtete Ergebnis – oder ein noch extremeres? Ein kleiner p-Wert (z.B. < 0,05) sagt aus: Unter dieser Annahme ist dieses Ergebnis selten. Ein kleiner p-Wert beweist weder Gültigkeit noch Existenz der geprüften Annahme. Er gibt nur einen Hinweis darauf, wie gut die Daten zur Annahme passen.
Fisher sah im p-Wert ein graduelles Mass der Evidenz als grobes Sieb am Beginn einer Untersuchung. Als Schwellenwert zur Signifikanz umfunktioniert, missbrauchten ihn spätere Statistiker. Ioannidis (2005) und Wasserstein & Lazar (2016) kritisieren, dass viele Forschende und Medien den p-Wert fehlinterpretieren. Sie setzen eine geringe Wahrscheinlichkeit unter der Nullhypothese mit dem Nachweis eines Effekts gleich – und überschätzen so die Aussagekraft der Resultate. Ein p-Wert beschreibt, wie zufällig ein Ergebnis wirkt, und nicht, ob es wahr ist. Daher eignet er sich bestens für Missverständnisse.22,49
Zahlen suggerieren Präzision. Das erzeugt leicht Illusionen. Ein signifikanter p-Wert beweist allein keinen Zusammenhang, denn eine Korrelation beschreibt gemeinsames Auftreten, nicht Ursache und Wirkung.
Effektgrösse, Wiederholbarkeit, klare Hypothesen und das Konfidenzintervall liefern stärkere Evidenz als reine Signifikanz. Wichtig ist auch eine transparente Berichterstattung, um mögliche Unsicherheiten aufzudecken. Wenn Tests mit kleinen Stichproben so oft durchzuführen sind, bis sie zufällig ein "signifikantes" Ergebnis liefern, gilt das als p-Hacking.50,51
Wer Statistik blind vertraut, verwechselt Berechnung mit Wahrheit.
Peer-Review gilt als Gütesiegel wissenschaftlicher Qualität. Fachleute prüfen vor der Veröffentlichung, ob eine Studie nachvollziehbar ist. In der Theorie stärkt das die Qualität. Die Praxis zeichnet ein anderes Bild: Persönliche Netzwerke, wirtschaftliche Interessen oder Rivalitäten beeinflussen das Urteil.
Gutachter prüfen meist anonym und unaufgefordert, oft unter Zeitdruck und mit Interessenkonflikten. Weder überprüft das Peer-Review die Rohdaten noch sichert es Reproduzierbarkeit. Gutachter entscheiden über Veröffentlichung oder Ablehnung. Sie folgen leider selten klaren Kriterien. Studien, die bestehende Meinungen bestätigen, haben höhere Chancen als solche, die sie infrage stellen. So entsteht ein System, das Konformität belohnt und Innovation bremst. Kritische Stimmen gelangen schwerer in renommierte Zeitschriften. Peer-Review schützt vor manchem Irrtum – schafft jedoch keine Garantie dagegen. Es gibt immer auch Fälle von zurückgezogenen Artikeln, bei denen erst nach der Publikation kritische Fehler auffielen.
Trotzdem gilt der Stempel "peer-reviewed" als Ausweis für Qualität. Wer wissenschaftliche Qualität beurteilen will, muss die Grenzen dieser Prüfung kennen: Sie ist Kontrolle – nicht Beweis der Wahrheit.
Begutachtung durch Fachkollegen gilt als Schutzschicht. Prüfer arbeiten oft unter Zeitdruck, unbezahlt und mit Interessenkonflikten. Komplexe Datensätze verbergen Fehler, die ein Review nicht entdeckt.
Manche Fachzeitschriften prüfen nur Formales, nicht die Methodik. Peer-Review filtert grobe Irrtümer, ersetzt hingegen keine Replikation, also keine Überprüfung durch Wiederholung. Ein veröffentlichter Artikel bedeutet: «Keine offensichtlichen Mängel gefunden» – nicht: «Es stimmt».
Open Science ist ein Ökosystem aus Forschenden, Institutionen, Förderorganisationen, Verlagen, Bibliotheken, Datenplattformen und politischen Akteuren. Es verspricht mehr Transparenz, indem Daten, Methoden und Ergebnisse frei zugänglich bleiben. Die Methode erlaubt unabhängige Überprüfung und Reproduktion.
Publikationen auf PubMed Central (PMC) gelten als Teil von Open Science. Denn seit 2008 verlangt die Forschungsförderagentur NIH (National Institutes of Health) Hinterlegung von allen durch sie geförderten Forschungsartikeln auf PMC. Das innerhalb von 12 Monaten nach Veröffentlichung. PMC ist also ein offenes digitales Archiv, betrieben von der National Library of Medicine (NLM) im Auftrag der NIH.
Open Science weist den Weg zu mehr Vertrauen. Offene Wissenschaft steht für eine Kultur der Verantwortung. Sie verlangt Sichtbarkeit der Fehler. Auch dass jede Behauptung durch überprüfbare Daten gestützt ist. Wissenschaft lebt von der Selbstkorrektur – der Grundstein für vertrauenswürdige Arbeit.
Die Realität sieht oft anders aus. Wirtschaftliche Interessen, Patente oder Prestige verhindern offene Daten. Replikationen gelten als wenig attraktiv und erhalten kaum Förderung. Ohne Nachprüfbarkeit bleibt Evidenz anfällig.
Offenheit allein genügt nicht. Selbst dort, wo Daten frei liegen, verformen Interessen und Methoden den Blick auf die Wirklichkeit. Im nächsten Teil geht es genau um diese Verzerrungen – und darum, wie sie unser Wissen trüben.
Der Artikel Why Most Published Research Findings Are False gilt als die meistgelesene Publikation von Public Library of Science (PLoS Medicine) mit über 3 Millionen Zugriffen.22 Dieser methodenkritische Essay von John P. A. Ioannidis (2005) demonstriert, warum viele veröffentlichte Forschungsergebnisse fehlerhaft oder übertrieben ausfallen. Kleine Stichproben, flexible Studiendesigns, selektive Endpunkte, Interessenkonflikte und Publikationsbias (siehe Bias-Systematik) erhöhen die Wahrscheinlichkeit, dass Resultate nicht stimmen. Je kleiner der Effekt und je mehr Freiheitsgrade Forschende bei der Auswertung nutzen, desto grösser das Risiko von Fehlschlüssen. Viele Studien bleiben nicht reproduzierbar oder unabhängig verifizierbar; ihre Ergebnisse erscheinen dadurch unsicher.22
All dies erhöht die Anfälligkeit von Evidenz. Verschiedene Faktoren trüben den Blick: Manche beruhen auf der Art der Studien selbst, andere auf systemischen Verzerrungen. Wer diese Einflüsse kennt, versteht, weshalb Ergebnisse unterschiedlich ausfallen und Empfehlungen wechseln. Dieser Textteil beleuchtet, wie verzerrtes Wissen entsteht. Wir erklären, weshalb Labor- und Tierstudien eine geringe Evidenz aufweisen. Im Anschluss beschreiben wir, wie systemische Verzerrungen (Bias) Studienergebnisse verfälschen. Abschliessend klären wir die Bedeutung der Reproduzierbarkeit von Studien – und die Gründe für die seltene Reproduktion.
Definition
In-vitro heisst "im Glas" (z.B. Petrischale). Forschende untersuchen isolierte Zellen oder Gewebe ausserhalb des Körpers. Tiermodelle nutzen Mäuse, Ratten oder andere Spezies, um Abläufe im Organismus zu beobachten.
Chancen
In-vitro-Modelle ermöglichen es, zelluläre Signalwege präzise zu untersuchen und Aktivierungen oder Hemmungen direkt nachzuweisen. Tiermodelle decken auf, wie Substanzen Organe beeinflussen. Experimente liefern erste Hypothesen und enthüllen potenzielle Risiken.
Grenzen
Im Unterschied zu Zellen im Labor wirkt in Mensch und Tier ein komplexerer und systemischer Stoffwechsel. Tiere weisen grosse Unterschiede in Genetik, Ernährung und Lebensdauer auf. Ein Effekt, der bei Mäusen stark wirkt, bleibt beim Menschen oft aus. Resultate sehen präzise aus, gelten aber nur eingeschränkt.
Beispiele verdeutlichen die Grenzen: Zahlreiche Substanzen stoppen Tumore bei Mäusen, versagen aber beim Menschen. Auch bei Nahrungsergänzungen täuschen Laborversuche: Isolierte Antioxidantien wirken im Reagenzglas schützend, doch ist das bei hoch dosierten Nahrungsergänzungsmitteln für Menschen zumindest fraglich. In gewissen Fällen erhöhen sie sogar das Risiko, etwa supplementiertes Betacarotin bei RaucherInnen. In-vitro- und Tiermodelle liefern wertvolle Hypothesen, zählen jedoch zur untersten Evidenz-Stufe.
Labor- und Tierstudien schaffen Grundlagenwissen, mehr meistens nicht. Viele Fachleute und Medien präsentieren Tierversuche irreführend als humanrelevant. Das ist einer der häufigsten Fehlgriffe in der Ernährungsforschung, weil er auf vorschnellen Schlussfolgerungen basiert.
Ein typischer Mechanismus: Zellstudien (in vitro) erreichen eine gewünschte Wirkung, etwa die Hemmung bestimmter Entzündungswege. In der öffentlichen Darstellung entsteht daraus vorschnell: Lebensmittel X schützt vor Entzündungen. Der Schritt vom Reagenzglas zur Ernährungsempfehlung übergeht den gesamten Stoffwechsel. Hier die Verdauung, die Bioverfügbarkeit und Wechselwirkungen im Organismus.
Diese Einschränkung betrifft auch Tiermodelle. Mäuse, Ratten oder Schweine reagieren auf Nährstoffe, Hormone und Giftstoffe teils vollkommen anders als Menschen. Das Thema behandeln Farooqi et al. (2024) wie folgt: Not all findings made in rodents have translated to humans, hampering drug discovery in this field..36
Unterschiede in Genetik, Darmflora und Lebensdauer verunmöglichen die Übertragbarkeit vieler Ergebnisse auf den Menschen. Eine Substanz, die bei Mäusen Krebs hemmt, kann beim Menschen wirkungslos und/oder schädlich agieren. Solche Übertragungsfehler befeuern Schlagzeilen, die wissenschaftlich kaum etwas tragen. Sie erklären, warum angebliche "Durchbrüche" aus Laboren selten Bewährung finden. Erst klinische Studien am Menschen beweisen, ob ein beobachteter Mechanismus tatsächlich wirkt, in welcher Dosis und unter welchen Bedingungen. Und dies nur, wenn kein Bias vorhanden ist.
Ein weiteres Beispiel von vielen liefert die Ernährungsforschung: In Tiermodellen und Zellstudien wirkte Resveratrol antioxidativ und stoffwechselaktivierend. Medien und Hersteller leiteten daraus einen "stoffwechselankurbelnden" Effekt ab. In einer sechsmonatigen, placebokontrollierten Studie mit übergewichtigen Erwachsenen blieb der erhoffte Nutzen aus. De Ligt et al. (2020) berichten: Insulin sensitivity was not affected after 6 mo of resveratrol treatment. 37 Die Studie folgte einem randomisierten, doppelblinden, placebokontrollierten Parallelgruppendesign. Es nahmen 45 übergewichtige Männer und Frauen teil, die über sechs Monate täglich 500 mg Resveratrol erhielten oder ein Placebo. Primärer Endpunkt war die Insulinsensitivität, gemessen mit dem Matsuda-Index aus oralen Glukosetests. Sekundäre Endpunkte umfassten Leberfettgehalt, Körperzusammensetzung, Blutdruck, Energieumsatz und Lebensqualität. Nach Abschluss wiesen die Gruppen keine signifikanten Unterschiede auf.
Unsere Tragik: Auch wir unterwerfen uns zu oft der Täuschung aus der Wissenschaft. Aus diesem Beispiel heraus lernen wir, auf die Art der Studie und deren Schwächen zu verweisen.
Diese Diskrepanz zwischen Labor- und Humanstudien verdeutlicht, dass Wirkmechanismen im Zellmodell nicht automatisch klinische Relevanz besitzen. Nur kontrollierte Studien am Menschen belegen biochemische Hypothesen.
Fazit
In-vitro-Experimente und Tierstudien klären lediglich Grundlagen. Sie helfen, Hypothesen zu entwickeln und grobe Gefahren abzuschätzen. Für Ernährung und Medizin reicht das nicht. Nur klinische Forschung am Menschen bekundet, welche Effekte tatsächlich auftreten. Hilft die Studie einer Industrie oder einem Interesse, verwendet sie die Resultate als Tatsache. Auch der überaus schädliche Hype um Protein ist so entstanden. Resultat: Die Aussage jedes zusätzliche Protein ist gesund gilt heute als Binsenweisheit. Eine andere Wahrheit kann keine Akzeptanz erreichen. Tragisch für die Menschheit, denn das Gegenteil ist der Fall. Siehe die Buchbesprechung über die China Study. Zudem beschreibt das Buch Proteinaholic des Chirurgen Garth Davis und des Wissenschaftsjournalisten Howard Jacobson mit ca. 480 Studien die Problematik von tierischem Protein überzeugend.52
Bias bezeichnet jede systemische Verzerrung oder Voreingenommenheit, die Design, Durchführung oder Interpretation einer Studie beeinflussen. Dazu zählen:
Die Forschung kennt über 100 katalogisierte Bias-Arten. Eine vollständige Auflistung ergäbe Unübersichtlichkeit. Wir konzentrieren uns auf jene Bias-Arten, die in der Ernährungsforschung am häufigsten auftreten. Weil sie am stärksten verzerren, durchschauen wir sie am einfachsten. Damit bilden sie das fundamentale Handwerkszeug für Ihre kritische Urteilsbildung.
Solche Verzerrungen verändern Ergebnisse oft stärker als Zufall oder Messfehler. Auf diese Art prägen sie das Bild der Ernährungsforschung. Sie erklären, weshalb gleiche Fragen so unterschiedliche Antworten liefern.
Als häufigste und wirkmächtige Mechanismen treiben folgende Bias-Arten die fehlgeleitete Evidenzproduktion voran:
Funding-Bias entsteht, wenn Geldgeber Ergebnisse beeinflussen. Studien aus Industrie oder Interessengruppen liefern überdurchschnittlich oft geschönte Resultate. Die Wahl der Fragestellung oder der Vergleichsgruppe lenkt den Ausgang. So überzeichnen Hersteller Wirksamkeit und Sicherheit ihrer Produkte.
Dies dient oft dazu, eine Branche reinzuwaschen und Konkurrenten zu belasten. Ein praktisches Beispiel aus den 1960er Jahren. Zuckerindustrie lenkt Forschung: Kearns et al. (2016) analysierten interne Akten grosser US-Hersteller. Sie rekonstruierten, dass Industrievertreter Forschende direkt beauftragten, Zucker von der Verantwortung für Herzkrankheiten zu entlasten. Dazu galt es, gesättigte Fette als Hauptschuldige darzustellen. Diese gezielte Einflussnahme veränderte die Forschungsagenda. Damit auch die Veröffentlichungspolitik und die Ernährungsberatung ganzer Jahrzehnte. Der Vorgang gilt heute als paradigmatischer Beleg für den Funding-Bias in der Ernährungswissenschaft.38
Ein aktuelles Beispiel liefert die Auswertung von López-Moreno et al. (2025). Das Team prüfte 44 klinische Studien zum Zusammenhang zwischen unverarbeitetem rotem Fleisch und Herz-Kreislauf-Erkrankungen. Ergebnis: Arbeiten mit finanziellen oder institutionellen Verbindungen zur Fleischindustrie publizierten nahezu ausschliesslich positive oder neutrale Befunde. Keine einzige wies auf erhöhte Risiken hin. Unabhängig finanzierte Studien kamen dagegen überwiegend zu negativen Resultaten.
Der Unterschied war statistisch hochsignifikant (Odds Ratio ≈ 3.75 [95 %-CI 1.62–8.67]). Diese Abweichungen entstehen nicht durch Zufall, sondern durch gezielte Auswahl von Fragestellung, Endpunkten und Vergleichsgruppen. Die Studie verdeutlicht, wie wirtschaftliche Interessen wissenschaftliche Evidenz verschieben und die öffentliche Wahrnehmung steuern.39
Beispiel: Studien mit homogenen Gruppen wie nur Männern oder Gesunden liefern keine allgemeingültigen Ergebnisse.5 Unterscheidungsmerkmale von Bias:
Forschende befragen Teilnehmende rückblickend. Die Erinnerung Kranker an ihr Verhalten weicht von derjenigen Gesunder ab. Es entstehen systematische Unterschiede in den Antworten. Das berichtet Coughlin (1990) in einer der ersten Arbeiten zu Recall-Bias.8
Ein Befund gilt als reproduzierbar, wenn unabhängige Forschende unter vergleichbaren Bedingungen mit neuen Daten zu einem ähnlichen Ergebnis gelangen.
Wiederholbarkeit liegt demnach vor, wenn ein Befund neuen Daten standhält. Ebenso, wenn ein erneuter Nachweis unter leicht veränderten Bedingungen gelingt. Beides stärkt die Glaubwürdigkeit.
Echte Evidenz entsteht dort, wo Forschende Ergebnisse unabhängig bestätigen. Viele Studien bleiben Einzelbeobachtungen. Kaum jemand prüft, ob Resultate tatsächlich reproduzierbar bleiben. Replikation gilt als schärfste Form wissenschaftlicher Prüfung. Fehlt diese Kontrolle, droht Scheinwissen: statistisch korrekt, praktisch wertlos. Besteht ein Effekt unabhängig von Forscherteam, Region oder Methode, gilt er als belastbar.
In der Ernährungsforschung ist das besonders heikel: Einzelstudien erzeugen eine grosse Menge an Schlagzeilen. Ohne Replikation fehlt die Sicherheit. Begley & Ellis (2012) berichteten, dass grosse Replikationsprojekte in den Life Sciences weniger als die Hälfte der publizierten Resultate bestätigten.40 Ohne Wiederholung bleiben Zufall oder Verzerrung unbemerkt.
Fazit:
In-vitro-Experimente und Tiermodelle liefern erste Hinweise, keine Gewissheiten. Bias verzerrt Resultate, selbst bei Studien am Menschen. Beide Faktoren trüben die Evidenz. Wer diese Grenzen kennt, kann Forschung realistischer einschätzen. Das Problem: Nur ein kleiner Teil der Bevölkerung kann solche Unterschiede richtig einordnen – und genau das nutzt die Industrie. Solange Politik und Bildung diesen Mangel ignorieren, bleibt die Gesellschaft manipulierbar. Die Folge: Fehlgeleitete Ernährungsempfehlungen und industrielle Interessen bestimmen, was als "gesund" gilt. Solange der Staat bzw. die Politik das nicht erkennen und ändern, bleiben viele Bürger ein Spielball der Industrie.
Diese systemischen Verzerrungen bilden den Nährboden für methodische Schwächen in Studien. Wie Sie solche Einflüsse im Studiendesign erkennen, erörtern wir weiter unten.
Viele unserer Leserinnen und Leser stammen nicht aus der akademischen Welt. Trotzdem erklären wir, wie wissenschaftliche Publikationen funktionieren – denn ohne dieses Grundwissen fallen Sie bei Ernährungsfragen leider auf Marketing und Ideologie herein. Wer die Basis kennt, beurteilt Studien sicherer und hinterfragt Quellen kritischer.
Wissenschaftliche Untersuchungen lassen sich grob in experimentelle und beobachtende Studien unterteilen. Jede Art weist typische Stärken und Schwächen auf:
Experimentelle Studien
Beobachtende Studien
Spezielle Formate
Fallberichte und Fallserien: Beschreiben einzelne PatientInnen; wertvoll für Hypothesen, aber keine Belege für Ursache-Wirkung.
In der Ernährungsforschung kommen einige Studienarten besonders häufig vor. Jede liefert andere Arten von Erkenntnissen. Manche eignen sich besser für Ursache-Wirkungs-Aussagen. Andere entstehen eher, um Zusammenhänge oder Hypothesen zu entdecken.
a) Randomisierte kontrollierte Studien (RCTs) bekamen das Prädikat „Goldstandard“, weil sie im Prinzip als höchster Standard der experimentellen Studien gelten. Vor allem, wenn es darum geht, die Wirkung einer Ernährungsintervention zu prüfen. Auch zusammengefasste RCTs als Meta-Studien gehören dazu. Typische Beispiele:
Stärken: Kontrollgruppen, Randomisierung und Verblindung (Blindverfahren) minimieren Verzerrungen.
Schwächen: Häufig kurze Dauer, geringe Teilnehmerzahl, Probleme mit Einhaltung der Ernährung (Compliance).
b) Pragmatic Trials / Free-Living-Studien
Interventionen unter möglichst realistischen Alltagsbedingungen.
Beispiel: Ernährungsumstellungen in Betrieben oder Familien.
Stärken: Hohe Alltagstauglichkeit.
Schwächen: Weniger Kontrolle über Störfaktoren.
a) Prospektive Kohortenstudien kommen sehr häufig in der Ernährungswissenschaft vor. Forschende verfolgen grosse Bevölkerungsgruppen über Jahre und erfassen Ernährung z.B. über Fragebögen (FFQ). Typische Beispiele:
Stärken: Grosse Fallzahlen, lange Beobachtungsdauer.
Schwächen: Ernährungsmessung fehleranfällig; erlaubt keine sicheren Aussagen über Ursache und Wirkung.
b) Fall-Kontroll-Studien
Vergleich von Menschen, die z.B. erkrankt sind, mit solchen, die nicht erkrankt sind. Bei vorliegenden Krankheiten Untersuchung Ernährung rückblickend.
Stärken: Schnell, günstig, nützlich für seltene Krankheiten.
Schwächen: Rückblickende Ernährungserfassung oft unzuverlässig; hohes Risiko für Erinnerungsbias.
c) Querschnittstudien
Erhebung zu einem einzigen Zeitpunkt.
Beispiel: Zusammenhang zwischen Zuckerkonsum und BMI in einer Bevölkerungsstichprobe.
Stärken: Gut für erste Hinweise und Trends.
Schwächen: Keine zeitliche Abfolge, daher keine Kausalität.
a) Metabolomik-Studien (Stoffwechselprofil-Studien) und Biomarker-Studien
Nutzen objektive Messungen (z.B. Fettsäuremuster im Blut), um Ernährungsgewohnheiten genauer abzubilden.
Stärken: Weniger anfällig für falsche Selbstauskünfte.
Schwächen: Biomarker oft spezifisch nur für bestimmte Lebensmittel oder Muster.
b) Isotopen- oder Kontrollfütterungsstudien („feeding trials“)
TeilnehmerInnen bekommen exakt vorgegebene Mahlzeiten.
Stärken: Höchste Kontrolle über die Ernährung; ideal zur Klärung physiologischer Mechanismen.
Schwächen: Sehr teuer und auf wenige Tage oder Wochen beschränkt.
c) Systematische Reviews & Metaanalysen
Fassen alle Studien zu einem Thema (z.B. „rotes Fleisch und Krebsrisiko“) zusammen.
Stärken: Grössere Aussagekraft als Einzelstudien.
Schwächen: Qualität hängt stark von den eingeschlossenen Studien ab.
d) Narrative Reviews
Experten fassen den Forschungsstand zusammen, meist weniger streng methodisch.
Stärken: Gute Orientierung für Laien.
Schwächen: Mögliches Autoren-Bias; keine harten Beweise.
Von der Idee bis zur Veröffentlichung einer Studie führt ein langer, oft beschwerlicher Weg.
Vom Experiment zur Publikation
Planung: Forschende formulieren eine Fragestellung, wählen das Studiendesign (z.B. RCT, Kohorte) und beantragen Ethikbewilligungen.
Datenerhebung: Sie rekrutieren Probanden, führen Interventionen durch und erfassen Messwerte.
Analyse: Das Team wertet die Daten statistisch aus und berücksichtigt Störfaktoren.
Manuskript: Die Forschenden schreiben die Ergebnisse in einem Artikel nieder.
Peer-Review: Andere Fachleute prüfen den Artikel kritisch und verlangen nicht selten Korrekturen.
Publikation: Eine Fachzeitschrift publiziert die Arbeit, meistens mit DOI. Der DOI (Digital Object Identifier) ist eine eindeutige Kennung, vergleichbar mit einer dauerhaften Internetadresse. Er beginnt immer mit 10. → als Kennzeichen für DOI. Danach folgt eine Ziffernfolge, die den Verlag oder die Registrierungsagentur identifiziert. Beispiel: 10.1001 = American Medical Association (JAMA). Zusammen ist es das Präfix des DOI. Das Suffix besteht aus vom Verlag freigegebenen Informationen, meist als Kürzel für Zeitschrift, Jahr, Band, Artikelnummer oder interne ID. Beispiel: 10.1001/jama.2018.0245 führt direkt zur DIETFITS-Studie.
Das Studiendesign definiert die zentralen Bedingungen einer Untersuchung. Das Design legt fest, wie Forschende Daten erheben und auswerten. Dazu zählen:
Ein durchdachtes Studiendesign sichert die Aussagekraft der Ergebnisse.
Zu den frei zugänglichen Quellen gehören PubMed, PubMed Central, die Cochrane Library (teils offen) und Google Scholar. Zahlreiche wissenschaftliche Volltexte liegen hinter Paywalls und erfordern Universitätszugänge. Unpaywall gestattet den legalen Abruf von Open-Access-Versionen. Sci-Hub und ähnliche Dienste bieten ebenfalls Zugriff, liegen hingegen rechtlich in Grauzonen. Im Detail:
Open Access - frei und legal
Ein Teil der Forschung erscheint als Open-Access-Publikation. Autorinnen, Autoren oder Förderinstitutionen übernehmen die Publikationskosten, damit Interessierte kostenfrei auf den Volltext zugreifen. Dieses Modell kehrt das traditionelle Verlagsprinzip um: Vorab-Finanzierung erlaubt dauerhaft offenen Zugang. Beispiele: PLOS ONE, Nutrients, Frontiers.
Institutionelle Repositorien und Datenbanken (frei zugänglich, legal)
Viele Universitäten verpflichten ihre Forschenden, eine Kopie ihrer Arbeiten in Repositorien abzulegen (z.B. Harvard DASH, ETH Research Collection). Plattformen wie PubMed Central oder Zenodo enthalten frei zugängliche Artikel.
Preprints und Plattformen
Immer mehr Forschende stellen Preprints ins Netz – Manuskripte ohne Peer-Review. Andere laden akzeptierte Manuskripte („Accepted Manuscripts“) nach der Begutachtung sichtbar hoch, bevor der Verlag den Satz erstellt. Diese Fassungen bleiben legal zugänglich und weichen meist nur gering vom Endtext ab.
Plattformen wie ResearchGate oder Academia.edu – Graubereich
Auf ResearchGate, Academia.edu und ähnlichen Plattformen veröffentlichen Forschende ihre Arbeiten direkt für die Fachgemeinschaft. Ein grosser Teil der Beiträge steht rechtlich einwandfrei online (Preprints und Manuskripte). Leider verletzen einige PDF-Dateien Verlagsrechte. Wer Volltexte aufruft, handelt damit ausserhalb der gesicherten Rechtslage.
Unpaywall und ähnliche Dienste – legale Suchwerkzeuge
Unpaywall arbeitet als Browser-Erweiterung und findet beim Klick auf eine DOI automatisch frei verfügbare Versionen. Das Tool verweist auf legale Quellen wie universitäre Repositorien oder Open-Access-Archive.
Verlagsseiten hinter Paywalls.
Paywalls bleiben rechtlich zulässig und inhaltlich restriktiv: Renommierte Journale wie Nature, The Lancet oder JAMA verlangen Gebühren für den Zugang. Universitäten lizenzieren komplette Pakete und ermöglichen so den Zugang zu Texten für Studierende und Forschende. Privatpersonen zahlen für Einzelartikel. Kritiker beanstanden das Modell: Verlage verkaufen öffentlich finanzierte Forschung teuer zurück und behindern den freien Wissensaustausch.
Open Access im Gegensatz
Vorabfinanzierung sichert dauerhaft freien Zugang zum Volltext. Mangelhafte Qualität und überzogene Selbstdarstellung kennzeichnen leider manche Arbeiten.
Illegale Zugänge wie Sci-Hub
Die kasachische Informatikerin Alexandra Elbakyan gründete 2011 Sci-Hub als Reaktion auf die hohen Artikelpreise der Verlage. Die Plattform bietet weltweit Millionen wissenschaftlicher Texte an und verstösst dabei meist gegen Urheberrechte. Viele Länder blockieren den Zugang – etwa die USA, Grossbritannien, Frankreich und Russland. Der Zugriff funktioniert technisch über VPN oder TOR. Forschende in ärmeren Ländern nutzen häufig sci-hub.in, weil ihnen legale Wege fehlen. Die Eingabe des DOI reicht aus; wir veröffentlichen den DOI immer.
Interessenkonflikte: Verlage stützen ihre Geschäftsmodelle auf Paywalls, während Forschende und Förderinstitutionen offene Wissenschaft fordern. Frank (2023) beschreibt, dass Open-Access-Modelle edel wirken, Kosten und Risiken aber den Forschenden überlassen.¹⁷
Autorenrechte: Viele Verlagsverträge erlauben das Teilen von Preprints und Manuskripten, verbieten aber die Verlagsversion. Diese Praxis schafft Unsicherheit. Geiger (2024) betont ein Urheberrecht, das Forschung und Open Science rechtlich absichert.¹⁸
Plattformen: Netzwerke wie ResearchGate überbrücken die Kluft zwischen Paywall und offener Publikation. Sie enthalten sowohl legale Preprints wie unrechtmässig hochgeladene Verlagsfassungen, was Konflikte mit Rechteinhabern erzeugt. Colavizza et al. (2024) belegen, dass Preprints den Zugang verbessern und Zitationen um etwa 20 Prozent steigern.¹⁹
Politische Dimension: Grosse westliche Verlage beherrschen den Markt wissenschaftlicher Publikationen und halten viele Ergebnisse hinter Paywalls zurück. Thibault et al. (2023) fordern, dass Open-Science-Strategien mehr Transparenz, freie Daten und klare politische Steuerung sicherstellen.²⁰
Nicht nur der Zugang, auch der Weg dorthin prägt die Qualität des Wissens. Prüfverfahren und Publikationswege legen fest, was als gesichert gilt.
Wissenschaftliche Publikationen folgen heute wirtschaftlicher Logik. Grosse Verlage verdienen doppelt: Forschende liefern Inhalte kostenlos und kaufen den Zugang zu ihren eigenen Arbeiten zurück. Die Kosten tragen Universitäten, Förderinstitutionen oder letztlich die Öffentlichkeit. Solange Zitationen über den Karrierewert entscheiden, bleibt Publikation ein Markt mit Gewinnern und Abhängigen.
Open-Access-Modelle sollten diese Schieflage korrigieren. Inzwischen entstehen neue Abhängigkeiten: Wer bezahlt, veröffentlicht. Viele Journals verlangen hohe "Article Processing Charges". Damit schliessen sie finanzschwächere Einrichtungen aus. Die Bezahlung wechselt vom Lesenden zum Publizierenden.
Offene Wissenschaft verlangt mehr als freien Zugang. Sie benötigt offene Daten, transparente Begutachtung und faire Rahmenbedingungen, damit Wissen wieder als Gemeingut zirkuliert, nicht als Handelsware.
Nach Entstehung, Prüfung und Veröffentlichung bleibt die entscheidende Frage: Wie belastbar ist dieses Wissen?
Evidenz bedeutet Beweisbarkeit: Sie beschreibt, wie gut ein Zusammenhang durch überprüfbare Daten gestützt ist. Studien erhalten aufgrund ihrer Datengrundlage und Methodik unterschiedliche Evidenzstärken. In der Medizin gelten sogenannte Evidenz-Pyramiden als bewährtes Modell. Sie ordnen Studien nach ihrer Beweiskraft. An der Spitze stehen die zuverlässigsten, an der Basis die schwächsten.
In der Regel gilt: Meta-Analysen und systematische Reviews liegen an der Spitze der Evidenz-Pyramide. Es folgen randomisierte kontrollierte Studien (RCTs). Danach kommen Kohorten- und Fall-Kontroll-Studien. Labor- und Tierstudien, Fallberichte und Expertenmeinungen (narrative Reviews) liefern die schwächste Evidenz.
Der folgende Abschnitt vermittelt einen Überblick über die wichtigsten Studientypen und ihre Aussagekraft. Das erlaubt Ihnen, Aussagen richtig einzuordnen.
Die Evidenz-Pyramide veranschaulicht den Stellenwert der Studienarten. An ihrer Spitze stehen zusammenfassende Analysen mehrerer hochwertiger Studien – systematische Reviews oder Meta-Analysen. Darunter folgen randomisierte kontrollierte Studien (RCTs), dann Beobachtungsstudien und Kohortenstudien.
Je tiefer die Studienebene, desto stärker verzerren Bias und Störeinflüsse die Ergebnisse. Fallberichte und Expertenmeinungen liefern meist lediglich Hypothesen – sie geben Hinweise, keine verlässlichen Beweise.4
Evidenz-Klassen nach der klassischen Pyramide
Ia – Höchste Evidenz
Systematische Reviews oder Meta-Analysen mehrerer randomisiert-kontrollierter Studien (RCTs) mit konsistenten Ergebnissen.
Ib
Eine einzelne grosse randomisiert-kontrollierte Studie (RCT) mit klarer Fragestellung und ausreichender statistischer Stärke.
IIa / IIb
Kontrollierte Studien ohne Randomisierung sowie gut durchgeführte Kohortenstudien, Fall-Kontroll-Studien.
III
Nicht-experimentelle deskriptive Studien, Fall-Kontroll-Reihen, Querschnittsstudien.
IV
Klinische Erfahrungen, Fallberichte, Berichte von Expertengremien.
V – Niedrigste Evidenz
Expertenmeinungen ohne systematische Datenerhebung, Labor- und Tierstudien (in vitro/in vivo).
Quelle: Sackett DL, et al. 1996.
Wie verlässlich eine Studie ist, hängt vom Design ab. Sackett et al. (1996) ordneten Studien erstmals in einer Evidenz-Pyramide.4 Augenscheinliche Befunde oder offenkundige Ergebnisse bedeuten nicht unbedingt Beweisbarkeit. Im Gegensatz dazu beschreibt die Evidenz den Grad der Beweisbarkeit präzise und nachvollziehbar. Die evidenzbasierte Medizin, deren philosophische Ursprünge bis ins Paris der Mitte des 19. Jahrhunderts und früher zurückreichen, ist nach wie vor ein brisantes Thema für Kliniker, Praktiker des öffentlichen Gesundheitswesens, Einkäufer, Planer und die Öffentlichkeit.
Das Centre for Evidence-Based Medicine (CEBM), University of Oxford definiert die Evidenzlevel präzise und einheitlich. Sie leisten einen wertvollen Beitrag in wissenschaftlicher Lehre und Ausbildung und finden regelmässig Aufnahme in die Arbeiten von CEBM und Cochrane.
Studiengrösse: Mehr Probanden erhöhen die statistische Aussagekraft.
Studiendauer: Längere Studien erfassen Langzeiteffekte besser.
Finanzierung: Unabhängige Finanzierung reduziert Interessenkonflikte.
Endpunkte: Harte Endpunkte (Sterblichkeit) wiegen stärker als Surrogatmarker.
Surrogatmarker bilden Ergebnisse nur indirekt ab. Sie dienen in klinischen Studien als Indikatoren für den Effekt einer Behandlung auf einen patientenrelevanten Endpunkt. So ersetzen sie direkte, oft langwierige Messungen. Viele Studien nutzen Surrogatmarker: Ein sinkender Blutdruck gilt etwa als Hinweis auf seltener auftretende Schlaganfälle; eine niedrige Viruslast bei HIV signalisiert längere Überlebenszeiten; Cholesterin gilt als Stellvertreter für Herz-Kreislauf-Risiko und Blutzucker für die Entwicklung und Risiken von Diabetes. Solche Marker erleichtern Messungen, ersetzen hingegen keine Endpunkte, die tatsächliche Gesundheit oder Lebenszeit erfassen.
Für die Kommunikation ausserhalb von Fachpersonen stellen wir die einfache 3-Stufen-Version vor. Die Ampel spricht sowohl Fachpublikum als auch Betroffene präzise an.
Für eine erste Einschätzung genügt es, Studien in drei Evidenz-Kategorien einzuteilen. Wir differenzieren sie im Folgenden.
Diese hohe Evidenz liefern zusammenfassende Analysen mehrerer RCTs, systematische Reviews oder Meta-Analysen, sowie grosse randomisierte Studien. Bedingung: ForscherInnen führen sie methodisch einwandfrei durch.
Systematische Reviews sammeln und bewerten alle verfügbaren Studien nach transparenten Kriterien. Sie verdeutlichen den gesamten Forschungskontext. Voraussetzung: Die Literatursuche ist vollständig, die Bewertung neutral.
Meta-Analysen berechnen aus mehreren Studien statistisch zusammengefasste Effekte. Sie steigern die Präzision, sofern die eingeschlossenen Studien ähnliche Designs und Populationen aufweisen.
Randomisierte kontrollierte Studien (RCTs) teilen Probanden nach dem Zufallsprinzip in Gruppen ein. Sie liefern die zuverlässigsten Zusammenhänge von Ursache und Wirkung. Bedingung: Die Randomisierung erfolgt korrekt, die Studiengrösse reicht aus.
Der Unterschied: Reviews und Meta-Analysen werten bestehende Studien aus; RCTs generieren neue Daten. Beide Wege führen zu hoher Evidenz, falls die methodische Qualität stimmt.
Beobachtungsstudien liefern diese, sofern ForscherInnen grosse Populationen über längere Zeit verfolgen und Störfaktoren sorgfältig berücksichtigen.
Kohortenstudien beobachten eine grosse Bevölkerungsgruppe über Jahre. Der Begriff Kohorte bezeichnet eine homogene Studiengruppe. Im besten Fall erfahren Teilnehmende gleiche Ereignisse zur gleichen Zeit. Zu Beginn weist niemand die untersuchte Eigenschaft auf. Im Zeitverlauf dokumentieren ForscherInnen, wer eine Krankheit entwickelt. Diese Studien identifizieren Risikofaktoren. Sie beweisen leider keine Kausalität.
Fall-Kontroll-Studien vergleichen erkrankte Personen (Fälle) mit gesunden Kontrollen. Forscher prüfen rückblickend, ob bestimmte Risikofaktoren öfter vorkamen. Die Methode ist nützlich bei seltenen Krankheiten. Sie liefern begrenzte Evidenz.
Querschnittsstudien erfassen eine Momentaufnahme von Merkmalen innerhalb einer Population. Sie erfassen statistische Zusammenhänge (etwa: Menschen mit Krankheit X konsumieren mehr Y). Sie belegen keine zeitliche Abfolge und keine kausalen Zusammenhänge.
Grundlagenforschung und Einzelberichte liefern erste Hinweise. Ihre Übertragbarkeit auf menschliche Ernährungsempfehlungen ist begrenzt.
Tierstudien (in vivo) untersuchen Wirkungen im gesamten Organismus. Sie klären biologische Mechanismen auf und weisen auf Wirksamkeit oder Toxizität hin. Die Ergebnisse gelten nicht für den Menschen, da sein Stoffwechsel fundamental abweicht. Beispiel: Die Macadamia-Nuss ist für Hunde und Katzen extrem giftig.
Reagenzglasstudien (in vitro) testen Substanzen an isolierten Zellen oder Molekülen.Die ermittelten Wirkmechanismen versagen oft in komplexen Lebewesen.
Narrative Reviews bündeln vorhandene Studien auf Basis der fachlichen Einschätzung der Autorenschaft. Im Gegensatz zu systematischen Reviews fehlen standardisierte Suchstrategien und festgelegte Auswahlkriterien. Diese Schwächen erhöhen das Risiko von Verzerrungen. Darum finden sich die systematischen Reviews in der besten Evidenzklasse und narrative Reviews in der schlechtesten.
Expertenmeinungen und Fallberichte beruhen dagegen auf Einzelbeobachtungen oder subjektiven Einschätzungen. Sie liefern wertvolle Impulse für Hypothesen, ersetzen jedoch keinen wissenschaftlichen Nachweis. Sie liegen sich am unteren Ende der Evidenzklassen.
Leserinnen und Leser ordnen eine Studie nun leicht einer der drei Kategorien zu. Die Hierarchie ist sofort klar: Vertrauen Sie mehr auf grosse, zusammengefasste oder randomisierte Studien als auf Tierstudien oder Einzelmeinungen.
Zwei methodische Fallstricke verfälschen Ernährungsstudien systematisch: Restverzerrung und ungeeignete Kontrollgruppen.
Restverzerrung bezeichnet unbeachtete Einflüsse, die trotz sorgfältigem Studiendesign bestehen bleiben. Statistische Verfahren oder verfeinerte Auswahlkriterien für Probandinnen und Probanden entfernen z.B. bekannte Störfaktoren wie Rauchen oder Bewegungsmangel. Dieser Schritt bringt den Effekt der untersuchten Ernährung besser zur Geltung oder hilft zumindest dabei. Die Gruppe erscheint als homogen.
Restverzerrung bleibt damit eine grundsätzliche Grenze von Beobachtungsstudien.
Wenngleich Forschende bekannte Störfaktoren statistisch bereinigen, bleiben unbekannte oder schwer messbare Einflüsse bestehen. Beispielsweise verfälschen chronischer Stress, Schlafqualität oder genetische Prädisposition die Ergebnisse weiterhin. Diese Restverzerrung beschreibt Fehlerquellen, die Resultate verändern, obwohl das Studiendesign korrekt erscheint.
Besonders heikel ist es, wenn diese Restverzerrung einen Confounding-Effekt aufweist: Der unbekannte Faktor beeinflusst sowohl die vermeintliche Ursache als auch die gemessene Wirkung und ist in der Lage, einen Scheinzusammenhang zu erzeugen.
Beispiele:
Kohortenstudien dienen vielfach der Untersuchung von Zusammenhängen zwischen Ernährungsformen und Surrogatmarkern, Krankheitsrisiken oder Mortalitätsraten. Die Forschenden teilen die Probanden dabei häufig in Gruppen wie „vegan“, „vegetarisch“ oder „Mischkost“ ein.
Dieses Vorgehen ist methodisch problematisch, da die Gruppen eine hohe Heterogenität aufweisen. Die vegane Gruppe ist nicht einheitlich. Einige ernähren sich ausgewogen und nährstoffreich, andere essen überwiegend stark verarbeitete Produkte. Ein Teil der Mischkostgruppen nimmt lediglich geringe Mengen tierischer Produkte zu sich. Andere sehr viele. Gleichzeitig spielt eine Rolle, ob insgesamt eher Junkfood dominiert oder ein hoher Anteil an Gemüse und Früchten. Die reine Einteilung nach Ernährungsform lässt grosse Verzerrungen zu. Das schränkt die Aussagekraft der Studie massiv ein. Man kann so auch bewusst das Gegenteil des Erwarteten erreichen.
Aus wissenschaftlicher Sicht ist eine differenzierte Erfassung der tatsächlichen Ernährungsgewohnheiten erforderlich. Food Frequency Questionnaires (FFQ) ermöglichen eine präzisere Untersuchung der Korrelation zwischen bestimmten Lebensmittelkombinationen und gesundheitlichen Parametern. Diese Vorgehensweise reduziert das Risiko von Confounding und erhöht die Validität der Ergebnisse im Vergleich zur groben Einteilung nach Ernährungsform.
Fazit: Das Entfernen bekannter Faktoren schafft Klarheit. Allerdings beseitigt es nie alle Verzerrungen. Restverzerrung bleibt damit eine fundamentale Grenze von Beobachtungsstudien. Fewell et al. (2007) schrieben eine gute methodische Erklärung, wie mit Confounding-Effekten umzugehen ist und weshalb diese nie komplett verschwinden.9
"Inappropriate Control Groups" verzerren Vergleiche. Eine unzureichende Vergleichsdiät verzerrt das Ergebnis zugunsten der anderen. Dies belegt nicht den Nutzen der einen, sondern den Schaden der anderen Diät. Das ist eine viel angewandte Täuschung durch industrienahe Menschen.
Industrie und verkaufsorientierte Kreise beeinflussten die Ergebnisse von wissenschaftlichen Studien. Lundh et al. (2017) demonstrierten in einer Cochrane-Übersicht, dass industriefinanzierte Studien signifikant mehr positive Resultate berichten als unabhängige Arbeiten.11 Eine aktuelle Analyse von López-Moreno et al. (2025) bestätigte dies: Der Anteil sponsorfreundlicher Resultate liegt bei industriefinanzierten Ernährungsstudien rund viermal höher als bei unabhängigen Arbeiten.13
Selbst Studien der höchsten Evidenzklasse bleiben nicht frei von dieser Beeinflussung. Boutron et al. (2010) untersuchten die Berichterstattung in Top-Journals. Sie belegten, dass rund 40 % aller RCTs und Reviews positive Nebenergebnisse betonten. Dies obwohl der Haupteffekt ausblieb.10
Sismondo (2008) dokumentierte, wie Pharmaunternehmen durch Ghostwriting und Publikationsplanung Studieninhalte gezielt formen, um gewünschte Botschaften in der Literatur zu verankern.12 In der öffentlichen Debatte arbeiten industrienahe Stimmen mit diesem Muster. Ernährungsberaterinnen oder Fachleute, die für Branchenorganisationen auftreten, reagieren auf Kritik mit Floskeln: Neuere Studien bestätigen unsere Sichtweise. Belege bleiben aus, konkrete Quellen fehlen. Damit verlagert die Diskussion den Fokus vom Inhalt auf pauschale Behauptungen, die kaum überprüfbar bleiben. Dieses Vorgehen verstärkt die Asymmetrie zwischen gut belegten Analysen und marketingorientierten Aussagen.
In den Medien dominieren industrienahe Stimmen. Kritische Fachleute mit belastbarer Evidenz erhalten wenig Raum, während PR-Botschaften der Branche direkt in Nachrichten einfliessen.
Leider betreiben gewisse Forscher industriefinanzierte Forschung. In einem konkreten Fall veröffentlichte ein Forscher über Jahre hinweg Studien, in denen er Ahornsirup als besonders gesund darstellte. Er bezeichnete ihn als Spitzenlebensmittel. Dazu schrieb er dem Produkt Wirkungen zur Vorbeugung von Krankheiten wie Krebs, Alzheimer und Diabetes zu. Die Aussagen basierten auf Laborversuchen mit konzentrierten Ahornextrakten, nicht auf dem tatsächlichen Verzehr von handelsüblichem Sirup. Zudem arbeitete der Forscher als bezahlter Berater und Werbeträger für die Branche. Diese Vergütung stellt einen klaren Interessenkonflikt dar.14
Eine australische Analyse von Brooks et al. (2024) belegte, dass Nachrichtenportale in 80 von 86 Beiträgen über Fast-Food-Ketten eine markenfreundliche und überwiegend positive Berichterstattung wählten. Dazu gehörten Beiträge mit positiven Schlagzeilen sowie positive Beschreibungen neuer Nahrungsmittelprodukte. Alle Medienbeiträge mit einer markenungünstigen Tendenz (6 von 86) erhielten diese Kennzeichnung, weil sie Kritik von Social-Media-Nutzern an den Produkten der Marken zitierten.15
Soziale Medien fördern die Verbreitung von Fehlinformationen zur Ernährungslehre. Diekman et al. (2023) analysierten in einer Übersichtsarbeit deren massenhafte Verbreitung sowie die Auswirkungen auf die Ernährungsberatung.16
Fazit: Diese Beispiele verdeutlichen, wie stark wirtschaftliche Interessen die wissenschaftliche Kommunikation und die öffentliche Wahrnehmung prägen. Wer Studien zuverlässig einschätzen will, unterscheidet klar zwischen gesichertem Wissen und interessengeleiteter Behauptung. Das bildet die Basis für echtes Verstehen. All diese Aspekte bestimmen gemeinsam, wie stark Evidenz tatsächlich trägt – und wie zuverlässig sie unser Handeln leiten kann.
Wissenschaft wächst durch offengelegte Fehler. Retraction Watch und PubPeer stärken diese Kultur. Offene Datensätze und registrierte Protokolle verhindern nachträgliche Tricks.
Transparente Methoden und sichtbare Interessen erzeugen Vertrauen. Die Bereitschaft zur Fehlerkorrektur bildet das Mass echter Stärke.
Evidenz ist kein Dogma, sondern ein Werkzeug. Sie hilft, Hypothesen zu prüfen und Wissen zu ordnen. Ihre Stärke liegt nicht in der Zahl der Studien, sondern in ihrer Qualität, Offenheit und Reproduzierbarkeit. Wissenschaft bleibt vorläufig – und darin liegt ihre Glaubwürdigkeit.
Verlässliches Wissen entsteht dort, wo Beobachtung, Prüfung und Transparenz zusammenkommen. Wer Evidenz richtig versteht, sucht nicht nach Beweisen, sondern nach Verständnis. Erkenntnis wächst durch Zweifel, nicht durch Gewissheit.
Studien zu kennen, ist das eine; sie richtig einzuordnen, das andere. Wer Aussagen zuverlässig bewerten will, benötigt Kriterien. Dieser Textteil bündelt dafür praktische Hilfen, indem er Ihnen eine kurze Checkliste bietet.
Sechs Kernpunkte helfen, die Aussagekraft einer Studie kritisch und nachvollziehbar zu prüfen.
Publikationsort und Peer-Review: Seriöse Studien erscheinen in Fachzeitschriften mit Qualitätskontrolle. Journale wie Nature, JAMA, The Lancet oder NEJM prüfen Methoden und Resultate vor der Veröffentlichung. Predatory Journals umgehen jede Kontrolle und veröffentlichen gegen Bezahlung ohne unabhängige Begutachtung. Beall (2012) beschrieb, wie diese Verlage das Open-Access-Modell zu einem Geschäft ohne wissenschaftliche Qualitätssicherung verwandelten. Spätere Analysen kritisierten Bealls Kriterien als unscharf und regional voreingenommen.²¹
Eine aktuelle Übersicht solcher Journale bietet beallslist.net. Die NOAA Library führt unter Journal Evaluation & Predatory Publishing eine zweistufige Bewertung – gelb und rot - und beschreibt auf library.noaa.gov die unterschiedlichen Gründe.
Evidenzstufe: Die Stufen der Evidenz finden Sie in Kap. 4 erläutert. In der Checkliste dienen sie als erster Prüfpunkt: Randomisierte kontrollierte Studien (RCTs), systematische Reviews und Meta-Analysen stehen für starke Evidenz. Beobachtungs- und Tierstudien liefern nur Hypothesen und bieten schwache Evidenz.⁴
Stichprobe und Dauer: Viele Teilnehmende und eine lange Laufzeit erhöhen die statistische Aussagekraft. Korrekte Randomisierung vermeidet Verzerrungen.
Endpunkte: Harte Endpunkte wie Sterblichkeit wiegen stärker als Surrogatmarker wie Blutdruck oder Cholesterin. Fleming & DeMets (1996) warnten, dass Surrogatmarker oft in die Irre führen.²
Widersprüche im Kontext: Eine einzelne Studie liefert keine Sicherheit. Vergleiche mit anderen Arbeiten zum gleichen Thema belegen, ob Ergebnisse stabil bleiben. Übereinstimmungen schaffen Verlässlichkeit.
Interessenskonflikte: Finanzierung prägt Resultate fast immer indirekt. Offen genannte Interessenkonflikte erleichtern die Einordnung.¹³
6-Punkte-Checkliste zur Qualitätseinschätzung
Publikationsort und Peer-Review
Evidenzstufe
Stichprobe und Dauer
Sterblichkeit ist aussagekräftiger als Surrogatmarker
Widersprüche im Kontext
Interessenskonflikte
Viele Ernährungsratgeber bestehen aus lose angehäuften Fakten ohne überprüfbare Belege. Andere zitieren Quellen, ohne klaren Bezug zur jeweiligen Aussage. Lesende erkennen den Wahrheitsgehalt nicht. Einige Autorinnen und Autoren nutzen unpassende Studien oder deuten Ergebnisse um, damit sie ihre These stützen. Besonders problematisch ist der unkritische Einsatz von Quellen aus KI-Datenbanken.
Nur Quellenangaben direkt bei der Aussage lassen eine einfache Überprüfung zu. Am zuverlässigsten funktionieren hochgestellte Zahlen im Text, die auf das Quellenverzeichnis am Ende verweisen. In grösseren Werken pro Kapitel.
Bei zentralen Aussagen steigert eine kurze Zusatzangabe die Transparenz. Meist steht die Autorenschaft, gefolgt vom Jahr in Klammern. Ziel: den Lesefluss wenig zu stören und Transparenz zu wahren.
Auf unserer Website diet-health.info stehen vollständige Zitate im Quellenverzeichnis. Wir verwenden die Vancouver-Zitierweise, da sie im medizinischen Bereich Standard ist. Ein praktisches Hilfsmittel ist Mick Schroeder’s Citation Generator, der das Vancouver-Zitat erstellt. PubMed nutzt teils leicht abweichende Formen, die wir gegebenenfalls übernehmen. Dort finden Sie DOI und Link zur Originalstudie.
Ein Mouseover im Quellenverzeichnis blendet bei uns DOI und relevanten Textausschnitt aus der Originalquelle ein. Liegt der Volltext hinter einer Paywall, bleiben Abstract und Kernaussage sichtbar.
Wer einen Fehler entdeckt, kann uns über diet-health.info informieren. Danach verbessern wir Folgeauflagen und erhöhen die Zuverlässigkeit. Nun thematisieren wir die Wirkung: Wie Geschichten Urteile prägen und Fakten verdrängen.
Wissenschaftliche Rezeption: Zitationszahlen dienen seit Garfield (1955) als Mass für die Beachtung einer Studie in der Fachliteratur.23 Eugene Garfield verfasste nicht nur den Klassiker zur Index-Methode (Citation Index). Er leitete aus Bradfords Gesetz der Streuung das Garfield-Gesetz ab. Dieses besagt, dass ein Bruchteil der vorhandenen Magazine einen Grossteil aller Zitationen ausmacht.24
Altmetrics – Sichtbarkeit ausserhalb der Fachwelt: Altmetrics (alternative Kennzahlen) erfassen Resonanz jenseits der Fachwelt. Das passiert mittels Medienberichten, Blogbeiträgen, Social-Media-Diskussionen und Policy-Dokumenten. Sie spiegeln nach Priem et al. (2010) den Einfluss einer Studie auf öffentliche Debatten wider.25
Wichtige Einschränkung: Hohe Zitationszahlen oder Altmetrics bestätigen nicht die methodische Qualität. Schwache oder fehlerhafte Arbeiten erhalten gemäss Bornmann (2014) grosse Aufmerksamkeit. Dies gilt besonders bei Ergebnissen, die kontrovers wirken oder stark medienwirksam erscheinen.26
Die folgenden Beispiele stehen exemplarisch für den Umgang mit Evidenz. Sie verdeutlichen, wo grosse Datensätze überzeugen – und wo methodische Grenzen Klarheit verlangen. Grosse Studien gelten als Goldstandard wissenschaftlicher Evidenz. Im Folgenden gehen wir auf bekannte Studien ein. Wir weisen auf die anhaltende Notwendigkeit kritischer Quellenbewertung hin. Das gilt ebenfalls für Studien mit tausenden Teilnehmenden und hoher Medienresonanz.
Hinweis: Selbst grosse Studien bleiben von Bias nicht verschont. Publikations-Bias, Selektions-Bias oder schwache Vergleichsgruppen verzerren Ergebnisse (vgl. Erklärung oben: Bias-Systematik). Trotz hoher Evidenzstärke: Ein kritischer Blick ist unverzichtbar.
Studientyp: randomisierte, kontrollierte Parallelgruppenstudie (hohe Evidenz, grosse RCT).
Die randomisierte kontrollierte Parallelgruppenstudie von Gardner et al. (2018) teilte 609 übergewichtige Erwachsene zufällig in Gruppen ein und begleitete sie 12 Monate. Eine Gruppe ass fettarm (nach Pritikin), die andere kohlenhydratarm (nach Atkins). Primärer Endpunkt: Gewichtsabnahme nach 12 Monaten. Ergebnis: kein signifikanter Unterschied. Die Teilnehmer beider Gruppen verloren rund 5–6 kg.27
Dieses Beispiel illustriert Publikations-Bias: In der öffentlichen Debatte übersahen beide Lager die zentrale Aussage und lenkten die Aufmerksamkeit auf Nebenaspekte. Stattdessen feierten sie ihre eigenen Gewichtsverluste und lenkten die Aufmerksamkeit auf Nebenaspekte. Etwa leichte Vorteile bei Blutfetten. Durch dieses Framing erklärten sie jeweils ihre Diät zum Sieger.
Fazit: Selbst hochwertige RCTs verlieren an Klarheit, sobald Interessengruppen Nebenergebnisse über den primären Endpunkt stellen.
Studientyp: prospektive Kohortenstudie, mittlere Evidenz. Umfang: über 135'000 Erwachsene aus 18 Ländern, mittlere Laufzeit rund 7 Jahre.28
Die ForscherInnen beobachteten den Zusammenhang zwischen Makronährstoffen und Sterblichkeit. Sie erkannten: Menschen mit hohem Kohlenhydratanteil in der Ernährung starben im Untersuchungszeitraum häufiger. In den Medien erschien rasch: Kohlenhydrate töten. Dieses Beispiel verdeutlicht, wie stark Selektions-Bias und Confounding das Resultat prägen.
Das ist zu kurz gedacht: Vorwiegend einkommensschwache StudienteilnehmerInnen wählten zwangsweise extrem kohlenhydratreiche Ernährungsweisen (60 %). Das ist ein problematischer Befund. Diese Gruppe mit hohem Kohlenhydratanteil bestimmte massgeblich den beobachteten Zusammenhang. Heisst: Das höhere Sterberisiko ist sichtbar. Der wahre Grund liegt tiefer. Die Studie deckt ihn auf: Sie demonstriert, dass einkommensschwache Personen unter einem höheren Sterberisiko leiden. Bei geringem Einkommen prägten günstige Kohlenhydrate ihren Speiseplan. Das sind billige Fertigprodukte statt naturnaher Pflanzen.
Das bedeutet: keine naturnahe Pflanzenkost, sondern billige Produkte mit zugesetztem Zucker. Es trat eine kohlenhydratreiche Kost zusammen mit Armut, einseitiger Ernährung und eingeschränktem Zugang zur Gesundheitsversorgung auf. Die statistische Analyse der PURE-Forscher belegt: Ohne den Faktor Armut verschwindet der starke negative Effekt der Kohlenhydrate. Nicht die Kohlenhydrate führten zum früheren Tod, sondern die damit verbundenen Lebensumstände.
Fazit: Beobachtungsstudien liefern Korrelationen, keine Beweise für Ursache und Wirkung. Wer sie vorschnell in Schlagzeilen übersetzt, blendet soziale und ökonomische Hintergründe aus.
Studientyp: randomisierte kontrollierte Cluster-Studie, hochwertige Evidenz (mit methodischen Schwächen). Umfang: 7447 Erwachsene mit hohem kardiovaskulären Risiko in Spanien, Laufzeit etwa 5 Jahre, randomisiert in drei Gruppen.
Estruch et al. (2013) testeten, ob eine mediterrane Ernährung Herz-Kreislauf-Erkrankungen verhindert. Sie teilten ganze Familien statt einzelner Personen den Diätgruppen zu – ein klarer Fehler in der Randomisierung.29
Wissenschaftler um John Ioannidis kritisierten diese Schwächen öffentlich. Ioannidis gilt als einer der bekanntesten Methodenkritiker mit hohem Ansehen. Sie bemängelten insbesondere die Gruppenzuteilung und die ungenügende Vergleichsdiät. Das New England Journal of Medicine zog die Publikation 2018 zurück. Estruch und Team überarbeiteten das Design, analysierten die Daten neu und publizierten die Ergebnisse erneut (Estruch 2018).30
Methodische Schwächen belegen: Selbst hochwertige RCTs unterliegen einem Selektions- und Design-Bias-Risiko. Die mediterrane Ernährung brachte weiterhin Vorteile, schwächer als in der ursprünglichen Version. Viele Medien und Teile der Industrie zitieren bis heute lieber die überhöhten ursprünglichen Zahlen.
Fazit: Diese Beispiele bestätigen: Auch hochwertige RCTs bergen eine Anfälligkeit für Bias. Entscheidend ist, dass Forschende Fehler offenlegen und Korrekturen die Ergebnisse tragfähig halten.
EPIC (European Prospective Investigation into Cancer and Nutrition) startete 1992–1999 in zehn Ländern, mit rund 520'000 Teilnehmenden.
Die EPIC-Oxford-Teilgruppe (UK) rekrutierte 1993–2001 rund 65'000 Personen. Für die BMJ-Analyse (Tong 2019) lagen vollständige Datensätze von 48'188 Teilnehmenden vor.
Der Nachbeobachtungszeitraum beträgt mittlerweile über 30 Jahre (erste Publikationen ab 2002, letzte 2023).
Die EPIC-Oxford-Kohorte verfolgt Teilnehmende über Jahrzehnte. Dies unter realen Lebensbedingungen. Den Gegensatz bilden kurzzeitige Interventionsstudien. Diese Daten dokumentieren Ernährungsgewohnheiten, Krankheitsverläufe und Sterblichkeit in einem westlichen Kontext – ohne Eingriff, hingegen mit hoher Alltagstauglichkeit.
Tong et al. (2019) begleiteten die 48'188 Personen während 18 Jahren. Nach Berücksichtigung sozioökonomischer und lebensstilbedingter Störfaktoren wiesen Fischesser und Vegetarier im Vergleich zu Fleischessern eine um 13 % (Hazard Ratio 0,87, 95 %-Konfidenzintervall 0,77 bis 0,99) bzw. 22 % (0,78, 0,70 bis 0,87) niedrigere Rate an ischämischen Herzerkrankungen auf (P<0,001 für Heterogenität). Dafür hatten Vegetarier eine 20 % höhere Rate an Schlaganfällen als Fleischesser. Der doppelte Befund verdeutlicht, wie Ernährungsvorteile und -risiken über Jahrzehnte ineinandergreifen.41
Appleby et al. (2016) bilanzieren eine ähnliche Gesamtsterblichkeit zwischen Vegetariern und MischköstlerInnen.42 Die Studie von Key et al. (2021) belegt nur minimale Unterschiede zwischen vegetarischer und veganer Ernährung.43
Diese scheinbare Ausgeglichenheit spiegelt eher die Qualität der praktizierten Ernährung als den theoretischen Vorteil pflanzlicher Kost wider. Laut Key et al. (2021) wies jeder zweite untersuchte Veganer einen Vitamin-B12-Mangel auf. Alle Anzeichen deuten auf langfristige Gesundheitsschäden hin. Insbesondere weisen Vegetarier und Veganer ein höheres Schlaganfallrisiko auf. Ein B12-Mangel lässt den Homocysteinspiegel steigen. Das steigert das Schlaganfallrisiko. Weitere Forschung ist notwendig, um diesen Zusammenhang zu untersuchen.43
Bei veganer Ernährung fallen die durchschnittliche Aufnahme und die Plasmakonzentrationen von Vitamin D und Kalzium geringer aus. Diese Werte liegen unter denen von MischköstlerInnen. Das ist vermeidbar. Pflanzenbetonte Ernährung entfaltet ihre Schutzwirkung nur, wenn sie ausgewogen, vielfältig, nährstoffreich und mit ausreichender Bewegung kombiniert ist.
Fazit: EPIC-Oxford liefert keine schnellen Antworten, sondern langfristige Zusammenhänge. Solche Beobachtungen besitzen geringe Kontrolle, allerdings hohe Lebensnähe. Sie verdeutlichen, wie Ernährung im Alltag wirkt, nicht nur im Labor.
Für besonders kritische Leserinnen und Leser: Die folgenden Plattformen bieten unabhängige Einschätzungen – die Cochrane Library für systematische Übersichten, PubPeer für Fachdiskussionen und Retraction Watch für zurückgezogene Studien.
Studien geben oft Endurteile vor. Die eigentliche Wissenschaft entsteht im Nachfeld. Sie lernen, diese Debatten zu verfolgen und Fehlinterpretationen zu entlarven. Hier die wichtigsten Werkzeuge und wie Sie sie konkret anwenden:
1. Der Faktencheck: Stimmen die Kernaussagen? (Mit der Cochrane Library)
Problem: Eine einzelne, neuartige Studie generiert Schlagzeilen. Ist sie verlässlich oder nur ein Ausreisser? Lösung: Die Cochrane Library ist der Goldstandard für systematische Übersichtsarbeiten. Hier fassen internationale Experten relevante Studien zu einer Frage zusammen und bewerten die Gesamtevidenz. Konkrete Aktion für Sie: Geben Sie bei Cochrane den Namen einer Krankheit oder Behandlung ein (z.B. "Vitamin D bei Erkältungen"). Das Ergebnis liefert Ihnen nicht eine Meinung, sondern die zusammengefasste, gewichtete Wahrheit aus oft Hunderten Studien. So entlarven Sie medialen Wirbel (hypes).
2. Der Blick hinter die Kulissen: Hat die Studie methodische Schwächen? (Mit PubPeer)
Problem: Eine Studie erscheint in einem angesehenen Journal. Vielleicht übersehen sogar die Gutachter gravierende Fehler in der Statistik oder Methodik? Lösung: Auf PubPeer üben Wissenschaftler nach der Veröffentlichung anonym Fachkritik an Studien aus. Hier entstehen die ersten schwerwiegenden Zweifel. Konkrete Aktion: Suchen Sie im Fall einer bahnbrechenden Studie (z.B. mit einer vielversprechenden neuen Krebsbehandlung) auf PubPeer nach dem Titel oder der DOI-Nummer. Finden Sie dort kritische Kommentare von anderen Forschern, gilt: Die Evidenz ist mit Vorsicht zu geniessen.
3. Die Fehlerkultur: Ist die Studie widerlegt oder zurückgezogen? (Mit Retraction Watch)
Problem: Eine oft zitierte Studie ist längst widerlegt oder zurückgezogen. Das weiss allerdings praktisch niemand mehr. Lösung: Der Blog Retraction Watch berichtet über zurückgezogene Studien. Oft liegen die Gründe in Datenmanipulation, Fehlern oder Betrug. Konkrete Aktion für Sie: Beim Finden einer älteren, immer noch einflussreichen Studie (z.B. zur Wirkung von Antidepressiva), googeln Sie den Titel zusammen mit Retraction Watch. So stützen Sie Ihre Arbeit auf valide Ergebnisse.
4. Das Fundament: Lernen, wie gute Wissenschaft funktioniert (Mit METRICS)
Problem: Sie stehen vor der Aufgabe, die Qualität von Studien sicher einzuschätzen. Lösung: Das METRICS Center von John Ioannidis forscht darüber, wie Forschung funktioniert (Meta-Forschung) und warum so viele Studien Fehler aufweisen. Konkrete Aktion für Sie: Durchstöbern Sie die METRICS-Website nach einführenden Artikeln oder Vorträgen. Sie lernen dort die grössten Fallstricke der Forschung kennen (z.B. "p-hacking", "Publication Bias") und erreichen so Immunität gegen schlechte Wissenschaft.
Warum ist diese kritische Haltung nötig? Die methodischen Schwächen unterliegen keinem Zufall, sondern bilden ein systemisches Problem.
Kurzzeitige Experimente erfassen Stoffwechselreaktionen, nicht Gesundheit. Erst Langzeitbeobachtungen von Menschen demonstrieren, wie Ernährung, Lebensweise und Umwelt gemeinsam wirken. Sie spiegeln die tatsächlichen Lebensbedingungen wider, unter denen Krankheiten entstehen oder ausbleiben. Diese Art von Beobachtungen verbindet wissenschaftliche Präzision mit gelebtem Alltag.
Solche Daten besitzen keine künstliche Kontrolle – und deshalb besondere Aussagekraft. Sie identifizieren langfristig stabile Muster, frei von Laborartefakten und Kurzzeiteffekten. In der Evidenz-Hierarchie gelten diese Beobachtungen formal als schwach. Tatsächlich bilden sie die einzige Forschungsebene, auf der Menschen so leben, essen und altern, wie sie es wirklich tun. Ihr Wert steigt, wenn sich ihre Ergebnisse mit biologischen Mechanismen und klinischer Erfahrung decken.
Langfristige Evidenz beschreibt das, was kurzfristige Studien verfehlen: den Zusammenhang zwischen Lebensstil und Lebensdauer. Sie misst nicht einzelne Werte, sondern den Verlauf ganzer Biografien. Wer Erkenntnis auf Laborgrössen verengt, verwechselt Forschung mit Routine. Wissenschaft braucht Weitwinkel statt Trichterblick – sonst erfasst sie Symptome, nicht das System. Kurz: Wer diese Perspektive übersieht, verwechselt Statistik mit Leben.
Zahlreiche Untersuchungen dokumentieren langfristige Erfolge pflanzenbasierter Ernährung. Hier ein Beispiel:
Studientyp: Querschnittsanalyse innerhalb einer prospektiven Kohortenstudie (Adventist Health Study-2), mittlere Evidenz. Umfang: über 60'000 Erwachsene, Daten aus den USA und Kanada. Dauer: 2002–2006.
Tonstad et al. (2009) analysierten unterschiedliche Ernährungsweisen31: Veganer, Lacto-Ovo-Vegetarier, Pesco-Vegetarier, Semi-Vegetarier und Nicht-Vegetarier. Ergebnis: Veganer wiesen mit rund 23,6 den niedrigsten BMI auf. Danach folgten Lacto-Ovo-Vegetarier (~25,7), Pesco-Vegetarier (~26,3) und Semi-Vegetarier (~27,3). Nicht-Vegetarier wiesen mit ~28,8 den höchsten BMI auf. Die Prävalenz (Häufigkeit) von Typ-2-Diabetes nahm bei Veganern, Ovo-Lacto-Vegetariern, Pesco-Vegetariern, Semi-Vegetariern und Nicht-Vegetariern in genau dieser Reihenfolge zu.
Die Studie nennt zusätzlich die Einschränkungen (deutsche Übersetzung des englischen Originals):
Unsere Daten basieren auf Querschnittsdaten und erlauben keine kausalen Rückschlüsse. Eine umgekehrte Kausalität erscheint wenig plausibel. Menschen mit Diabetes wechseln ihre Ernährungsweise seltener von vegetarisch zu omnivor. Bei etwa einem Sechstel der Kohorte konnten wir die körperliche Aktivität nicht erfassen: Antworten auf eine oder mehrere der für die Berechnung der MET-Einheiten erforderlichen Fragen fehlten. Und:
Bei Veganern und anderen Vegetariern ist Diabetes möglicherweise aufgrund ihres niedrigeren BMIs seltener erfasst. Der Zusammenhang zwischen Ernährung und Diabetes blieb bei Personen mit einem BMI unter 30 kg/m² und über 30 kg/m² bestehen. Die Aussagekraft der Studie bleibt von diesem Effekt daher weitgehend unberührt.
Die Kohorte repräsentierte die Allgemeinbevölkerung nicht: Viele Teilnehmende besuchten regelmässig kirchliche Veranstaltungen. Da vegetarisch lebende Mitglieder meist weitere kirchliche Grundsätze befolgten, bestanden Unterschiede in wichtigen Diabetes-Risikofaktoren. Die Analyse bestätigte mehrere dieser Abweichungen statistisch. Die Auswertung belegte: Eine nicht-vegetarische (omnivore) Ernährung ist stärker mit schwarzer Ethnizität, geringerem Bildungsniveau, mehr Fernsehkonsum und weniger Schlaf korreliert als eine vegetarische.
Andererseits zählten Nichtvegetarier zu den Jüngeren und berichteten über mehr körperliche Aktivität und Alkoholkonsum. In dieser Kohorte assoziieren diese Verhaltensweisen mit einem geringeren Diabetesrisiko. Trotz Berücksichtigung dieser Faktoren blieb der Zusammenhang zwischen Ernährung und Typ-2-Diabetes deutlich nachweisbar.
Für europäische Leserinnen und Leser gelten diese BMI-Werte als eher hoch, für die USA dagegen als niedrig im Vergleich zur Gesamtbevölkerung.
USA 2002–2006: Durchschnittlicher BMI nach Ernährungsweise
Quelle: Tonstad S, Butler T, et al. 2009.
Die umfangreichste Evidenz belegt einen BMI-Bereich von 18,5 bis 24,9 kg/m² als den mit der höchsten Lebenserwartung. Am günstigsten liegt die statistisch niedrigste Sterblichkeit meist zwischen 20 und 22 kg/m². Dieser Bereich korreliert mit der längsten Phase guter Gesundheit. Wichtiger als eine exakte Zahl ist der Fokus auf ausgewogener Ernährung und regelmässiger Bewegung. Beides fördert langfristig ein stabiles Gewicht im Normalbereich.
Bei veganer Ernährung entscheidet Wissen darüber, ob Menschen die grossen Vorteile für Gesundheit und Umwelt ausschöpfen. Worauf langfristig gesund bleibende Veganerinnen und Veganer achten, erfahren Sie im Beitrag: Veganer essen oft ungesund. Vermeidbare Ernährungsfehler.
Fazit: Systematische Langzeitbeobachtungen liefern die stärksten Belege dafür, dass eine pflanzenbasierte Ernährung mit gesünderem Körpergewicht und niedrigerem Diabetesrisiko verbunden ist.
Neuere Studien aus den Jahren 2023 bis 2025 bestätigen diesen Trend. Sie liefern ergänzende Hinweise, keine Beweise.
Vegan vs. Omnivor (USA, 2025): In einer aktuellen Publikation lag der mittlere BMI bei VeganerInnen bei 23,7, bei Omnivoren bei 26,9 kg/m².32
Vegetarisch vs. Omnivor (Europa, 2024): Eine Arbeit in BMJ Nutrition betonte ebenfalls, dass VegetarierInnen und VeganerInnen durchwegs einen niedrigeren BMI aufwiesen als MischköstlerInnen.33
Metabolische Veränderungen (2022): Die Untersuchung bestätigte, dass sowohl bei Vegetariern wie bei Allesessern die Stoffwechselparameter umso schlechter ausfielen, je höher der BMI lag. In Bezug auf Adipositas wiesen Vegetarier einen besseren Antioxidantienstatus (geringere GGT-Erhöhung) und einen niedrigeren Entzündungsstatus (geringere Ferritin-Erhöhung) auf. Das schützt sie vermutlich vor übergewichtsbedingten Krankheiten.34
Diese Studien umfassen weniger Teilnehmende und reichen in ihrer Aussagekraft nicht an die grossen Querschnittsdaten der Adventist Health Study-2 heran. Sie bestätigen, dass der Trend in den 2020er Jahren anhält: VeganerInnen weisen den niedrigsten BMI auf, Omnivoren den höchsten. In der öffentlichen Wahrnehmung zählt Gefühl stärker als Evidenz. Grosse Studien liefern Daten. Sobald Medien oder Interessen sie zuspitzen, verlieren sie an Klarheit.
Gefühl wiegt schwerer als Evidenz
Einfache Geschichten überzeugen stärker als komplexe Fakten. Emotionale Botschaften sprechen das Belohnungssystem an, Daten nicht.
Deshalb finden übergewichtige und meist kurzlebige Verfechter modischer Diäten Gehör, während nüchterne Wissenschaft kaum Resonanz erzeugt.
Je simpler die Formel, desto grösser die Reichweite – und umso mehr geht das Verständnis verloren.
Wissenschaft sucht nach Mustern. Gleichwohl beginnt jede Entdeckung mit einer Abweichung. Was vom erwarteten Muster abweicht, gilt schnell als Störfaktor. Dabei offenbaren sie, wo bisherige Modelle versagen. Auch in der Onkologie existieren dokumentierte Spontanremissionen. Sie verbleiben meist unbeachtet, weil sie keine kontrollierbaren Erklärungen bieten. Solche Beobachtungen verdeutlichen: Das Leben übertrifft die Aussagekraft von Studien an Komplexität. Sie erinnern daran, dass Evidenz nicht am Rand des Menschlichen endet, sondern dort beginnt. Immerhin: Wenige Forscher nahmen diesen Faden in den 1990er-Jahren auf.
O’Regan & Hirshberg (1993) legten mit dem Spontaneous Remission Project des US-National Cancer Institute eine Sammlung von über tausend Fallberichten vor. Spontanremissionen treten bei über 200 Krankheitsbildern auf. Dies betrifft vorwiegend Krebserkrankungen. Autorin und Autor listeten zu jedem Fall die Originalquelle aus der medizinischen Literatur. Dabei beschrieben sie gemeinsame Merkmale. Darunter fallen plötzliche Infektionen, Fieber oder drastische Ernährungsänderungen. Das Werk gilt bis heute als umfassendste systematische Sammlung solcher Berichte. Im Quellenverzeichnis finden Sie einen Gratis-Zugang zu den mehr als 700 Seiten Inhalt. Laden Sie die einzelnen PDFs zu rund 20 Krankheiten kostenlos herunter.44
Jessy (2011) diskutiert immunologische, infektiöse, hormonelle und psychoneuroimmunologische Faktoren bei dokumentierten Spontanremissionen. Die Hypothese lautet: Die spontane Regression von Krebs ist kein mysteriöses Wunder, sondern ein vom Immunsystem vermittelter Prozess. Thomas Jessy argumentiert, dass das Immunsystem in der Lage sei, Krebs zu bekämpfen ("Immunity"). Spontanheilungen gelten als Belege für diese Fähigkeit. Sie gewinnen nur in bestimmten Fällen die Oberhand über das Tumorwachstum.45
Während Jessy die Grundprämisse lieferte, bietet Papac (1998) die autoritativere und aussagekräftigere Analyse. Seine Arbeit verortet die Immunantwort als einen von mehreren Mechanismen. Noch breiter und differenzierter zeichnet Papac (1996) das Phänomen auf.46
Neuere Arbeiten versuchen, diese Beobachtungen auf molekularer Ebene zu erklären. Chabner (2014) stellte im Oncologist das Programm Exceptional Responders Initiative des National Cancer Institute vor. Es untersucht seltene, unerwartet starke Therapieerfolge, um deren molekulare Grundlagen zu verstehen. Ziel ist, aus den Ausnahmen neue Ansätze für personalisierte Krebsbehandlung abzuleiten.47
Das Buch Erfahrungsheilkunde von Manfred E. Heim geht auf das Thema ein. Grundaussage: Besonders häufig erfolgen Spontanrückbildungen bei wenigen bösartigen Erkrankungen: Maligne Lymphome, maligne Melanome, Nierenzell-Karzinom und kindliche Neuroblastome. Er schätzt Komplettremissionen auf etwa einen pro 80'0000 Fälle. Ob die Erhebung die Dunkelziffer berücksichtigt, bleibt offen.48
Diese Untersuchungen verdeutlichen, dass Spontanremissionen aussergewöhnlich selten auftreten. Die liefern allerdings Hinweise auf bislang unerklärte Mechanismen. Sie erinnern daran, dass medizinische Erkenntnis nicht nur aus Kontrolle entsteht. Sie fördern auch die Aufmerksamkeit für das Unerwartete. Sie erweitern das Verständnis von Evidenz. Wissenschaftliche Erkenntnis beginnt oft dort, wo etablierte Modelle keine Erklärung liefern.
Zahlen wirken nüchtern. Geschichten bleiben haften. Sie wecken Gefühle und beeinflussen Entscheidungen. Deshalb prägen Mythen oft stärker als Fakten.
Gesundheitszustand oder Sterbealter einzelner Personen liefern keinen Beweis für oder gegen eine Ernährungsform – selbst bei Prominenten. Beispiel Dr. Robert Atkins, Begründer der populären Low-Carb-Diät. Er starb 2003 im Alter von 72 Jahren. Laut Berichten wog er rund 116 kg – davon etwa 15 kg als Ödeme (Wassereinlagerungen). Winston Churchill und Helmut Schmidt galten als starke Raucher und tranken regelmässig Alkohol – dennoch erreichten sie ein hohes Alter (Churchill 90, Schmidt 96 Jahre). Anekdoten liefern keine Evidenz. Wissenschaft beruht auf systematischen Studien, nicht auf Einzelschicksalen.
Das Handwerkszeug zum Studienlesen kennen Sie nun. Warum verzerren selbst Fachleute oder wohlmeinende Autoren komplexe Resultate?
Die Antwort liegt in der Wissenschaftskommunikation und der menschlichen Psyche: Daten verblassen gegen eine packende Geschichte. Eine klare, emotionale Erzählung überstrahlt differenzierte Evidenz. Sie vereinfacht radikal und lenkt die Wahrnehmung in eine Richtung, die den Gesamtbefund nicht trägt. Zum Glück ist das nicht immer so.
Das Dilemma: Eine Botschaft mag inhaltlich richtig liegen, gleichzeitig auf falschen Gründen beruhen. So entsteht die grösste Gefahr: Autoren untergraben eine eigentlich richtige Botschaft. Dies, indem sie diese mit methodisch fragwürdigen Argumenten, mit übertriebenen Schlussfolgerungen oder durch Ausblenden gegensätzlicher Evidenz verteidigen.
Die folgenden Beispiele illustrieren diesen Mechanismus bei einem angesehenen Forscher und einem populären Wissenschaftsvermittler. Beide zielten darauf, eine vermutlich richtige Botschaft kraftvoll zu vermitteln. Dabei überschritten sie die Grenze zur wissenschaftlichen Redlichkeit.
Fazit: Wer auf vereinfachte Erzählungen setzt, ignoriert die Gesamtbeweislage. Tragisch: Die Belege für eine gesunde, pflanzenbasierte Ernährung genügen. Sie benötigen keine Übertreibungen.
Hier folgt, was Kritiker zwei angesehenen Pionieren mit ausgezeichnetem beruflichen Werdegang in der Gesundheitsforschung vorwerfen:
Vom Forscher zum Pionier: Campbell untersuchte als ein Vorreiter den Zusammenhang zwischen Ernährung und Krebs. Die Auswertung der China Study, zusammen mit Sohn, Dr. med. Thomas Campbell, untersuchte ein einzigartiges Datenmaterial aus 65 Regionen in China. Sie rückten Ernährung als wichtigen Faktor zur Gesundheitsforschung ins Bewusstsein. Damit leisteten sie einen wertvollen Beitrag und prägten die Debatte.
Vom Pionier zum Missionar: Im Lauf der Jahre präsentierte Campbell die beobachteten Korrelationen – etwa zwischen tierischem Protein und Krebsraten – leider zunehmend als Kausalität. Die Botschaft gewann an Einfachheit, Eingängigkeit und missionarischem Eifer.
Die Verlockung der klaren Story: Tierisches Protein = Krebs. Eine griffige, aber irreführende Vereinfachung. Sie verschaffte der pflanzenbasierten Ernährung enorme Aufmerksamkeit. Das rückte differenziertere Befunde in den Hintergrund. Widersprüchliche Daten gingen in der Kommunikation unter.
Die China Study verknüpfte epidemiologische Daten von mehr als 65 chinesischen Bezirken mit Laboranalysen und klinischen Parametern. Das ist eine methodisch einmalige Verknüpfung von Lebensstil und Gesundheitsdaten auf Bevölkerungsebene. Nach den Regeln der Evidenz-basierten Medizin gilt solche Forschung als "niedrig rangig", weil sie nicht randomisiert ist.
Gerade solche Vergleiche zwischen Regionen und Ernährungsmustern erfassen das, was kontrollierte Kurzzeitstudien nie einbeziehen. Die Gesamtheit menschlichen Verhaltens über Jahre entscheidet. Diese Verknüpfung demonstriert, wie Ernährung, Kultur und Umwelt gemeinsam auf Gesundheit wirken. Die China Study steht damit für eine andere Form von Evidenz: nicht für statistische Präzision, sondern für Realität im grossen Massstab.
Fazit: Campbell legte wichtige Grundlagen und lenkte den Blick auf Ernährung als Schlüsselfaktor für Gesundheit. Zugleich reduzierte er die Komplexität auf eine einfache Gleichung – und spaltete damit die Debatte. Im Eifer des Gefechts begehen Forschende diesen klassischen Fehler leicht. Aus Wir sehen einen starken Zusammenhang entsteht Wir kennen nun die Ursache.
Dennoch: Die Expertenmeinung bewertet tierisches Protein aus vielen evidenzbasierten Gründen immer kritischer. Insofern traf Campbell einen wahren Kern. Er überzeichnete ihn durch Vereinfachung und Zuspitzung. Diese Reduktion auf einen einzigen Sündenbock spaltete die Debatte. Sie schuf eine scheinbar wissenschaftliche Rechtfertigung für dogmatische Ernährungsempfehlungen. Statt über die Gesamtqualität und Verarbeitung von Nahrungsmitteln zu sprechen, kreiste die öffentliche Diskussion jahrelang um diese vereinfachte Botschaft.
Greger verfolgt im Prinzip denselben Ansatz wie Campbell - methodisch raffinierter.
Der Ansatz: Michael Greger ist Arzt und ein begabter Kommunikator. Mit der Plattform NutritionFacts.org und Büchern wie How Not to Die (2015) und How Not to Age (2023, über 8000 Referenzen) erreichte er Millionen Menschen. Verdienst: Er popularisierte wissenschaftliche Ergebnisse und richtete den Blick vieler Menschen auf die gesundheitlichen Vorteile pflanzenbasierter Ernährung.
Die Schwächen:
Beispiele:
Fazit: Greger leistete Pionierarbeit in der Wissenschaftskommunikation und legte mit How Not to Age ein monumentales Werk vor. Mit dem Verwischen der Evidenzhierarchie und gezieltem Cherry-Picking erzeugte er den Eindruck absoluter Gewissheit. Damit stärkte er zwar die vegane Bewegung, gefährdete zugleich das Vertrauen in die wissenschaftliche Debatte. Trotzdem: Ein Werk von grosser Bedeutung und leichter Lesbarkeit.
Der Ansatz: Denise Mingers ausführliche Kritiken (mit 23 Jahren) an Campbells China Study und an Michael Greger begründeten schnell ihren Ruf. Sie arbeitete präzise heraus, wie Autoren Korrelationen zu Kausalitäten überhöhten oder Daten selektiv nutzten. Damit gewann sie Glaubwürdigkeit als scharfe Analytikerin.
Die Schlagrichtung: Sie nutzte ihre Analysen, um pflanzenbasierte Ernährung abzuwerten und tierische Produkte aufzuwerten. Ihre parteiischen Argumente bildeten oft das Gegenstück zu Campbell und Greger. Sie war evtl. beeinflusst durch typische Fehler in ihrer Zeit als Veganerin. Mehrfach vermuteten Kritiker ihre Nähe zur Fleisch- und Milchindustrie. Sie legte Verbindungen nie offen.
Beispiele:
Mingers Analysen trafen einen wunden Punkt der evidenzbasierten Ernährungskommunikation. Sie legte tatsächliche methodische Schwächen offen. Sie deutete diese allerdings so, als widerlegten sie den gesundheitlichen Vorteil pflanzenbetonter Kost. Ihre Kritik nutzte dieselbe Vereinfachung, die sie anderen vorwarf, mit umgekehrtem Vorzeichen. So geriet die Diskussion über Studienqualität erneut zur Glaubensfrage statt zur Methodendebatte. Darin liegt der Wert ihrer Arbeit: Sie demonstriert unfreiwillig, wie leicht selbst berechtigte Kritik zur Bestätigung eigener Überzeugungen verkommt.
Fazit: Minger entlarvte echte Schwächen bei Campbell, Greger und weiteren Autoren. Sie vertrat keine neutrale Wissenschaftsposition. Ihre Rolle blieb die der Gegenspielerin: Sie verteidigte Tierprodukte und prägte ein Narrativ, das vermutlich im Interesse der Nahrungsmittelindustrie lag. Die Lehre: Diese Debatte artet schnell in Glaubenskrieg aus. Verlässliche Orientierung bietet die Gesamtevidenz, nicht die Agenda einzelner Protagonisten.
Die Wissenschaft wächst stark. Gleichzeitig steigen Druck und Fixierung auf Kennzahlen. Das wirkt sich auf h-Index (von Jorge E. Hirsch), Impact Factor und Rankings aus. Forschende sichern Karriere, Geld und Stellen vorrangig via Publikationen. Dieser Druck fördert Fehlverhalten und Betrug.
Gefälschte oder manipulierte Arbeiten nehmen rasant zu. Sabel & Larhammer (2025) schätzen die Zahl allein in der biomedizinischen Literatur auf über 100'000 pro Jahr. Die Menge wächst deutlich schneller als echte Forschung. Paper-Mills, Vermittler und gewisse Zeitschriften liefern industriell erzeugte Fakes. Sie unterlaufen Begutachtungssysteme und schwächen die Glaubwürdigkeit ganzer Fachgebiete.
Der Fall von Bharat B. Aggarwal demonstriert die Folgen. Er publizierte über 120 Artikel zu angeblichen Heileffekten von Curcumin. Untersuchungen deckten Bildmanipulationen auf. Zuständige Zeitschriften löschten Dutzende Arbeiten aus ihrer Literaturdatenbank. Trotzdem zitierten Forschende diese Artikel weiter. Eine einzelne Person verzerrte damit Förderströme, Forschungstrends und klinische Erwartungen über Jahrzehnte.
KI-Systeme wie ChatGPT (OpenAI), DeepSeek, Llama, Gemini, Berd etc. unterstützen Recherchen und Textentwürfe. Sie erzeugen plausible, oft jedoch falsche Inhalte. Studien beweisen hohe Fehlerquoten bei Literaturangaben: GPT-3.5 etwa 40 %, GPT-4 knapp 30 %, Berd über 90 %. Erste Tests zeigen akzeptierte KI-Manuskripte in medizinischen Fachzeitschriften. Verlage finden zunehmend KI-Texte ohne Kennzeichnung. Die Zahl steigt seit 2023 massiv.
LLMs helfen bei technischen Beschreibungen oder Code. Es resultieren überzeugende Fälschungen. Ausser der Autor ist seriös und weiss genau, wie die Arbeit laufend zu hinterfragen. Die Fähigkeit der Sprachmodelle (LLM) stellt ein epistemisches Risiko dar. Heisst soziale Benachteiligung zum Thema Wissen. KI-Texte verbreiten potenziell Fehler und verfälschen Studien oder erzeugen Mythen, bevor Fachleute sie entdecken.
Sabel & Larhammer (2025) warnen, dass ein grosser Teil des Betrugs aus der Biomedizin stammt. Dort beeinflusst Evidenz direkte Entscheidungen: Therapien, Leitlinien, öffentliche Gesundheit. Wenig falsches Material genügt, um Vertrauen zu untergraben.
Die Wissenschaft benötigt Kontrolle, Transparenz und klare Regeln für KI. Ohne strukturelle Reformen wächst die Menge unzuverlässiger Evidenz weiter. Forschung verliert damit ihr Fundament: überprüfbare Wahrheit.
Die Versuchung, Evidenz zuzuspitzen, entspringt keinem Zufall, sondern systemischen Zwängen. Die systemischen Zwänge der Evidenzproduktion verkörpern dies in gesteigerter Form. In der KI-Forschung befeuert ein enormer Karriere- und Finanzierungsdruck einen Hype-Bias. Parallel dazu instrumentalisieren zunehmend auch kleinste Nahrungsmittelhersteller die Wissenschaft für ihr Marketing.
Durch KI entsteht ein Goldrausch-ähnlicher Wettbewerb. Der Karrieredruck, mit spektakulären Studien aufzufallen, sowie das Rennen um Venture-Kapital fördern eine systematische Überschätzung von Fähigkeiten. Dieses Umfeld vernachlässigt Reproduzierbarkeit zugunsten medienwirksamer Heilsversprechen. Der sogenannte Hype-Bias verwandelt komplexe, vorläufige Ergebnisse in scheinbar unmittelbar bevorstehende Durchbrüche. Die eingängige Erzählung vom „allwissenden KI-Assistenten“ überstrahlt die nüchterne Evidenz der tatsächlichen Limitationen.
Parallel durchdringt eine ähnliche Skrupellosigkeit die gesamte Ernährungswirtschaft, bis in den kleinsten Nischenmarkt. Es geht nicht mehr allein um den klassischen Einfluss grosser Konzerne, sondern um eine flächendeckende Strategie. Auch Kleinsthersteller bedienen sich gezielt platzierter, oft methodisch fragwürdiger Mini-Studien. Sie isolieren Einzelmechanismen aus Zellversuchen und stülpen sie ihren Produkten über. Die Grenze zwischen Marketing und Forschung verschwimmt dabei bewusst und systematisch.
Sowohl die KI-Forschung als auch die Lebensmittelbranche opfern wissenschaftliche Redlichkeit für kurzfristigen Gewinn. Dies in Form von Reputation, Finanzierung oder Marktanteilen. Eine ernste Systemkrankheit entsteht. Die Evidenzproduktion und -kommunikation erkrankt, sobald Karriere- und Vermarktungszwänge überhandnehmen. Sie ersticken dann die Suche nach robusten, wahrhaftigen Erkenntnissen.
Dass es sich um ein global erkanntes Problem handelt, beweist die Stockholmer Deklaration zu KI und der Zukunft der Wissenschaft. Name offiziell: Stockholm Declaration on AI and the Future of Science. Unterzeichnet von führenden Forschungsorganisationen, warnt sie explizit vor den systemischen Risiken. Die Unterzeichner verpflichten sich zu Transparenz, Offenheit und der Priorisierung von Robustheit vor Geschwindigkeit. Das ist ein direktes Gegenmodell zu den herrschenden Karriere- und Vermarktungszwängen.
Wer über Studien berichtet, trägt Verantwortung für das Verständnis. Wissenschaftliche Ergebnisse verlieren ihren Wert bei Verkürzung, Dramatisierung oder Kontextverlust. Vereinfachung bleibt notwendig. Hingegen darf sie nicht zur Verfälschung führen.
Einzelbefunde gehören nicht als Gewissheiten kommuniziert. Glaubwürdige Kommunikation bedeutet, Unsicherheiten offenzulegen, statt sie zu kaschieren. Evidenz benötigt Transparenz, besonders dort, wo sie unbequeme Fragen stellt. Nach der Sprache der Evidenz folgt ihr Sinn: Wie Menschen mit Wissen umgehen – zwischen rationaler Einsicht und persönlichem Urteil.
Evidenz bildet die Grundlage, nicht den Ersatz menschlichen Urteilsvermögens. Sackett et al. (1996) betonten, dass evidenzbasierte Medizin drei Säulen benötigt: die beste Forschung, klinische Erfahrung und Patientenwerte.4
In der Ernährungsforschung fehlt diese Balance oft. Studien liefern Daten. Deren Bedeutung entsteht bestenfalls später im Kontext. Greenhalgh et al. (2014) warnten vor einem Verkommen der evidenzbasierten Medizin zu schematischer Checklisten-Medizin. Wissenschaft setzt Sachverstand, Mitgefühl und die Fähigkeit voraus, Komplexität zuzulassen. Feinheiten klinischer Beurteilung und persönliche Eigenheiten von Patientinnen und Patienten verdienen Beachtung.35
Wie Gerichte nie auf Basis eines perfekten Beweises entscheiden, sondern Indizien abwägen, bewertet Wissenschaft Wahrscheinlichkeiten. Diese Methode bietet Nachvollziehbarkeit und Überprüfbarkeit. Irrtümer bleiben möglich. Evidenz in Medizin und Ernährung folgt demselben Prinzip. Sie bietet Orientierung, keine Garantie.
Der gesunde Menschenverstand dient als Korrektiv. Ioannidis (2016) mahnte, die Flut statistisch signifikanter, praktisch irrelevanter Ergebnisse nehme zu. Kritisches Urteilsvermögen bleibe unverzichtbar, um aus Daten nützliches Wissen zu gewinnen.22
Ein historisches Beispiel: Ignaz Semmelweis rettete 1847 mit Händedesinfektion unzählige Mütter. Das war, bevor die Bakteriologie eine Evidenz akzeptierte. Das gelang schliesslich dem englischen Chirurgen Joseph Lister. Dies 1867, zwei Jahre nach dem Tod von Semmelweis, der nur Anfeindungen erlebte, keine Änderung des Verhaltens.
Fazit: Evidenz ist unverzichtbar. Ihre Wirkung entsteht im Zusammenspiel mit Urteilskraft, Kontext und Werten. Diese Verbindung schafft belastbares Wissen für die Praxis.
Wir meinen: kaum! Evidenz beschreibt Wahrscheinlichkeiten, keine Gewissheiten. Selbst die besten Meta-Analysen unterscheiden Trends, nicht Wahrheiten. Ernährung bleibt zu komplex, um sie allein mit Daten zu erfassen.
Die Entscheidung zwischen veganer und omnivorer Lebensweise fällt nie allein auf Basis von Studien. Sie berührt Werte, Kultur, Empathie, Genuss und Verantwortung. Evidenz kann Orientierung geben. Evidenz klärt, was wahrscheinlich gesund ausfällt, nicht, was als richtig gilt. Evidenz weist den Weg; die Entscheidung trifft das Gewissen. In der Praxis entscheidet oft das Emotionshirn: Emotion schlägt Evidenz.
Zwischen Wissen und Überzeugung – wo Evidenz auf Werte trifft
Wissenschaft erklärt, was funktioniert, nicht, was sinnvoll oder richtig ist. Evidenz beschreibt Wahrscheinlichkeiten, keine Gewissheiten. Sie misst Daten, nicht Bedeutung. Erkenntnis entsteht erst, wenn Beobachtung auf Urteil trifft und damit Werte bestimmen, wie wir Wissen deuten. Wertentscheidungen betreffen etwa Tierwohl und Klima. Aus Statistik entsteht Verantwortung, aus Information Orientierung.
Evidenz überzeugt nicht automatisch – selbst bei klaren Ergebnissen. Menschen folgen Gewohnheiten, Emotionen und sozialem Druck, statt rational zu handeln. Selbst Fachleute unterliegen kognitiven Verzerrungen: Sie gewichten persönliche Erfahrungen stärker als statistische Daten.
Je stärker eine Empfehlung den Alltag, das Selbstbild oder wirtschaftliche Interessen berührt, desto grösser der Widerstand. Information allein genügt nicht. Sie benötigt Bedeutung, Motivation und Vertrauen. Lediglich Einsicht in die Lebenswirklichkeit verändert Verhalten.
Von der Theorie zur Praxis
Wer verstanden hat, wie Evidenz entsteht – und wie Verzerrungen sie prägen –, kann sie im Alltag gezielter prüfen. Der nächste Schritt führt von der Analyse zur Anwendung: Wie bewerten Sie Studien, prüfen Quellen und erkennen Fehlinformationen? Dieses Wissen befähigt dazu, wissenschaftliche Aussagen nicht einfach zu glauben, sondern sie mit denselben Massstäben zu beurteilen, die Forschende anwenden sollten – unabhängig von Titel, Medium oder Autor.
Wie alle Autorinnen und Autoren bringen wir von der Stiftung Gesundheit und Ernährung Schweiz eigene Überzeugungen und Vorlieben mit. Vollständige Neutralität ist in der Ernährungsforschung selten erreichbar. Zu viele Faktoren spielen hinein – persönliche Erfahrungen, Werthaltungen, kulturelle Prägungen, Sympathien oder Abneigungen gegenüber bestimmten Nahrungsmitteln.
Forschung selbst ist nie vollkommen frei von Interessen. Finanzierung, Studiendesign und Interpretation bleiben anfällig für bewusste oder unbewusste Beeinflussung. Selbst systematische Reviews spiegeln die Handschrift ihrer Autorenteams wider. Wer absolute Objektivität verspricht, untergräbt Glaubwürdigkeit.
Transparenz und klare Regeln helfen, Verzerrungen zu mindern:
Priorität der Evidenzhierarchie: Systematische Reviews und grosse RCTs besitzen Vorrang vor Beobachtungsstudien und Grundlagenforschung.
Suche nach Widersprüchen: Wir suchen aktiv nach Studien, die unserer Schlussfolgerung widersprechen, und integrieren sie.
Transparenz der Limitationen: Bei wichtigen Studien benennen wir Stärken und Schwächen.
Kontext statt Dogma: Wir erklären Mechanismen, geben keine simplen Essregeln.
Unsere fünf Regeln zusammengefasst: Vertraue der Hierarchie, suche den Widerspruch, bleibe transparent, denke in Zusammenhängen, setze evidenzbasierte Daten vor anekdotische Erzählungen.
Fazit:
Wir legen unsere Kriterien und Quellen offen und beziehen widersprüchliche Resultate mit ein. Das erlaubt Leserinnen und Lesern, unsere Argumente kritisch zu prüfen, statt sie direkt zu übernehmen. Wir erklären Zusammenhänge und Mechanismen, keine anekdotischen Geschichten. Vereinfachende Pauschalaussagen vermeiden wir. Unser Ziel heisst nicht Wissen vermitteln, sondern Verstehen fördern.
Evidenz endet nicht im Kopf, sondern im Verhalten. Sie entfaltet ihren Wert erst, wenn Einsicht in Handlung übergeht.
| 1. (Methodologische Analyse – Evidenzklasse IIa) Art: Narrativer Methoden-Review zu Surrogatendpunkten. Begründung: Auf PubMed als „Review“ gelistet; keine Primärdaten; daher Level 5 (methodischer Überblick). Kommentar: Surrogat-Endpunkte werden genutzt, um Kosten und Dauer klinischer Studien zu reduzieren. Textstelle: “There has recently been great interest in the development of alternative outcomes, or surrogate end points, to reduce the cost and shorten the duration of phase 3 trials.” Erklärung: Da klinische Endpunkte oft teuer und langwierig sind, sucht man nach Ersatzmessgrössen, die schneller und günstiger zu erheben sind.
Definition von Surrogat-Endpunkten Erkenntnis: Surrogat-Endpunkte sind Laborwerte oder körperliche Zeichen, die stellvertretend für klinisch bedeutsame Endpunkte stehen. Textstelle: “A surrogate endpoint of a clinical trial is a laboratory measurement or a physical sign used as a substitute for a clinically meaningful endpoint that measures directly how a patient feels, functions or survives. changes induced by a therapy on a surrogate endpoint are expected to reflect changes in a clinically meaningful endpoint.” Erklärung: Sie sollen anzeigen, ob eine Therapie wirkt – etwa durch Veränderungen im Blutbild oder Tumorgrösse – ohne direkt das Überleben oder Wohlbefinden zu messen.
Surrogat ist nicht gleich Ersatz Erkenntnis: Eine Korrelation mit dem klinischen Endpunkt reicht nicht aus – der Surrogat-Endpunkt muss die Wirkung der Therapie auf den echten Endpunkt vorhersagen. Textstelle: A correlate does not a surrogate make. It is a common misconception that if an outcome is a cor relate (that is, correlated with the true clinical out come) it can be used as a valid surrogate end point (that is, a replacement for the true clinical outcome). Erklärung: Nur weil ein Surrogat mit dem klinischen Ergebnis zusammenhängt, heisst das nicht, dass es als Ersatz taugt. Es muss die Wirkung der Behandlung auf das echte Ergebnis abbilden.
Idealszenario für Surrogat-Endpunkte Erkenntnis: Surrogat-Endpunkte sind am zuverlässigsten, wenn sie den einzigen kausalen Pfad zur klinischen Wirkung darstellen. Textstelle: “The surrogate is in the only causal pathway of the disease process, and the intervention's entire effect on the true clinical outcome is mediated through its effect on the surrogate.” Erklärung: Wenn die Therapie ausschliesslich über das Surrogat wirkt, kann dieses den echten Endpunkt gut vorhersagen – aber selbst dann sind Messfehler oder kurzfristige Effekte problematisch.
Risiko von Fehleinschätzungen Erkenntnis: Surrogat-Endpunkte können die Wirkung einer Therapie über- oder unterschätzen. Textstelle: “The intervention's effect on the true clinical end point could be underestimated if there is considerable noise in the measurement of effects on the surro gate end point. The effect on the true end point could be overestimated if the effect on the surro gate, although statistically significant, is not of suf ficient size or duration to meaningfully alter the true clinical outcome. This overestimation could readily arise, for example, in the ongoing evaluation of protease inhibitors in HIV-infected patients, in which effects on the surrogate end point (viral RNA levels in the peripheral blood) are substantial but of only short duration." Erklärung: Ein signifikanter Effekt auf das Surrogat bedeutet nicht automatisch einen relevanten klinischen Nutzen – etwa bei HIV-Therapien mit kurzfristiger Senkung der Viruslast.
Surrogat-Endpunkte versagen oft bei der Vorhersage klinischer Effekte Erkenntnis: Surrogat-Endpunkte spiegeln häufig nicht die tatsächlichen klinischen Auswirkungen einer Behandlung wider. Die plausibelste Erklärung für das Versagen von Surrogaten sind unbeabsichtigte Wirkungen der Therapie, die unabhängig vom Krankheitsprozess auftreten. Textstelle: “Effects on surrogate end points often do not predict the true clinical effects of interventions. Al though there are many explanations for this failure, such as the existence of causal pathways of the disease process that are not mediated through the surrogate end point and that might be influenced differently by the intervention, the most plausible explanation is usually that the intervention has unintended mechanisms of action that are inde pendent of the disease process. These unintended mechanisms can readily cause the effect on the true clinical outcome to be inconsistent with what would have been expected solely on the basis of evaluation of surrogate end points. These mechanisms are in sidious because they are often unanticipated and unrecognized.” Erklärung: Auch wenn ein Surrogat positiv beeinflusst wird, heisst das nicht, dass die Therapie dem Patienten tatsächlich hilft – etwa durch längeres Überleben oder bessere Lebensqualität. Diese Nebenwirkungen können das klinische Ergebnis negativ beeinflussen – selbst wenn das Surrogat eine Verbesserung zeigt.
Validierung erfordert grosse Studien und tiefes Verständnis Erkenntnis: Die Validierung von Surrogaten ist komplex, erfordert grosse Stichproben und ein tiefes Verständnis der Krankheitsmechanismen. Textstelle: “Proper validation of surrogates also requires an in-depth understanding of the causal pathways of the disease process as well as the intervention's intended and unintended mechanisms of action.” Erklärung: Solche Erkenntnisse sind selten verfügbar – was die zuverlässige Nutzung von Surrogaten stark einschränkt.
Surrogat-Endpunkte sind am besten in Phase-2-Studien aufgehoben Erkenntnis: Surrogat-Endpunkte sollten vor allem in frühen Studienphasen eingesetzt werden, um vielversprechende Therapien zu identifizieren. Textstelle: “Surrogate end points should be used where they perform best—in screening for promising new therapies through evaluation of biological activity in preliminary phase 2 trials.” Erklärung: In Phase-2-Studien können Surrogaten helfen, Kandidaten für grössere Studien auszuwählen – aber in Phase-3-Studien sollten echte klinische Endpunkte im Vordergrund stehen. DOI: 10.7326/0003-4819-125-7-199610010-00011 | Fleming TR, DeMets DL. Surrogate end points in clinical trials: are we being misled? Ann Intern Med. 1996;125(7):605–613. |
| 2. Thema: Einfluss der Endpunktwahl auf Studienqualität “The selection of the primary ‘endpoint’ or ‘outcome measure’ has considerable influence on the reliability and interpretability of clinical trials intended to evaluate the benefit-to-risk profile of an intervention.” Erklärung: Die Wahl des primären Endpunkts beeinflusst massgeblich, wie aussagekräftig und vertrauenswürdig eine klinische Studie ist. Ein schlecht gewählter Endpunkt kann zu Fehlinterpretationen führen.
Klinisch relevante Endpunkte “The most important characteristic in guiding the selection of the primary endpoint in definitive trials is that effects on such an endpoint should provide reliable evidence about whether the intervention provides clinically meaningful benefit.” “Thus, the primary outcome measure in definitive trials should be ‘a clinical event relevant to the patient’, or an endpoint that ‘measures directly how a patient feels, functions or survives’ …” Erklärung: Der primäre Endpunkt sollte direkt zeigen, ob eine Behandlung dem Patienten wirklich hilft – etwa durch Verbesserung von Lebensqualität, Funktion oder Überleben.
Surrogat-Endpunkte und deren Validierung “A surrogate endpoint is an outcome measure ‘used as a substitute for a clinically meaningful endpoint...changes induced by a therapy on a surrogate endpoint are expected to reflect changes in a clinically meaningful endpoint’ .” Erklärung: Surrogat-Endpunkte sind Ersatzmessgrössen, die stellvertretend für echte klinische Ergebnisse verwendet werden. Ihre Aussagekraft muss jedoch sorgfältig validiert werden.
Definition von Biomarkern “They will be called biomarkers, and ‘include physiological measurements, blood tests and other chemical analyses of tissue or bodily fluids, genetic or metabolic data, and measurements from images’ .” Erklärung: Biomarker sind objektive Messgrössen biologischer Prozesse – etwa Blutwerte, genetische Daten oder Bildgebung – und dienen oft als Grundlage für Surrogat-Endpunkte.
Korrelation ≠ Kausalität “However, such evidence about correlations does not allow one to understand the true nature of causality. Was the longer survival duration in responders causally induced by the antitumor effects of the intervention, or did the treatment-induced tumor response simply allow identification of the immunologically or inherently stronger patients who both responded and lived longer because of their inherently better status?” Erklärung: Nur weil ein Biomarker mit einem klinischen Ergebnis korreliert, heisst das nicht, dass er kausal dafür verantwortlich ist – ein häufiger Trugschluss in der Forschung.
Korrelation kann irreführend sein “Although the effect of an intervention on a biomarker does provide direct evidence regarding biological activity, such evidence could be unreliable regarding effects on true clinical efficacy measures even when the biomarker is strongly correlated with these clinical efficacy measures in natural history observations.” Erklärung: Auch starke Korrelationen zwischen Biomarkern und klinischen Endpunkten können täuschen, wenn der Biomarker nicht Teil des Krankheitsmechanismus ist.
Biomarker können auch ohne kausalen Zusammenhang nützlich sein “For some of these roles, the biomarker can be used to effectively achieve the intended objective even if it is not on a pathway through which the disease process causally induces risk of symptoms or mortality.” Erklärung: Für Diagnose oder Prognose reicht oft eine Korrelation – ein kausaler Zusammenhang ist nicht zwingend notwendig.
Zwei besonders anspruchsvolle Einsatzbereiche für Biomarker “The greatest clinical utility of biomarkers might be in the two clinical settings where it can be most challenging to justify their validity and reliability. These two settings are the use as surrogate endpoints in place of clinical efficacy measures in definitive trials, or the use to achieve enrichment when one expects greater effects with interventions in specific groups of subjects (i.e., effect modification).” Erklärung: Besonders heikel ist der Einsatz von Biomarkern als Surrogat-Endpunkte oder zur Identifikation von Patientengruppen mit erhöhtem Therapieerfolg.
Risiken bei Zulassung basierend auf Surrogat-Endpunkten “It should not be surprising, then, that agents receiving regulatory approval using efficacy assessments based on surrogate endpoints are more vulnerable to having clinically unacceptable safety issues discovered during the post-marketing period.” Erklärung: Medikamente, die auf Basis von Surrogaten zugelassen werden, bergen ein erhöhtes Risiko für spätere Sicherheitsprobleme.
Motivation für Biomarker-Nutzung: Zeit und Effizienz “Using biomarkers as surrogate endpoints often is motivated by interests to reduce the size and duration of definitive clinical trials, with the hope that this will allow more timely evaluation of the benefit-to-risk profile of experimental interventions…” Erklärung: Biomarker werden oft gewählt, um Studien schneller und kostengünstiger durchzuführen – was jedoch Risiken birgt.
Wichtigkeit evidenzbasierter Rechtfertigung “However, a rigorous evidence-based justification should be provided in any setting where use of biomarkers as surrogate endpoints is proposed because the scientific evaluation of benefit and risk needs to be not only timely but also valid and reliable.” Erklärung: Der Einsatz von Biomarkern als Surrogat muss immer durch solide wissenschaftliche Daten gestützt sein – sonst drohen Fehleinschätzungen. DOI: 10.1002/sim.5403 | Fleming TR, Powers JF. Biostatistical issues in clinical trials: a review. Stat Med. 2012;31(14):1739–1770. |
| 3. (Methodenhandbuch – Evidenzklasse Ia) Art: Methodenhandbuch, kein Studien-Design. Begründung: Offizielles Cochrane-Manual (Wiley/Cochrane); Referenzwerk zur SR/MAs; „keine Evidenzklasse (Methodenreferenz)“. "A systematic review attempts to collate all the empirical evidence that fits pre-specified eligibility criteria in order to answer a specific research question. It uses explicit, systematic methods that are selected with a view to minimizing bias, thus providing more reliable findings from which conclusions can be drawn and decisions made." Kommentar: DOI: 10.1002/9781119536604 | Higgins JPT, Thomas J, et al. (eds). Cochrane Handbook for Systematic Reviews of Interventions. 2nd ed. Glasgow: Wiley; 2019. |
| 4. (Editorial / Grundsatzartikel – Evidenzklasse V) Art: Grundsatz-/Konzeptpapier ohne Primärdaten („Evidence based medicine: what it is and what it isn’t“). Begründung: BMJ-Seite und PMC zeigen einen kurzen Definitionsartikel („Education & debate“), keine Datenerhebung; daher Level 5 (Meinungs-/Konzeptpapier). Sackett und Kolleg:innen definierten erstmals klar, was „Evidence Based Medicine“ bedeutet. “Evidence based medicine is the conscientious, explicit and judicious use of current best evidence in making decisions about the care of individual patients. The practice of evidence based medicine means integrating individual clinical expertise with the best available external clinical evidence from systematic research.” “Good doctors use both individual clinical expertise and the best available external evidence, and neither alone is enough.” Kommentar:
Weitere Aussagen: EBM ist die bewusste, explizite und umsichtige Nutzung der besten verfügbaren Evidenz für Entscheidungen in der Patientenversorgung. “Evidence based medicine is the conscientious, explicit, and judicious use of current best evidence in making decisions about the care of individual patients.”
EBM bedeutet nicht, klinische Erfahrung zu ignorieren – sie wird mit wissenschaftlicher Evidenz verbunden. “Good doctors use both individual clinical expertise and the best available external evidence, and neither alone is enough.”
EBM ist kein starres Schema, sondern ein individueller, patientenzentrierter Prozess. “Evidence based medicine is not ‘cookbook’ medicine. Because it requires a bottom-up approach that integrates the best external evidence with individual clinical expertise and patients’ choice, it cannot result in slavish, cookbook approaches to individual patient care.”
Auch andere Studiendesigns und klinische Beobachtungen können wertvolle Evidenz liefern. Evidence based medicine is not restricted to randomised trials and meta-analyses. It involves tracking down the best external evidence with which to answer our clinical questions. To find out about the accuracy ofa diagnostic test, we need to find proper cross sectional studies of patients clinically suspected of harbouring the relevant disorder, not a rando mised trial. For a question about prognosis, we need proper follow up studies of patients assembled at a uniform, early point in the clinical course oftheir disease. And sometimes the evidence we need will come from the basic sciences such as genetics or immunology. It is when asking questions about therapy that we should try to avoid the non-experimental approaches, since these routinely lead to false positive conclusions about efficacy. Because the randomised trial, and especially the systematic review of several randomised trials, is so much more likely to inform us and so much less likely to mislead us, it has become the "gold standard" for judging whether a treatment does more good than harm. However, some questions about therapy do not require randomised trials (successful interventions for otherwise fatal conditions) or cannot wait for the trials to be conducted. DOI: 10.1136/bmj.312.7023.71 | Sackett DL, Rosenberg WMC, et al. Evidence based medicine: what it is and what it isn’t. BMJ. 1996;312(7023):71–72. |
| 5. (Methodenartikel – Evidenzklasse IIa) Art: Methodentheorie zur Selektionsverzerrung. Begründung: Peer-reviewter Methodenartikel; keine Patientendaten; struktureller Ansatz (DAGs) zur Klassifikation/Adjustierung; Level 5 (methodische Theorie). Kommentar:
Definition und Wirkung von Selection Bias “The common consequence of selection bias is that the association between exposure and outcome among those selected for analysis differs from the association among those eligible.” Diese Aussage zeigt, dass Studienergebnisse verzerrt sein können, wenn die untersuchte Gruppe nicht repräsentativ für die Gesamtpopulation ist – etwa weil gesundheitsbewusste Menschen sich selbst selektieren.
Volunteer Bias / Selbstselektion “Figures 6a–d can also represent a study in which C is agreement to participate (yes = 1, no = 0), E is cigarette smoking, D is coronary heart disease, U is family history of heart disease, and U* is healthy lifestyle.” “Bias will be present if the study is restricted to those who volunteered or elected to participate (C = 1).” Hier wird explizit beschrieben, dass ein „healthy lifestyle“ (U*) sowohl die Teilnahme an der Studie als auch das Verhalten beeinflusst – was zu einer Verzerrung führt, wenn nur Freiwillige untersucht werden.
Healthy Worker Bias “Figures 6a–d can also describe a bias that could arise when estimating the effect of a chemical E [...] The underlying unmeasured true health status U is a determinant of both death (D) and of being at work (C).” Auch hier wird gezeigt, dass gesündere Menschen eher Teil der untersuchten Gruppe sind – was zu einer systematischen Verzerrung führt. DOI: 10.1097/01.ede.0000135174.63482.43 | Hernán MA, Hernández-Díaz S, Robins JM. A structural approach to selection bias. Epidemiology. 2004;15(5):615–625. |
| 6. (Übersichtsartikel – Evidenzklasse III) Art: Narrative Review/Primer. Begründung: PubMed listet „Review“; fasst „healthy user/healthy adherer“-Bias in Beobachtungsstudien zusammen; keine Primärdaten; Level 5. Kommentar:
Healthy User effect The healthy user effect is best described as the propensity for patients who receive one preventive therapy to also seek other preventive services or partake in other healthy behaviors. Patients who choose to receive preventive therapy may exercise more, eat a healthier diet, wear a seatbelt when they drive, and avoid tobacco. As a result, an observational study evaluating the effect of a preventive therapy (e.g., statin therapy) on a related outcome (e.g., myocardial infarction) without adjusting for other related preventive behaviors (e.g., healthy diet or exercise) will tend to overstate the effect of the preventive therapy under study. The healthy user effect has been widely cited as a likely source of bias in observational studies of HRT. Studies indicate that women who took HRT were more likely to engage in healthy behaviors such as regular exercise, a healthy diet, abstinence from alcohol, and maintenance of a healthy weight as compared to non-users. The apparent protective effect of HRT on cardiovascular disease likely reflects these unmeasured differences in patient characteristics. Kernaussage: Menschen, die eine präventive Massnahme ergreifen (z. B. Statine einnehmen), leben oft generell gesünder – sie treiben Sport, essen besser, rauchen weniger. Studien überschätzen dadurch den Nutzen der Massnahme, weil sie andere gesunde Verhaltensweisen nicht mitberücksichtigen. Das Beispiel Hormontherapie HRT illustriert dies: Beobachtungsstudien zeigten, dass HRT das Risiko für Herzkrankheiten senkt. Spätere RCTs (z. B. Women’s Health Initiative) widerlegten das – der vermeintliche Nutzen war auf gesündere Lebensweise der HRT-Nutzerinnen zurückzuführen.
Healthy-Adherer-Bias „Patients who adhere to one chronic medication are more likely to adhere to other therapies and more likely to receive recommended cancer screening tests and immunizations.“ Kernaussage: Menschen, die Medikamente regelmässig einnehmen, sind auch sonst gesundheitsbewusster. Das führt zu einer Verzerrung, wenn Studien den Nutzen von Medikamenten anhand der Adhärenz bewerten.
Funktionelle Einschränkungen als Confounder „Observational studies that do not account for functional status or cognitive impairment will overstate the effect of a preventive therapy if sicker patients disproportionately do not receive preventive therapies.“ Kernaussage: Kranke oder eingeschränkte Menschen nehmen seltener an Präventionsmassnahmen teil. Studien, die das nicht berücksichtigen, überschätzen den Nutzen der Massnahme.
Selektive Verschreibung „Physicians frequently decide not to prescribe preventive therapy to patients who are frail or who have terminal or acute illness…“ Kernaussage: Ärzte verschreiben Präventionsmassnahmen eher gesunden Patienten. Das führt zu einer systematischen Verzerrung in Studien, die den Nutzen solcher Massnahmen untersuchen.
Methoden zur Bias-Korrektur „New user designs, active comparators, improved statistical adjustment, and sensitivity analyses…“ Empfohlene Strategien:
DOI: 10.1007/s11606-010-1609-1 | Shrank WH, Patrick AR, Brookhart MA. Healthy user and related biases in observational studies of preventive interventions: a primer for physicians. J Gen Intern Med. 2011;26(5):546–550. |
| 7. (Systematisches Review – Evidenzklasse Ia) Art: Systematisches Review empirischer Kohorten zu Publikations-/Outcome-Reporting-Bias. Begründung: Formales SR über Inzeptions-Kohorten von RCTs; daher Level 1 (systematisches Review methodischer Studien; für Aussagen zu Bias sehr hoch einzuordnen) Kommentar: Beleg für Publikations-Bias “Empirical research consistently suggests that published work is more likely to be positive or statistically significant (P<0.05) than unpublished research.” “Study publication bias will lead to overestimation of treatment effects; it has been recognised as a threat to the validity of meta-analysis and can make the readily available evidence unreliable for decision making.” “Twelve of the included empirical studies demonstrate consistent evidence of an association between positive or statistically significant results and publication. They suggest that studies reporting positive/statistically significant results are more likely to be published and that statistically significant outcomes have higher odds of being fully reported.” Five of the empirical studies that examined the association between publication and statistical significance found that studies with statistically significant results were more likely to be published than those with non-significant results. One empirical study found that studies with statistically significant results were more likely to be submitted for publication than those with non-significant results. “Ioannidis et al. found that positive trials were submitted for publication more rapidly after completion than negative trials (median 1 vs 1.6 years, p <0.001) and were published more rapidly after submission (median 0.8 vs 1.1 years, p <0.04).” Diese Textstellen zeigen klar, dass Studien mit positiven Ergebnissen bevorzugt veröffentlicht werden, was zu einer verzerrten Wahrnehmung des Nutzens führen kann. Wenn du magst, kann ich dir auch eine kurze Zusammenfassung oder ein Zitat für eine Präsentation oder ein Paper formulieren. DOI: 10.1371/journal.pone.0066844 | Dwan K, Gamble C, Williamson PR, Kirkham JJ. Systematic review of the empirical evidence of study publication bias and outcome reporting bias. PLoS One. 2013;8(7):e66844. |
| 8. (Methodischer Kommentar – Evidenzklasse III) Art: Narrative Review zu Recall-Bias. Begründung: Überblick ohne neue Primärdaten; definiert/erläutert Rückerinnerungsverzerrung; Level 5 Kommentar: It is generally accepted that comparative studies which attempt to retrospectievely ascertain exposure through interviewing techniques may be subject to bias due to differential recall, and case-control studies which do not validate interview data are frequently criticized on this basis. Recall bias may be thought of as a form of differential misclassification bias and the risk estimate may be biased away from or towards the null. Past exposures may be more vivid or meaningful to cases, possibly becasue of their awarness of potential risk factorws for their condition or because of repeated interviewing by physicians. DOI: 10.1016/0895-4356(90)90060-3 | Coughlin SS. Recall bias in epidemiologic studies. J Clin Epidemiol. 1990;43(1):87–91. |
| 9. Kommentar: Confounding ist kein „Fehler“, den man einfach rausrechnen kann, sondern ein Hinweis darauf, wie komplex kausale Zusammenhänge sind. Confounding verschwindet nicht einfach, weil es ein strukturelles Problem in der Datenanalyse ist, kein technisches. Es entsteht, wenn ein Drittmerkmal sowohl mit der Exposition als auch mit dem Ergebnis assoziiert ist und dadurch die wahre Beziehung zwischen beiden verzerrt. Textstellen: Measurement error in explanatory variables and unmeasured confounders can cause considerable problems in epidemiologic studies. It is well recognized that under certain conditions, nondifferential measurement error in the exposure variable produces bias towards the null. Measurement error in confounders will lead to residual con founding, but this is not a straightforward issue, and it is not clear in which direction the bias will point. Unmeasured confounders further complicate matters. There has been discussion about the amount of bias in exposure effect estimates that can plausibly occur due to residual or unmeasured confounding. This study highlights the need to perform sensitivity ana lyses to assess whether unmeasured and residual confound ing are likely problems. We have shown that unmeasured confounders have a cumulative effect on the bias of expo sure effect estimates. The possibility of the presence of several unmeasured confounders should be taken into ac count when performing sensitivity analyses. It may not be enough to state that a single unmeasured confounder would need an implausibly large odds ratio to remove the observed effect. Several unmeasured confounders with small or mod erate effects may be able to produce the same effects. Sen sitivity analysis methods for assessing the possible effects of selection bias, misclassification of covariates, and unmea sured confounding have been proposed and illustrated by Greenland (41) and Lash and Fink (42). The effect of measurement error on exposure effect esti mates should be explored, either by adjusting the estimates based on knowledge of the likely measurement error or by performing sensitivity analyses. Of course, the ideal circum stance is that the variables are measured without error, but this is unlikely to occur in reality. While efforts should be made to minimize measurement error, the measurement er ror that has occurred should be quantified and used in the f inal effect estimate. DOI: 10.1093/aje/kwm165 | Fewell Z, Davey Smith G, Sterne JA. The impact of residual and unmeasured confounding in epidemiologic studies: a simulation study. Am J Epidemiol. 2007;166(6):646-655. |
| 10. (RCT-Analyse – Evidenzklasse Ib–IIa) Art: Meta-Forschungs-Querschnittsstudie von RCT-Berichten (Spin bei nicht-signifikanten Primärendpunkten). Begründung: Systematische Auswahl und standardisierte Bewertung von RCT-Publikationen (Dez. 2006); empirische Auswertung von Berichten, nicht von Patienten-Outcomes; daher Beobachtungs-/Querschnitts-Metaforschung = Level 3 (nicht-interventionelle Evidenz zu Berichtsqualität). Kommentar: Textstellen: Spin can be defined as specific reporting that could distort the interpretation of results and mislead readers. The use of spin in scientific writing can result from ignorance of the scientific issue, unconscious bias, or willful intent to deceive. Such distorted presentation and interpretation of trial results in published articles has been highlighted in letters to editors criticizing the interpretation of results and in methodological reviews evaluating misleading claims in published reports of RCTs or systematic reviews. More than 40% of the reports had spin in at least 2 of these sections in the main text. DOI: 10.1001/jama.2010.651 | Boutron I, Dutton S, et al. Reporting and interpretation of randomized controlled trials with statistically nonsignificant results for primary outcomes. JAMA. 2010;303(20):2058–2064. |
| 11. (Systematisches Review – Evidenzklasse Ia) Art: Systematisches Review/Metaanalyse zu Sponsoreneinfluss. Begründung: Cochrane-Methodology-Review (MR000033) zeigt konsistent günstigere Ergebnisse/Schlussfolgerungen bei Industriesponsoring; daher Level 1. Diese Cochrane-Analyse zeigt, dass Industriefinanzierung die Resultate systematisch in Richtung positiver Schlussfolgerungen verschiebt – eine Schlüsselquelle zum Thema Interessenkonflikte. „Industry sponsored studies more often had favorable efficacy results, RR: 1.27 (95% CI: 1.17 to 1.37) […] and more often favorable conclusions RR: 1.34 (95% CI: 1.19 to 1.51) compared with non‐industry sponsored studies.“ Diese Zahlen zeigen, dass industriefinanzierte Studien signifikant häufiger positive Ergebnisse und Schlussfolgerungen zugunsten des Sponsors berichten. „Sponsorship of drug and device studies by the manufacturing company leads to more favorable efficacy results and conclusions than sponsorship by other sources. Our analyses suggest the existence of an industry bias that cannot be explained by standard 'Risk of bias' assessments.“ Die Autoren betonen hier, dass der sogenannte „Industry Bias“ über die üblichen methodischen Verzerrungen hinausgeht und systematisch wirkt. „Previous research has found that pharmaceutical industry sponsored studies tend to favor the sponsors’ drugs more than studies with any other sources of sponsorship. This suggests that industry sponsored studies are biased in favor of the sponsor’s products.“ Diese vereinfachte Zusammenfassung bestätigt, dass die Tendenz zu positiven Ergebnissen bei industriefinanzierten Studien ein wiederholt beobachtetes Muster ist. „In industry sponsored studies, there was less agreement between the results and the conclusions than in non‐industry sponsored studies, RR: 0.83 (95% CI: 0.70 to 0.98).“ Das bedeutet: Die Schlussfolgerungen in industriefinanzierten Studien stimmen seltener mit den tatsächlichen Ergebnissen überein – ein Hinweis auf „Spin“ oder selektive Interpretation. DOI: 10.1002/14651858.MR000033.pub3 | Lundh A, Lexchin J, et al. Industry sponsorship and research outcome. Cochrane Database Syst Rev. 2017;2(2):MR000033. |
| 12. (Qualitatives Review – Evidenzklasse Ia–Ib) Art: Qualitatives systematisches Review. Begründung: PubMed/Journal weisen explizit „Systematic Review“ aus, qualitativ; keine Primärdaten; für die Frage „Sponsoring ↔ Ergebnisse“ als SR → Level 1 (qualitatives SR der Methoden-/Metaforschung). Sismondo zeigt, dass Industrien nicht nur finanzieren, sondern auch Publikationen steuern. Er beschreibt das Phänomen des „Ghostwriting“ und verdeutlicht den Einfluss kommerzieller Akteure auf die Forschung. "The causes of this bias are complicated, ranging from ghost-management of the literature by pharmaceutical companies to subtle actions provoked by relationships between companies and researchers. Such actions have been demonstrated to create publication biases through over-publication of positive results and under-publication of negative ones, to create design biases, to duplicate known positive results, to affect the interpretation of data, and may also prompt more serious cases of scientific misconduct. It can easily be seen that these causal connections between funding and outcomes are relatively unaffected by such commonly proposed solutions as: stronger disclosure requirements, rigorous trial reporting standards, and trial registries. Because the bias is not the result of simple methodological problems, radical solutions are called for, that divorce the pharmaceutical industry from published research. In the meantime, the fact that pharmaceutical company funding has such strong effects deserves to be more widely known, and measures to address it more widely explored." DOI: 10.1016/j.cct.2007.08.001 | Sismondo S. Pharmaceutical company funding and its consequences: a qualitative systematic review. Contemp Clin Trials. 2008;29(2):109–113. |
| 13. Die Studie zeigt, dass die Verwendung von tierischem Eiweiss als Vergleichssubstanz in industriefinanzierten Studien, deren Evidenzqualität als sehr niedrig bis niedrig eingestuft wurde, den kardiovaskulären Nutzen einer Reduzierung des Verzehrs von rotem Fleisch unterschätzen könnte. Die meisten Studien ohne Interessenkonflikte mit der Fleischindustrie deuteten auf einen ungünstigen Effekt des Verzehrs von unverarbeitetem rotem Fleisch auf Risikofaktoren für Herz-Kreislauf-Erkrankungen hin. A total of 44 studies were included, of which 66% had a link to the red meat industry. All independent studies reported either unfavorable (73.3%) or neutral (26.7%) cardiovascular outcomes when consuming unprocessed red meat. Conversely, all studies related to the red meat industry reported either favorable (20.7%) or neutral (79.3%) cardiovascular outcomes for red meat intake. A total of 69.6% of trials (16 of 23) showed a neutral effect of unprocessed red meat compared with other animal proteins, whereas 70% (7 of 10) reported an unfavorable effect compared with plant proteins. Studies with conflicts of interest were nearly 4 times more likely to report “Favorable/Neutral” outcomes compared with independent studies (odds ratio 3.75, 95% confidence interval: 1.62, 8.67). DOI: 10.1016/j.ajcnut.2025.02.030 | López-Moreno M, Fresán U, et al. Industry study sponsorship and conflicts of interest on the effect of unprocessed red meat on cardiovascular disease risk: a systematic review of clinical trials. Am J Clin Nutr. 2025;121(6):1246-1257. |
| 14. | Evans W, Gabler E et al. A scientist is paid to study maple syrup. He’s also paid to promote it. The New York Times. April 15, 2025. |
| 15. In den Medien dominieren industrienahe Stimmen. Kritische Fachleute mit belastbarer Evidenz erhalten wenig Raum, während PR-Botschaften der Branche direkt in Nachrichten einfliessen. Eine australische Analyse von Brooks et al. (2024) belegte, dass Nachrichtenportale in 80 von 86 Beiträgen über Fastfood-Ketten diese in einem positiven Bild darstellen. The vast majority (93%; n=80) of news media items had a slant that was favourable to a brand. These included items with favourable headlines, such as “Macca’s menu item we’ve been waiting for” and “Have an easy dinner and help with flood relief efforts thanks to Domino’s”, as well as favourable descriptions of new food products like “…there's no trick to this Halloween treat, just delicious thickshake goodness” and “The deluxe burger features… a tasty rasher of bacon”, among others. All news media items that had a slant that was unfavourable to a brand (7%; n=6) were coded as such because they quoted social media users’ criticisms of brands’ products. For example, one news media item stated that “Complaints of a lacklustre amount of toppings or – as one Caramilk fan so eloquently put it – tasting like “crap in a cup” flooded social media.”.
DOI: 10.1016/j.anzjph.2024.100150 | Brooks R, Backholer K, Kite J. Covert marketing of quick-service restaurants via news media in Australia: A content analysis. Aust N Z J Public Health. 2024;48(3):100150. |
| 16. (Übersichtsarbeit – Evidenzklasse III–IV) Art: Narrative Review/Positionspapier über Desinformation. Begründung: Journal of Nutrition-Artikel als Überblick, ohne Primärdaten; Level 5. Diese Arbeit belegt, dass Fehlinformation und gezielte Desinformation in der Ernährungswissenschaft systemisch verbreitet sind – ein zentrales Thema Eures Kapitels über Desinformation. Food and nutrition are popular topics in the media and on social media. The ubiquity of social media has created new opportunities for qualified or credentialed experts in the scientific community to connect with clients and the public. It has also created challenges. Health and wellness gurus, or self-proclaimed experts, utilize social media platforms to garner attention through compelling narratives, build audience followings, and influence public opinion by sharing (often) misleading information about food and nutrition. With the abundance of misinformation and disinformation being shared on social media, credentialed nutrition scientists and providers play a vital role in the assessment of the quality and accuracy of information against the body of evidence.
DOI: 10.1016/j.tjnut.2022.10.001 | Diekman C, Wansink B, Martinez J. Misinformation and disinformation in food science and nutrition. J Nutr. 2023;153(12):3535–3544. |
| 17. (Essay – Evidenzklasse V) Art: Essay/Kommentar zur OA-Landschaft. Begründung: Zeitschriftenseite weist eine diskursive Analyse ohne Primärdaten aus; Level 5. Ein kritischer Beitrag zum Open-Access-System: Der freie Zugang zu Wissen kann neue Ungleichheiten schaffen, wenn Autoren statt Leser bezahlen müssen. Unfaire finanzielle Belastung durch APCs (Article Processing Charges). Viele Open-Access-Journale verlangen hohe Publikationsgebühren, die nicht alle Forschenden tragen können. „The most direct downside of OA is the unfair economic burden of APC for researchers with no external grant funding that pays APCs.“ „Most research institutions have no funds of their own to pay APC charged by OA journals, when researchers have a paper accepted after peer review.“ „Unfortunately, the APC approach hurts peripheral scholars who otherwise have greatly benefited from the growth of OA publishing. These financial (and other) barriers to publishing create a demand for ‘sub-standard journals.’ Publishing in those, to a large extent, diminishes the reputation of work carried out.“ Zunahme von „Predatory Journals“ Das Open-Access-Modell hat zur Verbreitung unseriöser Zeitschriften geführt, die kaum Peer-Review betreiben und primär auf Profit aus sind. „A more subtle consequence of OA's ascendancy, in the eyes of some, is the global proliferation of ‘predatory’ journals.“ „These lie on a spectrum from the outright fraudulent (so called ‘fake journals’) through to those whose business models are based on enticing as many potential authors as possible into parting with APCs.“ „OA carries with it the perverse incentives of any piece-work payment system: a potential reduction in output quality, as production volume increases, motivated purely by financial rewards.“ Qualitätsverlust durch Masse statt Klasse Die wirtschaftlichen Anreize im OA-Modell fördern eine hohe Publikationsrate, oft auf Kosten der Qualität. Peer-Review wird teilweise vernachlässigt, da abgelehnte Artikel keine Einnahmen bringen. Dies erschwert systematische Reviews, da die Zahl minderwertiger Studien steigt und die Effizienz wissenschaftlicher Synthese sinkt. „OA has led to a ‘race to the bottom’ in terms of the scientific quality of peer-reviewed scientific publications in recent years.“ „Indeed, a widely respected journal indexing database, Scopus, has recently had to undertake a thorough ‘cleanout’ to remove hundreds of journals deemed, on careful review, to be unworthy of inclusion due to inadequate peer-review.“ Der Versuch, OA durch Förderbedingungen zu erzwingen (z. B. Plan S), stösst auf Widerstand: „Scholarly resistance is based on the concern that forcing everyone to use OA will: likely lock in place high APCs, may prevent scholars from publishing in their preferred journals, may place severe limitations on journals published by professional societies, and may cause a loss of income for professional societies.“
DOI: 10.1016/j.socscimed.2022.115592 | Frank J. Open access publishing – noble intention, flawed reality. Soc Sci Med. 2023;322:115760. |
| 18. (Rechtswissenschaftliche Analyse – Evidenzklasse V) Geiger fordert ein Recht auf Forschung als Bestandteil des Menschenrechts auf Wissenschaft – eine juristische Ergänzung zum Thema Open Science. Unsicherheit durch restriktive Verlagsverträge “The necessity to publish with prestigious publishers effectively requires researchers to agree to terms that restrict their ability to control the dissemination of their work.” “Authors transaction their right to control publication away.” Diese Aussagen zeigen, dass Forschende oft gezwungen sind, ihre Rechte an der Verlagsversion abzugeben – was Unsicherheit schafft, besonders im Hinblick auf Open Access.
Bedeutung eines „Rechts auf Forschung“ und Open Science “A right to research creates new imperatives that can be instrumentalized to shift the normative focus of copyright law from a restrictive right to an enabling legal framework.” “The conflict between the proprietary interests of rightholders and the societal interests in unhindered purpose-bound research should, in case of doubt, be decided in favour of research and open science.” Diese Passagen stützen die Forderung nach einem Urheberrecht, das Forschung und Open Science aktiv ermöglicht – genau wie du es in deiner Zusammenfassung beschrieben hast.
Sekundärveröffentlichungsrecht als Lösung "A right to simultaneously (re-)publish the results of scientific research would help to make science more open and accessible to academic peers and researchers around the globe." “Such rights have already been introduced at national level, for example Paragraph 38(4) of the German Copyright Act […] Similarly, France has introduced Article L 533-4 of the Research Code […] The introduction of such right has recently been explicitly welcomed by the EU Council and should be urgently put on the copyright reform agenda in the near future.” Diese Stellen zeigen, dass Geiger und Jütte konkrete rechtliche Reformen vorschlagen, um die Unsicherheit zu beseitigen und Open Access zu fördern. DOI: - | Geiger C, Jütte BJ. Copyright, the Right to Research and Open Science: about time to connect the dots. IIC. 2024;55(5):505–534. |
| 19. (Quantitative Analyse – Evidenzklasse IIa–III) Preprint und die Offenlegeung von Forschungsdaten führen zu einer 20 % bzw. 4,3 % häufigeren Zitation. Es gibt kein Vorteil für das Offenlegen von Code (skrips). We show that Open Science practices are adopted to different degrees across scientific disciplines. We find that the early release of a publication as a preprint correlates with a significant positive citation advantage of about 20.2% (±.7) on average. We also find that sharing data in an online repository correlates with a smaller yet still positive citation advantage of 4.3% (±.8) on average. However, we do not find a significant citation advantage for sharing code. Further research is needed on additional or alternative measures of impact beyond citations. Our results are likely to be of interest to researchers, as well as publishers, research funders, and policymakers. DOI: 10.1371/journal.pone.0311493 | Colavizza G, Pontika N, Wouters P. An analysis of the effects of sharing research data, code, and preprints on citations. Quant Sci Stud. 2024;5(2):367–390. |
| 20. (Politikwissenschaftliche Studie – Evidenzklasse IV–V) Dieser Artikel zeigt, dass offene Wissenschaft politische Steuerung braucht – sonst entstehen erneut Ungleichheiten. Zur Dominanz westlicher Verlage und Paywalls: “Publishing technology has undergone remarkable transformations, and scientists can now instantaneously share nearly all aspects of their scholarship with a worldwide audience. However, the academic research community continues to treat journal articles as the principal way of sharing research and efforts for change generally remain tied to this journal-centric system.” “One unfortunate legacy of the print era—when publishing was expensive and limited in length and structure—is that publications often serve as an advertisement of research rather than a complete record of the research process and outcomes.” Diese Stellen kritisieren die fortbestehende Abhängigkeit vom traditionellen Publikationssystem, das oft durch Paywalls und selektive Veröffentlichung geprägt ist. Zur Forderung nach politischer Steuerung und öffentlicher Finanzierung: “We argue for concerted and persistent efforts, supported by sustained public funding mechanisms, that treat open science as a milepost toward a more effective research ecosystem.” “To date, support for open science infrastructure and training has relied in good part on volunteers and philanthropic funding... As a scientific community, we do not rely on volunteers and philanthropists as the primary means to support research; we should not rely on them as the primary means to ensure research is open, rigorous, and collaborative.” Diese Passagen zeigen deutlich die Forderung nach politischer Verantwortung und öffentlicher Finanzierung zur Sicherstellung von Open Science. Zur Betonung von Transparenz und Datenverfügbarkeit: “Conversations about open science have reached the mainstream, yet many open science practices such as data sharing remain uncommon. Our efforts towards openness therefore need to increase in scale and aim for a more ambitious target.” “We need an ecosystem not only where research outputs are openly shared but also in which transparency permeates the research process from the start and lends itself to more rigorous and collaborative research.” DOI: 10.1371/journal.pbio.3002362 | Thibault RT, Amaral OB, et al. Open Science 2.0: Towards a truly collaborative research ecosystem. PLoS Biol. 2023;21(10):e3002362. |
| 21. (Kommentar – Evidenzklasse V) Warnung vor unseriösen „Raubverlagen“, die gegen Gebühr veröffentlichen, ohne Qualitätssicherung – ein Schlüsselbeispiel für Quellenkritik. Early experiments with open-access publishing, such as the Journal of Medical Internet Research and BioMed Central, were very promising. Set up more than a decade ago, they helped to inspire a social movement that has changed academic publishing for the better, lowered costs and expanded worldwide access to the latest research. Then came predatory publishers, which publish counterfeit journals to exploit the open-access model in which the author pays. These predatory publishers are dishonest and lack transparency. They aim to dupe researchers, especially those inexperienced in scholarly communication. They set up websites that closely resemble those of legitimate online publishers, and publish journals of questionable and downright low quality. Many purport to be headquartered in the United States, United Kingdom, Canada or Australia but really hail from Pakistan, India or Nigeria. Some predatory publishers spam researchers, soliciting manuscripts but failing to mention the required author fee. Later, after the paper is accepted and published, the authors are invoiced for the fees, typically US$1,800. Because the scientists are often asked to sign over their copyright to the work as part of the submission process (against the spirit of open access) they feel unable to withdraw the paper and send it elsewhere. I also get e-mails from the predators’ victims. Some have been named as members of editorial boards without their knowledge or permission. Others have had an article partially or completely plagiarized in a predatory journal. Now there is a journal willing to accept almost every article, as long as the author is willing to pay the fee. Authors, rather than libraries, are the customers of open-access publishers, so a powerful incentive to maintain quality has been removed. Perhaps nowhere are these abuses more acute than in India, where new predatory publishers or journals emerge each week. They are appearing because of the market need — hundreds of thousands of scientists in India and its neighbouring countries need to get published to earn tenure and promotion. Here, the problem is not just with the publishers. Scientists themselves are also to blame. Many are taking unethical shortcuts and paying for the publication of plagiarized or self-plagiarized work. DOI: 10.1038/489179a | Beall J. Predatory publishers are corrupting open access. Nature. 2012;489(7415):179. |
| 22. (Editorial / Grundsatzartikel – Evidenzklasse V) Art: Essay/Theoriepapier, keine neuen Daten. Begründung: PLOS kennzeichnet den Beitrag als „Essay“; es wird ein theoretisches Modell zur Positiven-Prädiktiv-Wahrscheinlichkeit vorgestellt, keine empirische Studie; daher Level 5. John Ioannidis zeigte mit einem einfachen mathematischen Modell, warum viele veröffentlichte Studienergebnisse wahrscheinlich falsch sind. Dieser Essay ist der meistgelesene methodische Beitrag in PLoS Medicine. Er mahnt, dass auch wissenschaftliche Resultate kritisch geprüft werden müssen – ein Grundgedanke der gesamten „Evidenz-für-Studien“-Einführung. Die Grundthese: Die meisten veröffentlichten Forschungsergebnisse sind falsch “It can be proven that most claimed research findings are false.” Diese Aussage bildet die Grundlage des gesamten Artikels. Ioannidis argumentiert, dass methodische Schwächen, Bias und geringe statistische Power dazu führen, dass viele Studienergebnisse nicht zutreffen. Einfluss von Studiendesign und Bias “The probability that a research finding is indeed true depends on the prior probability of it being true, the statistical power of the study, and the level of bias.” Er zeigt, dass selbst bei statistisch signifikanten Ergebnissen die Wahrscheinlichkeit, dass sie wahr sind, oft gering ist – besonders bei niedriger Power und hohem Bias. Probleme bei kleinen Studien und vielen Hypothesen “Small sample size, small effect size, and flexibility in designs, definitions, outcomes, and analytical modes increase the proportion of false findings.” Diese Aussage kritisiert die Praxis, viele Hypothesen zu testen oder Daten mehrfach zu analysieren, was die Wahrscheinlichkeit von Zufallsbefunden erhöht. Interessenkonflikte und finanzielle Einflüsse “The greater the financial and other interests and prejudices in a scientific field, the less likely the research findings are to be true.” Ioannidis warnt davor, dass wirtschaftliche Interessen die Objektivität der Forschung gefährden. Replikation ist selten – und oft negativ “Most research findings are not only false, but they are also relatively rarely replicated or directly tested.” Er betont, dass viele Studien nie überprüft werden – und wenn doch, oft nicht bestätigt werden können. Wissenschaftliche Publikation als Spiel mit Wahrscheinlichkeiten “Claimed research findings may often be simply accurate measures of the prevailing bias.” Das bedeutet: Ein „signifikantes“ Ergebnis kann oft eher ein Spiegel der systematischen Verzerrung sein als ein echter Effekt.
DOI: 10.1371/journal.pmed.0020124 | Ioannidis JPA. Why most published research findings are false. PLoS Med. 2005;2(8):e124. |
| 23. (Methodische Innovation – Evidenzklasse V) Garfield erfand die Zitationsanalyse – Grundlage für heutige Impact-Messungen und wissenschaftliche Rezeption. In this paper I propose a bibliographic system for science literature that can eliminate the uncritical citation of fraudulent, incomplete, or obsolete data by making it possible for the conscientious scholar to be aware of criticisms of earlier papers. It is too much to expect a research worker to spend an inordinate amount of time searching for the bibliographic descendants of antecedent papers. It would not be excessive to demand that the thorough scholar check all papers that have cited or criticized such papers. if they could be located quickly. The citation index makes this check practicable. Even if there were no other use for a citation index than that of minimizing the citation of poor data, the index would be well worth the effort required to compile it. Citation indexes depend on a simple system of coding entries, one that re quires minimum space and facilitates the gathering together of a great volume of material. However, a code is not absolutely necessary if one chooses to compiler a systematic listing of individual cases or reports, with a complete bibliographic history of each of them.
DOI: 10.1126/science.122.3159.108 | Garfield E. Citation indexes for science. Science. 1955;122(3159):108–111. |
| 24. | Garfield E. The Mystery of the Transposed Journal Lists. Wherein Bradford's Law of Scattering is Generalized According to Garfield's Law of Concentration. Essays of an Information Scientist. 1971;1:222-223. |
| 25. (Positionspapier – Evidenzklasse V) Dieses Manifest führte den Begriff „Altmetrics“ ein – alternative Kennzahlen jenseits der Zitationen. Because altmetrics are themselves diverse, they’re great for measuring impact in this diverse scholarly ecosystem. In fact, altmetrics will be essential to sift these new forms, since they’re outside the scope of traditional filters. This di versity can also help in measuring the aggregate impact of the research enter prise itself. Altmetrics are fast, using public APIs to gather data in days or weeks. They’re open–not just the data, but the scripts and algorithms that collect and inter pret it. Altmetrics look beyond counting and emphasize semantic content like usernames, timestamps, and tags. Altmetrics aren’t citations, nor are they webometrics; although these latter approaches are related to altmetrics, they are relatively slow, unstructured, and closed. Altmetrics are in their early stages; many questions are unanswered. But given the crisis facing existing filters and the rapid evolution of scholarly communi cation, the speed, richness, and breadth of altmetrics make them worth invest ing in. | Priem J, Taraborelli D, Groth P, Neylon C. Altmetrics: a manifesto. 2010. |
| 26. (Übersichtsartikel – Evidenzklasse III) Hohe Social-Media-Präsenz bedeutet nicht automatisch hohe wissenschaftliche Qualität – ein wichtiger Hinweis zur Quellenbewertung. It goes without saying that altmetrics have disadvantages as well as advantages. They share this characteristic with traditional metrics. Not everything that is cited has been read, and the relevant publications are not always cited in the correct place in a manuscript. According to Priem et al. 2010, in order to be able to answer the question of whether altmetrics measure impact (“or just empty buzz”), it should be compared with expert evaluations. Do altmetric counts correlate with the evaluations by experts of the societal impact of a paper? It is much easier to manipulate altmetrics than bibliometrics. The lack of evidence of altmetrics relates to the scarcity of sophisticated empirical studies on altmetrics. As not everyone (in a city, a country, etc.) uses social media platforms, a measurement of impact always relates to a specific sample of people who have mentioned a paper more or less frequently. It is assumed that this sample has a systematic bias towards younger or more fad-embracing people or towards those with a professional interest in research. As there are no accurate user statistics or sample descriptions for individual social media platforms, this bias cannot be quantified. Altmetric counts are frequently made available as counts of all relevant mentions on a platform. However, more information about user groups who have had to do with a scientific paper is essential for a valid measurement of societal impact; has impact been measured in government documents or on social media comment sites? This more specific description of the impact achieved is usually lacking nowadays. DOI: 10.1016/j.joi.2014.09.005 | Bornmann L. Do altmetrics point to the broader impact of research? J Informetr. 2014;8(4):895–903. |
| 27. Keine signifikanten Unterschiede im Gewichtsverlust zwischen Low-Fat und Low-Carb Beschreibung: Die Studie verglich zwei Diätformen über 12 Monate und fand keinen statistisch signifikanten Unterschied im durchschnittlichen Gewichtsverlust. Originalzitat: “Weight change at 12 months was −5.3 kg for the HLF diet vs −6.0 kg for the HLC diet (mean between-group difference, 0.7 kg [95% CI, −0.2 to 1.6 kg]).”
Genotyp hatte keinen Einfluss auf den Diäterfolg Beschreibung: Die genetische Veranlagung (Low-Fat- oder Low-Carb-Genotyp) beeinflusste nicht, wie viel Gewicht die Teilnehmer verloren. Originalzitat: “There was no significant diet-genotype pattern interaction (P = .20) … This indicates that there was no significant difference in weight change among participants matched vs mismatched to their diet assignment based on their 3-SNP genotype pattern.”
Insulinsekretion hatte keinen Einfluss auf den Diäterfolg Beschreibung: Auch die Insulinantwort nach Glukosegabe (INS-30) zeigte keinen Zusammenhang mit dem Erfolg der jeweiligen Diät. Originalzitat: “Similarly, the test for interaction among diet, baseline insulin secretion (INS-30), and the 12-month time point was not statistically significant.”
Grosse individuelle Unterschiede im Gewichtsverlust Beschreibung: Unabhängig von der Diätform variierten die individuellen Ergebnisse stark – manche nahmen über 30 kg ab, andere nahmen sogar zu. Originalzitat: “There was a similar range for weight change of approximately 40 kg within each group (−30 kg to 10 kg).”
Beide Diäten führten zu Verbesserungen der Gesundheit Beschreibung: Beide Gruppen zeigten Verbesserungen bei Blutdruck, Blutzucker und Lipidwerten – mit unterschiedlichen Vorteilen je nach Diät. Originalzitat: “At 12 months relative to baseline, both diets improved lipid profiles and lowered blood pressure, insulin, and glucose levels, with the exception of low-density lipoprotein cholesterol concentrations, which increased for participants in the healthy low-carbohydrate group”
Die Hypothesen zur personalisierten Diätwahl wurden nicht bestätigt Beschreibung: Die Studie konnte nicht zeigen, dass genetische oder metabolische Marker helfen, die „richtige“ Diät für eine Person vorherzusagen. Originalzitat: “In the context of these 2 common weight loss diet approaches, neither of the 2 hypothesized predisposing factors was helpful in identifying which diet was better for whom.” DOI: 10.1001/jama.2018.0245 | Gardner CD, Trepanowski JF, et al. Effect of Low-Fat vs Low-Carbohydrate Diet on 12-Month Weight Loss in Overweight Adults and the Association With Genotype Pattern or Insulin Secretion: The DIETFITS Randomized Clinical Trial. JAMA. 2018;319(7):667-679. |
| 28. The Prospective Urban Rural Epidemiology (PURE) study is a large, epidemiological cohort study of individuals aged 35–70 years (enrolled between Jan 1, 2003, and March 31, 2013) in 18 countries with a median follow-up of 7·4 years (IQR 5·3–9·3). Dietary intake of 135 335 individuals was recorded using validated food frequency questionnaires. The primary outcomes were total mortality and major cardiovascular events (fatal cardiovascular disease, non-fatal myocardial infarction, stroke, and heart failure). Secondary outcomes were all myocardial infarctions, stroke, cardiovascular disease mortality, and non-cardiovascular disease mortality. Participants were categorised into quintiles of nutrient intake (carbohydrate, fats, and protein) based on percentage of energy provided by nutrients. We assessed the associations between consumption of carbohydrate, total fat, and each type of fat with cardiovascular disease and total mortality. We calculated hazard ratios (HRs) using a multivariable Cox frailty model with random intercepts to account for centre clustering. During follow-up, we documented 5796 deaths and 4784 major cardiovascular disease events. Higher carbohydrate intake was associated with an increased risk of total mortality (highest [quintile 5] vs lowest quintile [quintile 1] category, HR 1·28 [95% CI 1·12–1·46], ptrend=0·0001) but not with the risk of cardiovascular disease or cardiovascular disease mortality. Intake of total fat and each type of fat was associated with lower risk of total mortality (quintile 5 vs quintile 1, total fat: HR 0·77 [95% CI 0·67–0·87], ptrend<0·0001; saturated fat, HR 0·86 [0·76–0·99], ptrend=0·0088; monounsaturated fat: HR 0·81 [0·71–0·92], ptrend<0·0001; and polyunsaturated fat: HR 0·80 [0·71–0·89], ptrend<0·0001). Higher saturated fat intake was associated with lower risk of stroke (quintile 5 vs quintile 1, HR 0·79 [95% CI 0·64–0·98], ptrend=0·0498). Total fat and saturated and unsaturated fats were not significantly associated with risk of myocardial infarction or cardiovascular disease mortality. High carbohydrate intake was associated with higher risk of total mortality, whereas total fat and individual types of fat were related to lower total mortality. Total fat and types of fat were not associated with cardiovascular disease, myocardial infarction, or cardiovascular disease mortality, whereas saturated fat had an inverse association with stroke. Global dietary guidelines should be reconsidered in light of these findings. In this large prospective cohort study from 18 countries in five continents, we found that high carbohydrate intake (more than about 60% of energy) was associated with an adverse impact on total mortality and non cardiovascular disease mortality. By contrast, higher fat intake was associated with lower risk of total mortality, non-cardiovascular disease mortality, and stroke. Furthermore, higher intakes of individual types of fat were associated with lower total mortality, non cardiovascular disease mortality, and stroke risk and were not associated with risk of major cardiovascular disease events, myocardial infarction, or cardiovascular disease mortality. Our findings do not support the current recommendation to limit total fat intake to less than 30% of energy and saturated fat intake to less than 10% of energy. Individuals with high carbohydrate intake might benefit from a reduction in carbohydrate intake and increase in the consumption of fats. Moreover, in our study most participants from low-income and middle-income countries consumed a very high carbohydrate diet (at least 60% of energy), especially from refined sources (such as white rice and white bread), which have been shown to be associated with increased risk of total mortality and cardiovascular events.42 Therefore, recommending lowering carbohydrate might be particularly applicable to such settings if replacement foods from fats and protein are available and affordable. DOI: 10.1016/S0140-6736(17)32252-3 | Dehghan M, Mente A, et al. Associations of fats and carbohydrate intake with cardiovascular disease and mortality in 18 countries from five continents (Pure): a prospective cohort study. The Lancet. 2017;390(10107):2050-2062. |
| 29. In a multicenter trial in Spain, we randomly assigned participants who were at high cardiovascular risk, but with no cardiovascular disease at enrollment, to one of three diets: a Mediterranean diet supplemented with extra-virgin olive oil, a Mediterranean diet supplemented with mixed nuts, or a control diet (advice to reduce dietary fat). Participants received quarterly individual and group educational sessions and, depending on group assignment, free provision of extra-virgin olive oil, mixed nuts, or small nonfood gifts. The primary end point was the rate of major cardiovascular events (myocardial infarction, stroke, or death from cardiovascular causes). On the basis of the results of an interim analysis, the trial was stopped after a median follow-up of 4.8 years. A total of 7447 persons were enrolled (age range, 55 to 80 years); 57% were women. The two Mediterranean-diet groups had good adherence to the intervention, according to self-reported intake and biomarker analyses. A primary end-point event occurred in 288 participants. DOI: 10.1056/NEJMoa1200303 | Estruch R, Ros E, et al. Primary prevention of cardiovascular disease with a Mediterranean diet. N Engl J Med. 2013;368(14):1279-1290. Retraction in: N Engl J Med. 2018;378(25):2441-2442. |
| 30. In a multicenter trial in Spain, we assigned 7447 participants (55 to 80 years of age, 57% women) who were at high cardiovascular risk, but with no cardiovascular disease at enrollment, to one of three diets: a Mediterranean diet supplemented with extra-virgin olive oil, a Mediterranean diet supplemented with mixed nuts, or a control diet (advice to reduce dietary fat). DOI: 10.1056/NEJMoa1800389 | Estruch R, Ros E, Salas-Salvadó J, et al. Primary Prevention of Cardiovascular Disease with a Mediterranean Diet Supplemented with Extra-Virgin Olive Oil or Nuts. N Engl J Med. 2018;378(25):e34. |
| 31. Werte Table 2
Vegan 23,6, Lacto-ovo vegetarian 25,7 Pesco-vegetarian 26,3 Semi-vegetarian 27,3 Nonvegetarian 28,8 The prevalence of type 2 diabetes increased incrementally among vegans, lacto-ovo vegetarians, pesco-vegetarians, semi-vegetarians, and nonvegetarians DOI: 10.2337/dc08-1886 | Tonstad S, Butler T, et al. Type of vegetarian diet, body weight, and prevalence of type 2 diabetes. Diabetes Care. 2009;32(5):791–796. |
| 32. Those following vegan diets were younger than omnivores (mean: 36 vs. 44 years) and more likely to be females (68% vs. 52%). Vegans also had slightly lower body mass index (BMI) than omnivores (23.7 vs. 26.9 kg/m2) and were more likely to have a university education compared to omnivores (75% vs. 52%). Most vegans (97%) and omnivores (72%) reported taking one or more food supplements. DOI: 10.1038/s41598-025-03193-3 | Gudmannsdottir R, Gunnarsdottir S, et al. Vegan and omnivore diets in relation to nutrient intake and greenhouse gas emissions in Iceland. Sci Rep. 2025;15(1):18190. |
| 33. The plant-based diet group reported a higher rate of physical activity than the omnivorous group (p=0.01). The mean BMI was significantly lower in the plant-based diet group than in the omnivorous group and the prevalence of overweight and obesity was significantly higher in the omnivorous than in the plant-based group (p=0.001). DOI: 10.1136/bmjnph-2023-000629 | Acosta-Navarro JC, Dias LF, et al. Vegetarian and plant-based diets associated with lower incidence of COVID-19. BMJ Nutr Prev Health. 2024;7(1):4-13. |
| 34. When including only obese individuals (BMI ≥ 30 kg/m2, n = 153) in the analysis, we observed lower concentrations of GGT and ferritin in vegetarians than in omnivores, regardless of gender and menstrual blood loss (p = 0.0395). Our data showed that for both vegetarians and omnivores, the higher the BMI, the worse the metabolic parameters. However, regarding obesity, vegetarians showed better antioxidant status (lower GGT elevation) and lower inflammatory status (lower ferritin elevation), which may provide them with potential protection in the development of morbidities associated with overweight. DOI: 10.3390/nu14112204 | Slywitch E, Savalli C, et al. Obese Vegetarians and Omnivores Show Different Metabolic Changes: Analysis of 1340 Individuals. Nutrients. 2022;14(11):2204. |
| 35. Zur Kritik an schematischer Checklisten-Medizin: “Inexperienced clinicians may (partly through fear of litigation) engage mechanically and defensively with decision support technologies, stifling the development of a more nuanced clinical expertise that embraces accumulated practical experience, tolerance of uncertainty, and the ability to apply practical and ethical judgment in a unique case.” “Templates and point of care prompts also contribute to the creeping managerialism and politicisation of clinical practice.” “As the language of EBM becomes ever more embedded in medical practice, and as bureaucratic rules become the accepted way to implement ‘the best’ evidence, its requirements for evidence are quietly attenuated in favour of an emphasis on rules.”
Zur Ignoranz gegenüber realer Komplexität: “Evidence based guidelines often map poorly to complex multimorbidity.” “Multimorbidity (a single condition only in name) affects every person differently and seems to defy efforts to produce or apply objective scores, metrics, interventions, or guidelines.” “As serious illness is lived, evidence based guidelines may become irrelevant, absurd, or even harmful (most obviously, in terminal illness).” But others argued that evidence based medicine, if practised knowledgably and compassionately, could accommodate basic scientific principles, the subtleties of clinical judgment, and the patient’s clinical and personal idiosyncrasies. DOI: 10.1136/bmj.g3725 | Greenhalgh T, Howick J, Maskrey N. Evidence-based medicine: a movement in crisis? BMJ. 2014;348:g3725. |
| 36. | Farooqi IS, Xu Y. Translational potential of mouse models of human metabolic disease. Cell. 2024;187(16):4129-4143. |
| 37. | de Ligt M, Bergman M, et al. No effect of resveratrol supplementation after 6 months on insulin sensitivity in overweight adults: a randomized trial. Am J Clin Nutr. 2020;112(4):1029-1038. |
| 38. | Kearns CE, Schmidt LA, Glantz SA. Sugar Industry and Coronary Heart Disease Research: A Historical Analysis of Internal Industry Documents. JAMA Intern Med. 2016;176(11):1680-1685. Erratum in: JAMA Intern Med. 2016;176(11):1729. |
| 39. | López-Moreno M, Fresán U, et al. Industry study sponsorship and conflicts of interest on the effect of unprocessed red meat on cardiovascular disease risk: a systematic review of clinical trials. Am J Clin Nutr. 2025;121(6):1246-1257. |
| 40. | Begley CG, Ellis LM. Drug development: Raise standards for preclinical cancer research. Nature. 2012;483(7391):531-533. |
| 41. | Tong TYN, Appleby PN, et al. Risks of ischaemic heart disease and stroke in meat eaters, fish eaters, and vegetarians over 18 years of follow-up: results from the prospective EPIC-Oxford study. BMJ. 2019;366:l4897. |
| 42. There was no significant difference in overall (all-cause) mortality between the diet groups: HRs in low meat eaters, fish eaters, and vegetarians compared with regular meat eaters were 0.93 (95% CI: 0.86, 1.00), 0.96 (95% CI: 0.86, 1.06), and 1.02 (95% CI: 0.94, 1.10), respectively; P-heterogeneity of risks = 0.082. DOI: 10.3945/ajcn.115.119461 | Appleby PN, Crowe FL, et al. Mortality in vegetarians and comparable nonvegetarians in the United Kingdom. Am J Clin Nutr. 2016;103(1):218-230. |
| 43. | Key TJ, Papier K, Tong TYN. Plant-based diets and long-term health: findings from the EPIC-Oxford study. Proc Nutr Soc. 2022;81(2):190-198. |
| 44. | O’Regan BA, Hirshberg C. Spontaneous Remission: An Annotated Bibliography. Sausalito (CA): Institute of Noetic Sciences; 1993 [Internet]. |
| 45. | Jessy T. Immunity over inability: The spontaneous regression of cancer. J Nat Sci Biol Med. 2011;2(1):43-49. |
| 46. | Papac RJ. Spontaneous regression of cancer: possible mechanisms. In Vivo. 1998;12(6):571-578. |
| 47. | Conley BA, Staudt L, et al. The Exceptional Responders Initiative: Feasibility of a National Cancer Institute Pilot Study. J Natl Cancer Inst. 2021;113(1):27-37. |
| 48. | Heim ME. Spontanremissionen bei Krebs. Erfahrungsheilkunde. 2002;51(4):236–241. |
| 49. | Wasserstein RL, Lazar NA. The asa statement on p-values: context, process, and purpose. The American Statistician. 2016;70(2):129–133. |
| 50. | Simmons J, Nelson L, Simonsohn U. False-positive psychology: Undisclosed flexibility in data collection and analysis allow presenting anything as significant. Psychological Science 2011;22(11):1359–1366. |
| 51. | Simonsohn U, Nelson LD, Simmons JP. P-curve: A key to the file-drawer. Journal of Experimental Psychology: General. 2014;143(2):534–547. |
| 52. | Davis G, Jacobson H. Proteinaholic: wie unsere Fleischsucht uns umbringt und was wir dagegen tun können. 1. deutsche Auflage. Kandern: Unimedica; 2016. 429 S. |
Kommentare