Dieses Blog durchsuchen

Freitag, 23. September 2016

Warum Wissenschaft meistens irrt (1)

Der bei weitem überwiegende Anteil an publizierten "Forschungsergebnissen" ist ... FALSCH. Ganz einfach. Falsch, und nicht wissenschaftlich korrekt. Das zeigt das Video auf eindrückliche Weise. Ein Umstand, der jedem Menschen mit Hausverstand und ein wenig umsichtigem Blick und Alltagserfahrung ohnehin (zumindest als dunkles Gefühl) klar ist, hat mit der statistischen bzw. wissenschaftlichen Methode zu tun, die von "positiven Beweisen" ausgeht. Diese sind aber gar nicht möglich, es sei denn erhärtbar: durch Praxiserprobung. 

Mit statistischen Korrelationsrechnungen können Zusammenhänge immer nur zwischen wenigen (zwei) ausgewählten Parametern ermittelt werden. Doch diese Zusammenhänge enthalten nicht nur bereits eine Hypothese, sondern sie berücksichtigen nicht die Fülle der empirischen, tatsächlichen Einflüsse und Zusammenhänge, die immer bestehen. Denn isolierte physikalische Faktoren, die selbst bereits wieder eine Hypothese bedeuten, kommen in der Wirklichkeit nicht vor. Diese ist immer weit komplexer. Doch das entzieht sich dieser Methode der Verifizierung. Die bei weitem meisten der wissenschaftlichen Aussagen aber - schon gar, die publiziert werden - gehen von positiven Beweisen aus. Ein statistischer "Wahrscheinlichkeitswert" hat aber keinerlei Beweiskraft und keinen wissenschaftlichen Aussagewert. Er kann höchstens die ganz subjektive Gewißheit eines Forschers erhöhen. Ihn der Bevölkerung aber als wissenschaftliche Erkenntnis zu servieren ist in jedem Fall unverantwortlich.

Eine positive Hypothese läßt sich nur erproben, um bewiesen zu werden, schreibt deshalb William M. Briggs auf seiner Seite, auf der er das Video kommentiert. Dadurch erhöht sich ihre (wissenschaftliche) Plausibilität. Wenn man behauptet, daß wenn X ist, müsse auch Y sein, läßt sich nicht wissenschaftlich oder mathematisch "beweisen". Es kann reiner Zufall sein, selbst wenn es gehäuft auftritt, weil eine Fülle von unbeachteten Zusatzfaktoren oder diese in genau dieser Kombination Ursache für Y sein können. Deshalb ist es auch ohne jede Aussage, wie groß das Sample (die Zahl der Daten bzw. Beispiele) ist. Die statistische Signifikanz als Evidenz wird dadurch nicht höher - das passiert nur auf dem Papier. Das passiert nur als Illusion von Gewißheitsnähe. Es beeinflußt aber vor allem schon die Datenauswahl selbst, die später Evidenzen liefern soll, weil es immer strenger (in einem selbst-verstärkenden Prozeß) selektiert.

Das Video bringt das Beispiel der Behauptung, daß Schokolade den Prozeß des Abnehmens beschleunige. Eine Behauptung, die im Versuch scheinbar tatsächlich "bewiesen" und deshalb von allen möglichen Medien weltweit publiziert wurde. Aber diese Aussage ist überhaupt nicht wissenschaftlich! Denn es gibt eine fast nicht zählbare Menge von Zusammenhängen und Daten, die ebenfalls für Abnehmeprozesse relevant sein können. Als kleine Auswahl sind da etwa die Schlafdauer, die Entspannungswirkung der Nachtruhe - die mit Schokolade vergrößert worden sein könnte. Oder die Gegebenheiten des Blutes, die durch die Schokolade verbessert worden sein könnten. Etc. etc. etc. Die Faktoren und deren Kombinationen sind fast nicht eingrenzbar. Die statistische Wahrscheinlichkeit wird dadurch aber exponentiell (progressiv wie degressiv) beeinflußt.

Dadurch ist die Geschichte von Thesen, die "statistisch hoch wahrscheinlich" - aber falsch waren, fast unendlich. Der Physiker und Mathematiker Briggs kämpft deshalb seit vielen Jahren gegen die Ausbreitung von Mathematik und Wahrscheinlichkeitsberechnungen als wissenschaftlichen Evidenzbeweis, der die Richtung weiterer Forschungen bestimmt. Denn das bedeutet auch eine enorme Verschwendung von Ressourcen, nicht zuletzt von Geld, und vor allem: es verwirrt die Menschen und deren Weltbild.

Umgekehrt nämlich kann natürlich eine These richtig sein, selbst wenn es nur ein Sample gibt, und selbst wenn eine Gegenthese behauptet, daß das nicht ginge, weil Faktor Z wirke. Diesen (immer aber: eingeschränkten) Beweis kann aber nur die Erprobung stärken. 

Dies alles hat mit einem Wissenschaftsbegriff zu tun, der selbst bereits eine weltanschauliche Vorentscheidung ist, und von einer Wissenschaft ausgeht, die sich aus sich selbst zu "Wissen" verdichten könnte. Das kann aber gar nicht der Fall sein, und darüber täuschen die scheinbar so objektiven Methoden (Mathematik) gefährlich hinweg. An dieser Stelle deshalb noch einmal der Verweis auf Gödel, der mathematisch nachwies, daß sich Mathematik niemals aus sich selbst konstituieren kann, sondern von Prämissen ausgeht, die weltanschauliche Vorentscheidung bedeuten.

Daten können eben nie "für sich" sprechen. Sie müssen immer interpretiert werden. Im Video sind Beispiele, wie ein- und dieselbe Datenmenge nach anerkannten statistischen Methoden analysiert zu komplett widersprüchlichen Ergebnissen - "Beweisen", Evidenzen - führen, abhängig von den Forschern. Alle aber werden "wissenschaftlich" genannt.

Es hilft auch nichts, wenn man nun den Konsens einführt, der diese wissenschaftlichen Ergebnisse nach Relevanz reiht und dessen Urteil dann quasi besagen könnte, was in diesen Widersprüchlichkeiten wissenschaftlich richtig oder falsch ist. Denn hier treten genau dieselben subjektiven Anschauungsfaktoren und Interessenssteuerungen in Kraft, ja verstärken sich durch massenpsychologische Faktoren. Kein Konsens sagt deshalb etwas über die Richtigkeit einer "bewiesenen" Aussage aus, als wissenschaftliche Methode ist er unbrauchbar. Ganz besonders gefährlich ist sogar der Umstand, daß die Laufbahn von Wissenschaftlern, ja ihre gesamte Existenz direkt und praktisch immer von ihrer Akzeptanz durch "die Wissenschaft" (als Summe von Wissenschaftlern, mit einer herrschenden Meinung) abhängt. 


Morgen Teil 2)  Wie Medien die Wissenschaft beeinflussen + Das Video Fußnoten.
- Was alleine Objektivität begründen kann und ist - ist die Wahrheit selbst
- Was die wahre Menschheitskatastrophe ist



*170816*