Schwarzes Hamburg > Gedankenaustausch

Big Data und die Erkenntnistheorie

(1/1)

RaoulDuke:

--- Zitat von: Greifenweib am 28 Juni 2013, 11:21:33 ---Big Data war schon Thema auf Arbeit, ist im Moment sehr in, da mittlerweile die technischen Mittel bereitstehen, diese Daten auch auszuwerten.
--- Ende Zitat ---

In meinem beruflichen Umfeld flammte auch noch eine ganz interessante Big Data-These auf - und zwar aus dem Bereich der Erkenntnistheorie. Die Stoßrichtung fasst ein Artikel aus "Wired" ganz gut zusammen: The End of Theory: The Data Deluge Makes the Scientific Method Obsolete

Zusammengefasst lautet die Hypothese, dass die bisher akzeptierte Methode zur Erlangung von Erkenntnissen, nämlich dass die Ableitung einer als Hypothese formulierten prospektiven Erkenntnis aus der Theorie zunächst zu erfolgen habe, um diese anschließen mittels statistischer Methoden auf ihre Aussagekraft untersuchen zu können, Konkurrenz bekommt von einer Ableitung von Erkenntnissen direkt aus den Daten. Greifenweib deutete schon an, dass sich manche Menschen um die theoretische Berechenbarkeit des Kurses eines Wertpapiers in der Zukunft Gedanken machen, und auch glauben, dies erreichen zu können, nur sei die Zeit der Auswertung zu lang, als dass man einen Nutzen davon haben könne. Die Nutzbarkeit ist aus meiner Sicht gar nicht das interessante Kriterium - sie lässt sich vielleicht mittels noch schnellerer Computer herstellen. Das interessante ist das implizite Akzeptieren einer neuen Methode zur Erlangung von Erkenntnissen, die von theoretisch abgeleiteten Kausalitäten abstrahiert, sondern direkt aus den Daten beobachtet. Damit gäbe es dann neben deskriptiver und induktiver Statistik noch (irgendeinen Namen muss das Kind ja bekommen) noch so etwas wie eine kausale Statistik.

Wie heisst es im Wired-Artikel so schön?

---

Scientists are trained to recognize that correlation is not causation, that no conclusions should be drawn simply on the basis of correlation between X and Y (it could just be a coincidence). Instead, you must understand the underlying mechanisms that connect the two. Once you have a model, you can connect the data sets with confidence. Data without a model is just noise.
 
But faced with massive data, this approach to science — hypothesize, model, test — is becoming obsolete. Consider physics: Newtonian models were crude approximations of the truth (wrong at the atomic level, but still useful). A hundred years ago, statistically based quantum mechanics offered a better picture — but quantum mechanics is yet another model, and as such it, too, is flawed, no doubt a caricature of a more complex underlying reality. The reason physics has drifted into theoretical speculation about n-dimensional grand unified models over the past few decades (the "beautiful story" phase of a discipline starved of data) is that we don't know how to run the experiments that would falsify the hypotheses — the energies are too high, the accelerators too expensive, and so on.
 
[...]
 
There is now a better way. Petabytes allow us to say: "Correlation is enough." We can stop looking for models. We can analyze the data without hypotheses about what it might show. We can throw the numbers into the biggest computing clusters the world has ever seen and let statistical algorithms find patterns where science cannot.

---

Also vielleicht gehören solche Gedanken in ein Philosophie-Forum - aber mich überzeugt diese These überhaupt nicht, zum einen weil sie selbst nur eine Hypothese darstellt, die noch nicht zur Erkenntnis gewandelt wurde, zum anderen, weil ich "finding patterns" an sich gar nicht für Wissenschaft halten würde. Mein Hintertürchen: Sobald Greifenweib mit einem perfekt vorausberechneten Wertpapierkurs um die Ecke kommt, und sei es erst ex post berechnet auf Basis von ex ante-Daten, bin ich umgestimmt. Aber warum?

colourize:
Naja... die von Dir als beschriebene Methode der Deduktion (sprich: aus allgemeinen Gesetzmäßigkeiten Aussagen für den Einzelfall ableiten, die dann im Rahmen einer Hypothesenüberprüfung empirisch getestet werden) ist schon seit langem nicht die einzige der möglichen Wege, zu Erkenntnis zu gelangen. Ebenso ist die Induktion ein von Vielen vertretenes erkenntnistheoretisches Paradigma, und mathematisch-statistische Verfahren zur Mustererkennung aus größeren Datensätzen gibt es seit längerem (z.B. die Faktorenanalyse, aber auch andere sog. "Strukturentdeckende Verfahren".

Wenn nun mehr Daten zur Analyse zur Verfügung stehen, erwächst daraus also kein neues erkenntnistheoretisches Programm. Lediglich die Anwendung der induktiven Methode wird vielleicht ein Stückweit attraktiver.

Btw. kann es aus wissenschaftstheoretischer Sicht keine "kausale Statistik" geben. Mit statistischen Methoden können nur Zusammenhänge aufgezeigt werden, keine Kausalitäten.

Navigation

[0] Themen-Index

Zur normalen Ansicht wechseln