Gräbt Big Data historische Ökonomen aus?

Im 19. Jahrhundert versuchte sich die Historische Schule der Nationalökonomie an einem Sonderweg, an einer Alternative zur englisch geprägten “Klassik”. Und gingen damit sang- und klanglos unter. Wilhelm Roscher, Bruno Hildebrand und Karl Knies waren der Meinung, dass es in der Volkswirtschaft nicht einige schöne und klare Formeln gibt, die immer und überall funktionieren. Sondern dass es darauf ankommt, in welcher Kultur und in welcher Situation man das betrachtet. Was an einer Stelle stimmt, kann an anderer Stelle falsch sein. Also schauten sie sich das im Detail an, in einzelnen Kulturen, zu unterschiedlichen Epochen, und sammelten so eine Unmenge an Einzelerkenntnissen.

Nur: Die schicken, eindeutigen Formeln von David Ricardo bis Alfred Marshall waren viel leichter zu vermarkten. Schnörkellose Theorien, mit universellem Anspruch, die überall galten. Und so ist die Volkswirtschaftslehre heute die der angelsächsischem Klassik, zuzüglich einiger in neuerer Zeit hinzugefügter schicker Formeln. Kritiker wie der Wirtschaftshistoriker Henry Spiegel zerreißen die Historische Schule in der Luft und meinen, mit dieser ganzen Sammlung von Einzelfällen könne man überhaupt keine Maßnahmen planen und außerdem läge dieser Sonderweg nur daran, dass die Deutschen die Aufklärung nicht richtig mitgemacht hätten.

Image

Aber mit dem Einzug von Big Data Ansätzen könnten Ideen vergleichbar denen der historischen Ökonomen eine ungeahnte Renaissance erleben. Und wir könnten vergleichbare Wechsel in der Vorgehensweise auch in anderen Feldern erleben.

Doch wieso waren die historischen Ökonomen eigentlich eine Sackgasse? Der Kernvorwurf an Ansätze wie dem der Historischen Schule ist, dass ihre Erkenntnisse nur “anekdotischen Charakter” hätten, sie würden eben Stories und Daten zu Einzelfällen sammeln, aber das würde wissenschaftlich nichts aussagen. Eine wissenschaftliche Aussage muss überall zum selben Ergebnis kommen, sonst stimmt eben die Aussage nicht. Und so kommt man dann zu einer eindeutigen, schönen Formel, die überall gilt. Und das lässt sich leichter lehren, Politikern und anderen Entscheidern an die Hand geben. Und wenn irgendwas nicht funktioniert … nun, dann hat jemand eben die Formel noch nicht verstanden. Und was man nicht auf diese Weise verkaufen kann, ist eben eine Sackgasse.

Nur steckt dahinter auch ein Problem der Komplexitätsreduktion. Wenn die Erkenntnis auf Hunderttausenden von Einzelfällen beruht, die jedes Mal einzigartig sind, und ich als Entscheider will jetzt wissen, was ich in einer volkswirtschaftlichen Frage tun soll, wie soll ich mich in diesem ganzen Wust zurecht finden? Woher soll ich wissen was passt? Da habe ich doch lieber eine klare Ansage mit einer überall anerkannten Formel.

Und hier kommen jetzt die Big Data Ansätze und ihre Vettern aus dem Bereich „Social“ ins Spiel. Die brillieren nämlich gerade darin, Unmengen an Daten, Ereignissen, „Anekdoten“ etc. verarbeiten zu können und in Sekundenschnelle die Passung von Mustern zu überprüfen. Je ausgefeilter die Analysemethoden werden, je besser das mit Dingen wie Recommendation verknüpft wird, desto eher kann ich mit der Summe an Einzelfällen mehr anfangen als mit der zwangsgleichgeschalteten Einheitlichkeit einer Standarderkenntnis. Das heißt: würde man jahrzehntelange Sammlungen von Anekdoten einer Historischen Schule in ein passend aufgebautes Big Data System stecken, könnte das mir potentiell sagen, welche Muster mit denen ich gerade konfrontiert bin, an anderen Stellen dieser Welt schon einmal aufgetreten ist. Und welche Lösung funktioniert hat und welche eben nicht. Und dieser Lösungsansatz wäre dann sicherlich treffgenauer als das, was die Standardtheorie auswirft.

Wir sehen den selben Zusammenhang auch in anderen Feldern, wie z.B. der Medizin. Auch da wird manchen Heilungsmethoden immer wieder vorgeworfen, dass ihre Erfolge „anekdotischer“ Natur wären, sprich sie funktionieren manchmal erstaunlich gut und in anderen Fällen gar nicht. Im Schnitt dann gar nicht. Aber was interessiert mich der Schnitt, wenn ich derjenige bin, bei dem es funktioniert? Und so versucht man auch dort mit bewährten Standardverfahren orientiert an einem Durchschnittsmenschen zu arbeiten. Einfach weil der Grad an Verschiedenheit für das medizinische System bisher nicht zu verarbeiten war. Bisher. Denn der Weg zur individualisierten Medizin beginnt damit, den Einzelfall als wertvoll zu erkennen. Das eben die Summe der Erkenntnisse aller Einzelfälle einen Schatz birgt und nicht dasselbe ist wie der Schnitt aller Einzelfälle.