Idler: Literatur: intelligente Statistiken

Beitrag lesen

Hi,

könnt Ihr mir Seiten oder Bücher für Programmierer empfehlen, wo die Herangehensweise an folgende Problematik im Allgemeinen besprochen wird:
Es geht darum, anhand diverser Faktoren, die im Voraus bekannt sind und andere, welche sich erst später herausstellen werden, wonach beurteilt wird, ob etwas effizient war oder nicht, festzustellen, welche Gewichtung welchem Faktor zukommen sollte, damit das (Prognose)Verfahren am "besten" ist.
Denke mal, es wird verschiedene Ansätze geben, die unterschiedlich aufwändig sind. Habe auch schon die ein oder andere Idee, wie ich herangehen würde. Aber eine Übersicht oder eine Einführung durch einen Profi (Buch, Tutorial) fände ich nicht schlecht.
Habe sehr sehr viele Zahlen und Statistiken zur Hand bzw. in digitaler Form, die nur auf eine Auswertung warten. Nun kann ich jedem der Faktoren ein unterschiedliches Grad an Wichtigkeit zuweisen und anschließend wird die Schätzung mit den tatsächlichen Ergebnissen, die auch erfasst worden sind, verglichen. Daraus erhalte ich dann eine Prozentzahl, wie gut die Schätzung an die Realität rankommt.
Natürlich könnte ich nun wie beim Brute-Force alle Möglichkeiten der Faktorengewichtung durchtesten, aber es gibt sicherlich auch "bessere" Methoden, auf die beste Lösung zu kommen, oder?

Wäre nett, wenn ihr mir zumindest sagen könntet, wie die Methoden sich nennen, nach denen ich suche. Mir fehlt der Suchbegriff, sorry...

Danke!