Hi,
ich habe mehrere Millionendaten und möchte gerne im <Vorab berechnen wie lange das Programm ca. rechnen wird.
Mein derzeitiger Algorithmus läuft im O(n^2) kann mir jemand sagen wie ich diese Abschätzung im ungefähren in eine reale Zeitangabe umrechnen kann?
Ich habe das Programm auf einem PC mit durchschnitlicher leistung.
Dann wird es wohl durchschnittlich lange laufen.
Ohne weitere Daten kann man da gar nichts sagen.
Wie lange dauert die Initialisierung des Programms?
Wie lange dauert die Nachbearbeitung des Programms?
Wie lange braucht das Programm für die eigentliche Berechnung (also ohne Initialisierung/Nachbearbeitung) für 1000/10000 Daten?
Wenn Du diese Zeiten hast, kann man hochrechnen.
Wenn's für 1000 Daten x Sekunden dauert, wird's für 1000000 mindestens ca. 1000000 mal solange dauern (es sind 1000mal soviele Daten, bei O(n²) also 1000000 mal so viel Rechenzeit.
Mindestens deshalb, weil bei großen Datenmengen natürlich noch zusätzliche Effekte auftreten können (RAM reicht nicht mehr, so daß geswapped werden muß; ...)
cu,
Andreas
Warum nennt sich Andreas hier MudGuard?
O o ostern ...
Fachfragen per Mail sind frech, werden ignoriert. Das Forum existiert.