Michael Schröpl: CGI-Skripts beschleunigen - geht das ?

Beitrag lesen

Ueber welche Groessenordnung redest du denn?
Wenn du bei Datenmengen zwischen Nullkommairgendwas und ein paar Megabyte rumkratzt, lass man gut sein, das kriegt er ohne jede Probleme gebacken...

Für die meisten Fälle ist diese Aussage ausreichend.

Allgemein kommt es darauf an, was Du mit den Daten anfangen willst, d. h. in welcher Komplexitätsklasse Deine Operationen sind.
Beispiele:

  • Daten linear verarbeiten -> O(n), d. h. bei doppelter Datenmenge wird die Verarbeitungsdauer doppelt so hoch sein.
  • Daten "trivial" sortieren (bubblesort) -> O(n^2), d. h. bei doppelter Datenmenge wird die Verarbeitungsdauer ungeheuer explodieren, nämlich quadratisch ansteigen. (Gute Sortierverfahren sortieren mit O(n*log(n)).

Außerdem ist CPU-Zeit nicht das einzige "enge" Gut - es gibt ja auch noch Hauptspeicher. Und oft kann man die eine Ressource mit der anderen kompensieren, d. h. Berechnungen durch Anlegen zusätzlicher Datenstrukturen beschleunigen usw. (Datenbanken und deren Indexbäume)