Hallo !
Ein paaar Richtlinien gibt's schon
Algorithmik
Strings
-------
Stringverarbeitung ist immer teuer.
Möglichst keine "Bubblesorts" - werden gerne implizit benutzt:
"Wir haben 1000 Worte in einem String und durchsuchen jedes einzeln manuell nach einer bestimmten Zeichenfolge." ;-(
Sowas machen Datenbanken oder Bibliotheken meistens besser.
Wenn ein String einmal parsed wurde nicht nochmal kopieren und erneut parsen. Passiert zum Beispiel wenn man XML Daten in einem Puffer haelt und immer wieder neu in einen Parser lädt.
Wenn eine Applikation eine gute Kapselung einzelner Module aufweist kann genau die dazu führen dass Parsing ( XML-Verarbeitung oder Reguläre Ausdrücke ) mehrfach passiert.
Schleifen
---------
Welche Schleife wird am häufigsten durchlaufen?
Die sollte man zuerst optimieren.
I/O
Egal obs Datenbanken, normale Dateien oder der Ausgabestream ist:
Alles in möglichst grossen Blöcken erledigen und Verbindungen und Handles möglichst mehrfach nutzen.
Eine Datenbankverbindung würde ich immer zumindest in der Sitzung vorhalten, ob das mittlerweile bei PHP wie unter IIS/Javascript auch ein Appliaktionsobjekt gibt weiss ich nicht. Wenns das gibt am besten sogar dort, sofern dies nicht dem Sicherheitskonzept wiederspricht.
Dateien im Textmodus zu lesen wenn man's nicht zeilenweise braucht ist oft sinnlos, binär geht's oft um ein Vielfaches schneller.
Caching ist sehr schwierig zu implemntieren aber manchmal muss es sein. Aber das ist eine Sysiphus-Arbeit !
________________
Viel Erfolg !
H.
P.S.: Wenn XML dabei ein Thema ist, hätte ich noch ein paar Tricks
auf Lager.