Moin!
Wenn dein Server mit 2 Seiten pro Sekunde nicht klarkommt, hast du ein ganz anderes Problem, und vermutlich liegt es auch ganz woanders.
Das ist ein ganz guter Server mit 64 Bit Technik (opteron 148) und 2GB Ram. Da läuft wiki-Software auf dem Server und weiter nichts.
Nun ja, die Wikipedia hat mittlerweile ja ein riesiges Serverarray hingestellt und trotzdem Performanceprobleme.
Was passiert alles, wenn eine Seite ausgegeben werden muß? Skripte? Datenbankabfragen? Benutzen die den Index?
Die Daten werden mit PHP aus einer MySQL Datenbank genommen.
Du hast Recht - es liegt irgendwo anderes. Das kann nicht sein, dass der Server keine 2 Anfragen pro Sekunde aushält...
Wo soll ich nur anfangen?
Zunächst solltest du deine Softwaredoku konsultieren und hinsichtlich eventueller Performancesteigerungen durchsehen. Kann man ein Caching aktivieren? Kann man die Datenbank optimieren? Hat die überhaupt die richtigen Indices verpaßt bekommen?
Auch der Apache könnte hinsichtlich der Performance hilfreiche Zusatzinformationen an die Clients senden, also beispielsweise explizit Caching (für eine kürzere Zeit) erlauben - das spart dann Requests ein. Dazu gibts von Christian Kruse auch einen Artikel.
Wenn das alles noch nicht fruchtet, hast du leider das Problem, dass du in die interne Programmierung deines Wikis einsteigen mußt, um analysieren zu können, welche Programmteile viel Zeit verbrauchen, und wie man diese Teile optimieren könnte.
Eventuell ist bei deiner Leistungsanforderung PHP einfach nicht die richtige Sprache, und es wird Programmierung in C erforderlich. Oder die Datenbank ist dem Ansturm nicht gewachsen, weil extrem viele recht unnötige Querys gemacht werden, nur um inhaltlich unbedeutende Statistikinformationen zu gewinnen.
- Sven Rautenberg
My sssignature, my preciousssss!