Hallo Ihr !
Ich bin PERL-Neuling und habe grade ein kleines Programm für eine interaktive Linksammlung geschrieben. Nun versuche ich, das Skript - wenn möglich - zu optimieren, da ich annehme, dass bei steigender Datenmenge die Antwortzeit sich immer mehr verlängern wird (aufgrund der immer länger werdenen Linkdatei, die ich immer ganz auslesen und jede Zeile splitten muss).
Nun meine Frage: Gibt es Abfragen, etc. die schneller verarbeitet werden als andere?
Gibts sonst irgendwas anzumerken, was das System und die Datenübertragung zum Browser bremst? Jede Anregung ist gerne willkommen.
Hm, also wie ich das verstehe, soll das Script vielleicht einmal am Tag nur aufgerufen werden, und muss dann mehere MB an Daten bearbeiten.
Also, dafür solltest du das Ding vielleicht mit Fork und meheren Kindprozessen programmieren. Dann kann das Ding mehere Datensätze gleichzeigt machen, und kann so schneller sein.
Versuche allen unnötigen Code wegzulassen, wie z. B. Zusatzmodule.
Vielleicht bringt auch FastCGI etwas. Das ist ne CGI-Erweiterung, die eigendlich meistens dann verwendet wird, wenn Scripte oft aufgerufen werden. Da hat man ohne weiteres bis zu 1000% Leistungszuwachs.
Mod_Perl könnte auch was bringen, da es CGIs vorkompiliert im Speicher hält. Du musst dann halt sauber programmieren.