huhu,
es geht ja nicht um die zeit, die perl benötigt, das ist schnell genug, es geht um den speicher, den jeder prozess frißt.
momentan sind es ca 17mb pro prozess und das scheint mir zu viel.
ich hab mehrere scripte umgeschrieben und module daraus gebastelt, das ganze etwas objektorientierter gestaltet. aber ein richtiger vorteil (bis auf die wartbarkeit) ist noch nicht rausgesprungen.
wahrscheinlich muß man in sachen speichereffizienz an anderen schrauben drehen als am code, aber ich schau gerne nochmal drüber.
danke trotzdem
alex
am meisten gewinn würde ich wohl machen, wenn ich für jeden prozess nicht immer perl starten müsste, kann man perl nicht irgendwie als daemon laufen lassen (ich meine nicht, dass ich nen skript als daemon laufen lasse, welches die neuen prozesse forkt)
Wieviel Gewinn erwartest du denn da?
Hast du mal versucht die Zeit zu messen, die der Perl Interpreter braucht um zu starten? auf einen normalen Rechner dürfte dir das kaum gelingen, da es sich um Bruchteile ener Sekunde handelt.
Speicherprobleme unter Perl treten in der Regel nur auf, wenn du massiv merhere MB an Daten im Speicher hälst, wenn du nicht musst, dann solltest du sowas vermeiden.
Struppi.