Bin für alle Meinungen zu dem Thema dankbar.
Naja,
ich hatte auch mal so meine Bedenken... ein PERL/CGI-Script sollte 15 verschiedene Verzeichnisse dynamisch browsen, dass heisst, je nach Übergabeparameter sollte das Script in einer (von 15) bestimmten Directory alle HTML-Files mit dem "TITLE und Erstellungsdatum als Link" auflisten.
Das Scrpit sah am Ende so aus:
Alle ".htm"-Files in der als Parameter übergebenen Dir werden samt Pfadangabe auf ein Array gelesen.
In einer FOR-Schleife ruft dann jedes Element des Arrays die Funktion (liestitel) auf, die die jeweilige HTML-Datei öffnet, den TITLEtag rausliest und wieder schließt. Eine weitere Funktion (liesdat) ermittelt das Erstellungsdatum. Print schickt dann den in dieser FOR-Schleife zusammengesetzten String "a href=..." zum Browser.
Als ich dieses Script das erste Mal auf meinem HOME-PC testete zerlegte sich meine Stirn in Falten <g>...
... aber als das Teil dann auf dem richtigen Server lief - waow, da ging die Post ab!
Will damit nur sagen, dass bei CGIs, die ja auf dem Server ablaufen - die Performanze in erster Linie von den Hardwarekonditionen (sprich CPU, RAM ... ) des Servers bestimmt wird. Die hat mit PERL (= Scripte die zur Laufzeit interpretiert werden) eigenlich weniger zu tun: auch EXE-Files können langsam sein --- ist das vielleicht der Hintergrund Deiner Frage?
RadlerWadeln grüßen ;-) Rolf