hallo welt!
noch immer arbeite ich an ner spider-suchmaschine und nun bleibt mir nur noch die möglichkeit, das script nochmal zu ändern, um seine ausführungsgeschwindigkeit zu verbessern, denn die große aller zu durchsuchenden dateien beträgt fast 8 MB ! :-(
nun ist zuerst mal die frage, ob es reichen könnte, manche andere befehle zu nutzen, welche evt schneller sind anstelle dieser:
opendir, readdir, array_merge, fgets, preg_replace, preg_match, preg_replace, str_replace ?
hab auch gehört, dass man diesen teil ersetzen sollte:
if (eregi("^.{1,2}$",$file))
{
continue;
}
dann wäre noch interessant, zu wissen, ob es sich rentiert, z.b. immer nach nem bestimmten string (im letzten viertel der jeweils ca 11 kb großen dateien) den rest "abzuschneiden",um somit den string zu verkleinern, der durchsucht werden soll.
oder macht dies das script noch zeit-aufwändiger...?
falls all dies nicht weiterhilft, bleibt mir nichts übrig, als alle dateien in einen einzigen(!) string zu schreiben, und danach nur EINmal den scriptteil auszuführen, welcher nach nem string sucht...
angeblich ist dies rentabel im bezug auf zeit...
wie stehts damit?
danke für Eure hilfe