Moin,
ich habe eine kleine Routine, welche ein Verzeichnis mit ca. 120.000 Dateien durchsucht und prüft ob die Dateinamen noch in der DB gespeichert sind.
Das Script läuft über 1 Stunde, was bei der Datenmenge nicht verwunderlich ist. Allerdings glaube ich, das man vielleicht die Routine noch optimieren könnte.
Habt Ihr vielleicht Verbesserungsvorschläge, welche sich auf die Laufzeit auswirken?
while ( $file = readdir ($hDir) )
{
if ( ($file != ".") && ($file != "..") )
{
$strSQL="select count(*) as Found from tbl_images WHERE file_name='".$file."'";
$hErgebnis = @mssql_query($strSQL, $hVerbindung);
$result0 = mssql_fetch_array($hErgebnis);
$Found = $result0['Found'] ;
if ( $Found == 0 )
{
$File_Path=sprintf("./../data/cia_images/%s",$file);
@unlink($File_Path);
}
}
}
Danke & regds
Mike©
Freunde kommen und gehen. Feinde sammeln sich an.