die erwähnung der abbrüche bezieht sich nur auf die großen datein wenn man sie mit readfile/file_get_contents einliest. das der speicher nicht mehr freigegeben wird ist dabei größenunabhängig und eben dieses problem will ich lösen.
auf die frage wieso die datein solche größen annehmen können sollen:
ein filemanager mit zugriffsschutz, jeder dateizugriff wird protokoliert und nur sofern die notwendigen rechte vorhanden sind zum auslesen (download) erlaubt. (auf internet/intranet ebene)
selbst wenn ich fread() nutzen würde und mit fseek stück für stück durch die datei navigiere um das problem sofortigen überladens und damit des absturzes zu umgehen, wird der speicher belegt und ebenfalls nicht freigegeben.
aber wieso? und wie kann ich dieses problem lösen?
@dann müsste der client stunden warten wenn die datein so gross sind:
sowas kann man schlecht verhindern, wenn datein groß sind, sind sie nunmal große.
grüße Fred