DiamondDog: Angebotener Download bricht immer ab.

Beitrag lesen

Ein Workaround, um die Gefahr des direkten Linkens zu vermindern:
Kopiere das File unter einem Zufallsnamen in ein speielles Verzeichnis und linke auf diesen Zufallsnamen.

Von Zeit zu Zeit löschst Du dann alle Files in diesem Verzeichnis. Das kannst Du so ähnlich machen, wie der Garbage Collector von PHP, also z.B. bei jedem zehnten Mal Reinkopieren wird das Verzeichnis gescannt auf Files, die älter sind als z.B. eine Stunde und die werden dann gelöscht.

Um die Zeitabfrage billiger zu machen, kannst Du den Timestamp auch vor den Zufallsnamen setzen.

So kann das Ausliefern dann vom Server direkt geschehen, der dann auch Chunked arbeiten kann. Ob das direkte Ausliefern einwandfrei funktioniert, würde ich aber vorher nochmal genau ausprobieren, z.B. mit einem großen PDF-File. Der Adobe-PDF-Reader arbeitet z.B. chunked, wenn er es angeboten bekommt.

Aber führt das nich zu extrem hohem Trafik, wenn ich die Files immer kopiere?
Aber es wär ne Möglichkeit die Files mit ner Timestamp zu kopieren und alles was älter als 24 Stunden is wird gelöscht. Man könnte zudem dann ja vorher noch prüfen ob das File schon kopiert wurde und die Timestamp im Name des Files auf 0 setzen so das das File wieder 24 Studen zur Verfügung stände.

Werd mal sehn, was ich da so zu zaubern kann.