Candid Dauth: (PHP) Stückweise mit GZip komprimieren

Beitrag lesen

Heißa, alle,

ich lasse per PHP eine sehr lange Seite erzeugen, mehrere MB groß. Diese Seite kann zwar von Normalbenutzern nicht aufgerufen werden, aber trozdem erzeugt sie doch etwas Traffic und braucht auch ihre Zeit zu laden, weshalb ich mir überlegte, sie jetzt GZip-komprimiert zu übertragen.

Ich habe leider keinen Zugriff auf irgendwelche PHP-Konfigurationseinstellungen, weshalb ich das ganze per ob_start('ob_gzhandler'); machen muss. Jetzt ist das Problem, dass teilweise irgendwann der interne PHP-Speicher von 8 MB mit der Seite voll ist und abgebrochen wird. Zudem kommt nichtmal eine Fehlermeldung, da diese anscheinend immernoch vom Output Buffer verschluckt wird.

Ich habe mir also überlegt, ob es nicht möglich wäre, immer ein Stück der auszugebenden Seite zu komprimieren und dieses dann auszugeben, damit es nicht den Hauptspeicher von PHP blockiert. Ich frage mich nun, ob das so überhaupt von Seiten GZip möglich ist und wie groß diese Stücke sein müssen/dürfen.

Kann ich einfach beliebig große Abschnitte einzeln komprimieren und diese hintereinander ausgeben? Oder ist eine bestimmte Blockgröße einzuhalten? Oder ist mein Vorhaben überhaupt nicht zu realisieren?

Gautera!
Grüße aus Biberach Riss,
Candid Dauth

--
„Bevorzuge Gerechtigkeit auch dann, wenn sie deinen eigenen Nachteil bedeutet.“ | Mein SelfCode
http://cdauth.de/