Hallo,
Kann es sein, dass du momentan *alle* Feeds bei *jedem* Aufruf herunterlädst, auswertest und das HTML generierst?
Falls ja, so speichere diese Daten einige Zeit auf dem Server zwischen (das, was der Helpdesk-Mitarbeiter Caching genannt hat). Das kann in einer Datenbank oder einfachen Dateien passieren. Dazu müsstest du mit PHP Dateien lesen und schreiben.
Um das Memory-Limit zu umgehen, kannst du wie vorgeschlagen jeden Feed in einem gesonderten Request bearbeiten und die Ausgabe mit JavaScript (XMLHttpRequest, »Ajax«) in die Seite montieren. Damit wird das PHP-Script mehrfach gleichzeitig gestartet, aber jeder Prozess kümmert sich nur um einen Feed, sodass das Memory-Limit nicht erreicht wird.
In Sachen Ajax habe ich bisher keine Ahnung
Mehr als auch die einschlägigen Erklärungen zu verweisen, wie es der Helpdesk-Mitarbeiter getan hat, können wir auch nicht.
Cronjobs bietet der provider nicht an.
Brauchst du auch nicht.
Mathias