Visited Link = Cache ?
Soße
- sonstiges
Halle,
ich hab n script geschreiben auf seiten verweist die täglich aktualisiert werden.
wenn ich den link anklicke, dann sehe ich die seite der letzten manuellen aktualisierung per browser.
was kann man dagegen machen bzw. wie kann ich es erreichen die seiten von selbst aktualisieren zu lassen?
Danko
Hi,
was kann man dagegen machen bzw. wie kann ich es erreichen die seiten von selbst aktualisieren zu lassen?
entweder den Seiten entsprechende Caching-Empfehlungen mitgeben (und ggf. die Clients sinnvoll konfigurieren), oder sie dynamisch verlinken, etwa mit Timestamp in der URL (hilft nicht bei Bookmarks etc.).
Cheatah
Hi,
was kann man dagegen machen bzw. wie kann ich es erreichen die seiten von selbst aktualisieren zu lassen?
entweder den Seiten entsprechende Caching-Empfehlungen mitgeben (und ggf. die Clients sinnvoll konfigurieren), oder sie dynamisch verlinken, etwa mit Timestamp in der URL (hilft nicht bei Bookmarks etc.).
so und jetzt auf Deutsch. bin zwar "Programmierer", aber das verstehe ich schonwieder nicht. das ist wohl das hausbau-Prinzip was mir mein vater früher immer mit der schule erklären wollte: "wenn die ein baustein fehlt, fällt das haus zusammen" ;-)
ne mal im ernst: wie mache ich das denn mit der caching-empfehlung oder diesem timestamp ?
Danko
Hi,
so und jetzt auf Deutsch.
das ist aber nicht die Fachsprache :-)
In <meta>-Tags oder HTTP-Headern kannst Du diverse Angaben (von Expire-Zeiten bis zum Proxyverhalten) machen, welche der Client ("Browser") auswerten _darf_ (nicht muss, aber meist tut). In SelfHTML findest Du genügend darüber. Wenn Du in der Lage bist, den Link zu den Seiten zu generieren, dann verändere die URL stetig, indem Du beispielsweise einen Parameter "?time=..." mit der jeweils aktuellen Zeit angibst (vorausgesetzt, das kollidiert nicht mit einer anderen Technik). Diese Variante hat strengere Vorbedingungen, sorgt aber dafür, dass der Client _garantiert_ nicht seinen Cache benutzt: Die URL ist eine andere, und der Client kann nicht ahnen, dass das Ergebnis trotzdem das gleiche ist.
Cheatah
In <meta>-Tags oder HTTP-Headern kannst Du diverse Angaben (von Expire-Zeiten bis zum Proxyverhalten) machen, welche der Client ("Browser") auswerten _darf_ (nicht muss, aber meist tut). In SelfHTML findest Du genügend darüber. Wenn Du in der Lage bist, den Link zu den Seiten zu generieren, dann verändere die URL stetig, indem Du beispielsweise einen Parameter "?time=..." mit der jeweils aktuellen Zeit angibst (vorausgesetzt, das kollidiert nicht mit einer anderen Technik). Diese Variante hat strengere Vorbedingungen, sorgt aber dafür, dass der Client _garantiert_ nicht seinen Cache benutzt: Die URL ist eine andere, und der Client kann nicht ahnen, dass das Ergebnis trotzdem das gleiche ist.
heißt das ich im prinzip nur einen variellen link generieren muss der täglich (oder je nach dem wie oft aktualisiert wird) anders aussieht.
im prinzip könnte es auch ein counter sein, oder ?
link.php?56
link.php?57 ...
? richtig ?
Danko
Hi,
heißt das ich im prinzip nur einen variellen link generieren muss der täglich (oder je nach dem wie oft aktualisiert wird) anders aussieht.
im prinzip könnte es auch ein counter sein, oder ?
ja und ja.
Cheatah
Hi auch,
Wenn Du in der Lage bist, den Link zu den Seiten zu
generieren, dann verändere die URL stetig, indem Du
beispielsweise einen Parameter "?time=..." mit der
jeweils aktuellen Zeit angibst (vorausgesetzt, das
kollidiert nicht mit einer anderen Technik).
Diese Variante hat strengere Vorbedingungen, sorgt
aber dafür, dass der Client _garantiert_ nicht seinen
Cache benutzt: Die URL ist eine andere, und der Client
kann nicht ahnen, dass das Ergebnis trotzdem das
gleiche ist.
Voraussetzung dafür ist, daß _alle_ Seiten auf diese
Weise ausgeliefert werden - sonst wird die Seite mit
den schönen generierten Links versehentlich doch ge-
cached ... und dann nützt die Generierung dieser Seite
auch nichts.
Viele Grüße
Michael