Soße: Visited Link = Cache ?

Halle,
ich hab n script geschreiben auf seiten verweist die täglich aktualisiert werden.
wenn ich den link anklicke, dann sehe ich die seite der letzten manuellen aktualisierung per browser.
was kann man dagegen machen bzw. wie kann ich es erreichen die seiten von selbst aktualisieren zu lassen?

Danko

  1. Hi,

    was kann man dagegen machen bzw. wie kann ich es erreichen die seiten von selbst aktualisieren zu lassen?

    entweder den Seiten entsprechende Caching-Empfehlungen mitgeben (und ggf. die Clients sinnvoll konfigurieren), oder sie dynamisch verlinken, etwa mit Timestamp in der URL (hilft nicht bei Bookmarks etc.).

    Cheatah

    --
    X-Will-Answer-Email: No
    1. Hi,

      was kann man dagegen machen bzw. wie kann ich es erreichen die seiten von selbst aktualisieren zu lassen?

      entweder den Seiten entsprechende Caching-Empfehlungen mitgeben (und ggf. die Clients sinnvoll konfigurieren), oder sie dynamisch verlinken, etwa mit Timestamp in der URL (hilft nicht bei Bookmarks etc.).

      so und jetzt auf Deutsch. bin zwar "Programmierer", aber das verstehe ich schonwieder nicht. das ist wohl das hausbau-Prinzip was mir mein vater früher immer mit der schule erklären wollte: "wenn die ein baustein fehlt, fällt das haus zusammen" ;-)
      ne mal im ernst: wie mache ich das denn mit der caching-empfehlung oder diesem timestamp ?

      Danko

      1. Hi,

        so und jetzt auf Deutsch.

        das ist aber nicht die Fachsprache :-)

        In <meta>-Tags oder HTTP-Headern kannst Du diverse Angaben (von Expire-Zeiten bis zum Proxyverhalten) machen, welche der Client ("Browser") auswerten _darf_ (nicht muss, aber meist tut). In SelfHTML findest Du genügend darüber. Wenn Du in der Lage bist, den Link zu den Seiten zu generieren, dann verändere die URL stetig, indem Du beispielsweise einen Parameter "?time=..." mit der jeweils aktuellen Zeit angibst (vorausgesetzt, das kollidiert nicht mit einer anderen Technik). Diese Variante hat strengere Vorbedingungen, sorgt aber dafür, dass der Client _garantiert_ nicht seinen Cache benutzt: Die URL ist eine andere, und der Client kann nicht ahnen, dass das Ergebnis trotzdem das gleiche ist.

        Cheatah

        --
        X-Will-Answer-Email: No
        1. In <meta>-Tags oder HTTP-Headern kannst Du diverse Angaben (von Expire-Zeiten bis zum Proxyverhalten) machen, welche der Client ("Browser") auswerten _darf_ (nicht muss, aber meist tut). In SelfHTML findest Du genügend darüber. Wenn Du in der Lage bist, den Link zu den Seiten zu generieren, dann verändere die URL stetig, indem Du beispielsweise einen Parameter "?time=..." mit der jeweils aktuellen Zeit angibst (vorausgesetzt, das kollidiert nicht mit einer anderen Technik). Diese Variante hat strengere Vorbedingungen, sorgt aber dafür, dass der Client _garantiert_ nicht seinen Cache benutzt: Die URL ist eine andere, und der Client kann nicht ahnen, dass das Ergebnis trotzdem das gleiche ist.

          heißt das ich im prinzip nur einen variellen link generieren muss der täglich (oder je nach dem wie oft aktualisiert wird) anders aussieht.
          im prinzip könnte es auch ein counter sein, oder ?
          link.php?56
          link.php?57 ...

          ? richtig ?
          Danko

          1. Hi,

            heißt das ich im prinzip nur einen variellen link generieren muss der täglich (oder je nach dem wie oft aktualisiert wird) anders aussieht.
            im prinzip könnte es auch ein counter sein, oder ?

            ja und ja.

            Cheatah

            --
            X-Will-Answer-Email: No
        2. Hi auch,

          Wenn Du in der Lage bist, den Link zu den Seiten zu
          generieren, dann verändere die URL stetig, indem Du
          beispielsweise einen Parameter "?time=..." mit der
          jeweils aktuellen Zeit angibst (vorausgesetzt, das
          kollidiert nicht mit einer anderen Technik).
          Diese Variante hat strengere Vorbedingungen, sorgt
          aber dafür, dass der Client _garantiert_ nicht seinen
          Cache benutzt: Die URL ist eine andere, und der Client
          kann nicht ahnen, dass das Ergebnis trotzdem das
          gleiche ist.

          Voraussetzung dafür ist, daß _alle_ Seiten auf diese
          Weise ausgeliefert werden - sonst wird die Seite mit
          den schönen generierten Links versehentlich doch ge-
          cached ... und dann nützt die Generierung dieser Seite
          auch nichts.

          Viele Grüße
                Michael