Vor allem ist mir der Aspekt der Performanz wichtig. Wie es scheint können viele (wenn nicht alle) caching proxies mit query strings nichts anfangen. Dass heißt ein Großteil der Anfragen heutzutage wird von diesen Proxies ignoriert und müssen direkt vom Server verarbeitet werden. Sicher hat jede halbwegs anständige Anwendung ihren eignen cache hinterlegt aber die Infrastruktur der caching proxies ist quasi überall schon vorhanden - meist also näher am Anfragesteller.
Die RestWiki ist da auch recht interessant, aber leider oft offline, darum hier der Link der gecachte Seite bei google : link
Gut dass du das Thema Caching erwähnst.
Cache sind nicht ein Ersatz für deine Datenbank. Sie eigenen sich nicht für Seiten, die über einen querystring Datenbank-Befragung indizieren.
Restfull Seiten geben vor statischer Content zu sein.
Sie verstopfen dadurch Caches unnötig und müssen dann mit CacheControll wiederum bewahrt werden, dasss Datenabfragen gerade in einem schneller wechselnden Datenbestand wieder durchgeführt werden.
Robots (auch ene Art Informationscache) müssen ebenfalls Prioritäten setzen. Darin liegt begründet dass viele kleinere Bots entweder keine Querystrings oder nur solchen mit einer Combo parsen.
Wenn nun diese Bots keine Queries mehr sehen, werden sie irgendwelche urls indexieren, und das eventuell wichtige dazu relativ vernachlässige.
Ich denke, das muss man sich zweimal überlegen ob man Restfull Urls einsetzt. Es könnte ein Schuss in den eigenen Fuss werden.
Und dann komme ich zur Performance. Das Caching ist auf deinem Server am Besten aufgehoben, weil du allein weist, wann content frisch ist.
Den Cache auf ferne Proxies zu verlagern, heisst, den Speicherbedarf reell zu multiplizieren. Ja davon kann dein eigener Server profitieren, aber wenn du dennoch frische Inhalte anbieten willst, bringt es das schlicht nicht.
mfg Beat
><o(((°> ><o(((°>
<°)))o>< ><o(((°>o
Der Valigator leibt diese Fische