Hi Michael,
Quasi einen "caching archive beautifier".
Meine Aussage beschreibt einen Algorithmus.
Ja, und welchen nun?
OK, sagen wir zumindest beim durchsuchen, idealerweise bereits beim archivieren.
<belief class="religious">index once, search any time.</belief>
Also: Schöne den Sucher, quäle den Indexer.
Ja es gibt nix über ne gute Tabelle ...
als auch ein online-HTTP-HEAD-Check
... ne besonders effektive Methode im HTTP um Links zu validieren ?
Ich weiß nicht, ob das wirklich effektiv ist.
Kannst du's mir kurz erläutern?
Gut wenn man das Archiv Mirrorn will ohne Links umleiten zu müssen, dann
gehören die im Archiv-Format abgelegt.
In welchem Format Du Deine Kopie anlegst, ist Deine Sache.
(Die Suchmaschinen-Indexdateien sind letztlich auch nur vorverarbeitete Kopien.)
Meine Kopie des Archivs? Ich will keine! Wie soll ichs denn offline
durchsuchen? Obwohl ich hab da eine Vollindex-JS-Suchmaschiene geschrieben ... ;)
Ich hab nie versucht dass Archiv runterzuladen, würd ich allerdings in der
Branche arbeiten, hätt ichs wohl auf CD oder Laptop stets dabei.
Ich nicht - ich habe eine WWW-Zugang ...
Tja die Frage war wieviel Aufwand man in die Reparatur der Links im Archiv
steckt. Wenn selbst der Entwickler der Suchmaschine keine Downloads macht,
kann man sich auch gleich aufs Redirecting am Server beschränken.
PS: Die Googlediskussion mit dem Pageranking oben, verdeutlicht wieder
wieviel Informationsgehalt doch in der Linktopologie steckt. Man könnte
also deine Suche noch um ein Ranking verbessern. Reizvoll?
Man könnte meine Suche um vieles verbessern.
Ranking war eine ganz uralte Idee, die Frank Schönmann schon immer wollte.
Mal sehen womit uns die neue Suche überrascht ;)
tschoe
Rolf