Hallo,
in letzter Zeit tauchen in meinen Logs immer Seitenzugriffszahlen im 10-12 fachen des Normalen auf. Ich vermute mal sehr stark da werden Offlinereader auf meine Seite losgelassen.
Na und?
Diese Leute kopieren halt alles auf einmal auf ihre Harddisk.
Z.B. weil sie es im Zug oder im Ferienhaeuschen lesen wollen.
Dafuer lassen sie Deinen Webserver in Zukunft in Ruhe.
Unter Umstaenden _sparst_ Du sogar Traffic.
Hast Du ueberhaupt die richtigen Logs angeguckt?
Oder bloss die bunten "Statistiken"?
Was steht denn jeweils im Useragent-String?
Hast Du Dich mal schlau gemacht, ob es wirklich Offline-Reader,
und nicht etwa Suchmaschinen-Robots sind?
Kann ich etwas dagegen tun. Ich meine per Metatag, htaccess oder einem anderen Zaubertrick.
Du koenntest eine robots.txt schreiben, die spezifisch den
namentlich bekannten Offline-Readern den Zugriff untersagt.
http://www.robotstxt.org/wc/robots.html
Anstaendige Offline-Reader von anstaendigen Benutzern
halten sich daran.
Unanstaendige Offline-Reader oder anstaendige Offline-Reader
mit unanstaendigen Benutzern setzen sich aber darueber hinweg.
Eine Idee waere noch das "ausbremsen".
D.h. eine absichtliche Verzoegerung beim Ausliefern jeder
einzelnen Datei. Das nervt aber auch menschliche Besucher sehr.
Man moechte also versuchen, die Verzoegerung nur bei den
Benutzern anzuwenden, die in sehr kurzen Abstaenden sehr
viele Dateien anfordern.
Die Hauptschwierigkeit ist das Erkennen von einzelnen Benutzern.
Stichworte: Sessions, IP-Adresse kombiniert mit User-Agent-String.
All das ist aber nicht zuverlaessig und hat viele Nachteile.
Ich wuerde es einfach vergessen.
Die Lösung mittels Form- oder Javascript Links kenne ich. Ich möchte aber nicht die komplette Seite umbauen.
JavaScript als "Navigations-Loesung"? Vergiss es!
Du wuerdest damit extrem viel Schaden anrichten, d.h. Deine
Seiten fuer viele Benutzer und _alle_ Robots (inklusive
Suchmaschinen-Spider) unbenutzbar machen.
Gruesse,
Thomas