ingon: Offline Reader sollen draussen bleiben

Beitrag lesen

Diese Leute kopieren halt alles auf einmal auf ihre Harddisk.
Z.B. weil sie es im Zug oder im Ferienhaeuschen lesen wollen.
Dafuer lassen sie Deinen Webserver in Zukunft in Ruhe.
Unter Umstaenden _sparst_ Du sogar Traffic.

Glaube ich  nicht, die Seite ist stark Bildlastig, ein menschlicher Betrachter gibt irgendwann auf.

Hast Du ueberhaupt die richtigen Logs angeguckt?
Oder bloss die bunten "Statistiken"?

Die Bunten sollten da reichen, wenn ich eine IP sehe welche hohe Datenübertragung hat und gleichzeitig die Seitenzugriffe von 5000 auf 50000/tag steigen.

Was steht denn jeweils im Useragent-String?
Hast Du Dich mal schlau gemacht, ob es wirklich Offline-Reader,
und nicht etwa Suchmaschinen-Robots sind?

Die Suchmaschienen schicke ich in eine andere Richtung in die tiefen der Seite dürfen sie nicht. (Meta Tag noindex, nofollow ab der startseite)

Du koenntest eine robots.txt schreiben, die spezifisch den
namentlich bekannten Offline-Readern den Zugriff untersagt.
http://www.robotstxt.org/wc/robots.html

Danke, werde ich ansehen.

Ich wuerde es einfach vergessen.

10GB freier Traffic, wenn an einem Tag ein knappes GB durchgeht kostets mich Geld.

JavaScript als "Navigations-Loesung"? Vergiss es!
Du wuerdest damit extrem viel Schaden anrichten, d.h. Deine
Seiten fuer viele Benutzer und _alle_ Robots (inklusive
Suchmaschinen-Spider) unbenutzbar machen.

Robots dürfen eh nicht rein, gibt es noch User ohne Javascript? Die Lösung ist mir aber auch unsympatisch.

Danke Ingo