Thomas Luethi: Offline Reader sollen draussen bleiben

Beitrag lesen

Hallo,

wer suchet der findet:
http://www.bananajoe.de/beispiele.html#7

=> </faq/#Q-19>
http://www.bananajoe.de/beispiele.html#7

Diese "Loesung" (mit Server-Konfiguration den "boesen"
Useragents eine 403 zu schicken) ist sehr unzuverlaessig.

Der Useragent-String laesst sich beliebig manipulieren.

Wenn jemand unbedingt Deine Seiten saugen will, dann
nimmt er einen Offline-Reader, der sich als MS IE 5.5
(oder sonst irgendein normaler Browser) tarnt.
Dagegen hast Du keine Chance.

Solche Loesungen (und auch die robots.txt) funktionieren
nur, solange anstaendige Offline-Reader von anstaendigen
Benutzern losgeschickt werden. Gegen die andern kannst
Du Dich wie gesagt kaum wehren, ohne grosse Nachteile
in Kauf zu nehmen.

---

Und wenn Du zu faul bist, um das Logfile an sich anzuschauen,
um der Sache auf den Grund zu gehen, ist das Dein Pech.

Mit dem UserAgent String und/oder der IP-Adresse wuerdest
Du hier (sowie mit einer Google/Google Groups Suche) bestimmt
bessere Antworten kriegen als bloss mit der Aussage:
"Ich habe mehr Traffic und vermute einen Offline-Reader dahinter."

Gruesse,

Thomas