Shalom!
Ich würde mich nicht darauf verlassen, dass nicht irgend ein Browser oder oder ein Proxy zufällig den string "bot" enthält :)
Ja, "bot" ist vielleicht ein bißchen zu gefährlich, "robot" dagegen dürften wirklich sehr überwiegend Bots sein.
Da muss man höllisch aufpassen: Nachbarschaft (arsch) oder specialist (cials) sind Dinge die z.B. von Spamfiltern schnell mal als indiz herangezogen werden.
Stimmt. Aus solchen Gründen hat es sich ja bewährt, Punkte zu vergeben, und die Nachricht nicht gleich wegen eines solchen Merkmals zu entsorgen.
- Wer die robots.txt anfragt, ist höchstwahrscheinlich ein Bot.
Oder jemand der neugierig ist um zu erfahren, was Bots nicht lesen/indizieren sollen :) um es dann selbst zu lesen.
Klar, aber das ist wohl wesentlich weniger wahrscheinlich als ein echter Bot.
- Wer Formulare in Secundenbruchteilen ausfüllt und abschickt, ist so gut wie sicher ein Bot.
Oder jemand der mit automatisch ausgefüllten Formularen arbeitet (Opera kann das) und einfach nur den submit-Button klicken muss.
Wenn ich etwas längeres schreibe, tue ich das meistens im Texteditor und kopiere den Text dann in das Textfeld, um zu verhindern, daß er verloren ist, wenn die Session zwischenzeitlich den Geist aufgegeben hat. Mit Reload + Paste + Submit bin ich dann auch verdächtig schnell.
Aber hier geht es ja gar nicht um die zuverlässige Klassifizierung einzelner Clients (die wohl unmöglich ist), sondern um eine Statistik. Und um Maßnahmen, mit denen man ungefähr abschätzen kann, wie viele Besucher nun Bots sind. Mit den genannten Möglichkeiten sollte die Statistik näher an der Realität sein als wenn man gar keine Bot-Erkennung versucht, und ganz exakt wird so eine Statistik eh nie.
Viele Grüße vom Længlich
Mein aktueller Gruß ist:
Hebräisch