Moin!
Gibts eine Möglichkeit mit Apache oder PHP festzustellen, ob ein Request durch
einen mit Browser ausgestatten homo sapiens
eine Suchmaschine (an solche denke ich, aber was weiß ich, was es sonst noch an proxis, etc. gibt)
durchgeführt wird?
Es gibt die User-Agent-Angabe, auf die man sich nicht 100% verlassen kann (einerseits, ob sie überhaupt vorhanden ist, andererseits, ob sie stimmt), die man aber als Indikator ansehen kann.
Die HTTP-Requests an sich sind allesamt gleich, da ist kein Unterschied zwischen Mensch und Maschine festzustellen.
Beziehungsweise sind die Unterschiede nicht binär, sondern allenfalls mit menschlicher Intelligenz und gewissen Wahrscheinlichkeiten zu raten. Ein einzelner Request nach "robots.txt" von "Googlebot 2.1" wird mit hoher Wahrscheinlichkeit die bekannte Suchmaschine gewesen sein - aber es ist nicht auszuschließen, dass vielleicht auch ein Mensch nachgeschaut hat, ob Google nicht mit einer Customized-Version der robots.txt bedient wird, die vielleicht mehr oder weniger erlaubt, als alle anderen Webteilnehmer wünschen.
Genauso kann ein "durchdrehender" Spider innerhalb weniger Sekunden mehrere hundert Requests absenden - das kann aber auch eine "jetzt gehen wir alle mal auf die Seite XY"-Bewegung einer PC-Klasse sein, die alle durch eine einzige IP gehen.
Es gibt jedenfalls kein Flag, das anzeigt "Ich bin Maschine" oder "Ich bin Mensch".
- Sven Rautenberg