»» Zwei User und dieselbe IP? (Sag niemals nie), aber rein technisch gesehen funktioniert dies nicht, zumindestens zur selben Zeit...
Ich meinte auch nicht zur selben Zeit!
Ich möchte auch nur IP
s von Crawlern nach dem Besuch verwerfen... Diese verwenden statische IP
s, welche also nicht von "normalen" Surfern genutzt werden... Diese haben (meist) dynamische IP`s von Ihren Providern. Deswegen ja die vorgegebenen Bereiche.Bzgl. Crawler wäre es vielleicht einfacher, Sie am Useragent zu erkennen. D.h. verwerfe Sie nicht, sondern untersuche das im Nachhinein in Deiner Auswertung.
Das möchte ich ja auch im Nachhinein tun...Könntest du mir dies mit dem Useragent genauer erklären? Dies habe ich nicht ganz verstanden.
Na, zumindest Google verwendet sowas wie "Googlebot....".
Das kannst Du rausfiltern.
Gruß
Reiner