Frage 1: Wie kann ich die Bot-Zugriffe reduzieren? Da gab es doch den head-Eintrag "visit-after", den finde ich aber nicht (mehr). Wahrscheinlich heisst er anders. Richten sich Bots danach?
In dem der Webserver beim Aufruf vom nicht gewünschten Bots und Crawlern die Verbindung sofort zurück setzt.
Frage 2: Wie kann ich menschliche Aufrufe erkennen?
Gar nicht. Ich schreibe gerade Webseitenbesuchssoftware die sich wie ein Mensch verhält beim surfen. Ich automatisiere damit etwas, was ich sonst händisch machen würde und jetzt läut es automatisch nebenbei. Man kann aber Kriterien festlegen, was als "Menschlicherbesucher" in der Statistik gelten soll.
Frage 3: Ein netter Service wäre, menschliche Aufrufe in etwa so zu melden: "Aufruf kommt aus der Gegend von [Stadtname]" - ich denke, das ist keine Verletzung der Anonymität. Doch woher bekommt mein PHP Programm diese Info?
Aus den Logdateien vom Webserver mod geoip2 beim Indianer (ich benutze keinen Apachen) glaube der nutzt die Opensource Daten und APIs von Maxmind es gibt aber auch noch andere.
Natürlich gibt es eine Fehlerqoute, aber ein gut justiertes System sollte schon auf 90 bis 95 Prozent Treffgenauigkeit kommen.
Probier es aus Von den 6 Anbieter war einer mit ca. 400 km Entfernung daneben. Die anderen hatten meine Stadt und ein Treffer hatte den verkehrten Stadtteil, aber bis auf etwa 10 Kilometer ran.