Andrea: Eigene statistik. Crawler, Bots rausfiltern

Hallo, Ich würde gerne eine eigene , einfache Statistik für meine Seite machen. Da die Seite in der Datenbank liegt, würde ich einfach ein Feld einfügen in das bei Aufruf der Seite der Zähler um einen erhöht wird.

Soweit der erste Gedanke.

Mein ersten Problem ist die ganzen crawler, bots etc. abe ich eine einfache Möglichkeit diese erst einmal rauszufiltern. (keine 100% Lösung).

Mir würde der Weg, der Gedanke, die Idee helfen!

Andrea

  1. Hallo, Ich würde gerne eine eigene , einfache Statistik für meine Seite machen. Da die Seite in der Datenbank liegt, würde ich einfach ein Feld einfügen in das bei Aufruf der Seite der Zähler um einen erhöht wird.

    Lass mich raten: Du hast die Webseite nicht selbst gemacht. Wenn es aber so ist: Ist es vielleicht ein CMS? Wenn es so ist, gibt es für dieses vielleicht ein fertiges Statistik-Tool?

    Mein ersten Problem ist die ganzen crawler, bots etc. abe ich eine einfache Möglichkeit diese erst einmal rauszufiltern.

    Die guten Bots (googlebot, bingbot e.t.c.) „jein“ (¹), die bösen oder auch nur unwillkommenen nicht. Du kannst nicht mal die „echten Browser“ auf eine einfache Weise herausfiltern weil Deine Filterregeln genau dann „kaputtgehen“, wenn die Browserhersteller sich nicht mehr die von Dir verwendeten Regeln für die Benennung des User-Agent halten. Was sie irgendwann tun werden. Und unwillkommene Bots werden sich nur zu gerne als Browser tarnen, Du brauchst weitere Infos wie z.B. die von Bots genutzten IP-Adressen oder Adressbereiche - welche sich gerne mal ändern.

    Wenn Du damit einmal anfängst führst Du in der Konsequenz einen „ewigen Krieg“, verschwendest Rechenleistung, Arbeitszeit und Energie für „Nullinformationen“(²), brauchst ständig neue Daten und womöglich wirst Du die Leistung irgendwann teuer kaufen.

    • Wenn Du eine Erfolgsmessung willst, nimm andere Parameter. In der Konsequenz kann es nämlich passieren, das Suchmaschinen Deine Website abwerten, weil die Antwort - wegen der Boterkennung für die zweifelhafte Statistik - so lange dauert.

    Mehr kann ich nicht mitteilen weil Du außer „Webseite, die aus Datenbank generiert wird“ nichts mitteilst.


    ¹) Selbst Google überprüft - um das Problem des Suchergebnis-Spoofings zu verkleinern - Webseiten mit einem Bot, der sich als normaler Browser tarnt, damit halb- oder ganzkriminelle und auch sonst verlogene Webseitenbetreiber bei einem Abruf durch Bots nicht das eine und bei Abrufen mit echten Browsern etwas ganz anderes ausliefern. Es ist nicht schwer zu erraten, dass sich andere Suchmaschinen der gleichen Methode bedienen.

    ²) Angebliche Informationen, bei denen man nicht weiß, ob und inwieweit diese zutreffen, sind „keine Informationen“, also „Nullinformationen“.