jehoho: Statistik: Unterschied zw. Google Analytics und Webalizer?

Guten Tag.

Seit einem Monat beobachte ich die Zugriffe auf eine Webseite zusätzlich mit Google Analytics. Die Auswertung mit Google führt zu erheblich anderen (niedrigeren) Zahlen als meine schon länger betriebene Statistik mit Webalizer.

Zahlen für Oktober:

Visits:
   Webalizer: 28567
   Google:    15063

Pageviews:
   Webalizer: 181062
   Google:     92313

Woran kann das liegen?

Danke und viele Grüße
jehoho

  1. hi,

    Seit einem Monat beobachte ich die Zugriffe auf eine Webseite zusätzlich mit Google Analytics. Die Auswertung mit Google führt zu erheblich anderen (niedrigeren) Zahlen als meine schon länger betriebene Statistik mit Webalizer.

    Der Zählmechanismus von Google Analytics wird per Javascript auf dem Client eingebunden, während der Webalizer die serverseitigen Logfiles auswertet.

    gruß,
    wahsaga

    --
    /voodoo.css:
    #GeorgeWBush { position:absolute; bottom:-6ft; }
    1. Der Zählmechanismus von Google Analytics wird per Javascript auf dem Client eingebunden, während der Webalizer die serverseitigen Logfiles auswertet.

      Und warum führt das zu dermaßen unterschiedlichen Werten? Würde mich jetzt auch mal interessieren. Sieht ja fast so aus, als ob Webalizer alles doppelt zählen würden bzw. GA nur die Hälfte.

      @jehoho: Bist Du sicher, Google Analytics richtig eingebunden zu haben (obwohl man da eigentlich nicht viel falsch machen kann)? Evtl. möglich, dass Du die Zahlen falsch abgelesen hast?

      Poste doch mal bitte Deine Seite. Irgendwas kann da ja nicht stimmen.

      Cheers
      Cervantes

      1. Hallo Cervantes.
        Ich bin ziemlich sicher, GA richtig eingebunden zu haben.
        Es geht um www.moses-online.de und www.kiap.de.

        1. Hallo Cervantes.

          Hola,

          Ich bin ziemlich sicher, GA richtig eingebunden zu haben.
          Es geht um www.moses-online.de und www.kiap.de.

          Mh, scheint richtig zu sein. Man kann bei Deinen Ergebnissen ja sagen, dass GA ungefähr halb so viel wie Webalizer zählt. Gilt das für allen Seiten? Hast Du schon mal sog. "Conversions-Ziele" bei GA konfiguriert? Wenn ja, ist die Abweichung dort ähnlich groß?

          Ich kann dieses mächtige Google-Script leider nicht hinreichend interpretieren, weshalb ich auch überhaupt keine Ahnung habe, worauf die Abweichungen zurückzuführen sind. Eine zufriedenstellende Antwort hat m.E. auch noch niemand geliefert.

          Cheers
          Cervantes

  2. Hi,

    Seit einem Monat beobachte ich die Zugriffe auf eine Webseite zusätzlich mit Google Analytics. Die Auswertung mit Google führt zu erheblich anderen (niedrigeren) Zahlen als meine schon länger betriebene Statistik mit Webalizer.

    Google-Analytics braucht Javascript. Damit fallen schon mal einige Zugriffe (Browser mit abgeschaltetem Javascript, Suchrobots ...) weg.

    Außerdem:
    Ich hab z.B. zwar Javascript zugelassen, aber die google-Analytics-URLs im AdBlock als zu blocken konfiguriert.
    Wenn ich also auf Deine Seite käme, würde das im Webalizer auftauchen, aber nicht in der Google-Analytics-Statistik.

    Es könnte auch Unterschiede geben, was der jeweilige Statistik-Anbieter als Visits bzw. Pageviews betrachtet.

    cu,
    Andreas

    --
    Warum nennt sich Andreas hier MudGuard?
    Schreinerei Waechter
    O o ostern ...
    Fachfragen unaufgefordert per E-Mail halte ich für unverschämt und werde entsprechende E-Mails nicht beantworten. Für Fachfragen ist das Forum da.
    1. Google-Analytics braucht Javascript. Damit fallen schon mal einige Zugriffe (Browser mit abgeschaltetem Javascript, Suchrobots ...) weg.

      Außerdem:
      Ich hab z.B. zwar Javascript zugelassen, aber die google-Analytics-URLs im AdBlock als zu blocken konfiguriert.
      Wenn ich also auf Deine Seite käme, würde das im Webalizer auftauchen, aber nicht in der Google-Analytics-Statistik.

      Ist beides richtig, kann aber meines Erachtens nicht die enormen Abweichungen erklären. Deaktiviertes JavaScript und das so konfigurierte AdBlock dürften nur bei einem verschwindend geringen Teil der User vorkommen.

      Siehe auch: http://www.webhits.de/deutsch/webstats.html

      Cheers
      Cervantes

      1. Hi,

        Ist beides richtig, kann aber meines Erachtens nicht die enormen Abweichungen erklären. Deaktiviertes JavaScript und das so konfigurierte AdBlock dürften nur bei einem verschwindend geringen Teil der User vorkommen.

        also auch ich lasse mich nicht von Google zählen und finde in meiner Javascript-Konsole sehr häufig "Fehler: urchinTracker is not defined" ;-)

        Aber davon abgesehen ist Webalizer seit Jahren nicht aktualisiert und zählt haufenweise Robots mit - von Besuchern mit ständig wechselnden IPs ganz zu schweigen...

        freundliche Grüße
        Ingo

        1. Moin!

          Aber davon abgesehen ist Webalizer seit Jahren nicht aktualisiert und zählt haufenweise Robots mit - von Besuchern mit ständig wechselnden IPs ganz zu schweigen...

          Sind Robots keine Besucher? Das dürfte doch sehr davon abhängen, wie man Besucher definiert.

          Und außerdem: Wie will man Robots erkennen?

          Webalizer produziert nach meiner Wahrnehmung eine robuste Statistik, die das an Daten aus dem Logfile herausholt, was drin steckt. Und nicht mehr. Andere Statistiktools versprechen das Blaue vom Himmel und produzieren Zahlen, die mit der Realität nicht mehr viel gemein haben.

          - Sven Rautenberg

          --
          "Love your nation - respect the others."
          1. Hi,

            Sind Robots keine Besucher? Das dürfte doch sehr davon abhängen, wie man Besucher definiert.

            Ja, aber als (echte) Besucher werden i.d.R. nur menschliche Besucher gezählt. Der Webseitenbetreiber ist ja daran interessiert, wieviele Menschen die Seiten aufgerufen haben. Unabhängig davon interesieren sich einige natürlich auch, ob und wie seine Seiten von Robots erfasst werden. Die Unterscheidung ist sinnvoll und meist gewünscht.

            Und außerdem: Wie will man Robots erkennen?

            Soll das eine rhetorische Frage sein? ;-)
            Mein Auswertungsprogramm erkennt die Robots recht zuverlässig an dem UA, der IP und auch dem "Verhalten", d.h. wird die robots.txt angefordert? werden Referrer übermittelt? werden Bilder angefordert? wird Javascript ausgeführt? Gelegentlich schaue ich auch mal genauer nach, ob angeforderte Seiten über die jeweilige Navigation erreichbar sind.

            Webalizer produziert nach meiner Wahrnehmung eine robuste Statistik, die das an Daten aus dem Logfile herausholt, was drin steckt. Und nicht mehr.

            Eher weniger. Sicher sind einige Angaben korrekt, andere aber wiederum nicht. Und in den Logfiles stecken halt noch wesentlich mehr Informationen, die man mit geeigneten Methoden auch herausholen kann.

            Andere Statistiktools versprechen das Blaue vom Himmel und produzieren Zahlen, die mit der Realität nicht mehr viel gemein haben.

            Einige - Ja. Aber es gibt auch relativ zuverlässige. Dennoch traue ich nur meiner eigenen Auswertung.

            freundliche Grüße
            Ingo

            1. Sind Robots keine Besucher? Das dürfte doch sehr davon
              Andere Statistiktools versprechen das Blaue vom Himmel und produzieren Zahlen, die mit der Realität nicht mehr viel gemein haben.
              Einige - Ja. Aber es gibt auch relativ zuverlässige.

              Welche wären das Deiner Meinung nach? Google Analytics?

              Cheers
              Cervantes

              1. Hi,

                Einige - Ja. Aber es gibt auch relativ zuverlässige.

                Welche wären das Deiner Meinung nach? Google Analytics?

                meines z.B. ;-)
                Ansonsten wohl nur kostenpflichtige, die

                • kein Javascript voraussetzen,
                • nach Möglichkeit nicht ausschließlich über eingebundene Grafiken funktionieren,
                • aktuell gehalten werden.

                freundliche Grüße
                Ingo

                1. Einige - Ja. Aber es gibt auch relativ zuverlässige.

                  Welche wären das Deiner Meinung nach? Google Analytics?
                  meines z.B. ;-)
                  Ansonsten wohl nur kostenpflichtige, die

                  • kein Javascript voraussetzen,
                  • nach Möglichkeit nicht ausschließlich über eingebundene Grafiken funktionieren,
                  • aktuell gehalten werden.

                  Wenn Du magst nenn doch ein paar Namen, damit wir nicht so herumraten müssen. Wenn wir hier über Google diskutieren, können wir ja gleichfalls auch über andere reden. Damit wäre doch vielen gedient.

                  Grüße jehoho

                  1. Hi,

                    Ansonsten wohl nur kostenpflichtige

                    deshalb...

                    Wenn Du magst nenn doch ein paar Namen

                    ...fällt mir das schwer.
                    Ich würde ja gern mal ein eine dieser Statistiken mit meiner Auswertung überprüfen.

                    freundliche Grüße
                    Ingo

                    1. Hallo

                      Ich würde ja gern mal ein eine dieser Statistiken mit meiner Auswertung überprüfen.

                      Was meinst Du damit genau? Möchtest Du Deine Software zur Verfügung stellen? Möchtest Du Log-Files zum Auslesen haben?

                      Viele Grüße
                      jehoho

      2. Moin,

        Ist beides richtig, kann aber meines Erachtens nicht die enormen Abweichungen erklären. Deaktiviertes JavaScript und das so konfigurierte AdBlock dürften nur bei einem verschwindend geringen Teil der User vorkommen.

        Beim Einsatz von Google Analytics würde ich nebenzu auch checken, wer mit deaktiviertem JavaScript auf die Seite geht. Die Erhebung geht natürlich nur näherungsweise: Zum Beispiel ein 1x1 Pixel großes transparentes PNG in den noscript-Tag stecken. Funktioniert nicht bei  besagten Robots oder wenn der User im Browser die Grafik-Anzeige deaktiviert hat. Aber wer hat das schon? (<-- rhetorische Frage!)

        Grüße aus Hamburg
        Michel