Wieviel echte Menschen besuchen meine Webseite?
Kalle_B
- sonstiges
Hallöle,
wie ihr vielleicht wisst, betreibe ich den Veranstaltungskalender remso.de / remso.eu, der recht viele Zugriffe hat. Alle paar Sekunden wird eine Veranstaltung aufgerufen. Jeder Besucher der Hauptseite kann es online verfolgen, da ich per Ajax alle 10 Sekunden die zuletzt aufgerufene Seite einblende.
Aber ich denke, der Schein trügt. Die Seiten werden von Maschinen aufgerufen, kein Mensch liest mit. Dieser Verdacht erhärtete sich, als ich die von Hand eingegebenen, gesuchten Veranstaltungsorte online stellte. Es sind weniger als 10 pro Tag.
Zwar ist es schön, von Suchmaschinen beachtet zu werden. Aber in Wirklichkeit bin ich an realen Menschen interessiert. Wie könnte man diese Zahl ermitteln?
Ich weiss aus alten Diskussionen hier, dass die IP abgelehnt wird. Man könnte sie manipulieren. Ich weiss auch, dass eine Rückmeldung per Ajax abgelehnt wird, man könnte Javasript abschalten. Und natürlich helfen auch Cookies nichts, weil man sie abschalten kann.
Wie also würdet ihr Nihilisten eine Lösung formulieren, dass ein MENSCH meine Seite aufgerufen hat?
Fragt Kalle
Hi there,
Ich weiss aus alten Diskussionen hier, dass die IP abgelehnt wird. Man könnte sie manipulieren. Ich weiss auch, dass eine Rückmeldung per Ajax abgelehnt wird, man könnte Javasript abschalten. Und natürlich helfen auch Cookies nichts, weil man sie abschalten kann.
Wie also würdet ihr Nihilisten eine Lösung formulieren, dass ein MENSCH meine Seite aufgerufen hat?
Ein Nihilist würde Dir mitteilen, daß ihm Dein Problem egal ist. Als nur Beinahe-Nihilist muss ich Dir sagen, daß ich Javascript sehr wohl zur Unterscheidung nutzen würde. Javascript wird von ca. 95% der Menschen und von 0% der Suchmaschinen, Crawler, Harvester und was weiss ich genutzt. Damit hast Du Dein Problem eigentlich schon gelöst...
Hallo, Klawischnigg,
Wie also würdet ihr Nihilisten eine Lösung formulieren, dass ein MENSCH meine Seite aufgerufen hat?
Ein Nihilist würde Dir mitteilen, daß ihm Dein Problem egal ist. Als nur Beinahe-Nihilist muss ich Dir sagen, daß ich Javascript sehr wohl zur Unterscheidung nutzen würde. Javascript wird von ca. 95% der Menschen und von 0% der Suchmaschinen, Crawler, Harvester und was weiss ich genutzt. Damit hast Du Dein Problem eigentlich schon gelöst...
Danke für deine Meinung, sie stimmt mit meiner Vermutung überein.
Nur hier ist digital alles NULL, was nicht als EINS bewiesen ist. Prozentzahlen und Wahrscheinlichkeiten habe ich hier noch nicht gelesen.
MfG Kalle
Ani pele amene!
Wie also würdet ihr Nihilisten eine Lösung formulieren, dass ein MENSCH meine Seite aufgerufen hat?
Ein Nihilist würde Dir mitteilen, daß ihm Dein Problem egal ist. Als nur Beinahe-Nihilist muss ich Dir sagen, daß ich Javascript sehr wohl zur Unterscheidung nutzen würde. Javascript wird von ca. 95% der Menschen und von 0% der Suchmaschinen, Crawler, Harvester und was weiss ich genutzt. Damit hast Du Dein Problem eigentlich schon gelöst...
Danke für deine Meinung, sie stimmt mit meiner Vermutung überein.
Nur hier ist digital alles NULL, was nicht als EINS bewiesen ist. Prozentzahlen und Wahrscheinlichkeiten habe ich hier noch nicht gelesen.
Kommt halt immer auf die Fragestellung an. Viele, die nach solchen Unterscheidungsmöglichkeiten fragen, wollen die Bots anders behandeln als die Menschen. Dann ist es tatsächlich ein Problem, daß a. Menschen so ziemlich alles deaktivieren und b. Bots so ziemlich alles simulieren können.
In Deinem Fall geht es ja aber eher um eine Art Statistik, und da kannst Du mit der einen oder anderen Fehleinschätzung Deines Scripts leben. Du mußt nur bei der Auswertung im Hinterkopf behalten, daß 536 nicht "fünfhundertsechsunddreißig", sondern eher sowas wie "fünfhundert bis fünfhundertachtzig" bedeutet.
Viele Grüße vom Længlich
'ǝɯɐu$ ıɥ
Ein Nihilist würde Dir mitteilen, daß ihm Dein Problem egal ist. Als nur Beinahe-Nihilist muss ich Dir sagen, daß ich Javascript sehr wohl zur Unterscheidung nutzen würde. Javascript wird von ca. 95% der Menschen und von 0% der Suchmaschinen, Crawler, Harvester und was weiss ich genutzt.
Ich hab schon ein paar mal den Googlebot mit aktiviertem JS auf einer Seite gehabt - fragt mich nicht warum.
ssnɹƃ
ʍopɐɥs
Bounjoun Klawischnigg,
Javascript wird von ca. 95% der Menschen und von 0% der Suchmaschinen,
Mein Counter hatte letztens Besuche vom Googlebot. Und hat fleißig den Referrer übertragen, die Farbtiefen und die Screen-Werten - die sonst nur übermittelt werden, wenn JavaScript am Zuge ist.
Vielleicht war es aber ein Googlebot-Fake..., who knows?
Adiou.
'ǝɯɐu$ ıɥ
Vielleicht war es aber ein Googlebot-Fake..., who knows?
Bei "meinem" stammte die IP von Google...
ssnɹƃ
ʍopɐɥs
und von 0% der Suchmaschinen, Crawler, Harvester und was weiss ich genutzt.
Darauf solltest du deinen Arsch nicht verwetten :p
Hello,
Wie also würdet ihr Nihilisten eine Lösung formulieren, dass ein MENSCH meine Seite aufgerufen hat?
Frag doch die Besucher anch ihrer (eMail-)Adresse, damit Du ihnen eine Kiste Bier schicken kannst ;-P
Liebe Grüße aus dem schönen Oberharz
Tom vom Berg
Om nah hoo pez nyeetz, Kalle_B!
Du versteckst die Seite hinter einem Login mit ganz vielen Chaptas ;-)
Matthias
hi,
Zwar ist es schön, von Suchmaschinen beachtet zu werden. Aber in Wirklichkeit bin ich an realen Menschen interessiert. Wie könnte man diese Zahl ermitteln?
Stichwort: Fingerprint(Tracking). Ein 'Mensch' kommt meistens mit einem UA wo JS aktiviert ist, eine Suchmaschine nicht. Mit JS kannst Du aus allen möglichen Systemangaben einen Hash zusammenmixen, der so ziemlich eindeutig ist um daran (MD5) wenigstens die verschiedenen UAs unterscheiden zu können. Bei mir läuft das schon seite einem Jahr, ich kann damit auch zurückverfolgen, wie meine eigenen Links auf der Seite angenommen werden (tracken).
Das Surfverhalten heutzutage ist grausig. Wenn Links überhaupt geklickt werden, dann in einem solchen Tempo, dass mit anzunehmender Sicherheit nicht einmal eine Überschrift gelesen wurde. Die meisten Besucher sind Eintagsfliegen, die kommen von irgendwelchen Suchmaschinen und klicken keinen weiteren Link. nurmalso als Hinweis evntl. zu Deinen Erwartungen ;-)
Hotti
Grüße,
doofe frage - aber übergeben crawler referrer?
MFG
bleicher
hi,
doofe frage - aber übergeben crawler referrer?
Natürlich. In meinem Tracking-Tool sehe ich woher einer kommt, der den Referrer selbst nicht unterdrückt, ich klicke da nur drauf und sehe z.b. google mit dem Suchergebnis genauso, wie kurze Zeit vorher der Besucher das gesehen hat, bevor er zu mir kam ;-)
Hotti
Grüße,
Natürlich. In meinem Tracking-Tool sehe ich woher einer kommt, der den Referrer selbst nicht unterdrückt, ich klicke da nur drauf und sehe z.b. google mit dem Suchergebnis genauso, wie kurze Zeit vorher der Besucher das gesehen hat, bevor er zu mir kam ;-)
ja klar, aber ich nahm bisher an, dass es imme rmenschen waren, deren bowser referrer übergavben - die user-agents die crawler waren, hatten AFAIK nie refererer übergeben - kann man daran erkennen, dass es sich um einen "menshclichen" besucher handelt?
abgesehen von user-agent?
MFG
bleicher
hi,
ja klar, aber ich nahm bisher an, dass es imme rmenschen waren, deren bowser referrer übergavben - die user-agents die crawler waren, hatten AFAIK nie refererer übergeben - kann man daran erkennen, dass es sich um einen "menshclichen" besucher handelt?
Ne, kannst Du nicht. Du kannst nur Indizien sammeln und dann mit Dir selbst ins Gericht gehen, ob diese Indizien für Dich ausreichend sind, zu sagen: Da sitzt ein Menschelein. Die meisten dieser Indizien kriegst Du nur mit JS, da wären z.B. die Bildschirmauflösung, die Zeitzone u.a. Zeugs.
// Ein paar Informationen vom Browser sammeln
function hugo(){
var dob = new Date();
var hugo =
screen.height +
screen.width +
navigator.appName +
navigator.appVersion +
navigator.language +
navigator.platform +
navigator.cookieEnabled +
navigator.mimeTypes.length +
navigator.plugins.length +
dob.getTimezoneOffset();
return(encodeURIComponent(hugo));
}
<=== das da meine ich und das wird ziemlich eindeutig. Damit kann ich auch sehen, ob Besucher nach ein paar Tagen wiederkommen. Serverseitig kommen dazu noch die Angaben zum UA aus %ENV, alles zusammen ergibt dann einen MD5 Hash mit einer Länge von 32 byte.
Hugo 509dd56fda36fd38ececcf74112f6c94 war z.B. heute 2x da um 15:43 und um 15:44 und ist dabei jedesmal von derselben Suchergebnisseite gekommen um bei mir dieselbe Seite zu besuchen.
Ein anderer Hugo:
35aff62507e4358cd5622f3c2aa38120
84 Besuche
Erster Besuch: 07.08.10 16:28:01
Letzter Besuch: 05.09.10 13:35:18
dazwischen liegen 28 Tage.
Aufgerufen hat der nur das Script zum Berechnen von ipv4-Adressen, woher dieser Hugo kam, keine Ahnung, kein Referrer.
Horst Hugo
Moin!
Zwar ist es schön, von Suchmaschinen beachtet zu werden. Aber in Wirklichkeit bin ich an realen Menschen interessiert. Wie könnte man diese Zahl ermitteln?
Das offensichtlichste schon probiert: Logfileauswertung mit Analyse des User-Agents?
- Sven Rautenberg
Om nah hoo pez nyeetz, Sven Rautenberg!
Das offensichtlichste schon probiert: Logfileauswertung mit Analyse des User-Agents?
http://www.browser-statistik.de/blacklist.php
Matthias
Naja, ein Glück, dass der IE noch vor dem FF liegt.
Mozilla Firefox stellt für mich das am meisten überbewertete Tool überhaupt dar.
Gruß Hans
wie ihr vielleicht wisst, betreibe ich den Veranstaltungskalender remso.de / remso.eu, der recht viele Zugriffe hat. Alle paar Sekunden wird eine Veranstaltung aufgerufen. Jeder Besucher der Hauptseite kann es online verfolgen, da ich per Ajax alle 10 Sekunden die zuletzt aufgerufene Seite einblende.
Aber ich denke, der Schein trügt. Die Seiten werden von Maschinen aufgerufen, kein Mensch liest mit. Dieser Verdacht erhärtete sich, als ich die von Hand eingegebenen, gesuchten Veranstaltungsorte online stellte. Es sind weniger als 10 pro Tag.
Wenn ich einen unendlichen url-Raum zur Verfügung stelle, und jede Seite wiederum Links in diesen Raum enthält, dann sieht ein Index-Bot immer mehr Links.
Das ist bei dir der Fall, besonders da du ja Abfragen zu unsinnigen Orten (sie geben keine Veranstaltungen zurück) erlaubst.
Dein Problem ist also, dass deine Linkangebote in keinem Verhältns zu realen Veranstaltungsräumen sind.
Du hast dir damit ein Problem (unnötige Serverlast) geschaffen, das man nur sehr gezielt pro Bot wieder entfernen kann (Status 410 für jeden unerwünschten bereits indexierten Link)
Zwar ist es schön, von Suchmaschinen beachtet zu werden. Aber in Wirklichkeit bin ich an realen Menschen interessiert. Wie könnte man diese Zahl ermitteln?
Falsch, du solltest erst mal fragen, was eine Seite in einem SERP, die dem Besucher keine Veranstaltungen liefert, wenn die Seite navigiert wird, soll. Das ist nicht schön, sondern zu beheben.
mfg Beat
Falsch, du solltest erst mal fragen, was eine Seite in einem SERP, die dem Besucher keine Veranstaltungen liefert, wenn die Seite navigiert wird, soll. Das ist nicht schön, sondern zu beheben.
Wenn ich keinen Termin finde, gebe ich eine Seite aus mit diesen Infos:
if ( $row_termin )
{
header('content-type: text/html; charset=utf-8');
}
else
{
header("HTTP/1.0 410 Gone");
//header("HTTP/1.0 404 Not Found");
}
<meta name="robots" content="noindex, follow">
Und ich bin bei Google noch nicht auf eine leere Seite gestossen. Jedenfalls nicht im Google-Cache.