Meine allerneueste (potentielle) Erfindung!
Bio
- zur info
Sup!
Nachdem ich mit der Tastaturmit geteilter Space-Taste schon keinen Erfolg als Erfinder hatte, weil die einfach jemand anders vorher erfunden hatte, habe ich jetzt eine neue Suchmaschinentechnik erfunden; nicht, dass Google oder M$ sich den Kram patentieren lassen. Wer hat's erfunden? Ich natuerlich. Vielleicht. Hoffentlich gibt's das noch nicht ;-)
Also: Das grosse Problem von Google ist, dass Leute Netzwerke von Pages aufmachen, die sich gegenseitig verlinken, damit die Seiten im Pagerank (der auch dadruch berechnet wird, wieviele Seiten auf die eigenen Seite verlinken) steigen.
Auf diese Art und Weise schummeln Geschaeftemacher ihre Seiten unter die ersten 10 Treffer.
Nun wird es aber meist so sein, dass jemand, der Informationen ueber "xyz" gesucht hat, aber nur auf eine Seite gekommen ist, die "xyz" verkauft (obwohl er das nicht wollte), in den meisten Faellen sofort zurueck zur Suchmaschine gehen wird.
Um diese unerwuenschten Treffer auszusortieren schlage ich folgendes Verfahren vor: Die Suchmaschine erzeugt einen Cookie mit einem Timestamp; nachdem der User einen Link aus den Suchergebnissen angeklickt hat, wird er, falls der Treffer schlecht war, wahrscheinlich sofort zur Suchmaschine zurueckgehen. Dort wird der Cookie ausgelesen und der Timestamp verglichen. Kommt der User innerhalb weniger Sekunden zurueck, wird die Seite abgewertet, je frueher, desto staerker. Kommt der User erst nach einer durchschnittlichen Seiten-Verweildauer (min 30 Sekunden vielleicht) zurueck, dann wird die Seite nicht abgewertet.
Da die meisten Leute von "falschen" Trefferseiten sofort zurueckkehren, koennen auf diese Art und Weise "geschummelte" Trefferseiten erkannt oder zumindest Anhaltspunkte ueber die Qualitaet des Treffers gesammelt werden.
Sollte diese Technik noch nicht erfunden sein, dann hoffe ich, dass ich verhindert habe, dass irgendein mieser Konzern sich diese Technik in Europa patentieren lassen kann ;-)
Gruesse,
Bio
hi,
Um diese unerwuenschten Treffer auszusortieren schlage ich folgendes Verfahren vor: Die Suchmaschine erzeugt einen Cookie mit einem Timestamp; nachdem der User einen Link aus den Suchergebnissen angeklickt hat, wird er, falls der Treffer schlecht war, wahrscheinlich sofort zur Suchmaschine zurueckgehen. Dort wird der Cookie ausgelesen und der Timestamp verglichen. Kommt der User innerhalb weniger Sekunden zurueck, wird die Seite abgewertet, je frueher, desto staerker. Kommt der User erst nach einer durchschnittlichen Seiten-Verweildauer (min 30 Sekunden vielleicht) zurueck, dann wird die Seite nicht abgewertet.
über gefakte suchanfragen, und kurz darauf folgendes senden eines erneuten requests, bei dem ich auch ein cookie mitliefere, kann ich so also missliebige konkurrenten recht einfach von höheren positionen verdrängen ...
btw: ich habe ein fenster/tab mit google offen, und öffne alle ergebnisse, die mir interessant relevant, in einem neuen fenster/tab.
ich rufe also google gar nicht erneut auf, so kommt auch kein cookie zum tragen, wenn mich eine seite nicht interessiert hat.
gruss,
wahsaga
Hallo wahsaga,
btw: ich habe ein fenster/tab mit google offen, und öffne alle ergebnisse, die mir interessant relevant, in einem neuen fenster/tab.
ich rufe also google gar nicht erneut auf, so kommt auch kein cookie zum tragen, wenn mich eine seite nicht interessiert hat.
Da lies Dir man noch mal gaaanz genau das Kapitel zu Cookies durch, bevor Du hier noch eine Antwort zu Sessions und Cookies gibst *gnicker*
Tom
hi,
btw: ich habe ein fenster/tab mit google offen, und öffne alle ergebnisse, die mir interessant relevant, in einem neuen fenster/tab.
ich rufe also google gar nicht erneut auf, so kommt auch kein cookie zum tragen, wenn mich eine seite nicht interessiert hat.Da lies Dir man noch mal gaaanz genau das Kapitel zu Cookies durch, bevor Du hier noch eine Antwort zu Sessions und Cookies gibst *gnicker*
und du lies dir bios "konzept" und meine antwort noch einmal langsam durch.
seine methode sollte darauf basieren, dass der nutzer google aufruft, und dieses ein cookie setzt.
nachdem er einer seite, die sich ihre hohe position erschlichen hat, auf den leim gegangen ist, ruft er google sofort danach wieder auf.
google bekommt im erneuten request seinen cookie wieder mitgeliefert, und soll daraus schlüsse ziehen.
wenn ich die google seite aber nur einmal öffne, dann erkläre du mit deinem offensichtlich über das meine hinausgehende verständis von cookies und sessions (wo wurden die hier eigentlich erwähnt?), wo und wie dann google sein gesetztes cookie von mir zeitnah zurückbekommt.
gruss,
wahsaga
Hallo wahsaga,
wenn ich die google seite aber nur einmal öffne, dann erkläre du mit deinem offensichtlich über das meine hinausgehende verständis von cookies und sessions (wo wurden die hier eigentlich erwähnt?), wo und wie dann google sein gesetztes cookie von mir zeitnah zurückbekommt.
Oh, entschuldige bitte. Da hab ICH mich nun geirrt. Google wendet diese Technik, die ich meine, gar nicht an:
Der Link geht nicht wirklich zur Site, sondern an die Suchmaschine zurück mit dem Link als Parameter. Dort wird er gezählt und ein Redirect-Header an den Client zurückgeschickt.
Ist mir ja richtig peinlich. Nu hast DU was gut ...
Wo ist Deine Stammkneipe?
Grüße
Tom
hi,
Oh, entschuldige bitte. Da hab ICH mich nun geirrt.
kein problem, kommt vor.
Google wendet diese Technik, die ich meine, gar nicht an:
Der Link geht nicht wirklich zur Site, sondern an die Suchmaschine zurück mit dem Link als Parameter. Dort wird er gezählt und ein Redirect-Header an den Client zurückgeschickt.
jepp, bekanntes verfahren, aber von google m.w. nicht eingesetzt.
natürlich könnte google sowas in der art verwenden, wenn man Bios verfahren einsetzen wollte.
aber das ganze verfahren taugt m.e. nicht allzu viel, und würde nur möglichkeiten für noch mehr index-spamming bieten.
Ist mir ja richtig peinlich. Nu hast DU was gut ...
Wo ist Deine Stammkneipe?
diese hier: http://www.lotjonn.com/ ;-)
gruss,
wahsaga
Hi,
btw: ich habe ein fenster/tab mit google offen, und öffne alle ergebnisse, die mir interessant relevant, in einem neuen fenster/tab.
ich rufe also google gar nicht erneut auf, so kommt auch kein cookie zum tragen, wenn mich eine seite nicht interessiert hat.
Dito. dazu kommt, dass ich oft mehrere Seiten innerhalb kurzer Zeit (ca. 10 Sekunden) in einem neuen Tab öffne und dann auf die nächste Ergebnisseite von Google wechsle...
Gruß,
small-step
Hi,
über gefakte suchanfragen, und kurz darauf folgendes senden eines erneuten requests, bei dem ich auch ein cookie mitliefere, kann ich so also missliebige konkurrenten recht einfach von höheren positionen verdrängen ...
Naja, schon jetzt könnteste Du mißliebige Konkurrenten durch Google schädigen. Klick einfach den Sponsorenlink der Firma, die Du nicht magst, bei den Suchergebnissen 1000 mal an. Die zahlen dann für jeden Klick den Betrag x.
Zu der anderen Sache: auch wenn x% der Google-Nutzer die Suchergebnisse in einem neuen Fenster öffnen, tuen es (100-x)% nicht. Auch das würde aber schon zu einer Verbesserung der Qualität der Suchergebnisse führen, weil dadurch entsprechend "schlechte" Seiten im Ranking abgewertet werden.
MfG
MarkX.
hi,
Zu der anderen Sache: auch wenn x% der Google-Nutzer die Suchergebnisse in einem neuen Fenster öffnen, tuen es (100-x)% nicht. Auch das würde aber schon zu einer Verbesserung der Qualität der Suchergebnisse führen, weil dadurch entsprechend "schlechte" Seiten im Ranking abgewertet werden.
trotzdem lässt sich dieses verfahren durch automatisierte anfragen unterlaufen, und eröffnet damit nur weitere möglichkeiten zur manipulation des indexes.
gruss,
wahsaga
Hi,
trotzdem lässt sich dieses verfahren durch automatisierte anfragen unterlaufen, und eröffnet damit nur weitere möglichkeiten zur manipulation des indexes.
trotzdem sollten Suchmaschinen automatisierte Verfahren einsetzen um "Gutes" von "Schlechtem" zu trennen, obwohl sicher für nahezu jedes dieser Verfahren ein Weg existiert um es auszuhebeln oder ins Gegenteil zu verkehren. Die Alternative wäre nur ein redaktionell bearbeitetes Verzeichnis wie yahoo, welches aber meiner Meinung nach nicht mit der wachsenden Informationsflut Schritt halten kann und deshalb nie so aktuell ist wie eine gute Suchmaschine.
MfG
MarkX.
Sup!
über gefakte suchanfragen, und kurz darauf folgendes senden eines erneuten requests, bei dem ich auch ein cookie mitliefere, kann ich so also missliebige konkurrenten recht einfach von höheren positionen verdrängen ...
Hmmm... das ist aber einfach zu erkennen, denn kein Mensch kann mehr als 200 Zeichen pro Sekunde tippen, die meisten sogar deutlich weniger.
Darum schlage ich folgende Verbesserung vor: Im Cookie wird gespeichert, wie schnell Du durchschnittlich neue Suchanfragen stellst. Wenn Du z.B. nur ein Wort geaendert hast in zwei aufeinanderfolgenden Suchen, dann kann man errechnen, wie schnell Du loeschen kannst, und wenn du ein wort hinzufuegst, kann man errechnen, wie schnell du ca. tippst. Daraus errechnet man dann die zu erwartende Verzoegerung zwischen zwei Suchanfragen, die du "unmittelbar hintereinander" stellst.
So kan man das Verfahren auf die Nutzer (langsam tippende Oma, Geek) kalibrieren. Bei einer langsamen Oma sind vielleicht 90 Sekunden Verzoegerung noch "verdammt schnell zurueckgekehrt".
Robots werden erkannt, weil sie unrealistisch schnell tippen oder ungewoehliche (oder stereotype) Suchanfragen stellen, und dann werden sie gesperrt, indem in ihr cookie codiert wird, dass sie unglaubwuerdig sind.
Es wird auch gespeichert, wieviele Anfragen man in den letzten Stunden gestellt hat, mehr als x Anfragen gehen nicht in die Bewertung ein. Es wird auch erkannt, ob jemand auffaellig oft nichts vernuenftiges findet, oder seiten auffaellig schnell wieder verlaesst, die andere sich lang ansehen. Schliesslich und endlich wird ueberwacht, ob von einer IP oder aus einem subnet viele auffaellige anfragen kommen. Diese subnets oder IPs werden dann ebenfalls als unglaubwuerdig vermerkt.
Das Cookie wird von Google RSA verschluesselt, um cookie-manipulationen zu verhindern;
Laenger "lebenden" Cookies wird (logarithmisch) mehr Gewichtung zugebilligt als neuen, damit die Manipulatoren nicht immer einfach die cookies loeschen und so manipulieren.
Gruesse,
Bio
Tach auch,
Robots werden erkannt, weil sie unrealistisch schnell tippen oder ungewoehliche (oder stereotype) Suchanfragen stellen, und dann werden sie gesperrt, indem in ihr cookie codiert wird, dass sie unglaubwuerdig sind.
Seit wann akzeptieren Robots Cookies?
Gruss,
Armin
Sup!
Seit wann akzeptieren Robots Cookies?
Na, die Bots, die meinen Ranking-Mechanismus manipulieren wollten, muessten das schon tun...
Gruesse,
Bio
Hallo Bio,
nun habe ich die letzen Tage aber gelesen, das M$ das Patent für Cookies hat.
Die werden Dir als darauf aufsetzendes Patent soviel Lizenzgebühr abnehmen, dass für Dich nix übrig bleibt.
Ich habe da eine bessere Erfindung gemacht:
den Spam-Responder
Wenn mir eine eine Spammail schickt, drehe ich einfach die Spannungsrichtung am Interface um, noch bevor die eMail vollständig übertragen ist und dadurch fließt der ganze Spam automatisch zum Absender zurück.
Grüße
Tom
Hihi
Da die meisten Leute von "falschen" Trefferseiten sofort zurueckkehren, koennen auf diese Art und Weise "geschummelte" Trefferseiten erkannt oder zumindest Anhaltspunkte ueber die Qualitaet des Treffers gesammelt werden.
Sollte diese Technik noch nicht erfunden sein, dann hoffe ich, dass ich verhindert habe, dass irgendein mieser Konzern sich diese Technik in Europa patentieren lassen kann ;-)
geil, ich werde dann ein programm schreiben, dass eine seite über google anwählt und innerhalb kürzester zeit schliest und dann zu google zurückkehrt und das ganze mind. 1000 x pro min ;-)
dann verkaufe ich dieses prog. an kunden die ihre mitbewerber aus den top rängen bei google rausschmeissen wollen.
OK Bio - machen wir halbe-halbe ?!
Gruesse,
Bio
grüße
der neue
Hallo Bio,
Die Suchmaschine erzeugt einen Cookie mit einem Timestamp; nachdem der User einen Link aus den Suchergebnissen angeklickt hat, wird er, falls der Treffer schlecht war, wahrscheinlich sofort zur Suchmaschine zurueckgehen.
genau an diesem "zurückgehen" klemmt es wohl. Er wird wohl kaum eine neue Suchanfrage starten ... er hat ja noch weitere Ergebnisse die er sich angucken möchte.
Es _könnte_ funktionieren wenn der Surfer:
a) einen Link nach dem anderen öffnet, also nicht mehrere gleichzeitig.
b) der Aufruf eines Links die Informationen an google liefert.
Etwa: http://www.google.de/redir?TimeStampURLInfo&www.dieURL.de
Aber: kann man aus der Verweildauer einen direkten Rückschluss auf die Qualität der Seite ziehen? Vielleicht war ja nur die Suchanfrage falsch formuliert. Oder die Seite ist aus welchen Gründen auch immer, gerade nicht erreichbar, oder ....
Grüße,
Jochen
Hi,
Aber: kann man aus der Verweildauer einen direkten Rückschluss auf die Qualität der Seite ziehen? Vielleicht war ja nur die Suchanfrage falsch formuliert. Oder die Seite ist aus welchen Gründen auch immer, gerade nicht erreichbar, oder ....
Da bleibt wohl bloß eins...
Überprüfung ob Mensch oder Maschine durch ein Captcha und anschließender Bewertung der gefundenen Seite.
OK, bisschen umständlich :-)
Gruß,
small-step
Hi,
Die Suchmaschine erzeugt einen Cookie mit einem Timestamp; nachdem der User einen Link aus den Suchergebnissen angeklickt hat, wird er, falls der Treffer schlecht war, wahrscheinlich sofort zur Suchmaschine zurueckgehen.
Und wie willst du verhindern, dass bei diesem "zurückgehen" nicht einfach die Ergebnisseite aus dem Cache geholt wird, und der Server gar nix davon mitbekommt?
wunderwarzenschwein
Hi,
Und wie willst du verhindern, dass bei diesem "zurückgehen" nicht einfach die Ergebnisseite aus dem Cache geholt wird, und der Server gar nix davon mitbekommt?
<meta http-equiv="cache-control" content="no-cache">
Schönen Gruß,
Julian
hallo
»» Und wie willst du verhindern, dass bei diesem "zurückgehen" nicht einfach die Ergebnisseite aus dem Cache geholt wird, und der Server gar nix davon mitbekommt?
<meta http-equiv="cache-control" content="no-cache">
würde allerdings beachtlichen zusatz-traffic verursachen, auf den google bestimmt nicht scharf wäre.
ansonsten finde ich die idee aber nicht schlecht.
grüsse, raik
Hallo Bio,
Also: Das grosse Problem von Google ist, dass Leute Netzwerke von Pages aufmachen, die sich gegenseitig verlinken, damit die Seiten im Pagerank (der auch dadruch berechnet wird, wieviele Seiten auf die eigenen Seite verlinken) steigen.
Als erstes mal müßte Google diesen Quatsch mit dem Links-zählen abschaffen. Das kann einfach kein Qualitätskriterium sein. Dieser Fake ist doch schon seit langem aus der Wissenschaft bekannt. Da versuchen die Wissenschaftler mit Namen unter möglichst vielen Veröffentlichungen zu erscheinen (an denen sie nicht mitgearbeitet haben), weil daran ihre Reputation gemessen wird. Ein wichtiges Kriterium, wenn man auf eine Stelle an der Uni scharf ist.
heute die TAZ gelesen? Da steht was interessantes über Google. Ich glaube man muß sich demnächst eh eine andere Suchmaschine suchen.
Gruß, Andreas