Armin G.: Brauchen Suchmaschinen Links ?

Beitrag lesen

Tach auch,

weil der Crawler dafür einen vollständigen JavaScript-Interpreter
bräuchte.

Fuer das umfassende ja, aber mir ist nicht klar warum er nicht einen einfachen Algorithmus enthalten sollte der zumindest die einfachen und staendig benutzten erkennt (z.B. die fuer Popups).

Dann spinne ich halt mal ein bisschen weiter: Warum sollte er den nicht in irgendeiner Form bekommen? Vielleicht entwickelt ja irgendwer eine vollkommen neue Crawler-Technologie wo die Daten irgendwie auf dem Server verarbeitet werden so dass er den Interpreter nicht mitschicken muss.

das Problem ist also in allgemeiner Form bereits theoretisch nicht lösbar.

Nach gegenwaertigem Stand der Theorie. Kannst Du mir garantieren dass das immer so bleibt? Denn dann ist die Erde eine Scheibe und sich schneller als 20km/h zu bewegen ist toedlich...

Wenn es aber nur Teil-Lösungen geben kann, ist es für Crawler nicht
attraktiv, sich damit zu befassen - die Zeit steckt man besser in andere
Aktivitäten.

Jein. Warum sollte ein Entwickler nicht eine rudimentaere Funktion einbauen die zumindest die Standardversionen erkennt und den Links daraus folgt? Damit haette er einen Wettbewerbsvorsprung.

Denn die Qualität einer Suchmaschine definiert sich nicht über die Zahl
ihrer möglichen Ergebnisse, sondern über deren Qualität ...

OK, hier stimmen wir ueberein. Andererseits koennten aber gerade die Seiten die die Javascriptlinks beinhalten die qualitativ hochwertigen sein, also die die Suchmaschine eigentlich haben will...

Gruss,
Armin
(ohne Javascript-Links)