Sven Rautenberg: SEO - doppelter Inhalt

Beitrag lesen

Moin!

Mit Ajax zerpflücken heißt, dass eine aktuell laufende Seite (deren Content/html ganz normal vom Webserver generiert wird) Content via Ajax nachladen soll, damit dieser Content von Google nicht gesehen wird. Mal davon abgesehen dass ich glaube, dass Google JS fähig ist, ist das natürlich ein Betrug hoch 10.

Also der "normale" Crawler kann kein JS (soweit ich weiß)

Da würde ich widersprechen. Ich sehe jedenfalls in den Logfiles, die ich habe, Requests vom Googlebot auf eine REST-API, die via Ajax angesprochen wird.

Google oder irgendeine Magie schafft es, nicht nur die per Javascript erzeugten API-URLs zu erkennen und abzufragen, sondern findet sogar die absichtlich hinzugefügten HTTP-Header, die im jQuery-Request auftauchen.

Weil Google oder wer auch immer dummerweise einen kleinen, aber verständlichen Fehler in den Request einbaut, wird von der API kein gültiger Inhalt zurückgegeben, weshalb ich die Wirkung auf das Ranking nicht beurteilen kann.

Aber was ich beurteilen kann: Google kennt Ajax, und Javascript, und die einschlägigen Bibliotheken, und kann das alles parsen und ermitteln, ob Ajax gemacht wird. Vielleicht nicht unbedingt, wenn Benutzerinteraktion erforderlich ist (aber mal überlegen: Wer stellt den Browser Chrome her?), aber definitiv für alles, was automatisiert beim Seitenladen abläuft, bevor der User was tun kann.

Insofern dürfte Google auch in der Lage sein, nachträgliche Javascript-Manipulationen am DOM nachzuvollziehen und in die Bewertung einfließen zu lassen.

Mit anderen Worten: Die SEO-Strategien, die im OP diskutiert wurden, werden mutmaßlich nichts helfen.

- Sven Rautenberg