Hi!
Der folgende Beitrag dient lediglich zur Information und als Diskussionsgrundlage. Eine Frage hab ich nicht.
Golem berichtet: Googles Crawler lernt Ajax. Die Quelle hat der Artikel nicht erwähnt, aber es ist GET, POST, and safely surfacing more of the web aus Googles Webmaster Central Blog.
Gelegentlich tauchen ja Fragen auf, wie:
- Wann GET und wann POST verwenden?
- Können Suchmaschinen Javascript?
Der Artikel gibt eine recht deutliche Antwort. GET und POST sollten weiterhin wie vorgesehen verwendet werden: reine Informationsabfragen per GET, Requests mit Nebenwirkungen (Daten werden geändert) per POST. Nun kann es vorkommen, dass GET nicht reicht, weil damit zu wenig Daten übertragen werden können. Dann muss man auf POST umsteigen. Manche Webseiten- oder Programm-Autoren machen es einfach ohne Not falsch und Google hätte aber in beiden Fällen gern den Inhalt gesehen, um ihn ihren (Be)suchern präsentieren zu können. Dass der Google-Bot auch Formular-Requests auslöst, haben sie schon vor längerer Zeit bekanntgegeben (im Google-Blog-Artikel der Verweis zu crawling forms). Wie auch im aktuellen Artikel zu lesen ist, werden diese jedoch nicht wahllos ausgeführt, sondern mit Bedacht, wenn sich der Bot also sicher ist, dass nichts unerwünschtes passiert. Natürlich kann er das nicht in jedem Fall richtig entscheiden, weswegen weiterhin die GET-POST-Aufgabenteilung die bevorzugte und natürlich auch sinnvollste Variante bleibt.
Neu hinzugekommen ist (oder vielleicht hab ich es bisher nur nicht wahrgenommen, vielleicht macht er das ja für GET schon länger), dass der Bot nun auch in Javascript/Ajax "versteckten" POST-Requests folgt. Das muss auch so sein, denn mit zunehmender Verwendung von Ajax-Nachladen muss auch die Suchmaschine darauf reagieren. Natürlich sind Ajax-Request per GET für das reine Informationsabfragen ohne beabsichtigte Nebenwirkungen zu bevorzugen. Doch wie schon gesagt, ist das nicht in jedem Fall möglich und POST findet auch dann Verwendung.
Das heißt also, dass zumindest der Bot von Google auch Javascript auswertet und mitunter sogar POST-Requests auslöst, denn anderweitig kommt er ja nicht an die Informationen zu den Ajax-Requests. Allerdings - um die Befürchtungen etwas zu dämpfen - folgt er nur solchem Javascript-Code, der ohne Nutzereingriff sowieso ausgeführt werden würde, also beispielsweise Aktionen bei onload oder bei document-ready. Zudem wird natürlich das bekannte Bot-Lenk-Dokument robots.txt befolgt.
Lo!