Hallo
Wenn eine Suchmaschine Ergebnisse listet, die einen 4xx-Fehler tragen (Client-Fehler), dann macht die Suchmaschine was falsch. Kein Grund die Seite zu ändern, sondern eher ein Grund a) die Suchmaschine zu ändern oder b) die Suchmaschine zu wechseln.
Du vermischst gerade die Perspektiven. Als Anwender wechsle ich bei Bedarf die Suchmaschine, als Entwickler kann ich das aber nicht. Bestenfalls kann ich die konkrete Suchmaschine per robots.txt ausschließen. Schlimmstenfalls muss ich darüber nachdenken, ob ich mir das leisten kann.
Bleibt aber die Frage, ob ich mich als Entwickler zum Sklaven von Suchmaschinen machen will. Ich meine: Worüber reden wir hier. Wir reden nicht darüber, eine Seite (lies: eine Domain, ein Projekt...) gänzlich unauffindbar zu machen, sondern nur darüber, ob bestimmte Seiten mit 4xx-Fehlern extra vom Indizieren ausgeschlossen werden sollten oder eben nicht.
Ja, aber wenn du sagst, eine fehlerhafte Implementierung einer Suchmaschine „sei ein Grund a) die Suchmaschine zu ändern oder b) die Suchmaschine zu wechseln“, dann sollte dazugesagt werden, dass diese Aktionen vom suchenden Benutzer der Suchmaschine ausgeführt werden können, aber ohne den von dir negierten Mehraufwand nicht vom Entwickler einer Seite. Als Entwickler hast du keinen Einfluss auf Änderungen an der Schmaschine, du kannst sie bloß draußen halten (Entsprechung des Wechselns).
Du kannst die kaputte Suchmaschine ignorieren, du kannst sie alternativ von der Indizierung ausschließen, aber das ist dann „der Mehraufwand“.
Ich bin grundsätzlich als Webentwickler eigentlich nicht bereit, Features, die eine Suchmaschine zumindest in meinem Verständnis selbstverständlich haben sollte, auf meinem eigenen Mist nachzubilden (d.h. der Suchmaschine zu sagen: Nein, diese Seite hat einen 4xx-Statuscode, bitte nicht indizieren)...
ACK
Ich halte mir lediglich das Recht vor, meine Seite nicht für jeden abstrusen Anwendungsfall zu verbiegen.
Dann, also wenn du darauf keine Rücksicht nimmst, musst du eben mit den Fehlern einzelner Suchmaschinen leben.
Genauso wie ich keine Fallbacks für den IE 6 mehr einbaue, muss ich auch Suchmaschinen, die nicht ordentlich arbeiten, nicht durch Zusatzarbeit besonders unterstützen.
Wenn du, wie ich übrigens auch, keine *bewussten* Optimierungen für Suchmaschinen durchführst, unterstützt du auch keine spezielle Suchmaschine durch Zusatzarbeit. ;-)
Und, um dich zu zitieren „Worüber reden wir hier“? In den meisten Szenarien, die ich mir vorstellen kann, packt man alles, was nicht jedem zugänglich sein soll, in ein Verzeichnis eventuell samt Unterverzeichnissen. Typischerweise ist dort auch nichts drin, was damit nichts zu tun hat. Dann ist es aber auch kein nennenswerter Mehraufwand, in der robots.txt dieses Verzeichnis von der Indizierung auszuschließen. Ist das schon „verbiegen“?
Und wer sagt, es sei Zweck einer Suchmaschine auch Seiten mit 403er Statuscode ("Forbidden") anzeigen, der sollte nochmal drüber nachdenken. Mit gleichem Recht müssten dann von dieser Suchmaschine auch alle 404er ("Not Found") gelistet werden...
Dass das so sein soll, habe ich nicht behauptet.
Tschö, Auge
--
Verschiedene Glocken läuteten in der Stadt, und jede von ihnen vertrat eine ganz persönliche Meinung darüber, wann es Mitternacht war.
Terry Pratchett, "Wachen! Wachen!"
ie:{ fl:| br:> va:) ls:[ fo:) rl:( ss:| de:> js:| zu:}
Veranstaltungsdatenbank Vdb 0.3