Hallo
Im übrigen: Natürlich kann man sich drauf verlassen, dass Suchmaschinen Seiten mit 403 (übrigens imho ebenso mit 401 und 404) nicht anzeigen. Wäre auch dämlich. Die Suchmaschine kann nicht davon ausgehen, dass ich mich verbiege und alle 404er per robots.txt ausschließe.
Wenn eine Suchmaschine Ergebnisse listet, die einen 4xx-Fehler tragen (Client-Fehler), dann macht die Suchmaschine was falsch. Kein Grund die Seite zu ändern, sondern eher ein Grund a) die Suchmaschine zu ändern oder b) die Suchmaschine zu wechseln.
Du vermischst gerade die Perspektiven. Als Anwender wechsle ich bei Bedarf die Suchmaschine, als Entwickler kann ich das aber nicht. Bestenfalls kann ich die konkrete Suchmaschine per robots.txt ausschließen. Schlimmstenfalls muss ich darüber nachdenken, ob ich mir das leisten kann.
Tschö, Auge
Verschiedene Glocken läuteten in der Stadt, und jede von ihnen vertrat eine ganz persönliche Meinung darüber, wann es Mitternacht war.
Terry Pratchett, "Wachen! Wachen!"
ie:{ fl:| br:> va:) ls:[ fo:) rl:( ss:| de:> js:| zu:}
Veranstaltungsdatenbank Vdb 0.3