molily: JavaScript

Beitrag lesen

Hallo,

Jeder Seitenbetreiber ist selbst schuld, wenn er Seitenbesucher, die JavaScript deaktiviert haben, nicht mit Inhalten versorgt. Denn darunter sind Besucher, die man ganz sicher mit Inhalten versorgen möchte.

Der Verweis auf Suchmaschinen-Crawler ist natürlich angebracht, aber ich halte diese für das kleinere Problem. Für ein Szenario, dass vergleichsweise schnell abgefrühstückt ist.

Suchmaschinen sind keine Besucher, sondern bloß User-Agents. Sie interagieren nicht mit der Site wie ein Mensch, sondern rufen bloß Ressourcen per HTTP ab, extrahieren Text aus HTML-Dokumenten und folgen Hyperlinks. Suchmaschinenzugänglichkeit ist daher etwas ganz anderes als ein UI, das ohne JavaScript für einen Menschen funktioniert und einem – wenn auch unkomfortabler – das ermöglicht, was man mit dem Standard-UI tun kann.

Viele JavaScript-Anwendungen sind suchmaschinenzugänglich, aber für Menschen nicht sinnvoll und komfortabel ohne JavaScript nutzbar. Twitter und Facebook sind da Beispiele. Facebook ist m.W. rudimentär ohne JS nutzbar, aber an einigen Stellen funktionieren Features ohne JS kommentarlos nicht. Twitter verweist einen ohne JS auf die zugängliche Mobilversion. Beide gehen davon aus, dass man mit speziellen Clients über die API auf das Angebot zugreift, wenn man nicht an einem Gerät mit leistungsfähigem Browser und entsprechendem Bedienkonzept sitzt (z.B. bei Mobilgeräten).

Bei einfachen, statischen, nicht-personalisierten Sites stimmt es natürlich, dass man Inhalte nicht hinter JavaScript verstecken sollte. Dafür gibt es i.d.R. keinen Grund. Bei heutigen JavaScript-Anwendungen heißt Suchmaschinenzugänglichkeit der Inhalte aber nicht, dass auch die Anwendung für Menschen nutzbar ist. Es wäre getrennt zu diskutieren, ob das nötig und wünschenswert ist. Der Trend geht eher dahin, dass menschliche Besucher nur mit JavaScript ein vollwertiges UI bekommen.

Mathias