Hallo,
Gegen welchen Mythos erhebst Du Einspruch?
Gegen den, dass »sauberer Code« überhaupt anderes bedeuten könnte als Wohlgeformtheit. (Und, wie du sagst, ein Zwang existiert praktisch nicht.)
- Wer sich wirklich mit HTML beschäftigt, wird sauberen Code schreiben.
Klar, wer HTML nicht beherrscht, wird auch mit XHTML nicht besser zurecht kommen, aber trotzdem schätze ich als Profi die maschinell überprüfbare Strenge von XHTML, weil ich genauso dumme Fehler mache. Solche Fehler automatisiert in HTML zu finden ist ungemein schwieriger.
- Wer sich wirklich mit XHTML beschäftigt, wird sauberen Code schreiben. Wer es nicht tut, wird dadurch nicht sofort sterben (wg. der Fehlertoleranz der HTML-Browser, da XHTML üblicherweise als HTML ausgeliefert wird). Aber er wird sich in ein paar Jahren vielleicht "wundern", warum sein "XHTML" gar keines ist, oder, warum das JS in seinem XHTML "plötzlich" nIcht mehr funktioniert.
Nunja - diese »Sie werden sich irgendwann wundern und XHTML verfluchen«-Prognose, die auf Hixie einst als Argumente anbrachte, macht zwei Annahmen, die ich nicht für gegeben halte: Irgendwer verspricht Webautoren das Blaue vom Himmel: XHTML könnt ihr mit allen möglichen XML-Tools verarbeiten und daraus viele Vorteile ziehen! Gleichzeitig wird verschwiegen, dass die Verarbeitung als echtes XML anders abläuft als text/html-Tag-Soup und man sich nicht auf Tag-Soup-Parsing ausruhen will, sondern immer wieder mit XML-Prozessoren prüfen sollte.
Eine solche Täuschung sehe ich eigentlich nicht - die gab es vielleicht mal vereinzelt. Und wenn, die Problematik lässt sich ganz einfach auflösen, indem man immer wieder betont, was es mit XHTML auf sich hat - zeitgemäße Dokumentationen machen das m.E. auch.
Mathias