Tach!
Waren/sind das vorwiegend theoretische Argumente oder hat tatsächlich jemand einen Nutzen von der XML-Nutzbarkeit von Webseiten?
Anbindungen an performante, valide XML-Parser mit eleganten APIs finden sich in jeder Programmiersprache. Anbindungen an wirklich taugliche HTML5-Parser sind leider immer noch rar. Vor kurzem hat Google erst einen wiederverwendbaren HTML5-Parser in C veröffentlicht, für den gerade Bindings entstehen. Das haben wir für XML schon seit 10 Jahren.
Das ist immer noch Theorie. Und die Praxis? Wo werden denn Webseiten ausgewertet und benötigt dazu XHTML? Wenn man nicht selbst die Seiten erstellt hat, kann man sich doch nicht sicher sein, dass da alles richtig ist, geschweige denn, dass man Anspruch auf eine Reparatur hat. Wenn man mit dem Anbieter zusammenarbeitet, werden sich auch Möglichkeiten finden, nicht gerade Webseiten zum Datenaustausch zu verwenden.
Also, wo ist denn das prominente Beispiel, wo XHTML einen Nutzen bringt? (Weniger prominente reichen mir allerdings auch.)
Um die Bedeutung der Daten zu erhalten, ist (X)HTML auch nicht sonderlich hilfreich.
Das würde ich so nicht sagen. Einfache Texte lassen sich in (X)HTML gut auszeichnen und maschinell verarbeiten.
Was nützt mir als Otto-Normalverbraucher die Semantik der Textstrukturierung. Das ist doch, mal so gesagt, nur Schnickschnack für die optische Darstellung. Daraus lässt sich doch nur sehr begrenzt etwas über den Inhalt sagen.
Mit Microdata, RDFa und meta-/link-Elementen habe ich durchaus die Möglichkeit, zusätzliche Semantik unterzubringen.
Und was macht die auslesende Maschine, wenn der Seitenbetreiber sich entschließt, die Elemente umzusortieren? Fehlermeldungen schreiben, weil der XPath-Ausdruck nicht mehr stimmt. Ich weiß nicht so recht, Webseiten als Transportmedium für maschinell auswertbare Daten scheint mir weiterhin nicht wirklich praktikabel zu sein.
Ich erweitere noch mal die eigentliche Frage: Ist XHTML zu verwenden für den 08/15-Seitenbetreiber wirklich vorteilhafter als HTML?
dedlfix.