Na ja, wenn ich mir immer anschaue, wie langsam ein Mobiltelefon so eine Webseite aufbaut, dann frage ich mich immer. ob man dass nicht besser machen könnte. Sicher, man kann es mit Javascript zum beispiel umgehen, in dem man nun einen leere Korpus als HTML seite laden lässt und dann die Daten nachlädt, aber irgendwie doch auch ein Gammelweg.
Wenn ich es richtig verstehe. Kann ja die Rendering-Enige erst dann anfangen, wenn das letzte Byte eingetröpfelt ist. Das muesste man doch besser lösen können, indem der der request datenblöcke erhält die schon parallel abgearbeitet werden können. Es muss also nicht gewartet werden, bis alles da ist.
Desweiteren finde ich die closing tag names ziemlich überflüssig. Zudem könnte man darüber nachdenken, ob man nicht eine teil der Webseite gleich komprimiert verschickt. Damit könnte man eine weiteres Nadelöhr stopfen und wertvolle Bandbreite bei Mobiltelefonen sparen. Auch das kann man natürlich über Umwege durch nachladen von komprimierten Daten heute schon umgehen. Aber wenn das standardisiert wäre, da könnten die Browserhersteller reagieren und das besser implementieren.
Kurzum, in einer Zeit, in der die Kerne/Thread einer CPU zunehmen, müsste man sich auch mal Gedanken machen, ob von dieser Entwicklung nicht auch die Webseiten profitieren sollten.