DaRumpel: große Bilder zerstückeln um kürzere Ladezeit zu erreichen

Beitrag lesen

Hi !

Rein Theoretisch müsste das Bild tatsächlich schneller geladen werden, da auch mehrfache gleichzeitige Anfragen an den Server gehandelt werden. Dies bedeutet, dass eine große Datei länger braucht, als viele kleine, da die kleinen gleichzeitig geladen werden.

außerdem kommt noch dazu das ich unwichtige teile eines
bildes, zum beispiel den hintergrund bei einem portrait
stärker komprimieren kann und die wichtigen teile
des bildes in besserer qualität speichern. das spart
auch wieder ein paar kb und somit zeit.

Außerdem kommt noch dazu, daß für jede neu zu ladende Datei der gesamte http blabla mist wieder abgearbeitet werden muß, vom Request über den TCP-IP-Handshake usw.
Außerdem kommt noch hinzu, daß zu jeder tollen jpg oder gif-Datei ein Header gehört, in dem alle möglichen und unmöglichen Informationen stehen, was leider auch Platz braucht.
Außerdem kommt noch hinzu, daß, egal ob gleichzeitig oder nicht gleichzeitig geladen die Bandbreite nach obenhin immer beschränkt ist, weswegen die Bits weder auf die eine noch auf die andere Art schneller über die Leitung kommen.
Außerdem kommt noch hinzu, daß das JPEG-Verfahren große, einfarbige oder wenig kontrastreiche Flächen eh ziemlich gut komprimieren kann.

Nach all diesen "Außerdem"s folgt der Schluß, das viele kleine Grafiken zwangsläufig langsamer beim User zu sehen sind als eine große.

Außerdem kommt noch hinzu, daß die objektive Ladezeit im Prinzip absolut egal ist. Was zählt ist das subjektive Gefühl des Users bzw. Surfers (zumindest in 90% aller Fälle).

Cya,

DaRumpel