Moin!
Die Farbtiefe wird nämlich einfach verringert.
Bei was? Bei JPEG? Eher nicht, jedenfalls nicht so, wie du implizierst.
Die übliche Farbtiefe pro Kanal beträgt 256 Stufen (8bit).
Was bei drei Kanälen R, G und B dann 24 Bit ergibt.
Wenn man die nun auf 16 Stufen (4bit) verringert, spart man also die Hälfte der Bits ein.
Die Aussage ist richtig, das hat aber nichts mit JPEG zu tun - dort wird nicht einfach die Hälfte der Bits genommen.
Hinzu kommt dabei aber noch ein Gewinn aus dem speziellen Kompressionsverfahren von JPEG.
Du redest diffus.
Die Wikipedia redet wesentlich klarer: JPEG.
Da Bildschirme unter Windows mit 96dpi (! und nicht 72) sowieso eine bescheidene Auflösung haben, helfen Methoden wie Dithering auch nicht unbedingt weiter, besonders, wenn das Bild z.B. Linien enthält.
Wann dringt es eigentlich weltweit durch, dass Bildschirme keine DPI haben können, zumindest keine, die man global festlegen könnte?
Also nochmal zum Mitmeißeln: DPI (Dots per Inch) bzw. PPI (Pixel per Inch) ist eine Maßeinheit, welche eine Anzahl dimensionsloser Elemente namens "Pixel" oder eben "Dot" auf einem konkreten Ausgabemedium, welches ausschließlich eindeutig meßbare Längen ausgibt, in einer festgelegten Dimension darzustellen.
Wenn ich ein Bild habe, was aus 72x72 Pixeln besteht, und ich das ausgedruckt genau 2,54x2,54 Zentimeter groß haben will, dann muß ich die mit 72 PPI ausdrucken.
Wenn ich aber der Grafikkarte sage, sie soll einfach ohne Größenveränderung das Bild auf einem Bereich von 72 x 72 Pixeln darstellen: Wie groß ist dann das Bild in Zentimetern? Antwort: Man weiß es nicht, denn erstmal muß die Grafikkarte aus dem Video-RAM ein Bild generieren. Das Bild wird dann irgendwo angezeigt. Das könnte ein Handymonitor sein, das könnte ein normaler Bildschirm sein (Nebenfrage: Welche Auflösung hat die Grafikkarte eingestellt? 640x480 oder 1280x960? Und ist das Bild auf dem Monitor komplett bis an den Rand dargestellt, oder gibts schwarze Ränder?), es kann aber auch ein Supervideobeamer sein, der das Bild auf eine Kinoleinwand projiziert.
Ergo: Wenn ich bei all diesen Darstellungsweisen mal meinen Zollstock dranhalte, kriege ich vermutlich Größenangaben von 1 Zentimeter bis 2 Meter für die Kantenlänge des Bildes.
Deshalb: Bildschirme haben keine DPI!
Aber natürlich gibt es den DPI-Faktor. Nämlich für den umgekehrten Fall: Wenn ich dem Computer sage, er soll mal eine zwei Zentimeter große Schrift anzeigen, dann braucht er dafür irgendeinen Umrechnungsfaktor, um zu wissen, wieviele Pixel er dafür denn braucht.
Was das Dithering angeht: Das funktioniert auf Computerbildschirmen sehr gut - vornehmlich dann, wenn die für die Dither-Farbmischung verfügbaren Farben sich ziemlich ähnlich sind, und man nicht versucht, aus Schwarz und Weiß ein 55%-Grau zu mischen. Dithering kann sogar wesentlich bessere visuelle Resultate erzielen, als ein Bild mit JPEG-Artefakten, wenn man das Dithering entsprechend optimiert.
Dithering hat aber absolut nichts mit der JPEG-Komprimierung zu tun. Dort wird es definitiv nicht angewandt.
- Sven Rautenberg