Hallo.
Hi,
Weil bei 24bit nur ein Drittel der Informationen gleichzeitig verarbeitet werden kann, die innerhalb des gleichen Zeitraumes bei 8bit verarbeitet werden können.
Nö. Die Informationen werden an dieser Stelle (Eingang des DA-Konverters) doch sowieso parrallel verarbeitet!
Ja, und? Passt sich die Busbreite dann automatisch der Farbtiefe an, oder ist es vielleicht doch eher so, dass innerhalb des gleichen Zeitraumes dreimal so viele 8bittige Farbwerte in den DAC fließen wie 24bittige?
Da den analogen Bildschirm die Farbtiefe nicht interessiert, auf der Eingansseite aber mal ein größerer, mal ein kleinerer Haufen Bits wartet, muss sich in Unterschied ergeben.
Nein, denn die Daten werden parrallel verarbeitet: Am Eingang des DACs stehen immer 3*8=24 bit an, unabhängig von dem Farbmodus!
Ja, eben. Also drei 8bittige Pixel in der Zeit, die ein 24bittiges benötigt.
Einzig die LUT (also der RAM Teil des RAM-DAC, = der Teil, der die Daten von 8 auf 24 bit aufbläst) könnte hier bremsen. Und ohne Datenblatt-Link glaube ich einfach mal nicht, dass Chip Entwickler so unfähig sein sollten diesen - im Vergleich zum DA-Konverter - unkritischen Teil zur Bremse zu machen.
Ich habe ein paar Links gefunden. Das ging recht schnell. Die Suchbegriffe kenst du ja, die üblichen Verdächtigen, sprich Hersteller, ja sicher auch.
Allerdings habe wir beide insofern unrecht, als dass moderne Karten keinen RAMDAC benötigen ;-)
Einen RAMDAC-Chip auf den man zeigen kann nicht mehr, aber selbstverständlich haben alle Karten, die einen Analogausgang haben einen DAC und ebenso brauchen alle Karten die 8 bit Farbmodi haben eine LUT. Die sind nur seit einigen Chipgenerationen im Grafikchip integriert.
Ich meinte moderne Karten, keine analogen.
MfG, at