Harlequin: 2 Monitore / DVI+VGA

Beitrag lesen

Yerf!

den Artikel kenne ich tatsächlich nicht.

Die c't hat sich damals (obs heut auch noch so ist weiß ich nicht) die Arbeit gemacht bei den Testmodellen einen Weißpixel per Speicheroscilloskop zu messen. das Ergebnis sprach Bände... nur bei 3 Modellen war erkennbar, dass das eigentlich ein Rechteckssignal sein soll. Der Großteil hatte zumindest ein sauberes Maximum, aber es gab auch ein paar "Billigmodelle" bei denen war das nur eine breitgetretene flache Erhebung.

Aber die letzte Standalone-Graphikkarte, die ich gekauft habe, war eine Matrox Millennium G400 Dualhead mit 2 VGA-Ausgängen (davon einer wahlweise auch für TV-Gerät) für einen AGP-Slot. Wann war das? Ich schätze, so um 2000.

Jo, dürfte schon etwas her sein. Aber die Matrox waren in sachen Bildqualität schon immer erste Wahl.

Seitdem habe ich immer die auf den Mainboards integrierten Onboard-Lösungen benutzt und war damit immer sehr zufrieden (ich brauche keine anspruchsvollen 3D-Funktionen oder ähnlich hochgezüchtetes Zeugs).

Wenn das Board was taugt spricht nix dagegen (da hab ich mich ja hier im Forum davon erst Überzeugen lassen müssen ;-)

Und es ist auch technisch nicht einzusehen. Der Chip verrichtet seine Aufgabe vermutlich tadellos, aber sowohl der DAC als auch die passive Beschaltung rundherum, sogar Stecker und Kabel haben einen wesentlichen Einfluss auf die Signalqualität.

Trotzdem schimpfen viele auf die schlechte Bildqualität von NVidia (im speziellen, gab ja auch schlechte karten mit ATI-Chip). Billig kaufen und trotzdem Top-Qualität erwarten... so läufts halt...

Gruß,

Harlequin

--
<!--[if IE]>This page is best viewed with a webbrowser. Get one today!<![endif]-->