luti: 2 Monitore / DVI+VGA

Hallo,

ich habe derzeit einen NEC LCD2070VX Monitor (mit DVI+VGA-Ausgang) an einem PC über DVI angeschlossen. Nun möchte ich mir einen weiteren Monitor zulegen (gleiche Bauert) und ihn zusätzlich an den PC anschließen. Die Grafikkarte hat je einen DVI- und einen VGA-Ausgang. Ich könnte also den einen Monitor über DVI, den anderen über VGA ansteuern ...

Oder spricht etwas dagegen? Ist der Unterschied der beiden Anschlussarten visuell sichtbar? Blöd wäre ja, wenn ich auf zwei nebeneinander stehenden Monitoren verschiedene visuelle Eindrücke haben würde ... Um das zu vermeiden, würde ich eine neue Grafikkarte mit 2x DVI Ausgängen kaufen - oder kann ich das Geld beruhigt sparen?

Vielen Dank!
luti

  1. Yerf!

    Oder spricht etwas dagegen?

    Eigentlich nicht.

    Ist der Unterschied der beiden Anschlussarten visuell sichtbar?

    Nur wenn die Grafikkarte oder der Monitor sehr schlecht ist. Das Problem bei TFT-Monitoren und VGA ist, dass die digitale Bildinformation aus dem Grafikkartenspeicher erst in ein analoges Signal für VGA gewandelt wird und dann im Monitor wieder digitalisiert wird. Dabei können Verluste auftreten (hauptsächlich wenn das Signal der Grafikkarte sehr schlecht ist).

    Gruß,

    Harlequin

    --
    <!--[if IE]>This page is best viewed with a webbrowser. Get one today!<![endif]-->
    1. Hallo Harlequin,

      Ist der Unterschied der beiden Anschlussarten visuell sichtbar?

      Nur wenn die Grafikkarte oder der Monitor sehr schlecht ist. Das Problem bei TFT-Monitoren und VGA ist, dass die digitale Bildinformation aus dem Grafikkartenspeicher erst in ein analoges Signal für VGA gewandelt wird und dann im Monitor wieder digitalisiert wird. Dabei können Verluste auftreten (hauptsächlich wenn das Signal der Grafikkarte sehr schlecht ist).

      Der Vorgang ist mir im Groben schon klar ... und ein NEC für um die 450,- ist meine ich nicht "sehr schlecht" ;) Die Grafikkarte ist eine GF 7300GT mit 256 MB, keine Rakete aber wohl auch nicht schlecht ...

      Hat noch jemand anderes Erfahrungen mit dem Thema machen können?

      Dank & Gruß,
      luti

      1. Hallo Luti,

        Hat noch jemand anderes Erfahrungen mit dem Thema machen können?

        Bestimmt. Aber die Frage ist doch, was nützen die dir. Letztlich musst du doch nachher mit dem Bild zufrieden sein. Und wer außer dir soll das beurteilen können!? Technisch ist es, wie bereits geschrieben wurde, nicht _die_"Ideal-Lösung" aber von hunderten anderer User erfolgreich praktiziert.

        Kauf' dir das neue Display online (14 Tage Widerrufsrecht) oder lass' es dir in einem Laden per VGA an eine möglichst vergleichbare/ identische Grafikkarte anschließen.

        Und wenn dich das alles nicht zufriedenstellt, kannst du ja immer noch über den Kauf einer anderen Grafikkarte mit 2 DVI-Ausgängen nachdenken.

        Gruß Gunther

      2. Yerf!

        Der Vorgang ist mir im Groben schon klar ... und ein NEC für um die 450,- ist meine ich nicht "sehr schlecht" ;)

        Jo, davon würde ich auch mal ausgehen.

        Die Grafikkarte ist eine GF 7300GT mit 256 MB, keine Rakete aber wohl auch nicht schlecht ...

        Bei der Grafikkarte kommt es nicht auf den Chip selbst sodnern die Bauteile *drumrum* an. Die c't hat bei ihren Grafikkartentests teilweise auch die Messungen eines Weißpixels mit dabei. Was ich da mal gesehen hab war echt der Abschuß, da war von "schönem hohen Rechteck" (so wie es sein soll) bis "flacher Hubbl" (und wo ist jetzt der Pixel?) alles dabei...

        Das war aber noch bevor die Chiphersteller explizite Mindestvorgaben an die Boardhersteller rausgegeben haben. Inzwischen sollte das also nicht mehr ganz so übel sein...

        Gruß,

        Harlequin

        --
        <!--[if IE]>This page is best viewed with a webbrowser. Get one today!<![endif]-->
    2. Hallo,

      [...] erst in ein analoges Signal für VGA gewandelt wird und dann im Monitor wieder digitalisiert wird. Dabei können Verluste auftreten (hauptsächlich wenn das Signal der Grafikkarte sehr schlecht ist).

      oder wenn die Synchronisation des Monitors (der Parameter ist oft mit H-PHASE bezeichnet) nicht einwandfrei auf das VGA-Signal abgestimmt ist. Dann trifft die Information für die einzelnen Pixel im VGA-Signal die realen Pixel des Display-Panels nicht genau, und es entstehen unscharfe Ränder[*]. Die meisten Displays haben aber eine automatische Abstimmung, die das ganz gut hinkriegen sollte.

      So long,
       Martin

      [*] Ein sehr ähnlicher Effekt entsteht, wenn man ein TFT mit einer anderen als seiner physikalischen Auflösung ansteuert. Dann wird das Bild "matschig", und man verschenkt nicht nur die mögliche Bildqualität des TFTs, sie wird oft sogar noch schlechter als ein billiger Röhrenmonitor.

      --
      Ich bin im Prüfungsstress, ich darf Scheiße sagen.
        (Hopsel)
      1. Yerf!

        Die meisten Displays haben aber eine automatische Abstimmung, die das ganz gut hinkriegen sollte.

        Aber nur wenn sich ein Weißpixel signifikant von weißem Rauschen unterscheidet...

        Gruß,

        Harlequin

        --
        <!--[if IE]>This page is best viewed with a webbrowser. Get one today!<![endif]-->
        1. Hallo,

          Die meisten Displays haben aber eine automatische Abstimmung, die das ganz gut hinkriegen sollte.
          Aber nur wenn sich ein Weißpixel signifikant von weißem Rauschen unterscheidet...

          naja, man sollte die Auto-Tune-Funktion möglichst dann aufrufen, wenn man auch ein realistisches, möglichst kontrastreiches Bild auf dem Schirm hat.
          Ist doch klar!

          Ciao,
           Martin

          --
          Lieber Blödeleien als blöde Laien.
          1. Yerf!

            naja, man sollte die Auto-Tune-Funktion möglichst dann aufrufen, wenn man auch ein realistisches, möglichst kontrastreiches Bild auf dem Schirm hat.
            Ist doch klar!

            Du kennst scheinbar den c't-Artikel über die 9000er ATI-Generation nicht. Manche Karten hatten da ein derart schlechtes Signal abgeliefert, da *muss* jeder TFT verzweifeln...

            Deswegen hab ich auch Karten von Sapphire, die gehörten damals zu den Top 3 (und werden auch so immer wieder mal positiv erwähnt)

            Wobei ich gelesen hab, dass die Chiphersteller inzwischen härtere Anforderungen an die Boardhersteller stellen, weil viele die Schuld für die schlechte Bildqualität beim Grafikchip suchten und das ist ja nicht im Sinne von ATI und NVidia...

            Gruß,

            Harlequin

            --
            <!--[if IE]>This page is best viewed with a webbrowser. Get one today!<![endif]-->
            1. Hallo,

              Du kennst scheinbar den c't-Artikel über die 9000er ATI-Generation nicht. Manche Karten hatten da ein derart schlechtes Signal abgeliefert, da *muss* jeder TFT verzweifeln...

              den Artikel kenne ich tatsächlich nicht.
              Aber die letzte Standalone-Graphikkarte, die ich gekauft habe, war eine Matrox Millennium G400 Dualhead mit 2 VGA-Ausgängen (davon einer wahlweise auch für TV-Gerät) für einen AGP-Slot. Wann war das? Ich schätze, so um 2000.
              Seitdem habe ich immer die auf den Mainboards integrierten Onboard-Lösungen benutzt und war damit immer sehr zufrieden (ich brauche keine anspruchsvollen 3D-Funktionen oder ähnlich hochgezüchtetes Zeugs).

              Wobei ich gelesen hab, dass die Chiphersteller inzwischen härtere Anforderungen an die Boardhersteller stellen, weil viele die Schuld für die schlechte Bildqualität beim Grafikchip suchten und das ist ja nicht im Sinne von ATI und NVidia...

              Und es ist auch technisch nicht einzusehen. Der Chip verrichtet seine Aufgabe vermutlich tadellos, aber sowohl der DAC als auch die passive Beschaltung rundherum, sogar Stecker und Kabel haben einen wesentlichen Einfluss auf die Signalqualität.

              Schönen Abend noch,
               Martin

              --
              Bitte komme jemand mit einem *g* zum Wochenende, damit nicht über mich gelacht wird.
                (Gunnar Bittersmann)
              1. Yerf!

                den Artikel kenne ich tatsächlich nicht.

                Die c't hat sich damals (obs heut auch noch so ist weiß ich nicht) die Arbeit gemacht bei den Testmodellen einen Weißpixel per Speicheroscilloskop zu messen. das Ergebnis sprach Bände... nur bei 3 Modellen war erkennbar, dass das eigentlich ein Rechteckssignal sein soll. Der Großteil hatte zumindest ein sauberes Maximum, aber es gab auch ein paar "Billigmodelle" bei denen war das nur eine breitgetretene flache Erhebung.

                Aber die letzte Standalone-Graphikkarte, die ich gekauft habe, war eine Matrox Millennium G400 Dualhead mit 2 VGA-Ausgängen (davon einer wahlweise auch für TV-Gerät) für einen AGP-Slot. Wann war das? Ich schätze, so um 2000.

                Jo, dürfte schon etwas her sein. Aber die Matrox waren in sachen Bildqualität schon immer erste Wahl.

                Seitdem habe ich immer die auf den Mainboards integrierten Onboard-Lösungen benutzt und war damit immer sehr zufrieden (ich brauche keine anspruchsvollen 3D-Funktionen oder ähnlich hochgezüchtetes Zeugs).

                Wenn das Board was taugt spricht nix dagegen (da hab ich mich ja hier im Forum davon erst Überzeugen lassen müssen ;-)

                Und es ist auch technisch nicht einzusehen. Der Chip verrichtet seine Aufgabe vermutlich tadellos, aber sowohl der DAC als auch die passive Beschaltung rundherum, sogar Stecker und Kabel haben einen wesentlichen Einfluss auf die Signalqualität.

                Trotzdem schimpfen viele auf die schlechte Bildqualität von NVidia (im speziellen, gab ja auch schlechte karten mit ATI-Chip). Billig kaufen und trotzdem Top-Qualität erwarten... so läufts halt...

                Gruß,

                Harlequin

                --
                <!--[if IE]>This page is best viewed with a webbrowser. Get one today!<![endif]-->