Yerf!
turbo-cache ist etwas anders, das sind dedizierte pci-express-grafikkarten mit eigenem speicher, die zusätzlich systemspeicher abziehen dürfen wenn benötigt
Ja, man reduziert den Grafik-Speicher auf ein Minimum und nutzt mehr den Systemspeicher. Allerdings dürfte zumindest der "Framebuffer" im dedizierten Ram liegen. Und ich hab schon Mainboards gesehen die das onboard hatten, das gibts also nicht nur als Steckkarten.
der ramdac greift nicht direkt auf den hauptspeicher des rechners zu, er bekommt daten direkt aus dem framebuffer [1] geliefert und muss sich nicht selbst um die interne kommunikation kümmern - im falle von amd-systemes ist das stichwort ist hypertransport - der grafikadapter ist über den pci-express-bus mittels ht direkt mit dem speichercontroller verbunden und schicht da brav sein datenzeug herum [2]
Hm, über welche Wege das geht ist eigentlich egal, solange kein cache zwischengeschaltet ist. Allerdings dürfte ein Cache eher sinnlos sein, da sich die Bilddaten ja ständig ändern können. Und damit geht die Last schlußendlich trotzdem auf den hauptspeicher des Systems.
auch "moderne" [3] high-end grafikprozessoren haben keinen eigenen framebuffer, der liegt immer im externen speicher
Damit meinte ich eigentlich immer den Speciher direkt auf der Grafikkarte. Das der natürlich auch für alles andere (Texturen usw.) mitbenutzt wird ist klar. Aber dort bremst der RAMDAC nur den Grafikchip aus[1], nicht das ganze System.
im übrigen werden grafikkarten über kurz oder lang keinen ramdac mehr besitzen, da die ausgabe direkt über digital dvi oder hdmi erfolgt
Ob die Bilddaten nun digital ausgegeben werden oder vorher noch in ein analoges Signal gewandelt werden ändert eigentlich nichts an der Problematik, dass diese Daten erst einmal gaus dem Speicher gelesen werden müssen.
[2] klar reicht die speicherbandbreite für high-end-chips niemals aus, aber ob nun ein 08/15-chipset in der northbrigde sitzt oder auf einer externen karte ist egal - niemand verlangt, dass jemand einen amd rv770 oder nvidia gt200 in eine northbridge packt ;) - die speicherbandbreite liegt bei etwa 110 gb/sekunde - normales ddr2-sdram bringts im dual-channel-betrieb grademal auf 17 gb/s
Hm, 17gb/s. Dagegen sind die von Alexander errechneten 300 mb/s etwa 2%. Ein Unterschied den man nicht unbedingt direkt bemerkt. Vielleicht habe ich den Effekt tatsächlich etwas überbewerdet (zuminedst im Blick auf das was der heutige Hauptspüeicher leisten kann)[2].
[3] seit der erfindung von externen 3d-beschleunigern hat sich ein separater framebuffer quasi erledigt
Das habe ich ja nicht angezweifelt. Mir ging es nur um Trennung von Grafikspeicher und Hauptspeicher. Und ich denke mal der "Framebuffer" wäre das letzte was eine Grafikkarte in den Hauptspeicher auslagern würde (eben dann, wenn wie bei den onboard-Chips überhaupt kein eigener Speicher vorhanden ist).
Gruß,
Harlequin
[1] ich glaube mal nicht, dass heutige Grafikkarten noch VRAM verbaut haben...
[2] Beim Amiga war der Unterschied zwischen ChipMem und FastMem größer...
<!--[if IE]>This page is best viewed with a webbrowser. Get one today!<![endif]-->