Archiv verlassen und diese Seite im Standarddesign anzeigen : Bildwiederholrate frisst Bandbreite?
Mephisto
2003-03-14, 17:29:28
Ist das richtig? Ich habe meine auf 85 Hz eingestellt, das reicht mir, aber manche schwören ja auf mindestens 100 Hz, besser 120 Hz.
Ist es nicht so, daß dadurch Bandbreite verbraten wird, weil ja die Bilddaten öfter aus dem Frontbuffer ausgelesen werden müssen?
Demirug
2003-03-14, 18:26:18
Ja, der Bandbreitenbedarf für das darstellen des Bildes auf dem Monitor steigt linear mit der Bildwiederholrate. Das Thema hatte wir vor langer Zeit schon mal.
zeckensack
2003-03-14, 18:28:02
Originally posted by Mephisto
Ist das richtig? Ich habe meine auf 85 Hz eingestellt, das reicht mir, aber manche schwören ja auf mindestens 100 Hz, besser 120 Hz.
Ist es nicht so, daß dadurch Bandbreite verbraten wird, weil ja die Bilddaten öfter aus dem Frontbuffer ausgelesen werden müssen? Exakt :)
Auflösung*Wiederholfrequenz. Idr wird wegen dem Speicheralignment auch die Bandbreite für den eigentlich unsichtbaren Alpha-Kanal gefressen.
Also zB 1024x768x32bit @ 85Hz
=> 255MiB/s (1 MiB=1024*1024 Byte)
ethrandil
2003-03-14, 18:43:25
jap.
Ich hab mal gelesen, dass der RAMDAC dadurch an seine Grenzen gerät.
Kleine Rechnung:
bei 1Hz und 1024*768px sind das noch 768 KPps
bei 85 : 63,75 MPps
und bei 120: 90 MPps
bei einer Auflösung von 1600*1200 und 120 Hz *gg*: 219,72 MPps
KP/MP bezieht sich ja auf die Pixel ... Mal 4 byte (32 Bit) ergibt bei
1024*768 85 Hz : 255 MBps
1024*768 120 Hz: 360 MBps
1600*1200 120 Hz: 878 MBps
Bei letzterem muss man sich Fragen, ob der RAMDAC dafür ausgelegt ist :)
Speicherbandbreite dürfte aber nicht durch erhöhte Bildwiederholfrequenz genutzt werden.
Ich kenne die Spezifikationen nicht, aber für 1600*1200 bei 120 Hz (Okay, schafft kein Monitor ;D) sollte man seinen Ramdac kühlen *gg*
EDIT: Hmm ... Jetzt les ich die Posts der Profis: okay.
Ich wusste nicht, dass der Ramdac jedes Biold vom Speicher-Bus bekommt... Aber die Rechnung stimmt ja (oder?)
zeckensack
2003-03-14, 19:22:59
Originally posted by ethrandil
<snip>
1600*1200 120 Hz: 878 MBps
Bei letzterem muss man sich Fragen, ob der RAMDAC dafür ausgelegt ist :)
Speicherbandbreite dürfte aber nicht durch erhöhte Bildwiederholfrequenz genutzt werden.Doooch :)
Der RAMDAC muß das Bild schließlich aus dem Speicher einlesen. Die Alternative wäre, dem RAMDAC einen eigenen Speicher in Form eines On-Chip-Caches zu verpassen, was aber IMO reichlich unpraktisch wäre, und AFAIK nirgends gemacht wird.
Ich kenne die Spezifikationen nicht, aber für 1600*1200 bei 120 Hz (Okay, schafft kein Monitor ;D) sollte man seinen Ramdac kühlen *gg*Der primäre RAMDAC sitzt heutzutage idR direkt im Grafikchip und wird von dessen Kühler mitgekühlt. Ansonsten gilt:
ein seperater DAC ist ein sehr einfaches Bauteil, das bei entsprechend modernem Fertigungsprozeß auch ganz ohne Kühlung auskommt. Siehe zB den sekundären RAMDAC auf Radeon8500-Karten.
EDIT: Hmm ... Jetzt les ich die Posts der Profis: okay.
Ich wusste nicht, dass der Ramdac jedes Biold vom Speicher-Bus bekommt... Aber die Rechnung stimmt ja (oder?) Die Rechnung ist IMO völlig richtig :)
x-dragon
2003-03-15, 00:22:59
Originally posted by zeckensack
...
Der primäre RAMDAC sitzt heutzutage idR direkt im Grafikchip und wird von dessen Kühler mitgekühlt. Ansonsten gilt:
ein seperater DAC ist ein sehr einfaches Bauteil, das bei entsprechend modernem Fertigungsprozeß auch ganz ohne Kühlung auskommt. Siehe zB den sekundären RAMDAC auf Radeon8500-Karten.
...
Benötigen das DVI auf den neueren Grafikkarten auch noch einen RAMDAC?
Wird eigentlich mal Zeit das endlich komplett auf Digital umgestellt wird, dann kann sich dieses blöde hin- un herkonvertieren der Signale endlich mal sparen. Bessere Bildqualität und billigere Herstellung der Karten, das wär doch mal was ...
Mephisto
2003-03-15, 10:14:12
Vielen Dank für die ausführlichen Antworten!
Dann bleibe ich gerne bei meinen bescheidenen 85 Hz. :)
Ganon
2003-03-15, 11:10:43
Naja! Meinen Augen zuliebe würde ich trotzdem lieber auf 120hz fahren anstatt mit 85hz, nur wegen ein paar MB Bandbreitenverlust!
zeckensack
2003-03-15, 20:01:47
Originally posted by X-Dragon
Benötigen das DVI auf den neueren Grafikkarten auch noch einen RAMDAC?Nein. Trotzdem wird dort die gleiche Bandbreite verbraucht, denn der Bildinhalt muß natürlich aus dem Speicher geholt werden.
Wird eigentlich mal Zeit das endlich komplett auf Digital umgestellt wird, dann kann sich dieses blöde hin- un herkonvertieren der Signale endlich mal sparen. Bessere Bildqualität und billigere Herstellung der Karten, das wär doch mal was ... Ack :)
zeckensack
2003-03-15, 20:03:43
Originally posted by Ganon
Naja! Meinen Augen zuliebe würde ich trotzdem lieber auf 120hz fahren anstatt mit 85hz, nur wegen ein paar MB Bandbreitenverlust! Das sehe ich eigentlich auch so. An dieser Stelle zu sparen lohnt nicht so besonders bei halbwegs modernen Grakas.
Bei integrierter Grafik, oder Karten mit sehr wenig Bandbreite ala G450 (gerade im Mulithead-Betrieb) ist das schon eher ein Problem.
ethrandil
2003-03-15, 20:17:15
Meine 60 Hz sind genug ;)
Chris Lux
2003-03-17, 09:11:35
hmm also ist es nun auch sinnvoll bei benchmarks die refreshrate auf 60Hz zu stellen um bei bandbreiteintensiven tests besser auszusehen? ;)
Mephisto
2003-03-17, 09:45:02
Originally posted by zeckensack
An dieser Stelle zu sparen lohnt nicht so besonders bei halbwegs modernen Grakas.Ist für mich kein Sparen, da 85 Hz sich für mich als vollkommen ausreichend erwiesen hat, selbst bei Marathonsitzungen.
zeckensack
2003-03-17, 10:26:21
Originally posted by Hans Ohlo
hmm also ist es nun auch sinnvoll bei benchmarks die refreshrate auf 60Hz zu stellen um bei bandbreiteintensiven tests besser auszusehen? ;) Es hilft.
Aber sinnvoll ist es nicht :D
Originally posted by zeckensack
Es hilft.
Aber sinnvoll ist es nicht :D
Wer wird denn da 60Hz denn Sinn absprechen wollen? ;)
Originally posted by Xmas
Wer wird denn da 60Hz denn Sinn absprechen wollen? ;) Jeder, der einen anständigen CRT-Moni hat, du merkwürdiger TFT-Freak...
mapel110
2003-03-18, 22:24:05
Originally posted by aths
Jeder, der einen anständigen CRT-Moni hat, du merkwürdiger TFT-Freak...
es ging hier und benchmarks, und da ist es sehr wohl sinnvoll um ein paar prozent leistung rauszukitzeln ;)
mach ich natürlich nicht :D
Endorphine
2003-03-18, 22:50:38
Originally posted by zeckensack
Nein. Trotzdem wird dort die gleiche Bandbreite verbraucht, denn der Bildinhalt muß natürlich aus dem Speicher geholt werden. Ich habe mich schon mit 15 beim lesen eines Technikbuches eins gefragt: könnte man nicht Bandbreite einsparen, wenn bei einem Digitaldisplay nur immer die Differenzinformationen zum vorherigen Bild übertragen werden würden, also nur die Pixel, die sich ändern?
Bei den heutigen Bandbreiten würde das kaum noch was bringen im Verhältnis. Damals aber, wo Videobeschleunigung eine bandbreitenkritische Angelegenheit war hätte es wohl einiges gebracht...
Originally posted by Endorphine
Ich habe mich schon mit 15 beim lesen eines Technikbuches eins gefragt: könnte man nicht Bandbreite einsparen, wenn bei einem Digitaldisplay nur immer die Differenzinformationen zum vorherigen Bild übertragen werden würden, also nur die Pixel, die sich ändern?
Bei den heutigen Bandbreiten würde das kaum noch was bringen im Verhältnis. Damals aber, wo Videobeschleunigung eine bandbreitenkritische Angelegenheit war hätte es wohl einiges gebracht...
Nein, es hätte nichts gebracht, es wäre sogar schlechter, denn um die Differenz auszurechnen müsste man ja gleich zwei Bilder auslesen. Und die Bandbreite zum Monitor ist ja kein Flaschenhals.
Endorphine
2003-03-19, 10:30:13
Originally posted by Xmas
Nein, es hätte nichts gebracht, es wäre sogar schlechter, denn um die Differenz auszurechnen müsste man ja gleich zwei Bilder auslesen. Und die Bandbreite zum Monitor ist ja kein Flaschenhals. Ja, heute ist genügend Bandbreite (ich rede nur von Speicherbandbreite, nicht RAMDAC-Ausgabegerät) vorhanden.
Aber mal angenommen. Man könnte es ja in Hardware implementieren, dass nicht mehr der komplette Framebuffer neu geschrieben wird, sondern dass nur immer die Differenz als Datenstrom an's Display rausgeht und der Abgleich, was sich verändert in Hardware ausgeführt wird.
Zumindest in der Theorie kann ich mir das vorstellen.
Demirug
2003-03-19, 12:00:48
Bei der Bandbreite für die Bildausgabe würde ich zuletzt versuchen zu sparen.
Da wird an anderen Stellen viel mehr verbraucht. In Zukunft bekommen wir möglicherweise intelegente Speicher die bestimmte Aktionen direkt ausführen können.
Pussycat
2003-03-19, 12:03:22
Allerdings müsste man dann den Framebufferauslesen, pixel für pixel mit dem backbuffer vergleichen und es dann wieder reinschreiben. Ausserdem würde dies nut dann sparen, wenn sich wenig bewegt und framerates also nicht interessant sind.
Endorphine
2003-03-19, 12:07:06
Originally posted by Demirug
Bei der Bandbreite für die Bildausgabe würde ich zuletzt versuchen zu sparen.
Da wird an anderen Stellen viel mehr verbraucht. In Zukunft bekommen wir möglicherweise intelegente Speicher die bestimmte Aktionen direkt ausführen können. Man könnte ja die Funktionen von WRAM, SGRAM, CRAM, VRAM und 3DRAM etc. mal in einem Über-Grafikkartenspeicher zusammenführen, der auf der dann jeweils populärsten DRAM-Speichertechnik basiert und denn alle Grafikkartenhersteller verwenden.
Das müsste nur sauber in der JEDEC ausgearbeitet und spezifiziert werden, so dass es mal eine einheitliche auf die Anforderungen bei Grafikkarten ausgerichtete DRAM-Speicherlinie gibt. GDDR-x ist ja nicht sonderlich fortschrittlich, zumal die ganzen Techniken ja schon seit Ewigkeiten existieren.
Endorphine
2003-03-19, 12:10:31
Originally posted by Pussycat
Allerdings müsste man dann den Framebufferauslesen, pixel für pixel mit dem backbuffer vergleichen und es dann wieder reinschreiben. Ausserdem würde dies nut dann sparen, wenn sich wenig bewegt und framerates also nicht interessant sind. Meine Überlegung geht davon aus, dass es den Framebuffer real nicht mehr gibt, sondern dass die Kette RAMDAC-Framebuffer-TDMS-Transmitter einfach ersetzt würde durch eine Hardwareeinheit, welche die gerasterten Pixel übernimmt und nur die Differenz als Datenstrom an den Monitor ausgibt.
Originally posted by Endorphine
Meine Überlegung geht davon aus, dass es den Framebuffer real nicht mehr gibt, sondern dass die Kette RAMDAC-Framebuffer-TDMS-Transmitter einfach ersetzt würde durch eine Hardwareeinheit, welche die gerasterten Pixel übernimmt und nur die Differenz als Datenstrom an den Monitor ausgibt.
Das funktioniert so nicht, beim normalen Ablauf des Renderns einer 3D-Szene wird jeder Pixel mindestens einmal neu gemalt. Und erst wenn die Szene fertig ist weiß man welche Dreiecke wirklich sichtbar sind.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.