PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kein 2D Modus bei Dual View? 560GTX


DaHard
2011-11-01, 01:29:42
Moin,

Mir ist gerade aufgefallen, wenn man den 2. Monitor aktiviert, bei mir ein TV, das die Grafikkarte nicht in den 2D Modus schaltet bei nicht Belastung.
Schlatet man den 2. Monitor wieder ab, fährt die Grafikkarte in den 2D Modus.

Ist das ein Bug oder ist das so gewollt?
Verschiedene Treiber schon getestet aber immer das Gleiche.

System
CPU: i5-2500k
Speicher: 8GB Kingston
Grafik: Gigabyte 560GTX
Board: Asus P8P67Pro Rev3.1
NT: Corsair 650Watt

Danke schon mal für die Info im Voraus.

dildo4u
2011-11-01, 01:38:45
Ja ist normal.

"Viele Geforce-Grafikkarten haben das Problem, dass zwei Bildschirme an den Ausgängen dafür sorgen, dass die Karte im 3D-Modus bleibt und so deutlich Energie aufnimmt. Wenn nur ein Display angeschlossen ist, dann arbeitet eine Geforce-Karte beispielsweise auf dem Windows-Desktop im 2D-Modus und verbraucht je nach Karte nur 10 Watt. Nvidia hat dies absichtlich eingebaut, da es bei zwei LCDs an der Grafikkarte und Taktumschaltungen zum Flackern des Bildes kommen kann. Man wollte offenbar RMA-Problemen aus dem Weg gehen."

http://www.pcgameshardware.de/aid,812419/Nvidia-Inspector-Stromverbrauch-im-Multi-Monitoring-Betrieb-senken/Grafikkarte/Test/

Softwarelösung.
http://www.3dcenter.org/artikel/nvidia-inspector-bringt-komfortables-multi-display-power-saving

DaHard
2011-11-01, 01:54:03
Danke dir für den Artikel.
Werd das mal umsetzen, denn warum soll die Grafikkarte bei Vollast laufen wenn ich mir auf dem TV einen Film anschaue.

xxMuahdibxx
2011-11-01, 02:03:05
Sollte aber doch bei den heutigen Sachen gelöst worden sein .... gabs doch auch schon Multimonitoringteste dafür .

Hier auch noch ein nützlicher Lese und schaulink

http://ht4u.net/reviews/2011/amd_radeon_hd_6990_antilles_test/index14.php

Dort wird erklärt das es bei gleichen Monitoreinstellungen auch in den 2D Modus geht nur halt bei 2 verschiedenen Auflösungen / Geräten gehts in den Power zustand .

Nevermore4ever
2011-11-01, 02:21:55
Dort wird erklärt das es bei gleichen Monitoreinstellungen auch in den 2D Modus geht nur halt bei 2 verschiedenen Auflösungen / Geräten gehts in den Power zustand .

Das deckt sich auch mit meiner (dunklen) Erinnerung, dass dieses Problem mit mehr als einem Monitor pro Karte bei der GTX 560 erstmals gelöst sei - außer bei den von dir genannten Ausnahmen.

TobiWahnKenobi
2011-11-01, 06:32:54
voller takt |= volllast



(..)

mfg
tobi

Lowkey
2011-11-01, 08:20:39
Kann man dieses Problem mit z68 bzw Lucid Virtu umgehen?

TobiWahnKenobi
2011-11-01, 09:01:42
man kann es auch umgehen, wenn man eine beliebige 60W glühlampe im haushalt gegen eine energiesparlampe ersetzt.. im bad oder keller oder wo auch immer, denn der "mehrverbrauch" im zweischirmbetrieb an einer singlekarte liegt bei ~20W. so etwa 30 vs. 50W.

bei meinem Z68 habe ich die IGP soweit möglich deaktiviert - keinen plan, wie ich das verdrahten soll, dass es "sinnvoll" wird.


(..)

mfg
tobi

xxMuahdibxx
2011-11-01, 09:06:44
Bissl nochmal etwas munterer gelesen ...

Multi-Monitoring Power-State greift bei 2 verschiedenen Monitoren ... der wird wohl auch leiner sein als der full power state .

Gast
2011-11-01, 14:47:30
Habs Tool mal getestet, paar Feineinstellungen waren nötig damit BluRay nicht Ruckelt, aber es lüppt und der Takt geht deutlich runter.

r@h
2011-11-01, 21:20:55
http://ht4u.net/reviews/2011/amd_radeon_hd_6990_antilles_test/index14.php

Dort wird erklärt das es bei gleichen Monitoreinstellungen auch in den 2D Modus geht nur halt bei 2 verschiedenen Auflösungen / Geräten gehts in den Power zustand .
Wird dort leider falsch geschildert... denn selbst wenn die Grafikkarte "gleiche" Ausgabegeräte erkannt hat, wird nicht in den 2D-Modus geschaltet, sondern in einen GPU "low power" Modus... dabei wird zwar Vcore und Takt der GPU gesenkt, der eigentliche Stromfresser RAM bleibt aber auf höchstem Niveau und damit ist die Erspranis nicht wirklich der Rede wert...

man kann es auch umgehen, wenn man eine beliebige 60W glühlampe im haushalt gegen eine energiesparlampe ersetzt.. im bad oder keller oder wo auch immer, denn der "mehrverbrauch" im zweischirmbetrieb an einer singlekarte liegt bei ~20W. so etwa 30 vs. 50W.
Dem kann ich nur bedingt zustimmen...

Bei der GTX260 war dem so... 36W vs. 56W.
Mit der GTX460 allerdings hat sich das grundlegend geändert... 16W vs. 58W!

Und das mit Deiner Glühsparlampe greift nichts so richtig, denn zumidest mein Rechner läuft deutlich länger als auch nur irgend eine Lampe im Haushalt. Und was spricht dagegen, beides zu machen? ;D

Ich habe es auf jeden Fall schlicht nicht eingesehen, satte 3,5x mehr Strom zu verbrauchen, als nötig.
Und das zudem ohne jeden erdenklichen Grund!

Razor

DaHard
2011-11-05, 21:47:38
So hab nVidia Inspector mal getestet, es verrichtet sauber seine Arbeit wenn man alles einmal richtig eingestellt hat.

Besten dank noch ein mal für den Tipp. Wenn man so paar HD Abende hat und man Strom sparen kann warum nicht, die Graka muss ja net auf Volldampf laufen wenn es ja nicht nötig ist.

Lord Wotan
2011-11-05, 21:59:53
Danke dir für den Artikel.
Werd das mal umsetzen, denn warum soll die Grafikkarte bei Vollast laufen wenn ich mir auf dem TV einen Film anschaue.
Deshalb habe ich ja eine NVidia Karte zusätzlich in System. Die neben der Funktion PhysX eben den zweiten Monitor z.B. für TV ansteuert. Und dann hat man das Problem nicht.

DaHard
2011-11-05, 23:02:12
Ich hätte mit ein Z67 kaufen sollten statt einem P67 wegen der Onboardgrafikfunktion für Videos.
Naja aber so gehts ja nun auch per Software.

r@h
2011-11-06, 10:36:32
Deshalb habe ich ja eine NVidia Karte zusätzlich in System. Die neben der Funktion PhysX eben den zweiten Monitor z.B. für TV ansteuert. Und dann hat man das Problem nicht.
Das hatte ich auch mal intensiv getestet... aber neben einem deutlichen Temperaturanstieg im Gehäuse und immer noch hohen Idle-"Watts" hat das nichts gebracht. Die GTX460 mit 2 Monis und nur 16W (maßgeblich aufgrund des niedrigen VRAM-Taktes!) ist hier "unschlagbar"!

Razor

Lord Wotan
2011-11-06, 12:21:24
Das hatte ich auch mal intensiv getestet... aber neben einem deutlichen Temperaturanstieg im Gehäuse und immer noch hohen Idle-"Watts" hat das nichts gebracht. Die GTX460 mit 2 Monis und nur 16W (maßgeblich aufgrund des niedrigen VRAM-Taktes!) ist hier "unschlagbar"!

Razor
Das es nichts bringt kann ich nicht sagen. Die Zweite Karte verbraucht kein Strom über PCIe Stromanschluss. Weil dieser auf der zweiten Karte nicht vorhanden ist. Die zweite Karte hat den Nebeneffekt die Berechnung von PhysX zu übernehmen. Was die Hauptkarte entlastet und beide Karten gehen sauber in den Stromsparmodus. Was will man mehr.

r@h
2011-11-07, 19:29:10
Wie gesagt... alles schon getestet.

Wenn man für PhysX unterschiedliche Generationen nutzt (z.Bsp. GeForce 9 + GTX260 oder GTX260 + GTX460) ist dies sogar kontraproduktiv. Und dass die 2. Karte "keinen" Strom verbraucht, nur weil sie keinen extra Stromanschluss hat ist nicht Dein ernst, oder? Über PCIe können 75W gezogen werden!

Vielleicht solltest Du doch mal 10€ in ein Strom-Meßgerät "investieren", um Deine Vermutung zu überprüfen.
Denn mehr ist es nicht, wie ich meine...

Razor

DaHard
2011-11-18, 22:23:29
Hab doch noch eine Frage.
Wenn ich BluRay schaue, geht die Last meiner CPU (i5-2500k@4,9GHz) der erste Kern auf 100% last.

Schauen tu ich es über PowerDVD11, mit Hardwarebeschleunigung (Cuda).
VPU geht auch 60% hoch GPU auf 8%.

Sollte nicht bei Hardwarebeschleunigung auf Cuda die Graka mehr gefordert werden anstatt die CPU, oder hab ich da ein Denkfehler?

dildo4u
2011-11-18, 22:30:09
Die Karte hat extra Einheiten für die Videobeschleunigung,Cuda ist da suboptimal da dort unnötigerwise der ganze Chip aktiv ist.Normal sollte ne Blu Ray über die VPU kaum CPU Last erzeugen.

DaHard
2011-11-19, 22:06:26
Heißt das Cuda bei der Wiedergabe zu deaktivieren?

dildo4u
2011-11-19, 22:12:42
Teste mal ohne Cuda die CPU Auslastung sollte nicht über 10% liegen.

"Zwar liegen die NVIDIA-Karten bei H.264 mit den ATI-Modellen auf einem Niveau hinsichtlich der CPU-Auslasung, dafür bewegte man sich bei VC-1 um ca. 6 bis 7 Prozent, was wir mittels Perfmon.exe von Windows Vista nachgestellt haben."

http://ht4u.net/reviews/2011/nvidia_geforce_gtx_560_ti_msi_n560ti_twin_frozr_2/index16.php

DaHard
2011-11-20, 00:44:45
Ohne Cuda 5% CPU last und VPU 52%