PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Aktuelles von der Treiber-Front (8x00 'HD' und 163.11 'advanced' ;)


r@w.
2007-07-23, 10:51:29
Neuigkeiten von der Treiber-Front!

Bezogen auf den aktuellen 163.11 und wohl auch alle Treiber, die folgen werden...

Zwei Themen:
- Option "HDR enable" im Treiber-Panel
- HD-Qualität der 8x00

Zu der HDR-Option hat nVidia wohl einem interessierten Tech-Channel-Nutzer (Forums-Member bei nvnew.net) folgendes 'gesagt':
http://forums.guru3d.com/showpost.php?p=2349933&postcount=202

Hello Ryan,

Thank you for contacting NVIDIA Customer Care. We are sorry for the confusion this new option has introduced. NVIDIA added this option to allow a user to manually force HDR to be disabled if it can not be disabled from within an application for better compatibility. It does not introduce a new enhanced HDR mode nor does it change the games HDR implimentation when enabled.

Regards,
NVIDIA Customer CareInsofern es hierüber nun keine Spekulationen mehr geben dürfte...

---

Zu den HD-Fähigkeiten der 8x00 gibt es folgendes zu sagen, was durch Guru3D kommuniziert wurde:
(wohl weil die 8x00 bei dem von Guru3D angestellten Test nicht sonderlich 'gut' weg gekommen sind ;-)

nV driver w/ HD post-processing public (http://www.guru3d.com/newsitem.php?id=5636)
Posted by Hilbert Hagedoorn

just noticed an email in my mailbox from NVIDIA. The ForceWare 163.11 release for Windows Vista that was released a couple of days ago entails NVIDIA driver with HD post-processing. This Windows Vista 32-bit driver, 163.11, significantly improves HD video quality and should be used when testing PureVideo HD with HD movies or the HQV HD benchmark.

Use the following for PureVideo HD video testing:

ForceWare 163.11 Vista 32-bit drivers
NVIDIA GeForce 8600 GTS graphics card
The new drivers leverage the GPU shaders to perform HD post-processing. With 8800 and 8600 GTS we expect to get full HD post-processing and perfect HQV HD scores. The majority of driver testing has been focused on 8600 GTS thus far so we request that limit your testing to this model for now.
Cyberlink PowerDVD Ultra 7.3 build 2911e.0 or higher (right-click on the movie window and select About)
Note that the initial retail build of PowerDVD (7.3.2911.0) will work but has a known interaction with post-processing that may cause dropped frames.
Real protected BD/HD movies on disc. Playing ripped movies stripped of copy protection does not place the same demand on the CPU or GPU and will not give an accurate indication of what consumers will experience.
A 1920x1080 or higher display

When testing:

With HQV HD use the following settings in the NVIDIA control panel:
"Inverse Telecine" ON
"Noise reduction" 75-100
With HD movies use the following settings in the NVIDIA control panel:
"Inverse Telecine" ON
"Noise reduction" 0
"Edge enhancement" 0 (should be 0 all HD content, but should be set to your preference for SD content)
If the monitor is 1920x1200 or 2560x1600 ensure the video is not stretched vertically. Scaling digital video to a non-native resolution produces sub-optimal results, and some features—especially the fine single-pixel horizontal lines in the HD HQV test patterns will only be clear and sharp when the video is displayed pixel-for-pixel

With this driver you should see excellent quality and perfect scores in HQV HD. If you have don't or have questions please contact me and Peter Sheerin, our technical marketing manager.

Be sure to check out our HQV HD article right here (http://www.guru3d.com/article/Videocards/443/).

Download 32-bit driver:
http://downloads.guru3d.com/download.php?det=1674

Download 64-bit driver:
http://downloads.guru3d.com/download.php?det=1673

Source: NVIDIAInsofern sind wir (also ich ganz besonders ;-) nun mal gespannt, wie sich dies nun im offiziellen Nachtest zu dem ursprünglichen Vergleich darstellt. Einen kleinen Ausblick hat Guru3D ja schon in einem 'Update' zu dem originalen Artikel gegeben... jetzt sollte die eigentliche Berichtigung - wohl auch mit Änderung des Fazits - kommen.

Razor

P.S.: deswegen ein neuer Thread, weil das Thema hier eher weniger mit einem speziellen Treiber, denn mit der Treiber-Entwicklung an sich und auch der VP2-Unterstützung der 8x00 zu tun hat...

Arschhulio
2007-07-24, 08:51:23
Sorry falls ich da jetzt falsch liege aber heißt das jetzt das die Qualität oder die "Geschwindigkeit" bei HDR verbessert wird?

Sternenkind
2007-07-24, 09:29:45
Nein, du kannst ganz einfach Treiberseitig HDR ausschalten.

r@w.
2007-07-24, 15:03:37
Jup...
Thank you for contacting NVIDIA Customer Care. We are sorry for the confusion this new option has introduced. NVIDIA added this option to allow a user to manually force HDR to be disabled if it can not be disabled from within an application for better compatibility. It does not introduce a new enhanced HDR mode nor does it change the games HDR implimentation when enabled.Ich übersetze mal:
...blablabla...
NVIDIA fügte diese Option hinzu, um es dem User zu erlauben, HDR zu unterdrücken, wenn dies nicht über die Anwendung möglich ist (angeblich aus Kompatibilitätsgründen). Es ist kein neues 'erweitertes' HDR, noch ist es eine Änderung in der HDR-Implementierung, wenn es aktiviert ist.Oder auch:
Man kann damit HDR unterdrücken, selbstverständlich aber nicht erzwingen oder andersartig beeinflussen.

-

Und wie ich es mir schon fast gedacht habe, interessiert es die Leutz hier anscheinend überhaupt nicht, dass man mit Grafikkarten auch noch mehr machen kann, als nur zu daddeln... schade eigentlich... aber erwartungskonform.

Razor

Hardware Gott
2007-07-24, 15:07:59
kann es sein das bei NV nun Vista an erster stelle steht?
kaum neues für XP.

r@w.
2007-07-24, 15:16:48
Wus?
163.11 für Vista (11.7.) und 162.18 (5.7.) für WinXP.
Beides recht aktuell...

Wo also meinst Du einen Nachteil für WinXP zu erkennen?
:confused:

Razor

Sascha1971
2007-07-24, 15:41:22
Ich würde mir lieber mal wünschen, das der NV Treiber 2d und 3d unterscheidet mit unterschiedlichen Taktraten inkl Lüftersteuerung.
Das kann doch nicht so schwehr sein, wenn so was externe Tools schaffen.

r@w.
2007-07-24, 15:58:39
Bei den G8x?
Das liegt wohl weniger am Treiber...

Und das man bei aktivem Aero zwangsläufig nur "3D" hat, sollte wirklich niemanden mehr verwundern.

Razor

Sascha1971
2007-07-24, 16:42:13
Bei den G8x?
Das liegt wohl weniger am Treiber...

Und das man bei aktivem Aero zwangsläufig nur "3D" hat, sollte wirklich niemanden mehr verwundern.

Razor

Ich hatte vorher eine ATI 1950er und die konnte auch 2d und 3 d unterscheiden, obwohl ich Aero aktiv hatte. Sobald ich ein Spiel gestartet hatte schaltete sie auf 3d um.

Arschhulio
2007-07-24, 17:14:05
........ vorher eine ATI 1950er und die konnte auch 2d und 3 d unterscheiden...........

Den Unterschied erkannt?

4711
2007-07-24, 18:11:06
Bei den G8x?
Das liegt wohl weniger am Treiber...

Und das man bei aktivem Aero zwangsläufig nur "3D" hat, sollte wirklich niemanden mehr verwundern.

Razor

ja und :confused:
meine läuft mit 202/225 3D..... und das würde sie auch mit weniger volt schaffen ohne das was "ruckelt"..Aero>das ist kein Argument.

Gast
2007-07-24, 20:25:41
ich hätte gerne mal vista-treiber die H.264-beschleunigung auch mit der 7er serie unterstützen.

deekey777
2007-07-28, 17:25:53
Jup...
Ich übersetze mal:
Oder auch:
Man kann damit HDR unterdrücken, selbstverständlich aber nicht erzwingen oder andersartig beeinflussen.

-
...

Razor
Bedeutet das, man kann es zB in 3D 2006 in den beiden SM3-Tests einfach unterdrücken?

4711
2007-07-28, 17:50:51
zb.in Stalker wenn du die Option auf "off" stellst hast Du kein bild mehr,wie das im Mark aussieht keine Ahnung.

Razor
2007-07-28, 17:54:55
ja und :confused:
meine läuft mit 202/225 3D..... und das würde sie auch mit weniger volt schaffen ohne das was "ruckelt"..Aero>das ist kein Argument.
Was Du wollen?
:confused:

Bedeutet das, man kann es zB in 3D 2006 in den beiden SM3-Tests einfach unterdrücken?
Jup... so ist das gemeint.

Ob das allerdings inbesonders beim Murks funzt, weiß ich nicht.
Gäbe dann ja erhebliches Cheat-Potential, oder?
;)

Razor

deekey777
2007-07-28, 17:55:19
zb.in Stalker wenn du die Option auf "off" stellst hast Du kein bild mehr,wie das im Mark aussieht keine Ahnung.
Gleiches sollte auch in GRAW/2 passieren.


Jup... so ist das gemeint.

Ob das allerdings inbesonders beim Murks funzt, weiß ich nicht.
Gäbe dann ja erhebliches Cheat-Potential, oder?
;)

Razor
Das war der Hintergedanke. :D

Gast
2007-07-28, 17:58:36
Was Du wollen?
:confused:


Jup... so ist das gemeint.

Ob das allerdings inbesonders beim Murks funzt, weiß ich nicht.
Gäbe dann ja erhebliches Cheat-Potential, oder?
;)

Razor
AUF DEUTSCH "man kann sehr wohl zwei verschiedene Taktungen und eine mit weniger Volt der Karte geben"..meinetwegen kann man es ja dann 3d Low und 3d high nennen.

4711
2007-07-28, 17:59:20
booaaahh geht mit der FF auf die Nüsse :P:wink:

Razor
2007-07-28, 18:08:44
AUF DEUTSCH "man kann sehr wohl zwei verschiedene Taktungen und eine mit weniger Volt der Karte geben"..meinetwegen kann man es ja dann 3d Low und 3d high nennen.
Des war zwar noch immer schwer verständlich, aber ich glaube, ich weiß, worauf Du hinaus willst.
Klar wäre das theoretisch möglich...

...aber rein praktisch rendert die Grafikkarte bei Aero 3D.

Warum sollte also nVidia in ihre Treiber eine Art "Aero-Erkennung" einbauen, um dann die Takte der Karte in unterschiedliche 3D-Stufen zu setzen? Ist unfug... und es ist zudem nicht gesagt, dass diese permanenten Taktänderungen der G8x-Architektur überhaupt zuträglich ist.

Offenbar gibt es andere Möglichkeiten, die bei den 'Kleinen' ja auch sehr ordentlich funktionieren. Dieser Teil scheint allerdings bei den G80 'defekt'... deswegen ausschließlich "3D" und auch im Idle ein permanent hoher Verbrauch... vielleicht klappts ja mit den nächsten HighEndern.

Razor

P.S.: meine 'Kleine', die 7900GT, gibt sich unter Vistas Aero auch immer "die volle Dröhnung"... aber die Temp geht kaum höher als unter 2D bei WinXP... auch die Verbrauch ist dadurch nicht wirklich gestiegen. Was also solls? Im Heruntertakten (noch viel schlimmer "herunter volten") sehe ich absolut keinen Sinn.

Razor
2007-07-28, 18:09:40
booaaahh geht mit der FF auf die Nüsse :P:wink:
IE7 und ActiveX deaktivieren = FF.
So einfach ist das... und nie wieder Probs mit den Käääääksen!
:D

Razor

4711
2007-07-29, 00:08:57
ich nix versteh...mit dem IE7 und ActiveX kann ich mich anmelden wo ich will...mit dem "FF" nur auf der Startseite...

4711
2007-07-29, 00:11:31
Des war zwar noch immer schwer verständlich, aber ich glaube, ich weiß, worauf Du hinaus willst.
Klar wäre das theoretisch möglich...

...aber rein praktisch rendert die Grafikkarte bei Aero 3D.

Warum sollte also nVidia in ihre Treiber eine Art "Aero-Erkennung" einbauen, um dann die Takte der Karte in unterschiedliche 3D-Stufen zu setzen? Ist unfug... und es ist zudem nicht gesagt, dass diese permanenten Taktänderungen der G8x-Architektur überhaupt zuträglich ist.

Offenbar gibt es andere Möglichkeiten, die bei den 'Kleinen' ja auch sehr ordentlich funktionieren. Dieser Teil scheint allerdings bei den G80 'defekt'... deswegen ausschließlich "3D" und auch im Idle ein permanent hoher Verbrauch... vielleicht klappts ja mit den nächsten HighEndern.

Razor

P.S.: meine 'Kleine', die 7900GT, gibt sich unter Vistas Aero auch immer "die volle Dröhnung"... aber die Temp geht kaum höher als unter 2D bei WinXP... auch die Verbrauch ist dadurch nicht wirklich gestiegen. Was also solls? Im Heruntertakten (noch viel schlimmer "herunter volten") sehe ich absolut keinen Sinn.
Hier kann ich Dir genau so wenig folgen....meine Kleine ist ne 8800 GTX und es geht mit dem Riva einwandfrei...202/225 wenn das die volle Dröhnung sein soll...

Gast
2007-07-29, 00:44:32
Offenbar gibt es andere Möglichkeiten, die bei den 'Kleinen' ja auch sehr ordentlich funktionieren. Dieser Teil scheint allerdings bei den G80 'defekt'... deswegen ausschließlich "3D" und auch im Idle ein permanent hoher Verbrauch... vielleicht klappts ja mit den nächsten HighEndern.


die kleinen haben einfach deutlich weniger transistoren und einen moderneren fertigungsprozess, thats all.

signum incognitum
2007-08-02, 18:06:39
http://www.nzone.com/object/nzone_downloads_rel70betadriver.html
neu von heute: auch für GF6/7:eek:

Razor
2007-08-03, 06:39:28
http://www.nzone.com/object/nzone_downloads_rel70betadriver.html
neu von heute: auch für GF6/7:eek:
Nun mal keine Panik... sind absolut die selben Treiber.
Immer noch vom 9.7. - also nix neu.
(im Gegenteil, denn jetzt 'älter', das Datum der Site ist wurscht ;-)

Weil:

Bei dem damaligen 64Bit Treiber (english) gab es eine 'modifizierte' INF, die einen Tag neuer war, als der sonstige Treiber... eben vom 10.7. und nicht wie der Rest, vom 9.7.... und das ist nun offenbar korrigiert. Witziger weise ist dies beim internationalen Treiber nicht so offensichtlich... denn hier sind die Treiber in JEDER hinsicht identisch... bis ins kleinste Detail. OK, die INF des 'Neuen' ist größer, weil... ja.

Ergo:

Es werden jetzt einfach nur sehr viel mehr Chips unterstützt... so, wie es unrsprünglich auch vorgesehen war.
So hat man seinerzeit den 163.11 nachträglich 'kastriert', damit er per default nur auf den gf8 lief und man hat es nun offenbar nicht mehr für nötig behalten, dieses Maskerade aufrecht zu erhalten... 'nett'.

'kastriert'
NVIDIA_G80.DEV_0191.1 = "NVIDIA GeForce 8800 GTX"
NVIDIA_G80.DEV_0193.1 = "NVIDIA GeForce 8800 GTS"
NVIDIA_G80.DEV_0194.1 = "NVIDIA GeForce 8800 Ultra"
NVIDIA_G84.DEV_0400.1 = "NVIDIA GeForce 8600 GTS"
NVIDIA_G84.DEV_0402.1 = "NVIDIA GeForce 8600 GT"
NVIDIA_G86.DEV_0421.1 = "NVIDIA GeForce 8500 GT"
NVIDIA_G86.DEV_0422.1 = "NVIDIA GeForce 8400 GS"
NVIDIA_G86.DEV_0423.1 = "NVIDIA GeForce 8300 GS"
'original' (jetzt)
NVIDIA_BR02.DEV_00F1.1 = "NVIDIA GeForce 6600 GT"
NVIDIA_BR02.DEV_00F2.1 = "NVIDIA GeForce 6600"
NVIDIA_BR02.DEV_00F3.1 = "NVIDIA GeForce 6200"
NVIDIA_BR02.DEV_00F4.1 = "NVIDIA GeForce 6600 LE"
NVIDIA_BR02.DEV_00F5.1 = "NVIDIA GeForce 7800 GS"
NVIDIA_BR02.DEV_00F6.1 = "NVIDIA GeForce 6800 GS/XT"
NVIDIA_BR02.DEV_00F8.1 = "NVIDIA Quadro FX 3400/4400"
NVIDIA_BR02.DEV_00F9.1 = "NVIDIA GeForce 6800 Series GPU"
NVIDIA_BR02.DEV_02E0.1 = "NVIDIA GeForce 7600 GT"
NVIDIA_BR02.DEV_02E1.1 = "NVIDIA GeForce 7600 GS"
NVIDIA_BR02.DEV_02E2.1 = "NVIDIA GeForce 7300 GT"
NVIDIA_BR02.DEV_02E3.1 = "NVIDIA GeForce 7900 GS"
NVIDIA_C51.DEV_0240.1 = "NVIDIA GeForce 6150"
NVIDIA_C51.DEV_0241.1 = "NVIDIA GeForce 6150 LE"
NVIDIA_C51.DEV_0242.1 = "NVIDIA GeForce 6100"
NVIDIA_C51.DEV_0245.1 = "NVIDIA Quadro NVS 210S / NVIDIA GeForce 6150LE"
NVIDIA_C61.DEV_03D0.1 = "NVIDIA GeForce 6150SE nForce 430"
NVIDIA_C61.DEV_03D1.1 = "NVIDIA GeForce 6100 nForce 405"
NVIDIA_C61.DEV_03D2.1 = "NVIDIA GeForce 6100 nForce 400"
NVIDIA_C61.DEV_03D5.1 = "NVIDIA GeForce 6100 nForce 420"
NVIDIA_C68.DEV_053A.1 = "NVIDIA GeForce 7050 PV / NVIDIA nForce 630a"
NVIDIA_C68.DEV_053B.1 = "NVIDIA GeForce 7050 PV / NVIDIA nForce 630a "
NVIDIA_C68.DEV_053E.1 = "NVIDIA GeForce 7025 / NVIDIA nForce 630a"
NVIDIA_G70.DEV_0090.1 = "NVIDIA GeForce 7800 GTX"
NVIDIA_G70.DEV_0091.1 = "NVIDIA GeForce 7800 GTX "
NVIDIA_G70.DEV_0092.1 = "NVIDIA GeForce 7800 GT"
NVIDIA_G70.DEV_0093.1 = "NVIDIA GeForce 7800 GS "
NVIDIA_G70.DEV_0095.1 = "NVIDIA GeForce 7800 SLI"
NVIDIA_G70.DEV_009D.1 = "NVIDIA Quadro FX 4500"
NVIDIA_G71.DEV_0290.1 = "NVIDIA GeForce 7900 GTX"
NVIDIA_G71.DEV_0291.1 = "NVIDIA GeForce 7900 GT/GTO"
NVIDIA_G71.DEV_0292.1 = "NVIDIA GeForce 7900 GS "
NVIDIA_G71.DEV_0293.1 = "NVIDIA GeForce 7950 GX2"
NVIDIA_G71.DEV_0294.1 = "NVIDIA GeForce 7950 GX2 "
NVIDIA_G71.DEV_0295.1 = "NVIDIA GeForce 7950 GT"
NVIDIA_G71.DEV_029C.1 = "NVIDIA Quadro FX 5500"
NVIDIA_G71.DEV_029D.1 = "NVIDIA Quadro FX 3500"
NVIDIA_G71.DEV_029E.1 = "NVIDIA Quadro FX 1500"
NVIDIA_G71.DEV_029F.1 = "NVIDIA Quadro FX 4500 X2"
NVIDIA_G72.DEV_01D0.1 = "NVIDIA GeForce 7350 LE"
NVIDIA_G72.DEV_01D1.1 = "NVIDIA GeForce 7300 LE"
NVIDIA_G72.DEV_01D3.1 = "NVIDIA GeForce 7300 SE/7200 GS"
NVIDIA_G72.DEV_01DD.1 = "NVIDIA GeForce 7500 LE"
NVIDIA_G72.DEV_01DE.1 = "NVIDIA Quadro FX 350"
NVIDIA_G72.DEV_01DF.1 = "NVIDIA GeForce 7300 GS"
NVIDIA_G73.DEV_0390.1 = "NVIDIA GeForce 7650 GS"
NVIDIA_G73.DEV_0391.1 = "NVIDIA GeForce 7600 GT "
NVIDIA_G73.DEV_0392.1 = "NVIDIA GeForce 7600 GS "
NVIDIA_G73.DEV_0393.1 = "NVIDIA GeForce 7300 GT "
NVIDIA_G73.DEV_0394.1 = "NVIDIA GeForce 7600 LE"
NVIDIA_G73.DEV_0395.1 = "NVIDIA GeForce 7300 GT "
NVIDIA_G73.DEV_039E.1 = "NVIDIA Quadro FX 560"
NVIDIA_G80.DEV_0191.1 = "NVIDIA GeForce 8800 GTX"
NVIDIA_G80.DEV_0193.1 = "NVIDIA GeForce 8800 GTS"
NVIDIA_G80.DEV_0194.1 = "NVIDIA GeForce 8800 Ultra"
NVIDIA_G80.DEV_019D.1 = "NVIDIA Quadro FX 5600"
NVIDIA_G80.DEV_019E.1 = "NVIDIA Quadro FX 4600"
NVIDIA_G84.DEV_0400.1 = "NVIDIA GeForce 8600 GTS"
NVIDIA_G84.DEV_0402.1 = "NVIDIA GeForce 8600 GT"
NVIDIA_G86.DEV_0421.1 = "NVIDIA GeForce 8500 GT"
NVIDIA_G86.DEV_0422.1 = "NVIDIA GeForce 8400 GS"
NVIDIA_G86.DEV_0423.1 = "NVIDIA GeForce 8300 GS"
NVIDIA_G86.DEV_0424.1 = "NVIDIA GeForce 8400 GS "
NVIDIA_NV40.DEV_0040.1 = "NVIDIA GeForce 6800 Ultra"
NVIDIA_NV40.DEV_0041.1 = "NVIDIA GeForce 6800"
NVIDIA_NV40.DEV_0042.1 = "NVIDIA GeForce 6800 LE"
NVIDIA_NV40.DEV_0043.1 = "NVIDIA GeForce 6800 XE"
NVIDIA_NV40.DEV_0044.1 = "NVIDIA GeForce 6800 XT"
NVIDIA_NV40.DEV_0045.1 = "NVIDIA GeForce 6800 GT"
NVIDIA_NV40.DEV_0047.1 = "NVIDIA GeForce 6800 GS"
NVIDIA_NV40.DEV_0048.1 = "NVIDIA GeForce 6800 XT "
NVIDIA_NV40.DEV_004E.1 = "NVIDIA Quadro FX 4000"
NVIDIA_NV41.DEV_00C0.1 = "NVIDIA GeForce 6800 GS "
NVIDIA_NV41.DEV_00C1.1 = "NVIDIA GeForce 6800 "
NVIDIA_NV41.DEV_00C2.1 = "NVIDIA GeForce 6800 LE "
NVIDIA_NV41.DEV_00C3.1 = "NVIDIA GeForce 6800 XT "
NVIDIA_NV41.DEV_00CD.1 = "NVIDIA Quadro FX 3450/4000 SDI"
NVIDIA_NV41.DEV_00CE.1 = "NVIDIA Quadro FX 1400"
NVIDIA_NV43.DEV_0140.1 = "NVIDIA GeForce 6600 GT "
NVIDIA_NV43.DEV_0141.1 = "NVIDIA GeForce 6600 "
NVIDIA_NV43.DEV_0142.1 = "NVIDIA GeForce 6600 LE "
NVIDIA_NV43.DEV_0143.1 = "NVIDIA GeForce 6600 VE"
NVIDIA_NV43.DEV_0145.1 = "NVIDIA GeForce 6610 XL"
NVIDIA_NV43.DEV_0147.1 = "NVIDIA GeForce 6700 XL"
NVIDIA_NV43.DEV_014A.1 = "NVIDIA Quadro NVS 440"
NVIDIA_NV43.DEV_014C.1 = "NVIDIA Quadro FX 540M"
NVIDIA_NV43.DEV_014D.1 = "NVIDIA Quadro FX 550"
NVIDIA_NV43.DEV_014E.1 = "NVIDIA Quadro FX 540"
NVIDIA_NV43.DEV_014F.1 = "NVIDIA GeForce 6200 "
NVIDIA_NV44.DEV_0160.1 = "NVIDIA GeForce 6500"
NVIDIA_NV44.DEV_0161.1 = "NVIDIA GeForce 6200 TurboCache(TM)"
NVIDIA_NV44.DEV_0162.1 = "NVIDIA GeForce 6200SE TurboCache(TM)"
NVIDIA_NV44.DEV_0163.1 = "NVIDIA GeForce 6200 LE"
NVIDIA_NV44.DEV_0165.1 = "NVIDIA Quadro NVS 285"
NVIDIA_NV44.DEV_0169.1 = "NVIDIA GeForce 6250"
NVIDIA_NV44.DEV_016A.1 = "NVIDIA GeForce 7100 GS"
NVIDIA_NV44.DEV_0221.1 = "NVIDIA GeForce 6200 "
NVIDIA_NV44.DEV_0222.1 = "NVIDIA GeForce 6200 A-LE"
NVIDIA_NV45.DEV_0046.1 = "NVIDIA GeForce 6800 GT "
NVIDIA_NV48.DEV_0211.1 = "NVIDIA GeForce 6800 "
NVIDIA_NV48.DEV_0212.1 = "NVIDIA GeForce 6800 LE "
NVIDIA_NV48.DEV_0215.1 = "NVIDIA GeForce 6800 GT "
NVIDIA_NV48.DEV_0218.1 = "NVIDIA GeForce 6800 XT "
Razor

signum incognitum
2007-08-03, 21:43:56
I don't panic:eek:

san.salvador
2007-08-03, 22:17:04
Des war zwar noch immer schwer verständlich, aber ich glaube, ich weiß, worauf Du hinaus willst.
Klar wäre das theoretisch möglich...

...aber rein praktisch rendert die Grafikkarte bei Aero 3D.

Warum sollte also nVidia in ihre Treiber eine Art "Aero-Erkennung" einbauen, um dann die Takte der Karte in unterschiedliche 3D-Stufen zu setzen? Ist unfug... und es ist zudem nicht gesagt, dass diese permanenten Taktänderungen der G8x-Architektur überhaupt zuträglich ist.

Offenbar gibt es andere Möglichkeiten, die bei den 'Kleinen' ja auch sehr ordentlich funktionieren. Dieser Teil scheint allerdings bei den G80 'defekt'... deswegen ausschließlich "3D" und auch im Idle ein permanent hoher Verbrauch... vielleicht klappts ja mit den nächsten HighEndern.

Razor

P.S.: meine 'Kleine', die 7900GT, gibt sich unter Vistas Aero auch immer "die volle Dröhnung"... aber die Temp geht kaum höher als unter 2D bei WinXP... auch die Verbrauch ist dadurch nicht wirklich gestiegen. Was also solls? Im Heruntertakten (noch viel schlimmer "herunter volten") sehe ich absolut keinen Sinn.
Da spricht der Experte! ;D

Meine 8800 läuft im Vista übrigens auch nur mit 200/300 und schaltet bei Spielen auf 621/920.
Huch, wie soll das bloß gehen? :eek:
Rivatuner heißt die Lösung. Und wenn ich das mit dem Rivatuner (und der Hilfe von Dargo :up: ) hinkrieg, dann ist das keine große Sache.

Razor
2007-08-04, 04:42:40
Lesen, verstehen, dann posten.

Razor