PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ForceWare 169.13 Vista32/64, XP32/64 BETA


Blaire
2007-12-05, 15:47:30
Vista 32:
http://uk.download.nvidia.com/Windows/169.13/169.13_forceware_winvista_32bit_international_beta.exe

Vista 64:
http://uk.download.nvidia.com/Windows/169.13/169.13_forceware_winvista_64bit_international_beta.exe

WinXP 32:
http://uk.download.nvidia.com/Windows/169.13/169.13_forceware_winxp_32bit_international_beta.exe

WinXP 64:
http://uk.download.nvidia.com/Windows/169.13/169.13_forceware_winxp_64bit_international_beta.exe

Release Highlights:
Beta driver for GeForce 6, 7, and 8 series GPUs.
Increased SLI performance in Crysis (official Crysis patch much also be installed).
Fixes a resume from Sleep/Hibernate issue with GeForce 8800 GT.

Adam D.
2007-12-05, 15:50:25
Ok, der Crysis-Patch kann echt nicht mehr weit weg sein. Hoffentlich kommt er bis zum Wochenende.

Blaire
2007-12-05, 15:54:18
Ok, der Crysis-Patch kann echt nicht mehr weit weg sein. Hoffentlich kommt er bis zum Wochenende.

Vieleicht sogar noch heute. :)
Der neue Beta Treiber hat auf jeden Fall schonmal veränderte SLI Profile für Crysis!

Tigershark
2007-12-05, 15:58:26
Und NOCH sind die Server schnell mit ~ 300-400k - mal sehen wie lange das so bleibt :D

Megamember
2007-12-05, 16:10:11
Und? Mehr speed bei Crysis?

Deathcrush
2007-12-05, 16:42:03
Ich hoffe das mit dem Patch/Treiber nicht nur SLI Nutzer einen nutzen von ziehen werden

Zitat"Increased SLI performance in Crysis "

Blaire
2007-12-05, 16:42:06
Und? Mehr speed bei Crysis?

Hab im Moment leider kein SLI drinnen , vieleicht kann ja mal wer anders testen der SLI hat? :)

Megamember
2007-12-05, 16:45:43
Nee, hab ja selbst kein Sli, dachte da eher an Single 8800er. Ich hoff auch mal das das kein reiner SLI Patch wird:(

Gast
2007-12-05, 16:56:17
Ich hoffe das mit dem Patch/Treiber nicht nur SLI Nutzer einen nutzen von ziehen werden


imo unwahrscheinlich, wenn dann bringt der patch eine bessere performance und nicht der treiber.

sarge
2007-12-05, 20:18:32
der treiber ist minimal besser als 169.12. bei NFSMW der Rückler ist weniger geworden und bei 3dmark06 macht der ca 80 punkte weniger.

Signz
2007-12-05, 20:57:16
joa hab schöne grafikfehler in tf2


http://s1.directupload.net/file/d/1267/suiod975_jpg.htm
http://s4.directupload.net/file/d/1267/p9bhud2p_jpg.htm

Demogod
2007-12-05, 21:53:16
Auf meiner 6600 GT funzt der install nicht. Installer rennt ohne probs durch, doch nach nem Neustart ist das NVIDIA control panel nicht verfügbar.

Cubitus
2007-12-05, 21:56:15
Also crysis läuft zumindest unter XP nicht schlecht. SLi wurde anscheinend etwas optimiert.


also bei 1920*1200, 16xAF, 4xAA, HQ Tweak

min: 13.41 max: 37.16
avg: 27.99


spielbar :tongue:

san.salvador
2007-12-05, 21:58:45
Auf meiner 6600 GT funzt der install nicht. Installer rennt ohne probs durch, doch nach nem Neustart ist das NVIDIA control panel nicht verfügbar.
Für die Karte wird auch der 169.12 vorgeschlagen, du hast also wohl den falschen Treiber erwischt. ;)

TurricanM3
2007-12-05, 23:22:56
teste den gleich...

yardi
2007-12-05, 23:43:35
wie läuft der Treiber mit CoD4? Irgendwelche Probleme?

TurricanM3
2007-12-06, 00:09:16
Also mit dem neuen SLI-Patch und dem Treiber läuft Crysis deutlich smoother. Dieses SLI-Geruckel ist viel weniger vorhanden und es zieht auch viel weniger nach (Maus-Lag).

Bench:
163.09
avg: 28.8 min: 12.53 max: 42.88

163.13
avg: 34.8 min: 13.88 max: 45.80

Achja, Vista64, DX9 @Very High 1920x1200, Crysis ungepatched.

Gast
2007-12-06, 00:12:29
Vista64, DX9 @Very High 1920x1200, Crysis ungepatched...????????????
Was ist denn daran ungepatched....

TurricanM3
2007-12-06, 00:32:19
Ich meinte damit, dass ich noch nicht den Crysis-Patch installiert habe. Falls es damit noch besser laufen sollte.

Saro
2007-12-06, 00:59:42
Ich liebe diesen Treiber!!!

169.09 Beta und Hellgate London oft nur 30-40fps...
169.13 Beta und Hellgate London konstant 65-75 fps!

tombman
2007-12-06, 01:16:07
Bin zu faul den zu testen ;D
Mache ich dann mit dem Patch :)

Tigershark
2007-12-06, 01:43:39
wie läuft der Treiber mit CoD4? Irgendwelche Probleme?


Keine hier (Vista Ultimate 32bit, 8800GTS 640). Meinst Du was spezielles?

Hakim
2007-12-06, 02:30:09
also bei mir hat sich es verschlechtert!!

ungepatched

1680x1050 High, Vista x64

Vorher 169,12

!TimeDemo Run 2 Finished.
Play Time: 73.17s, Average FPS: 27.33
Min FPS: 17.18 at frame 1937, Max FPS: 31.55 at frame 990


Nachher 169,13

!TimeDemo Run 2 Finished.
Play Time: 85.26s, Average FPS: 23.46
Min FPS: 16.59 at frame 177, Max FPS: 29.45 at frame 374

yardi
2007-12-06, 08:12:56
Keine hier (Vista Ultimate 32bit, 8800GTS 640). Meinst Du was spezielles?

Diese schwarzen Texturen und Grafikfehler die mit 169.09 auftraten.

also bei mir hat sich es verschlechtert!!

ungepatched

1680x1050 High, Vista x64

Vorher 169,12

!TimeDemo Run 2 Finished.
Play Time: 73.17s, Average FPS: 27.33
Min FPS: 17.18 at frame 1937, Max FPS: 31.55 at frame 990


Nachher 169,13

!TimeDemo Run 2 Finished.
Play Time: 85.26s, Average FPS: 23.46
Min FPS: 16.59 at frame 177, Max FPS: 29.45 at frame 374

Vieleicht sagst du uns auch noch von welchem Spiel du redest?

Deathcrush
2007-12-06, 09:03:23
Sieht man doch ;) Wird wohl Crysis gewesen sein.

Razor
2007-12-06, 09:24:08
Der neue Beta Treiber hat auf jeden Fall schonmal veränderte SLI Profile für Crysis!
Jup... was auch die einzige Änderung an den Profilen ggü. dem 169.09 ist.
Anzumerken vielleicht noch, dass die Änderung am SCDA-Profil des 169.10 zurück genommen wurde...
(ist nun wieder zum 169.09 identisch ;-)

-

Ansonsten hat sich erwartungsgemäß nicht viel an diesem Treiber getan:
- Aufbau der Installation absolut identisch (geringfügige Änderungen in den Auflösungen der Installationsroutine)
- winzige Änderungen an den Profilen (eigentlich nur Crysis wie oben schon erwähnt)
- der CP-AA Bug (kein erzwungenes AA über das ControlPanel möglich) des 169.10 ist Geschichte

Der letzte Punkt ist beruhigend, wenn auch nicht wirklich verwunderlich, gell?
;)

Interessant ist, dass der Treiber eigentlich recht alt ist... war der 169.09 noch vom 12.11. (der 169.10 vom 15.11.), kommt der 'Neue' gerade mal auf den 19.11. - das ist immerhin schon mehr als 2 Wochen her!

Vermutlich wartete man mit diesem Treiber bis zum Crysis-Patch-Release, welcher sich ja bekanntlich verzögerte... und tut dies noch immer, denn dieser Treiber ist ausschließlich auf den UK-nVidia-Seiten zu finden... alle anderen 'kennen' diesen Treiber noch nicht... wieder mal ein (positiv zu wertender) "Admin-Fehler" der UK-Seite?

Ob das also wirklich DER Crysis-Treiber ist... who knows?

Ich werde den Treiber diesmal nicht nur unter WinXP (ist bereits drauf), sondern auch unter Vista64 installieren, um mal zu schaun', ob dieser lästige "Blank-Screen-after-Install"-Bug der letzten Betas weg ist (169.09/12 - Problem mit dem Primär-Display - siehe zugehörigen Thread zum 169.12). Sollte dies nicht der Fall sein, werde ich wieder den 192.02 WHQL installieren und keine Betas mehr unter Vista 'anfassen'...

Also, ab zu Vista64!
*bibber*
;)

Ach ja... ein Nachtrag noch:

Changes in Version 169.13 (WinXP)

Updated SLI support for Crysis Patch

The SLI profile for Crysis has been updated to align with the official Crysis
game patch.
• This update provides increased SLI performance with Crysis.
• The patch must be installed when playing Crysis with this driver.
Insbesonders der letzte Satz sollte stutzig machen... Inkompatibilität mit dem ungepatchten Crysis?
:confused:

Ist auch die einzige Anmerkung zu diesem Treiber in den Release-Notes...
Der 169.10 wird übrigens nicht einmal erwähnt... OK, kam ja auch nicht von nVidia - bzw. wurde nicht von nVidia released.
(kam von ASUS... wieder damit wieder mal eine sehr schlechte QS gezeigt *grmpf*)

Und noch ein Nachtrag:

Kein Wunder, dass man den Treiber NIRGENDWO sieht... er wird ja nicht einmal als Beta-Treiber angeboten!

Aber er findet sich unter den Crysis-Downloads der nZone-Seiten:
http://uk.nzone.com/object/nzone_crysis_downloads_uk.html

Und das sogar auf/in deutsch:
http://de.nzone.com/object/nzone_crysis_downloads_de.html

Strange... :|

Witziger weise gibt's auf der internationalen (US) nZone-Seite keinen Verweis dieser Art:
http://www.nzone.com/object/nzone_crysis_downloads.html
(und natürlich auch nicht unter den Betas... nonUS-Release only?)

Razor

Razor
2007-12-06, 10:46:29
Kleines Update (Vista64) :

Immer noch der gleiche Grütz:
- nach Installation (und zugehörigem Neustart) 'meint' Windoof das primäre Device TFT gegen den TV (im WoZi ;-) auszutauschen
- diesmal nicht extra den 169.02 WHQL im DualView installiert, sondern mit 2. USB-Maus (und laaaangem Kabel ;-) vom WoZi aus 'konfiguriert'

Und was noch immer nicht funktioniert (nur der Vollständigkeit halber ;-)...
- keine 30Hz für den TV im CP (auch über den Windows-Dialog nicht, ist aber nicht tragisch, denn 25Hz/50Hz interlaced sind ja korrekt ;-)
- für den CRT werden im CP keine 100Hz frei gegeben (muss unter den Windows-Dialogen eingestellt werden)
--> witziger weise wird nach DualView-Switch (TFT/CRT <> TFT/TV) zwar wieder 85Hz eingestellt, aber 100Hz auch mit angeboten :|

Mann, mann, mann...

Hoffentlich wird das primär-'Problem': "TV ist einziges und primäres Device nach Installation, bzw. kurzem 'showdown' des TFT" baldigst gelöst
(für etwa 10sec zeigt der TFT nach Installation ja noch den Desktop... dann allerdings nie wieder ;-)

Und wenn man zudem noch die kleinen anderne Unpäßlichkeiten lösen könnte, wäre ich den Mannen von nVidia sehr dankbar... obwohl... 'irgendwie' habe ich mich ja schon daran gewöhnt... 'irgendwie'.

Dann werde ich jetzt mal wieder good old WinXP booten und mal schaun', ob sich da zumindest performance-seitig etwas getan hat.
Die Installation lief dort ja zumindest reibungsfrei... ;)

Razor

P.S.: und nur, falls Ihr Euch 'wundert'... ja, isch hab' frei... ist das nicht herrlich?
Eine Weihanchtszeit mal ganz ohne Stretch - hatte ich seit unzähligen Jahren nicht mehr!
(na ja, "ganz ohne" leider doch nicht... aber zumindest zu den wesentlich Zeiten dieser Zeit "ganz ohne" ;-)

Razor
2007-12-06, 16:42:14
Hmmm...
Irgendwie scheint das Interesse an neuen Treibern ja nicht besonders groß.
Oder aber ich bin der einzige, der in diesen Tagen 'etwas' Zeit hat!
:D

Wie dem auch sei... hier nun ein größeres Update zu dem neuen Treiber (WinXP) :

Wie schon vermutet bieten sich hinsichtlich der Performance keinen wirklich nennenswerten Unterschiede zum vorherigen Favoriten 169.09 beta. Aber ein bissel was gibt es vielleicht dennoch zu berichten...

Hier erst einmal die Ergebnisse von meinem kleinen Benchparqour:

Core2Duo E6420 @ 3,2GHz
- Scythe Ninja SCNJ-1000P Heatpipe-Tower
- Antec 12cm-Cooler 'TriCool' @ min = silent&cool
Gigabyte GA-P35-DS3P Rev. 1.0 (Intel P35) Bios F7b
4x1024MB (4GB DC) MDT DDR2 PC800 CL5 @ 5-5-5-18-2T
nVidia GeForce 8800GT @ 600/1500/900 with with Zalman VF900-Cu @ min = silent&cool
WindowsXP Prof. SP2-fp DX9c

Benchmarks with enhanced Quality, 4xMSAA if possible and 8xAF (or higher)
@ 'High Quality' with GCAA on, TAA off, LOD-Bias clamped
- 3DMarks and STALKER without Anti-Alialsing
- Crysis with medium Shadows, 2xAA and CP-forced 8xHQAF

--------------------------------------------------------------------
3DMark2006 (110) 169.09 169.10 Diff 169.13 Diff
beta asus crysis
--------------------------------------------------------------------
3DMarks 11.699 11.700 0,01% 11.695 - 0,03%

-SM2 Score 5.384 5.385 0,02% 5.380 - 0,07%
-SM3 Score (HDR) 5.152 5.148 - 0,08% 5.148 - 0,08%
-CPU Score 2.866 2.869 0,10% 2.868 0,07%
-Game Score 0 0 - 0 -

Game1 (SM2) 44,00 44,00 0,00% 44,02 0,06%
Game2 (SM2) 45,74 45,75 0,03% 45,64 - 0,22%
CPU1 (Game) 0,91 0,91 - 0,04% 0,91 - 0,15%
CPU2 (Game) 1,45 1,45 0,25% 1,45 0,29%
Game3 (HDR) 49,22 49,17 - 0,10% 49,12 - 0,21%
Game4 (HDR) 53,81 53,79 - 0,03% 53,84 0,06%

Fillrate(Single) 4841,59 4841,59 0,00% 4841,84 0,00%
Fillrate(Multi) 26030,14 26027,54 - 0,01% 26026,23 - 0,02%
Pixel Shader 460,06 460,11 0,01% 460,15 0,02%
Vertex-S. simple 1601,76 1537,16 - 4,03% 1629,92 1,76%
Vertex-S. complex 122,14 122,14 0,00% 122,16 0,01%
Shader Particles 118,20 118,32 0,09% 118,04 - 0,14%
Perlin Niose 146,23 146,27 0,03% 146,23 0,00%

Triangles - 8 40,34 40,76 1,05% 40,40 0,15%
Triangles - 32 72,34 72,49 0,21% 72,39 0,08%
Triangles - 128 275,29 275,53 0,09% 275,35 0,02%
Triangles - 512 296,44 296,41 - 0,01% 296,42 0,00%
Triangles - 2048 299,05 299,02 - 0,01% 299,04 - 0,01%
Triangles - 32768 299,61 299,61 0,00% 299,61 0,00%

--------------------------------------------------------------------
3DMark2005 (110) 169.09 169.10 Diff 169.13 Diff
beta asus crysis
--------------------------------------------------------------------
3DMarks 17.962 17.934 - 0,16% 17.952 - 0,06%

-Game1 68,18 68,11 - 0,11% 68,13 - 0,07%
-Game2 54,82 54,66 - 0,29% 54,77 - 0,09%
-Game3 99,23 99,17 - 0,06% 99,23 0,01%

CPUMarks 11.164 11.387 2,00% 11.917 6,74%

-CPU1 5,59 5,84 4,38% 6,35 13,62%
-CPU2 9,91 9,87 - 0,33% 9,94 0,28%

Fillrate(Single) 4853,74 4848,91 - 0,10% 4852,78 - 0,02%
Fillrate(Multi) 31919,47 31927,85 0,03% 31933,05 0,04%
Pixel Shader 456,42 456,46 0,01% 456,42 0,00%
Vertex-S. simple 144,87 144,87 0,00% 144,86 - 0,01%
Vertex-S. complex 150,12 150,10 - 0,01% 150,12 0,00%

Triangles - 8 17,16 17,00 - 0,91% 17,01 - 0,84%
Triangles - 32 67,84 67,60 - 0,36% 66,42 - 2,08%
Triangles - 128 265,34 263,74 - 0,60% 264,08 - 0,47%
Triangles - 512 297,35 297,56 0,07% 297,50 0,05%
Triangles - 2048 300,19 300,22 0,01% 300,28 0,03%
Triangles - 32768 300,91 300,97 0,02% 300,64 - 0,09%

--------------------------------------------------------------------
3DMark2003 (360) 169.09 169.10 Diff 169.13 Diff
beta asus crysis
--------------------------------------------------------------------
3DMarks 29.368 29.387 0,06% 29.384 0,05%

-Game1 620,93 621,11 0,03% 622,99 0,33%
-Game2 226,35 226,95 0,26% 226,74 0,17%
-Game3 181,36 181,26 - 0,06% 181,11 - 0,14%
-Game4 204,67 204,65 - 0,01% 204,61 - 0,03%

CPUMarks 2.095 2.092 - 0,14% 2.090 - 0,24%

-CPU1 241,05 240,09 - 0,40% 240,38 - 0,28%
-CPU2 35,91 35,94 0,10% 35,84 - 0,18%

Fillrate(Single) 4803,79 4803,31 - 0,01% 4803,31 - 0,01%
Fillrate(Multi) 29427,24 29424,29 - 0,01% 29427,24 0,00%
Vertex Shader 137,88 137,84 - 0,03% 137,86 - 0,02%
Pixel Shader 2.0 390,43 390,35 - 0,02% 390,31 - 0,03%
Ragtroll 135,32 132,45 - 2,12% 132,24 - 2,28%

no sounds 136,18 135,78 - 0,29% 136,01 - 0,12%
24 sounds 126,02 125,70 - 0,26% 125,46 - 0,44%
60 sounds 119,48 119,45 - 0,03% 116,55 - 2,45%
-diff 24 s. - 7,46% - 7,43% - 7,76%
-diff 60 s. - 12,26% - 12,03% - 14,31%

--------------------------------------------------------------------
Aquamark 3 169.09 169.10 Diff 169.13 Diff
beta asus crysis
--------------------------------------------------------------------
Aquamarks 148.954 148.942 - 0,01% 149.198 0,16%

-GFX Score <> <> - <> -
-CPU Score <> <> - <> -

Avg. FPS 148,95 148,94 149,20
Avg. TriCnt (mio) 44,84 44,84 44,91

Details
-Chapter 1 196,76 196,36 - 0,21% 197,11 0,18%
-Chapter 2 108,79 108,79 0,00% 108,93 0,12%
-Chapter 3 161,69 161,65 - 0,02% 161,93 0,15%
-Chapter 4 117,03 117,06 0,03% 117,06 0,03%
-Chapter 5 169,34 169,07 - 0,16% 169,78 0,26%
-Chapter 6 183,34 183,61 0,15% 183,88 0,30%
-Chapter 7 179,81 179,74 - 0,04% 180,09 0,15%
-Chapter 8 152,81 153,08 0,17% 153,08 0,17%
-Chapter 9 104,08 104,10 0,02% 104,21 0,12%

--------------------------------------------------------------------
Shadermark 2.1 169.09 169.10 Diff 169.13 Diff
beta asus crysis
--------------------------------------------------------------------
-Shader 1 - - - - -
-Shader 2 1.309 1.309 0,00% 1.309 0,00%
-Shader 3 1.241 1.242 0,08% 1.241 0,00%
-Shader 4 1.231 1.231 0,00% 1.231 0,00%
-Shader 5 1.106 1.106 0,00% 1.106 0,00%
-Shader 6 1.257 1.257 0,00% 1.257 0,00%
-Shader 7 1.150 1.150 0,00% 1.150 0,00%
-Shader 8 921 921 0,00% 921 0,00%
-Shader 9 1.255 1.256 0,08% 1.255 0,00%
-Shader 10 1.188 1.188 0,00% 1.188 0,00%
-Shader 11 1.159 1.160 0,09% 1.159 0,00%
-Shader 12 718 718 0,00% 718 0,00%
-Shader 13 713 713 0,00% 713 0,00%
-Shader 14 999 999 0,00% 999 0,00%
-Shader 15 828 828 0,00% 828 0,00%
-Shader 16 732 732 0,00% 732 0,00%
-Shader 17 906 905 - 0,11% 905 - 0,11%
-Shader 18 93 93 0,00% 93 0,00%
-Shader 19 420 420 0,00% 420 0,00%
-Shader 20 235 235 0,00% 235 0,00%
-Shader 21 296 296 0,00% 296 0,00%
-Shader 22 411 411 0,00% 412 0,24%
-Shader 23 438 438 0,00% 438 0,00%
-Shader 24 347 347 0,00% 346 - 0,29%
-Shader 25 383 383 0,00% 383 0,00%
-Shader 26 380 380 0,00% 380 0,00%

--------------------------------------------------------------------
169.09 169.10 Diff 169.13 Diff
beta asus crysis
--------------------------------------------------------------------

Codecreatures 130,5 130,5 0,00% 130,6 0,08%
-max 197 197 0,00% 198 0,51%

--------------------------------------------------------------------

TR6:AoD (paris3) 155,0 155,0 - 0,06% 155,0 - 0,01%

Doom3 (demo1) 129,7 129,9 0,15% 129,7 0,00%

FarCry 1.3 (trai.)
- 1280x1024 161,3 162,6 0,82% 161,2 - 0,09%
- 1280x1024 HDR 134,7 134,1 - 0,39% 134,4 - 0,20%

HL2:LC VST (HDR) 150,0 123,9 - 17,38% 149,8 - 0,09%

F.E.A.R. (ingame)
- 1280x1024 95 95 0,00% 94 - 1,05%
- 1280x1024 min 44 46 4,55% 44 0,00%
- 1280x1024 max 238 241 1,26% 235 - 1,26%

Sam II (greendale)
- 1280x1024 83,9 84,1 0,24% 84,6 0,83%
- 1280x1024 min 29 36 24,14% 31 6,90%
- 1280x1024 max 310 304 - 1,94% 310 0,00%

CoD II (dargo) 68,4 68,3 - 0,15% 69,1 1,02%

Quake IV (guru5) 160,9 161,1 0,12% 161,2 0,19%

Prey (guru3D) 124,8 124,9 0,08% 124,8 0,00%

Lost Planet
- 1280x960 Snow 38,9 39,8 2,31% 38,7 - 0,51%
- 1280x960 Cave 58,8 59,5 1,19% 60,1 2,21%

STALKER (wesker)
- 1280x1024 70,5 70,6 0,07% 70,6 0,10%
- 1280x1024 min 2 2 0,00% 2 0,00%
- 1280x1024 max 216 197 - 8,80% 189 - 12,50%

Crysis
- 12x10 vhigh 26,6 26,6 0,04% 26,6 0,04%
- 12x10 vhigh min 22 22 0,00% 22 0,00%
- 12x10 vhigh max 31 31 0,00% 31 0,00%

UT3: ShangriLa 84,3 <> - 84,4 0,14%

--------------------------------------------------------------------

Der Murks06 zeigt so gar keine Auffälligkeiten, dafür aber 'murkst' der Murks05 ein wenig, zeigt er doch beim CPU-Test1 einen Mega-Zugewinn von satten 14%... warum auch immer - wundert mich sowieso, warum sich da überhaupt etwas 'bewegt'. Der Murks03 ist hingegen wieder 'friedlich', wenn auch hier der "60 Sounds"-Test einen kleinen Rückgang verzeichnet *wieder.mit.den.schultern.zuckt*

Der Rest dürfte sich im Rahmen der Meßungenauigkeit bewegen, wenn auch FEAR ein Prozentpünktchen nach gibt (gottlob nicht bei den min-fps ;-) und COD2 gelichermaßen zulegt (die min-fps von SS2 haben überhaupt keinen Aussagegehalt). Lost Planet (Demo) hat ein wenig 'gezuckt'... tut es aber offenbar bei jedem Treiber in die eine oder andere Richtung (bei gleichem Treiber aber, ist die Leistung konstant, insofern schon irgendwie verläßlich... wenn auch auf die 'eigene' weisew ;-).

OK, Stalker hat bei den max-fps ordentlich eingebüßt... was sich aber nicht wirklich auf die avg-fps ausgewirkt hat... 'peaks' vermutlich, was ja durch die min-fps sehr gut nachvollzogen werden kann... schließlich wäre das Game sonst bei 2fps nicht mal annähernd spielbar...

...aber zu Stalker gibt es dennoch was zu sagen!

Ist jetzt zwar nicht unbedingt auf diesen Treiber bezogen, aber vielleicht dennoch für den einen oder anderen interessant:
So hat mich eigentlich schon immer gestört, dass man AA nicht wirklich bei Stalker benutzen kann. InGame-AA hat keinerlei Auswirkungen (ausser auf die Performance ;-), insofern die einzige Möglichkeit ja die Übersteuerung via Control-Panel ist.

So habe ich mir das jetzt mal näher angeschaut, zumal es dieses mal auf anhieb funktionierte... 4xAA über das Panel erzwungen (Forcierung oder Aufwertung egal) und schon ging es ab... und ruckelte... und ruckelte... bleib aber nicht 'stehen', wie sonst. Bei manchen Treiber hat das Aktivieren von AA überhaupt keinen Effekt gehabt... aber egal, geht jetzt ja um diesen Treiber. Also mal den 2. Bildschirm und RT angeworfen... und siehe da: schon beim Menü gab es eine VRAM-Nutzung von satten 200MB... mit 2xAA waren es dann 'nur' 185MB... ohne AA dann tatsächlich nur etwa 75MB...

Hääää?
Wie geht denn das?
:confused:

Und beim Herumlaufen bestätigte sich das Ganze dann... unterirdische Performance und eine VRAM-Auslatung von 100%... nebst VRAM-'Auslagerungen' von bis zu 220MB, was zusammen dann mal eben lockere 730MB ergibt... *uff*... zumindest ist der Grund der üblen Performance gefunden.

Würde mich nicht wundern, wenn diese Settings (maximum + all-maxed + ingame AA off) auch auf GTX/Ultra nicht sonderlich prall laufen... aber zumindest sollte es besser in den VRAM passen, als bei mir, mit meinen 'mickrigen' 512MB... zumindest am Anfang, solange kein "VRAM-Bug" zuschlägt... sodenn es diesen gibt.

Aber klar, maximum + all-maxed gibt bei mir schon eine VRAM-Nutzung von lockeren 450MB (maximum, auch während des Spielens). Aber AA haut hier mächtigst rein... eben 280MB (!!!!!1111einseins) zusätzlich für 4xAA. Nicht einmal Supersampling haut so dermaßen rein... müsste man glatt mal ausprobieren.

Ich weiß nicht wirklich, was genau das funktionierende CP-AA anders macht, als das nicht funktionierende InGame-AA, aber es macht seine Sache nicht wirklich gut. - OK, ich habe jetzt mal eine InGame-Konfiguration gefunden, die mir zumindest 2xAA/TMSAA erlaubt, ohne auf zu viel zu verzichten - WAS FÜR EINE WOHLTAT! - aber wirklich praktikabel ist das nicht. "maximum"-standard (also ohne die Regler ALLE nach rechts zu schieben ;-) geht gerade noch so, ist aber während des Spielens doch mit dem einen oder anderen Slowdown einher gehend.

Würde mich glatt mal interessieren, was hier andere so für Erfahrungen haben...
...wenn hier denn überhaupt noch welche Stalker spielen.

Zumindest die GTXen/Ultras müssten hier ja eigentlich einen Vorteil haben... sodenn sie bei 1280x1024 bleiben.

So, das reicht nun aber... da ist er 'kleine' Stalker-Exkurs wohl etwas aus den Fugen geraten.
;)

Razor

Perfo @ work
2007-12-06, 17:04:05
Es ist halt noch ne Uhrzeit, in der wir arbeiten müssen, während Du Urlaub hast... *Neid* :D

Blaire
2007-12-06, 17:12:19
Würde mich nicht wundern, wenn diese Settings (maximum + all-maxed + ingame AA off) auch auf GTX/Ultra nicht sonderlich prall laufen... aber zumindest sollte es besser in den VRAM passen, als bei mir, mit meinen 'mickrigen' 512MB... zumindest am Anfang, solange kein "VRAM-Bug" zuschlägt... sodenn es diesen gibt.

Exakt. Das zieht kräftig an der Performance, will man z.b. 1680x1050 4xAA/16xAF einigermaßen gut zocken ist SLI 8800GTX Pflicht. Aber es sieht schon sehr schön aus, muss man sagen.

Gast
2007-12-06, 17:24:13
So habe ich mir das jetzt mal näher angeschaut, zumal es dieses mal auf anhieb funktionierte...


das funktioniert schon seit einiger zeit (ich glaub seit dem ersten 169er). TRAA hat allerdings bei mir weder in der SS noch in der MS-ausführung funktioniert, war nur noch langsamer ;)


Ich weiß nicht wirklich, was genau das funktionierende CP-AA anders macht, als das nicht funktionierende InGame-AA, aber es macht seine Sache nicht wirklich gut.


das ingame-"antialiasing" ist nicht wirklich antialiasing (ok wenn man antialiasing als etwas definiert, was aliasing mildert, dann kann man es als sowas bezeichnen, ein wenig wird es nämlich schon besser), sondern einfach ein post-processing-filter der versucht kanten zu erkennen und diese verblurrt.

deferred-shading setzt jede menge zwischenpuffer ein, wodurch schon mal sehr viel VRAM gebraucht wird, es wundert mich auch nicht dass der VRAM-verbrauch mit echtem MSAA extrem ansteigt.

bei der 8800GT kommt noch die relativ geringe bandbreite dazu, deferred-shading selbst braucht schon jede menge bandbreite, deferred-shading+MSAA natürlich umso mehr.

Gast
2007-12-06, 17:25:31
Exakt. Das zieht kräftig an der Performance, will man z.b. 1680x1050 4xAA/16xAF einigermaßen gut zocken ist SLI 8800GTX Pflicht.

in 1280x1024 kann ich mit meiner 8800GTS eigenlich ganz gut mit 4xMSAA spielen (ich hab das ganze allerdings nur kurz probiert, eventuell gibt es natürlich situationen wo das ganze schon eng wird).

Razor
2007-12-06, 21:21:32
Es ist halt noch ne Uhrzeit, in der wir arbeiten müssen, während Du Urlaub hast... *Neid* :D
Hey!
;D

Exakt. Das zieht kräftig an der Performance, will man z.b. 1680x1050 4xAA/16xAF einigermaßen gut zocken ist SLI 8800GTX Pflicht. Aber es sieht schon sehr schön aus, muss man sagen.
Echt heftig... aber das kann doch nicht 'normal' sein?!
OK, vielleicht bei dieser Engine... aber warum nur da?

in 1280x1024 kann ich mit meiner 8800GTS eigenlich ganz gut mit 4xMSAA spielen (ich hab das ganze allerdings nur kurz probiert, eventuell gibt es natürlich situationen wo das ganze schon eng wird).
Ich habe es oben schon geschrieben... "all maxed" (also nicht nur "maximum") benötigt etwa 730MB VRAM bei 4xAA (1280).
Soviel hat Deine GTS nicht...

Und nein, gleich die erste 'freie' Scene aus dem Bunker heraus und es ist schluss im Schacht.
By the way... wie kann man behaupten, dass man "gut spielen" kann, es aber gar nicht tat?
:confused:

das funktioniert schon seit einiger zeit (ich glaub seit dem ersten 169er). TRAA hat allerdings bei mir weder in der SS noch in der MS-ausführung funktioniert, war nur noch langsamer ;)
Na ja... die Büsche sehen ein bischen 'weicher' mit TMS aus... aber es ist nicht der Effekt zu beobachten, der sonst damit einher geht.
Und nein, der 169.10 funktionierte gar nicht und der 169.02 WHQL wollte nicht wirklich... Mega-Ruckel-Slideshow.

das ingame-"antialiasing" ist nicht wirklich antialiasing (ok wenn man antialiasing als etwas definiert, was aliasing mildert, dann kann man es als sowas bezeichnen, ein wenig wird es nämlich schon besser), sondern einfach ein post-processing-filter der versucht kanten zu erkennen und diese verblurrt.
Funktioniert so gut, wie gar nicht... kostet aber mächtig Leistung.
(selber habe ich den Unterschied zuerst gar nicht wahr genommen... die flimmernden Kanten aber schon ;-)

deferred-shading setzt jede menge zwischenpuffer ein, wodurch schon mal sehr viel VRAM gebraucht wird, es wundert mich auch nicht dass der VRAM-verbrauch mit echtem MSAA extrem ansteigt.

bei der 8800GT kommt noch die relativ geringe bandbreite dazu, deferred-shading selbst braucht schon jede menge bandbreite, deferred-shading+MSAA natürlich umso mehr.
Wie gesagt... nur das Menü: 185MB (oder 200MB mit 4xAA).
Und nein, an der Bandbreite liegt es definitiv nicht... es geht ihr einfach der VRAM aus.
730MB (und evtl. mehr) packt sie halt nicht...

Mich 'wundert' das schon!

Razor

Tamro
2007-12-07, 15:51:04
wie läuft der Treiber mit CoD4? Irgendwelche Probleme?


So läuft er. :(
http://img87.imageshack.us/img87/5330/shot0001mt1.th.jpg (http://img87.imageshack.us/my.php?image=shot0001mt1.jpg)

Also nix neues.

tombman
2007-12-07, 15:52:43
Mit dem neuen rennt sogar Crysis DX10 VERYHIGHSPEC :eek:
1600x1000, VeryHigh: 30.7fps :eek:

Razor
2007-12-07, 16:26:08
So läuft er. :(
http://img87.imageshack.us/img87/5330/shot0001mt1.th.jpg (http://img87.imageshack.us/my.php?image=shot0001mt1.jpg)
Also nix neues.
Hat Dir da jemand Kohle über den Weg gestreut?
:confused:

Razor

Tamro
2007-12-07, 16:55:55
Wäre gut, dann könnte ich mir das teure Heizoel sparen. Mit dem 169.09 war es noch extremer. Und wenn man sich im Schatten befindet, dann flackert die Waffe wie eine Discokugel.

voodoo69
2007-12-07, 19:42:29
tjo ich lese auch immer nur crysis.... zocke aber das bessere spiel *fg* ---> CoD4

hat jemand den 13er mit dem 17er verglichen?
ich teste zunächst mal den 13er, da offizielle beta...

Gast
2007-12-07, 20:13:09
Mit dem neuen rennt sogar Crysis DX10 VERYHIGHSPEC :eek:
1600x1000, VeryHigh: 30.7fps :eek:

Avg Fps, oder was?
Meinst der Treiber bringt auch was bei einer GTX?
mfg...

James Ryan
2007-12-08, 09:41:11
Vom 2D-Modus hat sich NVIDIA wohl endgültig verabschiedet oder?
Meine GTS taktet mit keinem 169er Treiber mehr in den 2D-Modus, trotz Bios-Mod.
Manuelles Runtertakten per RivaTuner wird auch nicht übernommen. Tolle Sache! :rolleyes:

MfG :cool:

Gast
2007-12-08, 10:13:55
Kann jemand bitte testen ob der Treiber Bioshock unter DX10 startet?

joehler
2007-12-08, 10:39:35
Kann jemand bitte testen ob der Treiber Bioshock unter DX10 startet?
Gestern 3h ohne Probleme gespielt.

JOEHLER

Gast
2007-12-08, 11:32:59
Vom 2D-Modus hat sich NVIDIA wohl endgültig verabschiedet oder?
Meine GTS taktet mit keinem 169er Treiber mehr in den 2D-Modus, trotz Bios-Mod.

erzähl mal was neues, dass die umschaltung bei den 169er-treibern nicht mehr funktioniert weiß man eigentlich schon lange.

James Ryan
2007-12-08, 11:53:59
Und das soll ich jetzt einfach so hinnehmen? :|

MfG :cool:

mapel110
2007-12-08, 12:02:51
Betrifft wohl nur die Geforce8-Reihe?! Bei meiner 7800 GT taktet jedenfalls alles normal runter im 2D.

James Ryan
2007-12-08, 12:07:25
Betrifft nur die Gf 8 Reihe!

MfG :cool:

Gast
2007-12-08, 12:08:00
hier schaltet Riva ganz normal in den angelegten profilen...außer Crysis (Vista64).
Und einen 2D Modus der G80 Karten hat es noch nie gegeben.

Gast
2007-12-08, 12:21:25
Betrifft wohl nur die Geforce8-Reihe?! Bei meiner 7800 GT taktet jedenfalls alles normal runter im 2D.

ja, und soweit ich weiß auch nur Vista64.

Gast
2007-12-08, 12:22:00
Und das soll ich jetzt einfach so hinnehmen? :|


Rivatuner die umschaltung vornehmen lassen und gut ist.

James Ryan
2007-12-08, 12:44:17
Rivatuner die umschaltung vornehmen lassen und gut ist.

Tja, das funktioniert natürlich auch nicht.
Der Treiber fliegt jetzt eh runter, Crysis freezt nach 10 Minuten.
Ich packe den 163.75er wieder drauf, da lief alles problemlos, auch das Heruntertakten im 2D-Modus!

MfG :cool:

Gast
2007-12-08, 13:30:22
Tja, das funktioniert natürlich auch nicht.


doch: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363545

James Ryan
2007-12-08, 13:32:49
doch: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363545

Sag mal, haltet ihr mich alle für blöd oder was? :|
Wenn ich sage, dass bei mir die 2D-Taktabsenkung auch nicht per RivaTuner läuft, dann weiß ich natürlich schon was ich da genau einzustellen habe.
Aber egal jetzt, der verbuggte 169er ist wieder runter, ich warte auf die 170er!

MfG :cool:

Gast
2007-12-08, 14:57:59
Sag mal, haltet ihr mich alle für blöd oder was? :|
Wenn ich sage, dass bei mir die 2D-Taktabsenkung auch nicht per RivaTuner läuft, dann weiß ich natürlich schon was ich da genau einzustellen habe.


wenn du rivatuner die taktraten ändern lässt muss es funktionieren, weil dann die kaputte 3d-erkennung des treibers umgangen wird, und ich kann dir bestätigen dass es funktioniert.

Razor
2007-12-08, 15:32:36
Und das soll ich jetzt einfach so hinnehmen?
Irgend etwas kaputt gespielt?
:confused:

Also bei funzt alles bestens...
Rauf, Runter, Normal - kein Problem.

Razor

88GT, WinXP, 169.13:

James Ryan
2007-12-08, 16:04:07
Razor, du hast eine GT (=G92), ich habe hier eine G80-GTS mit gemoddeten Bios (fest eingetragene 2D- und 3D-Takte) und seit den 169er Treibern hat NVIDIA da was vermurkst.
Aber wie schon gesagt, kümmert mich nicht, ich warte auf ordentliche Treiber.

MfG :cool:

Razor
2007-12-08, 17:49:45
Razor, du hast eine GT (=G92), ich habe hier eine G80-GTS mit gemoddeten Bios (fest eingetragene 2D- und 3D-Takte) und seit den 169er Treibern...
Hab' 'ne GT... und die 'braucht' keinen 2D-Modus.
Allerdings kann der RT natürlich auf Wunsch takten... was Du verneintest.
Und DAS wiederum kann ich mir beim beseten Willen nicht vorstellen... denn das sollte eigentlich IMMER funktionieren.
(soweit der RT den Treiber und die GraKa unterstützt ;-)

Razor

tombman
2007-12-09, 03:18:12
Avg Fps, oder was?
Meinst der Treiber bringt auch was bei einer GTX?
mfg...
AVG, SLI, echtes veryhigh ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6091816&postcount=11

SpoOokY
2007-12-09, 12:40:20
Also bei mir funktioniert die 2D-3D-Taktung auf meinert 8800gts einwandfrei unter Vista32 und Forceware 169.09

http://img484.imageshack.us/img484/6275/2d3dcg3.jpg

Gast
2007-12-09, 20:31:35
Also bei mir funktioniert die 2D-3D-Taktung auf meinert 8800gts einwandfrei unter Vista32 und Forceware 169.09

der bug betrifft soweit ich weiß nur Vista64.

LovesuckZ
2007-12-09, 21:16:39
Verändert sich bei wem unter Vista und Untertaktung die Stromaufnahme deutlich? Wenn ich meine GPU der 8800GT von 600 auf 150MHz untertakte, spare ich gerade mal 2-4 Watt ein...

Gast
2007-12-09, 21:54:16
Verändert sich bei wem unter Vista und Untertaktung die Stromaufnahme deutlich? Wenn ich meine GPU der 8800GT von 600 auf 150MHz untertakte, spare ich gerade mal 2-4 Watt ein...

schon möglich dass die einsparung mit 65nm nur mehr sehr klein ist, beim G80 ist sie noch ganz ordentlich.

Razor
2007-12-10, 09:04:36
Verändert sich bei wem unter Vista und Untertaktung die Stromaufnahme deutlich? Wenn ich meine GPU der 8800GT von 600 auf 150MHz untertakte, spare ich gerade mal 2-4 Watt ein...
Bei mir sinds etwa 3W, würde ich von 600/900 auf 300/450 in idle herunter takten.
Dadurch würde dann der Unterschied zur 7900GT noch kleiner werden... nur noch etwa 7W mehr.

Razor

spatz
2007-12-10, 14:16:16
Halli Hallo.

Eine kleine Frage.
Ich habe mir heute Vormittag eine 88gt zugelegt und versuche nun seitdem, die Temperatur dieser auszulesen.
Leider bekomme ich in keinerlei Programm eine Anzeige (rivatuner, atitool, everest, asus gamerdingens, ntune etc).
Kann das am Treiber liegen oder spinnt meine Graka einfach?

Oder hat die Asus en8800gt einfach keinen Tempsensor verbaut? Fragen über Fragen :)

Saro
2007-12-10, 19:35:29
Wenn es die ASUS 8800GT mit dem Goldenen Kühler ist sieht es zumindest derzeit schlecht aus mit auslesen.

Ich persöhnlich bin der Meinung das die ganz einfach keine Sensoren hat, manch andere hier im Forum meint aber das sie vermutlich nur Sensoren hat die noch nichts und niemand auslesen kann. (selbst die aktuellste ASUS Treiber/Programme usw. von deren Homepage)

Gast
2007-12-10, 20:06:31
Ich persöhnlich bin der Meinung das die ganz einfach keine Sensoren hat, manch andere hier im Forum meint aber das sie vermutlich nur Sensoren hat die noch nichts und niemand auslesen kann. (selbst die aktuellste ASUS Treiber/Programme usw. von deren Homepage)

der sensor ist definitiv in der gpu, nur muss diese auch ausgelesen werden.

Saro
2007-12-10, 20:34:51
der sensor ist definitiv in der gpu, nur muss diese auch ausgelesen werden.

Der Sensor in der GPU bringt aber definitiv nix wenn die Leitungen zum auslesen nicht gelegt sind... Und Wenn ASUS die entsprechenden Pins nicht belegt hat, wird eben genau das passieren was derzeit bei den ASUS Karten ist...

Tote Hose in sachen Temp Anzeige, und ich glaube kaum das ASUS die GPU's selber herstellt und man deswegen die Temperatur Anzeige derzeit nicht auslesen kann.

Es ist ja nicht so das man derzeit bei keiner einzigen 8800GT keine Temps auslesen kann, bei allen anderen funktioniert es ja.

Kurz gesagt die GPU's werden von NVidia geliefert, von ASUS verbaut der Temp Sensor sitzt aber im GPU da kann ASUS nix ändern höchstens nicht anschliessen. Es ist einfach nicht zu erwarten das bei den ASUS Karten mit Goldenen Kühler jemals eine Temp Anzeige kommt.

Die ASUS mit dem Referenz Kühler mit CoH Aufkleber lassen sich ja z.B. schliesslich auslesen in sachen Temps, lediglich die mit den Goldenen Custom Kühlern nicht.

Mich störts aber relativ wenig, für Overclocker hingegen wohl nicht so gut zu gebrauchen die Karten.

Razor
2007-12-10, 22:26:42
Es ist einfach nicht zu erwarten das bei den ASUS Karten mit Goldenen Kühler jemals eine Temp Anzeige kommt.
Falsch.

ASUS benutzt - wie schon gesagt - traditionell 'eigene' Methoden und Komponenten, um die Temps auszulesen. Selbstverständlich sind die 'Pins' angeschlossen, aber nicht an dem von nVidia vorgesehenen Chip... wie immer bei den ASUS Custom-Designs.

Die ASUS-Tools werden es definitiv irgendwann können (funzt meist nicht von Anfang an ;-)... nur ob es die nVidia-Standard-Tools (oder auch RivaTuner) jemals tun werden, steht in den Sternen.

Ist mit ein Grund, warum mir die AUS-Grafikkarten am Allerwertesten vorbei gehen...

Razor

spatz
2007-12-10, 22:40:10
Hm, etwas ärgerlich. Die Temperatur hat mich schon interessiert.

Nicht weil ich übertakten möchte (zumindest jetzt noch nicht :D), sondern weil ich eben gerne weiß, wie es um meine Hardware steht.
Na wat solls, hauptsache die Graka läuft ;)

Saro
2007-12-11, 00:45:47
Falsch.

ASUS benutzt - wie schon gesagt - traditionell 'eigene' Methoden und Komponenten, um die Temps auszulesen. Selbstverständlich sind die 'Pins' angeschlossen, aber nicht an dem von nVidia vorgesehenen Chip... wie immer bei den ASUS Custom-Designs.

Die ASUS-Tools werden es definitiv irgendwann können (funzt meist nicht von Anfang an ;-)... nur ob es die nVidia-Standard-Tools (oder auch RivaTuner) jemals tun werden, steht in den Sternen.

Ist mit ein Grund, warum mir die AUS-Grafikkarten am Allerwertesten vorbei gehen...

Razor

Wie gesagt ich glaube da nicht drann, im endeffekt interessiert mich bei einer Grafikkarte aber eh nur eins und zwar das sie leise ist funktioniert und das die Spiele flüssig laufen.

Da ich nicht Übertakte interessiert mich sowas auch herzlichst wenig... denn von Übertakten halte ich nach wie vor nichts. Entweder es läuft mit zufrieden stellender Leistung oder es läuft nicht... Wenn etwas übertakten werden muss damit überhaupt noch was läuft ist die Zeit sowieso gekommen das Teil auszutauschen und nicht zu übertakten oder sonstwas.

Kurz gesagt eh die 8800GT übertaktet werden muss damit überhaupt noch was läuft bis dahin gibt es die Geforce 11 oder so... und dagegen reisst übertakten dann auch nix raus und ob etwas mit 25 oder 250fps läuft ist mir schice egal hauptsache es läuft.

Aber ich bin da nunmal eher eine Randgruppe die selbst heute noch meistens ohne sachen wie Transparenz AA, AF usw. spielt ausser es lässt sich in den Einstellungen vom Spiel einstellen oft Spiele ich selbst ohne AA/AF... Und Hardwarefresser wie Crysis oder so zock ich auch nicht/seltenst.

Fazit: Den einzigsten Sinn den ich in einem Temp Sensor sehe ist eine Hilfe beim Übertakten, wenn man die Grafikkarte ganz normal betreibt sollte es keine Probleme geben... und wenn doch tauscht man sie gegen Garantie um. Und ob ein Chip nu 40°/50° oder gar 60° warm wird ist für den normal user wie mich total uninteressant. Oft spinnen diese Temp sensoren sowieso... ich sag z.B. nur mein AMD X2 geht teilweise bis 75° mit dem Boxed Kühler... laut AMD verkraftet er aber nur 70° der müsste dann ja schon im Himmel sein, und selbst im Hochsommer lief der Rechner Stabil. Naja aber ab morgen sollten dann auch die Temps niedriger sein da kommen nämlich meine beiden Scythe Mines damit endlich Ruhe im Gehäuse ist.

Gast
2007-12-11, 03:37:19
Ich hatte vor einiger Zeit eine Asus 6800GT. Da liesen sich die Temps auch nur mit der Asussoftware auslesen, im Treiber oder mit anderen Tools ging nichts. Also warte mal auf ein Update der beigelegten Asussoftware, vielleicht gehts ja irgendwann damit.

Razor
2007-12-11, 13:54:41
Ich hatte vor einiger Zeit eine Asus 6800GT. Da liesen sich die Temps auch nur mit der Asussoftware auslesen, im Treiber oder mit anderen Tools ging nichts. Also warte mal auf ein Update der beigelegten Asussoftware, vielleicht gehts ja irgendwann damit.
Nicht nur vielleicht... das war schon immer so.

Wie gesagt ich glaube da nicht drann...
Dann eben nicht... Dein Problem.

Und: Temp Monitoring ist bei weitem nicht nur fürs OCen interessant!
(von einem derzeitigen nonOCer gesagt ;-)

Aber ich bin da nunmal eher eine Randgruppe die selbst heute noch meistens ohne sachen wie Transparenz AA, AF usw. spielt ausser es lässt sich in den Einstellungen vom Spiel einstellen oft Spiele ich selbst ohne AA/AF... Und Hardwarefresser wie Crysis oder so zock ich auch nicht/seltenst.
Dann reicht auch Intel-Onboard-Grafik...

Fazit: Den einzigsten Sinn den ich in einem Temp Sensor sehe ist eine Hilfe beim Übertakten...
Womit Du ziemlich alleine da stehen dürftest.
Problemanalysen setzen eigentlich IMMER zu allererst bei der Thermik an.
Ist diese OK, kann man sich anderen möglichen Ursachen widmen...

Razor

seahawk
2007-12-13, 14:44:40
Lohnt es sich noch vom 169.02 auf den 169.13 zu gehen ? besonders da ich das Hibernating/Sleep Problem mit dem 169.02 habe.

Saro
2007-12-13, 17:47:35
Dann reicht auch Intel-Onboard-Grafik...

Sorry aber erwartest du auf diesen Bullshit ne Antwort? Intel-Onboard-Grafik reicht nichtmal um überhaupt irgendein Spiel halbwegs flüssig spielen zu können. Aber in dem Sinne hast du recht, ja eine 8800GT ist rein Theoretisch für die Spiele die ich Spiele totaler Overkill die liefen auch alle mit meiner Radeon X1950 Pro flüssig. (Hellgate London, World of Warcraft)


Womit Du ziemlich alleine da stehen dürftest.
Problemanalysen setzen eigentlich IMMER zu allererst bei der Thermik an.
Ist diese OK, kann man sich anderen möglichen Ursachen widmen...

Razor

Bei dir vielleicht ich schaue erst nach der Software zur Hardware geh ich erst ganz zum schluss über. Wobei noch nie ein Rechner bei mir Probleme wegen Überhitzung der Grafikkarte hatte sowas kann ohne Defekt bei einer Graka garnicht vorkommen wenn man nix am Kühler ändert. Sollte eine Grafikkarte aus dem Karton raus überhitzen ist sie ganz einfach Defekt. Und ich kann auch absolut nicht verstehen das manche hier so auf den Temperaturen rumreiten 95% der Probleme liegen bei der Software nicht bei der Hardware.

Nur weil z.B. Hellgate London desöfteren mit einer schönen Meldung ala "Memory error" abstürzt (der stink normal ist und am Game liegt) bin ich auch nicht hingegangen und habe neuen Ram bestellt, Ram ausgetauscht usw. oder die Temperaturen überprüft.

Denn wenn ein Chip wie der G92 bis 95° oder so spezifiziert ist und mit 80° läuft ist das stink normal, wenn man unbedingt 40° haben möchte bringt das höchstens was fürs Ego.

Razor
2007-12-13, 21:46:12
Aber in dem Sinne hast du recht, ja eine 8800GT ist rein Theoretisch für die Spiele die ich Spiele totaler Overkill die liefen auch alle mit meiner Radeon X1950 Pro flüssig. (Hellgate London, World of Warcraft)
So war das gemeint... sorry, wenn der Sarkasmus hier zu subtil war.

ich schaue erst nach der Software zur Hardware geh ich erst ganz zum schluss über. Wobei noch nie ein Rechner bei mir Probleme wegen Überhitzung der Grafikkarte hatte sowas kann ohne Defekt bei einer Graka garnicht vorkommen wenn man nix am Kühler ändert. Sollte eine Grafikkarte aus dem Karton raus überhitzen ist sie ganz einfach Defekt. Und ich kann auch absolut nicht verstehen das manche hier so auf den Temperaturen rumreiten 95% der Probleme liegen bei der Software nicht bei der Hardware.
Software-Probleme sind sehr viel schwieriger zu finden, als dies bei Hardware-Problemen der Fall ist. Insofern gehe ich einfach strikt nach grundlegenden Prinzipien der Simplifizierung vor... leicht zu überprüfende Dinge erst einmal ausschließen und sich erst dann den komplizierten Dingen widmen... die meist richtig Zeit kosten.

Ein Blick auf kleine Tools und schon ist klar, ob das Problem in der Thermik (der GPU, der CPU oder sonstogen Sensoriken) liegt... mangelnder Stromversorgung vielleicht (auch dies kann hervorragend grob ausgelesen werden) und evtl. auch schon den einen oder anderen Lüfter. Spricht hier etwas dafür, schaut man halt in den Kasten.

Ist das OK (die Überprüfung dürfte inkl. konkretem Hardware-Check im Rechner etwa 10min dauern) schließt schon mal grundlegende Problematiken aus. Dann... und nur dann muss es die Software sein (Betriebssystem, API, Treiber oder Applikation ;-).

Nur weil z.B. Hellgate London desöfteren mit einer schönen Meldung ala "Memory error" abstürzt (der stink normal ist und am Game liegt) bin ich auch nicht hingegangen und habe neuen Ram bestellt, Ram ausgetauscht usw. oder die Temperaturen überprüft.
Das wäre auch sicherlich der falsche Ansatz gewesen... ich hätte aber zumindest geschaut, ob die GPU-Temp bei diesem Game über den üblichen Temperaturen liegt... kostet ja nichts... nicht einmal Zeit.

Denn wenn ein Chip wie der G92 bis 95° oder so spezifiziert ist und mit 80° läuft ist das stink normal, wenn man unbedingt 40° haben möchte bringt das höchstens was fürs Ego.
Du verstehst nicht viel von elektronischen Komponenten, oder?

Die GPU ist mir doch vollkommen wurscht (OK, für's OC'en wäre es vielleicht interessant). Aber im Rechner 'lebt' noch sehr viel mehr, als nur die GPU, die sogar ganz sicher mehr als 125° aushält.

Vorher gab es eine ambient Temp der GPU bei etwa 70°. Das ist die Temp, die das ganze PCB aufheizt und so nur schlecht an die Luft drumherum abgegeben werden kann. Heiße Luft alleine ist nicht das Problem, wenn der Luft-Tunnel im Gehäuse korrekt funktioniert. Aber die Temp des PCB wirkt sich nicht nur auf die Komponenten des PCBs aus...

...nun misst die ambient Temp zwischen 33° und maximal 43°.
Damit liegt die Grafikkarte im Mittel ALLER Komponenten im PC und stellt so keinen 'Störfaktor' mehr da.
(dass ich ein 'Silent-Freak' bin hatte isch schon geschrieben, oder?)

Wie gesagt... ist alles nicht so einfach und wenn man dafür kein Verständnis mitbringt, dann ist es vielleicht auch unverständlich.
Allerdings sollte man sich aus reinem Unverständnis heraus nicht zu weit aus dem Fenster lehnen, gell?
In diesem Sinne...

Lohnt es sich noch vom 169.02 auf den 169.13 zu gehen ? besonders da ich das Hibernating/Sleep Problem mit dem 169.02 habe.
Vista oder WinXP?
Grundsätzlich ist es meist sinnvoller bei den WHQL (nonBetas) zu bleiben...

Razor

seahawk
2007-12-14, 06:54:06
XP - aber immerhin sind die Hibernating/Sleep issues weg