Archiv verlassen und diese Seite im Standarddesign anzeigen : Bremsen neue ForceWares NV4x-Karten aus?
Man schaue sich bitte mal diesen Artikel (http://firingsquad.com/hardware/powercolor_radeon_x1950_pro_agp_review/default.asp) an und kombiniere. Die GeForce 7800 GS setzt auf einen G7x mit nur noch vier aktiven Quads sowie 375 MHz GPU-Takt. Die 6800 Ultra nutzt einen NV40 mit 400 MHz und ebensovielen Quads. Zum Release der erstgenannten Karte wurde orakelt, dass letztere meist mithalten können wird – und sie konnte es vor einem Jahr auch.
Angesichts dieser Zahlen frage ich mich, was da los ist, denn die 7800 GS deklassiert die 6800 Ultra, was eigentlich gar nicht sein kann. Bremst Nvidia durch neue Treiber? Ist da jemandem etwas aufgefallen? Lief beim Test was schief?
MfG,
Raff
AnarchX
2006-12-31, 18:26:31
Die GeForce 7800 GS setzt auf einen G7x mit nur noch zwei aktiven Quads sowie 375 MHz GPU-Takt. Die 6800 Ultra nutzt einen NV40 mit 400 MHz und ebensovielen Quads.
Die 68Ultra-PCIe-Variante die dort getestet wurde, müsste auf 425MHz takten.
Zudem hat eine 7800GS nur 8 ROPs, die 6800Ultra hingegen 16:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_point_view_geforce_7800_gs_agp/2/#abschnitt_technische_daten
Vielleicht würde daran bei den neueren 7800GS etwas geändert, wobei ich bezweifel, dass dies so die Leistung steigern kann.
Eine andere Frage wäre:
Kann CineFX4.0 so einen hohen Vorteil gegenüber CineFX3.0 in bestimmten Situationen haben?
Hmm, ob das Aufbohren der ALUs beim G7x soviel Mehrleistung bringt?
ROP-Limitierung kann man IMO ausschließen. Die Pixelfüllrate ist irrelevant bei neuer Software und beim AA können die Dinger auch nicht für so große Einbrüche verantwortlich sein.
MfG,
Raff
AnarchX
2006-12-31, 18:57:50
Vielleicht doch etwas mit den ROPs.
Beim G71 wurde da ja etwas verändert, vielleicht setzt diese 7800GS hier im Test auch auf den G71.
Dazu hatte ich nämlich dies schonmal bemerkt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=301387&highlight=ROP%2A
ColdColt
2006-12-31, 19:14:43
Puh, zum Glück hab ich einen G71 :-)
ich würde eher sagen das dort was mit der 6800ultra nicht stimmt....
denn die X850XT-PE ist zwar schon deutlich schneller wie eine 6800ultra aber fast doppelt so schnell kommt mir doch etwas viel vor...
könnte also in der tat sein das die 6800ultra durch neue treiber ausgebremst ist...
ob absichtlich oder unabsichtlich wär jetzt mal interessant
Mr. Lolman
2006-12-31, 21:18:46
ich würde eher sagen das dort was mit der 6800ultra nicht stimmt....
denn die X850XT-PE ist zwar schon deutlich schneller wie eine 6800ultra aber fast doppelt so schnell kommt mir doch etwas viel vor...
könnte also in der tat sein das die 6800ultra durch neue treiber ausgebremst ist...
ob absichtlich oder unabsichtlich wär jetzt mal interessant
3DC hat ja auch schon doppelte Performance erbencht (in GTL oder Quake4 zB). Ich glaube nicht, dass die NV Karten absichtlich gebremst werden (das hätte ja jemand merken müssen), sondern dass bei neueren Spielen ATi Karten einfach besser ihr Potential entfalten können. (ist ja mit R5c0 gegen G7x aktuell genau das Gleiche, und war auch damals bei R3x0 vs NV3x so)
AnarchX
2006-12-31, 21:28:18
3DC hat ja auch schon doppelte Performance erbencht (in GTL oder Quake4 zB).
Wo? In 6xMSAA vs 8xS Benches?
Ich glaube nicht, dass die NV Karten absichtlich gebremst werden (das hätte ja jemand merken müssen), sondern dass bei neueren Spielen ATi Karten einfach besser ihr Potential entfalten können. (ist ja mit R5c0 gegen G7x aktuell genau das Gleiche, und war auch damals bei R3x0 vs NV3x so)
Nur seltsam, dass eben eine 7800GS deren Architektur doch sehr verwandt ist mit der einer 6800Ultra auch fast doppelt so schnell ist bei annähernd gleicher Rohleistung...;)
Mr. Lolman
2006-12-31, 21:31:33
Wo? In 6xMSAA vs 8xS Benches?
Nö, 4xAA...
Nur seltsam, dass eben eine 7800GS deren Architektur doch sehr verwandt ist mit der einer 6800Ultra auch fast doppelt so schnell ist bei annähernd gleicher Rohleistung...;)
Sehr verwandt, aber auch von allen Kinderkrankheiten geheilt und bestmöglich optimiert...
AnarchX
2006-12-31, 21:38:25
Nö, 4xAA...
Ein Link wäre nett...
Dummerweise sieht man davon bei Firingsquad nix:
http://firingsquad.com/hardware/powercolor_radeon_x1950_pro_agp_review/page6.asp
Sogar die X1950Pro lässt sie hinter sich(, was wiederrum an dem ganzen Benchmarks dort zweifeln lässt).
Sehr verwandt, aber auch von allen Kinderkrankheiten geheilt und bestmöglich optimiert...
Na dann erläutere dies dochmal genauer, wenn du darüber Informationen besitzt, vielleicht bringt es uns hier weiter.
Sonst kann man deine Postings hier eher wieder nur als das übliche:
"Ich bashe nV mit Hilfe von ATi, da sie aus meiner Sicht am Untergang meiner Lieblings-GraKa-Firma schuldig sind".
... werten.
][immy
2006-12-31, 23:43:24
theoretisch war das bei nvidia doch schon immer so, das plötzlich wenn eine neue grafikkartengeneration erscheint die letzten ausgebremst werden dadurch das "optimierungen" wieder rausgenommen werden. war auch schon bei der geforce 4 so das die optimierungen plötzlich aus den treibern verschwanden und diese dann langsamer waren als vorher (aber dafür eine etwas bessere bildquälität aufwiesen... ich glaube das war beim sprung vom forceware 44 zu einem höheren >50)
[immy']theoretisch war das bei nvidia doch schon immer so, das plötzlich wenn eine neue grafikkartengeneration erscheint die letzten ausgebremst werden dadurch das "optimierungen" wieder rausgenommen werden. war auch schon bei der geforce 4 so das die optimierungen plötzlich aus den treibern verschwanden und diese dann langsamer waren als vorher (aber dafür eine etwas bessere bildquälität aufwiesen... ich glaube das war beim sprung vom forceware 44 zu einem höheren >50)
Deswegen sollte man die letzten treiber benutzen die es gab bevor eine neue generation der gpu`s raukam.
Mr. Lolman
2007-01-01, 00:38:00
Ein Link wäre nett...
Dummerweise sieht man davon bei Firingsquad nix:
http://firingsquad.com/hardware/powercolor_radeon_x1950_pro_agp_review/page6.asp
Sogar die X1950Pro lässt sie hinter sich(, was wiederrum an dem ganzen Benchmarks dort zweifeln lässt).
http://www.3dcenter.org/artikel/geforce_7900/index13.php
Bei QuakeIV hab ich falsch gekuckt, sry. Da sind die Scres genau umgekehrt wie hier ;)
http://www.hartware.de/review_668.html
Na dann erläutere dies dochmal genauer, wenn du darüber Informationen besitzt, vielleicht bringt es uns hier weiter.
Sonst kann man deine Postings hier eher wieder nur als das übliche:
"Ich bashe nV mit Hilfe von ATi, da sie aus meiner Sicht am Untergang meiner Lieblings-GraKa-Firma schuldig sind".
... werten.
Tw. suchst du anscheinend nur nen Grund, Leute die deine NV Affinität nicht
teilen, mit deinem Hobbypsychologengesabbel zu belästigen. Nehm ich dir aber nicht weiter übel ;)
Wo liegt denn dann der (Haupt-)Unterschied zw. G70 und NV40, wenn nicht in ner höheren Grundperformance?
Ist ja nicht so, dass die Vergangenheit nicht schon gezeigt hätte, dass die Paperspecs nicht immer Aufschluss über die Endperformance geben können.
Frohes neues Jahr =)
AnarchX
2007-01-01, 01:14:29
http://www.3dcenter.org/artikel/geforce_7900/index13.php
Bei QuakeIV hab ich falsch gekuckt, sry. Da sind die Scres genau umgekehrt wie hier ;)
http://www.hartware.de/review_668.html
Schon seltsam, vielleicht sollte man übersehen was Anandtech da getestet hat.
Aber die GTL-Benches sind wirklich übel - NV40-Worstcase-Szenario.
Ich denke hier wird man schon sehr nah an der 256MB-VRAM-Grenze sein, wo ja ATi bekanntlich einen Vorteil hat, da nV hier etwas verschwenderisch umgeht.
Hab noch etwas gefunden...
Vielleicht liegt es ja am HSR, hier wurden eben diese 100% gemessen in bestimmten Situationen zwischen NV40 und G70:
HSRBench
komplexe Shader
http://www.3dcenter.org/artikel/g70_theoretische_benchmarks/index5.php
(Wobei aber dann hier in diesen Situationen die X850XT-PE auch eher auf NV40-Niveau abschneidet)
Wird vielleicht nun wirklich daran liegen, dass man einfach die Treiber-Optimierungen für diese Games für NV4x gespart hat.
LovesuckZ
2007-01-01, 14:41:03
Hmm, ob das Aufbohren der ALUs beim G7x soviel Mehrleistung bringt?
In Battlefield 2 (http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp)
war eine 7800GTX genauso schnell wie ein SLI - Verbund aus 6800U Karten. Das lässt sich auf die Erweiterung der ersten Shaderunit zurückführen-
Auch wurde die Leistung bei HDR - Rendering verbessert.
Die 7800GS ist einfach stärker als die 6800U, daher sind die Ergebnisse schon richtig.
AnarchX
2007-01-01, 14:47:56
In Battlefield 2 (http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp)
war eine 7800GTX genauso schnell wie ein SLI - Verbund aus 6800U Karten. Das lässt sich auf die Erweiterung der ersten Shaderunit zurückführen-
Auch wurde die Leistung bei HDR - Rendering verbessert.
Die 7800GS ist einfach stärker als die 6800U, daher sind die Ergebnisse schon richtig.
Eine 7800GTX(165GFLOP/s) hat ja auch etwa die arithmetische Leistung eines 68Ultra SLI(163GFLOP/s).
Aber hier geht es darum, dass eine 7800GS fast doppelt so schnell ist obwohl sie eben eben nur 18% mehr arithmetische Leistung hat als ein 68Ultra.
(del)
2007-01-01, 15:51:17
Wird vielleicht nun wirklich daran liegen, dass man einfach die Treiber-Optimierungen für diese Games für NV4x gespart hat.Du meinst entfernt oder nicht hinzugefügt?
AnarchX
2007-01-01, 16:38:12
Du meinst entfernt oder nicht hinzugefügt?
Ich denke mal eher gar nicht erst hinzugefügt, entfernen wäre ja mit Arbeit verbunden und würd dem entsprechend etwas kosten, also eher Unsinn.
Aber wie schon gesagt, solang diese Ergebnisse aus dem Test nicht von einer anderen Seite verifiziert werden, sollte man doch etwas kritisch sein gegenüber der Gültigkeit(siehe QIV).
Ja stimmt schon. Nur irgendwie ist man bei Nv diesbezüglich gebranntes Kind :( Ich weiß nicht warum das immer wieder aufkommen muß und man sich bei ATI mit solchen Fragen nie auseinandersetzen muß.
Die letzten Sprünge gabs bei X1k, aber da erklärt sich einiges mit der speziellen Programmierung des Speicherkontrollers von alleine. Bis x1k hat man auf sowas überhaupt nicht aufpassen müßen. Mehr noch. mit dem Cat 5.6 hat man sogar die alten Gurken mit wenig RAM merkbar beschleunigt.
Bei NV muß man ständig auf der Hut sein. Das stinkt mir :mad:
[immy']war auch schon bei der geforce 4 so das die optimierungen plötzlich aus den treibern verschwanden und diese dann langsamer waren als vorher (aber dafür eine etwas bessere bildquälität aufwiesen... ich glaube
das war ganz einfach weil earlyZ bei der GF4 unter bestimmten umständen nicht richtig funktioniert hat und zu bildfehlern führte. zur damalagigen zeit hatte man mühe für die "etwas" komplizierte FX-reihe vernünftige treiber zu basteln die diese auch halbwegs ausreizen konnte. deshalb hat man sich wohl entschieden die earlyZ-probleme bei der 4er-serie vorerst mal auf eis zu legen und das ganze zu deaktivieren. die späteren treiber hatten übrigens auch für die 4er-reihe wieder implementiertes earlyZ und waren sogar noch schneller als die bisherigen 40er-treiber.
Das mit Z bei der GF4 war das wirklich offensichtlichste. Aber nicht der Anfang und Ende. War das noch bei der GF2 anders? Gab es einen besseren als 30.82 dafür?
Raff's letzter "Aufklärthread" zum Thema hat mich persönlich leider nicht wirklich viel weiter gebracht.
mapel110
2007-01-01, 21:15:50
Vielleicht sollte einfach mal jemand mit einer 6800er einige Treiber in dem ein oder anderen Spiel durchtesten. Es müssen ja nur ein paar Treiber sein. 65er, 70er, 80er und ne 90iger Forceware vielleicht.
ColdColt
2007-01-01, 22:37:17
Soll ich mit meinem G71 auch was testen?
Das mit Z bei der GF4 war das wirklich offensichtlichste.
komischerweise sind aber 6x.xx und 7x.xx-treiber mit der Gf4 schneller als die damals schnellsten 4x.xx-treiber.
Nicht immer. "Nur" bei neuen Spielen und AA/AF. Siehe hier:
http://3dcenter.de/artikel/geforce4_treibervergleich/
MfG,
Raff
deekey777
2007-01-02, 00:05:36
We should also note that for the GeForce cards, we changed the default image quality setting from “quality” to “high quality” to reduce shimmering.
Entweder bricht die 6800 Ultra auf HQ sehr stark ein, oder... Ich traue mich das gar nicht zu sagen.
Die 6800 Ultra liefert eine bessere Bildqualität, muss dafür aber mehr bluten. Oder bei der 7800GS bleibt die eine oder andere Optimierung aktiv. Oder der 6800 Ultra wird eine oder die andere Optimierung vorenthalten (man soll gefälligst eine 7800GS kaufen :wink: ).
Oder da ist nur ein Treiber-Wehwehchen.
Auch darf man nicht vergessen, dass beim Übergang vom NV40 zum G70 etwas mehr gemacht wurde als eine zweite MADD-ALU anstelle einer MUL.
Rebell
2007-01-02, 00:32:14
mich würde mal interessieren, was der beste Treiber für NV40 und Source Engine (CSS) ist.
Aber das die 6800 Ultra derart abstinkt gegen die 7800gs kann ich nicht glauben. Hab selbst eine GT@400/1100.
reunion
2007-01-02, 00:35:00
Entweder bricht die 6800 Ultra auf HQ sehr stark ein, oder...
Das ist der Punkt. Dass die NV4x-Serie bei HQ schonmal 50% an Leistung einbüßt, ist ja hinlängliche bekannt; mit der G7x-Serie hat sich das allerdings vollkommen aufgehört.
Warum das so ist, wurde meines Wissens eigentlich nie genauer unter die Lupe genommen, und ich will jetzt ehrlichgesagt darauf auch gar nicht eigehen (:D), allerdings erklärt das die Benchmarkresultate IMHO sehr gut.
Nicht immer. "Nur" bei neuen Spielen und AA/AFBleibt sie dann bei älteren Spielen gleichschnell wie "damals" oder fangen sie zu taumeln?
DAS ist die eigentliche Frage, Reunion.
Hej Raff, was vertritt da die ältere Generation von Spielen? Comanche? :|
Bleibt sie dann bei älteren Spielen gleichschnell wie "damals" oder fangen sie zu taumeln?
DAS ist die eigentliche Frage, Reunion.
Der Unterschied ist so gering, dass sich ein alter Treiber einfach nicht lohnt. Diese Erfahrungen habe ich mit sowohl ATI als auch NV gemacht. Es gab selten Ausnahmen.
Bei Nvidia gibts durchaus einige seltsame Punkte, was Treiberpolitik angeht.
GeForce 4 Ti: Mit (inoffiziellen) Registrysettings konnte man den maximalen AF-Grad pro Texture-Stage einstellen. Diese bei einigen Spielen sehr sinnvolle Option fiel mit einer späteren Treiber-Version weg.
Dann das seltsame Early-Z-Verhalten: Man konnte eine zeitlang (ebenfalls mit einer inoffiziellen Registry-Einstellungen) Early-Z aktivieren oder deaktivieren. Ab einer bestimmten Version wird diese Einstellung jedoch ignoriert, und Early-Z ist in fast allen Apps deaktiviert (was komisch ist.) Für den 3DMark blieb es jedoch aktiviert.
Beides geschah zu der Zeit, als die GeForce FX erschien.
GeForce FX: In älteren Versionen wurde bei "Performance"-Einstellungen die anisotrope Winkelabhängigkeit geändert. Ab einer bestimmten Treiberversion fiel das weg, und es wurde immer die beste Winkelabhängigkeit genommen, die die Hardware beherrscht.
Dies geschah zur Zeit des GeForce-6-Releases. Auch fiel dann der 4xS-Modus aus dem offiziellen Panel heraus.
Das ist der Punkt. Dass die NV4x-Serie bei HQ schonmal 50% an Leistung einbüßt, ist ja hinlängliche bekannt;
Mir ist das nicht bekannt, also belege deine Aussage bitte!
Mir ist das nicht bekannt, also belege deine Aussage bitte!
Wird wahrscheinlich irgendein ein Extremfall sein. Der Unterschied zwischen HQ und Q ohne Opt. ist meistens längst nicht so groß. Allerdings ist er sehr oft "fühlbar" gewesen. Keine Ahnung wie es heute aussieht, habe meine 6800 GT schon seit über einem Jahr nicht mehr.
Sonyfreak
2007-01-03, 15:36:52
Eine 7800GTX(165GFLOP/s) hat ja auch etwa die arithmetische Leistung eines 68Ultra SLI(163GFLOP/s).Wie rechnet man sich diese GFlop/s Werte aus?
mfg.
Sonyfreak
AnarchX
2007-01-03, 15:42:05
Wie rechnet man sich diese GFlop/s Werte aus?
Erstmal brauch man die Flop-Werte der einzelnen GPUs:
G70 -> 16Flop/s pro PP/ALU
NV4x -> 12FLop/s pro PP/ALU
R5xx -> 12FLop/s pro ALU
Formel:
Anzahl PPs/ALUs * Flop/s * Takrate in GHz = arithmetische Leistung in GFLop/s
(Wobei, dass sich hier auf MADD/ADD bezieht.)
Sonyfreak
2007-01-03, 16:12:00
Erstmal brauch man die Flop-Werte der einzelnen GPUs:
G70 -> 16Flop/s pro PP/ALU
NV4x -> 12FLop/s pro PP/ALU
R5xx -> 12FLop/s pro ALU
Formel:
Anzahl PPs/ALUs * Flop/s * Takrate in GHz = arithmetische Leistung in GFLop/s
(Wobei, dass sich hier auf MADD/ADD bezieht.)Danke erstmal für die Antwort. Ich habe aber noch mal eine Frage, weil ich das hier kapieren will. :smile:
Beim G70GTX komme ich dann auf (24x16x430= )165.120Flops/s und beim NV40U SLI auf (32x12x425= )163.200Flops/s. Nur hat ja der G70 2 Shadereinheiten pro Pipeline. Kann er die nicht gleichzeitig verwenden, oder macht das keinen Unterschied? Oder berechnen die so und so was komplett anderes, wodurch das für die Rechnung komplett irrelevant ist?
mfg.
Sonyfreak
AnarchX
2007-01-03, 16:13:15
Die 16 Flop/s beziehen sich eben schon auf die ganze Pipeline mit den "zwei" ALUs.
Sonyfreak
2007-01-03, 16:16:53
Das heißt wenn der G70 nur eine Shadereinheit pro Pipeline hätte, wäre er langsamer als der NV40 oder wie?
mfg.
Sonyfreak
AnarchX
2007-01-03, 16:21:30
Das heißt wenn der G70 nur eine Shadereinheit pro Pipeline hätte, wäre er langsamer als der NV40 oder wie?
Eh ich hier noch etwas falsches erzähle, lies doch in den Artikeln von aths:
http://www.3dcenter.org/artikel/2005/06-26_a.php
http://www.3dcenter.org/artikel/g70_theoretische_benchmarks/
Kann mir einer sagen woher ich alle seit erscheinen der 7800gt veröffentlichten nVidia Treiber herunterladen kann? Das Downloadarchiv von nVidia ist sehr unübersichtlich. Zudem weiß ich nicht mit welchem Treiber die 7800gt veröffentlicht wurde. Mich interessieren aber nur offizielle Treiber (mit ohne oder WHQL; 32-bit). Keine modifizierten oder irgendwelche Treiber von den diversen Herstellern. Evtl. gibt es ja eine Liste.
Kann sein, dass ich mich mal hinsetze und die 7800gt benche um zu sehen ob sich da etwas verändert hat. ;D
Mein Gefühl sagt mir nämlich, dass sich die Performance seit dem 93.71 drauf habe ein wenig verschlechtert hat. Ich hab vom 84.xx (k.a. welcher genau) aktualisiert.
Tigerchen
2007-01-04, 15:14:29
Man schaue sich bitte mal diesen Artikel (http://firingsquad.com/hardware/powercolor_radeon_x1950_pro_agp_review/default.asp) an und kombiniere. Die GeForce 7800 GS setzt auf einen G7x mit nur noch vier aktiven Quads sowie 375 MHz GPU-Takt. Die 6800 Ultra nutzt einen NV40 mit 400 MHz und ebensovielen Quads. Zum Release der erstgenannten Karte wurde orakelt, dass letztere meist mithalten können wird – und sie konnte es vor einem Jahr auch.
Angesichts dieser Zahlen frage ich mich, was da los ist, denn die 7800 GS deklassiert die 6800 Ultra, was eigentlich gar nicht sein kann. Bremst Nvidia durch neue Treiber? Ist da jemandem etwas aufgefallen? Lief beim Test was schief?
MfG,
Raff
Das ist kein neuer Effekt. Bei nV ist es schon seit Jahren so daß Optimierungen für ältere Grafikkarten rausgenommen werden. Daher kommt diese Diskussion immer wieder auf.
SGT.Hawk
2007-01-04, 16:10:58
Tja,welcher Treiber ist nun der schnellste für ein NV40?
msilver
2007-01-04, 17:00:01
und welcher für meine 5900xt?
renaldo
2007-01-25, 19:33:19
Tja,welcher Treiber ist nun der schnellste für ein NV40?
Das wüsste ich auch sehr gern ,ich nutze hier eine passive 6800 von Gigabyte.
mfg renaldo
Probiert doch mal den 97.92, bei mir läuft der super (6600GT).
renaldo
2007-01-25, 20:11:10
NVIDIA: ForceWare 97.92 zum Download freigegeben
Donnerstag, 11. Jan. 2007 18:02 - [jp]
NVIDIA hat einen neuen Grafikkarten-Treiber veröffentlicht.
DerForceWare 97.92 ist ausschließlich für die GeForce 8800-Karten gedacht und steht auch nur für Windows XP und MCE zum Download bereit. Die Release Notes nennen unter anderem folgende Änderungen:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.