Archiv verlassen und diese Seite im Standarddesign anzeigen : GF100 - Crysis-Performance
Gaestle
2010-03-28, 12:55:35
Ich weiß, dass viele Crysis nix abgewinnen können, aber trotzdem interessiert mich, warum bei diesem Titel die GTX480 mit der 5870 on par ist, während sie sich bei anderen aufwändigen (DX11) Titeln doch recht gut von der 5870 absetzen kann. Ist's (noch) der Treiber? Ist's das Hardware-Design? Oder sind es einfach die falschen Erwartungen von mir und anderen?
Crysis ist nicht das einzige Spiel mit diesem Phänomen, Anno1404 u.a. sind mir auch schon aufgefallen.
Crysis ist aber das Game, wo die fps in 1920 mit max. Details und AA in bestimmten Situationen immer noch kritisch sind, während die anderen Games in 1920 mit AA problemlos spielbar sind.
Deswegen interessiert mich in diesem Thread NUR CRYSIS bzw. Crysis WARHEAD.
AnarchX
2010-03-28, 13:12:48
In der Tat eine interessante Fragestellung. Neben dem Gleichstand ist auch die nur 50-60% höhere Performance gegenüber einer GTX 285 bei 4xMSAA sehr seltsam.
Folgende Eckdaten würde ich ausschließen:
Z-Leistung: Faktor 2 vs 285 und Faktor 1,5 vs 5870 (http://www.hardware.fr/articles/787-5/dossier-nvidia-geforce-gtx-480.html)
Geometrie-Leistung: da erreicht eine 480 3-4 soviel wie 285/5870 (http://www.hardware.fr/articles/787-6/dossier-nvidia-geforce-gtx-480.html)
Texturfüllrate: Bei CB ist die AF-Skalierung (http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests) zwischen 480 und 285 nur geringfügig unterschiedlich in Crysis und wenn es darauf ankommen würde, könnte sich die 285 wohl auch nicht so weit von einer GTS 250 absetzen
Bandbreite: bei PCGH kann eine OC-480 ihre 24% höhere Bandbreite (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=16) auch nicht umsetzen
Bliebe die Shaderleistung, aber auch nur wenn G200 hier extensiv das zusätzliche MUL nutzen kann, aber dazu würde die Leistung einer 5870 mit ihren > 2 TFLOPs MADD wohl nicht ganz passen.
Auf der anderen Seite wäre es vielleicht auch denkbar, dass die Crysis-Optimierungen von G8x-G2xx nicht für GF100 brauchbar sind und diese erst mit dem 256er-Performance-Treiber kommen.
deekey777
2010-03-28, 13:25:07
If, as Jawed points out, its CPU limited then the benchmarks are going to have limited use as each of the architectures you are comparing are going to be limited by the CPU. Games are fairly CPU bound (even ones that people often associate as GPU killers, like Crysis, are very CPU sensitive).
http://forum.beyond3d.com/showthread.php?p=1374286#post1374286
Wie dem auch sein mag. Ich glaube, es liegt an Crysis. Nicht dass jemand jetzt denkt, Crysis sei schlecht programmiert. Das Spiel verwendet eine Unmenge an Shadern (so über 80.000), und vielleicht haben die heutigen Treiber (oder sonst was) immernoch Probleme, diese Menge zu verwalten.
Man bräuchte einen viel tieferen Einblick über PerfHud oder GPU PerfStudio, um genau zu sehen, wo die einzelnen Flaschenhälse sind.
Gaestle
2010-03-28, 13:42:35
Wenn es CPU limitiert wäre, müssten sich GPU-Unterschiede doch bei sehr hoher Auflösung und AA zeigen. Aber die Verhältnisse zwischen 5870 und 480 ändern sich beim Wechsel von der 1680er zur 1920er Auflösung (siehe PCGHW) nicht, obwohl das fps-Niveau insgesamt sinkt (also eine GPU-Limitierung vorzuliegen scheint).
Wenn es die Shaderleistung wäre, müsste doch die 5870 deutlich besser dastehen, oder?
Spasstiger
2010-03-28, 13:43:05
Texturfüllrate: Bei CB ist die AF-Skalierung (http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests) zwischen 480 und 285 nur geringfügig unterschiedlich in Crysis und wenn es darauf ankommen würde, könnte sich die 285 wohl auch nicht so weit von einer GTS 250 absetzen.
Ich ziehe etwas andere Schlüsse aus diesen Benchmarks: Obwohl sich die GTX 480 näher am CPU-Limit bewegt - und in 1680x1050 ohne AA dürfte man schon recht nahe am CPU-Limit sein - , bricht sie mit AF stärker ein als die GTX 285. D.h. die verminderte Texelfüllrate macht sich klar bemerkbar.
Absolut gesehen geht sogar mehr an Rechenzeit bei der GTX 480 fürs AF drauf als bei der GTX 285. Ich ziehe mal die fps-Werte von Crysis Warhead (http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/16/#abschnitt_crysis_warhead) heran, die AF-Skalierung dürfte ähnlich wie in Crysis ausfallen:
noAA, noAF
GTX 285: 27,5 fps -> 36,4 ms pro Frame
GTX 480: 43,8 fps -> 22,8 ms pro Frame
noAA, 16:1 HQAF (umgerechnet anhand der Skalierungsresultate)
GTX 285: 25,7 fps -> 38,9 ms pro Frame
GTX 480: 39,2 fps -> 25,5 ms pro Frame
Differenz = zusätzliche Rechenzeit für AF:
GTX 285: 2,5 ms
GTX 480: 2,7 ms
Die verminderte Texelfüllrate wird also klar deutlich obwohl man sich näher am CPU-Limit bewegt.
Gaestle
2010-03-28, 14:07:24
Den von Dir errechneten Unterschied in Höhe von 8% würde ich eher als Messungenauigkeit interpretieren. Das könnten sogar ausschließlich Rundungsfehler sein.
Rundungsfehlertheorie:
noAA, noAF
real:
GTX 285: 27,54 fps -> 36,31 ms pro Frame
GTX 480: 43,75 fps -> 22,86 ms pro Frame
gerundet:
GTX 285: 27,5 fps -> 36,4 ms pro Frame
GTX 480: 43,8 fps -> 22,8 ms pro Frame
noAA, 16:1 HQAF (umgerechnet anhand der Skalierungsresultate)
real:
GTX 285: 25,65 fps -> 38,99 ms pro Frame
GTX 480: 39,24 fps -> 25,49 ms pro Frame
gerundet:
GTX 285: 25,7 fps -> 38,9 ms pro Frame
GTX 480: 39,2 fps -> 25,5 ms pro Frame
Differenz = zusätzliche Rechenzeit für AF:
real:
GTX 285: 2,68 ms
GTX 480: 2,63 ms
gerundet:
GTX 285: 2,5 ms
GTX 480: 2,7 ms
Spasstiger
2010-03-28, 14:11:53
Fakt ist doch, dass die GTX 480 ähnlich viel absolute Rechenzeit fürs AF braucht wie die GTX 285. 0,1 ms hin oder her spielen dabei keine Rolle.
Die Radeon HD 5870 braucht nur zusätzliche 1,8 ms fürs AF und wenn die GTX 480 genauso gut mit AF skalieren würde wie die GTX 285, dann bräuchte sie sogar nur 1,7 ms zusätzlich fürs AF und nicht 2,6-2,7 ms.
Ich weiß, dass viele Crysis nix abgewinnen können, aber trotzdem interessiert mich, warum bei diesem Titel die GTX480 mit der 5870 on par ist, während sie sich bei anderen aufwändigen (DX11) Titeln doch recht gut von der 5870 absetzen kann.
Ich vermute mal es fehlt einfach an Texturleistung. Crysis ist einer der Titel, in denen schon G80-G200 für seine Verhältnisse relativ Leistung mit HQ-AF verlor, die verringerte Texelleistung hilft hier sicher nicht. Die sonstigen Verbesserungen können zwar noch das schlimmste verhindern, aber um sich von der 5870 abzusetzen reicht es einfach nicht.
Ich weiß, dass viele Crysis nix abgewinnen können, aber trotzdem interessiert mich, warum bei diesem Titel die GTX480 mit der 5870 on par ist, während sie sich bei anderen aufwändigen (DX11) Titeln doch recht gut von der 5870 absetzen kann. Ist's (noch) der Treiber? Ist's das Hardware-Design? Oder sind es einfach die falschen Erwartungen von mir und anderen?
Weil sich die GTX 480 nur da gut absetzt, wo Tesselation eingesetz wird. Ansonsten sind es nur 0 - 15 % Performancevorteil gegenüber der HD 5870 (mit einigen wenigen kleinen Ausreißern).
Im 3DMark Vantage sind beide Karten gleichauf.
In Riddick ist sie geringfügig langsamer als eine HD 5870: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/11/#abschnitt_riddick_assault_on_dark_athena (bei hohen Auflösungen ist die HD 5870 bis zu 17 % schneller).
In Risen sind GTX 480 und HD 5870 gleichauf: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/12/#abschnitt_risen (bei hohen Auflösungen ist die HD 5870 bis zu 9 % schneller).
Bei Anno 1404 sind beide Karten @ 1920 x 1200 + 8x AA & 16x AF gleichauf, mit 4x AA & 16x AF ist die GTX 480 geringfügig schneller (9 %).
Bei World in Conflict: SA ist die GTX 480 @ 2560 x 1600 + 4x AA & 16x AF ganze 10 % schneller als eine HD 5870.
Ergo: Crysis ist nicht das einzige Spiel, wo sich eine GTX 480 nicht absetzen kann – falsche Erwartungen von dir.
Jetzt habe ich bei Anno und WiC die Links vergessen, aber das kann ja jeder selbst bei CB überprüfen.
Gaestle
2010-03-28, 14:22:57
@ Gast 1:
Texturleistung:
480GTX: 42GTex
285GTX: 52GTex (gerundet)
5870: 68GTex
Quelle: PCGHW (480GTX-Test)
Von der Texturleistung her müsste die 480GTX abgeschlagen hinter 285GTX und weit hinter 5870 liegen.
@Gast 2:
Stimmt, Crysis ist nicht das einzige Spiel, Anno1404 ist mir auch schon aufgefallen. Crysis ist aber das Game, wo die fps in 1920 mit max. Details immer noch kritisch sind, während die anderen Games problemlos spielbar sind.
Tesselation wird doch von Dirt 2 gar nicht so stark genutzt (angeblich nur die Zuschauer und das Wasser) und von Bad Company 2 nicht bekannt, dass es Tess. nutzt. Trotzdem setzt sich in beiden Games die 480GTX ein Stück (10% Dirt 2, 30% BC2) von der 5870 ab.
AnarchX
2010-03-28, 14:24:30
Hier gibt es auch noch ein paar AF-Skalierungwerte von Crysis: http://pclab.pl/art41241-6.html
Ich geh davon aus, dass bei Crysis trotz aller Architektureffizienz im Endeffekt doch die Arithmetik-Power fehlt.
Spasstiger
2010-03-28, 14:30:01
Von der Texturleistung her müsste die 480GTX abgeschlagen hinter 285GTX und weit hinter 5870 liegen.
Und in der Praxis setzt die GTX 480 ungefähr die Texturleistung der GTX 285 um. Das spricht zwar für die Effizienz der TMUs, aber es reicht halt in Verbund mit der Rechenleistung nicht, um sich in Crysis von der HD 5870 abzusetzen.
Ich vermute mal es fehlt einfach an Texturleistung. Crysis ist einer der Titel, in denen schon G80-G200 für seine Verhältnisse relativ Leistung mit HQ-AF verlor, die verringerte Texelleistung hilft hier sicher nicht. Die sonstigen Verbesserungen können zwar noch das schlimmste verhindern, aber um sich von der 5870 abzusetzen reicht es einfach nicht.
Erschwerend kommt möglicherweise noch das hier hinzu:
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=3
Mal weit runterscrollen zum Abschnitt "AF-Defizite im Blick"
Ich geh davon aus, dass bei Crysis trotz aller Architektureffizienz im Endeffekt doch die Arithmetik-Power fehlt.
Und ich verstehe nicht, was ihr mit Crysis habt. Die GTX 480 setzt sich in dutzenden anderen Spielen genau so wenig von der HD 5870 ab. Was ist an der Crysisleistung so verwunderlich? Bei PCGH habe ich jetzt noch neben Riddick, Risen, Anno und WIC gesehen:
http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-MassEffect2-2560.png
http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-CoDMW2-2560.png
http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-CMRD2-DX11-2560.png
derguru
2010-03-28, 14:35:59
Und ich verstehe nicht, was ihr mit Crysis habt. Die GTX 480 setzt sich in dutzenden anderen Spielen genau so wenig von der HD 5870 ab. Was ist an der Crysisleistung so verwunderlich? Bei PCGH habe ich jetzt noch neben Riddick, Risen, Anno und WIC gesehen:
http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-MassEffect2-2560.png
http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-CoDMW2-2560.png
http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-CMRD2-DX11-2560.png
unter der auflösung verliert die 480 sehr viel an leistung vorallem bei dirt2 und reicht nur noch für ein gleichstand,weiß der geier wieso.am ram liegt es wohl nicht.
Und ich verstehe nicht, was ihr mit Crysis habt. Die GTX 480 setzt sich in dutzenden anderen Spielen genau so wenig von der HD 5870 ab. Was ist an der Crysisleistung so verwunderlich?
Vermutlich, weil sie sich trotz GPU-Limitierung auch kaum von der GTX 285 absetzt.
unter der auflösung verliert die 480 sehr viel an leistung und reicht nur noch für ein gleichstand,weiß der geier wieso.am ram liegt es wohl nicht.
Bei Mass Effect 2 ist der Abstand unter 1680 x 1050 auch nicht viel größer (6 %), bei Modern Warfare genau so wenig (6 %) und in Riddick und Risen ebenso.
Gaestle
2010-03-28, 14:46:15
Spasstiger, ich verstehe Deine Argumentation nicht. Die 480 hat weniger Texturleistung, als eine 285 und VIEL weniger als eine 5870. Erst sagst Du, dass die 480 länger für's AF braucht, als die 285, was ich nicht sehen kann (es sind in beiden Fällen ca. 2,6 ms).
Warum Du dann (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7934284&postcount=7) annimmst, dass die die 480 AF in 1,8ms schaffen müsste (wie die 5870 mit deutlich mehr Texturleistung und AF-Optimierung) verstehe ich nicht. Auch den Querbezug zur 285 verstehe ich nicht. Kannst Du das nochmal erläutern?
Warum mich Crysis interessiert?
Crysis ist das Game, wo die fps in 1920 mit max. Details immer noch kritisch sind, während die anderen Games problemlos spielbar sind.
Spasstiger
2010-03-28, 14:52:09
Wenn die GTX 480 genauso geringe Einbrüche bei AF hätte wie die GTX 285 - also die Balance ähnlich wäre - dann würde die GTX 480 mit 16:1 HQAF pro Frame nur 1,7 ms länger brauchen als ohne AF und nicht 2,6-2,7 ms. Sie braucht aber 2,6-2,7 ms, weil sie eben zu wenig Texelfüllrate hat. Ich weiß nicht, was ich dir noch genauer erklären muss.
Gerundet hab ich übrigens absichtlich, weil auch die fps-Zahlen auf eine Nachkommastelle gerundet sind. Ich kann nicht plötzlich eine Präzision auf zwei Stellen hinter dem Komma schaffen, wo die Eingangswerte überhaupt nicht so genau sind.
derguru
2010-03-28, 14:53:00
Bei Mass Effect 2 ist der Abstand unter 1680 x 1050 auch nicht viel größer (6 %), bei Modern Warfare genau so wenig (6 %) und in Riddick und Risen ebenso.
ja aber es geht in die richtung und wieso?480 hat mehr ram,mehr speicherbandbreite und sollte doch eher andersrum aussehen.bei anno und dirt 2 ist es auffälligsten.
Gaestle
2010-03-28, 14:57:34
@Spasstiger
Es ging mir auch ausschließlich um den Rundungsfehler der EINGANGSWERTE.
Wenn die Papier-Texturleistung der 480 auf geringerem Niveau als die der 285 ist, warum sollte dann die benötigte Zeit für AF bei der 480 geringer sein?
ja aber es geht in die richtung und wieso?480 hat mehr ram,mehr speicherbandbreite und sollte doch eher andersrum aussehen.bei anno und dirt 2 ist es auffälligsten.
Weil die Texelfüllrate 19 % niedriger als die der GTX 285 ist und die Speicherbandbreite nur 12 % und die Rechenleistung nur 27 % höher? :confused: Dennoch ist die GTX 480 > 50 % schneller als eine GTX 285. Was erwartet ihr eigentlich? :D
Spasstiger
2010-03-28, 15:05:20
Wenn die Texelfüllrate ausreichend groß wäre, würde die GTX 480 weniger lange fürs AF brauchen als die GTX 285, weil das gesamte Rendering eines Frames deutlich schneller geht. Die geringe Texelfüllrate schlägt aber durch.
AnarchX meinte ja, aus den Skalierungstests rauszulesen, dass die GTX 480 nicht von der geringen Texelfüllrate ausgebremst wird. Ich sehe das anders. Deshalb meine Postings. Jetzt aber genug geschrieben, ich wiederhole mich die ganze Zeit.
P.S.: Ich hasse es, wenn Aussagen, die als Antwort auf ein anderes Posting gedacht sind und unter einem Zitat stehen, aus dem Zusammenhang gerissen und neu interpretiert hinterfragt werden. Ein bischen im Zusammenhang lesen kann doch nicht so schwer sein, oder?
Von der Texturleistung her müsste die 480GTX abgeschlagen hinter 285GTX und weit hinter 5870 liegen.
Crysis braucht eben nicht nur Texturleistung sondern profitiert andererseits auch von der neuen Architektur ua. soll gather4 bei Crysis auch einiges bringen.
Im Mix reicht es eben gerade knapp für 5870-Performance, um sich absetzen zu können bräuchte es mehr Texturleistung.
Jonny1983
2010-03-28, 17:32:21
Hat sich schon jemand der Performance unter Street Fighter IV angeschaut? Sieht man erst dort das wahre Potential der Geforce?
Mehr als doppelt so schnell wie der Vorgänger.
Genauso schaut es unter H.A.W.X. aus auf der nächsten Seite.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
dargo
2010-03-28, 19:04:39
Weil sich die GTX 480 nur da gut absetzt, wo Tesselation eingesetz wird. Ansonsten sind es nur 0 - 15 % Performancevorteil gegenüber der HD 5870 (mit einigen wenigen kleinen Ausreißern).
Das stimmt so nicht. Einige Beispiele:
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=15
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=11
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=7
Ich würde erstmal den Performance-Treiber abwarten. Viele Benchmarks machen auf mich nämlich im aktuellen Zustand nicht gerade einen logischen Eindruck.
Hat sich schon jemand der Performance unter Street Fighter IV angeschaut? Sieht man erst dort das wahre Potential der Geforce?
Mehr als doppelt so schnell wie der Vorgänger.
Genauso schaut es unter H.A.W.X. aus auf der nächsten Seite.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
Ich sagst doch - irgendwas muss an den Treibern noch faul sein. Ich meine - wann gab es in der Vergangenheit dermaßen starke Ausreißer in der Performance bei einzelnen Spielen zwischen zwei IHVs? Oder von mir aus zwischen dem selben IHV (zb. GTX 480 vs. GTX285)?
Ich meine - wann gab es in der Vergangenheit dermaßen starke Ausreißer in der Performance bei einzelnen Spielen zwischen zwei IHVs? Oder von mir aus zwischen dem selben IHV (zb. GTX 480 vs. GTX285)?
Das kannst du nicht vergleichen, mit dem GF100 haben sich die Kräfteverhältnisse in der GPU total verschoben, deshalb ist es nicht wirklich ungewöhnlich, dass es mal starke Verschiebungen in die eine oder andere Richtung geben kann.
Gerade bei Crysis denke ich auch nicht, dass man noch viel Potential hat, das dürfte wohl auch schon mit den ersten Treibern ausoptimiert sein.
AnarchX
2010-03-28, 20:13:00
Dieser Thread soll sich allein mit der Crysis-Performance befassen, da sind weder PhysX, Tessellation oder andere Games relevant.
dargo
2010-03-28, 20:24:49
Das kannst du nicht vergleichen, mit dem GF100 haben sich die Kräfteverhältnisse in der GPU total verschoben, deshalb ist es nicht wirklich ungewöhnlich, dass es mal starke Verschiebungen in die eine oder andere Richtung geben kann.
Sollte das wirklich der Fall sein hat NV imho eine sehr unausgewogene GPU in die Welt gesetzt. Kleine Abweichungen je nach Game kann ich noch nachvollziehen. Aber wenn ich sehe, dass die GTX480 im Spiel X sich gegenüber der HD5870 um 10% absetzen kann und im Spiel Y um 90% (fiktive Werte) dann kann da was nicht stimmen.
Gerade bei Crysis denke ich auch nicht, dass man noch viel Potential hat, das dürfte wohl auch schon mit den ersten Treibern ausoptimiert sein.
Gerade bei einer neuen Generation (der GF100 ist nicht einfach ein doppelter G200) würde ich bei den Treibern noch Einiges erwarten.
unter der auflösung verliert die 480 sehr viel an leistung vorallem bei dirt2 und reicht nur noch für ein gleichstand,weiß der geier wieso.am ram liegt es wohl nicht.
Andersrum: Sie ist in geringen Auflösungen besonders effizient.
Andersrum: Sie ist in geringen Auflösungen besonders effizient.
Weißt du auch warum?
deekey777
2010-03-28, 22:50:08
Weißt du auch warum?
Keine Ahnung. Vielleicht, weil die Pixellast sinkt, aber die Geometrielast gleich bleibt. Und da ist der Fermi besser.
Dimon
2010-03-28, 23:49:56
Die ganze Diskussion ist doch eh für die Tonne, da das ganze eh an der Treibereffizienz krankt, die Treiber sind einfach noch nicht ausgereift um der GTX480 richtig druck zu machen ;)
K-putt
2010-03-29, 00:25:04
Die ganze Diskussion ist doch eh für die Tonne, da das ganze eh an der Treibereffizienz krankt, die Treiber sind einfach noch nicht ausgereift um der GTX480 richtig druck zu machen ;)
genau so sehe ich das auch :)
AMD hat eben den vorteil das sie schon einen sehr guten treiber draussen haben
tombman
2010-03-29, 00:36:25
Min Fps!!!
http://pclab.pl/zdjecia/artykuly/miekrzy/fermipremierowy/wykresy/warhead_1920_aa4.png
Weißt du auch warum?
Weil die Dreiecke kleiner werden.
boxleitnerb
2010-03-29, 00:49:09
Min Fps!!!
Du als "Profi" müsstest doch wissen, dass die Angabe der Min Fps so wie momentan bei den meisten Seiten gebencht wird, für die Tonne ist. Es könnte ausschließlich eine Stelle im Bench sein, an der die fps so einbrechen (bei der man konsistent immer wieder dasselbe misst, also keine Nachladeruckler etc), man weiß es nicht. Viel wichtiger ist doch wie oft (und wie nah) die fps an dieses Minimum heranreichen. Trotzdem kommt dieses "Argument" immer wieder. Da kann man nur den Kopf schütteln.
Min Fps!!!
http://pclab.pl/zdjecia/artykuly/miekrzy/fermipremierowy/wykresy/warhead_1920_aa4.png
Ohne ein Bild vom Frameverlauf: sinnlos. Da muss beim Benchen nur für t gegen 0 ein Nachladeruckler oder sonstwas Komisches stattgefunden haben, um das Ergebnis zu verfälschen. Eine GTX 285 hat sicherlich nicht identische min. FPS-Werte wie eine HD 5870 :ulol:.
Warum aber auf unbekannte polnische Reviews verweisen, wenn heimische Tester Framverläufe anfertigen: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/20/#abschnitt_frameverlaeufe
Warum aber auf unbekannte polnische Reviews verweisen, wenn heimische Tester Framverläufe anfertigen: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/20/#abschnitt_frameverlaeufe
Und falls es jemand nicht merkt: Man kann mit der Maus auf den Graphen draufklicken und bekommt den entsprechenden Wert an jeder Stelle x angezeigt.
Warum aber auf unbekannte polnische Reviews verweisen, wenn heimische Tester Framverläufe anfertigen: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/20/#abschnitt_frameverlaeufe
Ist die zeitliche Auflösung nicht etwas arg grob?
Fraps misst nunmal nur in Sekundenabständen.
-carsten
Sollte das wirklich der Fall sein hat NV imho eine sehr unausgewogene GPU in die Welt gesetzt.
Haben sie auch, zumindest für heutige Spiele.
Gerade bei einer neuen Generation (der GF100 ist nicht einfach ein doppelter G200) würde ich bei den Treibern noch Einiges erwarten.
Leider, ein doppelter G200 oder noch besser ein 4-facher G92 wäre wohl um einiges schneller.
Natürlich haben die Treiber sicher noch einige Reserven, aber wohl kaum bei Crysis, das Nr.1 Benchmarkspiel schlechthin (abgesehen vielleicht von Metro) werden sie auch bei den ersten Treibern schon optimiert haben, was nur möglich ist.
Überhaupt bringt NV für die große Transistorenmenge relativ wenig unter, 512ALUs und 64TMUs sind jetzt nicht gerade viel für derart viele Transistoren.
An der Aufsplittung der Rasterizer-Einheiten kann es jetzt auch nicht wirklich liegen, laut NV kostet das nur ca. 10% der Transistoren.
Wahrscheinlich braucht man für den hohen DP-Durchsatz einfach derart viele Transistoren, nur für Spiele bringt das eben nichts.
Wahrscheinlich braucht man für den hohen DP-Durchsatz einfach derart viele Transistoren, nur für Spiele bringt das eben nichts.
Dann bestünde ja für den GF104 die Hoffnung, dass man gut entschlacken kann und nicht 1:1 dazu relevante Leistung für Spiele verliert.
Dann bestünde ja für den GF104 die Hoffnung, dass man gut entschlacken kann und nicht 1:1 dazu relevante Leistung für Spiele verliert.
Die Spieleleistung/Transistor und Spieleleistung/Watt wird vermutlich mit GF104 deutlich höher sein. Das ändert natürlich nichts daran, dass GF100 (zumindest als 480 oder im Vollausbau) absolut noch immer schneller sein wird.
dargo
2010-03-29, 18:45:31
Haben sie auch, zumindest für heutige Spiele.
Da sagen mir diese Tests aber was anderes.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21
Crysis schön und gut - es wäre natürlich nett wenn der GF100 in diesem Spiel sich deutlich absetzt. Sollte dies mit zukünftigen Treibern nicht wesentlich besser sein finde ich es auch nicht tragisch. Erstens - weil ich es schon 4x durchgespielt habe, zweitens - weil dieses Jahr ein Crysis 2 mit neuer Engine ansteht.
AnarchX
2010-03-29, 18:58:17
Da sagen mir diese Tests aber was anderes.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21
Das sind wohl alles deutlich geometrielastigere Engines, als die CE2, sodass hier GF100 seine Stärke in diesem Bereich ausspielen kann.
Crysis schön und gut - es wäre natürlich nett wenn der GF100 in diesem Spiel sich deutlich absetzt. Sollte dies mit zukünftigen Treibern nicht wesentlich besser sein finde ich es auch nicht tragisch. Erstens - weil ich es schon 4x durchgespielt habe, zweitens - weil dieses Jahr ein Crysis 2 mit neuer Engine ansteht.
Da bleibt die Frage in welche Richtung sich die Last bei der CE3 verschieben wird, werden die Shader bei der PC-Version noch aufwendiger, könnte man hier wohl weiter Boden gegenüber den Radeons verlieren.
Aber vielleicht hat der NV-Developer-Support entsprechend nachgeholfen, dass ein paar Effekte von Fermis Cache-Architektur profitieren, wie wohl auch die god rays in Stalker COP: http://www.bjorn3d.com/read.php?cID=1831&pageID=8802
Dural
2010-03-29, 19:13:15
(x) Treiber
(x) Crysis
ganz einfach ;)
übrigens ist eine GTX480 so ziemlich exakt gleich schnell wie eine GTX295 in Crysis, na fällt was auf?
2x80TMUs @ 575MHz
1x60TMUs @ 700MHz
2x240SP @ 1250MHz
1x480SP @ 1400MHz
Cubitus
2010-03-29, 19:21:54
Die seriöse Seite von andtech hat erstaunlich gute Ergebnisse für Crysis
http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22165.png
http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22162.png
Quelle (http://www.anandtech.com/video/showdoc.aspx?i=3783&p=9)
Spasstiger
2010-03-29, 19:29:58
Anandtech hat nicht mit maximalen Details und somit nicht mit maximaler Shaderlast getestet.
Anandtech hat nicht mit maximalen Details und somit nicht mit maximaler Shaderlast getestet.
Und die min. FPS-Werte sind für die Tonne, wie weiter oben angemerkt.
Anandtech hat nicht mit maximalen Details und somit nicht mit maximaler Shaderlast getestet.
Laut Diagramm schon.
übrigens ist eine GTX480 so ziemlich exakt gleich schnell wie eine GTX295 in Crysis, na fällt was auf?
Ja, dass man S-GPU nicht mit M-GPU-Werten vergleichen kann, nicht nur bei den FPS.
Da bleibt die Frage in welche Richtung sich die Last bei der CE3 verschieben wird, werden die Shader bei der PC-Version noch aufwendiger, könnte man hier wohl weiter Boden gegenüber den Radeons verlieren.
Wenn sich die Last Richtung Shader verschiebt kann das Fermi nur helfen.
Die Shaderleistung hat im Gegensatz zum Rest massiv zugenommen.
boxleitnerb
2010-03-29, 21:30:48
Laut Diagramm schon.
Gamer, nicht Enthusiast. Niemand mit solchen Karten spielt nur mit der Gamereinstellung.
dargo
2010-03-29, 21:34:55
Gamer, nicht Enthusiast.
Auch nicht ganz richtig. Gamer mit Shader @Enthusiast. :)
Dural
2010-03-29, 21:42:36
Ja, dass man S-GPU nicht mit M-GPU-Werten vergleichen kann, nicht nur bei den FPS.
klar kann man, da man die Skalierung von M-GPU kennt......
boxleitnerb
2010-03-29, 21:49:35
Auch nicht ganz richtig. Gamer mit Shader @Enthusiast. :)
Haarspalterei. Du weißt schon, wie es gemeint war. Natürlich hab ichs gelesen ;)
Gamer, nicht Enthusiast. Niemand mit solchen Karten spielt nur mit der Gamereinstellung.
Doch ich, aber mit SSAA, müssen die Furby besitzer ja leider drauf verzichten...aber ihr könnt ja Doen sampeln bis der Arzt kommt.....
Wenn sich die Last Richtung Shader verschiebt kann das Fermi nur helfen.
Das würde ich nicht unterschreiben. Längere Shader führen dazu, dass die Geometrieleistung unwichtiger wird, da auch weniger zu schattierende Fragmente aus dem Frontend reichen um die ALUs auszulasten.
Was Fermi helfen würde sind also winzige Dreiecke und so gut wie keine ALU-Last ;)
tombman
2010-03-30, 01:12:45
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/Crysis_Warhead_Benchmark.jpg
Das macht Laune ;)
AnarchX
2010-03-30, 07:58:45
Gegenüber einer GTX 285 sind es hier trotzdem nur 50-60%.
Hier noch zwei andere Maps:
http://www.ixbt.com/video/itogi-video/0310/itogi-video-cr4-wxp-aaa-1920-pcie.html
http://www.ixbt.com/video/itogi-video/0310/itogi-video-cr3-wxp-aaa-1920-pcie.html
Mr. Lolman
2010-03-30, 08:19:10
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/Crysis_Warhead_Benchmark.jpg
Das macht Laune ;)
Offensichtlich haben die aber nicht allzuviel Ahnung von dem, was sie tun:
DirectX-11 extensions are not supported in Crysis: Warhead, and SSAO is not an available option.
Without SSAO support, Crysis becomes a battle of sheer graphics power.
edit: Mal abgesehen davon, dass das ne 17 seitige Fermi Beweihräucherung ist.
tombman
2010-03-30, 14:18:24
Gegenüber einer GTX 285 sind es hier trotzdem nur 50-60%.
Hier noch zwei andere Maps:
http://www.ixbt.com/video/itogi-video/0310/itogi-video-cr4-wxp-aaa-1920-pcie.html
http://www.ixbt.com/video/itogi-video/0310/itogi-video-cr3-wxp-aaa-1920-pcie.html
Kenne ich, aber da stimmt generell was mit den Profilen nicht, oder die sind Cpu-limitiert. Bei denen skaliert ja
weder SLI noch CF richtig...
Edit:
Testbed-Konfiguration:
o процессор Intel Core I7 CPU 920 (2667 MHz); Prozessor Intel Core i7 CPU 920 (2667 MHz);
Lol, da gehören >3.5Ghz hin bei Crysis...aber wie gesagt, bei denen skaliert weder CF noch SLI, auch nicht bei den alten Karten :rolleyes:
Beispiel Cargo:
GTX295:.............. 26.3 fps
GTX285 SLI:..........23.8 fps
Sorry, aber das ist unmöglich.
http://benchmarkreviews.com/images/reviews/video_cards/GeForce_GTX480/Crysis_Warhead_Benchmark.jpg
Das macht Laune ;)
Das hier auch. :cool:
http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-Crysis-1680.png
Und das hier. =)
http://www.pcgameshardware.de/screenshots/original/2010/03/GF100-Crysis-1920.png
Was Fermi helfen würde sind also winzige Dreiecke und so gut wie keine ALU-Last ;)
Das wäre natürlich der Idealfall :)
Im Verhältnis zur Vorgängergeneration wird er sich aber auch bei einer Verlagerung der Last Richtung ALUs absetzen können, klar nicht so stark wie bei einer Verlagerung Richtung Geometrie.
dildo4u
2010-04-02, 19:13:27
Alle Benches für die Tonne ATI schummelt beim AF.
Bei den meisten Texturen im Spiel ist das abrupte Ende der MIP-Maps durch Flimmern sichtbar. Die beiden Geforce-Karten liefern ein deutlich homogeneres Bild, obwohl auch hier der Treiberstandard inklusive der Trilinearen Optimierung (anders formuliert: trilineare Filterung wird weitgehend abgeschaltet) aktiv ist. Da es sich bei Crysis und Warhead um besonders shaderlastige Spiele handelt, muten die deutlich sichtbaren Einsparungen besonders kurios an. Aber sie zahlen sich definitiv aus: Laut unseren Benchmarks verliert eine Radeon HD 5870 nur rund fünf Prozent ihrer Fps, wenn Sie "16:1" AF anstelle von linearer Filterung darstellt. Diese Zahlen reflektieren, dass hier nicht alles mit rechten Dingen zugeht. Das Differenzbild zwischen Radeon und Geforce fördert dieses eindeutig sichtbare Banding zutage:
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=3
Normaler Verlust sind ca 20%(UT2004) für die 5870 bei 16:1 AF laut PCGH.(GTX480 Test Printausgabe)
Ja, in Relation zur Texturqualität ist die Radeon HD 5870 nicht schneller als eine GeForce GTX 480 ... könnte man sagen. ;) Das Radeon-AF ist in Crysis Warhead grausig. In meiner Auflösung, 2.560x1.600, ist das Banding besonders "schön" sichtbar. Dagegen hilft nur die Wahl von Direct3D9 + Supersample-Keule.
Mit A.I. Erweitert verliert die HD 5870 anstelle der 5 nur ~3 Prozent in der PCGH-Testszene. Das Bild flimmert noch etwas mehr, aber das ist's wert, wenn man eh mit SSAA drüberkeult. X-D
MfG,
Raff
tombman
2010-04-02, 19:19:54
ATI kanns nicht lassen :mad:
Also gewinnt GTX480 auch in Crysis ;)
Ja, in Relation zur Texturqualität ist die Radeon HD 5870 nicht schneller als eine GeForce GTX 480 ... könnte man sagen. ;) Das Radeon-AF ist in Crysis Warhead grausig. In meiner Auflösung, 2.560x1.600, ist das Banding besonders "schön" sichtbar. Dagegen hilft nur die Wahl von Direct3D9 + Supersample-Keule.
Mit A.I. Erweitert verliert die HD 5870 anstelle der 5 nur ~3 Prozent in der PCGH-Testszene.
MfG,
Raff
Könnte PCGamesHardware diesem ATI-Saftladen nicht mal in den Arsch treten? Vielleicht müsste man mal bei Benches die Karten auch performancemäßig gesalzen abwerten, für beschissene Bildqualität, damit die Canadian AF-Cripple endlich mal wach werden.
Statt anständige Treiber zu liefern, bringt diese ATI-Frickelbude Monat von Monat nur Treiber raus, die den Penisbalken verlängern durch "Optimierung". Ich wette in 98 % der Fälle, besteht diese Optimierung aus sukzessivem Versauen der Bildqualität. Sieht man ja nicht und stört keinen, weils wohl in der ATI-Frickelbude auch keiner sieht und stört.
Anti-Aliasing ist ja bei denen viel wichtiger als gescheites AF, vor allem, da man dort Pfusch sofort auf Standbildern erkennt.
Zig Modi für AA, aber in der Steinzeit beim AF. Aber Hautpsache komplett winkelunabhängig, denn das sieht man mit Testprogrammen auf Standbildern ja sofort.
Volles trilineares Filtern zu jeder Zeit ohne jegliches Banding und flimmerfreie Abstastung als Option sind längstens überfällig. Oder man bencht nächstes mal die Karten von der Frickelbude und nvidia auschließlich ohne AF. Brauchens da auch nix mehr "optimieren".
Black-Scorpion
2010-04-02, 19:54:01
Klasse Beitrag.
Und wie die ach so tollen Nvidia Treiber immer so funktionieren steht in den ellenlangen Threads zum nachlesen.
Und bescheißen würden nie und haben die auch noch nie.
Und für die gute BQ sorgen inoffizielle Modi und eine Bastellösung.
Halt mal den Ball flach, bei einer Geforce wird einfach auf HQ umgeschaltet und die Sache sieht Sauber aus. Bei deiner Graka muss ja maximal was "weggelassen" werden damit das Spiel läuft.
Könnte PCGamesHardware diesem ATI-Saftladen nicht mal in den Arsch treten?
Ja, wir wäre es mal endlich AI auszuschalten, wäre schon mal ein Anfang.
Ja, wir wäre es mal endlich AI auszuschalten, wäre schon mal ein Anfang.
Bringt (in den meisten Fällen) bei der 5000 Serie nichts mehr. Auch kaum Performancegewinn, weil der Schund trotzdem drinbleibt. Zudem kann es Bugs bei Games geben. In Half-Life 2 tritt dann der uralte Nebelbug auf. Wenn es bei ATI (Treiber)-Probleme gibt, dann kann man darauf furzen, dass diese mindestens eine Dekade bestehen bleiben. Die sind einfach lernresistent, oder unfähig oder haben kaum Ressourcen, weil sie in Schulden versinken.
nV hat ja auch manchmal Probleme, aber wenigsten tun die irgenwann immer mal was dagegen, falls es kein Hardwareproblem sein sollte.
AI off bringt auch nichts mehr abzuschalten, beim Vorgänger war das noch anders.
Wahrscheinlich kann RV870 einfach nur noch in diesem einen Modus filtern, d.h. es gibt gar keine Differenzierung mehr zw. A.I. off und on was das AF angeht.
Bringt (in den meisten Fällen) bei der 5000 Serie nichts mehr.
Selbst wenn es keine Qualitätsverbesserungen bringen sollte, wäre es zumindest ein Anreiz für ATI sinnvolle und sinnlose "Verbesserungen" zu trennen.
So lange alle sagen AI-off, warum testen, bringt eh nix, hat ATI mit seiner Treiberpolitik natürlich Recht, warum sollten sie was ändern?
Dimon
2010-04-03, 01:07:20
Könnte PCGamesHardware diesem ATI-Saftladen nicht mal in den Arsch treten? Vielleicht müsste man mal bei Benches die Karten auch performancemäßig gesalzen abwerten, für beschissene Bildqualität, damit die Canadian AF-Cripple endlich mal wach werden.
Statt anständige Treiber zu liefern, bringt diese ATI-Frickelbude Monat von Monat nur Treiber raus, die den Penisbalken verlängern durch "Optimierung". Ich wette in 98 % der Fälle, besteht diese Optimierung aus sukzessivem Versauen der Bildqualität. Sieht man ja nicht und stört keinen, weils wohl in der ATI-Frickelbude auch keiner sieht und stört.
Anti-Aliasing ist ja bei denen viel wichtiger als gescheites AF, vor allem, da man dort Pfusch sofort auf Standbildern erkennt.
Zig Modi für AA, aber in der Steinzeit beim AF. Aber Hautpsache komplett winkelunabhängig, denn das sieht man mit Testprogrammen auf Standbildern ja sofort.
Volles trilineares Filtern zu jeder Zeit ohne jegliches Banding und flimmerfreie Abstastung als Option sind längstens überfällig. Oder man bencht nächstes mal die Karten von der Frickelbude und nvidia auschließlich ohne AF. Brauchens da auch nix mehr "optimieren".
Gut gesagt, so grausiges AF gehört einfach nicht in die Heutige Zeit ;)
Wieso macht ATI da überhaupt nix? :(
tombman
2010-04-03, 01:53:25
Wahrscheinlich kann RV870 einfach nur noch in diesem einen Modus filtern, d.h. es gibt gar keine Differenzierung mehr zw. A.I. off und on was das AF angeht.
Damit die Tester ja nicht auf Ideen kommen ;D
=Floi=
2010-04-03, 02:18:18
ich dachte in crysis gibt es genug/zu viel geometrie und gerade deswegen sollte fermi hier abgehen. scheinbar stimmt dies dann doch nicht?!
fermi erinnert ein wenig an die ps1?/ps2 viel polygonleistung und nix dahinter. :rolleyes:
tombman
2010-04-03, 04:14:37
...und nix dahinter. :rolleyes:
15%/20% schneller als HD5 :cool:
scheinbar stimmt dies dann doch nicht?!
Scheinbar.
Wobei es in Crysis aber auch total unterschiedliche Landschaften, mit ebenfalls unterschiedlichen Performancecharakteristiken gibt. Da kann sich durchaus etwas verschieben, je nachdem ob es sich um ein Dschungel-, Eis- oder Alienlevel handelt.
Die Grafikkarte sind auch eben erst rausgekommen. Gib den Programmierern mal ein halbes Jahr Zeit, die Treiber für genau den GF100 Chip zu optimieren, dann werden auch die Frames in Crysis passen. Beim GT200 wars genau. Als sich Nvidia endlich um die Treiberoptimierungen gekümmert hat, waren in der Frames oft doppelt so hoch, als davor.
ich dachte in crysis gibt es genug/zu viel geometrie und gerade deswegen sollte fermi hier abgehen. scheinbar stimmt dies dann doch nicht?!
fermi erinnert ein wenig an die ps1?/ps2 viel polygonleistung und nix dahinter. :rolleyes:
Er geht doch ab.
AMDs Stelllung verwirrt wohl einwenig. Da AMD zufällig in Crysis die schlechtere Filterung noch weiter beschneidet sollte man hier die GTX 400 nur mit der GTX 200 vergleichen.
Rampage 2
2010-04-21, 23:18:15
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/16/#abschnitt_crysis_warhead
:facepalm:
Man siehe sich Crysis: Warhead bei 1920x1200:
bei 4xAA nur 50% schneller, bei 8xAA knapp 75%
Reife Leistung... und definitiv ein FAIL, zwar kein EPIC FAIL wie der NV30, aber definitiv eine Enttäuschung. Nichts rechtfertigt so eine niedrige Leistung - auch nicht die lächerliche Rohleistung. Wenn Nvidia diese Leistungs-Spezifikationen (gemeint ist die Rohleistung) wirklich von Anfang an geplant hat, dann ist es definitiv ein EPIC FAIL - weil Nvidia (angesichts der Leistungsresultate) offensichtlich nichts an der Effizienz getan hat.
Ich hatte in Crysis die doppelte Leistung einer GTX285 erwartet (bei 1920x1200@4xAA) und die 2.5-3x Leistung (bei 1920x1200@8xAA).
Die einzige Entschuldigung die Nvidia noch hat, sind unausgereifte Treiber...
R2
Gaestle
2010-04-22, 14:12:34
... und definitiv ein FAIL ... definitiv eine Enttäuschung. Nichts rechtfertigt so eine niedrige Leistung ... Wenn Nvidia diese Leistungs-Spezifikationen (gemeint ist die Rohleistung) wirklich von Anfang an geplant hat, dann ist es definitiv ein EPIC FAIL...
Ich hatte in Crysis die doppelte Leistung ... erwartet ... und die 2.5-3x Leistung ....
Naja, relativierend muss man sagen, dass eine GTX auf dem Niveau von 2xGTX260 (=GTX295) liegt, also schon im Rahmen der erwartbaren Performance (ca. 1,6 - 2x Vorgängergeneration, das ist GTX280, nicht GTX285).
Deine (und meine) ERWARTUNGEN sind dabei völlig Schnuppe.
Das Wort "Fehlschlag" oder gar "epischer Fehlschlag" ist IMHO hier wohl nicht angebracht.
15%/20% schneller als HD5 :cool:
das der gf100 die hd5 schlägt war ja abzusehen, die sache ist halt mit welchem preis sich nvidia das erkauft.. und ich würde persönlich nicht fast doppelt so viel geld und einen fast doppelt so hohen stromverbrauch in kauf nehmen nur für 15-20% mehrleistung, aber ich spreche ja auch nicht für die allgemeinheit ;) es gibt immer die leute denen preis leistung und gerade erst stromverbrauch ziemlich egal sind.
Dural
2010-04-22, 17:40:33
NV hat 70% mehr Leistung gegenüber dem Vorgänger (GTX280=GTX275) in Crysis WH 1920x1200 16AF/4AA geschaft und das nicht mal mit einem vollen GF100...
bei 8AA sind es sogar 137%!!!
In sachen Leistung ist GF100 TOP, da gibt es nichts dran zurüteln!!!
ATi hingegen übrigens nur 60%... ;)
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/16/#abschnitt_crysis_warhead
Fermi als Architekur ist schlicht der Hammer, gerade auf die Roh / FPS Leistung bezogen... NV muss jetzt aber zwingend die Probleme mit dem Verbrauch anpaken / da sind sie garantiert schon fleissig bei der Arbeit und vieleicht schauen wie man die GPUs etwa kleiner bekommt...
dargo
2010-04-22, 23:01:47
Alle Benches für die Tonne ATI schummelt beim AF.
Wieso alle? Benches mit 1xAF dürften wohl brauchbar bleiben. :)
Natürlich stellt sich hier die Frage wer mit diesen Geschossen 1xAF fährt? :biggrin:
Wieso alle? Benches mit 1xAF dürften wohl brauchbar bleiben. :)
Natürlich stellt sich hier die Frage wer mit diesen Geschossen 1xAF fährt? :biggrin:
Tut doch gar nicht Not, die Benches werden bei NV eh mit Q gemacht.
Keiner bencht HQ-AF, weil der Performance Hit in Crysis deutlich höher ist als in anderen Games.
Tut doch gar nicht Not, die Benches werden bei NV eh mit Q gemacht.
Im Gegensatz zu ATI flimmert das aber immer noch nicht es gibt "nur" manchmal sichtbares Banding.
Schrotti
2010-04-23, 23:47:06
vielleicht schauen wie man die GPUs etwa kleiner bekommt...
Das klappt wohl nur über einen Shrink hin zu 32 oder 28nm. Nur hat TSMC ja schon bei 40nm so ihre Probleme.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.