Archiv verlassen und diese Seite im Standarddesign anzeigen : Doom3 Benchmarks mit älteren Karten: auch hier liegt nVidia vor ATI
DoomDoom
2004-08-03, 18:50:27
Zur Übersichtlichkeit mache ich mal einen neuen Thread auf. Hier ist die neue Meldung von 3DCenter:
Die Virtual Zone hat eigene Doom 3 Benchmarks anzubieten, welche zudem auch mittels eines anderen Timedemos als bei HardOCP erstellt wurden. Die Ergebnisse gleichen sich jedoch zu denen von HardOCP, wonach die neuen nVidia-Karten mehr oder weniger deutlich vor den neuen ATi-Karten liegen. Bei der Virtual Zone kam jedenfalls eine GeForce 6800 (mit einem Listenpreis von 299 Dollar) auf fast dieselben Resultate wie eine Radeon X800 XT-PE (mit einem Listenpreis von 499 Dollar). Einzig in höheren Auflösungen kann sich die Radeon X800 XT-PE etwas absetzen, wird dort aber mit Sicherheit keine Chance gegen GeForce 6800 GT/Ultra Grafikkarten haben ...
... Auf bei den "älteren" Karten sieht die Virtual Zone einen Vorteil für nVidia, denn selbst wenn der Vergleich GeForceFX 5950 Ultra gegen Radeon 9800 Pro nicht ganz fair ist, so ist doch der gemessene Unterschied zwischen diesen beiden Karten groß genug, daß auch eine Radeon 9800XT daran nichts mehr wesentliches ändern wird können. Allgemein erscheinen die Benchmarks der Virtual Zone damit noch deutlicher in Richtung nVidia-Vorteil zu zeigen als die Benchmarks von HardOCP, sicherlich auch resultierend aus den unterschiedlichen verwendeten Benchmark-Sequenzen.
Link: http://www.vr-zone.com/?i=1051&s=1
dildo4u
2004-08-03, 18:53:36
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=159293
Die haben wohl nur Karten mit 256MB getestet. Da sieht es auf meiner Radeon 9800 pro mit 128 MB wohl noch schlechter aus für high details, oder?
Hat eigentlich inzwischen schon jemand Benchmarks oder Erfahrungsberichte, ob eine Radeon 9800 pro mit 128 MB noch genug Power für "high details" hat? Und wenn ja, welche Auflösung ist damit noch gut spielbar?
Hiro Hiroshi
2004-08-03, 23:33:35
Original geschrieben von maas
Hat eigentlich inzwischen schon jemand Benchmarks oder Erfahrungsberichte, ob eine Radeon 9800 pro mit 128 MB noch genug Power für "high details" hat? Und wenn ja, welche Auflösung ist damit noch gut spielbar?
Mit 1024 und "high details" habe ich durchschnittlich 45-50 fps bei 1280 sind es ca. 30fps.
Warum wurde dann immer behauptet, dass "high details" für Karten mit 256 MB wären?
daztro
2004-08-03, 23:52:23
wird auch behauptet ultra detail wäre für karten mit 512mb und ich spiele es trotzdem mit max fps.
desweiteren will irgendwie keiner verstehen, das ati die ogl leistung mit den 4.9ern überarbeiten wird und ich denke das es dann wieder genauso gut aussieht wie bei nvidia.
de daz
nggalai
2004-08-03, 23:56:30
Original geschrieben von maas
Warum wurde dann immer behauptet, dass "high details" für Karten mit 256 MB wären? Diese Empfehlungen gelten für "das ganze Spiel" und sind für "ohne Nachladen" gedacht. In manchen Levels hat's abartig viele verschiedene Texturen, so dass der Speicher ziemlich schnell sehr voll wird und's zu Nachladerucklern kommen kann.
Oder wie's [H] sagte--Ultra läuft auf heutigen High-End-Systemen mit kleinen Zucklern gut. id empfiehlt einfach 512MB für das Setting, weil's dann eben nie zu solchen Rucklern kommt.
93,
-Sascha.rb
DoomDoom
2004-08-05, 00:02:03
Leider kommt so was bei Timedemo-Balkendiadgammen ja nie raus...
... oder liefert Timedemo auch die min fps?
nggalai
2004-08-05, 00:13:36
Original geschrieben von DoomDoom
Leider kommt so was bei Timedemo-Balkendiadgammen ja nie raus...
... oder liefert Timedemo auch die min fps? Nö. id-typisch sind die Benchmark-Funktionen bei DooM3 eher dürftig. Wer mehr will braucht FRAPS und muss irgendwie die 60fps-Begrenzung aushebeln.
Mit Timedemo wird komplett ohne jegliche Game-Logik gebencht. Ist rein Render-Bilder-Nacheinander. timedemo1 besteht aus 1700 Key-Punkten und wurde mit konstanten 30Hz von id aufgezeichnet.
93,
-Sascha.rb
deekey777
2004-08-05, 00:17:30
Leider wurde nicht mit dem 4.9 beta D3 Hotfix gebencht...
Original geschrieben von deekey777
Leider wurde nicht mit dem 4.9 beta D3 Hotfix gebencht...
Gottseidank wurde nicht mit dem 4.9 D3 Hotcheat gebencht...
deekey777
2004-08-05, 11:57:11
Original geschrieben von Gast
Gottseidank wurde nicht mit dem 4.9 D3 Hotcheat gebencht...
Und jetzt belegst du diese Behauptung mit Tatsachen.
Ich meine, weil nV das höhere Tempo in Far Cry erst nach einer deutlichen Verschlechterung der Bildqualität erreicht hat. Jetzt ist zu hoffen, das ATI nicht so vorgeht. Ich bin zwar nV-User, aber dieser Trend ist doch nicht wirklich schön. Desweiteren ist ATI doch gut unterwegs in Sachen Doom 3 (meine Meinung), jetzt werden wir sehen wie wichtig die andere Firma (ATI) die Benchmarkdiagramme nimmt!
deekey777
2004-08-05, 16:09:27
Original geschrieben von mjs
Ich meine, weil nV das höhere Tempo in Far Cry erst nach einer deutlichen Verschlechterung der Bildqualität erreicht hat. Jetzt ist zu hoffen, das ATI nicht so vorgeht.
Nanana, hier (Patch 1.1) trifft nVidia keine Schuld, sondern Crytek selbst.
Original geschrieben von deekey777
Und jetzt belegst du diese Behauptung mit Tatsachen.
10% unerklärbarer Leistungszuwachs, reicht dir das?
deekey777
2004-08-06, 11:37:43
Original geschrieben von Gast
10% unerklärbarer Leistungszuwachs, reicht dir das?
Fehler, welche die Performance des Doom 3 abbremsten, wurden gefixt. Böse Zungen behaupten gar, der alte Bekannte ist wieder da: der R200 Quake 3 Cheat, den es nie gab.
Aber: Mit welchem Treiber wurde denn offiziell von id Software und [H]ardOCP denn gebencht?
dildo4u
2004-08-06, 11:41:53
Original geschrieben von deekey777
Fehler, welche die Performance des Doom 3 abbremsten, wurden gefixt. Böse Zungen behaupten gar, der alte Bekannte ist wieder da: der R200 Quake 3 Cheat, den es nie gab.
Aber: Mit welchem Treiber wurde denn offiziell von id Software und [H]ardOCP denn gebencht? Mit dem 4.9Beta auch 8.05genannt
deekey777
2004-08-06, 11:43:20
Original geschrieben von dildo4u
Mit dem 4.9Beta auch 8.05genannt
Das war eine rein rhetorische Frage...
Original geschrieben von nggalai
Nö. id-typisch sind die Benchmark-Funktionen bei DooM3 eher dürftig. Wer mehr will braucht FRAPS und muss irgendwie die 60fps-Begrenzung aushebeln.
Mit Timedemo wird komplett ohne jegliche Game-Logik gebencht. Ist rein Render-Bilder-Nacheinander. timedemo1 besteht aus 1700 Key-Punkten und wurde mit konstanten 30Hz von id aufgezeichnet.
93,
-Sascha.rb
Wie darf man das verstehen? 30 Hz - sind 30 FPS gemeint oder etwa die Bildwiederholrate?
nggalai
2004-08-06, 12:16:42
Original geschrieben von Gast
Wie darf man das verstehen? 30 Hz - sind 30 FPS gemeint oder etwa die Bildwiederholrate? Soll heissen: Einer ist durch das Level gerannt, und 30x in der Sekunde wurde ein "Point" gesetzt. Davon hat's 1700 Stück, welche bei timedemo einfach abgespult werden.
93,
-Sascha.rb
Original geschrieben von deekey777
Nanana, hier (Patch 1.1) trifft nVidia keine Schuld, sondern Crytek selbst.
Ja, das schon -aber ob NVIDIA da nicht auch einen Mitarbeiter vor Ort hatte, um die wenig "vorteilhaften" Ergebnisse etwas zu "verbessern"?
Das war doch für NVIDIA mindestens genau so wichtig wie für Crytek selbst!
Edit:
Was ich bisher gehört habe, verschlechtert der Cat. 4.9Beta nicht die Darstellungsqualität -und das finde ich, ist der richtige Weg!
Es scheint auch, als ob der Patch nur bei den neuesten ATI Chips einen kleinen Sprung macht.
Wie groß ist eigentlich der Sprung bei NVIDIA zw. ForceWare 5er und 6er auf NV3X Karten -muß ich aktualisieren? (Derzeit 53.03, seit über einem halben Jahr und bisher noch nie ein Problem gehabt -sowas habe ich noch nie erlebt!)
Lokadamus
2004-08-06, 13:07:41
Original geschrieben von Gast
10% unerklärbarer Leistungszuwachs, reicht dir das? mmm...
Soviel ich weiss, hat ATI in den letzten Monaten den OpenGL- Bereich vernachlässigt, weil alle interessanten Spiele auf Direct-3D aufsetzen => ATI hat dort wohl die 1. Optimierungen drinne, da sind 10- 15% gut möglich ... wenn man wirklich wissen will, wie stark Treiber ins Spiel eingreifen können, müsste man mit älteren Treibern rumspielen ...
Soll heissen: Einer ist durch das Level gerannt, und 30x in der Sekunde wurde ein "Point" gesetzt. Davon hat's 1700 Stück, welche bei timedemo einfach abgespult werden.
Also deutlich weniger CPU-Belastung als beim Spielen.
In dem Zusammenhang frage ich mich gerade:
Gibt's eigentlich Untersuchungen über die CPU-Belastungen der Treiber von ATI und nVidia?
Ich meine mal gelesen zu haben, dass ATI's Catalyst mehr CPU-Leistung frisst als der Detonator von nVidia. Hat da jemand genauere Informationen?
Doomy
2004-08-08, 13:55:04
Gibt's eigentlich Untersuchungen über die CPU-Belastungen der Treiber von ATI und nVidia?
Ich meine mal gelesen zu haben, dass ATI's Catalyst mehr CPU-Leistung frisst als der Detonator von nVidia. Hat da jemand genauere Informationen?
Das war zumindest früher so, dass die ATI-Benchmarks stärker mit der CPU-Leistung skalierten. Das bedeutet, dass der ATI-Treiber mehr CPU-Power frisst.
Guckt doch mal hier vorbei.
Da gibts ein paar Jungs die sich gerade die FPS um die Ohren hauen...
http://www.gametalkzone.de/index.php?pid=0018&tid=2653
Das war zumindest früher so, dass die ATI-Benchmarks stärker mit der CPU-Leistung skalierten. Das bedeutet, dass der ATI-Treiber mehr CPU-Power frisst.
Ich weiß nicht, ob man das so pauschal sagen kann. Manch ein Testmagazin hat auch schon mal versucht herauszubekommen, ob ATI besser mit AMD oder Intel klarkommt, oder NVIDIA eine CPU "bevorzugt".
Ich meine das man das ohnehin nur schwer messen kann. Selbst wenn eine Geforce 4Ti damals etwas besser mit einer Intel CPU skalierte, könnte das mit einem Treiberupdate schon wieder anders aussehen (3Dnow, SSE, SSE2 Anpassung).
Momentan skaliert von den neuen High-End Chips die Geforce 6800 Ultra am besten mit einer sehr schnellen CPU. Oder anderes -die kommt erst mit einem A64 3400+ / P4 3.4 so richtig in Fahrt! (Was nicht heißt, das eine X800XT schon mit einer kleinen CPU schnell wäre)
DoomDoom
2004-08-08, 19:46:13
Wenn die CPU-Belastung bei ATI-Treibern größer ist als bei nV, dann bedeutet dies aber, dass die ATI-Karten beim wirklichen Spielen noch schlechter gegenüber nV dastehen als dies aus Timedemo-Ergebnissen deutlich wird.
Gast2
2004-08-08, 23:06:55
Wenn die CPU-Belastung bei ATI-Treibern größer ist als bei nV, dann bedeutet dies aber, dass die ATI-Karten beim wirklichen Spielen noch schlechter gegenüber nV dastehen als dies aus Timedemo-Ergebnissen deutlich wird.
Kannst Du das näher erläutern?
Kannst Du das näher erläutern?
Er meint wohl, daß beim Spielen auch noch so ein, zwei Krümel KI von der CPU mitberechnet werden müssen, was es ja bei den timedemos nicht braucht.;)
Eine Karte mit CPU-lastigeren Treibern verliert also etwas mehr fps sobald gespielt wird.
DoomDoom
2004-08-09, 22:27:39
Kannst Du das näher erläutern?
Der ATI-Treiber nimmt der CPU mehr Leistung weg. Dann bleibt weniger CPU-Leistung für KI, Physik und die anderen CPU-intensiven Sachen übrig.
--> In Engpaßsituationen bricht der Rechner mit ATI-Treibern mehr ein als mit nVidia-Treibern
--> Dies wird beim Timedemo nicht so deutlich, da hier die CPU keine KI, Physik usw. berechnen muss
[B]--> Beim wirklichen Spielen sehen ATI-Karten noch schlechter (gegenüber nV) aus als in Timedemo-Benchmarks[B]
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.