Archiv verlassen und diese Seite im Standarddesign anzeigen : Doom3 Performance Preview bei Hardocp (war: Doom3 Hardware-Anforderung)
nggalai
2004-07-22, 15:55:19
Original geschrieben von Stebs
1) Oh, weisst du zufällig wie der Thread hieß oder hast du gar nen Link?
2) Also ist ARB2 sozusagen eine Wortschöpfung Carmack's? 1) http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2045772#post2045772
2) yup.
93,
-Sascha.rb
nggalai
2004-07-22, 15:56:18
Original geschrieben von Gast
Du hast da zwei "nullen" vergessen.
"Achso das war Dein Problem, weil eine Karte unter einer anderen API 30-50% langsamer ist [...]
.
Lovesuckz Ende.
Er hat mich zitiert und erwähnt das 2 nullen fehlen.
w00p, dann hab ich mich verlesen. Warscheinlich, weil's so unrealistische Zahlen sind ...
93,
-Sascha.rb
aaaaaab2
2004-07-22, 15:59:40
Stebs
Ich meine die Leute die sich schweineteure Teile kaufen, wie z.. 3,4 Ghz CPU und dann noch hochtakten. Bei 2,4Ghz würde ich es verstehen wenn sie dann meinet wegen auf 3 Ghz hochtakten oder wie bei dir. Aber von 3,4 neu gekauft auf 3,6 oder noch höher is krank.
Aber wers Geld übrig hat.
Hab vorhin einen gesehen der hat von 2,4 oder so auf4 hochgetaktet.:O
Was machst du denn wenn dir jetzt der 3,4Ghz bzw. 3,6 Ghz kaputt geht. Nochmal ca 800 Euro ausgeben Nein Danke
Tschüss
DrFreaK666
2004-07-22, 16:11:51
Original geschrieben von betareverse
Tja, wenn das die Meinung der Moderation ist, tut es mir leid.
Ich habe es schon oft geschrieben, ihr bekommt es einfach nicht hin den Fanboys nen Maulkorb zu verpassen und die Threads somit lesbar zu halten. Wenn ich dann schon hier solche Diskussionen lese, wo darüber gerstritten wird, ob HardOCP auf ATIs Seite ist, etc., dann wird mir schlecht. Und es sind immer wieder die gleichen Personen, die ihre Flames im Gewand der Sachlichkeit verstecken.
...
Ich verstehe dich voll und ganz.
Ich habe nicht umsonst vorhin geschrieben, dass ich 6 Seiten übersprungen habe.
Wenns die Forumsregeln nicht verletzt werden dann sollte man sie mal überholen und für Spamer einen Xtra-Spam-Forum eröffnen. Dann gehts allen besser hier...
Stebs
2004-07-22, 16:12:57
@nggalai: Danke! :D
Original geschrieben von Gast
NV ist in einer timedemo 5 fps langsamer und alle reden von "locker geschlagen " so ein blödsinn
Naja, in 1024x768, 4xAA, 8xAF High Quality:
Nvidia 6800 GT: 60,1 fps
Ati X800Pro: 42 fps
In 1600x1200 ist es 36,3 zu 21,5
Also das kann man dann doch schon als signifikant bezeichnen (bzw. deutlich überhalb einem üblichen Meßfehlerbereich)
Finde ich schon erstaunlich, beide Karten sind ja direkte Konkurrenten (da ähnlicher Preis).
Aber natürlich sollte man noch weitere Benchmarks abwarten bis man ein Urteil fällt.
in einer andere timedemo ist dann ati vorn
Das mag ja durchaus sein, und dem Wettbewerb würde es nicht schaden...
der test kommt von einer nvpro seite und jeder der ein bißchen ahnung hat weiß genau wie man benchmarks beeinflussen kann
Naja jetzt gehts aber unter die Gürtellinie, wenn du sowas sagst solltest du auch Beweise parat haben, oder wenigstens Hinweise...
Original geschrieben von Gast
Hier wird nur mist gelabert
NV ist in einer timedemo 5 fps langsamer und alle reden von "locker geschlagen " so ein blödsinn
in einer andere timedemo ist dann ati vorn
der test kommt von einer nvpro seite und jeder der ein bißchen ahnung hat weiß genau wie man benchmarks beeinflussen kann
hier gehts net um die 5 fps
hier gehts mit sicherheit darum das DIE 6800 GT soschnell oder schneller ist wie die X800xt ultra krass
und das zu einem preis schon ab ca 380 €
DrFreaK666
2004-07-22, 16:14:55
Man sollte bedenken, dass es mehr als nur eine Gameengine gibt...
Original geschrieben von DrFreaK666
Man sollte bedenken, dass es mehr als nur eine Gameengine gibt...
Doom3 läuft aber nunmal nur auf der Doom3-Engine ;)
DrFreaK666
2004-07-22, 16:30:38
Da hast auch wieder Recht :-)
--------------------------------------------------------------------------------
Original geschrieben von Jesus
aber naja es zeichnet sich das selbe Bild wie immer ab, solange [H] ( oder irgendjemand anderes ) etwas bringt das für ATI spricht sind sie absolut biased und leute wie LS lehnen diese Tests dann kategorisch ab ( wie schon so oft ) .
Sobald aber mal was pro Nv kommt kann man den Test natürlich absolut für bare Münze nehmen, denn es muss ja schliesslich stimmen...
--------------------------------------------------------------------------------
Ach.. und anders rum ist es net oder was?
nggalai
2004-07-22, 16:41:00
Original geschrieben von Gast
der test kommt von einer nvpro seite und jeder der ein bißchen ahnung hat weiß genau wie man benchmarks beeinflussen kann Der Test fand in den Räumlichkeiten von id Software statt und wurde von id eingefädelt und geleitet. [H] ist hier nur "Reporter" im traditionellen Sinne des Wortes.
93,
-Sascha.rb
Skinner
2004-07-22, 17:12:12
*gähn*
wird die leistung einer Karte mal wieder nur an einem Benchmark festgemacht. Gestern wars noch FarCry, heute ist Doom3.... und morgen ?
Original geschrieben von Skinner
*gähn*
wird die leistung einer Karte mal wieder nur an einem Benchmark festgemacht. Gestern wars noch FarCry, heute ist Doom3.... und morgen ?
doppel gähn !
wieso wird die leistung an einem GAME festgelegt?
der nv40 hat doch schon gezeigt was er kann und was net
(game benches)es gibt 100er seiten voll.!
hier geht es um doom3 ,wo wir alle seit wochen darauf warten
nun isser da und es wird rumgeheult?
ich verstehs grad nich....
deekey777
2004-07-22, 17:46:51
Frage: Der ARB2 Renderpfad ist allgemeiner Renderpfad für alle HW Vendors, heisst das, dass jetzt alle DX9 (tech level) Grafikkarten auch zB mit der gleichen Präzision rendern?
Und:
"...the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program (=ARB2?), and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards."
Zum ersten Halbsatz: Hat ATi gepennt?
Zum zweiten HS: Die Optimierung im Treiber könnte also nach hinten losgehen?
Original geschrieben von Mr. Lolman
Ich glaub nicht, dass da was angepasst werden muss. Zumindest um MDR anstatt HDR zu verwenden. Die FXen machen das nämlich automatisch... Nach meiner HDR-Definition kann X800 prinzipiell kein HDR, und NV40 nur sehr langsam. X800 kann MDR mit FP24. NV40 kann MDR sehr schnell, wenn man "nur" FP16 nimmt.
Eine FX macht nicht "automatisch" aus HDR MDR.
Reicht FP16 aus? Das Format löst immer mindestens acht mal feiner auf als FX8, und kann Werte von einigen Zigtausend mal heller als weiß darstellen. Ich würde sagen, das reicht. (Auch wenn es in OpenEXR eher zur Speicherung, weniger zur Verarbeitung gedacht ist. Für Echtzeitanwendungen sollte FP16 auf absehbare Zeit ausreichen. Der Unreal3-Engine z. B. reicht es.)
Sollen fürs IBL (image based lighting) FP16-Texturen gefiltert werden, kostet das auf dem NV40 nur doppelt so viele Takte wie die Filterung von FX8-Texturen. Der X800 muss FP-Texturen "von Hand" im Pixelshader filtern. Das ist extrem aufwändig. NV40 hat pro Pipe nicht nur ein wenig mehr Rechenkraft, wenn man die Einheiten zählt, er kann vor allem mehr Einheiten pro Takt nutzen, das ist ja das, worauf es ankommt. Den letzten Pass bei H/MDR, Tone Mapping, kann der NV40 via dedizierter Logik sehr viel schneller ausführen als X800, welche das wieder "von Hand" im Pixelshader machen muss.
nggalai
2004-07-22, 18:05:30
Original geschrieben von deekey777
"...the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program (=ARB2?), and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards."
Zum ersten Halbsatz: Hat ATi gepennt?
Zum zweiten HS: Die Optimierung im Treiber könnte also nach hinten losgehen? 1) Das weiss wohl nur ATI ...
2) Ja, kann's--falls der Code z.B. durch Patches sich zu stark ändert, werden diese Optimierungen ausgehebelt resp. können an anderer Stelle zu Problemen führen.
93,
-Sascha.rb
Dr.Dirt
2004-07-22, 18:13:18
Original geschrieben von DrFreaK666
Ich verstehe dich voll und ganz.
Ich habe nicht umsonst vorhin geschrieben, dass ich 6 Seiten übersprungen habe.
Wenns die Forumsregeln nicht verletzt werden dann sollte man sie mal überholen und für Spamer einen Xtra-Spam-Forum eröffnen. Dann gehts allen besser hier...
Full Ack,
manche Threads sind dadurch nicht mehr zu ertragen.
Sry for OT, aber das mußte jetzt sein.
nggalai
2004-07-22, 18:15:09
Jungs, es gibt die Ignore-Funktion. Nutzt sie. :)
93,
-Sascha.rb
LovesuckZ
2004-07-22, 18:33:29
Original geschrieben von Gast
Coolen Vergleich gefunden.
Wo sind die 30-50% was ist mit den anderen 100 Spiele die auf OpenGL gehen.
Jetzt haste brav 2x Jedin Knight gefunden wo ein leichter Abstand vorhanden ist.
Wobei die Werte Du anscheinend auch nicht genau gesehen hast.
Ich kenn die Zahlen und habe dir drei unterschiedliche OpenGL Engine genannt. Und in jeder ist eine GT gegenueber einer Pro deutlich vorne.
Gut, dann eben
Alice (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/18/#alice).
Call of Duty (http://graphics.tomshardware.com/graphic/20040504/ati-x800-19.html)
RtCW (http://www.xbitlabs.com/articles/video/display/r420-2_4.html)
Nun, jetzt beweise du, dass ATi nur 3 - 5% auf Nvidia verliert, bevor du mir "typisches Scheuklappen denken" vorwirfst!
Original geschrieben von LovesuckZ
Ich kenn die Zahlen und habe dir drei unterschiedliche OpenGL Engine genannt. Und in jeder ist eine GT gegenueber einer Pro deutlich vorne.
Gut, dann eben
Alice (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/18/#alice).
Call of Duty (http://graphics.tomshardware.com/graphic/20040504/ati-x800-19.html)
RtCW (http://www.xbitlabs.com/articles/video/display/r420-2_4.html)
Nun, jetzt beweise du, dass ATi nur 3 - 5% auf Nvidia verliert, bevor du mir "typisches Scheuklappen denken" vorwirfst!
Na ja, die Spiele basieren auf der Quake3-Engine. Mal so als Zwischenfrage, gibt es eigentlich auch OpenGL-Spiele die nicht auf der Qualke3-Engine basieren und neueren Datums sind? Aber wen interessieren diese Spiele, wenn man sich eine GT oder Pro holen möchte. Die rennen auf diesen Karten wie Sau und sollten für einen Leistungsvergleich für Karten der neusten Generation nicht mehr relevant sein.
Madkiller
2004-07-22, 18:46:07
Original geschrieben von Jesus
das nennt man Fanboyism ;)
Unterlass bitte in Zukunft solch einen völlig überflüssigen Kommentar.
Original geschrieben von Striper
hurra! - wieder mal ein fanboy kasperltheater... ;(
Original geschrieben von Striper
also ich nenn das dummheit.
Das ist eine unnötige Provokation und die wird hiermit bepunktet.
Original geschrieben von Tjell
Dieser Beitrag strotzt ja vor Sachlichkeit.
:puke:
Und deiner? (Vorsicht, Rhetorik)
Sowas ist einwandfreier Spam, und wird deswegen bepunktet.
Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.
Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046
Original geschrieben von LovesuckZ
Ich kenn die Zahlen und habe dir drei unterschiedliche OpenGL Engine genannt. Und in jeder ist eine GT gegenueber einer Pro deutlich vorne.
Gut, dann eben
Alice (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/18/#alice).
Call of Duty (http://graphics.tomshardware.com/graphic/20040504/ati-x800-19.html)
RtCW (http://www.xbitlabs.com/articles/video/display/r420-2_4.html)
Nun, jetzt beweise du, dass ATi nur 3 - 5% auf Nvidia verliert, bevor du mir "typisches Scheuklappen denken" vorwirfst!
Na ja, es sind aber auch keine 30% - 50%. Vielleicht grob über den Daumen gepeilt und für deinen Bsp. 10% - 15% im Schnitt. Aber trotzdem gilt: siehe Gast vor mir.
LovesuckZ
2004-07-22, 18:53:12
Original geschrieben von Gast
Na ja, es sind aber auch keine 30% - 50%. Vielleicht grob über den Daumen gepeilt und für deinen Bsp. 10% - 15% im Schnitt. Aber trotzdem gilt: siehe Gast vor mir.
30% Coretaktvorteil = 0% Vorsprung -> Leistungsverlust von 3x%+.
Immer bedenken: Die XTPE hat einen deutlich hoeheren Fillratevorteil.
Wenn man nun bedenkt, dass diese 30% irgendwie verpuffern, wo liegt dann die Pro zu GT?
Original geschrieben von Gast
Na ja, es sind aber auch keine 30% - 50%. Vielleicht grob über den Daumen gepeilt und für deinen Bsp. 10% - 15% im Schnitt. Aber trotzdem gilt: siehe Gast vor mir.
OT: Holla, meine Rechtschreibung ist aber wieder mal mies. Und dann zitier ich mich auch noch selber. Na ja, Spaß muss sein.
Meiner einer ist glücklich, dass ich D3 wahrscheinlich auch mit meiner R9800Pro in High Details und 1024 flüssig spielen kann (wenn es in Heavy-Szenes nicht zu massiven Slowdowns kommt!).
Finde es aber auch interessant das ATI schon den 8.05er bereitgestellt hat, vielleicht ist ja mal ein ID-Mitarbeiter so nett und stellt diesen zum Download bereit. Revanche muss sein.
knallebumm
2004-07-22, 19:08:20
gibts schon irgendwo gf4 benches?
Original geschrieben von LovesuckZ
30% Coretaktvorteil = 0% Vorsprung -> Leistungsverlust von 3x%+.
Immer bedenken: Die XTPE hat einen deutlich hoeheren Fillratevorteil.
Wenn man nun bedenkt, dass diese 30% irgendwie verpuffern, wo liegt dann die Pro zu GT?
Beziehst du dich jetzt auf deine Bsp. oder auf Doom3.
Wenn ersteres der Fall ist: Ich habe grob die GT zur Pro gemessen. War auch nur ganz grob und mit blinzeln beim Diagonalrechnen.
Wenn zweites der Fall ist, dann sehe ich auch eine starke Diskrepanz zwischen Pro und GT. Für mich ich ist der Takt hierbei nicht ausschlaggebend, sondern der Preis beider Karten zur Leistung. Woran dies liegt mag ich nicht beurteilen. Ein Pro-Besitzer wird sicherlich hoffen: am Treiber.
Kane02
2004-07-22, 19:20:50
Original geschrieben von handyman
gibts schon irgendwo gf4 benches?
Würde mich auch interessieren, damit ich weiss, ob ich wieder aufrüsten muss ;D
Kane02
Original geschrieben von Kane02
Würde mich auch interessieren, damit ich weiss, ob ich wieder aufrüsten muss ;D
Kane02 Lt. [H] kann man bereits mit 'ner GF3 die Doom3-"Experience" haben. Mit einer GF4 müsste es dann noch besser sein als nur gerade mal so die Doom3-Experience zu kriegen.
LovesuckZ
2004-07-22, 19:38:36
Original geschrieben von Gast
Beziehst du dich jetzt auf deine Bsp. oder auf Doom3.
Doom3 zeigt doch nur, sehr extrem, wie stark Nvidia bzw. schwach ATi unter OpenGL ist.
Deswegen sind die Ergebnisse nicht verwunderlich, da sie sich durch fast alle anderen OpenGL Vergleiche ziehen.
mapel110
2004-07-22, 19:52:58
Original geschrieben von LovesuckZ
Doom3 zeigt doch nur, sehr extrem, wie stark Nvidia bzw. schwach ATi unter OpenGL ist.
Deswegen sind die Ergebnisse nicht verwunderlich, da sie sich durch fast alle anderen OpenGL Vergleiche ziehen.
IMO zeigt Doom3 eher eine Stencil-Shadow-Schwäche bei ATI oder andersrum eine solche Stärke bei Nvidia und sonst nix weiter.
p.s. leider kann man bei doom3 keine schatten abstellen :freak:, dann könnte mans genauer untersuchen.
LovesuckZ
2004-07-22, 20:00:04
Original geschrieben von mapel110
IMO zeigt Doom3 eher eine Stencil-Shadow-Schwäche bei ATI oder andersrum eine solche Stärke bei Nvidia und sonst nix weiter.
p.s. leider kann man bei doom3 keine schatten abstellen :freak:, dann könnte mans genauer untersuchen.
Das kommt dazu, wobei dies mit AA nicht so extrem sein sollte.
ecodriver
2004-07-22, 20:01:26
Nachdem ich mich hier mal durgearbeitet habe,vermute ich
das es bei den x800 wohl am programmierbaren Speicherkontroller +OGL-Treiber liegt. Das sie vermutlich immer etwas langsamer sein werden war zu erwarten aber so stark(x800pro)? Ich denke es liegt da noch was im argen,denn wenn nicht müsste die x800pro auch unter Direct3D langsamer sein. Und vermutlich hatte NV mehr Zeit ihren Treiber auf D3 zu optimieren als ATI.
Insgesamt nichts worüber man sich aufregen muss den die Zeit wirds zeigen =).
Gruß ecodriver
Jesus
2004-07-22, 20:03:13
Original geschrieben von aths
Würde rthdribl NV40-Features nutzen, wäre es Welten schneller. Gerade bei "HDR" (eigentlich MDR) IBL hat der NV40 gegenüber R420 extreme Vorteile.
rthdribl nutzt auch keine R420 "features" ;)
Hiro Hiroshi
2004-07-22, 20:03:57
Original geschrieben von mapel110
IMO zeigt Doom3 eher eine Stencil-Shadow-Schwäche bei ATI oder andersrum eine solche Stärke bei Nvidia und sonst nix weiter.
p.s. leider kann man bei doom3 keine schatten abstellen :freak:, dann könnte mans genauer untersuchen.
Woher weißt du das man bei Doom³ die Schatten nicht abstellen kann?
perforierer
2004-07-22, 20:10:23
Original geschrieben von Hiro Hiroshi
Woher weißt du das man bei Doom³ die Schatten nicht abstellen kann?
Weil es ein Key Feature ist?
reunion
2004-07-22, 20:11:40
Original geschrieben von Hiro Hiroshi
Woher weißt du das man bei Doom³ die Schatten nicht abstellen kann?
Hat John Carmack mal verkündet...
ecodriver
2004-07-22, 20:18:21
@aths das NV40 MDR gut kann ist klar. Werden die Schatten in D3 auf den neuen (NV40/R420) immer mit FP16 berechnet und auf den Vorgängern mit FX8 ?
gruß ecodriver
Original geschrieben von Jesus
rthdribl nutzt auch keine R420 "features" ;)
Besonders gut passende Texturformate und Rendertargets?
Original geschrieben von betareverse
Tja, wenn das die Meinung der Moderation ist, tut es mir leid.
Ich habe es schon oft geschrieben, ihr bekommt es einfach nicht hin den Fanboys nen Maulkorb zu verpassen und die Threads somit lesbar zu halten. Wenn ich dann schon hier solche Diskussionen lese, wo darüber gerstritten wird, ob HardOCP auf ATIs Seite ist, etc., dann wird mir schlecht. Und es sind immer wieder die gleichen Personen, die ihre Flames im Gewand der Sachlichkeit verstecken.
Wenn sich das nicht ändert werde ich diese Forum endgültig als Reg verlassen!
korrekt !
Vorallem da einige Mods hier ja auch extreme pro NV sind ( ich habe noch keinen gesehen der pro ATI war )... dann sollte es keinen wundern dass gegen die anderen Fanboy Basher wie Aths, Quasar, und Lovesucks nichts getan wird.
Aber glücklicherweise hat ja jetzt noch ein anderer Mod eingegriffen und für etwas mehr disziplin gesorgt.
Imo sollte es verboten werden solche Unwahrheiten wie sie z.b. Aths verbreitet zu posten ( was eindeutig flaming ist ), die er nur durch sein persönliches technisches Verständnis von der Hardware rechtfertigt, obgleich sie den meisten Benchmarks ( stichwort Shaderperformance z.b.) widersprechen !
Btw. die einzig neutrale und Kompetente person ist imo Demirug ;) gefolgt von tb :P
Jesus
2004-07-22, 20:38:21
Original geschrieben von q@e
Besonders gut passende Texturformate und Rendertargets?
was denn R8G8B8 ? Wird doch recht häufig verwendet, also hat NV da immer nen nachteil ? ;)
Ich meine damit der Benchmark wurde nicht an den R420 angepasst ( kein SM 2.0b ... mehr register, 3dc was weiss ich ;) ) den gabs schon lange vorher.
tombman
2004-07-22, 20:52:30
Unter Aufsicht von ATI und Nvidia soll der bench also abgelaufen sein?
Und? Heißt genau gar nix.
ATI ist da einfach "blind" mit dem neuesten Treiber erschienen den sie hatten und hat gehofft, daß carmack nicht zu sehr shit gebaut hat -- tjo, hat er aber offensichtlich ;)
Nvidia wußte ja, daß ihr Treiber schon lang genau für solche Situationen wie Doom3 optimiert ist, deshalb brauchten die da auch nicht so lang zittern, daß was schief geht...
Ich jedenfalls glaub gar nix, bis nicht ATi 1 oder 2 Monate Zeit hat ihre Treiber und Optimierungen an Doom3 anzupassen, genauso wie Nvidia auch ewig Zeit hatte das zu tun.
Mich würde es ned wundern wenn die 6800ultra die x800xtpe vielleicht um 10% schlägt, aber wenn eine 50% langsamere 6800GT (520/350) eine X800XTPE um 15% schlägt (sind zusammen schon 65% Unterschied??? wtf??)fangen die Alarmglocken an zu läuten ...
dildo4u
2004-07-22, 20:57:53
@tombman dann wart mal 1-2monate ick zocks dafür in 1-2tagen durch und zwar sofort wenn es raus ist *g* Ausserdem hat ATI regelmäßig Betas von ID bekommen wo von sie eine vermasselt haben den die ist im internet gelandet am besten Doom3 läuft zu strafe überhaupt nich auf ATI karten *eg*
tombman, ich bin ziemlich ati-lastig, aber was sich der ATI-Dev-Support in den vergangenen Monaten/Jahren geleistet hat wenn es um die Doom3-Engine ging, war lt. einigen Leuten bei id und anderen Lizenznehmern der Engine beinahe nicht mehr zu ertragen. Zeitweise wollte man bei ATI nichts von der Doom3-Engine wissen und setzte komplett auf das HL2-Projekt.
Da gab es wohl noch mehr Unstimmigkeiten hinter den Kulissen. Dennoch: Alle Hintergründe zu dem Fall werden binnen kürzester Zeit geklärt sein.
IC-Burn
2004-07-22, 21:14:41
@tombman
Nur weil es jetzt auf Ati Karte ne so Leuft wie auf den Geforce Karten soll Carmack shit gebaut haben :asshole:
Da hat Ati wohl mehr shit gebaut :D
Jesus
2004-07-22, 21:22:14
naja ATI kümmert sich (leider) anscheinend weniger gern um "Aussenseiter" wie OpenGL und Linux ;)
von 64bit mal abgesehen, da sind sie top ;)
tombman
2004-07-22, 21:30:10
Original geschrieben von Kai
tombman, ich bin ziemlich ati-lastig, aber was sich der ATI-Dev-Support in den vergangenen Monaten/Jahren geleistet hat wenn es um die Doom3-Engine ging, war lt. einigen Leuten bei id und anderen Lizenznehmern der Engine beinahe nicht mehr zu ertragen. Zeitweise wollte man bei ATI nichts von der Doom3-Engine wissen und setzte komplett auf das HL2-Projekt.
Da gab es wohl noch mehr Unstimmigkeiten hinter den Kulissen. Dennoch: Alle Hintergründe zu dem Fall werden binnen kürzester Zeit geklärt sein.
ich danke dir für diese Aufklärung... damit ist wohl klar, daß es nicht an der hardware von ATI liegt :D
UnreaL
2004-07-22, 22:10:22
Original geschrieben von tombman
Unter Aufsicht von ATI und Nvidia soll der bench also abgelaufen sein?
Und? Heißt genau gar nix.
ATI ist da einfach "blind" mit dem neuesten Treiber erschienen den sie hatten und hat gehofft, daß carmack nicht zu sehr shit gebaut hat -- tjo, hat er aber offensichtlich ;)
Nvidia wußte ja, daß ihr Treiber schon lang genau für solche Situationen wie Doom3 optimiert ist, deshalb brauchten die da auch nicht so lang zittern, daß was schief geht...
Ich jedenfalls glaub gar nix, bis nicht ATi 1 oder 2 Monate Zeit hat ihre Treiber und Optimierungen an Doom3 anzupassen, genauso wie Nvidia auch ewig Zeit hatte das zu tun.
Mich würde es ned wundern wenn die 6800ultra die x800xtpe vielleicht um 10% schlägt, aber wenn eine 50% langsamere 6800GT (520/350) eine X800XTPE um 15% schlägt (sind zusammen schon 65% Unterschied??? wtf??)fangen die Alarmglocken an zu läuten ...
was ist daran so schlimm 65% unterschied?
weil der test nicht von dir kam?
ich sag nur ut2004
ati 80% schneller (mega LOL)
das zum thema FANs @ jesus?:)
same here
tombman
2004-07-22, 22:15:47
Original geschrieben von UnreaL
was ist daran so schlimm 65% unterschied?
weil der test nicht von dir kam?
ich sag nur ut2004
ati 80% schneller (mega LOL)
das zum thema FANs @ jesus?:)
same here
meine UT2004 Tests sind aber von niemandem angezweifelt worden, denn es handelt sich hier offenbar um eine Schwäche der NV40 AA Methode beim scan out...
Der Nvidia geht der SPeicher aus bei 1600x1200 4xAA/16xAF und "heavy content".
UnreaL
2004-07-22, 22:18:58
Original geschrieben von tombman
meine UT2004 Tests sind aber von niemandem angezweifelt worden, denn es handelt sich hier offenbar um eine Schwäche der NV40 AA Methode beim scan out...
Der Nvidia geht der SPeicher aus bei 1600x1200 4xAA/16xAF und "heavy content".
wieso kommen solche tests nicht von "echten" testern?
sind die anderen alle nur zu bleed zum benchen oder warum?
versteh ich net
tombman
2004-07-22, 22:20:59
Original geschrieben von UnreaL
wieso kommen solche tests nicht von "echten" testern?
sind die anderen alle nur zu bleed zum benchen oder warum?
versteh ich net
weil "echte" Tester nicht die Zeit und den Willen haben durch alle maps zu rennen mit einem Auge auf dem fraps counter- deshalb.
Icetomb map ist ned gerade die beliebteste Bench.map. Sie frißt aber normalerweise hardware zum Frühstück...
Wenn ich was benche, dann nicht die "leichten" Sachen, sondern fast ausschließlich worst case Szenarien, denn da scheidet sich die Spreu vom Weizen.
Bei DOOM3 werd ich sicher wieder ein bischen rumrennen und schauen wo "schwere" Stellen und Gegenden sind und dort dann wieder screenshots posten...
UnreaL
2004-07-22, 22:21:42
re
es ist ja auch möglich das so eine art zubenchen vielleicht auch sinnlos ist?
da dies im real live nicht spuerbar oder gar sehbar sei
ich kenn die demo net (hab auch kein UT)
aber glauben kann ich sowas einfach net
is fuer mich nen unding.
naja schoen abend noch
Jesus
2004-07-22, 22:22:15
Original geschrieben von UnreaL
das zum thema FANs @ jesus?:)
same here
eh ? :)
UnreaL
2004-07-22, 22:28:08
Original geschrieben von tombman
Wenn ich was benche, dann nicht die "leichten" Sachen, sondern fast ausschließlich worst case Szenarien, denn da scheidet sich die Spreu vom Weizen.
aber genau solche worst case Szenarien sind mit sicherheit auch fuer NV zufinden
was soll das dann fuer ein sinn machen die Art zubenchen
byby
Original geschrieben von ecodriver
@aths das NV40 MDR gut kann ist klar. Werden die Schatten in D3 auf den neuen (NV40/R420) immer mit FP16 berechnet und auf den Vorgängern mit FX8 ?
gruß ecodriver
Die Schatten werden mit 8bit Stencil berechnet, hier spielt die PS-Präzision gar keine Rolle. Und natürlich mit FP32-Präzision in CPU und VS für die Geometrie.
Original geschrieben von Jesus
was denn R8G8B8 ? Wird doch recht häufig verwendet, also hat NV da immer nen nachteil ? ;)
Ich meine damit der Benchmark wurde nicht an den R420 angepasst ( kein SM 2.0b ... mehr register, 3dc was weiss ich ;) ) den gabs schon lange vorher.
rthdribl nutzt standardmäßig ein FP16-RGBA-Format, was sowohl R300 und R420 als auch NV40 unterstützen. Nur NV30 nicht. Der NV40 kann aber auch filtern und blenden, was nicht genutzt wird. 3Dc könnte angesichts der heftigen Performanceeinbrüche beim Aktivieren der Normal Maps etwas bringen, ps_2_b wohl nicht.
R8G8B8 wird übrigens praktisch nie verwendet ;)
Jesus
2004-07-22, 22:39:43
Original geschrieben von Xmas
R8G8B8 wird übrigens praktisch nie verwendet ;)
ok dann eben mit a8 ;)
tombman
2004-07-22, 22:42:39
Original geschrieben von UnreaL
aber genau solche worst case Szenarien sind mit sicherheit auch fuer NV zufinden
was soll das dann fuer ein sinn machen die Art zubenchen
byby
Das mag rein theoretisch stimmen, im Praxisspielalltag hab ich aber noch ned erlebt, daß unterschiedliche Karten auf höhere Spiellast unterschiedlich reagieren. Wenn in der Szene einfach viel los dann gehen beide Karten mit den fps nach unten, is ja auch logisch.
Btw, auch wenn du es ned glaubst: die ganze icetomb map rennt praktisch auf x800 fast doppelt so schnell wie auf 6800 Serie, ned nur eine einzelne Gegend. Sonst hätte ich es ja nicht veröffentlicht. Ut2004 rennt einfach generell auf x800 viel besser als auf 6800.
Es könnte ja sein, daß Doom3 wirklich auch in meinen Tests bei 6800 viel besser rennt, dann werde ich das aber auch zeigen. Ich glaub eben mir selbst immer noch 10mal mehr als einem "gekauften" carmack.
Original geschrieben von Kai
tombman, ich bin ziemlich ati-lastig, aber was sich der ATI-Dev-Support in den vergangenen Monaten/Jahren geleistet hat wenn es um die Doom3-Engine ging, war lt. einigen Leuten bei id und anderen Lizenznehmern der Engine beinahe nicht mehr zu ertragen. Zeitweise wollte man bei ATI nichts von der Doom3-Engine wissen und setzte komplett auf das HL2-Projekt.
Da gab es wohl noch mehr Unstimmigkeiten hinter den Kulissen. Dennoch: Alle Hintergründe zu dem Fall werden binnen kürzester Zeit geklärt sein.
Sorry für die Dumme Frage, aber da bin ich gar nicht auf dem laufenden. Was ging denn da ab? Kann man das irgendwo nachlesen?
mapel110
2004-07-22, 23:37:04
Original geschrieben von Gast
Sorry für die Dumme Frage, aber da bin ich gar nicht auf dem laufenden. Was ging denn da ab? Kann man das irgendwo nachlesen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=42047
fast die ganze story. :)
klaus
2004-07-22, 23:52:35
Original geschrieben von tombman
ATI ist da einfach "blind" mit dem neuesten Treiber erschienen den sie hatten und hat gehofft, daß carmack nicht zu sehr shit gebaut hat -- tjo, hat er aber offensichtlich ;)
Ich jedenfalls glaub gar nix, bis nicht ATi 1 oder 2 Monate Zeit hat ihre Treiber und Optimierungen an Doom3 anzupassen, genauso wie Nvidia auch ewig Zeit hatte das zu tun.
Mich würde es ned wundern wenn die 6800ultra die x800xtpe vielleicht um 10% schlägt, aber wenn eine 50% langsamere 6800GT (520/350) eine X800XTPE um 15% schlägt (sind zusammen schon 65% Unterschied??? wtf??)fangen die Alarmglocken an zu läuten ...
Genau das denke ich auch; irgendwie ist dieser benchmark ein schlechter Witz! Denn wie sollte man insbesondere das Abschneiden der X800XT PE gegenüber der 6800GT auch schlüssig erklären können?
Was soll's, wen interessiert schon so ein stupides "hässliche-Zombies-plätten-ohne-Ende"-Spielchen, wenn man Perlen wie Far Cry, Half-life 2 oder Stalker spielen kann...?
tokugawa
2004-07-22, 23:58:35
Original geschrieben von tombman
Das mag rein theoretisch stimmen, im Praxisspielalltag hab ich aber noch ned erlebt, daß unterschiedliche Karten auf höhere Spiellast unterschiedlich reagieren. Wenn in der Szene einfach viel los dann gehen beide Karten mit den fps nach unten, is ja auch logisch.
Btw, auch wenn du es ned glaubst: die ganze icetomb map rennt praktisch auf x800 fast doppelt so schnell wie auf 6800 Serie, ned nur eine einzelne Gegend. Sonst hätte ich es ja nicht veröffentlicht. Ut2004 rennt einfach generell auf x800 viel besser als auf 6800.
Es könnte ja sein, daß Doom3 wirklich auch in meinen Tests bei 6800 viel besser rennt, dann werde ich das aber auch zeigen. Ich glaub eben mir selbst immer noch 10mal mehr als einem "gekauften" carmack.
Das ist eine Unterstellung.
Ich persönlich würde da eher die technische Kompetenz betrachten, und dem glauben, der mehr Kompetenz besitzt.
Wie jemand anders hier bereits gesagt hat, Demirug wäre so eine Person, dessen technischer Kompetenz man wohl soweit trauen darf, dass man ihm glauben kann.
Original geschrieben von klaus
Genau das denke ich auch; irgendwie ist dieser benchmark ein schlechter Witz! Denn wie sollte man insbesondere das Abschneiden der X800XT PE gegenüber der 6800GT auch schlüssig erklären können?
16 pipes vs. 12 pipes wären für mich als 0815-Grafikkarten-Kenner schon einmal ein Grund. Wie gesagt, ich hab ne X800pro in meinem Rechner und bin kein Fanboy ;)
edit: Sorry, hab mich verlesen, dachte du meintest die X800pro. Naja, der Vorteil der 6800GT liegt wohl dann doch im UltraShadow II, was auch immer das sein mag.
Original geschrieben von klaus
Was soll's, wen interessiert schon so ein stupides "hässliche-Zombies-plätten-ohne-Ende"-Spielchen, wenn man Perlen wie Far Cry, Half-life 2 oder Stalker spielen kann...?
Wenn da mal jemand den Zug nicht verpasst hat ;)
tokugawa
2004-07-23, 00:04:18
Original geschrieben von klaus
Genau das denke ich auch; irgendwie ist dieser benchmark ein schlechter Witz! Denn wie sollte man insbesondere das Abschneiden der X800XT PE gegenüber der 6800GT auch schlüssig erklären können?
Was soll's, wen interessiert schon so ein stupides "hässliche-Zombies-plätten-ohne-Ende"-Spielchen, wenn man Perlen wie Far Cry, Half-life 2 oder Stalker spielen kann...?
Aha, du kannst also schon Half-Life 2 und Stalker spielen.
Schön für dich, fühl dich als etwas besonderes :)
Ich freu mich persönlich schon auf Doom 3, aber ich hab meine Zweifel, ob dessen Gruselinhalt auch nur einigermaßen an Thief: Deadly Shadows rankommt (Kenner wissen welchen speziellen Level ich meine :D)... aber wenn es das tut, bin ich froh.
Painkiller hat ja auch versucht, gruselig zu sein, mir kams dann aber dann irgendwie stupide vor... dauernd irgendwelche Zombies die einfach in Massen reinstürmen, das kann zwar Spaß machen (sh. Serious Sam), aber gruselig ist eher ein gut eingesetztes Fehlen von jeglichen Monstern wie in Thief 3...
Naja, trotzdem, ich hoff dass Doom 3 mir jene Schauer über den Rücken jagen kann, die ich in Thief 3 schon gehabt hab... Far Cry dagegen mag ich nicht.
nggalai
2004-07-23, 00:10:44
Original geschrieben von ecodriver
Werden die Schatten in D3 auf den neuen (NV40/R420) immer mit FP16 berechnet und auf den Vorgängern mit FX8 ?Nope. Und was hat das mit MDR/HDR zu tun?
/edit: Mist, Xmas war schneller. :D
93,
-Sascha.rb
nggalai
2004-07-23, 00:12:55
Original geschrieben von Gast
Sorry für die Dumme Frage, aber da bin ich gar nicht auf dem laufenden. Was ging denn da ab? Kann man das irgendwo nachlesen? Öffentlich kaum. Da musst Du schon auf die Entwickler/Designer hören oder nachfragen. Aber kleiner Gedankenanstoss: Weshalb hat ATI bei unserem Dev-Rel-Interview (http://www.3dcenter.org/artikel/2004/06-30_a.php) unter den vielen vielen Spielen und Publishern id und DooM3 nicht erwähnt?
93,
-Sascha.rb
klaus
2004-07-23, 00:50:40
Original geschrieben von Kai
Naja, der Vorteil der 6800GT liegt wohl dann doch im UltraShadow II, was auch immer das sein mag.
Du willst wohl die id-Leute im schlechte Witze machen noch übertreffen? Na ja, Du schreibst es ja selbst schon: "...was auch immer das sein mag".
Original geschrieben von Kai
Wenn da mal jemand den Zug nicht verpasst hat ;)
Hmm, da hast Du Recht; den "Doom3-muss-geil-sein-weil's-jeder-kennt-hype"-Zug habe ich verpasst.
Original geschrieben von tokugawa
Aha, du kannst also schon Half-Life 2 und Stalker spielen.
Schön für dich, fühl dich als etwas besonderes :)
Schade, solch sinnloses Geschwafel ist man von Dir sonst gar nicht gewohnt. Da Du offenbar Probleme beim Erfassen von Texten hast, lege ich ganz speziell nur Dir ans Herz, Dich mal über die Bedeutung und den Gebrauch des Wortes "wenn" in der deutschen Sprache zu informieren.
Original geschrieben von tokugawa
Ich freu mich persönlich schon auf Doom 3, aber ich hab meine Zweifel, ob dessen Gruselinhalt auch nur einigermaßen an Thief: Deadly Shadows rankommt (Kenner wissen welchen speziellen Level ich meine :D)... aber wenn es das tut, bin ich froh.
Painkiller hat ja auch versucht, gruselig zu sein, mir kams dann aber dann irgendwie stupide vor... dauernd irgendwelche Zombies die einfach in Massen reinstürmen, das kann zwar Spaß machen (sh. Serious Sam), aber gruselig ist eher ein gut eingesetztes Fehlen von jeglichen Monstern wie in Thief 3...
Naja, trotzdem, ich hoff dass Doom 3 mir jene Schauer über den Rücken jagen kann, die ich in Thief 3 schon gehabt hab... Far Cry dagegen mag ich nicht.
Vom Gruselfaktor war bei den von mir genannten Spielen überhaupt keine Rede! Ich bezog mich auf den innovativen Spielinhalt und -elemente. Und Ihr wollt doch wohl nicht allen Ernstes behaupten, dass ein Doom auch nur ansatzweise in dieser Hinsicht den von mir genannten Titeln das Wasser reichen kann?
Wenn Ihr nur so scharf auf Doom 3 seid, weil Ihr Grusel für ein so erstrebenswertes Gefühl haltet, dann empfehle ich Euch stattdessen, allein einen nächtlichen Spaziergang bei Neumond durch einen Wald zu machen. Das ist garantiert gruseliger.
Original geschrieben von klaus
Wenn Ihr nur so scharf auf Doom 3 seid, weil Ihr Grusel für ein so erstrebenswertes Gefühl haltet, dann empfehle ich Euch stattdessen, allein einen nächtlichen Spaziergang bei Neumond durch einen Wald zu machen. Das ist garantiert gruseliger.
Im Wald spazieren gehen ist ziemlich langweilig! :bäh:
Doom3 wird was ganz anderes werden, nämlich 10 mal so extrem wie ein nächtlicher Waldspaziergang. Im Wald gibts kein Grusel- sound/musik, kein geschreie/gegröle, kein geballer, keine Totenköpfe, kein Blut usw. Wenn das nicht Gruselig ist, dann weiss ich auch nicht mehr weiter :)
Wieso denkst du eigentlich so negativ über Doom3? Der erste & zweite Teil waren schon sehr gut. Kennst du die überhaupt?
Naja egal, jeder hat eben nen anderen Geschmack und deiner ist wohl nicht Doom. Ich finde z.B. Rollenspiele schlecht, die du vielleicht wieder gut findest. So ist es eben! =)
Mfg kiss
Korak
2004-07-23, 01:21:29
Original geschrieben von klaus
Du willst wohl die id-Leute im schlechte Witze machen noch übertreffen? Na ja, Du schreibst es ja selbst schon: "...was auch immer das sein mag".
Hmm, da hast Du Recht; den "Doom3-muss-geil-sein-weil's-jeder-kennt-hype"-Zug habe ich verpasst.
Schade, solch sinnloses Geschwafel ist man von Dir sonst gar nicht gewohnt. Da Du offenbar Probleme beim Erfassen von Texten hast, lege ich ganz speziell nur Dir ans Herz, Dich mal über die Bedeutung und den Gebrauch des Wortes "wenn" in der deutschen Sprache zu informieren.
Vom Gruselfaktor war bei den von mir genannten Spielen überhaupt keine Rede! Ich bezog mich auf den innovativen Spielinhalt und -elemente. Und Ihr wollt doch wohl nicht allen Ernstes behaupten, dass ein Doom auch nur ansatzweise in dieser Hinsicht den von mir genannten Titeln das Wasser reichen kann?
Wenn Ihr nur so scharf auf Doom 3 seid, weil Ihr Grusel für ein so erstrebenswertes Gefühl haltet, dann empfehle ich Euch stattdessen, allein einen nächtlichen Spaziergang bei Neumond durch einen Wald zu machen. Das ist garantiert gruseliger.
Ich rate dir, dass du dir einen angemessenen Umgangston angewöhnst.
Da Du offenbar Probleme beim Erfassen von Texten hast, lege ich ganz speziell nur Dir ans Herz, Dich mal über die Bedeutung und den Gebrauch des Wortes "wenn" in der deutschen Sprache zu informieren.
Ich würde vorschlagen du lässt dir die möglichen Bedeutungen deines Satzes nochmal durch den Kopf gehen.
tombman
2004-07-23, 01:35:15
ALso vom spielerischen her kann ich mir ned vorstellen, daß Doom3 sooo toll sein wird. Das einzige feature was D3 hat ist die Schattentechnik, und nicht mal die ist neu - siehe tenebrae quake 1 mod. Dazu noch low poligone world mit kleinen Räumen und wenig Figuren... naja.
Stalker ist jetzt schon in allen Bereichen D3 überlegen. (ja, auch im Schattenbereich- siehe 160mb 13min in-game Video)
Aber wie gut oder schlecht D3 ist ist ned das Thema. Es geht eher darum warum ATI so unproportional schlecht abschneiden kann...
@Gurus: kann mir mal einer erklären welche features man in eine engine einbauen muß, daß ATI so abkackt? Oder ist das was einfach nur "unabsichtlich" kontra ATI geprogged worden?
tokugawa
2004-07-23, 01:42:58
Original geschrieben von klaus
Schade, solch sinnloses Geschwafel ist man von Dir sonst gar nicht gewohnt. Da Du offenbar Probleme beim Erfassen von Texten hast, lege ich ganz speziell nur Dir ans Herz, Dich mal über die Bedeutung und den Gebrauch des Wortes "wenn" in der deutschen Sprache zu informieren.
Du sagtest "wen interessiert schon so ein stupides "hässliche-Zombies-plätten-ohne-Ende"-Spielchen, wenn man Perlen wie Far Cry, Half-life 2 oder Stalker spielen kann...?". Überleg dir vielleicht nochmal den Satz gründlich. Ich denke nicht, dass ich einen Fehler diesbezüglich gemacht hab. Vielleicht hab ich's nicht in der Art, wie du es gemeint hast, aufgefaßt, aber dennoch in einer Art interpretiert, die linguistisch valide ist.
Danke allerdings für die Lorbeeren :D
EDIT: du hast es wohl auf die Zukunft bezogen, ich auf die Gegenwart ("wenn" allein hat ja keine Zeit, sondern bezieht die Zeit vom umlegenden Kontext). Du meintest eher "wen wird es interessieren, wenn man X spielen kann". Ich interpretierte es wortwörtlich "wen interessiert es (mit jetzt-Bedeutung), wenn man X spielen kann". Ich bin der deutschen Sprache also durchaus mächtig, wie ich finde.
Original geschrieben von klaus
Vom Gruselfaktor war bei den von mir genannten Spielen überhaupt keine Rede! Ich bezog mich auf den innovativen Spielinhalt und -elemente. Und Ihr wollt doch wohl nicht allen Ernstes behaupten, dass ein Doom auch nur ansatzweise in dieser Hinsicht den von mir genannten Titeln das Wasser reichen kann?
Naja, so richtig innovativ fand ich auch Far Cry nicht, und ich stimme dir zu: von Doom 3 erwart ich mir auch keine Gameplay-Innovationen.
Da ist mir Thief 3 lieber: ist zwar auch nicht mehr innovativ, aber immerhin stammt es vom Genre-Begründer ab.
Original geschrieben von klaus
Wenn Ihr nur so scharf auf Doom 3 seid, weil Ihr Grusel für ein so erstrebenswertes Gefühl haltet, dann empfehle ich Euch stattdessen, allein einen nächtlichen Spaziergang bei Neumond durch einen Wald zu machen. Das ist garantiert gruseliger.
Ich fänd das eher romantisch :D
Mit Grusel mein ich die Atmosphäre, die Thief 3 im Shalebridge Cradle Level perfekt umgesetzt hat: mit Hilfe der Notizen die rumlagen, mit Hilfe der nicht-existenten Gegner (obwohl man jederzeit welche erwartete), und die generell bedrückende Stimmung. Aber ich will nicht zuviel verraten. Eine Suche nach "Shalebridge Cradle" in Google scheint zu belegen, dass ich nicht der einzige war, der diesen Level für ziemlich spitze hielt. Auch Penny-Arcade fand - wie ich finde - ziemlich passende Worte zu Thief 3: http://www.penny-arcade.com/news.php3?date=2004-6-14
Und genau das will ich auch in Doom 3 haben.
tokugawa
2004-07-23, 01:45:16
Original geschrieben von tombman
ALso vom spielerischen her kann ich mir ned vorstellen, daß Doom3 sooo toll sein wird. Das einzige feature was D3 hat ist die Schattentechnik, und nicht mal die ist neu - siehe tenebrae quake 1 mod. Dazu noch low poligone world mit kleinen Räumen und wenig Figuren... naja.
Stalker ist jetzt schon in allen Bereichen D3 überlegen. (ja, auch im Schattenbereich- siehe 160mb 13min in-game Video)
Was für Schatten-Algorithmen verwendet Stalker?
Original geschrieben von tombman
Aber wie gut oder schlecht D3 ist ist ned das Thema. Es geht eher darum warum ATI so unproportional schlecht abschneiden kann...
@Gurus: kann mir mal einer erklären welche features man in eine engine einbauen muß, daß ATI so abkackt? Oder ist das was einfach nur "unabsichtlich" kontra ATI geprogged worden?
Eher unabsichtlich denk ich. Wie gesagt, ich vermute, dass die UltraShadow Extensions sowie die Z Write Vorteile hier einfach den Ausschlag gegeben haben. Und wie aths erwähnte, dass die NV40 quasi für die Dinge, die Doom 3 benötigt, designt wurde (wobei das sicher auch anderen Spielen mit derselben Shadow Volume Technik zugute kommt).
Ich glaube also nicht, dass ATI hier "abkackt" oder schlecht dasteht, sondern nur, dass es nur außergewöhnlich gut auf NVIDIA rennt.
tombman
2004-07-23, 02:07:33
Original geschrieben von tokugawa
Was für Schatten-Algorithmen verwendet Stalker?
Woher soll ich das wissen? Jedenfalls schauts besser als bei Doom3 aus..
edit: hab mich geirrt, die offizielle VErsion ist sogar noch größer... suche in google nach stalkere3presentation.zip 384mb ;)
Dort siehst du wahre gaming power ;)
betasilie
2004-07-23, 02:51:14
Original geschrieben von tombman
Woher soll ich das wissen? Jedenfalls schauts besser als bei Doom3 aus..
Nun, STALKER aber auch ein Projekt von NV. Ich würde mich nicht wundern, wenn die 6800Ultra Karten auch da wieder leichte Vorteile haben wird, wie bei DoomIII.
tombman
2004-07-23, 03:20:42
Original geschrieben von betareverse
Nun, STALKER aber auch ein Projekt von NV. Ich würde mich nicht wundern, wenn die 6800Ultra Karten auch da wieder leichte Vorteile haben wird, wie bei DoomIII.
Far Cry is auch ein Projekt von NV... trotzdem is ATI schneller.
Und stalker hat mit far cry viel mehr gemein als mit D3, da es viele Poligone pro frame hat und große Sichtweite usw...
Hi,
also ich verstehe nicht das man sich auf einen Hersteller so festlegen kann. Ich sag mal so ohne Ati hätte Nvidia das Monopol sprich höhere Preise "langsamere Enticklung" genauso wie z.B. Microsoft mit Windoff usw. genauso wäre es wenn Ati der einzige Hersteller wär. Mir persönlich ist es sch... egal ob ne Ultra schneller ist als ne XT oder umgekehrt. Die Hauptsache ist das es nicht ruckelt und das tut es mit keiner von den getesteten Karten bei DIII.
Mfg
S2
seahawk
2004-07-23, 07:25:22
Ich verstehe wider die ganze Diskussion nicht. DoomIII ist ein Spiel unter hunderten. Ist es schlimm wenn eineGrafikkarte da mal (ausnahmsweise) hinter den Mitbewerber zurück fällt. Ist halt die Ausnahme, die die Regel bestätigt.
Die einzig spannende Frage ist die Performance der X800PRO.Treiberbug, oder ernstes Problem?? Oder geschickte gewähltes Timedemo??
Ich dneke erst unabhängige Tests werden die Wahrheit an Licht bringen.
Marodeur
2004-07-23, 08:21:54
Original geschrieben von seahawk
Ich verstehe wider die ganze Diskussion nicht. DoomIII ist ein Spiel unter hunderten. Ist es schlimm wenn eineGrafikkarte da mal (ausnahmsweise) hinter den Mitbewerber zurück fällt. Ist halt die Ausnahme, die die Regel bestätigt.
Schön wäre es aber leider schauts halt anders aus.
Zum einen ist die Nachfrage nach Doom 3 ungeheuer groß, dürfte wohl eines (wenn nicht sogar DAS) der meistverkauften Spiele dieses Jahr werden.
Zum anderen werden viele weitere Spiele auf genau dieser Engine basieren was somit bedeutet das in einer unbekannten Anzahl (welche bestimmt nicht zu klein ist) weiterer Spiele die X800Pro ebenfalls ... ich sags mal umgangssprachlich.... "unter aller Sau performt".
Noch dazu kann man davon ausgehen das wie bei Quake 3 die weiteren Spiele noch mehr aus der Engine herausholen womit die Performance der x800Pro langsam kritisch wird.
ravage
2004-07-23, 08:31:35
Ich denke mal, dass die ATi Karten bei Doom 3 nicht sonderlich schlecht, oder unerwartet Performen. Der Unterschied von der Pro zur XT ist nicht unnormal gross. Der Unterschied zur vorherigen Generation (9800XT etc.) wird sicher auch nicht unnormal klein ausfallen.
Der Punkt ist einfach (wie hier schon öfter mal geschrieben, aber immer überlesen wurde), dass der NV40 so speziell an die Anforderungen von Doom 3 angepasst wurde.
Klartext: ATi ist nicht unnormal langsam. NV ist einfach nur unnormal schnell.
Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2045785#post2045785) der Link in dem aths dies schon andeutete.
seahawk
2004-07-23, 08:40:24
Ach die DoomIII engine ist durch die Schattespiele schon relativ limitiert in ihren Anwendungsmöglichkeiten, ob die genauso populär wird wie die alte Quake-Engine bleibt abzuwarten.
Man muss halt sehen, dass DOOMIII das Spiel für die GeForces ist. Da kommt ihnen alles entgegen. Es hat imho kaum Aussagekraft über die Frage welche Karte in Zukunft die bessere Lösung ist.
Original geschrieben von tombman
Far Cry is auch ein Projekt von NV... trotzdem is ATI schneller.
Schlichtweg falsch. Ati und nV haben Crytek bei der Entwicklung/Anpassung ihrer Engine geholfen (siehe Interview http://www.3dcenter.org/artikel/2004/06-30_a.php). Aber du scheintst das öfters zu übersehen...
Original geschrieben von Jesus
rthdribl nutzt auch keine R420 "features" ;) R420 hat ja auch kaum Features, die rthdribl nützen.
Demirug
2004-07-23, 08:44:14
Original geschrieben von seahawk
Ach die DoomIII engine ist durch die Schattespiele schon relativ limitiert in ihren Anwendungsmöglichkeiten, ob die genauso populär wird wie die alte Quake-Engine bleibt abzuwarten.
AFAIK kann die Engine inzwischen ein paar Dinge mehr die von D3 aber gar nicht genutzt werden. Um diese Erweiterungen einzubauen musste JC aber Kartenspezfischen Pfade fallen lassen und all diese Karten auf ARB2 zwingen.
Demirug
2004-07-23, 08:47:36
Original geschrieben von tombman
@Gurus: kann mir mal einer erklären welche features man in eine engine einbauen muß, daß ATI so abkackt? Oder ist das was einfach nur "unabsichtlich" kontra ATI geprogged worden?
Da mir jemand diese Bezeichnung verpasst hat fühle ich mich jetzt mal genötigt was zu schreiben. Ich haben einen Verdacht warum das ganze auf den Radeons so in die Knie geht. Allerdings fehlen mir gerade meine Archmark Ergebnisse vom NV40 mit und ohne AA. Sobald ich die wieder aufgetrieben habe gibt es die Details.
Original geschrieben von tombman
Unter Aufsicht von ATI und Nvidia soll der bench also abgelaufen sein?
Und? Heißt genau gar nix.
ATI ist da einfach "blind" mit dem neuesten Treiber erschienen den sie hatten und hat gehofft, daß carmack nicht zu sehr shit gebaut hat -- tjo, hat er aber offensichtlich ;)JC hat sorgfältig auch auf ATI-HW optimiert. Der Nachteil für ATI ist, dass die Radeons spezielle Techniken, die JC braucht, nicht speziell unterstützen. Beim NV40 gibts "Doom3-Features" als Bonus (trotz des geringeren Taktes sollte z. B. eine 6800 U in HL2 nicht langsamer als eine X800 XT sein.)
Dass Doom3 einige der technischen Fortschrittlichkeit des NV40 in Performance umsetzt, während das andere Spiele nicht tun, ist kein Wunder. JC wusste frühzeitig bescheid, was NV30, NV35 und NV40 können. Cry Tek hat offenbar allgemeine Probleme, effiziente Shader zu schreiben. JC hätte sehr gerne auch speziell auf Radeon optimiert – wenn die Chips denn Schaltkreise hätten, die ihm speziell nutzen würden ... seine Optimierungen können nur das aus der HW rausholen, was drin steckt. X800 hat kein Ultra Shadow zur Entlastung der Vertexshader, kein Object Instancing (wobei ich nicht weiß, ob Doom3 das überhaupt nutzt, jedenfalls würde das die CPU entlasten), weniger flexible Shader (wodurch einige Effekte mehr Takte brauchen) und weniger effiziente Shader (was wiederum heißt, dass einige Berechnungen länger dauern.) Ohne dass es bislang bewiesen ist, legen verschiedene Beobachtungsergebnisse die Vermutung nahe, dass der Memory Controller der X800 nicht so gut ist wie der vom NV40. Das kann hier und da noch mal einige Takte kosten.
Doom3 wurde nicht "kontra ATI" geproggt. NV40 ist technisch weiter, was hier zum Ausdruck kommt. Nicht mehr, nicht weniger.
aaaaaab2
2004-07-23, 09:26:38
Lasst euch doch nich so beunruhigen.
Das ist doch blos ein Bench bei dem NV so "Stark" ist.
Wenn man die Karten in punkto leistung vergleicht, mit anderen Spielen, sieht das ganz anders aus. Da is dann die x800pro der Meister.
Außerdem: Es dauert mindestens wieder 2 Jahre bis die Nächsten guten Spiele mit D3 Engine da sind und bis dahin werden die Treiber schon so gut optiemiert sein dass die Engine auch auf ATI Karten flutscht. Außerdem git es dann schon wieder neue Karten.
Also es ist noch alles offen
Original geschrieben von Marodeur
Zum anderen werden viele weitere Spiele auf genau dieser Engine basieren was somit bedeutet das in einer unbekannten Anzahl (welche bestimmt nicht zu klein ist) weiterer Spiele die X800Pro ebenfalls ... ich sags mal umgangssprachlich.... "unter aller Sau performt".
Wenn diese Spiele erscheinen, hat sicher keiner der aktuellen X800pro Besitzer diese Karte mehr. Nicht weil sie Schrott ist, sondern im Rahmen der jährlichen Aufrüstung schon "zu alt". Ich kauf 1x im Jahr ne neue Karte und wenn die Zeiträume der VÖ neuer Chips so wie bisher weitergehen, werd ich Mitte 2005 wieder ne neue Karte haben. Und frühestens dann werden weitere Spiele mit D3 Engine erscheinen. Bis dahin mach ich mir keine Sorgen um meine X800pro. 1 Spiel von hundert performt mies, na und.
aaaaaab2
2004-07-23, 09:50:04
aber wer kauft sich schon jedes jahr für 400 Euro ne neue Graka
Hab meine TI 4200 schon seit 1 1/2 Jahren
aaaaaab2
2004-07-23, 10:03:42
man muss aber noch bedenken dass diese Testergebnisse auf einem 3,6 Ghz PC zustande gekommen sind. wass is dann wohl mit herkömmlichen 2,8 oder 3,0 Ghz
Es ziehen grosse Gewitter Wolken auf über dem Land des Manitu
Sagen wir mal so,wenn eine neue Generation d.h 9700pro auf X800 xt erscheint kaufen sehr viele die Beste oder zweit beste Karte.
Und das ist kein Jahr her
Cenmocay
dildo4u
2004-07-23, 10:12:50
Original geschrieben von aaaaaab2
man muss aber noch bedenken dass diese Testergebnisse auf einem 3,6 Ghz PC zustande gekommen sind. wass is dann wohl mit herkömmlichen 2,8 oder 3,0 Ghz
Es ziehen grosse Gewitter Wolken auf über dem Land des Manitu http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2044644#post2044644
nggalai
2004-07-23, 10:24:39
Original geschrieben von tombman
@Gurus: kann mir mal einer erklären welche features man in eine engine einbauen muß, daß ATI so abkackt? Oder ist das was einfach nur "unabsichtlich" kontra ATI geprogged worden? Andersrum--welche Features unterstützt ATI nicht, dass DooM3 nicht besser läuft? Das hat nix mit absichtlichem Ausbremsen zu tun; wie aths schon schrieb haben die neuen ATI-Karten einfach keine zusätzlichen Features, welche bei DooM3 ähnlich Ultrashadow helfen würden.
Soll heissen: der Performance-Vorteil auf NV40 ist ein Bonus, und NICHT die Performance bei ATI ein Malus.
93,
-Sascha.rb
Hallo,
wartet mal ab,wenn das Spiel drausen ist und ATI einen neuen Treiber hat,sind die Karten gleich auf.(Selbes Spiel hat man doch schon bei Far Cry gesehen ,nur anders herum)
Schaut euch den Artikel im Forum zu ATI`s 3DC an,daran sieht man das ATI nicht im Rückstand zwecks Features ist (SM3),die machen nur nicht so ein großen Wirbel daraus.
mfg
perforierer
2004-07-23, 10:53:14
Original geschrieben von S2
Hi,
also ich verstehe nicht das man sich auf einen Hersteller so festlegen kann. Ich sag mal so ohne Ati hätte Nvidia das Monopol sprich höhere Preise "langsamere Enticklung" genauso wie z.B. Microsoft mit Windoff usw. genauso wäre es wenn Ati der einzige Hersteller wär. Mir persönlich ist es sch... egal ob ne Ultra schneller ist als ne XT oder umgekehrt. Die Hauptsache ist das es nicht ruckelt und das tut es mit keiner von den getesteten Karten bei DIII.
Mfg
S2
S2, genau das ist der Punkt. Verstehe diesen Fanlobbyismus auch nicht.
Denke aber, so wie wir sehen es viele. Zu Wort melden sich aber meist nur die Hardcorefans einer Seite, was die Diskussionen um neue Chips und Benchmarks immer sehr, sehr ermüdend macht!
Original geschrieben von Gast
Hallo,
wartet mal ab,wenn das Spiel drausen ist und ATI einen neuen Treiber hat,sind die Karten gleich auf.(Selbes Spiel hat man doch schon bei Far Cry gesehen ,nur anders herum)
Schaut euch den Artikel im Forum zu ATI`s 3DC an,daran sieht man das ATI nicht im Rückstand zwecks Features ist (SM3),die machen nur nicht so ein großen Wirbel daraus.
mfg
Natuerlich ist ATi feature-maessig im Rueckstand, selbst gegenueber einem NV3x sind die ATi Chips rueckstaendig.
perforierer
2004-07-23, 10:58:45
@aths: Vielleicht könnte man es ja auch so ausdrücken:
Doom3-Engine hat eine Architektur, die etwas ausergewöhnlich, weil anders als die bisherigen ist, und die einfach besser zu den GeForce 6 passt.
Mit Bösartigkeit von id hat das nix zu tun. Ich denke, mit der Generation nach den x800 wird sich der Performanceunterschied ohnehin wieder nivellieren.
Umgekehrt ist es ja gut möglich, dass die x800 in diversen D3D Spielen besser performt. Mal sehen, wie es in HL2 aussehen wird...
seahawk
2004-07-23, 11:07:10
Hmm, bei HL2 bin ich da nicht sicher. Es gibt Gerüchte, das auch dort die GeForce besser performt. Allerdings habe ich Zweifel, dass es im Endprodukt auch so sein wird.
Original geschrieben von seahawk
Hmm, bei HL2 bin ich da nicht sicher. Es gibt Gerüchte, das auch dort die GeForce besser performt. Allerdings habe ich Zweifel, dass es im Endprodukt auch so sein wird.
In allen aktuellen DX9 games ist ATI grad mir AA/AF schneller und das wird bei HL2 auch so sein.
Original geschrieben von Gast
In allen aktuellen DX9 games ist ATI grad mir AA/AF schneller und das wird bei HL2 auch so sein.
Oh...ein Hellseher....:eyes:
Ich habe ausserdem so meine Zweifel, dass ATi bei der Bildqualitaet wie NVidia sie liefern kann noch schneller als NVidia ist.
arcanum
2004-07-23, 11:43:23
die diskussion, die hier abläuft ist geradezu lächerlich. die eine seite versinkt in euphorie über die "grandiosen" benchmarkergebnisse, während die andere seite nix besseres zu tun hat, irgend jemanden betrug zu unterstellen und alles schlecht zu reden und was nicht von ihrem lieblingshersteller kommt.
ich habe zwar auch meine "favoriten", jedoch weiss ich nicht über welche kommentare ich mich hier zuerst aufregen soll. und wenn ich gebrauch von der ignore funktion machen würde, sähe ich wahrscheinlich gar keinen kontext mehr in der ganzen diskussion.
"ist doch schliesslich nur ein einziges spiel, es kommen doch noch soooo viele geile games raus die viel besser sind und auf einer ati 1000x schneller laufen werden"
es geht hier nunmal um doom3. wem das nicht passt, kann nen extra thread aufmachen in dem die uberperformance von ati karten in far cry verglichen, analysiert und gelobt wird :tröst:. wen das auch nicht glücklich macht, sollte bei dem schönen wetter vielleicht ein wenig nach draussen gehen und sonne tanken.
ist zwar ein wenig OT, aber ich hoffe dass die mods trotzdem ein wenig verständnis für meinen beitrag zeigen, da ich mit großer wahrscheinlichkeit nicht der einzige bin, der so denkt.
dildo4u
2004-07-23, 11:47:01
Original geschrieben von Jesus
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2016837#post2016837
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2048700#post2048700
Meine GT is bei manchen shadern sogar schneller als VoodooJacks X800XT und meine karte war whol deutlich billiger
Stebs
2004-07-23, 12:04:21
Ich geh mal davon aus dass spätestens zum Erscheinen von Doom3 bei 3dCenter ein Artikel darüber erscheint? =)
Kleine Anregung dazu: Analog zu den Artikeln über Geforce 6800/Radeon X800 wo es einen 2. Technikartikel auch über die neuesten DirektX9-Features gab:
Bitte bitte schreibt mal einen Hintergrundartikel über OpenGL, z.B. wie das ungefähr abläuft mit ARB2 in Doom3 und auf welchem Techniklevel sich das ganze bewegt (also Vergleiche mit DirectX9 damit man sich was darunter vorstellen kann - auch wenn solche Vergleiche strenggenommen falsch/unmöglich sind).
Dann noch was über OpenGL 2.0 und was damit möglich ist und evtl. auch noch Treibervergleiche Ati/Nvidia, welche OpenGL-Extensions darin schon "freigeschalten" sind etc.
Fast jede Hardware-Site hat schon Artikel über DirectX9 - PS3/VS3 gebracht aber gute Artikel über OpenGL sind selten, über OpenGL für Spiele unter Linux noch seltener ;)
Naja es gab ja nach der Quake3-Engine nicht so viel neues auf dem Sektor, aber nun...
Für alle X800Pro-Besitzer gibts noch ein :troest2:
Naja nichts wird so heiss gegessen wie es gekocht wird...
reunion
2004-07-23, 12:05:47
Original geschrieben von ow
Ich habe ausserdem so meine Zweifel, dass ATi bei der Bildqualitaet wie NVidia sie liefern kann noch schneller als NVidia ist.
Dann lies den CB Test.
seahawk
2004-07-23, 12:15:31
„The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering.” (John Carmack)
nur mal als Zitat zu den DOOMIII Benchmarks
deekey777
2004-07-23, 12:22:31
Original geschrieben von seahawk
„The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering.” (John Carmack)
nur mal als Zitat zu den DOOMIII Benchmarks
"...This has been a chronic issue for years, and almost all vendors have been guilty of it at one time or another. I hate the idea of drivers analyzing texture data and changing parameters, but it doesn't visibly impact the quality of the game unless you know exactly what to look for on a specific texture."
Ich wollte nur das Zitat fortsetzen.
Cenmocay
2004-07-23, 12:23:05
Original geschrieben von Stebs
Für alle X800Pro-Besitzer gibts noch ein :troest2:
Naja nichts wird so heiss gegessen wie es gekocht wird...
Für mich ist die x800Pro nur zum Übergang,wenn die schnelle XT verfügbar ist wird gewechselt.
Original geschrieben von seahawk
„The benchmarking was conducted on-site, and the hardware vendors did not have access to the demo before hand, so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering.” (John Carmack)
nur mal als Zitat zu den DOOMIII Benchmarks
Auwei....dann sind die schlechteren ATi Ergebnisse auch noch ercheatet worden, so dass die Performance-Differenz bei vergleichbarer Qualitaet gar noch groesser wird.
Cenmocay
2004-07-23, 12:42:32
Original geschrieben von ow
Auwei....dann sind die schlechteren ATi Ergebnisse auch noch ercheatet worden, so dass die Performance-Differenz bei vergleichbarer Qualitaet gar noch groesser wird.
Muß dieses dumme Fangelaber immer sein
9800ProZwerg
2004-07-23, 12:43:43
Mal ne andere Frage:
Unter welchen Soundeinstellungen haben die bei [H] gebencht?
Das würde mich mal interesseieren!
Demirug
2004-07-23, 12:46:20
Wenn ich mir so einige der Beiträge hat ATI jetzt auch seinen magischen Wundertreiber der alles besser und schneller macht.
Wenn meine Theorien zu DOOM III (welche zu grössten Teil auf Aussagen von JC aufbauen) stimmen dann ist das bei ATI kein Treiberproblem sondern eine Hardwarebegrenzung im Z/Stencil Teil des Chips.
Zudem sehe ich in Form von "GL_NVX_conditional_render" einen weiteren zukünfigten Vorteil für nVidia wenn ATI nichts gleichwertiges bringen kann. JC baut ja immer gerne alles ein was im einen Vorteil verspricht. Da die Extension noch Experimentel ist wird sie aber wahrscheinlich derzeit noch nicht genutzt.
Original geschrieben von Cenmocay
Muß dieses dumme Fangelaber immer sein
Es ist kein dummes Fangelaber, es ist nur die Wahrheit die du nicht ertragen kannst.
Original geschrieben von Cenmocay
Für mich ist die x800Pro nur zum Übergang,wenn die schnelle XT verfügbar ist wird gewechselt.
Du machst bei der ganzen Sache einen riesigen Verlust, ist dir das klar? :)
Mfg kiss
Cenmocay
2004-07-23, 12:50:21
Original geschrieben von kiss
Es ist kein dummes Fangelaber, es ist nur die Wahrheit die du nicht ertragen kannst.
Mfg kiss
Kannst du auch vernünftig reden,billige Sprüche nerven nur.
Verlust ich verkauf die X800Pro zum Neupreis und lege dann das Fehlende drauf
Hierfür gibts einen Punkt, Cenmocay.
Hatstick
2004-07-23, 12:51:58
Bestimmt kann kein ATI User Doom III zocken.vielleicht noch mit 640x480 aber dann denke ich wird Schluß sein wenn man hier so manchen hört.
Ob DOOM III jetzt 10-20% schneller läuft mit nvidia Karten ist mir sowas von Schei*****.
Man kann sich auch über jedes bisschen aufregen.Trotzdem wird man auch mit ATI Karten ab der der 9700Pro mit Sicherheit richtig gut zocken können.
Würde mir da überhaupt keine Gedanken machen weil id mit Sicherheit so viele Doom III Exemplare verkaufen will und das auch an ATI User.
Immer dieses Gebrabbel.Kann ich echt net verstehen!
Cenmocay
2004-07-23, 12:59:27
Original geschrieben von Hatstick
Bestimmt kann kein ATI User Doom III zocken.vielleicht noch mit 640x480 aber dann denke ich wird Schluß sein wenn man hier so manchen hört.
Ob DOOM III jetzt 10-20% schneller läuft mit nvidia Karten ist mir sowas von Schei*****.
Man kann sich auch über jedes bisschen aufregen.Trotzdem wird man auch mit ATI Karten ab der der 9700Pro mit Sicherheit richtig gut zocken können.
Würde mir da überhaupt keine Gedanken machen weil id mit Sicherheit so viele Doom III Exemplare verkaufen will und das auch an ATI User.
Immer dieses Gebrabbel.Kann ich echt net verstehen!
danke
außerdem ist das nur ein review von einer nvpro seite in anderen reviews wird doom3 ganz anders laufen
in 1024 4xaa 8xaf ist die x800xt nur 5 fps langsamer,das ist nichts
in 1600 mit aa/af ist es garnicht spielbar denn 40fps durchschnitt ist mies
das ist nur eine timedemo beim richtigen spielen kostet es viel mehr leistung
arcanum
2004-07-23, 13:01:40
Original geschrieben von Cenmocay
außerdem ist das nur ein review von einer nvpro seite in anderen reviews wird doom3 ganz anders laufen
quelle?
edit: dir ist schon klar, dass die benchmarks mit einer final bei id software, unter answesenheit von ati und nvidia durchgeführt wurden? (bevor hier wieder von beschiss geredet wird)
Gast mat
2004-07-23, 13:04:13
Original geschrieben von ow
Oh...ein Hellseher....:eyes:
Ich habe ausserdem so meine Zweifel, dass ATi bei der Bildqualitaet wie NVidia sie liefern kann noch schneller als NVidia ist.
Ich bin ziemlich sicher, dass bei HL2 beide Produkte ordentlich laufen werden. Auch auf den FX'en wird es anständig laufen (müssen), so bescheuert kann eine Softwareschmiede gar nicht sein.
Von Überlegenheit zu sprechen ist ja wohl eh daneben, wenn man mal vom schlechten Abschneiden der X800pro in D3 absieht. Warum auch immer das so ist.
Nun kommen auch immer wieder dieselben Antworten à la 6800er und tolle Features etc etc. War bisher immer so, dass neue Karten neue Features anboten, welche kurz vorm Tausch der Graka allenfalls in 1-2 Spielen ansatzweise zu sehen waren (und wenn, dann ausnahmslos mit grauslicher Peformance).
Mir wärs lieber, die Programmierer würden sich wieder etwas back to the roots begeben, in die Zeit also, als man noch etwas sinnvoller mit den Ressourcen umgehen musste und erstmal das vollständig ausnutzen, was auch vorhanden war (bzw ist).
Far Cry beispielsweise hätte von Anfang an so laufen können wie jetzt, auch wenn das noch etwas mehr Zeit in Anspruch genommen hätte.
Bei D00M3 laufen die Geforces schon sehr gut, die Radeons noch nicht besonders. Und wenn ein Carmack (im übertragenen Sinne) sagt, dass er ATI "hasst", so spricht das nicht gerade für ihn, auch wenn er ein genialer Enginecoder ist. Das eine muss das andere ja nicht unbedingt einschliessen....(wers versteht).
beleidigung entfernt. p.s. "oh ein Hellseher" ist auch nicht die gerade feine Englische, ow. Lass das!
Man muss ab und an mal unsere 3D Gurus zitieren, weil scheinbar gewisse Leute nicht in der Lage sind, das zu lesen.
-->
Original geschrieben von Demirug
bei ATI kein Treiberproblem sondern eine Hardwarebegrenzung im Z/Stencil Teil des Chips.
Zudem sehe ich in Form von "GL_NVX_conditional_render" einen weiteren zukünfigten Vorteil für nVidia wenn ATI nichts gleichwertiges bringen kann. JC baut ja immer gerne alles ein was im einen Vorteil verspricht. Da die Extension noch Experimentel ist wird sie aber wahrscheinlich derzeit noch nicht genutzt.
LovesuckZ
2004-07-23, 13:13:36
http://media.corporate-ir.net/media_files/NSD/NVDA/presentations/Doom3_Benchmarks.pdf
Beyond3d.com (http://www.beyond3d.com/forum/viewtopic.php?p=330243#330243)
Hatstick
2004-07-23, 13:19:35
Doom III wird mit Sicherheit schneller laufen als auf eine ATI.
Marketing und auch nVidia Unterstützung während der Entwicklung lassen grüßen aber bei einem anderen Hardwarefresser werden dann mal wieder die ATI die Nase vorn haben.Das wird es immer geben und ich habe da auch überhaupt kein Problem mit.
Wie gesagt letzlich will die Firma so viele Exemplare wie möglich verkaufen und dann es sich keine Firma leisten eine Firma extrem zu unterstützen.
Maximal mal ein paar Frames mehr wie jhetzt in Doom III aber ganz ehrlich:Wayne interessierts?
Original geschrieben von LovesuckZ
http://media.corporate-ir.net/media_files/NSD/NVDA/presentations/Doom3_Benchmarks.pdf
Beyond3d.com (http://www.beyond3d.com/forum/viewtopic.php?p=330243#330243)
In dem pdf wird ziemlich deutlich, dass der Vorsprung der NV40 mit 4xAA größer ist als ohne AA. Erklärungen?
LovesuckZ
2004-07-23, 13:23:34
Original geschrieben von Cenmocay
in 1024 4xaa 8xaf ist die x800xt nur 5 fps langsamer,das ist nichts
Wo kann man denn eine X800XT kaufen? Zur Zeit wohl nur getarnt als X800Pro ViVo.
Und wenn die X800XT mit einem Fillratevorteil von ca. 45% genau mit diesen Wert vor einer Pro liegt, aber nur gleichauf mit einer 6800GT, meinst du nicht, dass die Aussage "das ist nichts" vollkommen falsch ist und sogar falsche Hoffnungen fuer diese X800Pro User weckt?
John Porno
2004-07-23, 13:23:48
Original geschrieben von Cenmocay
das ist nur eine timedemo beim richtigen spielen kostet es viel mehr leistung
Hallo!
Das wäre mir neu, dass ein Spiel mehr Leistung kostet als das dazuhehörige timedemo. Ich meine bei Quake 3 zb. kostet das timedemo mehr Leistung als das Spiel selber. Wenn ich mich irren sollte bitte ich um Aufklährung.
Mfg Heigl Raimund
StefanV
2004-07-23, 13:25:57
Original geschrieben von ow
Ich habe ausserdem so meine Zweifel, dass ATi bei der Bildqualitaet wie NVidia sie liefern kann noch schneller als NVidia ist.
Original geschrieben von ow
Auwei....dann sind die schlechteren ATi Ergebnisse auch noch ercheatet worden, so dass die Performance-Differenz bei vergleichbarer Qualitaet gar noch groesser wird.
Hast du für deine Behauptungen auch Belege??
Denn bisher spricht eher mehr gegen deine Behauptungen als dafür. :eyes:
perforierer
2004-07-23, 13:27:49
Schon sehr interessant die Auflistungen in den .pdfs. Würde mich mal interessieren, wer das so zusammengestellt hat. Klingt von der Sprache und vom Stil her nach einer Marketingagentur, die von nVidia kommt. Von der Art der Präsentation und der Sprache her mein ich...
Speziell für Flamer, die darin gleich wieder eine Pro-ATI Einstellung vermmuten (leider muss man das in diesem Forum ja immer dazuschreiben):
Nicht, dass ich damit die Ergebnisse an sich anzweifeln will!
LovesuckZ
2004-07-23, 13:30:24
Original geschrieben von perforierer
Schon sehr interessant die Auflistungen in den .pdfs. Würde mich mal interessieren, wer das so zusammengestellt hat. Klingt von der Sprache und vom Stil her nach einer Marketingagentur, die von nVidia kommt. Von der Art der Präsentation und der Sprache her mein ich...
Wenn ein in der rechten oberen Ecke ein nvidiasymbol prangert, dann wird es wohl von Nvidia kommen :)
seahawk
2004-07-23, 13:31:09
Hellbinder
Senior Member
Joined: 08 Feb 2002
Posts: 1031
Posted: Fri Jul 23, 2004 10:26 am Post subject:
--------------------------------------------------------------------------------
Enough with the Drivers.
Ati performance is very good considering the CONSIDERABLE advantages Carmack has given Nvidia.
1. Ati Runs the full percision ARB2
2. Nvidia uses the Nv30 path thats been merged with the ARB2. Meaning a lot of the _pp(OpenGL style) and whatever else was in there.
3. Carmack is using CG.. For which Nvidia as you know has an advantage with its proprietary back end/compiler.
4. Nvidia has ultrashadow.
When you consider all that, ATi is holding up pretty well. I love how some are now tossing 25% around becuase it makes it SOUND like its a much bigger deal. Actually the average is between 7-10 FPS. Which when you are talking in game play is hardly going to be that big a deal.
Still Nvidia has the lead. Which is expected.
(note i am not making accusations about percisions.. just pointing out that the cart is definitely attached to Nvidias horse on this one as far as advantages go)
perforierer
2004-07-23, 13:33:27
Jo Seahawik...nettes Zitat ...fasst eigentlich alles zusammen, was es zu den Benches zu sagen gibt! :)
dildo4u
2004-07-23, 13:35:16
Original geschrieben von perforierer
Jo Seahawik...nettes Zitat ...fasst eigentlich alles zusammen, was es zu den Benches zu sagen gibt! :) Jo und so extrem aktuell :kratz:
Winter[Raven]
2004-07-23, 13:36:03
Original geschrieben von Stefan Payne
Hast du für deine Behauptungen auch Belege??
Denn bisher spricht eher mehr gegen deine Behauptungen als dafür. :eyes:
Wer lesen kann ist ganz klar im VORTEIL, aber für dich nochmal :)
so we are confident that there is no egregious cheating going on, but it should be noted that some of the ATI cards did show a performance drop when colored mip levels were enabled, implying some fudging of the texture filtering.
seahawk
2004-07-23, 13:38:08
Original geschrieben von dildo4u
Jo und so extrem aktuell :kratz:
Von heute. Wobei der Hinweis auf PP wohl mit Vorsicht zu geniesen ist, da PP erstmal nichts Böses ist.
LovesuckZ
2004-07-23, 13:39:02
Original geschrieben von seahawk
Ati performance is very good considering the CONSIDERABLE advantages Carmack has given Nvidia.
"advantages Carmack has given Nvidia" resultieren daraus, dass ATi nicht die Funktionalitaet von Nvidia erreicht, ihr eigenes versagen.
"Ati performance is very good", sehen das auch die X800pro user, die kein garantieverlust in Kauf nehmen?
StefanV
2004-07-23, 13:39:58
Original geschrieben von Winter[Raven]
Wer lesen kann ist ganz klar im VORTEIL, aber für dich nochmal :)
Das ist nicht wirklich ein Beweis und kann viele Gründe haben, warum das so ist...
Man erinnere sich ja auch an die Detail Texturen von UT2003 bei ATI Karten :eyes:
Oder aber ein Treiberbug, der irgendwas verschluckt, sowas soll ja auch vorkommen :eyes:
PS: ich denke mal, daß ATi nicht so blöd ist und das absichtlich macht...
dildo4u
2004-07-23, 13:40:11
Original geschrieben von seahawk
Von heute. Wobei der Hinweis auf PP wohl mit Vorsicht zu geniesen ist, da PP erstmal nichts Böses ist.
Ich rede von der mail die du gepostet hast
StefanV
2004-07-23, 13:40:54
Original geschrieben von seahawk
Von heute. Wobei der Hinweis auf PP wohl mit Vorsicht zu geniesen ist, da PP erstmal nichts Böses ist.
Wenn man es viel zu häufig anwendet, dann ist es böse und führt dazu, daß die ATI Karten deutlich bessere Bilder liefern als die nV HW...
seahawk
2004-07-23, 13:44:34
@ dildo : Die ist von heute aus dem Beyond3D Forum
@ Stefan : Hast Du Beweise dafür, dass es BQ-Unterschiede in DOOMIII gibt? Wenn man ein Feature falsch anwendet, dann kann es natürlich auch Probleme bereiten.
Demirug
2004-07-23, 13:46:11
Original geschrieben von Stefan Payne
Das ist nicht wirklich ein Beweis und kann viele Gründe haben, warum das so ist...
Man erinnere sich ja auch an die Detail Texturen von UT2003 bei ATI Karten :eyes:
Oder aber ein Treiberbug, der irgendwas verschluckt, sowas soll ja auch vorkommen :eyes:
PS: ich denke mal, daß ATi nicht so blöd ist und das absichtlich macht...
Doch Stefan das ist Absicht. ATI hat es doch auch schon zugegeben das Texturen mit gefärbten Mipmaps immer mit vollem Trilinear gefiltert werden und deswegen eben mehr Performance brauchen. Müssen wir das jetzt schon wieder aufwärmen?
dildo4u
2004-07-23, 13:47:10
@seahawk sorry hab mit von den joined 2002 Im post erretieren lassen
nggalai
2004-07-23, 13:48:04
Original geschrieben von seahawk
Von heute. Wobei der Hinweis auf PP wohl mit Vorsicht zu geniesen ist, da PP erstmal nichts Böses ist. ... und Carmack verwendet kein Cg.
93,
-Sascha.rb
Demirug
2004-07-23, 13:50:42
Original geschrieben von Stefan Payne
Wenn man es viel zu häufig anwendet, dann ist es böse und führt dazu, daß die ATI Karten deutlich bessere Bilder liefern als die nV HW...
Die Menge ist unerheblich. Der Zweg ist entscheident. Solange man nur Farbwerte (die in der Regel aus 8Bit Texturen kommen) damit verrechnet ist FP16 ausreichend. Vorallem wenn der Framebuffer selbst nur 8 Bit hat. Texturekoordinaten würde ich aber nicht unbedingt damit berechnen. Ausser ich weiss das die entsprechende Texture relative klein ist.
Original geschrieben von nggalai
... und Carmack verwendet kein Cg.
93,
-Sascha.rb
Doom3 verwendet kein Cg. Zukünftige Spiele auf Basis der Engine vielleicht schon.
Original geschrieben von Stefan Payne
PS: ich denke mal, daß ATi nicht so blöd ist und das absichtlich macht...
Nein, da haben sich sicher ganz zufaellig ein paar Transistoren im Chiplayout verirrt und damit zufaellig eine Funktionalitaet ergeben, mit der man Bildqualitaet einsparen kann zugunsten der fps.
Absichtlich kann das ja gar nicht sein. :eyes:
tombman
2004-07-23, 15:17:18
Original geschrieben von ow
Nein, da haben sich sicher ganz zufaellig ein paar Transistoren im Chiplayout verirrt und damit zufaellig eine Funktionalitaet ergeben, mit der man Bildqualitaet einsparen kann zugunsten der fps.
Absichtlich kann das ja gar nicht sein. :eyes:
ja, es ist absichtlich, aber das ist GUT so. ist eben ein adaptiver af alghorythmus...
deekey777
2004-07-23, 15:20:05
Original geschrieben von seahawk
Von heute. Wobei der Hinweis auf PP wohl mit Vorsicht zu geniesen ist, da PP erstmal nichts Böses ist.
Eigentlich nicht, nur dachte ich, dass ARB2 nur FP einsetzt.
Schlimm ist es nicht, Frage: Nutzt(rechnet) die 6800er Serie auch (mit) PP?
Exxtreme
2004-07-23, 15:20:36
Original geschrieben von tombman
ja, es ist absichtlich, aber das ist GUT so. ist eben ein adaptiver af alghorythmus...
Da ist nix adaptiv. :) Ausser man sieht einen Eingefärbte-Mipmaps-Erkennungsalgorhythmus als Adaptivität an. Ich zumindest tue es nicht.
tombman
2004-07-23, 15:22:19
Original geschrieben von seahawk
Hellbinder
Senior Member
Joined: 08 Feb 2002
Posts: 1031
Posted: Fri Jul 23, 2004 10:26 am Post subject:
--------------------------------------------------------------------------------
Enough with the Drivers.
Ati performance is very good considering the CONSIDERABLE advantages Carmack has given Nvidia.
1. Ati Runs the full percision ARB2
2. Nvidia uses the Nv30 path thats been merged with the ARB2. Meaning a lot of the _pp(OpenGL style) and whatever else was in there.
3. Carmack is using CG.. For which Nvidia as you know has an advantage with its proprietary back end/compiler.
4. Nvidia has ultrashadow.
When you consider all that, ATi is holding up pretty well. I love how some are now tossing 25% around becuase it makes it SOUND like its a much bigger deal. Actually the average is between 7-10 FPS. Which when you are talking in game play is hardly going to be that big a deal.
Still Nvidia has the lead. Which is expected.
(note i am not making accusations about percisions.. just pointing out that the cart is definitely attached to Nvidias horse on this one as far as advantages go)
TOP QUOTE :D
sagt eh alles...
doom3 und 512mb grafikarten...
ende des jahres sollen sie kommen...
http://www.theinquirer.net/?article=17324
LovesuckZ
2004-07-23, 15:28:33
Original geschrieben von deekey777
Schlimm ist es nicht, Frage: Nutzt(rechnet) die 6800er Serie auch (mit) PP?
ich denke schon, dass der NV40 zum Groeßtenteil mit dem "NV30 Pfad" laufen wird.
Also wird er wahrscheinlich die selben Shader bekommen.
DanMan
2004-07-23, 15:36:49
Original geschrieben von deekey777
Eigentlich nicht, nur dachte ich, dass ARB2 nur FP einsetzt.
Schlimm ist es nicht, Frage: Nutzt(rechnet) die 6800er Serie auch (mit) PP?
Öhm... warum sollte sie das nicht tun/können?
An alle Kritiker: es geht hier um Doom3. Ist das so schwer anzuerkennen, dass die NV40-Serie hier aufgrund ihres technischen Vorsprungs endlich mal richtig punkten kann? Ich will hier garnicht mehr ins Detail gehen um nicht noch mehr Empörung im ATI-Lager hervorzurufen (womit ich mich nicht im NV Lager positioniert sehen will).
Nur so viel: haben die ATI Leute sich nicht bei der Veröffentlichung der neuen Karten darüber amüsiert, dass die x800-Serie trotz alter Technik schneller war als das NV-Pendant bei (derzeitig) aktuellen Spielen?
Für mich ist es schön zu wissen, dass ich nicht gezwungen werde meinen PC aufzurüsten, sondern nur auf hohe Details verzichten muss - dank JCs wunderbar skalierender Engine. So hab ich auch einen Grund später das Spiel nochmal auf einer neuen Killermaschine durchzuspielen. :D
nggalai
2004-07-23, 15:37:28
Original geschrieben von tombman
TOP QUOTE :D
sagt eh alles... Naja, schaun wir uns das mal an:
> Ati performance is very good considering the CONSIDERABLE advantages Carmack has given Nvidia.
Yup. Die Performance ist wirklich gut, egal ob jetzt Carmack da was mit NV gedreht hat oder nicht.
> 1. Ati Runs the full percision ARB2
Was heisst "full precision?"
> 2. Nvidia uses the Nv30 path thats been merged with the ARB2. Meaning a lot of the _pp(OpenGL style) and whatever else was in there.
Beweis?
> 3. Carmack is using CG.. For which Nvidia as you know has an advantage with its proprietary back end/compiler.
Carmack verwendet kein CG. DooM3 verwendet kein CG.
> 4. Nvidia has ultrashadow.
Ja. Nettes Feature für solche Engines.
Ich seh hier ehrlich gesagt nicht, was an der Quote "Top" sein soll. Behauptungen und Fehlaussagen.
93,
-Sascha.rb
Exxtreme
2004-07-23, 15:49:59
Sascha, der Quote ist von Hellbinder. :D Das braucht man gar nicht zu kommentieren. ;)
nggalai
2004-07-23, 15:51:17
Original geschrieben von Exxtreme
Sascha, der Quote ist von Hellbinder. :D Das braucht man gar nicht zu kommentieren. ;) Ich hab' mich auf B3D auch zurückgehalten, was Angesichts der Kommentare der Regs da auch nicht schwierig war. ;) Aber hier wurde die Quote schon ein paarmal erwähnt, ergo ...
Können wir uns nicht darauf einigen, dass DooM3 auf allen High-End Karten gut läuft und das so toll ist? Hmm?
93,
-Sascha.rb
Blutgrätsche
2004-07-23, 16:02:46
Original geschrieben von Gast
In dem pdf wird ziemlich deutlich, dass der Vorsprung der NV40 mit 4xAA größer ist als ohne AA. Erklärungen? Eine mögliche Erklärung (Spekulation): NVs Early-Z verwift mehr Pixel als ATIs Hyper-Z. Bei steigender Auflösung oder AA werden kleine Dreiecke grösser. Angenommen NV verwirft maximal 32 Pixel pro Takt und ATI nur 16 Pixel, dann braucht NV ggf. weiterhin nur einen Takt während ATI bereits 2 braucht. Also z.B. 8/32 (Sub-)Pixel entsprechend 1/4 AA.
Die Kernaussage des NV-PR-PDFs =) trifft das nachfolgende Bild ganz gut (leider so gross, weil sonst die Schrift unlesbar wird). Interessant ist auch, dass Ultra und Medium Quality (was auch immer das heissen mag) zwar getestet wurde, aber auf HardOCP davon nichts zu sehen ist.
http://img39.exs.cx/img39/9748/D3GT.jpg
Wahrhaft erstaunlich, wie hier die meisten abgehen, wie frisch eingeölte Zäpfchen.
Nun gibt es mal wieder einen Kracher in dem nV schneller zu sein scheint als ATi - vorher war ATi eben schneller im letzten Kracher namens Far Cry.
Wo ist denn eigentlich das Problem? Auch ohne Betrug, Bestechung und sonstige Skandale zu vermuten sollte es doch möglich sein, einzusehen, daß unterschiedliche Games eben unterschiedliche Schwerpunkte haben/setzen und damit auf unterschiedlichen Architekturen unterschiedlich gut laufen.
Weder ist es für ATi ein technischer K.O., wenn nV in Doom3 mal schneller ist, noch war es das für nV, wenn ATi in Far Cry schneller ist.
Manchmal kann man sich echt nur an den Kopp fassen... :bonk:
Für alle Klugshicer
- das ist nur ein einziger benchmark
-die seite ist immer pro NV
-wie kennen die timedemo nicht
-wartet auf 4-5 Test von guten seite dann könnt ihr den mund aufmachen
- in 1024 aa/af ist sie 5fps schneller in anderen tests wirds anders herum sein
nggalai
2004-07-23, 16:16:34
Zum etwa 100sten Mal:Original geschrieben von Gast
-die seite ist immer pro NV
Die Benchmarks wurden von id software geplant und durchgeführt. Nicht von [H].
93,
-Sascha.rb
Original geschrieben von nggalai
Zum etwa 100sten Mal:Die Benchmarks wurden von id software geplant und durchgeführt. Nicht von [H].
93,
-Sascha.rb
Noch schlimmer,dann warten wir mal auf reale benchmarks ala pcgames usw
Endorphine
2004-07-23, 16:23:31
Original geschrieben von Gast
Noch schlimmer,dann warten wir mal auf reale benchmarks ala pcgames usw Höh? Die Programmierer werden es sicher am besten wissen, welche Hardware mit ihrer Software wie performed. Du meinst ernsthaft, dass ein durchschnittlicher Reviewer, der noch keine Zeile Sourcecode des Programms gesehen hat das besser beurteilen kann?
Original geschrieben von Endorphine
Höh? Die Programmierer werden es sicher am besten wissen, welche Hardware mit ihrer Software wie performed. Du meinst ernsthaft, dass ein durchschnittlicher Reviewer, der noch keine Zeile Sourcecode des Programms gesehen hat das besser beurteilen kann?
psst JC bezieht ein Gehalt von NV und gehört dort zu den technischen beratern.
Ich warte auf 4-5 reviews von guten seiten und mache mir dann ein bild und nur so läufts
nggalai
2004-07-23, 16:29:21
Original geschrieben von Gast
psst JC bezieht ein Gehalt von NV und gehört dort zu den technischen beratern.
Ich warte auf 4-5 reviews von guten seiten und mache mir dann ein bild und nur so läufts psst fast alle guten Seiten verkaufen Anzeigen an Grafikkartenhersteller und/oder Gamepublisher und ziehen so auch Gehalt.
Ich persönlich schätze Reviews von den Entwicklern höher ein als von Spiele-Magazinen. Einfach, weil die Leute wissen, wie sie ein sinnvolles Timedemo zusammenschustern müssen, welches halbwegs repräsentativ für die durchschnittliche Spiele-Performance ist. Lieber sind mir jedoch Berichte von "echten" Endanwendern, i.e. Spielern.
93,
-Sascha.rb
reunion
2004-07-23, 16:33:43
Original geschrieben von LovesuckZ
"Ati performance is very good", sehen das auch die X800pro user, die kein garantieverlust in Kauf nehmen?
Warum nicht? Es ist ja nicht so das es auf einer X800pro unspielbar ist.
Original geschrieben von nggalai
psst fast alle guten Seiten verkaufen Anzeigen an Grafikkartenhersteller und/oder Gamepublisher und ziehen so auch Gehalt.
Ich persönlich schätze Reviews von den Entwicklern höher ein als von Spiele-Magazinen. Einfach, weil die Leute wissen, wie sie ein sinnvolles Timedemo zusammenschustern müssen, welches halbwegs repräsentativ für die durchschnittliche Spiele-Performance ist. Lieber sind mir jedoch Berichte von "echten" Endanwendern, i.e. Spielern.
93,
-Sascha.rb
1. darum ja auf unabhangige tests warten
2. haben sie eine timedemo genommen wo NV gut steht oder kennst du die demo
Süß wie die NV Fans krampfhaft ihre Karte vorn sehn wollen
nggalai
2004-07-23, 16:37:38
Original geschrieben von Gast
1. darum ja auf unabhangige tests warten
2. haben sie eine timedemo genommen wo NV gut steht oder kennst du die demo
Süß wie die NV Fans krampfhaft ihre Karte vorn sehn wollen 1) Was ist ein unabhängiger Test? Meiner Meinung nach höchstens einer von Spielern für Spieler. Sicher keiner eines online-Spiele-Magazins wie von dir vorgeschlagen.
2) Nein und eventuell. ;)
93,
-Sascha.rb
P.S. Ich fahr nur auf der Linux-Kiste NV. Alle anderen PCs bei uns im Büro haben ATI-Karten drin.rb
Endorphine
2004-07-23, 16:39:35
Original geschrieben von Gast
psst JC bezieht ein Gehalt von NV und gehört dort zu den technischen beratern.
Ich warte auf 4-5 reviews von guten seiten und mache mir dann ein bild und nur so läufts Auf Deutsch: du wartest auf Reviews, in denen ATI vorne liegt und dann übersiehst du alle anderen, die ein ähnliches Ergebnis bringen wie der Test von iD-Software. Sag' das doch gleich. :)
Manchen hier scheint es ja richtig körperliche Schmerzen zu bereiten, es sich einzugestehen, dass tatsächlich auch mal Software auf Hardware von nVidia besser läuft als auf Hardware made by ATI (obwohl dies schon seit über einem Jahr bekannt ist).
Ich bin mal gespannt, ob ähnliche Vorbehalte auch geäußert werden, wenn Benchmarks zur Finalversion von Half-Life 2 von Valve veröffentlicht werden. Irgendwie habe ich den Verdacht, dass dann alles vorbehaltlos als Fakt von kompetenter Seite hingenommen werden wird...
Original geschrieben von Gast
Für alle Klugshicer
1. das ist nur ein einziger benchmark
2. die seite ist immer pro NV
3. wie kennen die timedemo nicht
4. wartet auf 4-5 Test von guten seite dann könnt ihr den mund aufmachen
5. in 1024 aa/af ist sie 5fps schneller in anderen tests wirds anders herum sein
1. Echt???? Blitzgneißer...
2. Mal davon abgesehen, dass die Benches von id kommen, kennst du die Seite nicht, wenn du das glaubst.
3. sie ist von id zusammengestellt. das sollte reichen.
4. gute seiten? du meinst also, dass irgend ein hardwaremag kompetenter ist als die leute bei id?? Träumer..
5. Hellseher??
UnreaL
2004-07-23, 16:41:54
Original geschrieben von Gast
1. darum ja auf unabhangige tests warten
2. haben sie eine timedemo genommen wo NV gut steht oder kennst du die demo
Süß wie die NV Fans krampfhaft ihre Karte vorn sehn wollen
Süß wie die ATI Fans krampfhaft ihre Karte nicht hinten sehn wollen .
Blaire
2004-07-23, 16:52:44
Original geschrieben von UnreaL
Süß wie die ATI Fans krampfhaft ihre Karte nicht hinten sehn wollen .
Lesen und genießen. ;D
Jesus
2004-07-23, 17:01:40
Original geschrieben von Gast
2. haben sie eine timedemo genommen wo NV gut steht oder kennst du die demo
wäre durchaus möglich, ist ja auch nicht das erstemal ( siehe FC SM 3.0 benchmarks , dort unterstützten ja auch ATI und Nvidia die Entwickler, und trotzdem haben sie Demos genommen, die genau jene Stellen enthielten in denen der NV40 SM 3 pfad was bringt... ) Nur so eine vermutung ;)
Black-Scorpion
2004-07-23, 17:19:28
Original geschrieben von nggalai
1) Was ist ein unabhängiger Test? Meiner Meinung nach höchstens einer von Spielern für Spieler. Sicher keiner eines online-Spiele-Magazins wie von dir vorgeschlagen.
Z.B. ein Test von 3DCenter?
Es kann doch nicht wirklich einer sichr sein das der Test von id unabhängig ist.
Madkiller
2004-07-23, 17:20:45
Original geschrieben von UnreaL
Süß wie die ATI Fans krampfhaft ihre Karte nicht hinten sehn wollen .
Original geschrieben von Blaire
Lesen und genießen. ;D
Solche Postings tragen absolut nichts zum Thema bei, und sollen offensichtlich nur provozieren.
Die nächsten Postings dieser Art - nicht nur von euch beiden - werden als Spam und unnötige Provokation bepunktet.
Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.
Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046
UnreaL
2004-07-23, 17:41:49
Mad vergiss es einfach
gib gleich nen punkt :!
fuehlst dich angesprochen gell?
Och Madi hat ja ne ati ?:)
wieso loeschst dann net sowas?
Für alle Klugshicer
- das ist nur ein einziger benchmark
-die seite ist immer pro NV
-wie kennen die timedemo nicht
-wartet auf 4-5 Test von guten seite dann könnt ihr den mund aufmachen
- in 1024 aa/af ist sie 5fps schneller in anderen tests wirds anders herum sein
Das Ist Provokation
ps. Süß wie die ATI Fans krampfhaft ihre Karte nicht hinten sehn wollen . Das soll Provokation sein?
ps viel spass beim editen ROFL;D ;D
UnreaL
2004-07-23, 17:42:50
OT
ps. Als mod ganz klar ungeeignet
Karümel
2004-07-23, 17:53:54
Kommen nicht in den folgenden Tagen die ganzen neuen Ausgaben der Daddelmags raus, also Lamestar, PCGams und PCAction?
Wenn die Zeit gereicht hat und die in den Ausgaben schon DOOM III testen konnten, werden wohl da auch schon ein paar Angaben zu den HW-Anforderungen drin sein.
Major J
2004-07-23, 17:58:23
@ UnreaL
Du betreibst hier eine Provokation, die Flame-fördernd ist. Halte dich bitte zurück mit solchen haltlosen Vermutungen über Meinungen, anhand von Grafikkarten die hier manche besitzen (jetzt im Falle von Mad). Ich habe 3dfx, PowerVR , ATI und NV und sage dir, dass es jetzt langsam gut ist... es ist kein Argument einen wegen seiner Graka in eine Fanboy-Schublade zu stecken.
Punkte gibt es dafür folgendermaßen:
1 wegen Missachtung im ersten fall
3 wegen Missachtung im 2. fall
UnreaL
2004-07-23, 17:59:14
100 Punkte für Dummheit an Madkiller
Och schade das editierst soweiso :((
Madkiller
2004-07-23, 18:00:27
Original geschrieben von UnreaL
100 Punkte für Dummheit an Madkiller
Och schade das editierst soweiso :((
Nochmal 3 Punkte.
UnreaL
2004-07-23, 18:03:05
Mad langsam musst das dochmal verstehn
das die Punkte mir egal sind ?:))
sonst würd ich doch net nochmals was gegen unseren "Meister" was sagen.
also weiter machen :D
Original geschrieben von Karümel
Kommen nicht in den folgenden Tagen die ganzen neuen Ausgaben der Daddelmags raus, also Lamestar, PCGams und PCAction?
Wenn die Zeit gereicht hat und die in den Ausgaben schon DOOM III testen konnten, werden wohl da auch schon ein paar Angaben zu den HW-Anforderungen drin sein.
Gamestar hat nix(obwohl eigentlich in doom3 verliebt) aber pcgames hat was :)
www.pcgames.de
Original geschrieben von UnreaL
Mad langsam musst das dochmal verstehn
das die Punkte mir egal sind ?:))
sonst würd ich doch net nochmals was gegen unseren "Meister" was sagen.
also weiter machen :D
Ist es dir auch egal, wenn du gebannt wirst? Dann mach mal schön weiter, viel fehlt nicht mehr.
MfG,
Raff
Kakarot
2004-07-23, 18:05:11
Original geschrieben von UnreaL
Mad langsam musst das dochmal verstehn
das die Punkte mir egal sind ?:))
sonst würd ich doch net nochmals was gegen unseren "Meister" was sagen.
also weiter machen :D
+ 3 = 10
10 bedeuten temp. Bann...
cu ;(
Hatstick
2004-07-23, 18:05:14
Wir werden es alle spätenstens Mitte August wenn viele schon bissl gezockt haben wissen und wie gesagt auch id kann es sich mit Sicherheit net leisten den Großteil der ATI User auszusperren weil die nVidia so toll performen aber was hier so im Thread steht muß ich wahrscheinlich auch mit der 800x600 Auflösung zurechtkommen bei niedrigen Details weil die 6800GT ja bis zu 70% schneller ist :D :D
Man sollte das alles bissl neutral bewerten und net auf einen Grafikkartenhersteller bezogen!
seahawk
2004-07-23, 18:13:56
Das einzige was man sagen kann ist, dass das Unltra Shadow Feature von NV nicht nutzlos ist. Mehr nicht, was nicht schon bekannt wäre.
(Und vielleicht die Frage erläutern warum die X800PRO auch im Vergleich zur XT so einbricht)
dildo4u
2004-07-23, 18:17:48
Das ergibt aber keinen sinn @seahawk was hat Ultra schadow damit zu tun das die X800pro nicht mit der X800XT mithalten kann denn die hat ja auch kein ultra shadow ATI hat mit 12pieps für ihre 2 high end karte einfach die falsche entscheidung getroffen sie hätte lieber 16pipes und ein bissel weniger takt nehmen sollen
Hatstick
2004-07-23, 18:25:01
Kann man auch die Frage stellen warum die 6800er Reihe bei FC mit aktiviertem AA so schlecht selbst gegen ne 9800XT aussieht.
Das ist allgemein von Spiel zu Spiel unterschiedlich nur manche versuchen hier entweder die 6800er oder die X800er Reihe einfach so darzustellen das man damit kein Spiel mehr in der Zukunft vernünftig zocken kann.
Sowas nennt man Panikmache.
dildo4u
2004-07-23, 18:28:06
Das war nicht meine absicht wie gesagt Doom3 ist halt nun mal ein kackpunkt da sehr wahrscheinlich sher viele Games mit der Engine kommen
Original geschrieben von dildo4u
Das ergibt aber keinen sinn @seahawk was hat Ultra schadow damit zu tun das die X800pro nicht mit der X800XT mithalten kann denn die hat ja auch kein ultra shadow ATI hat mit 12pieps für ihre 2 high end karte einfach die falsche entscheidung getroffen sie hätte lieber 16pipes und ein bissel weniger takt nehmen sollen
16 Pipes kommt sie aber teurer als 12 Pipes, da man so auch "defekte" Karten an den Mann bzw. die Frau bringen kann.
Ich habe zwar nicht alles gelesen, aber zum Thema Pro vs. XT: Hat nicht Demirug (oder wars ein anderer) die Vermutung geäußert, dass die Catalysts nicht auf die Pro, sondern die XT optimiert sind? Dass also wegen unterschiedlicher Speicheradressierung (und bei der Pro eben kontraproduktiver) o.ä. die Performance so im Vergleich wegbricht.
MfG,
Raff
seahawk
2004-07-23, 18:31:03
Original geschrieben von dildo4u
Das ergibt aber keinen sinn @seahawk was hat Ultra schadow damit zu tun das die X800pro nicht mit der X800XT mithalten kann denn die hat ja auch kein ultra shadow ATI hat mit 12pieps für ihre 2 high end karte einfach die falsche entscheidung getroffen sie hätte lieber 16pipes und ein bissel weniger takt nehmen sollen
Ich habe Untra Shadow nicht auf die Radeon bezogen. Das in den Klammern war eine eigene - imho sehr spannende - Fragestellung.
dildo4u
2004-07-23, 18:37:44
Original geschrieben von Raff
16 Pipes kommt sie aber teurer als 12 Pipes, da man so auch "defekte" Karten an den Mann bzw. die Frau bringen kann.
Ich habe zwar nicht alles gelesen, aber zum Thema Pro vs. XT: Hat nicht Demirug (oder wars ein anderer) die Vermutung geäußert, dass die Catalysts nicht auf die Pro, sondern die XT optimiert sind? Dass also wegen unterschiedlicher Speicheradressierung (und bei der Pro eben kontraproduktiver) o.ä. die Performance so im Vergleich wegbricht.
MfG,
Raff
Man müsste auf benches der 6800 warten wenn die im vergleich zur 6800GT auch so wegbricht wie die X800pro zur XT dann braucht das game einfach wirklich 16pipes dann ist auch nich mher viel über den treiber zu machen
dildo4u
2004-07-23, 18:51:07
Original geschrieben von Gast
Im grossen und ganzen hast ja recht
nur war das net so das pipes in opengl "egal" sind?
byby UnrxXx wenns egal wäre müsste ja auch eine 9800XT noch ganz oben mithalten die Speicherbandbreite ist ja nun nich sooo viel größer bei den neuen karten
Original geschrieben von dildo4u
Man müsste auf benches der 6800 warten wenn die im vergleich zur 6800GT auch so wegbricht wie die X800pro zur XT dann braucht das game einfach wirklich 16pipes dann ist auch nich mher viel über den treiber zu machen
Doom3 habe ich noch nicht, aber zumindest beim FableMark zeigt die 6800 keinen annormalen Abfall. ;)
dildo4u
2004-07-23, 20:41:25
http://www.gamershell.com/news/14305.html
Da hat jemand Humor *eg*
"As you can see over here, it seems EBGames plans to bundle ATI X800PRO video cards with DOOM 3 when the time comes (August 3rd). As there is no reference on their website, this remains just a rumor, but in case it's true, then it's a really nice addition to such a powerful card. Thanks: GameStar.hu."
tokugawa
2004-07-23, 20:52:47
Original geschrieben von tombman
Woher soll ich das wissen? Jedenfalls schauts besser als bei Doom3 aus..
edit: hab mich geirrt, die offizielle VErsion ist sogar noch größer... suche in google nach stalkere3presentation.zip 384mb ;)
Dort siehst du wahre gaming power ;)
Kannst du mal spezifizieren, was genau besser an den Schatten ausschaut als bei Doom 3? Unter Google find ich deinen angegebenen Begriff nicht, ich will aber auch keine 384 MB runterladen...
Hat Stalker Self-Shadowing? Die Schatten in Max Payne 2 schauten auf den ersten Blick und für Laien auch ganz gut aus, aber es fehlte ja das Self-Shadowing (das nachweislich einen immensen Einfluß auf die "realistische Wahrnehmung" hat, sowohl auf psychovisueller als auch technischer Seite).
Shadow Volumes haben ja zumindest den Vorteil, dass sie exakt, dynamisch, und weitgehend artefaktfrei sind (Shadow Mapping z.B. hätte ein Präzisionsproblem). Sowohl Shadow Mapping als auch Shadow Volumes haben das (sehr wichtige) Self-Shadowing. Der einzige mir bekannte wirkliche Nachteil bei Shadow Volumes ist, dass es "harte Schattenkanten" sind, aber Soft-Shadows sind sowieso ein "Hot Topic" im Bereich der Forschung in der Echtzeit-Visualisierung zur Zeit. Würd mich nicht wundern wenn auf der diesjährigen oder gar letztjährigen SIGGRAPH ein Algorithmus basierend auf Shadow Volumes vorgestellt wurde, der Soft-Shadows unterstützt. Im Übrigen würd ich auch gern wissen, wie der Soft-Shadow Algorithmus der UnrealEngine3 funktioniert, weil das sieht wirklich spitze aus... aber naja, OT.
tokugawa
2004-07-23, 21:00:35
Original geschrieben von dildo4u
Das ergibt aber keinen sinn @seahawk was hat Ultra schadow damit zu tun das die X800pro nicht mit der X800XT mithalten kann denn die hat ja auch kein ultra shadow ATI hat mit 12pieps für ihre 2 high end karte einfach die falsche entscheidung getroffen sie hätte lieber 16pipes und ein bissel weniger takt nehmen sollen
Es gibt ja demnächst eh die X800 GT...
9800ProZwerg
2004-07-23, 21:12:14
Original geschrieben von 9800ProZwerg
Mal ne andere Frage:
Unter welchen Soundeinstellungen haben die bei [H] gebencht?
Das würde mich mal interesseieren!
Weiß das keiner?
Schreib 'ne Mail an Kyle - der antwortet meist sogar, wenn du ihn nicht endlos vollschwallst...
tombman
2004-07-23, 22:19:45
Original geschrieben von tokugawa
Kannst du mal spezifizieren, was genau besser an den Schatten ausschaut als bei Doom 3? Unter Google find ich deinen angegebenen Begriff nicht, ich will aber auch keine 384 MB runterladen...
es hat wenig Sinn mit dir über Stalker zu reden, wenn du das 384mb Video nicht kennst... außerdem sowieso OT.
(in diesem .zip sind insgesamt 4 movies drinnen... ich hab meines von fileplanet, weil ich dort einen account habe)
ONT: ich versteh ned wieso mache Leute gerade jenem carmack in dieser Sache vertrauen, dem man am wenigsten trauen dürfte, da er mit Nvidia gemeinsame Sache macht.
Genausowenig wie man damals gabe newell glauben konnte bei den ersten "offiziellen" HL2 benchmarks.
Leuten, die am meisten Macht haben, sollte man am wenigsten vertrauen. Nur weil er den (na no na) besten skill in Sachen Doom3 benchmarken hat, heißt das nicht, daß seine benchmarks der Weisheit letzter Schluß sind.
Ihr wollt benchmarks den ihr vertrauen könnt? Wartet auf MEINE :karate:
Karlimann
2004-07-23, 22:21:09
Mal ne Frage zu dem Ganzen, da ich das ganze Technikgedönse eh nicht verstehe und mir das auch egal ist:
Lässt sich aufgrund der veröffentlichen Benchmarks schon etwas über die Performance der jeweiligen Karten bei HL2 sagen?
Gruß Karl
Original geschrieben von Karlimann
[...]
Lässt sich aufgrund der veröffentlichen Benchmarks schon etwas über die Performance der jeweiligen Karten bei HL2 sagen?
Nein, da Half-Life 2 auf einer anderen Engine (Source-Engine) aufbaut. Wie das Game performt, wissen wir ebenfalls erst, wenn es raus ist und von unabhängigen Testern durch nen Benchparcours gejagt wurde.
MfG,
Raff
Original geschrieben von tombman
Wartet auf MEINE [Benchmarks] :karate:
(meine Ergänzung)
Inwiefern sollte uns das im Hinblick auf folgende Fragestellung weiterhelfen?
Original geschrieben von tombman
Ihr wollt benchmarks den ihr vertrauen könnt?
Nenne mir doch mal einen Grund, warum ich deinen Benchmarks eher vertrauen sollte, als denen von Carmack?
Immerhin bencht er nicht auf einem völlig jenseits aller Limits betriebenen System und scheint ja Settings zu wählen, die auch in Grenzen vergleichbar sind - Im Gegensatz zu diversen, subjektiven Aussagen wie "bei ATi sehe ich trotz bilinearen AFs kein Banding, bei nV schon." ;)
Meinst du, der hat kein Interesse daran sein Game an Besitzer von ATi-Karten (seit kurzem immerhin wieder Marktführer) zu verkaufen?
mei mei, schon wieder vergessen, daß ich es war...
tokugawa
2004-07-24, 00:01:23
Original geschrieben von tombman
es hat wenig Sinn mit dir über Stalker zu reden, wenn du das 384mb Video nicht kennst... außerdem sowieso OT.
(in diesem .zip sind insgesamt 4 movies drinnen... ich hab meines von fileplanet, weil ich dort einen account habe)
ONT: ich versteh ned wieso mache Leute gerade jenem carmack in dieser Sache vertrauen, dem man am wenigsten trauen dürfte, da er mit Nvidia gemeinsame Sache macht.
Genausowenig wie man damals gabe newell glauben konnte bei den ersten "offiziellen" HL2 benchmarks.
Leuten, die am meisten Macht haben, sollte man am wenigsten vertrauen. Nur weil er den (na no na) besten skill in Sachen Doom3 benchmarken hat, heißt das nicht, daß seine benchmarks der Weisheit letzter Schluß sind.
Ihr wollt benchmarks den ihr vertrauen könnt? Wartet auf MEINE :karate:
Soll keine Beleidigung sein, aber Kompetenz steht bei mir an oberster Stelle, und die "gemeinsame Sache" von Carmack und NVIDIA abseits der "bezahlten Werbefläche TWIMTBP" ist reine Spekulation.
Von da her traue ich Carmack mehr zu (schon allein deswegen, weil er eher "Wissenschaftler" ist als du, immerhin hat der auch schon White Papers der wissenschaftlichen Community im Bereich Echtzeit-Visualisierung präsentiert), soll aber keine Beleidigung deiner Person sein. Immerhin hast du noch nicht bewiesen, dass du soviel mehr kompetent bist, darauf warte ich ja eigentlich noch :D.
deekey777
2004-07-24, 00:03:27
Original geschrieben von Raff
Nein, da Half-Life 2 auf einer anderen Engine (Source-Engine) aufbaut. Wie das Game performt, wissen wir ebenfalls erst, wenn es raus ist und von unabhängigen Testern durch nen Benchparcours gejagt wurde.
MfG,
Raff
Zuerst mal sehen, wie die CS: Source beta läuft. ;)
(Guckst du in die Signatur rein!)
[H]ardOCP wird noch einen [H]ardware Guide für Doom 3 veröffenlichen - mit Benchmarks auf unterschiedlichen Systemen.
Wer sich nach dem erscheinen von Doom3 für ne Graka der nächsten Generation entscheiden will, sollte einfach zum Release hier mal reinschauen.
Bin sicher im Benchmarkforum werden genug Ergebnisse vorhanden sein, und damit ist auch etwas Objektivität allein durch die Vielzahl der Systeme gegeben.
tombman
2004-07-24, 01:36:04
Original geschrieben von Gast
(meine Ergänzung)
Inwiefern sollte uns das im Hinblick auf folgende Fragestellung weiterhelfen?
Nenne mir doch mal einen Grund, warum ich deinen Benchmarks eher vertrauen sollte, als denen von Carmack?
Immerhin bencht er nicht auf einem völlig jenseits aller Limits betriebenen System und scheint ja Settings zu wählen, die auch in Grenzen vergleichbar sind - Im Gegensatz zu diversen, subjektiven Aussagen wie "bei ATi sehe ich trotz bilinearen AFs kein Banding, bei nV schon." ;)
Meinst du, der hat kein Interesse daran sein Game an Besitzer von ATi-Karten (seit kurzem immerhin wieder Marktführer) zu verkaufen?
1.) ich benche genauso in settings die vergleichbar sind- die werden aber von Leuten wie dir absichtlich überlesen.
(ja, ich hab damals alle benchmarks ebenfalls ohne Optimierungen bei beiden gebenched...)
2.) Ich kann Graka-Leistung sogar noch besser testen, da meine cpu ja wohl am wenigsten ein Limit darstellt-> der Fokus ist noch mehr auf Graka-performance.
3.) Klar hat Carmack Interesse, daß ATI Besitzer auch Doom3 kaufen, aber noch mehr Interesse hat er, daß Nvidia die benchmarks gewinnt :D
Mir is egal wer gewinnt, da ICH immer gewinne- habe ja beide Karten.
Und Carmack kannst du auch ned 20 mal bitten settings zu ändern und alles nochmal zu benchen- mich schon.
Wo wir gerade dabei sind: was wären denn deiner Meinung nach settings, die vergleichbar wären? Wenn sich auf 3dc ein Konsens einstellt welche settings vergleichbar sind, gibts bei meinen nächsten Vergleichstests nicht wieder so ein Hickhack ;)
tokugawa
2004-07-24, 02:09:57
Original geschrieben von tombman
1.) ich benche genauso in settings die vergleichbar sind- die werden aber von Leuten wie dir absichtlich überlesen.
(ja, ich hab damals alle benchmarks ebenfalls ohne Optimierungen bei beiden gebenched...)
2.) Ich kann Graka-Leistung sogar noch besser testen, da meine cpu ja wohl am wenigsten ein Limit darstellt-> der Fokus ist noch mehr auf Graka-performance.
3.) Klar hat Carmack Interesse, daß ATI Besitzer auch Doom3 kaufen, aber noch mehr Interesse hat er, daß Nvidia die benchmarks gewinnt :D
Aha. Wie kommst du zu dieser Spekulation? Irgendwelche handfeste Beweise?
Original geschrieben von tombman
Mir is egal wer gewinnt, da ICH immer gewinne- habe ja beide Karten.
Und Carmack kannst du auch ned 20 mal bitten settings zu ändern und alles nochmal zu benchen- mich schon.
Wo wir gerade dabei sind: was wären denn deiner Meinung nach settings, die vergleichbar wären? Wenn sich auf 3dc ein Konsens einstellt welche settings vergleichbar sind, gibts bei meinen nächsten Vergleichstests nicht wieder so ein Hickhack ;)
Ehrlich gesagt, wird's wohl bezüglich AA und AF Settings schwer Konsens geben hier... (ja, ich bin ein Pessimist)
Damit bleibt wohl noch am ehesten ein "Rohmodus" ohne AA und ohne AF vergleichbar...
tombman
2004-07-24, 02:56:31
Original geschrieben von tokugawa
Ehrlich gesagt, wird's wohl bezüglich AA und AF Settings schwer Konsens geben hier... (ja, ich bin ein Pessimist)
Damit bleibt wohl noch am ehesten ein "Rohmodus" ohne AA und ohne AF vergleichbar...
ALso ohne AA/AF benche ich sicher nicht, weil solche Karten sind einfach gemacht AA und AF zu fahren... sonst kann man ja gleich bei 9700 oder früher bleiben.
(nicht jeder kann 1600x1200 darstellen auf seinem display...und für 10x7 ohne alles braucht man keine high-end Karten...)
Und so pessimistisch bin ich gar ned, da wird sich sicher ein Weg finden lassen, wie man r420 fair gegen nv40 benched ;)
ich kann einfach diese rießen panik um diesen benchmark nicht verstehen, es liegt doch klar auf der hand dass ati-karten schlechter angepasst sind an doom3 als nvidia.
die 6800ultra ist geringfügig langsamer getaktet, die gt erst recht und trotzdem sind beide um VIEL, viel mehr schneller als ne xt hier.
die logische schlussfolgerung ist, dass doom3 besser optimiert ist auf nvidia karten, vollkommen egal ob sie nun besser konstruiert sind oder mehr takt haben sollten oder sonst noch was: doom3 nutz die features und "EIGENHEITEN"(betonung liegt auf eigenheiten) der nvidias SEHR GUT aus, während das bei den ATIs "NOCH" nicht der Fall ist. man könnte eigentlich sagen das hier ein versäumniss vorgefallen ist, seites id.(aber auch zum teil von ati mit ihren zur zeit doch wieder recht verkorksten treibern(wo bleibt temporal aa?)).
es verhält sich ganz genauso wie bei far cry(nur anders herum und nicht so ausgeprägt), jetzt durch den patch 1.2 ist nvidia wieder schneller bzw gleich auf
ausserdem ist bereits ein solch gewaltiger leistungunterschied inakzeptabel seitens id, es kann einfach nicht sein dass die xt sooo langsamer ist, dass könnte man mit einem patch schnell aus der welt bringen aber id ist ein rießen "fan" von nvidia(und das kann niemand leugnen) und drum war keine zeit mehr für mehr optimierungsarbeit(daher ließ man sie im großen und ganzen für ati weg, oder verschiebt sie, wie auch immer), hier spielt auch die zeit eine wichtige rolle, neben dem faktor dass nvidia ein großer kumpel von id is.( und nvidia hätte eine erneute schlappe nicht mehr aushalten können, vor allem wenn dann HL2 noch droht)
Demirug
2004-07-24, 07:55:50
Original geschrieben von Gast
ich kann einfach diese rießen panik um diesen benchmark nicht verstehen, es liegt doch klar auf der hand dass ati-karten schlechter angepasst sind an doom3 als nvidia.
die 6800ultra ist geringfügig langsamer getaktet, die gt erst recht und trotzdem sind beide um VIEL, viel mehr schneller als ne xt hier.
die logische schlussfolgerung ist, dass doom3 besser optimiert ist auf nvidia karten, vollkommen egal ob sie nun besser konstruiert sind oder mehr takt haben sollten oder sonst noch was: doom3 nutz die features und "EIGENHEITEN"(betonung liegt auf eigenheiten) der nvidias SEHR GUT aus, während das bei den ATIs "NOCH" nicht der Fall ist. man könnte eigentlich sagen das hier ein versäumniss vorgefallen ist, seites id.(aber auch zum teil von ati mit ihren zur zeit doch wieder recht verkorksten treibern(wo bleibt temporal aa?)).
es verhält sich ganz genauso wie bei far cry(nur anders herum und nicht so ausgeprägt), jetzt durch den patch 1.2 ist nvidia wieder schneller bzw gleich auf
ausserdem ist bereits ein solch gewaltiger leistungunterschied inakzeptabel seitens id, es kann einfach nicht sein dass die xt sooo langsamer ist, dass könnte man mit einem patch schnell aus der welt bringen aber id ist ein rießen "fan" von nvidia(und das kann niemand leugnen) und drum war keine zeit mehr für mehr optimierungsarbeit(daher ließ man sie im großen und ganzen für ati weg, oder verschiebt sie, wie auch immer), hier spielt auch die zeit eine wichtige rolle, neben dem faktor dass nvidia ein großer kumpel von id is.( und nvidia hätte eine erneute schlappe nicht mehr aushalten können, vor allem wenn dann HL2 noch droht)
Wenn die Frage erlaubt ist. Welches Feature von ATI soll id denn noch nutzen um D3 auf einer X800 schneller zu bekommen?
Testergenisse von syntetischen Tests in Kombination mit Entwicklerunterlagen zeigen nun mal leider das die Radeonarchitektur im Vergleich zur NV4X Architektur gerade in für D3 wichtigen Bereichen schwächelt.
Da hätten wir:
- Das Umdrehen des Z-Tests beim Stencilpass deaktiviert bei den Radeons Hir-Z.
- Beim kombinierten Z/Stencil Test im Lichtpass (Z-Test zum prüfen ob das Objekt verdeckt wird; Stenciltest zum prüfen ob es im Schatten liegt) kann eine 6800 Ultra bis etwa 20 GPixel/s verwerfen die nicht gerendert werden müssen. Eine X800XT kommt hierbei nur auf etwa 8 GPixel/s. Erschwerend kommt hinzu das bei ATI der Stencilcull Mechanismuss mit den ROPs verknüpft ist. Der Einsatz von AA reduziert sich die Leistung. Bei nVidia ist das ganze schon vor den Pixelprozessoren angesiedelt und AA unabhängig.
Es könnte durchaus sein das eine X800XT aufgrund der höheren Fillrate bei den Pixeln die gerendert werden müssen schneller ist aber bei D3 wird in der Regel mehr verworfen als gerendert. Bei diesem Wegwerfen ist eine 6800 einfach schneller.
Zudem hat nVidia wie bereits erwähnt mit GL_NVX_conditional_render noch einen Trumpf im Ärmel der bisher noch nicht ausgespielt wurde.
Original geschrieben von dildo4u
Das ergibt aber keinen sinn @seahawk was hat Ultra schadow damit zu tun das die X800pro nicht mit der X800XT mithalten kann denn die hat ja auch kein ultra shadow ATI hat mit 12pieps für ihre 2 high end karte einfach die falsche entscheidung getroffen sie hätte lieber 16pipes und ein bissel weniger takt nehmen sollen So einfach entscheiden kann man das nicht – hätte ATI nicht ein ernsthaftes Problem mit den Chips, würde es gar keiner 12-er geben. Ebenso hat NV der 6800 nur deshalb nur 12 Pipes spendiert, weil sie somit "kaputte" 16-er noch verkaufen können. Das Hauptproblem scheint wohl der Memory Controller zu sein, der für 4 Quads (16 Pipes) optimiert wurde.
Original geschrieben von seahawk
Von heute. Wobei der Hinweis auf PP wohl mit Vorsicht zu geniesen ist, da PP erstmal nichts Böses ist. Genau. Wenn _PP keinen BQ-Verlust bringt, ist es sinnvoll. Im SM 3.0 wäre FP24 auch _PP. Doom3 ist keiner DX-Konvention unterworfen. Was ist dort überhaupt _PP? (Was ist mit GeForce4, die ohnehin nur mit FX9 rechnet? Ist das very partial precision, "_VPP"?)
Original geschrieben von tombman
ja, es ist absichtlich, aber das ist GUT so. ist eben ein adaptiver af alghorythmus... Nein, das liegt am trilinearen Algorithmus. NV hat sowas auch standardmäßig drin, dort kann mans aber abschalten. (Das heißt, BQ-Tests mit dem neuesten Treiber mache ich erst die nächsten Tage. Beim 61.34 war es jedenfalls so.)
Mr. Lolman
2004-07-24, 11:53:49
Original geschrieben von aths
Nach meiner HDR-Definition kann X800 prinzipiell kein HDR, und NV40 nur sehr langsam. X800 kann MDR mit FP24. NV40 kann MDR sehr schnell, wenn man "nur" FP16 nimmt.
Eine FX macht nicht "automatisch" aus HDR MDR.
Reicht FP16 aus? Das Format löst immer mindestens acht mal feiner auf als FX8, und kann Werte von einigen Zigtausend mal heller als weiß darstellen. Ich würde sagen, das reicht. (Auch wenn es in OpenEXR eher zur Speicherung, weniger zur Verarbeitung gedacht ist. Für Echtzeitanwendungen sollte FP16 auf absehbare Zeit ausreichen. Der Unreal3-Engine z. B. reicht es.)
Ist lustig wie du immer erklärst, dass FP16 ausreichend ist, und anderseits auch Beispiele bringst, wo FP24 nicht reicht.
Nach deiner Definition können ATis nur MDR? Ich glaub damit tust du ihnen unrecht. Auch wenn die FXen MDR nicht automatisch machen, so stell ich bei rthdribl nix um und die FX Grafik ist neben schlechterer Performance sichtbar gröber als auf ATi Karten.
Sollen fürs IBL (image based lighting) FP16-Texturen gefiltert werden, kostet das auf dem NV40 nur doppelt so viele Takte wie die Filterung von FX8-Texturen. Der X800 muss FP-Texturen "von Hand" im Pixelshader filtern. Das ist extrem aufwändig. NV40 hat pro Pipe nicht nur ein wenig mehr Rechenkraft, wenn man die Einheiten zählt, er kann vor allem mehr Einheiten pro Takt nutzen, das ist ja das, worauf es ankommt. Den letzten Pass bei H/MDR, Tone Mapping, kann der NV40 via dedizierter Logik sehr viel schneller ausführen als X800, welche das wieder "von Hand" im Pixelshader machen muss.
Sofern FP16 tatsächlich ausreichend ist. Das FP16 nicht immer funktioniert hat ja FC 1.1 schon bewiesen.
Gas3t
2004-07-24, 11:54:26
Ich weiß ehrlich geagt nicht, wo dass Problem einiger hier liegt, wenn jmd. seine Schlußfolgerungen nicht nur aus diesen ersten Benchmarks ziehen möchte, sondern auch noch ein paar andere Quellen begutachten möchte.
Herr Carmack in allen Ehren, aber man kennt niemals die ganze Wahrheit bzw. alle Hintergründe / Beziehungen usw.
Deshalb ist es immer wichtig sich auf mehrere Quelle zu stützen und nicht einer blind zu vertrauen. Egal wie vertrauenswürdig diese erscheint.
Allerdings tendiere ich auch zu einem Vorteil des NV40 bei Doom3. Indizien dafür gab es für mich schon in der Vergangenheit (z.B. Entwicklung auf NV-Karten, OpenGL-Stärke der NV-Karten, Dev-Support, die verständlichen technischen Ausführungen von Demirug...). Die ersten Benchmarks scheinen dies nun zu bestätigen, das bedeutet aber nicht das mein Gesamtbild schon vollständig ist.
Also warten auf weitere Benchs, Statements von ATI/NV, neue Treiber...
Demirug
2004-07-24, 12:05:31
Original geschrieben von Mr. Lolman
Sofern FP16 tatsächlich ausreichend ist. Das FP16 nicht immer funktioniert hat ja FC 1.1 schon bewiesen.
Was aber nicht an FP16 gelegen hat sondern am Shader. Wenn man den Patch von ToMMTi-Systems im FP16 Modus benutzt sind die Fehler ja weg. Zudem ist der Shader dermassen merkwürdig das wenn man diesen vollständig mit FP32 rechnen lässt gar nichts mehr sieht.
Original geschrieben von Demirug
Was aber nicht an FP16 gelegen hat sondern am Shader. Wenn man den Patch von ToMMTi-Systems im FP16 Modus benutzt sind die Fehler ja weg. Zudem ist der Shader dermassen merkwürdig das wenn man diesen vollständig mit FP32 rechnen lässt gar nichts mehr sieht.
Heisst das, dass der Effekt nur durch geringere Präzision beim Rechnen zustande kommt?
Wer programmiert wozu denn sowas seltsames?:|
Demirug
2004-07-24, 12:34:53
Original geschrieben von Gast
Heisst das, dass der Effekt nur durch geringere Präzision beim Rechnen zustande kommt?
Wer programmiert wozu denn sowas seltsames?:|
Mit gar nicht mehr meinte ich das anstelle der Kacheln da nur noch eine schwarze Fläche war. Der shader scheint dermassen merkwürdig zu rechnen das es da zu einer mathematischen Fehlersituation kommt.
Nimmt man den entsprechenden Radeonshader und lässt den mit FP16 rechnen stimmt das Bild.
tokugawa
2004-07-24, 13:13:05
Original geschrieben von Gast
ich kann einfach diese rießen panik um diesen benchmark nicht verstehen, es liegt doch klar auf der hand dass ati-karten schlechter angepasst sind an doom3 als nvidia.
die 6800ultra ist geringfügig langsamer getaktet, die gt erst recht und trotzdem sind beide um VIEL, viel mehr schneller als ne xt hier.
die logische schlussfolgerung ist, dass doom3 besser optimiert ist auf nvidia karten, vollkommen egal ob sie nun besser konstruiert sind oder mehr takt haben sollten oder sonst noch was: doom3 nutz die features und "EIGENHEITEN"(betonung liegt auf eigenheiten) der nvidias SEHR GUT aus, während das bei den ATIs "NOCH" nicht der Fall ist. man könnte eigentlich sagen das hier ein versäumniss vorgefallen ist, seites id.(aber auch zum teil von ati mit ihren zur zeit doch wieder recht verkorksten treibern(wo bleibt temporal aa?)).
es verhält sich ganz genauso wie bei far cry(nur anders herum und nicht so ausgeprägt), jetzt durch den patch 1.2 ist nvidia wieder schneller bzw gleich auf
ausserdem ist bereits ein solch gewaltiger leistungunterschied inakzeptabel seitens id, es kann einfach nicht sein dass die xt sooo langsamer ist, dass könnte man mit einem patch schnell aus der welt bringen aber id ist ein rießen "fan" von nvidia(und das kann niemand leugnen) und drum war keine zeit mehr für mehr optimierungsarbeit(daher ließ man sie im großen und ganzen für ati weg, oder verschiebt sie, wie auch immer), hier spielt auch die zeit eine wichtige rolle, neben dem faktor dass nvidia ein großer kumpel von id is.( und nvidia hätte eine erneute schlappe nicht mehr aushalten können, vor allem wenn dann HL2 noch droht)
Mal ein paar Dinge, die zu überlegen sind:
- Könnte es nicht einfach sein, dass Doom 3 enorm von den Features der NVIDIA Karten profitiert? Deren zusätzliche Extensions (wie Ultra Shadow) usw., die etwa ATI Karten eben nicht bieten.
- Könnte es nicht einfach sein, dass NVIDIAs Developer Support (etwa der GPU Programming Guide) eben viel mehr darauf eingeht, wie man die Engine schneller machen kann, welche Features man dazu nutzen kann, was man vermeiden sollte, wie man Bottlenecks in der Rendering-Pipeline verhindert? Sprich, NVIDIAs Developer Support sich hier ausgezahlt hat?
Ich denke, beide Punkte sind richtig, und nicht zu vernachlässigen.
Gerüchteküche, Spekulationen, und freche Anmaßungen, dass ID jetzt absichtlich die ATI schlecht aussehen läßt, halte ich dagegen für weniger realistisch als eben diese beiden Punkte.
Außerdem sind Verschwörungstheorien prinzipiell lächerlich, egal ob es jetzt um NVIDIA oder um ATI geht.
Hier mal ein Statement von ATI (Quelle ist http://www.teamradeon.com):
"One of our staff contacted ATI to inquiry about the highly debated Doom 3 benchmarks that were recently released, here is what was asked:
"I'm just emailing you because I have alot of confused gamers from both Team Radeon and x-3Dfx about what's really happening in Doom3. What they've been presented paints a relatively poor picture on the x800 Pro and x800 XT PE prompting many fellow gamers (about 400 on Team Radeon and 300 or so on x-3Dfx) to question wether or not they should cancel there pre-orders."
ATI response:
"Hi Richard - this is a non issue - Doom 3 isn't even available yet, and we all know that some of our competitors use partial precision where possible. We expect to have updated drivers available in the coming weeks."
Chris Hook
Merkwürdig. Zwar hat er recht, was die Nichtverfügbarkeit von Doom3 angeht, allerdings wundert es mich, was Chris Hook mit "we expect to have updated drivers available" - da ATi zum Test bei id-Software ja schon mit 8.05-Treiber angetreten ist?
Stebs
2004-07-24, 16:24:43
we all know that some of our competitors use partial precision where possible
Ich weiss daß es ATI's Absicht war daß der Satz eher negativ klingen sollte, aber man kann ihn durchaus auch positiv sehen. Schliesslich halte ich den Einsatz von pp "wannimmer möglich" (der Spiele-Entwickler dieses also für sinnvoll hält) für ein Feature mit dem man schlauerweise Ressourcen sparen kann. (Und ich meine damit nicht dass Treiberentwickler einem Spiel "nachträglich" und unbeabsichtigt vom Entwickler pp aufdrücken sollten!)
Bekanntermaßen gibt es bei ATI nur eine mögliche Precision und deshalb wird durch We expect to have updated drivers available in the coming weeks zumidest DIESER Nachteil nicht auszubessern sein...
deekey777
2004-07-24, 16:49:33
Original geschrieben von q@e
Merkwürdig. Zwar hat er recht, was die Nichtverfügbarkeit von Doom3 angeht, allerdings wundert es mich, was Chris Hook mit "we expect to have updated drivers available" - da ATi zum Test bei id-Software ja schon mit 8.05-Treiber angetreten ist?
Vielleicht haben die Kanadier erst seit dem [H]ardOCP-Benchmark mitgekriegt, dass Doom 3 überhaupt erscheint, und werden erst jetzt sich an die Arbeit machen, einen für Doom 3 optimierten Treiber zu programmieren, Treiberversion 9.0... ;D
Wie schon vermutet, ATi hat's verpennt - und jetzt kam die Bestätigung. Ob sich die Verbesserung in den Treibern nur für die R420er Serie bemerkbar macht...
Frage: Hiess es nicht, dass der NV30 Pfad genau so wie ARB2 visuell aussieht?
Es gibt keinen NV30 Pfad mehr :)
Sonst dürfte er gleich ausgesehen haben.
Stebs
2004-07-24, 17:07:48
Original geschrieben von deekey777
Ob sich die Verbesserung in den Treibern nur für die R420er Serie bemerkbar macht...
Hmm man könnte auch das "nur" in dem Satz weglassen...;D
Naja hoffentlich kriegen die da noch Leistung rausgeholt, voraussichtlich werden ja noch etliche Spiele mit der Doom3-Engine erscheinen.
Frage: Hiess es nicht, dass der NV30 Pfad genau so wie ARB2 visuell aussieht?
Auch wenn es keinen NV30 Pfad mehr gibt soll pp ja noch unterstützt werden. Aber visuell sollte es ja trotzdem keinen Unterschied geben. Mit (der Spiele-Entwickler dieses also für sinnvoll hält) ging ich in meinem früheren Post natürlich davon aus daß ein Entwickler pp nicht mehr für sinnvoll hält sobald es visuelle Unterschiede gibt...
eXistence
2004-07-24, 17:30:19
Um mal was anderes als das "nV vs. ATI"-Gebashe zu posten, wie siehts eigentlich beim RAM aus?
Ich meine mich zu erinnern, dass Hollenshead gemeint hat, 768MB sollen gut sein, 1024 wären praktisch optimal.
Die Systeme vom Bench auf [H]ardOCP hatten aber 2GB und sogar 4GB an RAM... ich frage mich da, inwieweit das mit "meinem" System dann überhaupt noch vergleichbar ist.
Stebs
2004-07-24, 17:45:46
Das hat mich auch bisschen irritiert beim id (HardOCP) Test: 2GB beim P4 3,2 Ghz, beim 3,6 Ghz gar 4GB!
"Zufall" oder brauch die Engine wirklich soviel Ram wie sie nur kriegen kann damit die Speichermenge nicht zum Flaschenhals wird?
Und 384 MB RAM als minimum!
1,5 Ghz, Geforce3 sind ja eigentlich ok und viele werden das schon haben aber ich denke mehr als 256 MB Ram ist seltener...
Rentner
2004-07-24, 18:29:18
Original geschrieben von Stebs
Das hat mich auch bisschen irritiert beim id (HardOCP) Test: 2GB beim P4 3,2 Ghz, beim 3,6 Ghz gar 4GB!
"Zufall" oder brauch die Engine wirklich soviel Ram wie sie nur kriegen kann damit die Speichermenge nicht zum Flaschenhals wird?
Und 384 MB RAM als minimum!
1,5 Ghz, Geforce3 sind ja eigentlich ok und viele werden das schon haben aber ich denke mehr als 256 MB Ram ist seltener...
Gut möglich das es soviel RAM braucht!
In irgendeinem Interview mit den id-Leuten stand, das man auch vor dem installieren seine Platte defragmentieren soll um Nachladeruckler zu vermindern!
Das ist zwar für die meißten hier selbstverständlich, aber bei 1 Gig RAM auch nicht unbedingt nötig, bei bisherigen Spielen zumindest nicht!
Andererseits sind die Tests nun mal bei id gemacht worden und da stehen wohl nur Rechner mit jedermenge teurer Hardware!
Den RAM werden die auch brauchen um z.B. die High Polygonmodelle gut darstellen und bearbeiten zu können!
deekey777
2004-07-24, 18:29:29
Original geschrieben von Coda
Es gibt keinen NV30 Pfad mehr :)
Sonst dürfte er gleich ausgesehen haben.
Der NV30 Pfad scheint ein Teil des ARB2 zu sein.
Meine Frage basierte auf der Aussage des JS, dass zw. dem R200(können alle Radeons ab 8500 aufwärts) und ARB2(Standard für die DX9-Radeons) nur einen marginalen visuellen Unterschied gibt, dafür rennt R200-Pfad etwas schneller. Umgekehrt: Wenn der NV30 Pfad genau das gleiche visuelle Ergebniss liefert(-e) wie der Standardpfad ARB2, warum sollte dann ARB2 keine "_pp_" verwenden - egal im welchen Umfang?
Der Vorwurf seitens ATi, es werde _pp_ verwendet gilt nicht. Doom 3 wird seit 2000 entwickelt, ATi wusste ganz genau, was gebraucht wird, damit die beste Performance in Doom 3 erreicht wird. Hier ist nur ein kleines PR-Spielchen at its best.
Reißzahn
2004-07-24, 21:23:33
Hi
Also erstens sind es bei der XT um die 6 Bilder weniger, was nicht die Welt bedeutet (für manche ist villeicht 1 FPS mehr wie nen 6 er in der Lotterie) und wegen so einem KLEINEM Rückstand wird diskutiert als wär der dritte Weltkrieg ausgebrochen.
An alle die sich unbedingt ne Pro holen wollten;
Viele sagten : och naja macht doch nix, ne Xt braucht kein Schwein , takte ich halt mit ner Mod und das wärs. Hm das hat man wenn man ungeduldig ist und ob ne gemoddete Pro genauso viel in "richtigen" Spielen drauf hat werden wir sehen.
Ps: Nimmt es nicht als persönlcihen Angriff an. Danke für die Aufmerksamkeit
MarcWessels
2004-07-24, 21:37:02
Original geschrieben von Reißzahn
Hi
Also erstens sind es bei der XT um die 6 Bilder weniger, was nicht die Welt bedeutet (für manche ist villeicht 1 FPS mehr wie nen 6 er in der Lotterie) und wegen so einem KLEINEM Rückstand wird diskutiert als wär der dritte Weltkrieg ausgebrochen.
Öhm, lassen wir mal die nichtssagenden Aussagen wie "6, 16 oder was auch immer fps weniger" sondern gucken nach den prozentualen Verhältnissen und da ist die 6800U 33% schneller als die X800 XT PE und die 6800GT ist immerhin noch 20% schneller. Das find ich schon SEHR viel.
Blöde ist natürlich wenn man hier in Deutschland erst über n Moant nach Erscheinen von DOOM 3 an eine gescheite GraKa herankommen kann.
P.S.:Ach ja, zu der Bemerkung, daß die Benches nVidia-biased seien, da es in 1024er oder 800er Auflösung ohne AA/AF anders aussehen würde und höhere Auflösungen niemand bräuchte-> Hallo? Steckt n schnelleren Prozzi ins Board und "Schwupps!" hat ne 6800U wieder denselben großen Abstand!
Was die 9700Pro oder 9800Pro angeht: Da wird das Onboard-Ram leider nicht ausreichen, um die Texturen zu fassen - auf Medium wird man da schon herunter müssen.
Dazu, daß die Meisten nicht mehr als 256MB hätten-> Öhm, ein echter Spieler wird wenigstens 512MB drinhaben und Nichtsieler holen sich DOOM 3 ohnehin nicht.
MarcWessels
2004-07-24, 21:40:54
Original geschrieben von perforierer
Statt haltlose Statements zu produzieren ;) könntest Du auch produktive Sachen machen.
Zum Beispiel Dich
2. einfach mal den Text zum Benchmark lesen, da würdest Du nämlich erkennen, dass das Spiel selbst auf einer GF3 mit 64 MB Speicher ordentlich läuft...und Spaß macht.
*lol* Fragt sich nur, wieviel Details die dafür runtergeschaltet haben aber laß Dir ruhig n Bären aufbinden. ;D
Original geschrieben von MarcWessels
[...]
Was die 9700Pro oder 9800Pro angeht: Da wird das Onboard-Ram leider nicht ausreichen, um die Texturen zu fassen - auf Medium wird man da schon herunter müssen.
[...]
Nun, das bezweifle ich jetzt einfach mal. ;)
Ich gehe mal davon aus, dass die mitgebrachten 128MB durchaus für 1024x768x32 bei High Details und etwas AF reichen werden. Für viel AA sehe ich allerdings wirklich (leider) keinen Platz mehr, aber 2x könnte noch möglich sein. Time will tell ... lange dauerts ja nicht mehr. =)
MfG,
Raff
LinK: http://forum.ingame.de/doom/showthread.php?s=&threadid=2903
MarcWessels
2004-07-24, 22:01:26
Original geschrieben von Raff
Nun, das bezweifle ich jetzt einfach mal. ;)
Ich gehe mal davon aus, dass die mitgebrachten 128MB durchaus für 1024x768x32 bei High Details und etwas AF reichen werden.
Träumer. *sfg*
Guck Dir mal die läppischen 10% an, die die 9800XT hinzugewinnt bei GLEICHZEITIGEM Runterfahren des AF-Grades und dem Heruntergehen von "High" auf "Medium" (was laut Info ja die Texturen stärker komprimiert). Ich würde sagen, daß das darauf hindeutet, daß die 10% ausschließlich vom heruntergedrehten AF kommen und der XT (dank 256MB Ram) es shitegal ist, ob sie nun mit den größeren Texturen klarkomemn muß oder nicht.
Der Trend zu 256MB GraKa-Ram ist klar da - man denke nur and die teilweise 40% großen Performancevorteile in FarCry gegenüber 128MB...
Original geschrieben von MarcWessels
...man denke nur and die teilweise 40% großen Performancevorteile in FarCry gegenüber 128MB...
????
(Benchmark-) Beweiß, bitte!
MarcWessels
2004-07-24, 22:13:21
Na, den Link hab ich grad nicht parat, da es schon n paar Monate her ist aber geh mal auf www.hardwareluxx.de ins Forum und such nach "Far Cry". Da hat sich jemand mal die Mühe gemacht, und es mit ner 5950er, ner 9800XT einmal uaf Normal- und einmal auf Pro-Takt und ner 9800Pro (128MB) gebencht.
Hat mich aber nicht großartig überrascht, denn schließlich konnte man im Vorfeld in der FarCry-Demo schon lesen (ich glaub, in der *.cfg), daß "Very High"-Textures erst ab 256MB GraKa-Ram "möglich" sind.
tokugawa
2004-07-24, 22:23:55
Original geschrieben von MarcWessels
*lol* Fragt sich nur, wieviel Details die dafür runtergeschaltet haben aber laß Dir ruhig n Bären aufbinden. ;D
Wahrscheinlich sehr viel Details runtergeschaltet. Aber das hat ja jetzt direkt mit Spielspaß nichts zu tun, oder? Es heißt ja, dass es auf ner GF4 64 MB spielbar ist und Spaß macht... nicht dass es da der Grafikknüller schlechthin ist.
MarcWessels
2004-07-24, 22:37:36
Schließt sich in dem Fall gegenseitig aus, denn DOOM lebt von seiner Atmossphäre!
LovesuckZ
2004-07-24, 22:38:21
an update from chris Hook.....
Quote:
...And btw, let's not lose sight of the fact that ATI performance isn't
relatively poor at all. I think Kyle himself said that even the X800pro
delivered 'great' performance, and Carmack said in the HardOCP article that
there's more to consider than just frame rate. The frame rate difference
even today is so minor, it's impossible to tell without diagnostic tools -
ie: the end user experience isn't affected. And with ATI you get
full-precision enabled all the time - we don't do PP (on R3XX and R4XX) like
some of our competitors.
It's also important to note that most of today's games play faster on ATI
hardware, and you can expect that to extend to other 'big title' games
expected this summer.
Chris Hook
Quelle (http://www.beyond3d.com/forum/viewtopic.php?p=331506#331506)
deekey777
2004-07-24, 23:04:44
Original geschrieben von LovesuckZ
Quelle (http://www.beyond3d.com/forum/viewtopic.php?p=331506#331506) [/SIZE][/QUOTE]
Hm, wie es aussieht, bringt Ultrashadow II rein gar nichts... Es ist nur der Verdienst von _PP!!! :weg:
Zum :...( so etwas.
Nachtrag: Weitere/versprochene D3-Benchmarks (http://www.beyond3d.com/forum/viewtopic.php?t=14359)
nggalai
2004-07-24, 23:08:24
Kam zum Partial-Precision-Thema / "NV30-Sachen sind jetzt im ARB2-Pfad" überhaupt mal etwas von id? So, wie ich die .plans und den [H]-Artikel verstanden habe, kümmert sich der Treiber über Shader-Replacement darum (Umfang unbekannt), und nicht der Code der Engine selbst.
93,
-Sascha.rb
deekey777
2004-07-24, 23:20:42
Original geschrieben von nggalai
Kam zum Partial-Precision-Thema / "NV30-Sachen sind jetzt im ARB2-Pfad" überhaupt mal etwas von id? So, wie ich die .plans und den [H]-Artikel verstanden habe, kümmert sich der Treiber über Shader-Replacement darum (Umfang unbekannt), und nicht der Code der Engine selbst.
93,
-Sascha.rb
Hm, da scheinst du auch Recht zu haben:
Mr. C. sagt ja:"...the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program, and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards."
Man sollte beten, dass keine geringfügigen Codewechsel kommen, damit die aufgemotzten Treiber nicht für den :arsch2: sind.
Damit nehme ich alle Unterstellungen von mir, dass NV30 Pfad im ARB2 lebt, vorläufig zurück.
Original geschrieben von deekey777
Hm, wie es aussieht, bringt Ultrashadow II rein gar nichts... Es ist nur der Verdienst von _PP!!! :weg:
Solange nV oder ID nichts offizielles dazu sagen, fällt das wohl unter die Rubrik Marketingblabla.
Wenn das Spiel rauskommt kann man ja Bildqualitätsunterschiede suchen. Dann hätte man was handfestes (egal welche Seite es betrifft).
JC sagte ja das die NV3X Serie den ARB2 Pfad verwendet, warum sollte das jetzt auf einmal nicht mehr stimmen?
€: FarCry zeigte ja das die Verwendung von FP16 beim NV40 kaum etwas bringt, oder siehe Shadermark (gibt Unterschiede aber sind nicht gravierend).
tombman
2004-07-25, 08:14:47
also ich find das köstlich.
Zuerst die Schlappe mit far cry und 3.0 (ATi mit 2.b selber speed-Gewinn) und jetzt die Sache mit PP und Doom3.
Ich hab von Anfang an gesagt, daß eine GT eine X800XTPE nicht um 15% hauen kann und daß es die ATi Treiber sein müssen- und genauso wirds auch sein.
Weiters finde ich lustig, daß sich die Nvidianer ständig über "nur" 24 Bit aufregten, aber absolut gar nix gegen 16bit PP von Nvidia hatten und haben.
Wobei doch ganz klar ist, daß es 10mal mehr Situationen gibt wo 16 gegenüber 24 nicht mehr ausreicht als Situationen wo 24 gegenüber 32 Artefakte erzeugt.
Das beste vorläufige Fazit hat schon Chris Hook gesagt:
It's also important to note that most of today's games play faster on ATI
hardware, and you can expect that to extend to other 'big title' games
expected this summer.
Chris Hook
Es ist wirklich ned viel was ATI vorne liegt, aber es ist eben die Wahrheit.
del_4901
2004-07-25, 08:59:57
Original geschrieben von tombman
also ich find das köstlich.
Zuerst die Schlappe mit far cry und 3.0 (ATi mit 2.b selber speed-Gewinn) und jetzt die Sache mit PP und Doom3.
Ich hab von Anfang an gesagt, daß eine GT eine X800XTPE nicht um 15% hauen kann und daß es die ATi Treiber sein müssen- und genauso wirds auch sein.
Weiters finde ich lustig, daß sich die Nvidianer ständig über "nur" 24 Bit aufregten, aber absolut gar nix gegen 16bit PP von Nvidia hatten und haben.
Wobei doch ganz klar ist, daß es 10mal mehr Situationen gibt wo 16 gegenüber 24 nicht mehr ausreicht als Situationen wo 24 gegenüber 32 Artefakte erzeugt.
Das beste vorläufige Fazit hat schon Chris Hook gesagt:
Es ist wirklich ned viel was ATI vorne liegt, aber es ist eben die Wahrheit.
Du hast 0 Plan über die Stabilität eines Algorithmus, wenn mein Algo stabil ist, dann gibt es zwischen FP16 und FP24 keinen Unterschied! Und ich denke mal Carmi hat sich da numerische Gedanken gemacht. Und Chris Hook vertrau ich mal weniger als Carmi was Treibercheaterein angeht. Darauf hat carmi in dem Bench extra hingewiesen!
LovesuckZ
2004-07-25, 09:34:52
Original geschrieben von M@g
€: FarCry zeigte ja das die Verwendung von FP16 beim NV40 kaum etwas bringt, oder siehe Shadermark (gibt Unterschiede aber sind nicht gravierend).
Na, FP16 bringt auf den NV40 karten wegen "NRM_pp" deutlich mehr Leistung als auf den NV3x. Das kann schonmal bis zu 50% betragen.
Karümel
2004-07-25, 09:38:25
Also was mich mal interessiern würde ist die Anforderung an den den Prozi und wie man (wenn man keine 3Ghz hat) "entlasten" kann, sprich was wird man evtl. alles runterregeln können/müssen um den Prozessor zu entlasten.
nggalai, hatte mal in einem anderen Topic geschrieben das das deaktivieren des Surround-Sound eines bringen könnte/wird.
LovesuckZ
2004-07-25, 09:41:57
Original geschrieben von tombman
Zuerst die Schlappe mit far cry und 3.0 (ATi mit 2.b selber speed-Gewinn) und jetzt die Sache mit PP und Doom3.
Schlappe? Muss man das verstehen? immerhin kann ATi nicht den SM3.0 Pfad verwenden sondern nur die PS2.b.
Eigentlich ist diese Dikussions langweilig, weil schon der PS2.a Pfad so haette aussehen muessen.
Weiters finde ich lustig, daß sich die Nvidianer ständig über "nur" 24 Bit aufregten, aber absolut gar nix gegen 16bit PP von Nvidia hatten und haben.
Ist es nicht Ironie des Schicksals, dass viele ATi User nicht eingestehen, dass "tryliniear" (und der Rest der Cheats) Bildqualitaet kostet, aber bei FP16 immer losheulen, wie ungerecht dies doch waere?
Wobei doch ganz klar ist, daß es 10mal mehr Situationen gibt wo 16 gegenüber 24 nicht mehr ausreicht [...]
Und in diesen Situationen setzt man FP32 ein.
nggalai
2004-07-25, 09:42:47
Von Kyle:
I know some of you have been disappointed at how narrow the benchmarks were this week. We did a LOT of tests with a lot of CPUs and Video Cards. Brent and I worked about 65 hours or so from Tuesday afternoon till early this morning at id putting together this data. We brought all of our own test equipment and we DID use the DOOM 3 GOLD MASTER for testing along with 61.76s and 8.05s.
GF3, TI4600, 5800, 5900, 6800, 680GT, 6800U are all coming this week. As well as 8500, 9600XT, 9800Pro, X800Pro, X800XT. There are probably a couple I missed in there as well.
[...]
http://www.beyond3d.com/forum/viewtopic.php?t=14359
Getestet wurde u.A. auch auf P4 2.4GHz und AthlonXP 2500+. Sollten also etwas "praxisrelevanter" sein, die neuen Benches. Wie für [H] eigentlich üblich handelt es sich dabei um in-game Tests mit FRAPS.
93,
-Sascha.rb
Winter[Raven]
2004-07-25, 10:22:18
Original geschrieben von tombman
also ich find das köstlich.
Zuerst die Schlappe mit far cry und 3.0 (ATi mit 2.b selber speed-Gewinn) und jetzt die Sache mit PP und Doom3.
Ich hab von Anfang an gesagt, daß eine GT eine X800XTPE nicht um 15% hauen kann und daß es die ATi Treiber sein müssen- und genauso wirds auch sein.
Weiters finde ich lustig, daß sich die Nvidianer ständig über "nur" 24 Bit aufregten, aber absolut gar nix gegen 16bit PP von Nvidia hatten und haben.
Wobei doch ganz klar ist, daß es 10mal mehr Situationen gibt wo 16 gegenüber 24 nicht mehr ausreicht als Situationen wo 24 gegenüber 32 Artefakte erzeugt.
Das beste vorläufige Fazit hat schon Chris Hook gesagt:
Es ist wirklich ned viel was ATI vorne liegt, aber es ist eben die Wahrheit.
Hast du auch was anderes auf Lage als immer wieder kehrende heiße Luft?
Langsamm wird es echt langweillig ...
Original geschrieben von Winter[Raven]
Hast du auch was anderes auf Lage als immer wieder kehrende heiße Luft?
Langsamm wird es echt langweillig ...
Ruhig Blut - ATi wird neue Treiber rausbringen, Doom3 wird öffentlich verfügbar sein und dann werden wir ja sehen, was Sache ist.
Wenn es Beeinträchtigungen in der Bildqualität gibt, ist FP16 nicht zu akzeptieren, genausowenig, wie irgendein anderes Format, welches nicht die erforderliche Qualität liefern kann, seien es nun FX12, das R200-Format oder FP24 oder gar FP32 - wenn ein Developer ein bestimmtes Format zuläßt oder gar absichtlich verwendet und in seinem Content kommt es damit zu Artefakten, muß er die Schuld dafür bei sich selbst suchen. Dasselbe gilt für IHVs, die nur eine eingeschränkte Genauigkeit bieten, Features dem User vorenthalten usw. - wenn dadurch nicht die optimale, technisch mögliche Bildqualität erreicht wird, ist der IHV "schuld".
Performance ist dabei zunächst mal unwichtig - das muss im Ermessen des Users liegen, wieviel Leistung er für wieviel Bildqualität bereit ist zu opfern.
BTW, gab es nicht mal eine Aussage von JC bezogen auf eine ältere Doom3-Version, daß der R200-Pfad nur minimale Einbußen gegenüber dem ARB2-Pfad haben sollte, der damals noch FP24 bedeutete?
AFAIK war das R200-Format ein Mittleres-Middelwisch mit 16Bit Genauigkeit - qualitativ unterhalb vom "echten" FP16.
Wie das in der endgültigen Version aussieht, werden wir dann ja bald zu sehen kriegen - es soll allerdings Leute geben, die rechnen auch 1+1=2 mit 'nem wissenschaftlichen Taschenrechner (Achtung, keine persönliche Beleidigung, sondern Analogie zum übertriebenen Einsatz von "Genauigkeit", wenn das mathematische Ergebnis dasselbe ist).
reunion
2004-07-25, 10:49:05
Original geschrieben von Gast
"Hi Richard - this is a non issue - Doom 3 isn't even available yet, and we all know that some of our competitors use partial precision where possible. We expect to have updated drivers available in the coming weeks."
Chris Hook
Hm, das würde dann auch erklären warum der Catalyst 4.8 offensichtlich vorgezogen wird...
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.