Archiv verlassen und diese Seite im Standarddesign anzeigen : Doom3 Performance Preview bei Hardocp (war: Doom3 Hardware-Anforderung)
HellHorse
2004-07-22, 01:22:53
Kann es, dass der noch nicht gepostet wurde?
http://www2.hardocp.com/article.html?art=NjQy
Winter[Raven]
2004-07-22, 01:25:57
GEforce 6800 GT, schlägt R420 PE in allen DOOM III Benches ... Ob mit AA oder AF oder beides, die GT bleibt vorne ... ;D
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_1_l.gif
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_2.gif
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
Original geschrieben von Joe
Ihr vergesst auch immer wieder das das psiel auch mit Hohen oder mitleren Details besser aussiht als alles was bisher da war...
mmh, ja klar Fanboy träum weiter
ich sag bloss kantige modelle mit genialem Bum Mapping
aber hauptsache tolle Licht-Schatten spielchen wo man sich dran totsehen kann - wahrscheinlich im wahren Sinne
" Ey, schau nicht auf die Schattenspiele da steht ein Zombi vor dir" plitschplatsch tot
perforierer
2004-07-22, 01:35:38
Das hier aus dem HardOCP Artikel wird einige doch sicher beruhigen:
"As of this afternoon we were playing DOOM 3 on a 1.5GHz Pentium 4 box with a GeForce 4 MX440 video card and having a surprisingly good gaming experience. Even a subtle jump to an AMD 2500+ with a GeForce 3 video card that is two years old will deliver a solid gaming experience that will let you enjoy the game the way id Software designed it to be"
:D
=)
DAS BERUHIGT!
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_4_1.gif
Für mich heisst dass ich kann mit meiner 9700 auf 800X600 high detail oder sogar 1024 spielen wenn ich den ein oder anderen ruckler aushalte und das tuh ich :D
Original geschrieben von Winter[Raven]
GEforce 6800 GT, schlägt R420 PE in allen DOOM III Benches ... Ob mit AA oder AF oder beides, die GT bleibt vorne ... ;D
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_1_l.gif
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_2.gif
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
also wenn man mit ner X800pro nur 40 fps hat werden diea lten ziehmlich mies auschaun
erst lesen dann denken das is mit 4X FSAA und 8X AF
1024x768x32 mit 4xAA/8xAF auf einer X800 Pro also 42 fps ... dann kommt ne (übertaktete) 9800 Pro auf rund 30 fps -- das reicht doch. :) Lieber 1280x1024x32 bei 2xAA/4xAF, dann flutschts besser und sieht genauso aus.
MfG,
Raff
dildo4u
2004-07-22, 01:47:30
Da wurde ja schon mal dick vorgelegt glaub kaum das Valve ATI bei HL2 so pushen wird das die NV40 karten da ähnlich schlecht dastehen
Ich frag mich immer warum die nicht Wirklich Raxissachen Testen ich mein wer psielt Doom mit 1600 und 4X FSAA
sollen lieber die 800X600 - 1280X1024 genauer untersuchen
War doch klar das man die neusten braucht um in super quali 1024 4xaa 8xaf zu spielen,naja ich hab ja bald eine ;D
Original geschrieben von Joe
Ich frag mich immer warum die nicht Wirklich Raxissachen Testen ich mein wer psielt Doom mit 1600 und 4X FSAA
sollen lieber die 800X600 - 1280X1024 genauer untersuchen
Weil das ein pro NV Test ist und in 1600 sieht die NV viel stärker aus als in 1024
dildo4u
2004-07-22, 01:52:10
Original geschrieben von Gast
Weil das ein pro NV Test ist und in 1600 sieht die NV viel stärker aus als in 1024 Fragt sich nur warum was passiert den wenn man die auflösung erhöt?Genau die last verteilt sich mher auf die GK *eg*
Nicht umbedingt aber im wesneltichen hast du recht.
Was ich am Test noch vermisse sind Bilder von Low Middle und Hich Detail das man mal ne vorstellung hat wies aussihet.
Evtl fällt der unterschied zwischen High und Middle fast nicht auf wie zB bei Battlefield Vietnam
die benchmarks beruhigen mich,doom3 tritt die hardware richtig in den arsch ;D
Wer mit aa/af zocken will brauch die neuesten karten damits keine diashow wird
danke JC :up:
mapel110
2004-07-22, 01:57:15
Original geschrieben von Gast
Weil das ein pro NV Test ist und in 1600 sieht die NV viel stärker aus als in 1024
sehe ich auch so. irgendwie ziemlich nvidia biased. ich wette, bei 1024er oder 1280er siehts nicht so drastisch aus.
aber andererseits wollte man wohl das limit zeigen, bei dem gaming noch möglich ist. naja, naja, naja. mal weitere tests abwarten.
Winter[Raven]
2004-07-22, 01:59:05
Original geschrieben von dildo4u
Fragt sich nur warum was passiert den wenn man die auflösung erhöt?Genau die last verteilt sich mher auf die GK *eg*
Das lustige ist ja auch das ehe ATI bei höhen Auflösungen mit AA und AF die Nvidia Karten hinter sich lassen konnte ... jetzt ist es andersrum :O
Und eine R420 PE lässt sich von einer GT in den Allerwertesten tretten.
Weil das ein pro NV Test ist und in 1600 sieht die NV viel stärker aus als in 1024
ohhh ... da ist baer jemand ein ganz schlechter Verlierer ... :arsch:
sehe ich auch so. irgendwie ziemlich nvidia biased. ich wette, bei 1024er oder 1280er siehts nicht so drastisch aus.
wieso biased? Die neuste Generation ist dafür gedacht in höhen Auflösungen mit AA oder AF spielen zukönnen. In 1024 und 1280 ist eine R420 und NV40 auch gleich ... Und wer sich mit 1024 oder 1280 abgeben muss, tut mir leit *eg*
dildo4u
2004-07-22, 02:01:18
Original geschrieben von Raff
1024x768x32 mit 4xAA/8xAF auf einer X800 Pro also 42 fps ... dann kommt ne (übertaktete) 9800 Pro auf rund 30 fps -- das reicht doch. :) Lieber 1280x1024x32 bei 2xAA/4xAF, dann flutschts besser und sieht genauso aus.
MfG,
Raff
Da könnten auch schon die 256MB greifen leider wurden keine tests mit einer 128MB karte gemacht
winter reifen ;D
ist doch super ausgeglichen
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
Winter[Raven]
2004-07-22, 02:03:47
@ Gast
Wenn du in 1024 zocks, bitte. Meine Augen sind für diese Auflösung einfach zuschade.
Original geschrieben von Joe
Ich frag mich immer warum die nicht Wirklich Raxissachen Testen ich mein wer psielt Doom mit 1600 und 4X FSAA
sollen lieber die 800X600 - 1280X1024 genauer untersuchen
Besitzer der getesteten High-End-Karten tun das. :)
Dennoch, du hast eigentlich recht, denn nur wenige Leute haben diese Geschosse. Wo bleiben Vergleichswerte mit 64- und 128MB-Karten?
@ dildo:
Ich hoffe doch, dass das keinen allzu großen Einfluss hat ...
MfG,
Raff
Beide Marken sind doch gleich auf
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
winter sagt das 1024 mit 4xaa 8xaf billig ist ;D das ist die einzige die man flüssig spielen kann
Original geschrieben von Raff
Besitzer der getesteten High-End-Karten tun das. :)
Dennoch, du hast eigentlich recht, denn nur wenige Leute haben diese Geschosse. Wo bleiben Vergleichswerte mit 64- und 128MB-Karten?
@ dildo:
Ich hoffe doch, dass das keinen allzu großen Einfluss hat ...
MfG,
Raff
64mb karten ? die kann man sich sparen,naja oder halt für ne diashow
dildo4u
2004-07-22, 02:12:19
Original geschrieben von Gast
Beide Marken sind doch gleich auf
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
winter sagt das 1024 mit 4xaa 8xaf billig ist ;D das ist die einzige die man flüssig spielen kann
6800GT 400€ Verfügbar
X800pro 400€Verfügbar DOOM3 kommt in 2wochen!
X800XT 500€ Nicht lieferbar Na fällt was auf ;D
*sinnfrei*
Alle Leute die sich gut informiert haben warten auf die XT weil sie besser ist
NVs AA ist immernoch grauenhaft
VooDoo7mx
2004-07-22, 02:18:37
Juhuu so wie es esschaut,w erd ich in allen Details mit 1280x960 +6AA/16xbri AF spielen können. =)
Aber wenn man mal genau darüber nachdenkt, wie stark nVidia mit id zusammenarbeitet, verwundert dieses Ergebnis nicht.
Gebt ATi noch 2-3 Treiberversioen Zeit und sie werden sicher ein wenig aufholen.
dildo4u
2004-07-22, 02:20:02
Original geschrieben von Gast
Dildo du machst dich grad lächerlich
Alle Leute die sich gut informiert haben warten auf die XT weil sie besser ist
NVs AA ist immernoch grauenhaft
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2041013#post2041013
Konnte ich nicht festellen
Original geschrieben von VooDoo7mx
Gebt ATi noch 2-3 Treiberversioen Zeit und sie werden sicher ein wenig aufholen.
was gibts da aufzuholen,oh 5 fps wau
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
perforierer
2004-07-22, 02:23:22
Original geschrieben von Winter[Raven]
@ Gast
Wenn du in 1024 zocks, bitte. Meine Augen sind für diese Auflösung einfach zuschade.
Siehste, bei mir z.B. isses genau anders rum, mir sind meine Augen zu schade für ne höhere Auflösung! :)
Kommt ja auch immer auf den Monitor an ;)
BVei nem 17 oder sogar 19 Zöller bevorzuge ich allemal 1024 oder 1280er...
Die Benchmarks sagen trotzdem nicht viel aus weil wir die timedemo nicht kennen. Sie kann in sehr kleinen räumen mit wenig monster sein also verlaßt euch nicht auf eure 60 fps mit der besten karte.
außerdem sind das durchschnittswerte d.h es geht bei action richtig in den keller
perforierer
2004-07-22, 02:28:44
Original geschrieben von Gast
64mb karten ? die kann man sich sparen,naja oder halt für ne diashow
Statt haltlose Statements zu produzieren ;) könntest Du auch produktive Sachen machen.
Zum Beispiel Dich
1. Anmelden, um aus der Anonymität zu treten und
2. einfach mal den Text zum Benchmark lesen, da würdest Du nämlich erkennen, dass das Spiel selbst auf einer GF3 mit 64 MB Speicher ordentlich läuft...und Spaß macht.
So, ich geh nun pennen, gute n8! :)
Original geschrieben von Winter[Raven]
@ Gast
Wenn du in 1024 zocks, bitte. Meine Augen sind für diese Auflösung einfach zuschade.
Ist doch klar das du mit der nv 1600 brauchst mit ner ati ist qauli mit 1024 mit 4xaa 8xaf perfekt
VooDoo7mx
2004-07-22, 02:30:49
Original geschrieben von Gast
was gibts da aufzuholen,oh 5 fps wau
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
Oh Gott, das ist 104x768!
Wer spielt denn heute noch in so einer Auflösung?
Über 1024 lacht sich meine zur X800XTPE gemoddete X800Pro krumm und schief.
Wer spielt denn heuet noch in 1024? 98Pro User? :|
Und genau hier muss ATI im Treiber tweaken, damit bei hohen Auflösungen, der Abstand nicht mehr so groß ist.
Und ich geb dir Brief und Siegel drauf, dass das auch so sein wird.
Aber so wie es aussieht, ist ID eine Meisterleistng gelungen. Der Performancefresser ist das Spiel nicht aber das optisch gebotene ist genial und die Engine performt sehr gut.
Selbst die alte Generation performt noch sehr gut.
Vielleicht sollten mal die Programmierer bei Crytek ein paar Nachhilfestunden bei Mr. Carmack nehmen. ;D
Ihr freut euch zu früh,die haben mit einem 3,6 ghz getestet und pci x karten !
dildo4u
2004-07-22, 02:37:26
Original geschrieben von Gast
Ihr freut euch zu früh,die haben mit einem 3,6 ghz getestet und pci x karten ! Nö sie haben mit PCI X und AGP getestet das AGP sys war ein P43.2
Hier ein Beweis für einen NVlastigen Test,es wird nie die reine auflösung getestet
hätte man hier das 8xaf ausgeschaltet würde die ATI vorbei ziehn
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_3.gif
mapel110
2004-07-22, 02:53:11
Original geschrieben von Gast
Hier ein Beweis für einen NVlastigen Test,es wird nie die reine auflösung getestet
hätte man hier das 8xaf ausgeschaltet würde die ATI vorbei ziehn
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_3.gif
glaube ich nicht, ATIs AF implementierung ist normalerweise schneller bei gleichem AF-Grad.
IC-Burn
2004-07-22, 03:52:39
@ VooDoo7mx
hehe... Crytek kann noch viel von Mr. Carmack lern ;D
Aber ich glaub das 6800 U noch zulegen kann weil der Treiber hat ja noch keine Pixel Shader 3 unterstützung .....
tombman
2004-07-22, 05:01:11
Original geschrieben von IC-Burn
@ VooDoo7mx
hehe... Crytek kann noch viel von Mr. Carmack lern ;D
Aber ich glaub das 6800 U noch zulegen kann weil der Treiber hat ja noch keine Pixel Shader 3 unterstützung .....
so ein Blödsinn.,.. natürlich hat der treiber 3.0 Unterstützung.. brauchst nur einen Wert in die reg. schreiben und schon geht es... oder glaubst carmack is zu blöd dafür wenn ICH es auch kann :rofl:
Im übrigen denke ich auch, daß das ein Marketing-veröffentlichung war, so wie damals bei valve und 9800 Serie.
Außer ID hat noch keiner diesen Test machen können, und jeder weiß, daß carmack seit dem leak ATi haßt.
Und was soll denn bitte 8.05 für ein ATI Treiber sein?? cat 4.7 hat erst 8.03.
Fazit: erstmal abwarten, denn wenn eine GT eine X800XTPE schlägt dann MUSS was faul sein imo.
p.s.: hier steht noch mehr: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=156691
@mods: zusammenlegen?
betasilie
2004-07-22, 05:33:22
Also für mich sieht das nach einer ganz bösen Schlappe für die X800Pro aus, auch wenn sie natürlich nicht wirklich schlecht läuft.
tombman
2004-07-22, 05:39:28
Original geschrieben von betareverse
Also für mich sieht das nach einer ganz bösen Schlappe für die X800Pro aus, auch wenn sie natürlich nicht wirklich schlecht läuft.
das war aber eh klar.. 12 pipes sind eben keine 16. Aber deswegen wird ATi ja auch die X800 GT rausbringen... die wird dann der Konkurrent für die Nvidia GT.
betasilie
2004-07-22, 05:41:21
Original geschrieben von tombman
das war aber eh klar.. 12 pipes sind eben keine 16. Aber deswegen wird ATi ja auch die X800 GT rausbringen... die wird dann der Konkurrent für die Nvidia GT.
Stimmt schon, aber das ist halt die Zukunft.
Die X800Pro ist z.Zt. der Konkurrent zur GT.
Aber es gibt ja nicht nur DoomIII und bei anderen Games ist ATI wieder im Vorteil, so dass der Wettberwerb offen bleibt.
Rentner
2004-07-22, 06:34:13
Interessant ist für mich, das wahrscheinlich die nächsten Games mit D3-Engine schon wieder Ruckelorgien auf den jetzt aktuellen Grakas verursachen werden!
Da aber die "alten" FX5950 und 9800XT noch spielbare Ergebnisse bei D3 liefern, kann man nur jedem raten der so eine Karte hat: "Spart euer Geld und wartet zumindest auf die Refreshchips!" :D
tombman
2004-07-22, 07:38:39
Original geschrieben von Rentner
Interessant ist für mich, das wahrscheinlich die nächsten Games mit D3-Engine schon wieder Ruckelorgien auf den jetzt aktuellen Grakas verursachen werden!
Da aber die "alten" FX5950 und 9800XT noch spielbare Ergebnisse bei D3 liefern, kann man nur jedem raten der so eine Karte hat: "Spart euer Geld und wartet zumindest auf die Refreshchips!" :D
ich wart eh nur mehr auf dual xeon tumwater + Nv45 SLI ownage ;)
GetDuff
2004-07-22, 08:25:10
Es ist ja alle ganz schön, rund um den Hype von Doom3. Aber ich behaupte mal, dass 70% aller NORMAL User hier, noch ne schwächere Hardware hat als ich, und ich frage mich wirklich, wer zuviel Geld hat und sich eine 5900ultra oder ne X800XT kauft, nur um einige Details mehr zu bestaunen ?
SKYNET
2004-07-22, 08:26:38
Original geschrieben von tombman
das war aber eh klar.. 12 pipes sind eben keine 16. Aber deswegen wird ATi ja auch die X800 GT rausbringen... die wird dann der Konkurrent für die Nvidia GT.
auch fürdich: es war ein tippfehler auf anandtech, der wurde beseitigt und eine 3. klassige website hat dann ein gerücht in die welt gesetzt.
weil auf anandtech sollte in der überschrift 6800GT stehn, haber die 6 vor der 8 wurde vergessen.
gab/gibt sogar nen thread dazu hier im board.
Naja die Tests bei HardOCP sind ja mit nem P4 3,6GHz gemacht, nicht gerade dass Alltagsgerät ^^
Bin gespannt wie sich kleinere CPU´s schlagen, und wie sich der Sound auf die Performance auswirkt, es hieß ja das Sound komplett von der CPU übernommen wird. Kein EAX oder so...
nggalai
2004-07-22, 09:09:28
Original geschrieben von Joe
Ich frag mich immer warum die nicht Wirklich Raxissachen Testen ich mein wer psielt Doom mit 1600 und 4X FSAA
sollen lieber die 800X600 - 1280X1024 genauer untersuchen ... weil das Spiel offenbar auch bei 1600x1200 mit und ohne 4xMSAA noch gut genug läuft?
93,
-Sascha.rb
nggalai
2004-07-22, 09:14:54
Original geschrieben von mapel110
sehe ich auch so. irgendwie ziemlich nvidia biased. ich wette, bei 1024er oder 1280er siehts nicht so drastisch aus.
aber andererseits wollte man wohl das limit zeigen, bei dem gaming noch möglich ist. naja, naja, naja. mal weitere tests abwarten. Hat auch 1024x768-Tests drin.
93,
-Sascha.rb
Winter[Raven]
2004-07-22, 09:15:28
Fazit: erstmal abwarten, denn wenn eine GT eine X800XTPE schlägt dann MUSS was faul sein imo.
Aha, vielleicht ist liegt es auch am Chip?
//EDIT:
NIMM ENDLICH MEIN ZITAT AUS DEINER SIGNATUR! ODER ICH LASSE ES VON EINEM MOD MACHEN! ICH KANN MICH NICHT ERINNERN DIR ERLAUBT HABEN MICH ZU ZITIEREN!!
Exxtreme
2004-07-22, 09:18:35
Original geschrieben von mapel110
glaube ich nicht, ATIs AF implementierung ist normalerweise schneller bei gleichem AF-Grad.
Die GF6800 hat aber Ultra Shadow. Das dürfte einen guten Geschwindigkeitsschub geben.
Cpl. Dwayne Hicks
2004-07-22, 09:20:37
bis ATi mit der X800GT in die gänge kommt vegehen eh noch 6 monate, da wette ich drauf....
Winter[Raven]
2004-07-22, 09:24:41
Die GF6800 hat aber Ultra Shadow
Hast eine II hinter vergessen ;)
Esxxtreme, beschleunigt die Technik eigentlich jedes Stencilnützendes Spiel? Braucht das Game Anpassung um die Funktion nützen zukönnen?
Demirug
2004-07-22, 09:35:36
Original geschrieben von Winter[Raven]
Hast eine II hinter vergessen ;)
Esxxtreme, beschleunigt die Technik eigentlich jedes Stencilnützendes Spiel? Braucht das Game Anpassung um die Funktion nützen zukönnen?
Teils teils. Machen Dinge von Ultra Shadow funktionieren automatisch andere muss man aktivieren (derzeit nur unter OpenGL möglich).
LovesuckZ
2004-07-22, 09:48:05
Original geschrieben von Gast
Weil das ein pro NV Test ist und in 1600 sieht die NV viel stärker aus als in 1024
1. ATi's OpenGL Treiber sind deutlich schlechter als die von Nvidia.
2. Sind die AF vergleiche unter OpenGL fair, da beide die selben "Optimierungen" verwenden.
3. Ist Hardocp eher eine Pro Ati als fuer Nvidia.
LovesuckZ
2004-07-22, 09:52:50
Original geschrieben von Gast
Hier ein Beweis für einen NVlastigen Test,es wird nie die reine auflösung getestet
hätte man hier das 8xaf ausgeschaltet würde die ATI vorbei ziehn
Mal sehen:
Die GT ist gleichschnell wie die Ultra. Was sagt uns das?
Richtig, die ATi Karten sind sehr ineffektiv...
nein, CPU Limitierung.
Achja, euch ist bewusst, dass Nvidia aufgrund der Architektur ohne AA in Doom3 besser ist als die ATi Konkurenz? Sie koennen ohne AA naemlich "32 z/stencil operations per clock cycle", ATi dagegen nur 16.
Kladderadatsch
2004-07-22, 09:53:59
statt die neusten highend-modelle in allen variationen zu testen, hätten die lieber etwas ältere oder schwächere grakas gebencht. wer hätte gedacht, dass d3 auf 2 monate alten karten läuft...
ergebnisse von geforce4, geforce3, 9500er karten u.ä. wären wesentlich interessanter gewesen.
Winter[Raven]
2004-07-22, 09:54:19
2. Sind die AF vergleiche unter OpenGL fair, da beide die selben "Optimierungen" verwenden.
Wer liefert trotzdem bessere Qualität? *eg*
3. Ist Hardocp eher eine Pro Ati als fuer Nvidia.
So ist es, ich sag nur NV40 Lunch ...
Achja, euch ist bewusst, dass Nvidia aufgrund der Architektur ohne AA in Doom3 besser ist als die ATi Konkurenz? Sie koennen ohne AA naemlich "32 z/stencil operations per clock cycle", ATi dagegen nur 16.
Ja, das dreht sich ja bei AA um, und ATI berechnet 32z/stencil ... deswegen kan nich auch nicht verstehen wieso ATI mit AA sich von einer GT lumpen lässt.
Original geschrieben von John Carmack
A note on overclocking: it is very likely that overclocked configurations that "play everything else perfectly" will start to show problems on D3 due to new usage patterns. Everyone is of course free to do whatever they want with their own hardware, but don't complain to us...
*???*
nggalai
2004-07-22, 09:58:47
Original geschrieben von iNSanE iN tHE mEMbRaNe
statt die neusten highend-modelle in allen variationen zu testen, hätten die lieber etwas ältere oder schwächere grakas gebencht. wer hätte gedacht, dass d3 auf 2 monate alten karten läuft...
ergebnisse von geforce4, geforce3, 9500er karten u.ä. wären wesentlich interessanter gewesen. Kommen noch, die nächsten Wochen. Brandon ist mit Kyle dran.
93,
-Sascha.rb
reunion
2004-07-22, 09:59:42
IMO war das nicht anders zu erwarten, bei HL2 wirds vermutlich genau andersherum ausschaun...
Kladderadatsch
2004-07-22, 10:00:16
Certainly we will have much more information on this in the coming weeks with the DOOM 3 [H]ardware Guide. At that time we will take a look at a much wider array of CPUs, Video Cards, and Motherboards and what overall gaming experience they can deliver.
ok, nehm alles zurück...
nggalai
2004-07-22, 10:00:42
Original geschrieben von Gast
*???* Soll heissen: DooM3 stresst die Hardware "anders" als die meisten anderen Spiele und Applikationen aufm Markt. i.e. wenn Übertakten bisher mit allem gut funktionierte, muss das noch lange nicht heissen, dass es das auch bei DooM3 tut.
93,
-Sascha.rb
LovesuckZ
2004-07-22, 10:02:15
Original geschrieben von reunion
IMO war das nicht anders zu erwarten, bei HL2 wirds vermutlich genau andersherum ausschaun...
Das wuerde ich nicht sagen.
Der Nv4x zeigt unter DX9 keine Schwaechen, im Gegensatz zu ATi und deren momentanen OpenGl Treiber.
Die einzige unbekannten konstante ist "3dc". Sollte Valve nur "3Dc" und "unkommprimierte" Normalmaps einsetzen, dann kann es bei Nvidia zu Problemen kommen, solange sie keinen NV4x mit 512MB Ram auf den Markt haben.
Winter[Raven]
2004-07-22, 10:04:08
Original geschrieben von reunion
IMO war das nicht anders zu erwarten, bei HL2 wirds vermutlich genau andersherum ausschaun...
Tjö, die Frage wird aber sein, ob Nvidia was mit DOOM III und der Performance zutun hat und es von sich aus so Gut läuft, oder wurde richtig Optimiert.
Bei HL2 denke ich aber könnte der Schuß nachhinten gehen für ATi, wenn sie NV ausbremsen oder explit auf ATI optimieren, den langsamm wird es ja bekannt sein dass die neuste NV Generation mit dem R420 ohne Probleme mithalten kann. Und solche Spielerein könnten dem Ansehn von ATi sehr schaden.
Exxtreme
2004-07-22, 10:09:15
Original geschrieben von Gast
Beide Marken sind doch gleich auf
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
winter sagt das 1024 mit 4xaa 8xaf billig ist ;D das ist die einzige die man flüssig spielen kann
OMG! Ein Unterschied von ganzen 6 fps. :o:o:o Da geht ja die Welt unter. :eyes:
reunion
2004-07-22, 10:11:52
Original geschrieben von LovesuckZ
Das wuerde ich nicht sagen.
Der Nv4x zeigt unter DX9 keine Schwaechen, im Gegensazt zu ATi und deren momentanen OpenGl Treiber.
Die einzige unbekannten konstante ist "3dc". Sollte Valve nur "3Dc" und "unkommprimierte" Normalmaps einsetzen, dann kann es bei Nvidia zu Problemen kommen, solange sie keinen NV4x mit 512MB Ram auf den Markt haben.
Das mag ja alles stimmen, nur geht eben nicht alles mit rechten dingen zu, ATi hat ja bekanntlich mehrere Mio. für Valve springen lassen und genau deshalb werden sie auch schneller sein ;)
Wetten? :naughty:
LovesuckZ
2004-07-22, 10:13:25
Original geschrieben von Exxtreme
OMG! Ein Unterschied von ganzen 6 fps. :o:o:o Da geht ja die Welt unter. :eyes:
Und die 18FPS zwischen GT und Pro?
Bzw. der Gleichstand zwischen ATi's Highendkarte und der 100€ billigeren GT, die einen laecherlichen Fillratenachteil von gerademal "2720" hat, "Da geht ja die Welt unter" fuer ATi.
nggalai
2004-07-22, 10:15:04
Original geschrieben von Exxtreme
OMG! Ein Unterschied von ganzen 6 fps. :o:o:o Da geht ja die Welt unter. :eyes: Jo, manche Leute neigen zur Überreaktion. Das Spiel läuft auf allen verfügbaren Karten gut, was will man mehr?
Nur wegen eines Spiels eine Karte auszuwählen ist ziemlich kurzsichtig.
93,
-Sascha.rb
reunion
2004-07-22, 10:17:00
Original geschrieben von Winter[Raven]
Tjö, die Frage wird aber sein, ob Nvidia was mit DOOM III und der Performance zutun hat und es von sich aus so Gut läuft, oder wurde richtig Optimiert.
Man wird sicher mal abwarten müssen wie sich das mit späteren treibern entwickelt, ATi wird sicher durch Treiberanpassungen noch einiges an Leistung rausholen können (NV natürlich auch wenn sies nicht schon getan haben)
Exxtreme
2004-07-22, 10:17:49
Original geschrieben von LovesuckZ
Bzw. der Gleichstand zwischen ATi's Highendkarte und der 100€ billigeren GT, die einen laecherlichen Fillratenachteil von gerademal "2720" hat, "Da geht ja die Welt unter" fuer ATi.
Ja, die X800Pro geht stark in die Knie. Und es bedeutet, daß meine R9700Pro langsam in die Jahre kommt. ;(
Aber trotzdem wird hier wegen 6 fps mal wieder was entfacht was IMHO nichtmal ein Sturm im Wasserglas ist.
Demirug
2004-07-22, 10:20:07
Original geschrieben von Winter[Raven]
Ja, das dreht sich ja bei AA um, und ATI berechnet 32z/stencil ... deswegen kan nich auch nicht verstehen wieso ATI mit AA sich von einer GT lumpen lässt.
Beim Z + Stencil Pass spielt der Speichercontroller eine grosse Rolle. Gerade bei diesen "Wenig arbeit pro Pixel" Geschichten hat der R420 leichte Probleme die Daten aus und in den Speicher zu bekommen.
Reißzahn
2004-07-22, 10:26:08
6 fps......das ist echt alles wofür ich gekämpft habe. Ich habe es aber auch nicht anders erwartet, wenn man ja bedenkt, dass Nvidia schon Monate vor der Goldveröffentlichung die Gf6800 Ultra usw. für Doom3 hochgepriesen hat.
Wer sich ne Ultra-Highend- Grafikkarte leisten kann (egal ATI oder Nvidia) hat bestimmt nichts zu befürchten. Aber das kann eben nciht jeder verdammt:madman:
Hardocp schreibt noch es wäre eine 3,6 Ghz mit ´2 Gb Ram gewesen.Die spinnen doch. Geht mal in euch hinein und versetzt euch in einen Gamer der "nur" einen 2 Ghz , 512Mb ram und ne G4 ti 4600 hat. Sind da vilelicht 30 fps bei medium details in 1024 *768 zu schaffen
LovesuckZ
2004-07-22, 10:28:53
Original geschrieben von Exxtreme
Ja, die X800Pro geht stark in die Knie. Und es bedeutet, daß meine R9700Pro langsam in die Jahre kommt. ;(
NV40 Karten gibt es schon zu kaufen :)
Aber trotzdem wird hier wegen 6 fps mal wieder was entfacht was IMHO nichtmal ein Sturm im Wasserglas ist.
Nun, man sieht zwischen Pro und GT, dass Nvidia fast 50% schneller ist, wenn beide ueber die selben altmodischen Leistungsdaten verfuegen.
Die XTPE "verliert" ja auch gegen die GT, trotz 50% Fillratevorteil.
Aber es stimmt, man sollte nicht fuer ein Spiel seine Karte kaufen. Sieht man auch an DX9 und NV3x. Nach den Shaderdays vor fast einem jahr, wieviele DX9 Spiele sind denn auf den Markt bekommen? 2? 3? Der Groeßteil ist sowieso Techlevel DX7, abundzu mal DX8. man sieht also, dass man mit einem NV3x wohl auch fast 2 Jahre (wenn man einen NV30 gekauft haette) um die runden kommen wird.
Jesus
2004-07-22, 10:34:59
naja für mich wieder mal ein Test zum aufgeilen von Fanboys und nichts weiter, solange es keine offiziellen nicht von NV gesponsorten Tests gibt ;)
Also erstmal abwarten und Tee trinken.
Btw. wieso ist eine FX mit aktiviertem AA schneller als ne XT die vorher schneller ohne AA war ? Kann mir das mal einer erklären ?
bzw. die XT verliert deutlich mehr FPS durchs AA?
Tjell
2004-07-22, 10:37:45
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_3.gif
Das schaut eher nach CPU-Limitierung aus.
Übrigens braucht man sich keine High-End-Karte kaufen, wenn sich mit geringerer Auflösung, keinem oder wenig AA/AF und weniger Spieldetails zufrieden geben kann.
Schließlich heißt es doch, daß man sogar auf einer MX440 ein ordentliches Spieleerlebnis hat.
Wer sich bei DOOM3 jedoch nicht mit weniger als der maximalen Qualität mit spielbaren Frameraten zufrieden geben will, der sollte halt mindestens eine FX5900/9800 sein Eigen nennen.
Ich persönlich bin (positiv) von der derzeitigen Performance der GT überrascht, halte aber nichts davon, ATI daraus nun einen Strick zu drehen.
Original geschrieben von iNSanE iN tHE mEMbRaNe
ergebnisse von geforce4, geforce3, 9500er karten u.ä. wären wesentlich interessanter gewesen.
:up:
Ja, die interessieren mich auch wesentlich mehr.
Reißzahn
2004-07-22, 10:39:07
Ich glaub den Benchmark hat nen Nvidianer gemacht uns zwar ganz alleine.:balla:
LovesuckZ
2004-07-22, 10:43:38
Original geschrieben von Reißzahn
Ich glaub den Benchmark hat nen Nvidianer gemacht uns zwar ganz alleine.:balla:
Carmack? *eg*
Warum waere dieser Test von nvidia bezahlt?
Immerhin verwenden sie die neusten Betatreiber von ATi und von Nvidia "nur" den offiziellen 61.76.
2 Spiele 2 Meinungen sag ich da nur ;)
FarCry rennt auf den Atis leicht schneller, dafür ist Doom3 auf den NV Boards schneller.
AFAIK sind die HardOCP Tests unabhängig (kein NV- oder ATi-Marketing Mensch war dabei), steht extra am Anfang im Text, wer lesen kann...
Abwarten wann die nächsten Reviews rauskommen, und die FX Serie scheint auch durch ihren Ultrashadow "Vorteil" nicht so extrem an Leistung zu verlieren.
Dank den Benchmarks bin ich zuversichtlich, dass ich das game in 1024er Auflösung und in High-Quality spielen kann :)
Jesus
2004-07-22, 10:49:43
aber naja es zeichnet sich das selbe Bild wie immer ab, solange [H] ( oder irgendjemand anderes ) etwas bringt das für ATI spricht sind sie absolut biased und leute wie LS lehnen diese Tests dann kategorisch ab ;) ( wie schon so oft ) .
Sobald aber mal was pro Nv kommt kann man den Test natürlich absolut für bare Münze nehmen, denn es muss ja schliesslich stimmen... ;D
deekey777
2004-07-22, 10:51:19
Ich liebe es, wenn Leute, die keine ATi-Grafikkarte haben, sich über die OpenGL-Treiber beschweren.
Die hätten zum Testen lieber den cat. 3.4 nehmen sollen, der die beste D3 Perfomance überhaupt hat.
Kleiner Nachtrag: Warum wurden die neuesten Grafikkarten kein einziges Mal ohne qualitätsverbessernde Spielereien getestet? Irgendwie wurde immer mit 8xAF getestet. Oder wollte kein Leser die rohe Performance sehen?
Original geschrieben von LovesuckZ
Das wuerde ich nicht sagen.
Der Nv4x zeigt unter DX9 keine Schwaechen, im Gegensatz zu ATi und deren momentanen OpenGl Treiber.
Die einzige unbekannten konstante ist "3dc". Sollte Valve nur "3Dc" und "unkommprimierte" Normalmaps einsetzen, dann kann es bei Nvidia zu Problemen kommen, solange sie keinen NV4x mit 512MB Ram auf den Markt haben.
Hi
Welche Probleme sollte ATi momentan mit den OpenGL Treibern haben. ???
Mir ist bis dato nichts aufgefallen.
Gruss Labberlippe
LovesuckZ
2004-07-22, 10:56:59
Original geschrieben von Jesus
aber naja es zeichnet sich das selbe Bild wie immer ab, solange [H] ( oder irgendjemand anderes ) etwas bringt das für ATI spricht sind sie absolut biased und leute wie LS lehnen diese Tests dann kategorisch ab ;) ( wie schon so oft ) .
Mister "ichbringehardocpimmeralsargumentfuermeinethese" werfe dieser nun Parteilichkeit vor.
Dabei ist doch hardocp aufgrund der Vorfaelle des letzten jahres mit Nvidia mehr zu einer ATiseite geworden wegen der neuen Benchmethode.
Ich sehe ihre Art zu benchen (Walkthrought) als falsch an, weil sie nur einen Graph zeigen, weil es einfach eine Bevormundung darstellt und man sich anmaßt, die fuer den User "besten" Einstellungen ermittelt zu haben (abgesehen davon, dass die Werte nicht vergleichbar sind, da sie nicht identisch zu stande kommen).
Also lieber Jesus solltest du deine Meinung nicht wie auch andere ATiliebhaber im Bezug der Windrichtung aendern.
LovesuckZ
2004-07-22, 10:57:40
Original geschrieben von Gast
Hi
Welche Probleme sollte ATi momentan mit den OpenGL Treibern haben. ???
Mir ist bis dato nichts aufgefallen.
Gruss Labberlippe
Speed.
Jesus
2004-07-22, 10:58:23
Original geschrieben von deekey777
Kleiner Nachtrag: Warum wurden die neuesten Grafikkarten kein einziges Mal ohne qualitätsverbessernde Spielereien getestet? Irgendwie wurde immer mit 8xAF getestet. Oder wollte kein Leser die rohe Performance sehen?
vermutlich da die NV40 bei 16xAF mehr performance verloren hätten... ;)
Original geschrieben von LovesuckZ
Speed.
Hi
Achso das war Dein Problem, weil eine Karte unter einer anderen API 3-5% langsamer ist muss der Komplette OpenGL Teil ja Mist sein....
Gruss Labberlippe
cyjoe
2004-07-22, 11:01:34
Was mich interessiert wäre die Performance bei 1280x1024 auf einer 5900xt. Denn darunter werde ich aus TFT-technischen Gründen nicht gehen ;(.
nggalai
2004-07-22, 11:02:41
Original geschrieben von Jesus
naja für mich wieder mal ein Test zum aufgeilen von Fanboys und nichts weiter, solange es keine offiziellen nicht von NV gesponsorten Tests gibt ;) Der Test wurde von id Software selbst eingefädelt und geführt. Sowohl ATI als auch NV waren anwesend, jeweils mit dem aktuellsten Treiber, den sie mitbringen wollen.
Wie ist das NV-gesponsort? ?(
93,
-Sascha.rb
nggalai
2004-07-22, 11:03:59
Original geschrieben von deekey777
Ich liebe es, wenn Leute, die keine ATi-Grafikkarte haben, sich über die OpenGL-Treiber beschweren.
Die hätten zum Testen lieber den cat. 3.4 nehmen sollen, der die beste D3 Perfomance überhaupt hat.
Du hast die Gold-Version von DooM3 auf cat 3.4 getestet? Wo?
93,
-Sascha.rb
deekey777
2004-07-22, 11:05:12
Original geschrieben von nggalai
Du hast die Gold-Version von DooM3 auf cat 3.4 getestet? Wo?
93,
-Sascha.rb
Ha-Ha-Ha... Ich meinte den 12. Mai 2003 - ua auch der Test bei HardOCP.
perforierer
2004-07-22, 11:05:13
Original geschrieben von Reißzahn
Wer sich ne Ultra-Highend- Grafikkarte leisten kann (egal ATI oder Nvidia) hat bestimmt nichts zu befürchten. Aber das kann eben nciht jeder verdammt:madman:
Hardocp schreibt noch es wäre eine 3,6 Ghz mit ´2 Gb Ram gewesen.Die spinnen doch. Geht mal in euch hinein und versetzt euch in einen Gamer der "nur" einen 2 Ghz , 512Mb ram und ne G4 ti 4600 hat. Sind da vilelicht 30 fps bei medium details in 1024 *768 zu schaffen
Also erstmal haben sie auf verschiedenen Geräten getestet, lies den Test nochmal. Und außerdem steht ja dort auch, dass man selbst mit nem kleineren Prozzi und ner GF3 das Spiel noch genießen kann.
Klar, wird eher auf low oder medium Details sein, aber das war schon immer so. Mit karten die ein oder zwei Jahre alt waren konnte man auch Unreal, UT, Q3 und UT2004 nicht in hohen Details spielen.
Wen juckts?
Hauptsache das Spiel läuft so flüssigm, dass der Spielspaß nicht leidet. Und es sieht dennoch gut aus.
Beides scheint mir nach dem Statement von Hardocp gegeben zus ein! :)
nggalai
2004-07-22, 11:05:40
Original geschrieben von deekey777
Kleiner Nachtrag: Warum wurden die neuesten Grafikkarten kein einziges Mal ohne qualitätsverbessernde Spielereien getestet? Irgendwie wurde immer mit 8xAF getestet. Oder wollte kein Leser die rohe Performance sehen? Der "High" Modus von DooM3 fordert 8°AF. Ohne ist's Medium.
Was wär dir lieber? High oder Medium Benchmarks? Auf High-End Grafikkarten?
93,
-Sascha.rb
LovesuckZ
2004-07-22, 11:06:01
Original geschrieben von Gast
Hi
Achso das war Dein Problem, weil eine Karte unter einer anderen API 3-5% langsamer ist muss der Komplette OpenGL Teil ja Mist sein....
Gruss Labberlippe
Du hast da zwei "nullen" vergessen.
"Achso das war Dein Problem, weil eine Karte unter einer anderen API 30-50% langsamer ist [...]
.
Und das zieht sich durch fast alle OpenGL Spiele, dass der Leistungsunterschied zwischen einer GT und Pro Karte deutlich ausfaellt zu gunsten von nvidia.
Ich meine, wenn Leistungs nicht wichtig ist, dann frage ich mich, warum einige (ATi)-user immer auf der DX9 Performance der Nv3x Karten herumgeritten haben...
Gandharva
2004-07-22, 11:06:02
hurra! - wieder mal ein fanboy kasperltheater... ;(
@topic
ich freu mich schon darauf das ich doom³ in 1280x1024
und ein bissl af und/oder aa spielen werden kann.
nggalai
2004-07-22, 11:06:33
Original geschrieben von deekey777
Ha-Ha-Ha... Ich meinte den 12. Mai 2003 - ua auch der Test bei HardOCP. Und welche Relevanz haben Benches mit alten Treibern und einer Beta-Version auf das fertige Spiel jetzt?
93,
-Sascha.rb
Ich bin Besitzer einer ATI Karte (X800pro) und muss ehrlich gestehen, dass ich über das Abschneiden der X800pro schon etwas enttäuscht bin. Das NV Karten hier Vorteile haben werden, war mir auch klar und ich gönn Besitern dieser Karten auch die durchs Band weg gute Performance.
Klar, die 42 FPS bei 1024*768 4x/8x gingen an sich noch in Ordnung, aber wenn man sieht, dass alle anderen doch gut 18 FPS mehr bieten, ist das schon eine ziemliche Klatsche.
Die X800XT kann immerhin einigermassen mithalten, aber für eine Karte mit diesen (theoretischen) Leistungswerten müsste einiges mehr herauskommen.
Wie dem auch sei, ich hoffe, dass in Sachen Tempo noch was geht.
Was ich einfach nicht verstehe, ist, warum sich einige zu freuen scheinen, dass ATI hier nun etwas schlecht dasteht.
Was geht in Kopf derjenigen ab, wenn ATI NV bügelt oder umgekehrt? Ist das Schadenfreude? Ich verstehe es echt nicht.
Jesus
2004-07-22, 11:09:00
Original geschrieben von Gast
Was ich einfach nicht verstehe, ist, warum sich einige zu freuen scheinen, dass ATI hier nun etwas schlecht dasteht.
Was geht in Kopf derjenigen ab, wenn ATI NV bügelt oder umgekehrt? Ist das Schadenfreude? Ich verstehe es echt nicht.
das nennt man Fanboyism ;)
Gandharva
2004-07-22, 11:12:08
Original geschrieben von Jesus
das nennt man Fanboyism ;)
also ich nenn das dummheit.
Original geschrieben von LovesuckZ
Du hast da zwei "nullen" vergessen.
"Achso das war Dein Problem, weil eine Karte unter einer anderen API 30-50% langsamer ist [...]
.
Und das zieht sich durch fast alle OpenGL Spiele, dass der Leistungsunterschied zwischen einer GT und Pro Karte deutlich ausfaellt zu gunsten von nvidia.
Ich meine, wenn Leistungs nicht wichtig ist, dann frage ich mich, warum einige (ATi)-user immer auf der DX9 Performance der Nv3x Karten herumgeritten haben...
Hi
Sorry Lovesuckz aber ich habe nirgendwo gesehen das nVIDIA durch die Bank 30-50% schneller als ATi unter OpenGL ist.
Bis auf die Doom3 ausnahme hier und da ist noch nicht geklärt wo das Problem ist.
Du bist einer der wenigen die anscheinend von einen Balken ohne genauere Angaben beurteilen können das der Treiber Mist ist.
Die Frage ist, welchen Renderpfad die Karten jetzt genau verwenden.
Wo ein Problem vorhanden ist.
Denn bei den höheren Auflösungen sieht die Sache für beide Hersteller knapp aus.
Hier kann man noch nicht Teufeln und gleich mit den Argument ich habe es gewusst kommen...
Mal sehen wenn die offizielle Version herraussen ist.
Dann werden auch die User genug benchen und die Daten werden dann eher der Realität entsprechen.
Bis jetzt ist das alles nur spekulation.
Gruss Labberlippe
deekey777
2004-07-22, 11:15:22
Original geschrieben von nggalai
Und welche Relevanz haben Benches mit alten Treibern und einer Beta-Version auf das fertige Spiel jetzt?
93,
-Sascha.rb
Technisch gesehen keine, aber da ist ein merkwürdiges Gefühl, dass irgendwas nicht stimmt.
Original geschrieben von nggalai
Der "High" Modus von DooM3 fordert 8°AF. Ohne ist's Medium.
Was wär dir lieber? High oder Medium Benchmarks? Auf High-End Grafikkarten?
93,
-Sascha.rb
Alles. Die Ausrede mit "Medium+HighEndGrafikkarten" gilt nicht.
Edit: Seit wann sind denn die Ergebnisse nur eines Tests - eines so wichtigen Tests - so aussagekräftig, ohne dass sie von anderen Testern bestätigt bzw. widerlegt wurden?
Hi
Nachtrag zu DX9 Performance.
nVIDIA hat das auch später in den Griff bekommen.
Also kann man deren DX9 Performance auch nicht als Mist hinstellen, weil am Anfang Probleme waren.
Gruss Labberlippe
nggalai
2004-07-22, 11:17:18
Hola,
Original geschrieben von Gast
Die Frage ist, welchen Renderpfad die Karten jetzt genau verwenden.
War durchgehend ARB2, i.e. derselbe Renderpfad für alle Karten.
Original geschrieben von Gast
Mal sehen wenn die offizielle Version herraussen ist.
Dann werden auch die User genug benchen und die Daten werden dann eher der Realität entsprechen.Das war die offizielle Version. Aber natürlich hast Du recht--wir brauchen mehr Benchmarks als nur den von [H]. Idealerweise von Usern, die auch an der Config rumspielen, mit und ohne Surround Sound benchen etc.
93,
-Sascha.rb
nggalai
2004-07-22, 11:19:41
Original geschrieben von deekey777
Alles. Die Ausrede mit "Medium+HighEndGrafikkarten" gilt nicht. Du hast das Review schon gelesen, oder? ;) Solche Benches kommen noch, "in the next few weeks". Das ganze hier war ziemlich ad-hoc, da ist's absolut verständlich, dass man sich auf High-End Karten und High-Settings konzentriert.
Ist doch schön zu sehen, dass DooM3 auch bei 1600x1200, 4xMSAA und 8°AF auf Highend-Karten noch gut läuft? Und dass auf Medium auch die Karten vom letzten Jahr noch gut dastehen? Was wollt ihr als erste Info noch mehr? ?(
93,
-Sascha.rb
Original geschrieben von nggalai
Hola,
War durchgehend ARB2, i.e. derselbe Renderpfad für alle Karten.
Das war die offizielle Version. Aber natürlich hast Du recht--wir brauchen mehr Benchmarks als nur den von [H]. Idealerweise von Usern, die auch an der Config rumspielen, mit und ohne Surround Sound benchen etc.
93,
-Sascha.rb
Hi
Thx dann wäre ja der Renderpfad geklärt.
Eben der Meinung bin ich auch das mehr Benches vorhanden sein sollen um sich ein endgültiges Urteil bilden zu können.
gruss Labberlippe
nggalai
2004-07-22, 11:28:29
Original geschrieben von Gast
Ich bin Besitzer einer ATI Karte (X800pro) und muss ehrlich gestehen, dass ich über das Abschneiden der X800pro schon etwas enttäuscht bin. Das NV Karten hier Vorteile haben werden, war mir auch klar und ich gönn Besitern dieser Karten auch die durchs Band weg gute Performance.
Klar, die 42 FPS bei 1024*768 4x/8x gingen an sich noch in Ordnung, aber wenn man sieht, dass alle anderen doch gut 18 FPS mehr bieten, ist das schon eine ziemliche Klatsche.
Die X800XT kann immerhin einigermassen mithalten, aber für eine Karte mit diesen (theoretischen) Leistungswerten müsste einiges mehr herauskommen.
Wie dem auch sei, ich hoffe, dass in Sachen Tempo noch was geht.Wird für die Pro eh noch kommen. Die Treiber wurden augenscheinlich noch nicht an die andere Architektur angepasst. Siehe auch hier:
http://www.beyond3d.com/forum/viewtopic.php?p=329326#329326
Wavey
WRT to X800 PRO performances, I've been trying to get this across to various people at ATI recently:
[...]
Theoretically, under no circumstances shoulf the X800 PRO be perfoming at the same levels as a 9800XT - especially not under bandwidth and fill limited situations, ergo there is seriously something all to cock with their OGL optimisation on the PRO. I would suspect that they have been concentrating on the XT PE and not the PRO - the PRO, with only 3 quads, will have vastly different memory access patterns to the XT and they need to go back and look at it some more to optimise it a little more.
93,
-Sascha.rb
In sechs Seiten drei Seiten Müll.
Bitte nggalai, wenn du schon mal hier bist, kannst du nicht die Fanboykommentare löschen?
LovesuckZ
2004-07-22, 11:32:29
Original geschrieben von Gast
Hi
Sorry Lovesuckz aber ich habe nirgendwo gesehen das nVIDIA durch die Bank 30-50% schneller als ATi unter OpenGL ist.
Du bist einer der wenigen die anscheinend von einen Balken ohne genauere Angaben beurteilen können das der Treiber Mist ist.
KotoR (http://www.xbitlabs.com/articles/video/display/pc-radx800pro-extreme_7.html)
City of Heroes (http://www.hardocp.com/article.html?art=NjM3LDU=)
Jedi Knigh: JA (http://www.anandtech.com/video/showdoc.aspx?i=2113&p=11)
Das sind drei unterschiedliche OpenGL Engine und in jeder fuehrt die GT mit 10% und mehr.
Ich lese also nicht "von einen Balken ohne genauere Angaben" sondern von mehreren.
Exxtreme
2004-07-22, 11:36:36
Original geschrieben von LovesuckZ
KotoR (http://www.xbitlabs.com/articles/video/display/pc-radx800pro-extreme_7.html)
Jedi Knigh: JA (http://www.anandtech.com/video/showdoc.aspx?i=2113&p=11)
Q3A-Engine? Wenn ja, dann benutzt diese Engine zwar viele NV-Extensions aber IIRC keine ATi-Extensions. Sprich, in dem Fall wäre das ein unfairer Wettkampf und eigentlich kaum vergleichbar.
reunion
2004-07-22, 11:36:52
Original geschrieben von Jesus
Btw. wieso ist eine FX mit aktiviertem AA schneller als ne XT die vorher schneller ohne AA war ? Kann mir das mal einer erklären ?
Der 9800XT geht da IMO einfach die Bandbreite aus, immerhin hat ja die 5950U über 100mhz höher getakteten Speicher...
seahawk
2004-07-22, 11:37:51
Original geschrieben von reunion
IMO war das nicht anders zu erwarten, bei HL2 wirds vermutlich genau andersherum ausschaun...
HL2 wird wesentlich deutliche PRO ATI ausfallen. Die überlegene Shaderperfromance der ATI Karten wird es richten. Micht würde es nicht wundern, wenn ne X800PRo ne 6800Ultra locker versägt.
Exxtreme
2004-07-22, 11:38:56
Original geschrieben von seahawk
Micht würde es nicht wundern, wenn ne X800PRo ne 6800Ultra locker versägt.
Darauf würde ich nicht wetten. :)
wankman
2004-07-22, 11:39:17
Ich möchte auch mal kurz meinen Senf dazu abgeben.
Macht euch doch nichts vor Leute: Solche Spiele wie z.B. jetzt doom3 sind doch dafür da eine neue Generation von Hardware zu etablieren. Einerseits möchte jeder eine
Grafik "wie von einem anderen Stern" aber möchte nicht in Kauf nehmen das dafür aber auch entsprechende Hardware benötigt wird.
Haben sich letzes Jahr noch viele Leute zwecks HL2 eine 9800pro gekauft, kauft sich jetzt wer kann für doom3 die hardware die es am besten zum laufen bringt.
Auch hier zählt wie in der Konsolenbranche
SOFTWARE sells HARDWARE nicht andersrum :-)
Greets
Winter[Raven]
2004-07-22, 11:39:24
Die überlegene Shaderperfromance
Also laut dem letzen Stand ist die Shaderperformanace mit dem NV40 besser.
dildo4u
2004-07-22, 11:39:54
Original geschrieben von seahawk
HL2 wird wesentlich deutliche PRO ATI ausfallen. Die überlegene Shaderperfromance der ATI Karten wird es richten. Micht würde es nicht wundern, wenn ne X800PRo ne 6800Ultra locker versägt. Wo? Ist die ATI karte im shader speed deutlich überlegen? Wie heisst noch mal die russenseite wo sie die HL2Beta gebencht haben da warn die NV karte sogar vorne glaub ich da müsste Valve aber zum schluss noch mal kräftig einbremsen wenn die X800pro die 6800U schlagen soll
LovesuckZ
2004-07-22, 11:40:18
Original geschrieben von Exxtreme
Q3A-Engine? Wenn ja, dann benutzt diese Engine zwar viele NV-Extensions aber IIRC keine ATi-Extensions. Sprich, in dem Fall wäre das ein unfairer Wettkampf und eigentlich kaum vergleichbar.
Kotor benutzt eine verbesserte NWN Engine.
Und was spricht dagegen, wenn ATi due nvidia Extensions verwendet? Macht Nvidia doch genauso (siehe PDF zum 61.76).
deekey777
2004-07-22, 11:41:54
Original geschrieben von nggalai
Du hast das Review schon gelesen, oder? ;) Solche Benches kommen noch, "in the next few weeks". Das ganze hier war ziemlich ad-hoc, da ist's absolut verständlich, dass man sich auf High-End Karten und High-Settings konzentriert.
Ist doch schön zu sehen, dass DooM3 auch bei 1600x1200, 4xMSAA und 8°AF auf Highend-Karten noch gut läuft? Und dass auf Medium auch die Karten vom letzten Jahr noch gut dastehen? Was wollt ihr als erste Info noch mehr? ?(
93,
-Sascha.rb
Ich bin ein Brillenträger, wo steht das mit few weeks? Bis jetzt fand ich nur das:"Certainly we will have much more information on this in the coming weeks with the DOOM 3 [H]ardware Guide. At that time we will take a look at a much wider array of CPUs, Video Cards, and Motherboards and what overall gaming experience they can deliver."
Und da steht noch was ganz offizielles:
"NVIDIA has told us more than once that the 6800 series was “designed to play DOOM 3,” and the truth of that statement is now glaringly obvious."
Viel Spass bei anderen Spielen. ;(
seahawk
2004-07-22, 11:43:33
Original geschrieben von dildo4u
Wo? Ist die ATI karte im shader speed deutlich überlegen?
Mein Gott, ihr geht ja auf jeden Quatsch ein. Das Ergebnis war genauso zu erwarten, wie ein Vorsprung von ATI in HL2 zu erwarten ist. Welche Hardware der Softwareentwickler als Basis nutzt wird immer einen Einfluss haben und der NV40 ist sehr auf die Doom3 Engine zugeschnitten.
deekey777
2004-07-22, 11:43:56
Original geschrieben von LovesuckZ
Kotor benutzt eine verbesserte NWN Engine.
Und was spricht dagegen, wenn ATi due nvidia Extensions verwendet? Macht Nvidia doch genauso (siehe PDF zum 61.76).
NWN? Das Spiel von "ATi-Hassern"? NWN ist ein sehr, sehr schlechtes Beispiel.
Was dagegen spricht, wenn ATi dienV Extensions verwendet?
Ist doch klar: ATi verwendet keine eigenen Extensions.
Aber: Was hat Doom 3 (+D3 Engine), die zur Zeit die aktuelleste OpenGL Engine darstellt, mit den Sachen von vorgestern zu tun?
Jesus
2004-07-22, 11:46:47
Original geschrieben von dildo4u
Wo? Ist die ATI karte im shader speed deutlich überlegen? Wie heisst noch mal die russenseite wo sie die HL2Beta gebencht haben da warn die NV karte sogar vorne glaub ich da müsste Valve aber zum schluss noch mal kräftig einbremsen wenn die X800pro die 6800U schlagen soll
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2016837#post2016837
Exxtreme
2004-07-22, 11:46:47
Original geschrieben von LovesuckZ
Kotor benutzt eine verbesserte NWN Engine.
Die NWN-Engine läuft auf so ziemlich allem schlecht was nicht von Nvidia ist. OpenGL guy aus dem R3D-Forum hat mal geschrieben, daß ATi das Spiel aufgrund seiner Programmierung nicht schnell bekommen kann.
Und wenn ATi die Nvidia-Extensions übernimmt dann heisst's noch lange nicht, daß dies eine Beschleunigung bringen wird.
reunion
2004-07-22, 11:47:16
Original geschrieben von nggalai
Der Test wurde von id Software selbst eingefädelt und geführt. Sowohl ATI als auch NV waren anwesend, jeweils mit dem aktuellsten Treiber, den sie mitbringen wollen.
Wie ist das NV-gesponsort? ?(
93,
-Sascha.rb
Und wer sagt das NV auf dieses "Timedemo1" nicht schon optimieren konnte?
John Carmack ist sicher nicht neutral und er wird dafür von Nv vermutlich auch nicht schlecht bezahlt, alles andere als solch ein Ergebnis wäre mehr als überraschend gewesen...
LovesuckZ
2004-07-22, 11:50:09
Original geschrieben von Exxtreme
Die NWN-Engine läuft auf so ziemlich allem schlecht was nicht von Nvidia ist. OpenGL guy aus dem R3D-Forum hat mal geschrieben, daß ATi das Spiel aufgrund seiner Programmierung nicht schnell bekommen kann.
Ich denke schon, dass die Kotor-engine deutlich besser abgestimmt ist als die urspruengliche fuer NWN. Alleine schon, weil die Verbreitung von ATi Karten groeßer ist.
Und wenn ATi die Nvidia-Extensions übernimmt dann heisst's noch lange nicht, daß dies eine Beschleunigung bringen wird.
Ja, aber so ist das leben. Siehe auch DX9 und Nvidia.
Oder eben Shadermark2.0 oder die HDR Demo, wo Nvidiakkarten aufgrund fehlender Unterstuetzung fuer ATi's Texturformate nicht alles bzw. alle Test darstellen koennen.
Die Radeon X800 Karten werden erst seit dem Catalyst 4.5 unterstützt. Daher wäre es gar nicht möglich gewesen in diesem Test, der ja bisher nur die neuen Grafikkarten umfasst, ältere Treiber zu verwenden.
nggalai
2004-07-22, 11:53:52
Original geschrieben von reunion
Und wer sagt das NV auf dieses "Timedemo1" nicht schon optimieren konnte? id Software sagt das.
Und nur wegen Benchmarkergebnissen, die mal die NV-Karten überlegen zeigen, gleich ein Komplott beim Spieleprogrammierer zu vermuten finde ich etwas daneben. Was für ein Interesse hätte id daran, ein Spiel absichtlich auf der Hälfte aller Extrem-Spieler Grafikkarten auszubremsen? Die wollen Geld verdienen. Soviel hat auch NV nicht im Marketingbeutel, als dass man sowas finanzieren könnte.
93,
-Sascha.rb
P.S. Du hast Post. ;) -.rb
perforierer
2004-07-22, 11:54:52
Original geschrieben von reunion
Und wer sagt das NV auf dieses "Timedemo1" nicht schon optimieren konnte?
John Carmack ist sicher nicht neutral und er wird dafür von Nv vermutlich auch nicht schlecht bezahlt, alles andere als solch ein Ergebnis wäre mehr als überraschend gewesen...
JKlar ist D3 für die nVidia karten optimiert.. das ist aber doch nun wirklich nix neues.
Ich verstehe die ganze Aufregung gar nicht. die Benches waren doch so zu erwarten.
Im Prinzip enttäuscht nur die x800Pro, aber mit den 12 Pipes konnte man auch dieses ergebnis erwarten...
Original geschrieben von deekey777
Was dagegen spricht, wenn ATi dienV Extensions verwendet?
Ist doch klar: ATi verwendet keine eigenen Extensions.
Vendor: ATI Technologies Inc.
Version: 1.5.4454 WinXP Release
Renderer: RADEON X800 PRO x86/SSE2
---------------------------------
OpenGL extensions:
GL_ARB_multitexture
GL_EXT_texture_env_add
GL_EXT_compiled_vertex_array
GL_S3_s3tc
GL_ARB_depth_texture
GL_ARB_fragment_program
GL_ARB_fragment_program_shadow
GL_ARB_fragment_shader
GL_ARB_multisample
GL_ARB_occlusion_query
GL_ARB_point_parameters
GL_ARB_shader_objects
GL_ARB_shading_language_100
GL_ARB_shadow
GL_ARB_shadow_ambient
GL_ARB_texture_border_clamp
GL_ARB_texture_compression
GL_ARB_texture_cube_map
GL_ARB_texture_env_add
GL_ARB_texture_env_combine
GL_ARB_texture_env_crossbar
GL_ARB_texture_env_dot3
GL_ARB_texture_mirrored_repeat
GL_ARB_transpose_matrix
GL_ARB_vertex_blend
GL_ARB_vertex_buffer_object
GL_ARB_vertex_program
GL_ARB_vertex_shader
GL_ARB_window_pos
GL_ATI_draw_buffers
GL_ATI_element_array
GL_ATI_envmap_bumpmap
GL_ATI_fragment_shader
GL_ATI_map_object_buffer
GL_ATI_separate_stencil
GL_ATI_texture_compression_3dc
GL_ATI_texture_env_combine3
GL_ATI_texture_float
GL_ATI_texture_mirror_once
GL_ATI_vertex_array_object
GL_ATI_vertex_attrib_array_object
GL_ATI_vertex_streams
GL_ATIX_texture_env_combine3
GL_ATIX_texture_env_route
GL_ATIX_vertex_shader_output_point_size
GL_EXT_abgr GL_EXT_bgra
GL_EXT_blend_color
GL_EXT_blend_func_separate
GL_EXT_blend_minmax
GL_EXT_blend_subtract
GL_EXT_clip_volume_hint
GL_EXT_draw_range_elements
GL_EXT_fog_coord
GL_EXT_multi_draw_arrays
GL_EXT_packed_pixels
GL_EXT_point_parameters
GL_EXT_rescale_normal
GL_EXT_secondary_color
GL_EXT_separate_specular_color
GL_EXT_shadow_funcs
GL_EXT_stencil_wrap
GL_EXT_texgen_reflection
GL_EXT_texture3D
GL_EXT_texture_compression_s3tc
GL_EXT_texture_cube_map
GL_EXT_texture_edge_clamp
GL_EXT_texture_env_combine
GL_EXT_texture_env_dot3
GL_EXT_texture_filter_anisotropic
GL_EXT_texture_lod_bias
GL_EXT_texture_mirror_clamp
GL_EXT_texture_object
GL_EXT_texture_rectangle
GL_EXT_vertex_array
GL_EXT_vertex_shader
GL_HP_occlusion_test
GL_NV_texgen_reflection
GL_NV_blend_square
GL_NV_occlusion_query
GL_ARB_point_sprite
GL_SGI_color_matrix
GL_SGIS_texture_edge_clamp
GL_SGIS_texture_border_clamp
GL_SGIS_texture_lod
GL_SGIS_generate_mipmap
GL_SGIS_multitexture
GL_SUN_multi_draw_arrays
GL_WIN_swap_hint
WGL_EXT_extensions_string
WGL_EXT_swap_control
Exxtreme
2004-07-22, 11:55:26
Original geschrieben von LovesuckZ
Ja, aber so ist das leben. Siehe auch DX9 und Nvidia.
Oder eben Shadermark2.0 oder die HDR Demo, wo Nvidiakkarten aufgrund fehlender Unterstuetzung fuer ATi's Texturformate nicht alles bzw. alle Test darstellen koennen.
Trotzdem kann man nicht behaupten, daß die OpenGL-Treiber von ATi schlecht sind bloß weil die Programmierer die vorhandenen Möglichkeiten nicht nutzen. :)
Original geschrieben von perforierer
Im Prinzip enttäuscht nur die x800Pro, aber mit den 12 Pipes konnte man auch dieses ergebnis erwarten...
Wo ist der gravierende Unterschied zwischen 12 Pipes mit 475MHz ggü. 16 Pipes mit 350MHz?
(Bis auf die Möglichkeit, daß ATi es nach nunmehr drei Treiberrevisionen noch nicht für nötig befunden hat, den Treiber auch für die kaufbare X800p zu optimieren)
Original geschrieben von Gast
Dildo du machst dich grad lächerlich
Alle Leute die sich gut informiert haben warten auf die XT weil sie besser ist
NVs AA ist immernoch grauenhaft Ich finde das FSAA vom NV40 sehr gut. Die Radeon ist noch etwas besser. "Grauenhaft" ist der 4x-Modus bei einer 5950 Ultra, aber nicht bei einer 6800.
deekey777
2004-07-22, 11:59:27
Original geschrieben von q@e
*Der Code ist weg.*
Was ist das? Quake 3-(Engine)? NWN? KOTOR?OpenGL 1.x?
Extra für dich: ATi verwendet keine eigenen Extensions, sondern weicht auf die von nVidia aus.
LovesuckZ
2004-07-22, 12:01:08
Original geschrieben von Exxtreme
Trotzdem kann man nicht behaupten, daß die OpenGL-Treiber von ATi schlecht sind bloß weil die Programmierer die vorhandenen Möglichkeiten nicht nutzen. :)
Warum will ATi dann die OpenGL Treiber neuschreiben? :)
Dann wuerde dies aber bedeuten, dass ATi eine OpenGL Schwaeche haette. Ich denke, dies geht zu weit.
perforierer
2004-07-22, 12:01:34
Original geschrieben von q@e
Wo ist der gravierende Unterschied zwischen 12 Pipes mit 475MHz ggü. 16 Pipes mit 350MHz?
(Bis auf die Möglichkeit, daß ATi es nach nunmehr drei Treiberrevisionen noch nicht für nötig befunden hat, den Treiber auch für die kaufbare X800p zu optimieren)
Ich meine nicht im Vergleich zur 6800, sondern im Vergleich zur großen x800, die sich wesentlich besser behauptet. Der Unterschied ist ja deutlich erkennbar an den Benches.
Tjell
2004-07-22, 12:03:27
Original geschrieben von seahawk
HL2 wird wesentlich deutliche PRO ATI ausfallen. Die überlegene Shaderperfromance der ATI Karten wird es richten. Micht würde es nicht wundern, wenn ne X800PRo ne 6800Ultra locker versägt.
Dieser Beitrag strotzt ja vor Sachlichkeit.
:puke:
reunion
2004-07-22, 12:03:47
Original geschrieben von q@e
Wo ist der gravierende Unterschied zwischen 12 Pipes mit 475MHz ggü. 16 Pipes mit 350MHz?
Eben, die X800pro hat sogar einen Füllratenvorteil gegenüber der 6800GT.
Original geschrieben von deekey777
*Der Code ist weg.*
Was ist das? Quake 3-(Engine)? NWN? KOTOR?OpenGL 1.x?
Extra für dich: ATi verwendet keine eigenen Extensions, sondern weicht auf die von nVidia aus.
Das waren die ausgelesenen unterstützten OpenGL-Extensionen von ATis OpenGL-Treiber. Spielunabhängig. :)
Original geschrieben von VooDoo7mx
Aber wenn man mal genau darüber nachdenkt, wie stark nVidia mit id zusammenarbeitet, verwundert dieses Ergebnis nicht.
Gebt ATi noch 2-3 Treiberversioen Zeit und sie werden sicher ein wenig aufholen. Das denke ich nicht. NV40 ist im Vergleich zum R420 der deutlich fortschrittlichere Chip. Wahrscheinlich kann ATI mit Treiberupdates noch einige Frames rausholen. Das traue ich NV bei ihren Treibern aber auch zu. ATM wundere ich mich eher über die "nur" 20-25% Geschwindigkeitsvorteil beim NV40. Dass ATI den R420 höher takten kann, als NV den NV40, rettet sie davor dass man so richtig sieht, was die unterschiedlichen Chips pro Takt leisten. (Natürlich ist es egal, wie die Leistung zustande kommt, ob nun durch höheren Takt oder durch mehr Berechnungen pro Takt.)
Original geschrieben von perforierer
Ich meine nicht im Vergleich zur 6800, sondern im Vergleich zur großen x800, die sich wesentlich besser behauptet. Der Unterschied ist ja deutlich erkennbar an den Benches.
Ach so. =)
Naja, so ist das eben mit unterschiedlichen Füllraten - und ShaderOps/s. Je nach Spiel schlagen die mal kaum und mal ziemlich stark durch.
Eigentlich könnte eine XT PE rund 46$ schneller als eine X800p sein.
Major J
2004-07-22, 12:08:30
Da ich ja durch meine GF3 nicht so AA verwöhnt war, werde ich Doom3 auch ohne AA spielen. Hoffentlich läuft es in 1280*960 oder 1024*768 (natürlich High Detail :D) relativ gut auf einer 9800 Pro.
Gruß Jan
deekey777
2004-07-22, 12:08:36
Original geschrieben von Tjell
Dieser Beitrag strotzt ja vor Sachlichkeit.
:puke:
Dieser noch mehr.
@Quasar:
Ich meinte damit was ganz anderes. Ist aber egal.
Exxtreme
2004-07-22, 12:08:59
Original geschrieben von LovesuckZ
Warum will ATi dann die OpenGL Treiber neuschreiben? :)
Dann wuerde dies aber bedeuten, dass ATi eine OpenGL Schwaeche haette. Ich denke, dies geht zu weit.
Ich weiss nicht warum ATi die Treiber neu schreiben will. Für eine neue Implementation müssen nicht immer Performanceprobleme der Grund sein. Kann sein, daß der Code unübersichtlich ist etc.
Original geschrieben von Gast
Ist doch klar das du mit der nv 1600 brauchst mit ner ati ist qauli mit 1024 mit 4xaa 8xaf perfekt Nah. Die 4x AA-Qualität ist bei der Radeon etwas besser. Die 8x AF-Qualität der Radeon ist aber schlechter.
Original geschrieben von aths
[...], was die unterschiedlichen Chips pro Takt leisten. (Natürlich ist es egal, wie die Leistung zustande kommt, ob nun durch höheren Takt oder durch mehr Berechnungen pro Takt.)
Dafür siehst du bei D3 und GT/Pro z.B. ganz gut, was die Karten "pro Füllrate" leisten können.
Da ja egal ist, wie die Leistung zustande kommt, sind die 5600 vs. 5700 MPix/s schon fast wie "gleicher Takt" zu werten.
Original geschrieben von deekey777
@Quasar:
Ich meinte damit was ganz anderes. Ist aber egal.
Dann schreib doch bitte was du meinst und nicht irgendwelche anderen Dinge, ja? =)
Original geschrieben von seahawk
Mein Gott, ihr geht ja auf jeden Quatsch ein. Das Ergebnis war genauso zu erwarten, wie ein Vorsprung von ATI in HL2 zu erwarten ist. Welche Hardware der Softwareentwickler als Basis nutzt wird immer einen Einfluss haben und der NV40 ist sehr auf die Doom3 Engine zugeschnitten. Ja. Andererseits kann NV40 pro Takt mehr Pixelshader-Operationen berechnen, als R420. Imo ist der Vorteil größer, als ATI den R420 höher taktet. In HL2 erwarte ich nicht, dass die X800 die 6800 versägt. (Es sei denn, die Shader sind wider meiner Erwartung füllratenlimitiert, dann hätte ATI natürlich die besseren Karten.)
Original geschrieben von LovesuckZ
Mal sehen:
Die GT ist gleichschnell wie die Ultra. Was sagt uns das?
Richtig, die ATi Karten sind sehr ineffektiv...
nein, CPU Limitierung.
Achja, euch ist bewusst, dass Nvidia aufgrund der Architektur ohne AA in Doom3 besser ist als die ATi Konkurenz? Sie koennen ohne AA naemlich "32 z/stencil operations per clock cycle", ATi dagegen nur 16. Ab 2x MSAA hat NV40 hier keinen Vorteil mehr.
deekey777
2004-07-22, 12:19:12
Original geschrieben von q@e
Dann schreib doch bitte was du meinst und nicht irgendwelche anderen Dinge, ja? =)
Ich meinte nur das:
Original geschrieben von LovesuckZ
...
Und was spricht dagegen, wenn ATi die nvidia Extensions verwendet?...
Was dagegen spricht, wenn ATi die nV Extensions verwendet?
Ist doch klar: ATi verwendet keine eigenen Extensions.
Original geschrieben von aths
Ab 2x MSAA hat NV40 hier keinen Vorteil mehr.
Dafür andere Vorteile (die eher 'geringere Nachteile' sind) mit 4xAA.
Original geschrieben von Exxtreme
Q3A-Engine? Wenn ja, dann benutzt diese Engine zwar viele NV-Extensions aber IIRC keine ATi-Extensions. Sprich, in dem Fall wäre das ein unfairer Wettkampf und eigentlich kaum vergleichbar.
NV kann aber nichts dafuer, dass ATi nicht in der Lage ist diese Extensions anzubieten, weil ihre HW das nicht her gibt.
Original geschrieben von deekey777
Ich meinte nur das:
Was dagegen spricht, wenn ATi die nV Extensions verwendet?
Ist doch klar: ATi verwendet keine eigenen Extensions.
Und daraufhin habe ich dir die ausgelesenen Extensionen gezeigt, in denen klipp und klar zu sehen war/ist, daß ATi eben doch eigene Extensionen verwendet.
Und du sagst, du meinst das nicht... :gruebel:
Exxtreme
2004-07-22, 12:21:58
Original geschrieben von ow
NV kann aber nichts dafuer, dass ATi nicht in der Lage ist diese Extensions anzubieten, weil ihre HW das nicht her gibt.
Und deshalb ist der OpenGL-Treiber von ATi schlecht weil die HW nicht alle Fähigkeiten der Konkurrenz-HW hat? :???:
LovesuckZ
2004-07-22, 12:23:34
Original geschrieben von Exxtreme
Und deshalb ist der OpenGL-Treiber von ATi schlecht weil die HW nicht alle Fähigkeiten der Konkurrenz-HW hat? :???:
Nein, aus der Sicht liegt es an der Hardware. Also eine OpenGL Schwaeche. Eigentlich viel schlimmer...
Man kann sich dochmal irren :(
Original geschrieben von Exxtreme
Und deshalb ist der OpenGL-Treiber von ATi schlecht weil die HW nicht alle Fähigkeiten der Konkurrenz-HW hat? :???:
Ich glaube du bist hier im falschen Kontext. Ich hab doch gar nichts zu ATis OGL Treiber geschrieben.
Exxtreme
2004-07-22, 12:38:18
Original geschrieben von ow
Ich glaube du bist hier im falschen Kontext. Ich hab doch gar nichts zu ATis OGL Treiber geschrieben.
Aber darum ging's eigentlich. LS behauptete, daß die OpenGL-Treiber von ATi schlecht seien weil langsamer als die von NV. Ich machte ihn dann auf die Situation mit den Extensions aufmerksam und daß viele Spiele NV-Extensions nutzen aber keine/kaum Extensions von ATi etc.
Daß Nvidia nicht dafür kann, daß ATi nicht alle NV-Extensions anbieten kann, ist zwar richtig, darum ging's aber nicht. :)
Original geschrieben von Exxtreme
Aber darum ging's eigentlich. LS behauptete, daß die OpenGL-Treiber von ATi schlecht seien weil langsamer als die von NV. Ich machte ihn dann auf die Situation mit den Extensions aufmerksam und daß viele Spiele NV-Extensions nutzen aber keine/kaum Extensions von ATi etc.
Daß Nvidia nicht dafür kann, daß ATi nicht alle NV-Extensions anbieten kann, ist zwar richtig, darum ging's aber nicht. :)
Auch wenn keine NV Extensions genutzt werden liegt ATi idR. leistungsmaessig noch hinter NV zurueck.
Dass Atis Extensions weniger genutzt werden koennte an deren schlechterem Developer-Support liegen.
interessant ist auch das die x800pro langsamer ist als ne 9800xt. (jedenfalls in timedeom 1) alleine diese tatsache lässt das ganze mehr als fragwürdig erscheinen. denke mal ati wird für das spiel nen neuen treiber rausbringen.die x800pro hat 12 pipes statt 8 und deutlich höheren takt. da kann mir niemand erzählen, dass die 98xt schneller ist ;D
Ich schaffe mir jetzt noch zusätzlich ne 6800GT an und werde ab Release mal kräftig benchen denk ich. Mal sehen welche Karte ich danach behalte ;)
seahawk
2004-07-22, 13:01:33
Original geschrieben von aths
Ja. Andererseits kann NV40 pro Takt mehr Pixelshader-Operationen berechnen, als R420. Imo ist der Vorteil größer, als ATI den R420 höher taktet. In HL2 erwarte ich nicht, dass die X800 die 6800 versägt. (Es sei denn, die Shader sind wider meiner Erwartung füllratenlimitiert, dann hätte ATI natürlich die besseren Karten.)
Kann icht nicht sage, ich kenne die Shader von HL2 nicht gut genung. Ich vermute auch eher, dass ein anderer Faktor (3Dc) da einen Einfluss haben könnte. Besonders wenn ich sehe wie HL2 Texturen erzeugt.
Original geschrieben von tombman
Fazit: erstmal abwarten, denn wenn eine GT eine X800XTPE schlägt dann MUSS was faul sein imo.Imo nicht. Die GT kann dank der technischen Fortschrittlichkeit aus weniger MHz mehr machen, als ATI aus der XT PE.
nggalai
2004-07-22, 13:07:35
Original geschrieben von Huhn
interessant ist auch das die x800pro langsamer ist als ne 9800xt. (jedenfalls in timedeom 1) alleine diese tatsache lässt das ganze mehr als fragwürdig erscheinen. denke mal ati wird für das spiel nen neuen treiber rausbringen.die x800pro hat 12 pipes statt 8 und deutlich höheren takt. da kann mir niemand erzählen, dass die 98xt schneller ist ;D Hab' ich hier schon was zu geschrieben:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2045334#post2045334
Hat nix mit fragwürdig zu tun, sondern sieht echt nach für X800Pro schlecht optimierte Treiber aus.
93,
-Sascha.rb
LovesuckZ
2004-07-22, 13:08:03
Original geschrieben von aths
Imo nicht. Die GT kann dank der technischen Fortschrittlichkeit aus weniger MHz mehr machen, als ATI aus der XT PE.
Kannst du das im bezug auf Doom3 erlaeutern?
Ulrasshadow II und Nvidiaextensions mal aussenvorgelassen:
Inwieweit kann die Gt mehr "aus weniger MHz mehr machen" speziell in Doom3?
Original geschrieben von LovesuckZ
3. Ist Hardocp eher eine Pro Ati als fuer Nvidia. Es ist imo auffällig, wer überall ATI-Lastigkeit sieht, und wer NV-Lastigkeit unterstellt. Imo trägt es nicht zur Diskussion bei, solche Behauptungen in die Welt zu setzen.
seahawk
2004-07-22, 13:11:10
Original geschrieben von nggalai
Hab' ich hier schon was zu geschrieben:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2045334#post2045334
Hat nix mit fragwürdig zu tun, sondern sieht echt nach für X800Pro schlecht optimierte Treiber aus.
93,
-Sascha.rb
Oder die PRO hat unter bestimmten Bedingungen Probleme, die ihr es unmöglich machen entsprechend einer vollen 16Pipekarte zu rendern. ich erinnere mal an die auf 4 pipes beschnittenen R300er.
Original geschrieben von Jesus
naja für mich wieder mal ein Test zum aufgeilen von Fanboys und nichts weiter, solange es keine offiziellen nicht von NV gesponsorten Tests gibt ;)[H] schreibt, dass der Test unter Aufsicht von ATI und NV stattfand.
LovesuckZ
2004-07-22, 13:12:10
Original geschrieben von nggalai
Hat nix mit fragwürdig zu tun, sondern sieht echt nach für X800Pro schlecht optimierte Treiber aus.
:???:
Die X800pro ist in 1024*768 zwischen 37% (HQ | CPU limitiert) und 67% (HQ + 4aa) schneller.
Original geschrieben von Jesus
vermutlich da die NV40 bei 16xAF mehr performance verloren hätten... ;) ... was auch in besserer Qualität resultieren würde ;)
nggalai
2004-07-22, 13:16:57
Original geschrieben von LovesuckZ
:???:
Die X800pro ist in 1024*768 zwischen 37% (HQ | CPU limitiert) und 67% (HQ + 4aa) schneller. Schneller als was?
Die Resultate der X800Pro bei DooM3 / [H] sind doch wirklich "etwas" niedrig dafür, dass die Karte in Sachen Füllrate und Bandbreite in etwa auf 6800GT-Niveau liegen sollte, nicht?
93,
-Sascha.rb
Original geschrieben von seahawk
HL2 wird wesentlich deutliche PRO ATI ausfallen. Die überlegene Shaderperfromance der ATI Karten wird es richten. Micht würde es nicht wundern, wenn ne X800PRo ne 6800Ultra locker versägt. Die Shaderperformance der X800 ist der Shaderperformance des NV40 unterlegen.
seahawk
2004-07-22, 13:18:53
Original geschrieben von aths
Die Shaderperformance der X800 ist der Shaderperformance des NV40 unterlegen.
Grundsätzlich ja - aber in HL2??
Original geschrieben von reunion
Und wer sagt das NV auf dieses "Timedemo1" nicht schon optimieren konnte?
John Carmack ist sicher nicht neutral und er wird dafür von Nv vermutlich auch nicht schlecht bezahlt, alles andere als solch ein Ergebnis wäre mehr als überraschend gewesen... Im Gegensatz zu ATI hatte NV für die Wünsche von JC ein offenes Ohr und implementierten eine Menge, was seiner Engine zugute kommt.
Original geschrieben von perforierer
JKlar ist D3 für die nVidia karten optimiert.. das ist aber doch nun wirklich nix neues.Eher andersherum – NV40 ist für Doom3 optimiert. Sieht man, wie die 5900 im Vergleich zur 9800 abschneidet und vergleicht man mit anderen Spielen könnte man auch sagen, dass schon die 5900 für Doom3 optimiert ist (natürlich nicht so sehr, wie die 6800, wobei die 6800 zusätzlich noch deutlich mehr Rohpower hat als die 5900.)
LovesuckZ
2004-07-22, 13:20:49
Original geschrieben von nggalai
Schneller als was?
9800xt.
Huhn:
interessant ist auch das die x800pro langsamer ist als ne 9800xt.
Die Resultate der X800Pro bei DooM3 / [H] sind doch wirklich "etwas" niedrig dafür, dass die Karte in Sachen Füllrate und Bandbreite in etwa auf 6800GT-Niveau liegen sollte, nicht?
Also die X800pro liegt in 3 von 4 test innerhalb dem 45% Bereich, welcher die XTPE aufgrund der Leistungsdaten vorsprung hat.
Ansonsten, gucke dir dochmal die Ergebnisse der GT im zusammenhang mit der XTPE an. Ziemlich stark, nicht?
Demirug
2004-07-22, 13:22:33
Original geschrieben von nggalai
Schneller als was?
Die Resultate der X800Pro bei DooM3 / [H] sind doch wirklich "etwas" niedrig dafür, dass die Karte in Sachen Füllrate und Bandbreite in etwa auf 6800GT-Niveau liegen sollte, nicht?
93,
-Sascha.rb
Sie sind niedrig. Aber das Mysterium das die PRO bei den "einfachen" Aufgaben die Füllrate nicht auf die Strasse bekommt wurde ja schon vorher beobachtet.
Z und Stencil Pass sowie massives Z und Stencil Culling gehören zu dieser Gruppe der einfachen Aufgaben.
Original geschrieben von q@e
Dafür andere Vorteile (die eher 'geringere Nachteile' sind) mit 4xAA. ... welche da wären?
Original geschrieben von LovesuckZ
Kannst du das im bezug auf Doom3 erlaeutern?
Ulrasshadow II und Nvidiaextensions mal aussenvorgelassen:
Inwieweit kann die Gt mehr "aus weniger MHz mehr machen" speziell in Doom3? Die NV40-Pipeline kann pro Takt mehr arithmetische Pixelshader-Operationen ausführen, als die R420-Pipe.
Original geschrieben von seahawk
Grundsätzlich ja - aber in HL2?? Wie meinst du das?
HL2 nutzt Pixelshader-Programme. NV40 kann dank dem CineFX-Featureset einiges mit einem Befehl machen, wozu R420 zwei Befehle braucht. Einige Befehle brauchen beim NV40 nur einen Takt (oder zwei) welche beim R420 zwei (oder drei) Takte benötigen.
Marodeur
2004-07-22, 13:31:50
Original geschrieben von Demirug
Sie sind niedrig. Aber das Mysterium das die PRO bei den "einfachen" Aufgaben die Füllrate nicht auf die Strasse bekommt wurde ja schon vorher beobachtet.
Z und Stencil Pass sowie massives Z und Stencil Culling gehören zu dieser Gruppe der einfachen Aufgaben.
Hmm... Wenn dieses "Mysterium" sich als hardwarebedingt rausstellt und die Treiber kaum was richten können würd ich die Pro zu dem derzeitigen Preis als einen ziemlichen Reinfall ansehen, verglichen mit der GT...
EDIT:
Seh grad, es bestehen ja doch um die 50-60 € Preisunterschied... immerhin etwas... :/
Original geschrieben von LovesuckZ
Also die X800pro liegt in 3 von 4 test innerhalb dem 45% Bereich, welcher die XTPE aufgrund der Leistungsdaten vorsprung hat.
Ansonsten, gucke dir dochmal die Ergebnisse der GT im zusammenhang mit der XTPE an. Ziemlich stark, nicht?
ja das mag sein. dass heisst dann aber auch, dass die xt pe auch noch nciht richtig optimiert wurde auf doom3, denn die x800pro leistet weniger als ne 98xt; was ja eigentlich nicht sein kann.
LovesuckZ
2004-07-22, 13:39:10
Original geschrieben von Huhn
ja das mag sein. dass heisst dann aber auch, dass die xt pe auch noch nciht richtig optimiert wurde auf doom3, denn die x800pro leistet weniger als ne 98xt; was ja eigentlich nicht sein kann.
Koenntest du den Test zeigen?
Original geschrieben von Huhn
interessant ist auch das die x800pro langsamer ist als ne 9800xt. (jedenfalls in timedeom 1) alleine diese tatsache lässt das ganze mehr als fragwürdig erscheinen. denke mal ati wird für das spiel nen neuen treiber rausbringen.die x800pro hat 12 pipes statt 8 und deutlich höheren takt. da kann mir niemand erzählen, dass die 98xt schneller ist ;D
Welche Settings meinst du denn? Ich kann da keine finden, wo die 9800XT unter denselben Voraussetzungen schneller als die 9800XT ist.
Original geschrieben von Huhn
ja das mag sein. dass heisst dann aber auch, dass die xt pe auch noch nciht richtig optimiert wurde auf doom3, denn die x800pro leistet weniger als ne 98xt; was ja eigentlich nicht sein kann.
Hast Du auch gesehen, dass die 9800XT teilweise auf "medium Quality" gebencht wurde?
tokugawa
2004-07-22, 13:44:05
Original geschrieben von deekey777
Ich liebe es, wenn Leute, die keine ATi-Grafikkarte haben, sich über die OpenGL-Treiber beschweren.
Die hätten zum Testen lieber den cat. 3.4 nehmen sollen, der die beste D3 Perfomance überhaupt hat.
Ich glaube bei 3.4 hab ich auch einige OpenGL Bugs entdeckt (und ja, ich habe eine Radeon 9500 Pro). Außerdem unterstützte diese Version noch kein ARB_vertex_buffer_object, soweit ich mich erinnere.
Original geschrieben von q@e
Welche Settings meinst du denn? Ich kann da keine finden, wo die 9800XT unter denselben Voraussetzungen schneller als die 9800XT ist.
Letzteres soll wohl X800 heissen.
Original geschrieben von aths
... welche da wären?
Offenbar nimmt die Effizienz des HSR bei ATi mit steigendem AF stärker ab, als bei nV - deren (natürlich hausgemachter und selbstverschuldeter!) Nachteil nimmt dadurch ab.
Original geschrieben von ow
Letzteres soll wohl X800 heissen.
Nee, Huhn schreibt eindeutig von acht Pipelines und deutlich höherem Takt der X800 Pro.
tokugawa
2004-07-22, 13:48:59
Original geschrieben von Gast
Hi
Nachtrag zu DX9 Performance.
nVIDIA hat das auch später in den Griff bekommen.
Also kann man deren DX9 Performance auch nicht als Mist hinstellen, weil am Anfang Probleme waren.
Gruss Labberlippe
Kann ich nur zustimmen. Meiner Erfahrung nach (entwicklungstechnisch) haben sich die ATI OpenGL-Treiber qualitativ (weniger crashes, mehr Konformität, generell weniger "Seltsamheiten") stetig verbessert, und Bugs - wenn auch lästig - sind immer in der nächsten Treiber-Version verschwunden (leider dafür manchmal neue dazu). Aber generell stimmt die Marschrichtung.
Original geschrieben von seahawk
Oder die PRO hat unter bestimmten Bedingungen Probleme, die ihr es unmöglich machen entsprechend einer vollen 16Pipekarte zu rendern. ich erinnere mal an die auf 4 pipes beschnittenen R300er.
Das lag daran, daß HierZ damals nicht pro Quad funktionierte - das will man lt. mehrfacher Aussage von ATi inzwischen behoben haben (und es deutet auch alles darauf hin, daß das geschafft wurde).
tokugawa
2004-07-22, 13:52:33
Original geschrieben von LovesuckZ
Kotor benutzt eine verbesserte NWN Engine.
Und was spricht dagegen, wenn ATi due nvidia Extensions verwendet? Macht Nvidia doch genauso (siehe PDF zum 61.76).
Laut der Entwicklungserfahrungen einiger Bekannter von mir, die zur Entwicklung eine NV40 bekommen haben, ist die ATI-Extension Unterstützung der NV40 sogar ziemlich exzellent.
Was ich mich frag ist, ob diese ATI_ Extensions dann nicht bald zu EXT_ Extensions befördert werden :D
Original geschrieben von IC-Burn
Aber ich glaub das 6800 U noch zulegen kann weil der Treiber hat ja noch keine Pixel Shader 3 unterstützung ..... Darauf kommt es bei Doom3 auch nicht an.
tokugawa
2004-07-22, 13:54:37
Original geschrieben von deekey777
NWN? Das Spiel von "ATi-Hassern"? NWN ist ein sehr, sehr schlechtes Beispiel.
Was dagegen spricht, wenn ATi dienV Extensions verwendet?
Ist doch klar: ATi verwendet keine eigenen Extensions.
Ach so?
GL_ATIX_texture_env_combine3
GL_ATIX_texture_env_route
GL_ATIX_vertex_shader_output_point_size
GL_ATI_draw_buffers
GL_ATI_element_array
GL_ATI_envmap_bumpmap
GL_ATI_fragment_shader
GL_ATI_map_object_buffer
GL_ATI_separate_stencil
GL_ATI_texture_env_combine3
GL_ATI_texture_float
GL_ATI_texture_mirror_once
GL_ATI_vertex_array_object
GL_ATI_vertex_attrib_array_object
GL_ATI_vertex_streams
WGL_ATI_pixel_format_float
dieser doom3-benchmark bringt mich net aus der fassung:
1.das is ein opengl spiel, da is nvidia immer schneller und um ehrlich zu sein wer nutz noch opengl heutzutage, außer id
2.hab mal gehört das doom3 ps3.0 unterstütz, bin mir net sicher aber dann is ja klar wieso es schneller is
3.half life 2 wird kein ps3.0 nutzen und darüber hinaus direct3d verwenden also ähnlich wie bei farcry1.1. also wird dort nvidia wieder abkacken und ati wird toppen, aber bis dorthin sind die karten sowieso noch nicht ausgeliefert
4.doom3 is total mit hilfe von nvidia programmiert worden, ein wunder das es überhaupt mit ati läuft, also beschimpft net ati sondern id wegen schlechter anpassung.
far cry hat auch das logo von nvidia drauf aber trotzdem haben die dafür gesorgt das beide firmen gut wegkommen und net wie hier wo definitiv ein hersteller bevorzugt wird, das is ne schweinerei von id und keinem anderen.ein indiz dafür ist dass eine karte mit weniger takt schneller is als die x800xt, nämlich die 6800gt, das muss doch jeder sehen das hier zu sehr einseitig optimiert wurde.
5.ati muss noch bessere driver raus bringen, 4.7 lockt noch nicht alle feature aus der karte heraus und arbeitet dafür eng mit valve zusammen um features aus dem ps3.0 zu klauen und in den ps2.0b-driver einzubauen, da hinkt ati ein wenig hinter her, weil nvidia ja schon ps3.0 driver hat
das alles beweist nur wie gleichwertig die x800ers und 6800ers sind und mehr nicht, wer doom3 liebt sollte zur 6800 greifen , wer nicht mehr auf hl2 warten kann sollte die benchmarks abwarten. schluss ende aus
Original geschrieben von q@e
Offenbar nimmt die Effizienz des HSR bei ATi mit steigendem AF stärker ab, als bei nV - deren (natürlich hausgemachter und selbstverschuldeter!) Nachteil nimmt dadurch ab. Inwiefern sollte HSR (via Early-Z) an das AF gekoppelt sein?
Exxtreme
2004-07-22, 13:56:12
Original geschrieben von q@e
Offenbar nimmt die Effizienz des HSR bei ATi mit steigendem AF stärker ab, als bei nV - deren (natürlich hausgemachter und selbstverschuldeter!) Nachteil nimmt dadurch ab.
Hmmm, das AF dürfte eigentlich keinen Einfluss auf das HSR haben. :|
Original geschrieben von aths
Inwiefern sollte HSR (via Early-Z) an das AF gekoppelt sein?
Sorry, hab mich vertippt. Sollte natürlich AA heissen.
(könntest du das Kraft deiner Rechte oben bitte korrigieren?)
tokugawa
2004-07-22, 13:59:11
Original geschrieben von Exxtreme
Aber darum ging's eigentlich. LS behauptete, daß die OpenGL-Treiber von ATi schlecht seien weil langsamer als die von NV. Ich machte ihn dann auf die Situation mit den Extensions aufmerksam und daß viele Spiele NV-Extensions nutzen aber keine/kaum Extensions von ATi etc.
Daß Nvidia nicht dafür kann, daß ATi nicht alle NV-Extensions anbieten kann, ist zwar richtig, darum ging's aber nicht. :)
Eine Aussage "Die OpenGL-Treiber von X sind schlecht" bezieht sich im Allgemeinen auf viele Aspekte, Geschwindigkeit, Bugs, Qualität, und Zahl der offerierten Extensions (und auch die Qualität eben derer Implementation). Aus Entwicklererfahrung ist ja NVIDIA tatsächlich etwas besser, aber ich würde die ATI-OpenGL-Treiber auch nicht als "schlecht" bezeichnen, sondern nur als leicht schlechter im Durchschnitt (je nach Version). Aber mit stetigen Verbesserungen, also passt das schon.
Original geschrieben von Gast
ein indiz dafür ist dass eine karte mit weniger takt schneller is als die x800xt, nämlich die 6800gt, das muss doch jeder sehen das hier zu sehr einseitig optimiert wurde.
Dann wurden auch alle Benchmarks R9800 vs. GeForceFX "einseitig optimiert"? Sorry, aber Takt ist nicht alles.
Original geschrieben von Gast
5.ati muss noch bessere driver raus bringen, 4.7 lockt noch nicht alle feature aus der karte heraus [...]
Welche Features fehlen?
nggalai
2004-07-22, 14:00:35
Original geschrieben von Gast
dieser doom3-benchmark bringt mich net aus der fassung:
[...]
2.hab mal gehört das doom3 ps3.0 unterstütz, bin mir net sicher aber dann is ja klar wieso es schneller is
3.half life 2 wird kein ps3.0 nutzen und darüber hinaus direct3d verwenden also ähnlich wie bei farcry1.1. also wird dort nvidia wieder abkacken und ati wird toppen, aber bis dorthin sind die karten sowieso noch nicht ausgeliefert
4.doom3 is total mit hilfe von nvidia programmiert worden, ein wunder das es überhaupt mit ati läuft, also beschimpft net ati sondern id wegen schlechter anpassung.
far cry hat auch das logo von nvidia drauf aber trotzdem haben die dafür gesorgt das beide firmen gut wegkommen und net wie hier wo definitiv ein hersteller bevorzugt wird, das is ne schweinerei von id und keinem anderen.ein indiz dafür ist dass eine karte mit weniger takt schneller is als die x800xt, nämlich die 6800gt, das muss doch jeder sehen das hier zu sehr einseitig optimiert wurde.
2) Wie kann ein OpenGL-Spiel PS3.0 verwenden?
3) Beweis?
4) Beweis?
93,
-Sascha.rb
Original geschrieben von q@e
Sorry, hab mich vertippt. Sollte natürlich AA heissen.
(könntest du das Kraft deiner Rechte oben bitte korrigieren?)
Wäre i.Ü. auch aus dem Gesamtkontext hervorgegangen, da ich zuvor "4xAA" schrieb.
deekey777
2004-07-22, 14:05:21
Was ist eigentlich mit den FXen und deren Ultra Shadow I Technologie - bringt sie auch irgendwelche Vorteile?
@Gast:
HL2 wird PS 3.0 Unterstützung mit'nem Patch nachgeliefert bekommen.
skynetwork
2004-07-22, 14:07:31
das eigentliche fazit is das ati ziemlich abgeledert wird von nvidia was bei doom III zu erwarten war..... vor allem die x800pro wird ja richtich abgeledert :D
viel entscheidender als das wird allerdings doch erst der test sobald hl2 benchmarks verfügbar sind da das ja ein ati optimiertes game sein wird......
also nicht zu früh freuen (aber schonmal mit guter hoffnung rangehen)
p.s.: kein fanboy post sondern imo fakt.....
aber das letzte wort is ja noch lange nicht gesprochen im kampf der giganten ;)
tokugawa
2004-07-22, 14:12:03
Original geschrieben von Gast
dieser doom3-benchmark bringt mich net aus der fassung:
1.das is ein opengl spiel, da is nvidia immer schneller und um ehrlich zu sein wer nutz noch opengl heutzutage, außer id
Naja, einige wenige Beispiele gibt's schon noch im Spiele-Sektor.
Natürlich, in anderen (nicht-Spiele-)Bereichen sieht's wiederum anders aus, da hat halt OpenGL doch Relevanz.
Ich glaube auch daran dass sich Multi-OS-Spiele (für Linux usw.) auch mehr und mehr durchsetzen, und da gibt's halt nur OpenGL. Ich möchte das sogar noch freier formulieren: ich glaube dass sich Multi-API-Spiele (also Spiele die sowohl OpenGL als auch Direct3D verwenden) bei den "Top-Engines" durchsetzen werden. Die Top-Engines sind meistens eh schon ziemlich darauf ausgelegt, API-unabhängig zu sein. Von da her ist OpenGL sicher noch nicht "tot". OpenGL litt nur an der DirectX8 Ära (GF4, R2xx), wo OpenGL wirklich ins Hintertreffen gelangte, da unter OpenGL es keine Standard-Shader-Extension existierte und man daher für NV2x und R2xx jeweils einen eigenen Pfad programmieren hat müssen. Da war DirectX einfach die komfortablere Alternative für Entwickler.
Original geschrieben von Gast
2.hab mal gehört das doom3 ps3.0 unterstütz, bin mir net sicher aber dann is ja klar wieso es schneller is
PS 3.0 ist ja eine DirectX-Terminologie, ich seh nicht ganz, wie das möglich sein soll. Allerhöchstens werden irgendwelche PS 3.0-Tech Level OpenGL Extensions eingesetzt.
Original geschrieben von Gast
3.half life 2 wird kein ps3.0 nutzen und darüber hinaus direct3d verwenden also ähnlich wie bei farcry1.1. also wird dort nvidia wieder abkacken und ati wird toppen, aber bis dorthin sind die karten sowieso noch nicht ausgeliefert
Wer weiß, bis dahin könnte es schon sein, noch einige PS 3.0 einzubauen... ist ja bei einer Direct3D Engine einfacher zum einbauen als bei einer OpenGL Engine...
Original geschrieben von Gast
4.doom3 is total mit hilfe von nvidia programmiert worden, ein wunder das es überhaupt mit ati läuft, also beschimpft net ati sondern id wegen schlechter anpassung.
"Mit Hilfe" meinst du wohl den besseren NVIDIA-Entwickler-Support. Ich halte das für gut. Es ist keine schlechte Anpassung an ATI (läuft ja auch ATI auch gut), sondern nur eine besonders gute an NVIDIA.
Original geschrieben von Gast
far cry hat auch das logo von nvidia drauf aber trotzdem haben die dafür gesorgt das beide firmen gut wegkommen und net wie hier wo definitiv ein hersteller bevorzugt wird, das is ne schweinerei von id und keinem anderen.ein indiz dafür ist dass eine karte mit weniger takt schneller is als die x800xt, nämlich die 6800gt, das muss doch jeder sehen das hier zu sehr einseitig optimiert wurde.
Das ist reine Spekulation. Wie willst du wissen, dass id hier "bevorzugt" hat? Könnte einfach die ATI-OpenGL-Schwäche sein, oder besonders guter NVIDIA-Support (dadurch, dass die NV40 so auf Doom 3 hindesignt wurde, dadurch, dass NVIDIA wirklich exzellente Papers und Guides für Entwickler bietet).
Original geschrieben von Gast
5.ati muss noch bessere driver raus bringen, 4.7 lockt noch nicht alle feature aus der karte heraus und arbeitet dafür eng mit valve zusammen um features aus dem ps3.0 zu klauen und in den ps2.0b-driver einzubauen, da hinkt ati ein wenig hinter her, weil nvidia ja schon ps3.0 driver hat
Ich weiß jetzt nicht genau welche Features du aus dem PS 3.0 klauen willst und in den PS 2.0b einbauen willst? Sei außerdem nicht so Pixel Shader-fokusiert. Vertex Shader sind auch nette Dinge :D
Original geschrieben von Gast
das alles beweist nur wie gleichwertig die x800ers und 6800ers sind und mehr nicht, wer doom3 liebt sollte zur 6800 greifen , wer nicht mehr auf hl2 warten kann sollte die benchmarks abwarten. schluss ende aus
Das sagt bisher eh jeder: es ist schön wie spielbar Doom 3 doch auch auf alter Hardware ist.
Weder verstehe ich den Enthusiasmus, dass NVIDIA jetzt ganze X fps vorn liegt, noch den Unmut dagegen.
tokugawa
2004-07-22, 14:13:46
Original geschrieben von skynetwork
das eigentliche fazit is das ati ziemlich abgeledert wird von nvidia was bei doom III zu erwarten war..... vor allem die x800pro wird ja richtich abgeledert :D
viel entscheidender als das wird allerdings doch erst der test sobald hl2 benchmarks verfügbar sind da das ja ein ati optimiertes game sein wird......
also nicht zu früh freuen (aber schonmal mit guter hoffnung rangehen)
p.s.: kein fanboy post sondern imo fakt.....
aber das letzte wort is ja noch lange nicht gesprochen im kampf der giganten ;)
Nicht sicher ob 6 fps oder so man als "abledern" bezeichnen kann. Gut, die X800 Pro liegt schon eher hinten, aber sonst finde ich das Feld relativ ausgeglichen. Dass die 6800 GT schneller ist als die X800 XT PE, ist zwar schon erstaunlich, aber Welten sind's ja auch wieder nicht (zumindest wenn man's nicht mit Preis-Leistung in Bezug bringt...).
Original geschrieben von q@e
Sorry, hab mich vertippt. Sollte natürlich AA heissen.
(könntest du das Kraft deiner Rechte oben bitte korrigieren?) Es ist doch jetzt im Kontext ersichtlich.
Ich weiß aber auch nicht, inwieweit AA das Early Z beeinflusst. Early Z cullt Quads. Ein Quad sind 2x2 Pixel, egal ob mit oder ohne AA.
seahawk
2004-07-22, 14:21:14
Original geschrieben von q@e
Das lag daran, daß HierZ damals nicht pro Quad funktionierte - das will man lt. mehrfacher Aussage von ATi inzwischen behoben haben (und es deutet auch alles darauf hin, daß das geschafft wurde).
Es muss nicht das gleiche Problem sein, vielleicht gibt es da ein neues.
Ich dneke da in Richtung von der 3 Quads Auslegung. Was wäre, wenn das dritte Quad in seiner Effizienz limitiert wäre oder bei Z-Operationen irgendwie langsamer wäre.
Stebs
2004-07-22, 14:21:56
Original geschrieben von Huhn
... denn die x800pro leistet weniger als ne 98xt; was ja eigentlich nicht sein kann.
Ja, es kann nicht sein (oder besser gesagt sollte nicht sein) und es ist auch nicht so!
Wahrscheinlich hast du beim Vergleichen die Settings verwechselt/übersehen, passiert jedem mal ;)
Oder poste mal was du sonst meintest...
Mr. Lolman
2004-07-22, 14:27:19
Original geschrieben von aths
Die Shaderperformance der X800 ist der Shaderperformance des NV40 unterlegen.
Das kann man so Allgemein sagen? Shadermark ist schneller, auf X800. rthdribl ist viel schneller @ x800.
Original geschrieben von aths
Es ist doch jetzt im Kontext ersichtlich.
Ich weiß aber auch nicht, inwieweit AA das Early Z beeinflusst. Early Z cullt Quads. Ein Quad sind 2x2 Pixel, egal ob mit oder ohne AA.
Nun gut - ist wohl nur mein inhärenter Zynismus, was die Lesefähigkeit vieler angeht, eine Argumentation auch über mehr als zwei aufeinanderfolgende Postings zu verfolgen und auch gern mal ohne korrekten Kontext zu zitieren, die mich darum bitten lies. (Nein, du und Exxtreme seid nicht gemeint.)
On-Topic:
Ich spreche nicht nur von 'dem' Early-Z, sondern vom HSR allgemein. Bei ATi gibt's da mehrstufige Z-Buffer usw...
Wie es nun zustande kommt, weiß ich auch (noch?) nicht genau, aber die erreichte Füllrate mit 4xAA sinkt im Gegensatz zu 0xAA bei ATi auf ~80,6%, die von nVidia dagegen "nur" auf ~93,0% mit acht Texturschichten.
Bei nur einer Textur sind's ~73,2% vs. ~88,7%.
Die absoluten Werte sehen natürlich bei ATi noch weit rosiger aus - das ist klar.
Original geschrieben von Mr. Lolman
Das kann man so Allgemein sagen? Shadermark ist schneller, auf X800. rthdribl ist viel schneller @ x800. Würde rthdribl NV40-Features nutzen, wäre es Welten schneller. Gerade bei "HDR" (eigentlich MDR) IBL hat der NV40 gegenüber R420 extreme Vorteile.
Original geschrieben von q@e
Wie es nun zustande kommt, weiß ich auch (noch?) nicht genau, aber die erreichte Füllrate mit 4xAA sinkt im Gegensatz zu 0xAA bei ATi auf ~80,6%, die von nVidia dagegen "nur" auf ~93,0% mit acht Texturschichten.
Bei nur einer Textur sind's ~73,2% vs. ~88,7%.
Die absoluten Werte sehen natürlich bei ATi noch weit rosiger aus - das ist klar. Da würde ich mir Gedanken um die RAM-Bandbreitenlimitierung machen :) Mit der Annahme, dass NV40 den effizienteren RAM-Controller hätte, könnte man diese Werte imo erklären.
Mr. Lolman
2004-07-22, 14:30:46
Original geschrieben von aths
Würde rthdribl NV40-Features nutzen, wäre es Welten schneller. Gerade bei "HDR" (eigentlich MDR) IBL hat der NV40 gegenüber R420 extreme Vorteile.
ist rthdribl nicht HDR? Denn die Vorteile sollen ja nur bei MDR sein. Oder bekäme man mit MDR im Fall von rthdribl zum gleichen Ergebnis wie mit HDR?
Original geschrieben von seahawk
Es muss nicht das glieche Problem sein, vielleicht gibt es da ein neues.
Möglich, allerdings deutet bis jetzt noch nichts eindeutiges auf eine eindeutige "Fehlerquelle" hin.
Original geschrieben von aths
Da würde ich mir Gedanken um die RAM-Bandbreitenlimitierung machen :) Mit der Annahme, dass NV40 den effizienteren RAM-Controller hätte, könnte man diese Werte imo erklären.
Der Gedanke ist mir gekommen - aber noch keine Zeit gehabt, das zu prüfen.
Original geschrieben von Mr. Lolman
ist rthdribl nicht HDR? Denn die Vorteile sollen ja nur bei MDR sein. Oder bekäme man mit MDR im Fall von rthdribl zum gleichen Ergebnis wie mit HDR?
Jetzt bist du aths' Begriffsverwirrung aufgesessen. :)
Das, was man gemeinhin als HDR bezeichnet, verdient in seinen Augen eigentlich nur MDR...
Stebs
2004-07-22, 14:37:59
Original geschrieben von Mr. Lolman
ist rthdribl nicht HDR? Denn die Vorteile sollen ja nur bei MDR sein. Oder bekäme man mit MDR im Fall von rthdribl zum gleichen Ergebnis wie mit HDR?
War es nicht so dass eben alles was man bisher HDR nannte (rthdribl etc.) in Wirklichkeit eigentlich MDR ist? Also nur eine Definitionssache...
seahawk
2004-07-22, 14:38:56
Original geschrieben von q@e
On-Topic:
Ich spreche nicht nur von 'dem' Early-Z, sondern vom HSR allgemein. Bei ATi gibt's da mehrstufige Z-Buffer usw...
Wie es nun zustande kommt, weiß ich auch (noch?) nicht genau, aber die erreichte Füllrate mit 4xAA sinkt im Gegensatz zu 0xAA bei ATi auf ~80,6%, die von nVidia dagegen "nur" auf ~93,0% mit acht Texturschichten.
Bei nur einer Textur sind's ~73,2% vs. ~88,7%.
Die absoluten Werte sehen natürlich bei ATi noch weit rosiger aus - das ist klar.
Für die XT oder die PRO ??
Bei der Pro wäre es denkbar, dass der Speicherkontroller Porbleme mit der 3 Quads Pipeline hat.
Mr. Lolman
2004-07-22, 14:39:29
Original geschrieben von Stebs
War es nicht so dass eben alles was man bisher HDR nannte (rthdribl etc.) in Wirklichkeit eigentlich MDR ist? Also nur eine Definitionssache...
Ich weiss schon wi'es ist.
aths definiert strenggenmommen 16 und 24bit als MDR und 32bit als HDR. Deswegen ist NV bei MDR schneller, und ATI kann gar kein HDR :P
Finde ich gut, dass D3 scheinbar auch auf älteren Karten ziemlich gut laufen soll.
Zitat:"If you would have told me a year ago that I could play DOOM 3 on a GeForce 3 64MB video card and 1.8GHz AthlonXP and have a good gaming experience, I would have called you crazy, but that is exactly what we are seeing."
Das ganze hin und her zwischen ATI und NV verstehe ich jetzt nicht so ganz. Wenn man so die ganzen .plan Docs und die News in den vergangen Monaten gelesen hatte, konnte man ja feststellen, dass D3 mit hoher Wahrscheinlichkeit auf NV Hardware optimiert sein würde. Genauso wie HL2 auf ATI Hardware wahrscheinlich schneller sein wird.
Über Sinn oder Unsinn für eine Graka <400€ auszugeben kann man streiten, aber ich denke, dass es auf beiden Karten sehr gut laufen wird. Genauso wie HL2.
Richtig interessant wirds ja erst, wenn die ganzen anderen Games auf D3-Engine Basis erscheinen werden. Mal sehen, was die heutigen Top-Karten dann noch leisten ;)
nur meine 50c
Stebs
2004-07-22, 14:41:47
Mist, zu langsam :)
Original geschrieben von aths
Würde rthdribl NV40-Features nutzen, wäre es Welten schneller.
Müssten dann da groessere Anpassungen gemacht werden oder würden eine neue "Kompilierung" mit dem neuesten DirectX-SDK schon reichen (vorausgesetzt es ist in HLSL geschrieben)?
Mr. Lolman
2004-07-22, 14:44:14
Original geschrieben von Stebs
Mist, zu langsam :)
Müssten dann da groessere Anpassungen gemacht werden oder würden eine neue "Kompilierung" mit dem neuesten DirectX-SDK schon reichen (vorausgesetzt es ist in HLSL geschrieben)?
Ich glaub nicht, dass da was angepasst werden muss. Zumindest um MDR anstatt HDR zu verwenden. Die FXen machen das nämlich automatisch...
Stebs
2004-07-22, 14:50:03
Hmm, kenn mich da ja nicht so gut aus, aber die FXen können doch meines Wissens nach gar kein MDR/HDR. Ist ja eigentlich was ganz anderes als die alte 16/24/32 Bit Diskussion die du wohl meintest?
aaaaaab2
2004-07-22, 14:55:45
es wäre doch viel besser wenn man in den Benchs nich einfach nur den durchschnittlichen fps an gibt, sondern so ne art Tabelle mit zeitleiste, bei der man anhand kleiner Bilder erkennen kann wie aufwendig die Szene ist. Es ist doch völlig egal ob ich dann in einer ruhigen Scene mit 100 oder 50 fps spiele. Wichtig ist nur das in schnellen Actionszenen genügend fps da sind um gut und flüssig spielen zu können. Denn solche ruhigen Szenen machen hauptsächlich die durchschnitts werte aus.
Es ist daher wichtiger zu wissen in welchen Situationen die Karten entsprechend stark sind.
DrFreaK666
2004-07-22, 14:56:05
Naja, ich habe jetzt mal 6 Seiten übersprungen weil mir das irgendwie auf den Keks ging.
Deshalb weiss ich nicht ob meine Frage (oder eine ähnliche) schon gestellt wurde: Warum schneidet ATI hier so schlecht ab? Liegt es wirklich am Ultra Shadow 2 oder was kann die NV40 hier was der R420 nicht kann??
Greetz
Original geschrieben von DrFreaK666
Naja, ich habe jetzt mal 6 Seiten übersprungen weil mir das irgendwie auf den Keks ging.
Deshalb weiss ich nicht ob meine Frage (oder eine ähnliche) schon gestellt wurde: Warum schneidet ATI hier so schlecht ab? Liegt es wirklich am Ultra Shadow 2 oder was kann die NV40 hier was der R420 nicht kann??
Greetz
gäähnn warum so schlecht,5 fps mehr ist doch ein witz,Tester nennen das gleich auf
DrFreaK666
2004-07-22, 14:58:58
Was heisst hier gähn??
Original geschrieben von Gast
gäähnn warum so schlecht,5 fps mehr ist doch ein witz,Tester nennen das gleich auf
Manch armer Mensch, der mal eben 400 € für ne X800pro ausgegeben hat wird das aber anders sehen. Es geht hier nicht nur um X800XTPE vs. 6800Ultra ...
Ich persönlich find's schon etwas dümmlich, das die X800pro so schlecht abschneidet. Ob das jetzt ein Bug ist oder nicht, sei mal dahingestellt.
Tja und da Doom3 DAS Spiel überhaupt ist auf das ich sehnsüchtigst warte, werd ich da auch keine Kompromisse eingehen und dafür auf Half-Life2 warten oder sowas. Ich bestell mir jetzt zusätzlich ne 6800GT und seh mal welche Karte im Endeffekt besser geeignet ist. Die werd ich dann auch behalten, die andere fliegt raus.
Blaire
2004-07-22, 15:12:31
Original geschrieben von tombman
ich wart eh nur mehr auf dual xeon tumwater + Nv45 SLI ownage ;)
Ich auch. ;D
Stebs
2004-07-22, 15:20:13
Original geschrieben von nggalai
War durchgehend ARB2, i.e. derselbe Renderpfad für alle Karten.
Gibts da noch Informationen zum [H]ard|OCP-Benchmark die noch nicht "publik" wurden oder basiert das auf einer Aussage Carmacks die er vor einiger Zeit gemacht hat? (Dass er nun ARB2 für jede High-End Karte benützen würde wegen den verbesserten Treibern -oder so ähnlich)
Mich würde auch interessieren was dieser ARB2-Pfad genau ist. Ist das nicht der Standard OpenGL 2.0 Pfad? Und zählen da nun herstellerspezifische Extensions dazu? Und lässt sich das alles hardwareunabhängig in GLSL schreiben...
Sehr interessant währe auch zu erfahren welche Extensions Doom3 nun benutzt und wieweit es die NV40 Hardware-Features ausreizt, z.B. ob schon viele zu PS/VS 3.0 "vergleichbare" Features genutzt werden.
Radeonator
2004-07-22, 15:23:28
Jo, wird zeit das die GTs günstiger werden ;)
Haben will, zu teuer mir die neuen Karten noch sind :(
aaaaaab2
2004-07-22, 15:24:56
Ich finde es krank, das Leute, die z.B 3,4 Ghz haben, übertakten. Nur um ein oder zwei fps mehr zu bekommen oder was. Das hat zwei Nachteile. Die Garantie is futsch und du riskierst das dein Rechner flöten geht. Bei 1,6 Ghz z.B. würde ich es ja verstehen aber bei 3 Ghz oder mehr das is doch :krank: :krank: :krank:
Holt MHZ International
Rettet die CPUS
Original geschrieben von Kai
Manch armer Mensch, der mal eben 400 € für ne X800pro ausgegeben hat wird das aber anders sehen. Es geht hier nicht nur um X800XTPE vs. 6800Ultra ...
Ich persönlich find's schon etwas dümmlich, das die X800pro so schlecht abschneidet. Ob das jetzt ein Bug ist oder nicht, sei mal dahingestellt.
Tja und da Doom3 DAS Spiel überhaupt ist auf das ich sehnsüchtigst warte, werd ich da auch keine Kompromisse eingehen und dafür auf Half-Life2 warten oder sowas. Ich bestell mir jetzt zusätzlich ne 6800GT und seh mal welche Karte im Endeffekt besser geeignet ist. Die werd ich dann auch behalten, die andere fliegt raus.
die Pro hat nur 12 Pipes,die kann man garnicht mit der GT vergleichen.
GT und Ultra ist die gleiche Karte nur mit etwas weniger mhz
Es kommt bald ne X800 gt
Naja 80% alles Spieler kaufen sich die X800,weils die intelligente Wahl ist
Original geschrieben von Gast
die Pro hat nur 12 Pipes,die kann man garnicht mit der GT vergleichen.
Najaa, Preisleistungstechnisch ist dann ja wohl die GT deutlichst vor der X800pro anzusiedeln, oder etwa nicht? Ich hab neulich noch 430 Öcken für die X800pro ausgegeben und bin ein bisschen verärgert. Kann man doch wohl verstehen, oder?
nggalai
2004-07-22, 15:36:10
Original geschrieben von Stebs
Mich würde auch interessieren was dieser ARB2-Pfad genau ist. Ist das nicht der Standard OpenGL 2.0 Pfad? Und zählen da nun herstellerspezifische Extensions dazu? Und lässt sich das alles hardwareunabhängig in GLSL schreiben...
Sehr interessant währe auch zu erfahren welche Extensions Doom3 nun benutzt und wieweit es die NV40 Hardware-Features ausreizt, z.B. ob schon viele zu PS/VS 3.0 "vergleichbare" Features genutzt werden. Da hat Demirug was zu geschrieben, im anderen Thread. Kurz gesagt gibt's keinen "OpenGL2.0-Pfad" einfach weil's noch kein OpenGL2.0 gibt. ;) Das 2 bei ARB2 steht einfach für "der 2. nicht-Herstellerspezifische Pfad".
Der Pfad trifft jedoch schon abhängig von den verfügbaren Optionen pro Grafikchip Entscheidungen, was wie gerendert werden muss.
93,
-Sascha.rb
Stebs
2004-07-22, 15:36:39
OT, aber naja...
Diejenigen die 3,4 Ghz noch übertakten, tun es wahrscheinlich eher aus "sportlichen" Gründen und gehen das Risiko meistens bewusst ein.
Aber Übertakten an sich ist eigentlich nicht so verkehrt. Ich mag es schon dass mein 2500+ Barton per Bios zu einem 3200+ wird, sämtliche Spannungen bleiben dabei unangetastet auf Default. Höhere Temperaturen und Belastungen für Komponenten als bei einem originalen 3200+ treten also nicht auf.
Und den Leistungsunterschied bemerkt man doch manchmal.
Wenn ich jetzt nur noch was besseres als meine GF3 hätte ... :D
Original geschrieben von LovesuckZ
KotoR (http://www.xbitlabs.com/articles/video/display/pc-radx800pro-extreme_7.html)
City of Heroes (http://www.hardocp.com/article.html?art=NjM3LDU=)
Jedi Knigh: JA (http://www.anandtech.com/video/showdoc.aspx?i=2113&p=11)
Das sind drei unterschiedliche OpenGL Engine und in jeder fuehrt die GT mit 10% und mehr.
Ich lese also nicht "von einen Balken ohne genauere Angaben" sondern von mehreren.
Hi
Coolen Vergleich gefunden.
Wo sind die 30-50% was ist mit den anderen 100 Spiele die auf OpenGL gehen.
Jetzt haste brav 2x Jedin Knight gefunden wo ein leichter Abstand vorhanden ist.
Wobei die Werte Du anscheinend auch nicht genau gesehen hast.
Sorry aber das zeigt wieder Deine typisches Scheuklappen denken.
gruss Labberlippe
Original geschrieben von Gast
die Pro hat nur 12 Pipes,die kann man garnicht mit der GT vergleichen.
Ja - und wieso nicht?
Weil die GT 16 hat? Dann komm ich jetzt und sage, du kannst die GT nicht mit der baldigen X800 GT vergleichen, die hat nämlich 75MHz mehr.
Dann sagst du, daß ATi doch nichts dafür kann, daß nV nicht mehr MHz reinsteckt. Dann sage ich darauf wieder, daß nV auch nichts dafür kann, daß ATi nicht 16 Pipes bei der "Pro" verbaut...
Merkst' was?
seahawk
2004-07-22, 15:39:31
Original geschrieben von Gast
die Pro hat nur 12 Pipes,die kann man garnicht mit der GT vergleichen.
GT und Ultra ist die gleiche Karte nur mit etwas weniger mhz
Es kommt bald ne X800 gt
Naja 80% alles Spieler kaufen sich die X800,weils die intelligente Wahl ist
Man sollte den Takt nicht vergessen. Von der Füllrate sind beide Karten sehr wohl vergleichbar, wie momentan auch preislich.
Ob es die GT wirklich geben wird halte ich für sehr unwahrscheinlich.
nggalai
2004-07-22, 15:39:57
Original geschrieben von Gast
Coolen Vergleich gefunden.
Wo sind die 30-50% was ist mit den anderen 100 Spiele die auf OpenGL gehen.
Achtung: er hat von 30-5% geredet. Grosser Unterschied. ;)
93,
-Sascha.rb
@Stebs:
Mach dir nix draus, ich gurk auch noch mit ner GF3 rum :D
betasilie
2004-07-22, 15:40:33
Original geschrieben von Jesus
aber naja es zeichnet sich das selbe Bild wie immer ab, solange [H] ( oder irgendjemand anderes ) etwas bringt das für ATI spricht sind sie absolut biased und leute wie LS lehnen diese Tests dann kategorisch ab ;) ( wie schon so oft ) .
Sobald aber mal was pro Nv kommt kann man den Test natürlich absolut für bare Münze nehmen, denn es muss ja schliesslich stimmen... ;D
Full Ack.
Und ich frage mich wieso die Mods die üblichen Verdächtigen wieder ihre Fanboy-Spielchen spielen lassen! Wieso werden die Fanboypostings nicht gelöscht, so dass dieser Thread auch für die normalen Leute lesbar bleibt?
Original geschrieben von aths
Es ist imo auffällig, wer überall ATI-Lastigkeit sieht, und wer NV-Lastigkeit unterstellt. Imo trägt es nicht zur Diskussion bei, solche Behauptungen in die Welt zu setzen.
Und genau deswegen sollten Mods solche hirnrissigen Postings trashenund bepunkten, um erst garnicht wieder Fanboy Streitigkeiten aufkommen zu lassen! :|
nggalai
2004-07-22, 15:44:01
Original geschrieben von betareverse
Full Ack.
Und ich frage mich wieso die Mods die üblichen Verdächtigen wieder ihre Fanboy-Spielchen spielen lassen! Wieso werden die Fanboypostings nicht gelöscht, so dass dieser Thread auch für die normalen Leute lesbar bleibt? Was für einen Fanboygesabbel ist, ist für den anderen Leser "Information". Solange nicht gegen die Forumsregeln verstossen wird, können wir nicht einfach "nervige" Postings löschen.
93,
-Sascha.rb
Original geschrieben von nggalai
Achtung: er hat von 30-5% geredet. Grosser Unterschied. ;)
93,
-Sascha.rb
Hi
Zitat Lovesuckz
Du hast da zwei "nullen" vergessen.
"Achso das war Dein Problem, weil eine Karte unter einer anderen API 30-50% langsamer ist [...]
.
Lovesuckz Ende.
Er hat mich zitiert und erwähnt das 2 nullen fehlen.
Gruss Labberlippe
Stebs
2004-07-22, 15:48:36
Original geschrieben von nggalai
Da hat Demirug was zu geschrieben, im anderen Thread. Kurz gesagt gibt's keinen "OpenGL2.0-Pfad" einfach weil's noch kein OpenGL2.0 gibt. ;) Das 2 bei ARB2 steht einfach für "der 2. nicht-Herstellerspezifische Pfad".
Der Pfad trifft jedoch schon abhängig von den verfügbaren Optionen pro Grafikchip Entscheidungen, was wie gerendert werden muss.
93,
-Sascha.rb
Oh, weisst du zufällig wie der Thread hieß oder hast du gar nen Link?
Ich wusste dass OpenGL 2.0 noch nicht ganz fertig ist (aber anscheinend doch sogutwie), aber dachte ARB2 hätte tatsächlich was damit zu tun da viele Extensions die Herstellerunabhängig sind ja das ARB drinnen haben. Also ist ARB2 sozusagen eine Wortschöpfung Carmack's?
Original geschrieben von nggalai
Was für einen Fanboygesabbel ist, ist für den anderen Leser "Information". Solange nicht gegen die Forumsregeln verstossen wird, können wir nicht einfach "nervige" Postings löschen.
93,
-Sascha.rb
Hi
Meinung hin Meinung her.
Mir geht es nur am Sack das wieder Sachen in ein paar Zahlen hineininterpretiert werden, die noch nicht einmal annähnernd Vergleichbar sind.
Wie gesagt, mehr kann man wirklich erst sagen wenn Doom3 zum kaufen ist und die User kräftig benchen.
Dann sehen wir auch inwieweit die Treiber Schub bringen.
Gruss Labberlippe
*sinnfrei*
NV ist in einer timedemo 5 fps langsamer und alle reden von "locker geschlagen " so ein blödsinn
in einer andere timedemo ist dann ati vorn
der test kommt von einer nvpro seite und jeder der ein bißchen ahnung hat weiß genau wie man benchmarks beeinflussen kann
betasilie
2004-07-22, 15:50:01
Original geschrieben von nggalai
Was für einen Fanboygesabbel ist, ist für den anderen Leser "Information". Solange nicht gegen die Forumsregeln verstossen wird, können wir nicht einfach "nervige" Postings löschen.
93,
-Sascha.rb
Tja, wenn das die Meinung der Moderation ist, tut es mir leid.
Ich habe es schon oft geschrieben, ihr bekommt es einfach nicht hin den Fanboys nen Maulkorb zu verpassen und die Threads somit lesbar zu halten. Wenn ich dann schon hier solche Diskussionen lese, wo darüber gerstritten wird, ob HardOCP auf ATIs Seite ist, etc., dann wird mir schlecht. Und es sind immer wieder die gleichen Personen, die ihre Flames im Gewand der Sachlichkeit verstecken.
Wenn sich das nicht ändert werde ich diese Forum endgültig als Reg verlassen!
Original geschrieben von Gast
Hier wird nur mist gelabert
NV ist in einer timedemo 5 fps langsamer und alle reden von "locker geschlagen " so ein blödsinn
in einer andere timedemo ist dann ati vorn
der test kommt von einer nvpro seite und jeder der ein bißchen ahnung hat weiß genau wie man benchmarks beeinflussen kann
Hi
Jede Seite hat eigene Benchmark kritieren und die muss man akzeptieren.
Und nv pro würde ich die Seite auch nicht gerade nennen.
Gruss Labberlippe
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.