Archiv verlassen und diese Seite im Standarddesign anzeigen : Doom3 Performance Hardocp die 2
IC-Burn
2004-07-29, 18:46:00
Jo ein Neuer Test
Hier (http://www2.hardocp.com/article.html?art=NjQ0)
http://www2.hardocp.com/1090787143TO62AMOEWX_7_6_l.gif
http://www2.hardocp.com/1090787143TO62AMOEWX_7_1_l.gif
Die Geforce 6800 Ultra ist aber Oc :)
Die heisst OC! das ist nix übertaktet
IC-Burn
2004-07-29, 19:05:58
High vs Ultra
http://www2.hardocp.com/1090787143TO62AMOEWX_3_12_l.jpg
Hiro Hiroshi
2004-07-29, 19:28:05
http://www2.hardocp.com/1090787143TO62AMOEWX_7_8_l.gif
http://www2.hardocp.com/1090787143TO62AMOEWX_7_9_l.gif
Original geschrieben von Hiro Hiroshi:
http://www2.hardocp.com/1090787143TO62AMOEWX_7_9_l.gif
Genau das habe ich mir auch gedacht...
Lord_X
2004-07-29, 19:42:13
wieso bricht die 9800 Pro gegenüber der XT auf 7 FPS zusammen? Das kann nur ein Fehler sein im Treiber!
Original geschrieben von Lord_X
wieso bricht die 9800 Pro gegenüber der XT auf 7 FPS zusammen? Das kann nur ein Fehler sein im Treiber!
Die 128MB mehr Ram vieleicht?
mapel110
2004-07-29, 19:48:22
Original geschrieben von Gast
Die 128MB mehr Ram vieleicht?
jup. das wirds sein. aber interessant, dass die 128mb 9800er ganz gut performt. die reicht für das game bei den settings. =)
Metzger
2004-07-29, 19:48:39
Irgendwie seh ich keinen Unterschied zwischen High und Ultra ???
Lord_X
2004-07-29, 19:49:01
Kann nicht sein das sind ja nur, ja wenn überhaupt 1 Sekunde :grhargh:
Black-Scorpion
2004-07-29, 19:50:37
Das wird ab hier schon im anderen Thread diskutiert.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2072296#post2072296
Original geschrieben von mapel110
jup. das wirds sein. aber interessant, dass die 128mb 9800er ganz gut performt. die reicht für das game bei den settings. =)
Naja.Die Pro bricht aber am Ende ganz schön ein.
Hiro Hiroshi
2004-07-29, 19:51:10
Original geschrieben von mapel110
jup. das wirds sein. aber interessant, dass die 128mb 9800er ganz gut performt. die reicht für das game bei den settings. =)
Die 9800pro wird auch für 1280x1024 ohne AA und AF reichen.;D
Das kann schon sein, war High Quality nicht für 256MB Karten gedacht?
Ein vergleich mit Medium Quality wäre ganz gut gewesen.
Lightning
2004-07-29, 19:52:55
Original geschrieben von Gast
Die 128MB mehr Ram vieleicht?
Oder auch einfach nur ein Messfehler/Ungenauigkeit/Zufall. Denn abgesehen von dieser Stelle performen die Karten ja sehr ähnlich.
Vielleicht kommt auch beides zusammen.
x-dragon
2004-07-29, 19:53:04
Original geschrieben von Bane
Das kann schon sein, war High Quality nicht für 256MB Karten gedacht?
Ein vergleich mit Medium Quality wäre ganz gut gewesen. Ne für Karten mit 512 MB.
Original geschrieben von Anonym_001
Das wird ab hier schon im anderen Thread diskutiert.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=2072296#post2072296
Wäre ja aber nicht verkehrt für einen neuen.Der andere ist schon recht groß.
Hiro Hiroshi
2004-07-29, 19:56:26
Original geschrieben von x-dragon
Ne für Karten mit 512 MB.
Ultra Quality war für 512MB Karten vorgesehen, High Quality für 256MB, Medium für 128MB Karten.
Original geschrieben von x-dragon
Ne für Karten mit 512 MB.
Medium quality uses compression for specular, diffuse, and normal maps. This still looks really really good but compressing the normal maps can produce a few artifacts especially on hard angled or round edges. This level gets us comfortably onto 128MB video cards.
512MB waren für "Super Ultra Mega Quality".
/Edit: Hiro Hiroshi war schneller
Zauberer
2004-07-29, 20:04:35
Original geschrieben von Hiro Hiroshi
Ultra Quality war für 512MB Karten vorgesehen, High Quality für 256MB, Medium für 128MB Karten.
Genau!
Hardocp hält sich noch niemals an das was sie selber schreiben. :jedifire:
Kladderadatsch
2004-07-29, 20:11:35
jawoll.
auch mit älteren karten (geforce4 ti) ist 1024x768 mit mindestens medium quality drin!;D ;D ;D
9800ProZwerg
2004-07-29, 20:34:08
Original geschrieben von Lightning
Oder auch einfach nur ein Messfehler/Ungenauigkeit/Zufall. Denn abgesehen von dieser Stelle performen die Karten ja sehr ähnlich.
Vielleicht kommt auch beides zusammen.
Das wird wohl keine Messungenauigkeit sein! Auch beim A64 bricht die 9800Pro128MB auf sehr wenig Frames ein!
Das wird am Speicher liegen!
knallebumm
2004-07-29, 20:36:10
Original geschrieben von iNSanE iN tHE mEMbRaNe
jawoll.
auch mit älteren karten (geforce4 ti) ist 1024x768 mit mindestens medium quality drin!;D ;D ;D
woher weisst du das?
link?
Ich hab keinen gf4 ti4200 Test gefunden. (vor allem keinen mit 64mb Karten)
x-dragon
2004-07-29, 20:38:09
Original geschrieben von Hiro Hiroshi
Ultra Quality war für 512MB Karten vorgesehen, High Quality für 256MB, Medium für 128MB Karten. Ok nehme alles zurück, bei den netten Bezeichnungen kann man ja schon mal ein wenig verwirrt werden ... :).
Kladderadatsch
2004-07-29, 20:38:58
Original geschrieben von handyman
woher weisst du das?
link?
Ich hab keinen gf4 ti4200 Test gefunden. (vor allem keinen mit 64mb Karten)
naja, 800x600 im schnitt 50 fps. 23 langen mir; mit denen war ich sogar in far cry schon zufrieden...
1024x768 ist da in jedemf all drin. vll sogar high details.
dildo4u
2004-07-29, 20:42:00
Original geschrieben von iNSanE iN tHE mEMbRaNe
naja, 800x600 im schnitt 50 fps. 23 langen mir; mit denen war ich sogar in far cry schon zufrieden...
1024x768 ist da in jedemf all drin. vll sogar high details. unsinn 64 mb reichen hinten und vorne nicht wenn schon eine 128mb karte wie die 9800pro bei high details einbricht auf 7fps und das in 1024 wirst du mit 64mb in der auflösung gar nix reissen können dabei muss bemerkt werden für high detail wird 8XAF erzwungen! auch auf einer GF4200
hier gf4 128MB!!! bricht schon bei 800*600 und medium details auf 16fps ein
http://www2.hardocp.com/1090787143TO62AMOEWX_6_5_l.gif
Kladderadatsch
2004-07-29, 20:43:58
Original geschrieben von dildo4u
unssin 64 mb reichen hinten und vorne nicht wenn schon eine 128mb karte wie die 9800pro bei high details einbricht auf 7fps und das in 1024 wirst du mit 64mb in der auflösung gar nix reissen können dabei muss bemerkt werden für high detail wird 8XAF erzwungen! auch auf einer GF4200
komm mal wieder runter...
erstens hab ich keine ti4200, zweitens hat meine grafikkarte keine 64 mb ram, und drittens...denk ich mir für deinen blöden post jetzt nicht aus...
lol, weil die 9800 pro einmel kurz auf 7 fps fällt, und ansonsten kaum unter die 30 fps marke kommt gehst du hier so ab...völlig insane...
hier gf4 128MB!!! bricht schon bei 800*600 und medium details auf 16fps ein
richtig; an einer absoluten ausnahmestelle, an der alle karten deutlichst abfallen, für ca. 3 sekunden.
tombman
2004-07-29, 21:00:42
Original geschrieben von IC-Burn
Jo ein Neuer Test
Hier (http://www2.hardocp.com/article.html?art=NjQ0)
http://www2.hardocp.com/1090787143TO62AMOEWX_7_6_l.gif
http://www2.hardocp.com/1090787143TO62AMOEWX_7_1_l.gif
Die Geforce 6800 Ultra ist aber Oc :)
Und wenn man die nvidia mit 400/425 multipliziert um den overclock rauszunehmen sinds statt 57.3 nur mehr 53.9 fps. ALso genau 0.1 fps mehr als X800XTPE. Und weil dann ein fraps benchmark ist liegt das innerhalb der Meßungeauigkeit ;)
dildo4u
2004-07-29, 21:15:28
Original geschrieben von tombman
Und wenn man die nvidia mit 400/425 multipliziert um den overclock rauszunehmen sinds statt 57.3 nur mehr 53.9 fps. ALso genau 0.1 fps mehr als X800XTPE. Und weil dann ein fraps benchmark ist liegt das innerhalb der Meßungeauigkeit ;) Hah und was ist mit 40 fpsmin und 26 fps min du warst doch immer freund besonders fordender levels und stellen
Mal ne Frage: Hat denn tatsächlich jemand vor Doom3 auf 1600x1200 zu spielen? Also ich nicht. 1280x1024 find ich schon mehr als ausreichend. Okay, die TFT-Menschen haben's da schwieriger, die können nicht unbedingt immer wählen wegen ihren nativen Auflösungen, aber in erster Linie will ich mal die Röhrenspieler ansprechen.
lol Kai, nachdem du gasagt hast, du kaufst die schnell mal die 6800 :D
;) nein war nen joke, die Zeiten, als man mit der minus taste den Bildschirmausschnitt verkleinerte, sind wohl wieder da :lol:
tombman
2004-07-29, 21:32:14
Original geschrieben von dildo4u
Hah und was ist mit 40 fpsmin und 26 fps min du warst doch immer freund besonders fordender levels und stellen
Bei der Methode wie [H] gemessen hat ist Minimum fps noch ungenauer als der avg. Wert.
Ich stell mich wenigstens an gewissen Stellen und Plätzen hin und mach screenshots, aber WO sind denn die Stellen bei [H] - kann keiner nachprüfen.
radioactiveman24
2004-07-29, 21:32:21
nein, ich auf keinen Fall.60Hz gebe ich mir echt nicht
siehe auch in diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=158173) (es geht darum, ob hohe Auflösungen besser als aa und af sind.
werde wahrscheinlich in high quality mit 4AF und 1280x960 (75Hz)spielen(wenns sein muss, dann halt 2AF)
und ich weiß auch, das 8AF bei hq automatisch eingestellt sind, aber das wird sich sicherlich ändern lassen.
Black-Scorpion
2004-07-29, 21:33:19
Original geschrieben von Kai
Mal ne Frage: Hat denn tatsächlich jemand vor Doom3 auf 1600x1200 zu spielen? Also ich nicht. 1280x1024 find ich schon mehr als ausreichend. Okay, die TFT-Menschen haben's da schwieriger, die können nicht unbedingt immer wählen wegen ihren nativen Auflösungen, aber in erster Linie will ich mal die Röhrenspieler ansprechen.
Wenn der Test so stimmt, werde ich wohl mit meiner Karte (9500pro) und 17" TFT garnicht spielen (können). :(
Die haben ja nur einen Test der Karte mit 800x600 Medium gemacht.
Einen mit 1024x768 hätten sie wenigstens machen können, bei der 5700U gings ja auch. :(
tombman
2004-07-29, 21:36:25
Was viel besser zu testen wäre wieviel % der Zeit sich fps in welchen Rahmen bewegen, so wie bei Halo.
Also zb
20-30fps
30-40fps
40-50fps
50-60fps
Dann könnte man sehr gut sehen, was für einen noch akzeptabel ist und was ned.
Original geschrieben von Gast
lol Kai, nachdem du gasagt hast, du kaufst die schnell mal die 6800 :D
;) nein war nen joke, die Zeiten, als man mit der minus taste den Bildschirmausschnitt verkleinerte, sind wohl wieder da :lol:
Hehe, offenbar ;) Weiss noch genau wie ich das damals in Doom und in Quake2 gemacht hatte.
Aber ist schon richtig, ich hab mir die GT nicht umsonst zugelegt. In erster Linie tatsächlich, weil ich Doom3 gerne in kompromissloser Pracht geniessen möchte (was ich gerne zugebe, denn Doom3 ist mit Abstand das von mir heiss erwartetste Spiel meiner Zockerkarriere - die übrigens bis in die 80er Jahre zurückreicht), aber auch um die GT angemessen mit der X800pro vergleichen zu können. Vor allem, da sich beide Karten im gleichen Preissegment befinden.
Original geschrieben von tombman
Dann könnte man sehr gut sehen, was für einen noch akzeptabel ist und was ned.
Abwarten. 40 fps bei Doom3 sind nicht gleich 40 fps bei Quake3.
Jumpin
2004-07-29, 21:39:57
Original geschrieben von tombman
Was viel besser zu testen wäre wieviel % der Zeit sich fps in welchen Rahmen bewegen, so wie bei Halo.
Also zb
20-30fps
30-40fps
40-50fps
50-60fps
Dann könnte man sehr gut sehen, was für einen noch akzeptabel ist und was ned.
Du wirst schon eine 6800 Ultra reinbaun müssen um dein Ego zu befriedigen fürchte ich. Auch wenns dir schwerfällt also Atiist.
LovesuckZ
2004-07-29, 21:41:18
Original geschrieben von Kai
Mal ne Frage: Hat denn tatsächlich jemand vor Doom3 auf 1600x1200 zu spielen?
Wenn ich die Moeglichkeit haette, warum nicht?
@Kai
Ich spiele in 1152x864 normalerweise, da schafft mein 19" Röntgengerät noch 100Hz ;)
Nur für schöne Screenshots gehe ich mal auf 1600x1200 oder darüber hinaus, dann aber nicht lange :cowboy:
Zu High und Ultra Texturen mal:
Ist bei dem Bild der Blickwinkel anders oder hat der Dicke wirklich nen "runderen" Kopf im Ultra Bild?
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfM18xMl9sLmpwZw==
Nach Studium der Screenshots folgendes Fazit: High Quality um jeden Preis. Medium Quality sieht echt schlecht aus. Dann lieber 800x600.
Original geschrieben von LovesuckZ
Wenn ich die Moeglichkeit haette, warum nicht?
Naja sicher. Vor allem macht's auch nicht unbedingt den Unterschied (Performance-mässig) ob jetzt 1280 oder 1600 - denn die meisten Szenen in denen die Frames wegbrechen sind eh CPU-limitiert.
Kladderadatsch
2004-07-29, 21:58:23
Original geschrieben von Gast
Nach Studium der Screenshots folgendes Fazit: High Quality um jeden Preis. Medium Quality sieht echt schlecht aus. Dann lieber 800x600.
ehrlich gesagt sehe ich zwischen medium und high in der gleichen auflösung von der textur-qualität keinen unterschied.
genauso bei high und very high...
EL_Mariachi
2004-07-29, 21:59:00
tjo .. ich finde den min FPS Wert der 6800 Ulra absolut überzeugend :)
d.h. für mich, dass ich wohl auch zurück ins NV Lager wechsle :D
ausserdemwillichmalwiedercodsingleplayerohneabsturzspielen :dozey:
:wink:
Original geschrieben von 9800ProZwerg
Das wird wohl keine Messungenauigkeit sein! Auch beim A64 bricht die 9800Pro128MB auf sehr wenig Frames ein!
Das wird am Speicher liegen!
Am Speicher allein sicher nicht, weil eine mit gleichem Speicher ausgestattete GeForce FX deutlich weniger einbricht als eine Radeon 9800 pro.
Ich überlege gerade, von meiner Radeon 9800 pro auf eine GeForce FX 6800 aufzurüsten. Das wäre meinem P4-3GHz mit 1GB RAM sowieso angemessener.
Original geschrieben von M@g:
<schnipp>
Zu High und Ultra Texturen mal:
Ist bei dem Bild der Blickwinkel anders oder hat der Dicke wirklich nen "runderen" Kopf im Ultra Bild?
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfM18xMl9sLmpwZw==
Das sieht mehr nach einem etwas anderen Winkel als nach runder aus.
Der Ultimative Rechner für Doom3 hat ein dropdown auf 17 fps - minustaste!!!!123454elf :lolaway:
p.s ohne AA geht es aber noch
Kladderadatsch
2004-07-29, 22:10:52
Original geschrieben von Gast
Der Ultimative Rechner für Doom3 hat ein dropdown auf 17 fps - minustaste!!!!123454elf :lolaway:
p.s ohne AA geht es aber noch
jo, dildo4u interpretiert daraus gleich wieder eine max. auflösung von 800x600...
Original geschrieben von EL_Mariachi
tjo .. ich finde den min FPS Wert der 6800 Ulra absolut überzeugend :)
d.h. für mich, dass ich wohl auch zurück ins NV Lager wechsle :D
ausserdemwillichmalwiedercodsingleplayerohneabsturzspielen :dozey:
:wink:
wegen EINEM Benchmark von nur EINEM Game eine Kaufeinscheidung zu treffen ist wirklich schwachsinnig
dildo4u
2004-07-29, 22:13:47
Original geschrieben von Gast
wegen EINEM Benchmark von nur EINEM Game eine Kaufeinscheidung zu treffen ist wirklich schwachsinnig Lol schon mal was von lizensierung der Engine gehört?
Original geschrieben von maas
Am Speicher allein sicher nicht, weil eine mit gleichem Speicher ausgestattete GeForce FX deutlich weniger einbricht als eine Radeon 9800 pro.
Ich überlege gerade, von meiner Radeon 9800 pro auf eine GeForce FX 6800 aufzurüsten. Das wäre meinem P4-3GHz mit 1GB RAM sowieso angemessener.
Ihe scheint es nicht zu kapier oder NV arbeitet mit is zusammen und hatten die Möglichkeit lange an den treibern zu feilen !
ATI wird schnell aufholen obwohl es da garnichts aufzuholen gibt,5-10 fps ist lächerlich
Original geschrieben von dildo4u
Lol schon mal was von lizensierung der Engine gehört?
ATI hat nie die möglichkeit die treiber anzupassen aber egal euch kann man nicht helfen
LovesuckZ
2004-07-29, 22:18:24
/edit:
Kann geloescht werden. Danke
die atis sind schon immer langsamer in den id engines gewesen, aber kein weltuntergang.
Original geschrieben von Gast
Ihe scheint es nicht zu kapier oder NV arbeitet mit id zusammen
Ja. Und das ist gut so. Und deshalb bietet nVidia den Spielern auch die besten Karten für Doom3.
Ich kaufe meine Hardware für meine Software und nicht umgekehrt. Nur Fanatiker machen das umgekehrt. Ich will die bessere Hardware für meine Spiele.
Und da Doom3 für mich eine Killerapplikation ist, wird die nächste Karte eben eine GeForce FX 6800.
9800ProZwerg
2004-07-29, 22:22:23
Diese peinlichen Gast Beiträge gehen mir ziemlich auf den Sack!
Leute lasst es sein! Wir sind hier in einem Diskussionsforum!
Wenn Ihr mental nicht in der Lage seid, auf einem dem Forum angemessenem Niveau mitzureden ohne Forum-User zu beleidigen, dann geht bitte jetzt ins Bett!
Original geschrieben von maas
Ja. Und das ist gut so. Und deshalb bietet nVidia den Spielern auch die besten Karten für Doom3.
Ich kaufe meine Hardware für meine Software und nicht umgekehrt. Nur Fanatiker machen das umgekehrt. Ich will die bessere Hardware für meine Spiele.
Und da Doom3 für mich eine Killerapplikation ist, wird die nächste Karte eben eine GeForce FX 6800.
Und in 99% der restlichen Games ist ATI in AA AF schneller,ne wirklich cleverer Kauf :up:
KillerGame ? es läuft auf einer Geforce 4 sehr flüssig ;D
Du solltest mal 4-5 UNABHÄNINGE Test lesen
Blaire
2004-07-29, 22:33:19
Original geschrieben von Gast
Und in 99% der restlichen Games ist ATI in AA AF schneller,ne wirklich cleverer Kauf :up:
KillerGame ? es läuft auf einer Geforce 4 sehr flüssig ;D
Du solltest mal 4-5 UNABHÄNINGE Test lesen
Hmmmm irgentwie kommt man da schon ins grübeln ich überleg ob ihc eine neue Graka kauf aber ihc glaube das kann bis neujahr warten...
Allerdings wenn atm eine 6800 GT za genausoviel kostet wie ne x800 Pro is das schon bedenklich denn die Karte leistet vorallem in Doom3 scheinbar deutlich mehr nur wie wird die preformance "erkauft" man hat wiedern Fön im rechner..
IC-Burn
2004-07-29, 22:50:29
Was ich als Hammer finde ist die Leistung der 6800 bei Doom 3.
Un das in High Quality mit 128Mb :)
http://www2.hardocp.com/1090787143TO62AMOEWX_7_3_l.gif
Original geschrieben von Joe
<schnapp>
... nur wie wird die preformance "erkauft" man hat wiedern Fön im rechner..
Einen Fön würde ich meine Karte nicht nennen, ist leiser als der Rest vom System, 2 Gehäuselüfter@7V (80mm) + SupersilentPro 4 (CPU).
Is aber gut zuwissen das sich die Investition gelohnt hat, wenn ich Doom3 und FarCry sehe, brauch ich nächstes Jahr sicher nichts neues und wenn Ati noch etwas am Treiber drehen kann ists auch Inordnung für die X800Pro User.
p.s. ah mein 1. Glückskind Post ;D
So gut D3 auf den Geforcen läuft, umso besser läuft FC auf den Radeons.
@ topic
gibt es auch eine unoverclockte 6800 in dem Test
Original geschrieben von M@g
p.s. ah mein 1. Glückskind Post ;D
das heisst? hast was gewonnen?
ansonnsten was ist fc?
Original geschrieben von Gast
das heisst? hast was gewonnen?
ansonnsten was ist fc?
Ja da Sponsort einem 3DC eine 6800 Ultra (Deshlab auch der Werbebanner da oben rechts!)
Sozusagen als Treuegeschenk wenn man 11111 Posts halt
Hiro Hiroshi
2004-07-29, 23:27:20
Original geschrieben von M@g
Einen Fön würde ich meine Karte nicht nennen, ist leiser als der Rest vom System, 2 Gehäuselüfter@7V (80cm) + SupersilentPro 4 (CPU).
Is aber gut zuwissen das sich die Investition gelohnt hat, wenn ich Doom3 und FarCry sehe, brauch ich nächstes Jahr sicher nichts neues und wenn Ati noch etwas am Treiber drehen kann ists auch Inordnung für die X800Pro User.
p.s. ah mein 1. Glückskind Post ;D
Wie hast du die 2x80cm Lüfter in deinem Gehäuse untergebracht?;D
EL_Mariachi
2004-07-29, 23:43:23
Original geschrieben von Gast
wegen EINEM Benchmark von nur EINEM Game eine Kaufeinscheidung zu treffen ist wirklich schwachsinnig
Schwachsinnig ist, andern Schwachsinnigkeit zu unterstellen. An irgendwas muss mein seine Entscheidung ja fest machen können.
In allen anderen bisher veröffentlichten Benchmarks waren NV und ATIs Karten Leistungsmässig ziemlich ausgeglichen. ( von ATIs vorteil in Sehr Hohen Auflösungen bei Aktivierem AA + AF mal abgesehen )
Mein TFT packt 1280x1024... und Doom3 Performance ist mir wichtig ( natürlich auch wg. der Engine )
Die X800er Karten sind ohne Frage auch ne sehr gute Wahl. Ich entscheide mich halt fuer die 6800er.
ATIs Linux Treiber sind mehr schlecht als recht ( was auch noch ein Grund fuer meine Entscheidung pro NV ist )
Vielleicht hätte ich schreiben sollen ...
"die hier gezeigten Benchmarks haben mich nun entgültig von der 6800er Serie überzeugt"
Dann hätte es nicht so ausgesehen, als wenn nur dieser eine Benchmark ein Kaufgrund für mich ist. Dem ist ganz sicher Nicht so.
Es war keine Leichte Entscheidung sich zw. zwei sehr guten Prudukten zu entscheiden. Das kannst du mir glauben :D
Evil Ash
2004-07-29, 23:52:10
sorry, aber das musste jetzt mal sein.
dieser komische typ, den gabs doch schon vor jahren auf screenshots zu sehen. und schon damals hat der mir nicht gefallen.
das bumpmapping sah einfach nur "bäh" aus und soll das jetzt immernoch so aussehen? selbst auf "ultra high"?? LOL.
ich mein, wenn ich die wahl hätte zwischen den zwei games, würd ich nicht lange fackeln:
http://www.sandranaumann.de/pictures/games/ut2004/vergleich.jpg
deekey777
2004-07-30, 00:35:17
Original geschrieben von Gast
So gut D3 auf den Geforcen läuft, umso besser läuft FC auf den Radeons.
@ topic
gibt es auch eine unoverclockte 6800 in dem Test
Gaynau, die PCIe Varianten sind "normal".
Colin MacLaren
2004-07-30, 00:46:57
Nehm ich die mit meinem System am ehesten vergleichbare Kombination, P4 3GHz, 9800Pro, wird gerade mal "Medium Quality" empfohlen (ich hatte eigentlich auf "High Quality" gehofft)und trotzdem gibt es derbe Drops auf 22fps. Sieht so aus, als wird das Spiel nix für mich, bzw. da wird sehr viel Ini-Tweaking nötig sein ;)
Original geschrieben von Gast
Nach Studium der Screenshots folgendes Fazit: High Quality um jeden Preis. Medium Quality sieht echt schlecht aus. Dann lieber 800x600.
High Quality sieht wegen dem 8 fach Anisotropiefilter deutlich besser aus.
Wenn man medium quality nimmt und AF manuell dazuschaltet sieht's wahrscheinlich fast genausogut wie high aus.
gnomi
2004-07-30, 02:28:46
Original geschrieben von Gast
High Quality sieht wegen dem 8 fach Anisotropiefilter deutlich besser aus.
Wenn man medium quality nimmt und AF manuell dazuschaltet sieht's wahrscheinlich fast genausogut wie high aus.
Diese Vorgehensweise kam mir für meine P4B@2,8 Ghz & Geforce 5900 Kombo auch schon in den Sinn. Zugeschaltetes 4*AF wäre doch auch schon sehr nett. =)
Wenn ich es richtig verstehe, blieben dann nur noch die komprimierten Normalmaps; ich denke auf den ersten Blick nicht, daß es hier allzugroße Einbußen geben wird.
Das einzige, was u.U. noch stören könnte, sind die sich anscheinend ebenfalls mit verstellenden Quality Settings bezüglich des Sounds. (Spekulation: leider gibt es hier nur Aussagen bezüglich der Unterschiede zwischen low und medium) Ich möchte hier wenn möglich keine Abstriche machen. Vielleicht gibt es da noch Optionen fernab irgendwelcher GUI Einstellungen...
arcanum
2004-07-30, 03:36:28
natürlich wird mal wieder an den benches rumgemäkelt
der eine findet die min. fps nicht aussage kräftig... dann ist die 6800 ultra auch noch oc. ausserdem wurden die benches von hocp gemacht und anschliessend noch von nvidia manipuliert. und überhaupt ist ati viel besser in allen anderen erhältlichen und bis ins jahr 2010 erscheinenden spielen...
man sieht bei der 6800 ultra deutlich, dass sie bei den min fps viel besser abschneidet. was nützt es einem, wenn das spiel in einfachen szenen immer an der 60 fps grenze läuft, während es bei action immer unter 20 fps sinkt. jetzt beschweren sich genau die leute, die sonst immer "fordernde szenen" benchen *in richtung tombman schiel*
zum vergleich:
die 6800 ultra sinkt nie unter 40 fps während bei der x800xt pe 30 fps das unterste minimum darstellen. das sind sage und schreibe 33% vorsprung was die min fps angeht. und sowas läßt sich wohl kaum durch die 25mhz oc erzielen, die die bfg 6800 ulta oc (425/1100) gegenüber einer normalen ultra (400/1100) bietet. selbst wenn die einbrüche nur kurze zeit andauern - was ist schlimmer, als wenn das geruckel los geht, sobald die ersten gegner auf dem screen erscheinen?
lustig ist auch, dass einige leute andauernd betonen müssen, wie toll spiel x auf hardware y läuft. allerdings ist das hier ein thread über die doom 3 performance. von daher gehe ich mal ganz stark aus, dass die meisten hier interessiert, wie gut welche karte in doom 3 abschneidet.
ich habe das gefühl, dass hier einige regelrechte komplexe und anfälle kriegen wenn ihre hardware nicht kompromisslos "das Beste" ist. wen das stört, soll sich halt beide karten holen und je nach bedarf die eine oder andere nutzen - oder halt kompromisse eingehen je nach anforderung.
aber jetzt eine karte himmelhoch zu loben oder die andere karte schlecht zu reden halt ich persönlich für sehr beschränkt.
zu guter letzt sollte man sich vor augen halten, dass die x800 karten keinesfalls eine schlecht wahl sind (auch wenn ich schon vor den d3 benchmarks die gt der pro vorgezogen hätte ;)), sondern lediglich in doom 3 nicht so überragend performen wie nvidia. evtl wird es ja bei hl2 umgekehrt aussehen und die ganze diskussion geht wieder von vorne los ;D
schliesslich werden die idioten hier im forum nie aussterben... wobei hiermit hauptsächlich die gäste gemeint sind, die selten etwas sinnvolles beitragen.
p.s. der 7fps drop bei der 9800pro sieht nach nem nachladeruckler aus ;) könnte meiner meinung nach am system ram, als auch am vram liegen. ich würde ich das nicht überbewerten, was die leistung der 9800pro angeht. schliesslich ist das ein 6 minuten benchmark, bei dem die performance nur für 2 sekunden dermaßen in die knie geht.
@arcanum:
So schaut's aus, danke für diesen Beitrag!
Einige Leute haben vielleicht Probleme :eyes:
@arcanum
schön gesagt...und das um 4 uhr morgens :)
Lowkey
2004-07-30, 04:45:47
Hardocp stellt die Ergebnisse nicht gerade übersichtlich dar.
Halten wir mal fest:
- Doom3 läuft mit jeder Grafikkarte seit GF3
- Doom3 profitiert am meisten von einer guten Grafikkarte
- Die vor einigen Tagen angegebenen Minimum Anforderungen stimmen (1500mhz + GF3 + 384Mbyte)
Soviel zum technischen Teil.
Die Frage, die sich jeder stellen sollte, ist, ob man DOOM3 wirklich in low Detail bei 640x480 spielen sollte. Das Spiel lebt nur von der Grafik und den Grafikeffekten.
=> Aus spielerischer Sicht wäre ein Upgrade der Hardware sinnvoll.
Bloss kostet eine GF 6800 mit 400 Euro einfach zuviel, auch wenn man das Geld hat. In 2 Monaten beginnt der Run auf günstige se Karten und die Preise der alten Generation sinken zugunsten des Herbst Refreshs.
Der nächste Punkt ist die Tatsache, dass Doom3 im Multiplayerbereich keine Rolle spielt. Mit 4 Playern und einer geringen Auswahl an Spiel Modi wird sich bis zum richtigen Multiplayerupgrade nicht viel tun. Für Multiplayer sollte die Framerate möglichst nie unter 45fps sinken, was derzeit nur Highendkarten schaffen.
Drittens ist es neben den Anforderungen und dem Spielspass noch eine "moralische" Sache, ob man wegen einem Game direkt den Rechner aufrüstet - gerade zu einer Zeit, wo nahezu jede Schnittstelle verändert wurde. Da dieser Schritt aber nicht vollständig vollzogen wurde und die Preise für neue Techniken hoch sind, lohnt sich ein Upgrade vorerst nicht.
Die Engine wird sich bestimmt in vielen Spielen wiederfinden, aber bis dahin vergeht Zeit. Die Preise für Hardware werden sinken. Kommende Spiele werden dieses Jahr die Anforderungen nicht höher schrauben. Hl2 wird mit Sicherheit geringere Anforderungen haben.
Mein aktuelles System
XP2000+ (2000mhz)
Geforce4 ti 4200
512Mb Ram
(...)
wird DOOM3 zum Laufen bringen. Wenn es in 1024x768 in HD mit den neuere Geforce Treibern nicht gut läuft, schaffe ich mir eine gute 9800pro an. Damit werden auch künfige Titel noch spielbar sein und knapp 200 Euro sind in meinen Augen die richtige Investition.
ATI wird nämlich angepaßte Treiber veröffentlichen, so dass
die 9800pro nochmals ein paar Prozent zulegt.
Zum Schluss eine andere Frage:
Hat die AGP Aperture Size im Bios nicht Einfluss auf den Videospeicher? Theoretisch müßte man mit einer Size von 512 mbyte das Spiel in Ultra Detail spielen können?
smockdogx
2004-07-30, 05:00:25
schöner test aber wer zockt schon auf 1600 *g*
solang ich auf 1024 schön mit bischen af und aa zocken bin ich zu frieden hoffe nur meine x800xtpe ist bis zum 12 da;D
IC-Burn
2004-07-30, 05:01:34
@ arcanum
Die 6800 U geht in Doom³ fast nicht unter 40 Fsp :asshole: aber egal. Ich kann es nicht verstehen warum sollche Leute wie du immer Threads kaputt machem müssen mit ihrem ati vs nvidia un nvidia manipuliert usw ......:-( .
Zauberer
2004-07-30, 05:14:49
Original geschrieben von Evil Ash
sorry, aber das musste jetzt mal sein.
dieser komische typ, den gabs doch schon vor jahren auf screenshots zu sehen. und schon damals hat der mir nicht gefallen.
das bumpmapping sah einfach nur "bäh" aus und soll das jetzt immernoch so aussehen? selbst auf "ultra high"?? LOL.
ich mein, wenn ich die wahl hätte zwischen den zwei games, würd ich nicht lange fackeln:
http://www.sandranaumann.de/pictures/games/ut2004/vergleich.jpg
Was für ein Babe ist die den links?
Und aus welchem Spiel soll sie kommen?
Das würde mich schon brennet interessieren! :biggrin:
Vor allem die Tattoos sehen cool aus. *auch haben will* ;)
MadManniMan
2004-07-30, 05:24:54
Hm, ist ja schön und gut, daß [H] soviel gebencht hat - aber imho viel zu viel mit absoluter High-End HW.
Der Artikel mutet eher nach einer Kaufberatung, denn nach einem allgemeinen Doom3-Tauglichkeits Check an, zumindest stellenweise.
Und was mich noch SEHR gestört hat:
- Man spricht ATi und nV keine Unterschiede in der BQ zu ... in HQ wird AF automatisch aktivier und auch, wenn Doom3 relativ "rechtwinklig" ist, so wird das geübte Auge die Winkelabhängigkeit bei den Radeons schnell wahrnehmen.
- Man hat auf keinem Screeny dem Unterschied zwischen komprimierten und ungepackten Normals Beachtung geschenkt ... was viele hier wohl betreffen wird - Stichwort 128MB VRAM.
Original geschrieben von MadManniMan
Und was mich noch SEHR gestört hat:
- Man spricht ATi und nV keine Unterschiede in der BQ zu ... in HQ wird AF automatisch aktivier und auch, wenn Doom3 relativ "rechtwinklig" ist, so wird das geübte Auge die Winkelabhängigkeit bei den Radeons schnell wahrnehmen.
Du weißt schon, daß die GF6800 die lehrbuchmäßige anisotrope Filterung anbietet?
MadManniMan
2004-07-30, 06:01:52
Verweg: mein Post war irgendwie nicht komplett ... ich meinte den Quervergleich zwischen NV3X und R3XX.
Original geschrieben von Gast
Du weißt schon, daß die GF6800 die lehrbuchmäßige anisotrope Filterung anbietet?
Nein. (http://www.3dcenter.org/artikel/nv40_benchmarks/index9.php)
Der NV40 bietet die bessere Qualität gegenüber dem R420, ja. Aber im Vergleich zum NV3X sieht das "neue" AF keinen Stich.
(del676)
2004-07-30, 07:53:22
sehr schön zu sehen wie stark eine XT PE (wird diese benchmark karte je im handel geben) gegen eine normale 6800 Ultra bei den minimum fps gnadenlos verliert, denn offensichtlich sind avg. fps benches bei doom3 NICHT aussagekräftig da die fps ja auf 60 limitiert sind (ein glück für ati, so liegen sie bei avg fps nicht soviel zurück :) )
tombman
2004-07-30, 08:11:30
Original geschrieben von arcanum
man sieht bei der 6800 ultra deutlich, dass sie bei den min fps viel besser abschneidet. was nützt es einem, wenn das spiel in einfachen szenen immer an der 60 fps grenze läuft, während es bei action immer unter 20 fps sinkt. jetzt beschweren sich genau die leute, die sonst immer "fordernde szenen" benchen *in richtung tombman schiel*
ich beschwer mich über die [H] methode zu benchen, vorallem über die immerhin über 6% octe 6800ultra.
außerdem sind die minimum fps nicht sehr aussagekräftig wenn man keine bereiche benched sondern nur einige sekundenspitzen nach unten.
die avg fps beim agp sys sind ziemlich nah bei einander- der von ati bereits versprochene neue treiber wird da noch einiges für die x800 serie rausholen.
(ati hat die angewohnheit nur treiber zu verbessern bei bedeutenden sachen- doom3 IST zu bedeutend, als daß ati es ignorieren könnte)
allein die tatsache, daß eine starke cpu erhöhung bei ati 1 fps weniger(!!) bringen soll, bei nvidia hingegen plötzlich 4xaa spielbar macht zeigt für mich ganz klar, daß man diese benchmarks in die tonne treten kann.
ich werd das selbst testen, dann simma alle gescheiter :D
ich such mir wieder markante stellen raus, wo die fps in den keller gehen und wo viel zu rechnen ist und schau mir dann die fps bei beiden an. normal benchen mit dem benchmarktool werd ich natürlich auch.
btw, da ich beide karten habe isses mir egal wer schneller in d3 ist, nur dieses absolut falsche und überzogene nv40 gehype jetzt gehört zerstört.
(del676)
2004-07-30, 09:03:33
Original geschrieben von tombman
ich beschwer mich über die [H] methode zu benchen, vorallem über die immerhin über 6% octe 6800ultra.
außerdem sind die minimum fps nicht sehr aussagekräftig wenn man keine bereiche benched sondern nur einige sekundenspitzen nach unten.
so ganz verstehe ich nicht warum du dich über eine 6% octe Ultra aufregst?
40fps / 1,06 = 37fps
sind immernoch 42% schneller als eine X800XTPE
wenn minimum fps nicht aussagekräftig sind was dann? wenn du dich an eine fordernde stelle stellst, kannst du auch waffenfeuer und gegner simulieren?
ich möchte nicht das meine karte nur im kampf plötzlich auf 26fps einbricht, imho merkt man deutlich einen unterschied zwischen 26 und 37fps
@tombman
Wie schauts bei dir aus mit D3?
Wirst du in absehbarer Zeit Benches bringen können?
MagicMat
2004-07-30, 10:30:09
Original geschrieben von MadManniMan
Hm, ist ja schön und gut, daß [H] soviel gebencht hat - aber imho viel zu viel mit absoluter High-End HW.
Der Artikel mutet eher nach einer Kaufberatung, denn nach einem allgemeinen Doom3-Tauglichkeits Check an, zumindest stellenweise.
Das sehe ich genauso. Der Test ist eine nette Orientierung, aber leider werden ältere Modell viel zu wenig berücksichtigt. Gerade die 9700/P ist immens verbreitet und gehört in einen solchen Test. Reine Kaufberatung, aber keine Beruhigung für die anscheinend so angespannten Besitzer älterer Systeme.:)
Mischler
2004-07-30, 10:30:17
Gibt es eigentlich schon GeForce 3 Benchmark Ergebnisse?
Christian
tombman
2004-07-30, 10:32:56
Original geschrieben von Ulukay
so ganz verstehe ich nicht warum du dich über eine 6% octe Ultra aufregst?
40fps / 1,06 = 37fps
sind immernoch 42% schneller als eine X800XTPE
wenn minimum fps nicht aussagekräftig sind was dann? wenn du dich an eine fordernde stelle stellst, kannst du auch waffenfeuer und gegner simulieren?
ich möchte nicht das meine karte nur im kampf plötzlich auf 26fps einbricht, imho merkt man deutlich einen unterschied zwischen 26 und 37fps
es ist aber nicht so, daß du über mehrere minuten lang auf der nv40 37fps hast und auf der x800 26fps.
das sind nur höchstens 1sec lange ausreißer nach unten. sonst wären die avg. werte nicht fast gleich.
man muß eben wissen was minimum fps bedeutet und sich die grafik genau ansehen.
beispiel: wenn karte a 99fps avg. hat und für 1sec 3fps und karte b 99fps avg. hat und für 1sec 6fps, ist dann karte b doppelt so schnell wie karte a? (keine cpu und sys limitierung vorrausgesetzt) antwort: nein
kleine und kurze ausrutscher nach unten deuten eher auf treiber hin, nicht auf hardwareschwäche.
das ist auch nicht zu vergleichen mit meinen tests, denn obwohl ich nur screenshots poste sind diese repräsentativ für die gesamte szene.
@gast: in spätestens 2 wochen kann ich dann werte posten, wenn alles glattgeht, sogar in 1 woche.
Colin MacLaren
2004-07-30, 10:37:24
Original geschrieben von MadManniMan
Und was mich noch SEHR gestört hat:
- Man spricht ATi und nV keine Unterschiede in der BQ zu ... in HQ wird AF automatisch aktivier und auch, wenn Doom3 relativ "rechtwinklig" ist, so wird das geübte Auge die Winkelabhängigkeit bei den Radeons schnell wahrnehmen.
Nein, sie haben es auf den Punkt gebracht:
The BFGTech GeForce 6800Ultra is clearly doing a better job filtering the floor tiles. It's important to note though that we did not notice this when we were actually in the game playing it, only afterward when we put these screenshots side-by-side.
[...]
You can clearly see the difference in the texture quality. This artifact can only be seen when you are directly in front of the texture and concentrating on it, and is then only visible in well lit environments. There is no impact on gameplay at all.
Und genau deshalb bin ich, nachdem ich, der stets gern mit Af zockt, nach den ganzen Lobpreisungen, die die FX-Reihe bezgl. ihrer Filterqualität hier im Forum erhalten hatte, mir eine FX5900 zulegte, von der desolaten AF-Perfromance abe geradezu entsetzt war, und in der "Performance"-Einstellung, welche die einzige wahr, die überhauot spielbare Framerates produzierte, aber trotz bedeutend schlechterer Leistung Atis 16x-"Quality"-Modus keinesfalls das Wasser reichen konnte, weiterhin Befürworter von Atis AF-Optimierungen.
Wenn ich ein Game zocke, stell ich eigentlich nicht aller zwei Minuten den Spielbetrieb ein, lehn mich zurück, analysre peinlichst genau den Bildschirminhalt und freu nich dann wie der Schneekönig, daß meine Geforce die kleine schräge Fläche da hinten links unten in der Ecke im Gegensatz zur Ati korrekt filtert und mir dies einfach mal die Halbierung der Framerate wert war. (Achtung Zynismus)
Evil Ash
2004-07-30, 10:39:36
Original geschrieben von Zauberer
Was für ein Babe ist die den links?
Und aus welchem Spiel soll sie kommen?
Das würde mich schon brennet interessieren! :biggrin:
Vor allem die Tattoos sehen cool aus. *auch haben will* ;)
das ist ophelia (oder wie sie heisst) aus unreal tournament 2004...
hab noch mehr screenshots davon ;-)
anorakker
2004-07-30, 11:08:15
kann es sein, dass doom3 tatsächlich nur in bewegung "gut" aussieht ? die meisten screenshots, die ich bisher gesehen habe sehen wirklich nicht sonderlich beeindruckend aus : totale wischiwaschi bumpmap texturen und polygonarme monster ala quake1..
imho ist es also echt wichtiger nen paar fps mehr zu haben als unbedingt hohe auflösungen und "ultrahigh" settings. denn wenn man doom3 z.b. mal mit farcry vergleicht, fällt mir auf, das ein hoher polycount auch unbedingt eine angemessene auflösung bzw. hohes aa benötigt, weil es sonst eine absolute "pixelschlacht" auf dem monitor wird (farcry in 800x600 ist einfach nur noch ungeniessbar imo).
doom3 könnte also auch bei niedrigeren auflösungen gut aus sehen, einziger nachteil sind vielleicht die bumptexturen, die eher höhere auflösungen benötigen, um gut rüberzukommen...
gnomi
2004-07-30, 11:13:08
Original geschrieben von Evil Ash
ich mein, wenn ich die wahl hätte zwischen den zwei games, würd ich nicht lange fackeln:
Nur bestehen die Games dann grafisch doch aus mehr als nur aus den Models. Die UT2004 Models dürften zwischen 2500 und 4000 Polygonen haben, die von Doom III müssen wohl kompromißweise mit 1400 auskommen. Doom III dürfte wirklich eine der Titel sein, denen Screenshots weniger gerecht werden. (Geometrie und niedrige Polyzahl ist merkbar, dynamische Schatten und Bumps und damit die Stärken kommen eventuell weniger rüber)
Man wird sich die Spiele halt in Bewegung angucken müssen. Dieser Screenshot jetzt zeigt nicht gerade eine gesamte Spielszene. Man nimmt die Eindrücke zumeist nicht derartig selektiert wahr. UT 2004 sieht für das irgendwo etwas betagte Technikset in der Tat sehr, sehr gut aus. (Modelle, Texturen, Design) Das ist zumindest meine Meinung. Aber es wird wohl kaum reichen, Doom III insgesamt grafisch auch nur annährend das Wasser zu reichen. Das ist ebenfalls meine Meinung.
Abgesehen von der ganzen Diskussion darüber, finde ich das aber jetzt auch ein wenig zu kleinlich betrachtet. Die Spiele stehen für weitaus mehr als für ihre Grafik und irgendein belangloser Screenshot ließe sich immer schießen...
Lolman
2004-07-30, 11:16:18
Original geschrieben von MadManniMan
Der NV40 bietet die bessere Qualität gegenüber dem R420, ja. Aber im Vergleich zum NV3X sieht das "neue" AF keinen Stich.
Gibts dazu 'schon' irgendwelche Screenshotvergleiche?
Ich kenn nur die Aussagen von aths, wo er meint, das _muss_ so sein und die von tombman, wo er meint, dass es nicht so ist...
(del676)
2004-07-30, 11:53:13
Original geschrieben von tombman
es ist aber nicht so, daß du über mehrere minuten lang auf der nv40 37fps hast und auf der x800 26fps.
das sind nur höchstens 1sec lange ausreißer nach unten. sonst wären die avg. werte nicht fast gleich.
man muß eben wissen was minimum fps bedeutet und sich die grafik genau ansehen.
beispiel: wenn karte a 99fps avg. hat und für 1sec 3fps und karte b 99fps avg. hat und für 1sec 6fps, ist dann karte b doppelt so schnell wie karte a? (keine cpu und sys limitierung vorrausgesetzt) antwort: nein
kleine und kurze ausrutscher nach unten deuten eher auf treiber hin, nicht auf hardwareschwäche.
das ist auch nicht zu vergleichen mit meinen tests, denn obwohl ich nur screenshots poste sind diese repräsentativ für die gesamte szene.
@gast: in spätestens 2 wochen kann ich dann werte posten, wenn alles glattgeht, sogar in 1 woche.
also ich habe lieber ein game das avg 57fps hat und minimum 37 als eines das average 100 und minimum 26 hat - das springt mir zuviel, und genau dann wann action is, und man genau zielen sollte ruckelts und stock es - nein danke
LovesuckZ
2004-07-30, 13:07:44
Original geschrieben von Lolman
Gibts dazu 'schon' irgendwelche Screenshotvergleiche?
Wir wissen, dass aths es mehr um das theoretische geht*.
Wenn beide ohne Optimierungen antreten, dann wird es beim NV40 und R420 wohl kaum einen sichtbaren unterschied geben.
Eventuell sieht das AF der Nvidia aufgrund der geringeren Winkelabhaengigkeit leicht besser aus, aber deutlich sichtbar? Mitnichten.
* was jedoch gut ist, da das alleinige Verlassen auf das Auge keine endgueltige Entscheidung sein kann! Sonst muessten wir ja nach Leuten wie Tombman, als Beispiel, nur mit bilinear spielen muessen oder duerfen.
tombman
2004-07-30, 13:29:36
Original geschrieben von Ulukay
also ich habe lieber ein game das avg 57fps hat und minimum 37 als eines das average 100 und minimum 26 hat - das springt mir zuviel, und genau dann wann action is, und man genau zielen sollte ruckelts und stock es - nein danke
[ ] du hast verstanden was ich gesagt habe
*seufz*
ok, nochmal.
die obergrenze ist 60fps. beide haben ca 53fps avg.
die nv hat 37fps minimum, die ati 26fps min.
fällt dir da mathematisch was auf?
1.) wie können die avg werte gleich sein, wenn sich die minimum werte über 40% unterscheiden?
2.) das geht wenn die maximum werte der ati höher wären, aber genau das geht ja kaum weil der unterschied von avg. zu max fps nur 15% beträgt. (53fps zu 60fps)
3.) also wenn die max werte den gleichen avg. wert ned erklären können, bleibt nur EINE erklärung:
4.) die 26fps der ati können nur für sekunden oder noch weniger auftreten, sodaß sie die eventuell minimal höheren max werte ausgleichen und so die gleichen avg werte erklären.
alles klar? mathe is dein freund ;)
[dzp]Viper
2004-07-30, 13:35:37
SEHR komisch.... die 6800 GT mit 128 MB RAM hat mehr fps als die 6800 GT mit 256 MB ram :eyes: (siehe min fps und co.)
Vor allem sind die low fps werte bei der 256 MB version sehr viel stärker vertreten.. (siehe bilder)
http://www2.hardocp.com/1090787143TO62AMOEWX_7_2_l.gif http://www2.hardocp.com/1090787143TO62AMOEWX_7_3_l.gif
Ich warte erstmal noch auf andere Benchmarks...
Bei wenn das Messungenauigkeiten sind, dann kann man den ganzen Benchmark von HC in die tonne werfen...
dildo4u
2004-07-30, 13:37:38
Original geschrieben von [dzp]Viper
SEHR komisch.... die 6800 GT mit 128 MB RAM hat mehr fps als die 6800 GT mit 256 MB ram :eyes: (siehe min fps und co.)
http://www2.hardocp.com/1090787143TO62AMOEWX_7_2_l.gif http://www2.hardocp.com/1090787143TO62AMOEWX_7_3_l.gif
Ich warte erstmal noch auf andere Benchmarks...
Bei wenn das Messungenauigkeiten sind, dann kann man den ganzen Benchmark von HC in die tonne werfen...
Hast du dir auch mal die verwendete auflössung angeguckt?
LovesuckZ
2004-07-30, 13:38:32
*hint* Aufloesung *hint* :)
[dzp]Viper
2004-07-30, 13:38:39
Original geschrieben von dildo4u
Hast du dir auch mal die verwendete auflössung angeguckt?
ups
:D
:massa: sry ;(
Die ganze aufmachung is sowas von unübersichtlich... kann da schon mal vorkommen...
MadManniMan
2004-07-30, 14:37:37
Original geschrieben von Colin MacLaren
Nein, sie haben es auf den Punkt gebracht:
Nirgends wird das Lehrbuch-AF(TM) des NV3X erwähnt.
Original geschrieben von Colin MacLaren
Und genau deshalb bin ich (...) mir dies einfach mal die Halbierung der Framerate wert war. (Achtung Zynismus)
Andere wiederum stellen andere Anforderungen an BQ+ Features als du.
Original geschrieben von gnomi
Nur bestehen die Games dann grafisch doch aus mehr als nur aus den Models. Die UT2004 Models dürften zwischen 2500 und 4000 Polygonen haben, die von Doom III müssen wohl kompromißweise mit 1400 auskommen.
Du irrst :) Tatsächlich benutzen Doom3-Modelle noch immer prächtige ~5000 Polys ;)
MadManniMan
2004-07-30, 14:39:32
Original geschrieben von Lolman
Gibts dazu 'schon' irgendwelche Screenshotvergleiche?
Ich kenn nur die Aussagen von aths, wo er meint, das _muss_ so sein und die von tombman, wo er meint, dass es nicht so ist...
Die Differenzen dürften sich im wenig bis kaum wahrnehmbaren Bereich befinden - ich für meinen Teil bin jedoch inzwischen empfindlich auf flimmernde Texturen geworden... und da sehe ich Nachteile für die X800-Serie.
betasilie
2004-07-30, 14:40:49
Original geschrieben von Evil Ash
sorry, aber das musste jetzt mal sein.
dieser komische typ, den gabs doch schon vor jahren auf screenshots zu sehen. und schon damals hat der mir nicht gefallen.
das bumpmapping sah einfach nur "bäh" aus und soll das jetzt immernoch so aussehen? selbst auf "ultra high"?? LOL.
ich mein, wenn ich die wahl hätte zwischen den zwei games, würd ich nicht lange fackeln:
http://www.sandranaumann.de/pictures/games/ut2004/vergleich.jpg
Sorry, aber diese beiden Spiele zu vergleichen ist echt absolut schwachsinnig. :crazy:
Mr. Lolman
2004-07-30, 14:54:36
Original geschrieben von MadManniMan
Die Differenzen dürften sich im wenig bis kaum wahrnehmbaren Bereich befinden - ich für meinen Teil bin jedoch inzwischen empfindlich auf flimmernde Texturen geworden... und da sehe ich Nachteile für die X800-Serie.
Naja, nach den MP2-Texturflimmergefetze, wirkts fast so, als würde der NV40, auf ein verschobenes LOD, mindestens genauso empfindlich, wie der R420 reagieren.
Den einzigen Vorteil, den ich sehe ist, dass man bei ATi Reg-Keys penetrieren muss, um die 'Optimierungen' zu deaktivieren, während man beim NV40 das ganz komfortabel übers CP erledigen kann.
Evil Ash
2004-07-30, 14:59:49
Original geschrieben von betareverse
Sorry, aber diese beiden Spiele zu vergleichen ist echt absolut schwachsinnig. :crazy:
sorry, aber ich vergleiche nicht die spiele, sondern die (details der) modelle....
MadManniMan
2004-07-30, 15:03:05
Original geschrieben von Mr. Lolman
Naja, nach den MP2-Texturflimmergefetze, wirkts fast so, als würde der NV40, auf ein verschobenes LOD, mindestens genauso empfindlich, wie der R420 reagieren.
Den einzigen Vorteil, den ich sehe ist, dass man bei ATi Reg-Keys penetrieren muss, um die 'Optimierungen' zu deaktivieren, während man beim NV40 das ganz komfortabel übers CP erledigen kann.
Naja, der MP2-Mist hat mit dem, was ich meine, nicht so viel zu tun ;)
Ich erinnere mich an das eine Video von FarCry, wo übelstes Texturschimmer offensichtlich wurde.
Mich persönlich stört der bewußte Verzicht auf Samples vor dem Mip-Wechsel.
Zudem kann ich nach einer Woche NV30 sagen, daß der Texturfilter der nV wesentlich weniger Shimmering erzeugt - fällt auch bei AF auf.
Original geschrieben von tombman
ich beschwer mich über die [H] methode zu benchen, vorallem über die immerhin über 6% octe 6800ultra.
außerdem sind die minimum fps nicht sehr aussagekräftig wenn man keine bereiche benched sondern nur einige sekundenspitzen nach unten.
die avg fps beim agp sys sind ziemlich nah bei einander- der von ati bereits versprochene neue treiber wird da noch einiges für die x800 serie rausholen.
(ati hat die angewohnheit nur treiber zu verbessern bei bedeutenden sachen- doom3 IST zu bedeutend, als daß ati es ignorieren könnte)
allein die tatsache, daß eine starke cpu erhöhung bei ati 1 fps weniger(!!) bringen soll, bei nvidia hingegen plötzlich 4xaa spielbar macht zeigt für mich ganz klar, daß man diese benchmarks in die tonne treten kann.
ich werd das selbst testen, dann simma alle gescheiter :D
ich such mir wieder markante stellen raus, wo die fps in den keller gehen und wo viel zu rechnen ist und schau mir dann die fps bei beiden an. normal benchen mit dem benchmarktool werd ich natürlich auch.
btw, da ich beide karten habe isses mir egal wer schneller in d3 ist, nur dieses absolut falsche und überzogene nv40 gehype jetzt gehört zerstört.
Was viel interessanter zu sein scheint. Die X800 XT PE wurde mit Anisotropic Optimierung ON getestet und die 6800 Ultra OC mit Anisotropic Optimierung OFF.
betasilie
2004-07-30, 15:05:08
Original geschrieben von Evil Ash
sorry, aber ich vergleiche nicht die spiele, sondern die (details der) modelle....
Auch dieser isolierte Vergleich hinkt. Bei UT werden keine Bumpmaps eingesetzt, also ist der Vergleich nicht möglich.
Wenn Du auf effektlose Grafik mit guten Moddels stehst, dann musst Du halt bei Unreal bleiben.
Ich für meinen Teil spiele lieber spiele, die auf GFX, wie z.B. PS-FX (BM, EM,...), Beleuchtung und Schatten Wert legen und dann bleibt halt nicht mehr soviel über für hochauflösende Tapeten über, wie bei UT2004, wo schlicht keine modernen Effekte genutzt werden.
Außerdem warte erstmal auf das fertige doom3. Die Leute, die an nur einer Hand voll Screenshoots das Spiel und die Grafik bewerten wollen, verstehe ich ohnehin nicht.
Mr. Lolman
2004-07-30, 15:06:54
Original geschrieben von Gast
Was viel interessanter zu sein scheint. Die X800 XT PE wurde mit Anisotropic Optimierung ON getestet und die 6800 Ultra OC mit Anisotropic Optimierung OFF.
Tatsächlich? Wo steht das?
Mr. Lolman
2004-07-30, 15:08:25
Original geschrieben von MadManniMan
Zudem kann ich nach einer Woche NV30 sagen, daß der Texturfilter der nV wesentlich weniger Shimmering erzeugt - fällt auch bei AF auf.
Glaub ich dir gerne. Mach' jedoch bloß nicht den fehler vom NV30 auf die NV40 AF Qualität schliessen zu wollen ;)
Original geschrieben von Mr. Lolman
Tatsächlich? Wo steht das?
Bei einer X800 XTPE wurde mit Standardsettings getestet wenn ich das richtig verstanden habe. Eine 6800 Ultra ebenso. Das hieße eine Radeon hat ja defaultmäsig alle Optimierungen enabled. Die 6800 Ultra allerdings nicht.
Original geschrieben von Gast
Was viel interessanter zu sein scheint. Die X800 XT PE wurde mit Anisotropic Optimierung ON getestet und die 6800 Ultra OC mit Anisotropic Optimierung OFF.
Ich glaube nicht.
Beide wurden, AFAIK mit Treiber-Default und AF-Anforderung über die APP gebencht. Das bedeutet i.d.R., daß man auf allen Stages reduziert-trilineare Filterung bekommt.
Nur wenn du den beiden Karten das AF-Level über den Treiber aufzwingst, bekommst du bilineare Filterung auf den TS>0 - bei beiden.
Skusi
2004-07-30, 15:14:08
Das stimmt nicht. Default ist Quality und dann ist auf dem NV40 Trilineare-Optimierung eingeschaltet.
Defaultmäsig ist Anisotropic Filtering Optimierungen auf Nvidia disabled.
Wie ist das denn zu verstehn?
Original geschrieben von Skusi
Das stimmt nicht. Default ist Quality und dann ist auf dem NV40 Trilineare-Optimierung eingeschaltet.
Trilinear ja aber nicht Anisotropic
MadManniMan
2004-07-30, 15:22:16
Original geschrieben von Mr. Lolman
Glaub ich dir gerne. Mach' jedoch bloß nicht den fehler vom NV30 auf die NV40 AF Qualität schliessen zu wollen ;)
Sowieso nicht... zwar wäre ne GT für mich die neue Karte mit dem größten Reiz, doch freue ich mich jetzt erstmal lieber über richtig schöne Texturen und daß mich der Spaß keine 100 Tacken gekostet hat ;)
BTW macht sich die R9500Pro im Zweitrechner mit dem 1024er TFT wesentlich besser und hier brauchts bei 1280 eben "nur" Leistung für 2*AA =)
Mr. Lolman
2004-07-30, 15:22:59
Original geschrieben von Gast
Trilinear ja aber nicht Anisotropic
Doch alle Optimierungen sind bei Quality aktiv... (AFAIK :weg: )
MadManniMan
2004-07-30, 15:27:25
Original geschrieben von Mr. Lolman
Doch alle Optimierungen sind bei Quality aktiv... (AFAIK :weg: )
Stimmt ;( (soeben mit 61.76 nachgeprüf0rt)
Skusi
2004-07-30, 15:32:40
Nach Installation des 61.77 für meine 6800GT steht im Panel:
-Quality
-TriOpt ON
-AniOpt OFF
Welche Optimierungen nun tatsächlich greifen, weiss ich nicht. Ehrlich gesagt sehe ich zwischen Quality und High Quality nicht den geringsten Unterschied.(im Spielealltag)
Grüsse, Skusi
edit: Allerdings ist es im Qualitymodus möglich AniOpt ein oder auszuschalten.
Original geschrieben von Skusi
Nach Installation des 61.77 für meine 6800GT steht im Panel:
-Quality
-TriOpt ON
-AniOpt OFF
Welche Optimierungen nun tatsächlich greifen, weiss ich nicht. Ehrlich gesagt sehe ich zwischen Quality und High Quality nicht den geringsten Unterschied.(im Spielealltag)
Grüsse, Skusi
Genauso stehts bei mir auch 61.77
Original geschrieben von Gast
Defaultmäsig ist Anisotropic Filtering Optimierungen auf Nvidia disabled.
Wie ist das denn zu verstehn?
Richtig, aber schalte mal den AF-Slider auf eine andere Position als Anwendungsgesteuert und staune, was mit der Aniso-Optimierung plötzliche passiert. ;)
Mephisto
2004-07-30, 15:34:22
Original geschrieben von MadManniMan
Tatsächlich benutzen Doom3-Modelle noch immer prächtige ~5000 Polys ;) Haben nicht sogar die kleinen Panzers-Männeken je 3000 Polygone?!
Andre2779
2004-07-30, 15:39:02
Original geschrieben von iNSanE iN tHE mEMbRaNe
ehrlich gesagt sehe ich zwischen medium und high in der gleichen auflösung von der textur-qualität keinen unterschied.
genauso bei high und very high...
dann würde bei dir Medium und High Quality Textur Mäßig gleich aussehen wenn ich mich nicht täuche
Original geschrieben von q@e
Richtig, aber schalte mal den AF-Slider auf eine andere Position als Anwendungsgesteuert und staune, was mit der Aniso-Optimierung plötzliche passiert. ;)
Die bleibt weiter off
tombman
2004-07-30, 15:40:30
ich hasse es ja sowieso wenn man auf "default" testet- mir is lieber wenn man haarklein genau jedes setting angibt vor den benchmarks.
Original geschrieben von Gast
Die bleibt weiter off
Aber nicht, wenn du auf "übernehmen" geklickt hast und vorher "Qualität" auswähltest. ;)
Original geschrieben von q@e
Aber nicht, wenn du auf "übernehmen" geklickt hast und vorher "Qualität" auswähltest. ;)
Stimmt.
tombman
2004-07-30, 15:51:37
Original geschrieben von MadManniMan
Du irrst :) Tatsächlich benutzen Doom3-Modelle noch immer prächtige ~5000 Polys ;)
5000 poligone sind heutzutage aber sauwenig...
schon bei dem jahrealten game "messiah" von shiny entertainment hatten einige figuren 11000 poligone pro figur- und da waren ned nur 4 maximal am schirm.
man sieht eh deutlich die ecken in den köpfen der dumm3 figuren...
Skusi
2004-07-30, 15:54:42
Na ja, vielleicht sind die Zombies, bevor der Spieler eintrifft, ständig mit ihrer Brezbirne gegen die Wand gelaufen.:D
Das würde jedenfalls die großen Polygone erklären.
edit: ot, mann,ich seh grad das meine Graka im Leerlauf schon
62 Grad warm ist.Scheint heute gutes Wetter zu sein.:D
tombman
2004-07-30, 15:56:07
Original geschrieben von q@e
Aber nicht, wenn du auf "übernehmen" geklickt hast und vorher "Qualität" auswähltest. ;)
woher weißt du daß [H] das so gemacht hat?
es scheint eher so, als ob er das cp überhaupt ned angerührt hat...(außer vielleicht beim aa forcen)
MadManniMan
2004-07-30, 16:04:08
Ey ist das mit der AF-Optimierung fies :freak:
Wenn man AF aus hat und vorsorglich die Optimierung ausstellt :o Naja, will mans nV verdenken...
Und tombman: 5000 sind nicht sauwenig, 5000 sind gesundes Mittelmaß. Zudem können 5000 noch gut und scheiße verbaut sein.
Und Messiah hier reinzubringen, ist imho unangebracht, schließlich verwendet die Engine je nach übriger Leistung bis zu einer halben Million Polys pro Char - wovon jedoch bei den "üblichen" 1024 zum Erscheinen des Spiels zuwenig Pixel für die ganzen Polys war, außerdem wäre das dynamische LoD für Stencil-Schatten ein Grauen!
Und letztendlich möchte ich 5000 Polygone mit Normals und Stencilschatten nicht mit "normalen" 5000er Models verglichen wissen ;)
PS: Nochwas in eigener Sache - Bri und StageOpt sind für mich persönlich eher zu verschmerzen, als Winkelabhängigkeit und zu aggressives Textur-LoD-ing.
Winter[Raven]
2004-07-30, 16:08:05
schon bei dem jahrealten game "messiah" von shiny entertainment hatten einige figuren 11000 poligone pro figur- und da waren ned nur 4 maximal am schirm.
Ich sag lieber nichts mehr, im Bezug auf deine Posting, damit ich mir keinen Punkt einhandle, aber langsamm solltest du deine Art zudiskuttieren auf den Nagel hängen! Das geht langsamm aber sicher vielen auf die Nerven!
Messiah, hatte eine andere Renderingtechnik als die von DOOM III. Es mag sein das die Figuren in messiah aus 11xxx Polygonen aufbegabut waren, aber diese Polygonanzahl hattest du NIE im Spiel, da man mit einem sehr komischem Engine-LOd gearbeitet hat, da sah man richtig wie die Figuren hin und her schaben wegen dem LOD!
Und allgemein hinkt dein Verleich ganz schön ... Messiah Engine vs DOOM III ENgine ... :bonk:
Original geschrieben von tombman
woher weißt du daß [H] das so gemacht hat?
es scheint eher so, als ob er das cp überhaupt ned angerührt hat...(außer vielleicht beim aa forcen)
Sage ich doch gar nicht... :gruebel:
(oder meinst du den kleinen Exkurs, daß man die AF-Optimierung nicht separat aktivieren muss, wenn man manuell einen AF-Level auswählt, anstatt die Applikation dies tun zu lassen?)
Hier:
Original geschrieben von q@e
Ich glaube nicht.
Beide wurden, AFAIK mit Treiber-Default und AF-Anforderung über die APP gebencht. Das bedeutet i.d.R., daß man auf allen Stages reduziert-trilineare Filterung bekommt.
Nur wenn du den beiden Karten das AF-Level über den Treiber aufzwingst, bekommst du bilineare Filterung auf den TS>0 - bei beiden.
wenn man so zu argumentieren anfängt das die figuren in messiah 11000 polys haben sollen kann ich gleihc sagen das die in doom 1 000 000 haben das is ungefähr genauso nah an der warheit...
Kamikaze
2004-07-30, 16:19:54
sry 4 offtopic, aber hat schonmal jemand in der heutigen zeit mit nem leistungsstarken rechner missiah gespielt, würde mich mal interessieren wie die models (pics) jetzt ausschauen!?!
ich habs hier legen aber es ist sooo verbugt ich hab keine lust das zu installieren :D
Mr. Lolman
2004-07-30, 16:26:50
Original geschrieben von MadManniMan
PS: Nochwas in eigener Sache - Bri und StageOpt sind für mich persönlich eher zu verschmerzen, als Winkelabhängigkeit und zu aggressives Textur-LoD-ing.
Ich glaub' das kann man fast allgemein so stehen lassen. Nicht umsonst wird dem NV3x eine bessere AF-Qualität nachgesagt als dem R3x0.
gnomi
2004-07-30, 17:12:25
Original geschrieben von MadManniMan
Du irrst :) Tatsächlich benutzen Doom3-Modelle noch immer prächtige ~5000 Polys ;)
Mag durchaus sein. Hast du mal eine klärende Quellenangabe hierzu? ;) (es sieht wie ich sagen muß nicht nach derartig vielen zur Verfügung stehenden in diesem speziellen Falle aus :kratz2: )
BTW, es ist sowieso immer so eine Sache, sich am Polycount "aufzuhängen". Es hängt IMHO hauptsächlich von den künstlerischen Fähigkeiten ab und es geht ja auch darum, wie gut das Objekt jetzt im Spiel aussieht und rüberkommt. Auch liegt die Schönheit dann irgendwo im Auge des Betrachters. Jeder hat da leicht andere Präferenzen...
arcanum
2004-07-30, 18:05:08
Original geschrieben von IC-Burn
@ arcanum
Die 6800 U geht in Doom³ fast nicht unter 40 Fsp :asshole: aber egal. Ich kann es nicht verstehen warum sollche Leute wie du immer Threads kaputt machem müssen mit ihrem ati vs nvidia un nvidia manipuliert usw ......:-( .
[ ] du hast meinen beitrag gelesen
Original geschrieben von tombman
ich beschwer mich über die [H] methode zu benchen, vorallem über die immerhin über 6% octe 6800ultra.
außerdem sind die minimum fps nicht sehr aussagekräftig wenn man keine bereiche benched sondern nur einige sekundenspitzen nach unten.
die avg fps beim agp sys sind ziemlich nah bei einander- der von ati bereits versprochene neue treiber wird da noch einiges für die x800 serie rausholen.
(ati hat die angewohnheit nur treiber zu verbessern bei bedeutenden sachen- doom3 IST zu bedeutend, als daß ati es ignorieren könnte)
allein die tatsache, daß eine starke cpu erhöhung bei ati 1 fps weniger(!!) bringen soll, bei nvidia hingegen plötzlich 4xaa spielbar macht zeigt für mich ganz klar, daß man diese benchmarks in die tonne treten kann.
ich werd das selbst testen, dann simma alle gescheiter :D
ich such mir wieder markante stellen raus, wo die fps in den keller gehen und wo viel zu rechnen ist und schau mir dann die fps bei beiden an. normal benchen mit dem benchmarktool werd ich natürlich auch.
btw, da ich beide karten habe isses mir egal wer schneller in d3 ist, nur dieses absolut falsche und überzogene nv40 gehype jetzt gehört zerstört.
ich verstehe die aufregung nicht. die bfg 6800ultra kommt von haus aus oc. ist doch ihr gutes recht eine solche karte zu verwenden die ganz normal im handel erhältlich ist. der geringe avg. fps unterschied erklärt sich selbst redend aus dem 60fps cap. jetzt rechne mal nach, mit wieviel fps eine karte konstant laufen müsste um über 57.3 fps avg zu kommen :gruebel: allerdings muss ich zugeben, dass ich nicht weiss wieviel luft nach oben ist bei beiden karten. da müssen wir wohl wirklich auf weitere benches warten. ich will auch gar nicht sagen, dass der von [H] der weisheit letzter schluss ist, jedoch haben die benches für mich mehr aussagekraft als das was jemand redet, der doom 3 noch gar nicht in den händen hatte.
Original geschrieben von tombman
5000 poligone sind heutzutage aber sauwenig...
schon bei dem jahrealten game "messiah" von shiny entertainment hatten einige figuren 11000 poligone pro figur- und da waren ned nur 4 maximal am schirm.
man sieht eh deutlich die ecken in den köpfen der dumm3 figuren...
aber wieviele polygonen wurden durchschnittlich pro figur angezeigt bei den damaligen rechnern? dir ist schon klar, dass in messiah realtime tesselation/deformation genutzt wurde, um die die polygonzahl der models dynamisch anzupassen.
bei aktuellen engines dürften 5000 polys/figur im moment das oberste ende der fahnenstange darstellen. ich lasse mich gerne vom gegenteil überzeugen (mit quelle), wobei custom models nicht zählen ;)
(del676)
2004-07-30, 18:51:30
Original geschrieben von tombman
[ ] du hast verstanden was ich gesagt habe
*seufz*
ok, nochmal.
die obergrenze ist 60fps. beide haben ca 53fps avg.
die nv hat 37fps minimum, die ati 26fps min.
fällt dir da mathematisch was auf?
1.) wie können die avg werte gleich sein, wenn sich die minimum werte über 40% unterscheiden?
2.) das geht wenn die maximum werte der ati höher wären, aber genau das geht ja kaum weil der unterschied von avg. zu max fps nur 15% beträgt. (53fps zu 60fps)
3.) also wenn die max werte den gleichen avg. wert ned erklären können, bleibt nur EINE erklärung:
4.) die 26fps der ati können nur für sekunden oder noch weniger auftreten, sodaß sie die eventuell minimal höheren max werte ausgleichen und so die gleichen avg werte erklären.
alles klar? mathe is dein freund ;)
1. rede mit mir nicht wie mit einem idioten
2. hast du meinen beitrag gelesen? nein?
seufz also nochmal für dich
wenn Action auf den Bildschirm kommt, und die fps dabei auf 26 sinken dann RUCKELT das in meinen augen, das ist bei 37fps schon viel besser
AUCH wenn es nur bei 10% der szenen vorkommt, STÖRT ES MICH
wenn du dich zu 90% der zeit an 60fps aufgeilst und dir gelegentliche Ruckler recht sind - ist das deine sache, aber das ist keine Norm der ICH mich beugen muss
kapiert?
Wie an den meisten der Graphen ersichtlich*, wurde auch in diesem Test das 60fps IMO umgangen - nicht umsonst fand der Test in-house bei id-Software statt.
*durch ihre Peaks, die durch die DIAGRAMMwahl von [H] weggeschnitten wurden - wäre dort wirklich 60fps ein Peak, würde da eine flache Linie oben längslaufen und keine abgeschnittenen Spitzen erahnbar sein.
Mr. Lolman
2004-07-30, 18:59:21
Original geschrieben von q@e
*durch ihre Peaks, die durch die DIAGRAMMwahl von [H] weggeschnitten wurden - wäre dort wirklich 60fps ein Peak, würde da eine flache Linie oben längslaufen und keine abgeschnittenen Spitzen erahnbar sein.
Die grüne Linie verdeckt den fps Graph. ;)
Dann gehen wir doch gleich dieser wichtigen Frage nach: was passiert wenn die 60 fps erreicht sind?
-rendert sie gleiche Bilder
-swicht auf dem fb ohne rendern
-rechnet doch aber gibt nicht zum fb
Original geschrieben von Mr. Lolman
Die grüne Linie verdeckt den fps Graph. ;)
So wie hier? (ausm ersten Posting dieses Threads wahllos geklaut)
http://www2.hardocp.com/1090787143TO62AMOEWX_7_6_l.gif
(nein, ihr braucht nicht schimpfen, auch wer mit Modem surft hat das Bild schon längst im Brauserkäsch.)
Sieht für mich eher nicht nach einem 60fps-Cap aus, sondern nach einen [H]-Cap, weil ja "kein Mensch mehr als 60fps braucht" ;)
LovesuckZ
2004-07-30, 19:17:23
Original geschrieben von Ulukay
wenn Action auf den Bildschirm kommt, und die fps dabei auf 26 sinken dann RUCKELT das in meinen augen, das ist bei 37fps schon viel besser
Vergleicht man die 6800U mit der X800XT, sieht man, dass in den Situationen, wo die 6800U einbricht, dies bei der X800XT noch staerker geschieht.
Bricht die 6800U von 60 auf 45FPS ein, sind es bei der X800XT nur noch 40 oder weniger.
Deswegen stimme ich dir zu, dass die Minimumanzeige deutlich macht, dass die 6800U in den extremen Situationen bei Hardocp ein besseres Spieleerlebnis in Doom3 liefert als das Konkurenzprodukt.
Original geschrieben von Gast
Dann gehen wir doch gleich dieser wichtigen Frage nach: was passiert wenn die 60 fps erreicht sind?
-rendert sie gleiche Bilder
-swicht auf dem fb ohne rendern
-rechnet doch aber gibt nicht zum fb
Was soll da passieren?
Wenn die Doom3 engine nur max. 60 fps an die Graka liefert, dann dreht letztere eben Däumchen, wenn sie denn mehr schaffen wurde.
Colin MacLaren
2004-07-30, 19:40:16
Ich hoffe, der Cap läßtsich abschalten, ich finde es irgendwie wenig sinnvoll, den Cap bei der Framerate zu setzen, wo ein Spiel gerade mal anfängt, richitg flüssig zu werden.
Original geschrieben von Colin MacLaren
Ich hoffe, der Cap läßtsich abschalten, ich finde es irgendwie wenig sinnvoll, den Cap bei der Framerate zu setzen, wo ein Spiel gerade mal anfängt, richitg flüssig zu werden.
60 fps in Doom3 sind vom Spielgefühl her ungefähr wie 100 fps in Quake3. Nach meinem subjektiven Empfinden zumindest - und das ist sehr empfindlich.
just4FunTA
2004-07-30, 21:23:24
Original geschrieben von Kai
60 fps in Doom3 sind vom Spielgefühl her ungefähr wie 100 fps in Quake3. Nach meinem subjektiven Empfinden zumindest - und das ist sehr empfindlich.
jaja du musst uns das jetzt natürlich bei jeder gelegenheit unter die Nase reiben. :bäh:
Ne erzähl mal was, warum durftest du es spielen, wie lang, wie wo was. Irgendwas ;D
Original geschrieben von moka83
jaja du musst uns das jetzt natürlich bei jeder gelegenheit unter die Nase reiben. :bäh:
Ne erzähl mal was, warum durftest du es spielen, wie lang, wie wo was. Irgendwas ;D
Ich kann nicht viel sagen, aber was ich sagen kann ist, das ich im rahmen einer kleinen vorführung (nicht die primäre angelegenheit, aber dennoch die attraktivste wie ich fand) dabei war und ich mit einigen anderen jungens mal "antesten" durfte.
Fünf Minuten hab ich gespielt, nicht länger - da hab ich meine Hände in die Luft gehoben und gesagt, das ich mir nicht alles verspoilern will, weil ich die Athmo so genial fand. Da ham se gelacht ;)
Jetzt muss ich auch mal meinen Senf dazu geben. Obwohl ich es selbst nicht glauben wollte, gibt es Leute die den Unterschied bei verschiedenen Frameraten sehen (geteste mit Half-Life). Ich selber gehöre nicht dazu (ich merke es nur wenn große Framesprünge dazwischen sind). Allerdings scheint dieses "Frameempfinden" auch davon abzuhängen, wie lange und häufig die Person Computerspiele (hier Shooter) spielt. Also ist der ganze Rummel um Framraten zum großen Teil noch eine persönliche Empfindungssache. Interessant finde ich in diesem Zusammenhang auch noch, welche Bereitschaft Leute zeigen aberwitzige Summen für eine neue Grafikkarte auszugeben (oder bereits ausgegeben haben). Noch interessanter allerdings ist der Vergleich der Verkaufszahlen von neuen Grafikchips und den Aussagen von Leuten bereits eine Grafikkarte mit eben diesem neuen Chip zu haben (meistens treten große Abweichungen auf, die besagen, dass wesentlich weniger Karten weltweit verkauft wurden, als Leute weltweit behaupten eine solche zu besitzen).
just4FunTA
2004-07-30, 22:22:46
ui ich hätte ja eigentlich gedacht die müssten dich dort mit der :chainsaw: entfernen.
hm schade das du nicht mehr erzählen kannst, aber sind ja bloß noch 4 Tage, am ~3 werden wir bestimmt überhäuft mit Infos und vielleicht sogar ner Demo. Mal sehen. :)
Kladderadatsch
2004-07-30, 22:24:49
Original geschrieben von Gast
Jetzt muss ich auch mal meinen Senf dazu geben. Obwohl ich es selbst nicht glauben wollte, gibt es Leute die den Unterschied bei verschiedenen Frameraten sehen (geteste mit Half-Life). Ich selber gehöre nicht dazu (ich merke es nur wenn große Framesprünge dazwischen sind). Allerdings scheint dieses "Frameempfinden" auch davon abzuhängen, wie lange und häufig die Person Computerspiele (hier Shooter) spielt. Also ist der ganze Rummel um Framraten zum großen Teil noch eine persönliche Empfindungssache. Interessant finde ich in diesem Zusammenhang auch noch, welche Bereitschaft Leute zeigen aberwitzige Summen für eine neue Grafikkarte auszugeben (oder bereits ausgegeben haben). Noch interessanter allerdings ist der Vergleich der Verkaufszahlen von neuen Grafikchips und den Aussagen von Leuten bereits eine Grafikkarte mit eben diesem neuen Chip zu haben (meistens treten große Abweichungen auf, die besagen, dass wesentlich weniger Karten weltweit verkauft wurden, als Leute weltweit behaupten eine solche zu besitzen).
mit der häufigkeit liegt es wohl auch nicht zusammen. ich habe damals täglich etwa 3 stunden gezockt...tut mir leid, ich bemerke keinen unterschied zwischen 100 und 40 fps...
tombman
2004-07-30, 23:06:45
@messiah
leute wenn ICH sage 11000, dann sinds 11000. und zwar im spiel und ned nur theoretisch.
ja, es gab damals schon schalter wo man über den köpfen der figuren die poligonmenge anzeigen lassen konnte, und da ich damals schon high end pc hatte, hatten meine figuren auch deutlich mehr poligone als jene auf normalen pcs. (üblich waren ca 5000 bis 11000 pro figur bei mir)
@d3
5000 poligone pro figur sind wenig, vorallem wenn nur ein paar davon gleichzeitig zu sehen sind in d3. klar, falls da 100 stück rumrennen wäre es sehr viel, aber 5 maxerl `a 5000 is lächerlich wenig - ein tribut an die dumm3 stencil shadow geschichte.
mir persönlich ist 1 million polis pro frame ohne stencil shadows lieber als 50000 mit.
tombman
2004-07-30, 23:17:59
Original geschrieben von Ulukay
1. rede mit mir nicht wie mit einem idioten
2. hast du meinen beitrag gelesen? nein?
seufz also nochmal für dich
wenn Action auf den Bildschirm kommt, und die fps dabei auf 26 sinken dann RUCKELT das in meinen augen, das ist bei 37fps schon viel besser
AUCH wenn es nur bei 10% der szenen vorkommt, STÖRT ES MICH
wenn du dich zu 90% der zeit an 60fps aufgeilst und dir gelegentliche Ruckler recht sind - ist das deine sache, aber das ist keine Norm der ICH mich beugen muss
kapiert?
naja, du willst offenbar ned verstehen. es sind keine 10%, sondern nur 1sec spitzen nach unten, also ned mal ein promille!
http://img.photobucket.com/albums/v290/jlee24219/IMGA0764.jpg
http://img.photobucket.com/albums/v290/jlee24219/IMGA0759.jpg
http://img.photobucket.com/albums/v290/jlee24219/IMGA0760.jpg
http://img.photobucket.com/albums/v290/jlee24219/IMGA0761.jpg
http://img.photobucket.com/albums/v290/jlee24219/IMGA0764.jpg
Fakes oder echt?
(del676)
2004-07-30, 23:24:21
Original geschrieben von tombman
naja, du willst offenbar ned verstehen. es sind keine 10%, sondern nur 1sec spitzen nach unten, also ned mal ein promille!
ich glaube eher du verstehst nicht, oder willst es nicht evrstehen
und wenn es nur 1 sekunden spitzen sind, STÖREN SIE MICH
und da kannst du lieber tombman nun zetern und versuchen mir das wie für einen idioten zu erklären, MICH STÖRT ES
wenn dir ruckler nix ausmachen bitteschön, aber lass MIR MEINE meinung - DANKE
http://www2.hardocp.com/1090787143TO62AMOEWX_7_6_l.gif
ausserdem sehen ich da mehr einbrüche als 1 promille - das sieht eher aus als würde es jedesmal einbrechen wenn mehr als ein gegner am bildschirm ist
tombman
2004-07-30, 23:46:42
Original geschrieben von Ulukay
ich glaube eher du verstehst nicht, oder willst es nicht evrstehen
und wenn es nur 1 sekunden spitzen sind, STÖREN SIE MICH
und da kannst du lieber tombman nun zetern und versuchen mir das wie für einen idioten zu erklären, MICH STÖRT ES
wenn dir ruckler nix ausmachen bitteschön, aber lass MIR MEINE meinung - DANKE
http://www2.hardocp.com/1090787143TO62AMOEWX_7_6_l.gif
ausserdem sehen ich da mehr einbrüche als 1 promille - das sieht eher aus als würde es jedesmal einbrechen wenn mehr als ein gegner am bildschirm ist
ich hab dir deine meinung immer gelassen, aber deine wahrnehmung is da ein bischen verzerrt. es sind immerhin ca 350sec auf der grafik und davon geht es nur ca 8mal unter 35fps (zähl die zacken) und dann gleich wieder rauf. also mehr als 1 bis 2 sec sind das ned.
zusammengezählt sicher unter 5% (5% sind ca 17sec) , was auch der avg. wert bestätigt.
@quasar: die leeren stellen oben sind mir auch aufgefallen, was bedeuten kann, daß einfach die grüne linie die gelbe überdeckt, oder daß d3 wie in der beta, in der praxis nicht genau bei 60fps capped sondern erst bei 62fps- wahrscheinlich rutschen diese 2fps "durch", weil die engine auch eine gewisse reaktionszeit braucht, bis sie merkt "aha, über 60fps -> abriegeln"- da sinds dann aber schon 62fps :D
(del676)
2004-07-30, 23:52:09
toll
in 6 minuten ruckelts 8x
wenn dir sowas gefällt?
tombman
2004-07-31, 00:00:49
Original geschrieben von Ulukay
toll
in 6 minuten ruckelts 8x
wenn dir sowas gefällt?
das is das problem- 1sec auf 30fps ist kein ruckeln.
des macht mal kurz "zuck" und schon gehts weiter.
(del676)
2004-07-31, 00:05:49
Original geschrieben von tombman
das is das problem- 1sec auf 30fps ist kein ruckeln.
des macht mal kurz "zuck" und schon gehts weiter.
ja, sowas stört mich aber, es gibt nix schlimmeres als ein highend system und dan ruckeln, oder besser gesagt zuckeln
Original geschrieben von tombman
das is das problem- 1sec auf 30fps ist kein ruckeln.
des macht mal kurz "zuck" und schon gehts weiter.
Ein Zuck ist schon fürchterlich.
Original geschrieben von Gast
http://img.photobucket.com/albums/v290/jlee24219/IMGA0764.jpg
http://img.photobucket.com/albums/v290/jlee24219/IMGA0759.jpg
http://img.photobucket.com/albums/v290/jlee24219/IMGA0760.jpg
http://img.photobucket.com/albums/v290/jlee24219/IMGA0761.jpg
http://img.photobucket.com/albums/v290/jlee24219/IMGA0764.jpg
Fakes oder echt?
Sieht schwer nach echt aus ;)
tombman
2004-07-31, 00:19:09
Original geschrieben von Gast
Ein Zuck ist schon fürchterlich.
wenn des so wäre, dürften 95% aller gamer überhaupt ned gamen, weil sie 1sec zucks mit 0815 pcs gar ned verhindern könnten...
@ulukay, außerdem sind des nur die "benchmarks" von [H]- da warte ich lieber meine eigenen tests ab um zu sehen was wie weit und wie lang zuckt oder ned :)
Original geschrieben von tombman
wenn des so wäre, dürften 95% aller gamer überhaupt ned gamen, weil sie 1sec zucks mit 0815 pcs gar ned verhindern könnten...
@ulukay, außerdem sind des nur die "benchmarks" von [H]- da warte ich lieber meine eigenen tests ab um zu sehen was wie weit und wie lang zuckt oder ned :)
Wir reden hier von einer Timdemo im gesamten Spiel wird die Ati noch mehr eingehn als nur dort.
tombman
2004-07-31, 00:32:18
Original geschrieben von Gast
Wir reden hier von einer Timdemo im gesamten Spiel wird die Ati noch mehr eingehn als nur dort.
reine spekulation
aber ich werd das klären in spätestens 2 wochen ;)
Original geschrieben von tombman
reine spekulation
aber ich werd das klären in spätestens 2 wochen ;)
Sicher etwas Spekulation. Aber da die Szenarien weitgehend in selben Szenarien spielen ,kann man sich anhand der Benchmarks da schon ein Urteil bilden.
Original geschrieben von Gast
Sicher etwas Spekulation. Aber da die Szenarien weitgehend in selben Szenarien spielen ,kann man sich anhand der Benchmarks da schon ein Urteil bilden.
Sollte natürlich Levels heißen. ;)
Original geschrieben von tombman
ich hab dir deine meinung immer gelassen, aber deine wahrnehmung is da ein bischen verzerrt. es sind immerhin ca 350sec auf der grafik und davon geht es nur ca 8mal unter 35fps (zähl die zacken) und dann gleich wieder rauf. also mehr als 1 bis 2 sec sind das ned.
zusammengezählt sicher unter 5% (5% sind ca 17sec) , was auch der avg. wert bestätigt.
Genau das kann in einem Shooter tödlich sein. Das brauchst Du gar nicht erst verzweifelt versuchen herunterzuspielen, nur weil ATI hier anscheinend ein Problem hat.
Eigentlich werden hier doch Äpfel mit Birnen verglichen,
oder anders gesagt, ein optimierter- mit einem nicht optimiertern Treiber.
...ich sage das jetzt zum Eigenschutz, ich habe eine nVidia Karte.
:bigl2:
http://www.ironnerd.com/temp/shot00001.jpg
bis
http://www.ironnerd.com/temp/shot00012.jpg
Das ist 100% Echt
tombman
2004-07-31, 02:22:31
Original geschrieben von maas
Genau das kann in einem Shooter tödlich sein. Das brauchst Du gar nicht erst verzweifelt versuchen herunterzuspielen, nur weil ATI hier anscheinend ein Problem hat.
in einem hauptsächlich single player game ist das ganz sicher kein Problem ;)
Ich brauch auch nix runterspielen, weil jeder weiß, daß man Doom3 auf einer x800xtpe gut spielen können wird. Ist immerhin die einzige Karte neben den 6800ern wo sogar [H] mein sie geht auf 1600x1200 ;) Alle anderen Karten müssen 1280 oder weniger einstellen ;)
Und ich selbst kann mir eh aussuchen mit welcher Karte ich Dumm3 spielen werde ;)
Was ich sehr interressant find das Doom3 laut den Benchmarks nicht Ramlastig sondern extrem CPU und Grakalastig läuft.
die man hier besonders gut
http://www2.hardocp.com/article.html?art=NjQ0LDc=
Also ist der mit ner 6800 und guten AMD XP am besten bedient.
Backet
2004-07-31, 11:10:59
Obwohl ich dieses Jahr ja keine Karte mehr kaufen wollte, wart ich jetzt mal Tombs Benches ab. Ich glaube aber auch, das ATI noch ne Menge machen kann, mit den Treibern.
Nach Tombs Benches entscheid ich mich, ob ich ne 68er oder ne x800 nehme.
Backet
MadManniMan
2004-07-31, 12:22:56
Original geschrieben von Backet
Obwohl ich dieses Jahr ja keine Karte mehr kaufen wollte, wart ich jetzt mal Tombs Benches ab. Ich glaube aber auch, das ATI noch ne Menge machen kann, mit den Treibern.
Nach Tombs Benches entscheid ich mich, ob ich ne 68er oder ne x800 nehme.
Nenne mir bitte einen plausiblen Grund, warum ATi für die X800er noch mehr machen können sollte, als nV für die 6800er.
tombman
2004-07-31, 12:25:12
Original geschrieben von MadManniMan
Nenne mir bitte einen plausiblen Grund, warum ATi für die X800er noch mehr machen können sollte, als nV für die 6800er.
Weils Angst haben weil d3 zu wichtig ist :D
dildo4u
2004-07-31, 12:26:15
Original geschrieben von MadManniMan
Nenne mir bitte einen plausiblen Grund, warum ATi für die X800er noch mehr machen können sollte, als nV für die 6800er. Genau X800 alte technik die schon lange treiber mäßig ausgereizt ist NV40 komplett neue Konstruktion mit noch viel treiber optemierungspotenzial
wenn du die Qualität der ATI Treiber anschaust, weisst du, dass das nicht stimmt in Punkto Open GL schon garnicht
dildo4u
2004-07-31, 12:34:43
Original geschrieben von Joe
wenn du die Qualität der ATI Treiber anschaust, weisst du, dass das nicht stimmt in Punkto Open GL schon garnicht Es gab schon eine menge Gold titel mit opengl z.B Call of Duty game of the year 2003 selbst das hat ATI nicht veranlasst sich mit dem opengl treiber richtig mühe zu geben oder können sie es halt einfach nicht wegen der hardware ich denke das kommt im neuen 3Dcenter artikel ganz gut rüber
MadManniMan
2004-07-31, 12:37:59
Mensch Leute... Wie dildo schon sagte, ist am X800 - zumindest bezogen auf die D³-Engine - nichts wirklich verändert worden. Zudem zeigen sich die R420er eindeutig Füllratenabhängig ... warum dieses "Hoffen", wenn alles dagegen spricht?
X800 ist alt, annährend äquivalente Technik heißt Radeon 9500Pro und wohnt da hinten bei mir im Zweitrechner - wie, wenn nicht über Qualitätseinbuße, soll noch Leistung gut gemacht werden? Speziell in D³ meine ich? Ich spreche den Effiziensfeatures auf dem 12Pipe R420 noch Einiges zu, aber sonst fiele mir nichts ein, was plausibel D³ beschleunigen sollte.
Backet
2004-07-31, 12:42:41
Original geschrieben von dildo4u
Genau X800 alte technik die schon lange treiber mäßig ausgereizt ist NV40 komplett neue Konstruktion mit noch viel treiber optemierungspotenzial
Genau aus diesem Grund warteich ja noch auf weitere Benches.Und vor allem warte ich bis Ende des Jahres, um mich dann zu entscheiden.
Ok, ich hätte eher schreiben sollen, ich HOFFE das ATI noch was mit den Treibern bringt.
Ich brauch nicht unbedingt eine Karte von einer Marke. Ich nehme das was besser ist. Rock Fertig Aus.
Backet
Mal schauen was die Zunkunft bringt. Aber egal was passiert. Ihr dürft nicht die Nerven verlieren !
Birdman
2004-07-31, 12:44:33
Original geschrieben von Joe
wenn du die Qualität der ATI Treiber anschaust, weisst du, dass das nicht stimmt in Punkto Open GL schon garnicht
Wieso hat Ati denn seit einem Jahr nix mehr am OpenGL Treiber gemacht?
Ganz einfach, weil dieser schon komplett ausgelutscht und optimiert ist - und wo man nix mehr verschnellern kann, da muss man logischerweise auch keine Arbeit mehr reinstecken.
Original geschrieben von Backet
Genau aus diesem Grund warteich ja noch auf weitere Benches.Und vor allem warte ich bis Ende des Jahres, um mich dann zu entscheiden.
Ok, ich hätte eher schreiben sollen, ich HOFFE das ATI noch was mit den Treibern bringt.
Ich brauch nicht unbedingt eine Karte von einer Marke. Ich nehme das was besser ist. Rock Fertig Aus.
Backet
Mal schauen was die Zunkunft bringt. Aber egal was passiert. Ihr dürft nicht die Nerven verlieren !
Ich frage mich warum du schon jetzt so heiss darauf bist zu erfahren wie die jetzigen Grafikkarten in Doom3 etc performen wenn du doch erst kurz vor Weihnachten oder sogar erst im nächsten Jahr eine neue Karte kaufen wirst. Bis dahin sind die Refresh Chips schon da und es wird neue Tests geben. Vor allem aber wird es bis dahin auch schon mehrere neue Treiber gegeben haben. Also ist das was du jetzt tust für dich eigentlich absolut unnötig.
Mr. Lolman
2004-07-31, 13:11:52
Original geschrieben von Birdman
Wieso hat Ati denn seit einem Jahr nix mehr am OpenGL Treiber gemacht?
Ganz einfach, weil dieser schon komplett ausgelutscht und optimiert ist - und wo man nix mehr verschnellern kann, da muss man logischerweise auch keine Arbeit mehr reinstecken.
Irgendwie glaub ich das mit dem seit einem Jahr unveränderten OpenGL Treiber nicht ganz. M.E. hat Ati schon ganz fleissig herumgetweakt. Das merkt man ganz gut an den Performanceunterschieden der einzelnen Cat. Treiber in COD.
Auch die DoomIII alpha, hatte mit alten Catalysts kleine Bugs in der Schattendarstellung, die zwischenzeitlich sogar ziemlich hefitg waren. Auch Q3a ist (sogar auf R3x0) seit dem Catalyst 4.7 beta ein bisschen flotter geworden.
Vielleicht hat sich das Grundgerüst vom OpenGL Treiber seit einem Jahr nicht mehr verändert, andererseits funktionieren seit dem Cat. 3.9 so ziemlich alle OpenGL basierenden Szene Demos fehlerfrei, was man von älteren Treiberversionen auch nicht behaupten kann.
Viel Optimierungspotential hinsichtlich Z/Stencil Performance dürfte dennoch nicht mehr vorhanden sein, zumindest hat sich die Performance der Doom III Alpha, seit dem Cat. 3.2 nicht mehr grossartig verändert. Möglicherweise kann man bei der x800pro noch was drehen, gesetzt den Fall, dass diese bei D3 tatsächlich noch etwas ineffizient arbeitet. Aber an grossartige Sprünge glaub' ich nicht.
Original geschrieben von Gast
@Tombman
Wirst du eigentlich von ATI bezahlt fuer dein Engagement, ihre katastrophalen Ergebnisse schoenzureden? Oder geilt es dich selbst einfach nur auf? Wie waere es, wenn du dir mal ne Freundin suchst, anstatt hier auf verlorenem Posten zu versuchen, die Niederlage der X800 Serie bei diesem Spiel zu relativieren...
Toll bringt genau gar nix. Das gleiche kannst zu WinterRaven und ähnlichen über NVidia sagen. Leute dies a bissal zu Ernst nehmen findest überall.
DeadMeat
2004-08-01, 02:23:18
Original geschrieben von Backet
Obwohl ich dieses Jahr ja keine Karte mehr kaufen wollte, wart ich jetzt mal Tombs Benches ab. Ich glaube aber auch, das ATI noch ne Menge machen kann, mit den Treibern.
Nach Tombs Benches entscheid ich mich, ob ich ne 68er oder ne x800 nehme.
Backet
Wieso glaubst das die Benches eines ATI Fan^s zuverlässiger sind?
Ich würde auf Benches von anderen bekannten und zuverlässigen Seiten warten.
tombman
2004-08-01, 03:41:15
Original geschrieben von DeadMeat
Wieso glaubst das die Benches eines ATI Fan^s zuverlässiger sind?
Ich würde auf Benches von anderen bekannten und zuverlässigen Seiten warten.
weil er erkannt hat, daß ich beide karten habe und gerecht benche, deshalb.
und "ati fan" könnte ich als flame auffassen, wofür es dann punkte geben könnte, also vorsicht.
ich rede auch nix schön, sondern glaube nur, daß der abstand nv40 vs r420-16 in doom3 in zukunft mit neuen treibern kleiner ausfallen sollte. ich sage nicht, daß die r420-16 schneller als die nv40 wird in doom3- außer ati gelingt ein wunder :)
p.s.: ich hoffe 3dc verbietet endlich Gast posts- 90% nutzen das nur als flame- und troll Gelegenheit...
Ich würd einfach auf den Release warten ;D
Dann gibts genug Benchmarks mit den unterschiedlichsten Systemen im I-Net, denn erst dann kann man sich als Ausenstehender ein Bild machen. Also abwarten und Tee rauchen, denn ganz am ende werdet ihr alle selber Benchmarken :)
Ich für meinen Teil schaue mir sicher auch die Benches von Tombman an, er wird sicher detailliert aufzeigen mit welchen Einstellungen (Treiber/Version/Einstellungen/Tweaks) er gebencht hat, dann kann jeder (Besitzer einer entsprechenden Karte X800/6800 Serie) später gegentesten und sich ein Bild machen wie unabhängig er da getestet hat.
Fakten Fakten Fakten :)
Original geschrieben von Gast
@Tombman
Wirst du eigentlich von ATI bezahlt fuer dein Engagement, ihre katastrophalen Ergebnisse schoenzureden? Oder geilt es dich selbst einfach nur auf? Wie waere es, wenn du dir mal ne Freundin suchst, anstatt hier auf verlorenem Posten zu versuchen, die Niederlage der X800 Serie bei diesem Spiel zu relativieren...
An Leute wie Tombman richtet sich exakt das, was unser lieber Sascha "nggalai" in seiner Signatur stehen hat:
Fanboy, this means YOU! (http://nggalai.yayhooray.com/blog/3544/This-One-Goes-Out-to-All-You-Graphics-Cards-Fanboys)
Yup, this means you.
Just. Shut. Teh. Fuck. Up.
We've all had enough of your incessant flamewars because YOUR VGA runs this or that game 20% slower/faster than the competitor's hardware. We've heard all arguments for/against the IHV of your choice / you hate. There's nothing you're contributing to the community by stressing that you are "not a fanboy, I am completely objective, but THIS magazine sucks, just you wait for my benchmarks which are VALID not like this MARKETING DRIVEL."
We've had it. Really. It's bad enough reading that crap, but also having to "moderate" such "discussions" ... no fucking way.
Grow up.
http://nggalai.yayhooray.com/blog/3544/This-One-Goes-Out-to-All-You-Graphics-Cards-Fanboys
Zauberer
2004-08-01, 15:44:17
Original geschrieben von tombman
...ich rede auch nix schön, sondern glaube nur, daß der abstand nv40 vs r420-16 in doom3 in zukunft mit neuen treibern kleiner ausfallen sollte. ich sage nicht, daß die r420-16 schneller als die nv40 wird in doom3- außer ati gelingt ein wunder :)...Ich glaube auf das Wunder musst Du nicht lange warten! :biggrin:
Nun ja, wir wissen jetzt das man die Schatten bei DOOM³ ausschalten kann. ;D
Und im MP kommt es auf Speed an und nicht auf Qualität.
Darum warte ich mal ab, ob es der X800 gelingt ne gleichwertige 6800 zu schlagen.
Das wäre mal ne Schlagzeile:
Die "X800XT-PE" stampft die "6800 Ultra" in MP-Games in Grund und Boden! :rofl:
EDIT:
Dies ist natürlich reine Spekulation.
Laut dem 3dcenter Artikel liegt die R420 Serie wegen der Schattenberechnungen zurück.
Die "Ultra Shadow" Technologie beschleunigt zudem die GeForce FX und 6800 Serie.
Aber wie der Name schon sagt ohne "Shadow" kein "Ultra". :biggrin:
Tomcat70
2004-08-01, 16:13:19
Original geschrieben von maas
An Leute wie Tombman richtet sich exakt das, was unser lieber Sascha "nggalai" in seiner Signatur stehen hat:
Fanboy, this means YOU! (http://nggalai.yayhooray.com/blog/3544/This-One-Goes-Out-to-All-You-Graphics-Cards-Fanboys)
http://nggalai.yayhooray.com/blog/3544/This-One-Goes-Out-to-All-You-Graphics-Cards-Fanboys
OT: an dich selbst richtet sich das aber eventuell viel mehr als an tombman.....nach allem was ich bisher von dir gelesen habe....
Grestorn
2004-08-01, 16:50:14
Eine Nebenwirkung einer Fanboy-Brille ist, dass man Fanboys des eigenen Lagers nicht mehr als solche erkennt, die des anderen dafür umso deutlicher.
Doom3 ohne Schatten zu spielen ist ungefähr so sinnvoll wie Quake1 ohne Texturen zu spielen. In MP würde man so etwas mit 100%iger Sicherheit als unerlaubten Cheat ansehen.
LovesuckZ
2004-08-01, 17:56:04
/edit:
Kann weg...
just4FunTA
2004-08-01, 18:06:43
Original geschrieben von LovesuckZ
Oder wie Farcry ohne SM2.x...
hä??
Farcry hab ich mit ner Geforce2pro durchgespielt und es hat sehr wohl Sinn und Spaß gemacht. also blabla..
LovesuckZ
2004-08-01, 18:09:04
Original geschrieben von moka83
Farcry hab ich mit ner Geforce2pro durchgespielt und es hat sehr wohl Sinn und Spaß gemacht. also blabla..
Ja, hab mich verlesen :(
just4FunTA
2004-08-01, 18:13:17
Original geschrieben von LovesuckZ
Ja, hab mich verlesen :(
Shit happens ;)
Original geschrieben von Tomcat70
OT: an dich selbst richtet sich das aber eventuell viel mehr als an tombman...
Falsch geraten, ich habe eine Radeon 9800 Pro und wähle meine Hardware immer pragmatisch aus, mal nV, mal ATI.
Aber Dein Wort "eventuell" hat Dich gerettet... :lol:
Ich kaufe die Hardware für meine Software - und nicht umgekehrt.
Und für Doom3 wäre das eben eine FX 6800.
Mir gehen nur solche krampfhaften Fanatiker auf den Senkel, die einfach nicht eingestehen wollen, dass ihr Lieblingshersteller nicht unbedigt immer der beste ist.
Zauberer
2004-08-01, 18:22:30
Original geschrieben von grestorn
Eine Nebenwirkung einer Fanboy-Brille ist, dass man Fanboys des eigenen Lagers nicht mehr als solche erkennt, die des anderen dafür umso deutlicher.
Doom3 ohne Schatten zu spielen ist ungefähr so sinnvoll wie Quake1 ohne Texturen zu spielen. In MP würde man so etwas mit 100%iger Sicherheit als unerlaubten Cheat ansehen.
Das ist aber ein Vorteil, dass man seine Gegner schneller sieht.
"Search and Destroy" sag ich nur. :biggrin:
(Achtung diese Aussage ist zweideutig, einmal könnte sie sich auf eine "Rote-Brille" beziehen oder auf die "Schatten" in DOOM³);)
Zurück zum Thema, ein User der schon DOOM³ zocken kann, hat geschrieben das er mit seiner GF4Ti irgendetwas mit 20 FPS im MP hat.
Es wäre doch nicht schlecht wenn man aus Chancengleichheit die Framerate in bisschen erhöhen kann.
Im SP kann man die Schatten auf jeden Fall ausstellen, zu mindestens gibt es eine Option im Menu.
Interessant wäre es zu wissen, ob das auch im MP geht und ob dann bei allen Usern die Schatten aus sind.
Interessant wäre auch, ob es sich vielleicht nur auf die Echtzeitschatten bezieht, z.B. könnte man immer noch das Licht ausmachen und es gibt Dunkle Ecken usw.
Nur halt wenn man die Lampe nimmt sieht man keinen Schatten.
Weiter wäre es Interessant, ob ein Server vielleicht "Schatten ein" bzw. "Schatten aus" erzwingen kann.
Allgemein würde ich gerne wissen ob es krasse Unterschiede im Gameplay gibt.
Madkiller
2004-08-03, 12:28:43
Nachdem hier mal wieder der Spam und die Anfeindungen zunehmen:
Bitte bleibt OnTopic, und verzichtet auf jeglichen Flame oder Spam (damit mein ich besonders maas und moka83).
In Zukunft gibts für sowas Punkte.
Sry, aber es geht ja anscheinend nicht anders.
Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.
Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.