Archiv verlassen und diese Seite im Standarddesign anzeigen : Doom3 Performance Preview bei Hardocp (war: Doom3 Hardware-Anforderung)
Skinner
2004-07-25, 11:16:57
Das Doom3 auf Nvidia besser performen sollte, müsste doch jedem klar sein. Schließlich haben ID und Nvidia ja Koorperationsverträge, genau wie ATI und Valve.
Theoretisch kann es auch möglich sein, das Doom3 künstlich
gebremmmst wird, wenn ATI Hardware erkannt wird. Klingt
zwar etwas irre, aber heutzutage ist ja alles möglich.
Hoffen wir das beste ;D Von der CPU her wirds bei mir
jedenfalls nicht scheiter, wohl ehr an der Grafikkarte (9700Pro)
LovesuckZ
2004-07-25, 11:45:01
Original geschrieben von reunion
Hm, das würde dann auch erklären warum der Catalyst 4.8 offensichtlich vorgezogen wird...
Nein, das hat mit Doom3 nichts zu tun.
Hier muss man den grund bei farcry, Patch1.2 und ATi's DX verletzung suchen. Denn sie wollen endlich auch OI einsetzen...
mapel110
2004-07-25, 11:55:32
Original geschrieben von Winter[Raven]
Hast du auch was anderes auf Lage als immer wieder kehrende heiße Luft?
Langsamm wird es echt langweillig ...
Das gibt einen Punkt. völlig inhaltslos und beleidigend
[quote]
Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.
Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046
Original geschrieben von reunion
Hm, das würde dann auch erklären warum der Catalyst 4.8 offensichtlich vorgezogen wird...
So offensichtlich ist das wohl nicht. [H] schrieb etwas von 8.05er Treibern bei ATi, die zum Benchmark verwendet wurden...
Wo stehen die offiziellen momentan? 8.03?
;)
deekey777
2004-07-25, 12:24:54
Original geschrieben von q@e
Ruhig Blut - ATi wird neue Treiber rausbringen, Doom3 wird öffentlich verfügbar sein und dann werden wir ja sehen, was Sache ist.
...
BTW, gab es nicht mal eine Aussage von JC bezogen auf eine ältere Doom3-Version, daß der R200-Pfad nur minimale Einbußen gegenüber dem ARB2-Pfad haben sollte, der damals noch FP24 bedeutete?
AFAIK war das R200-Format ein Mittleres-Middelwisch mit 16Bit Genauigkeit - qualitativ unterhalb vom "echten" FP16.
... .
http://www.bluesnews.com/cgi-bin/finger.pl?id=1&time=20030129210315 (Januar 2003!)
The R300 can run Doom in three different modes: ARB (minimum extensions, no specular highlights, no vertex programs), R200 (full featured, almost always single pass interaction rendering), ARB2 (floating point fragment shaders, minor quality improvements, always single pass).
The NV30 can run DOOM in five different modes: ARB, NV10 (full featured, five rendering passes, no vertex programs), NV20 (full featured, two or three rendering passes),[ NV30 ( full featured, single pass) ], and ARB2.
Zum ARB2&_PP: Langsam ist es nicht lustig; wie es aussieht, kümmert sich der Treiber um das Shader Replacement und das nicht nur in Doom 3, sondern in viellen anderen Spielen. Wo ist das Problem? Wozu unnötig Rechenleitung verschwenden, so lange das visuelle Ergebnis stimmt? Ist doch eine Spitzenleistung von den Treiberprogrammierern. ATi weiss genau, dass _PP für nVidia ein wunder Punkt ist, und hackt drauf rum. Dass aber auch die Ultra Shadow Technologie einiges in Doom 3 bringt, wollen einige aber nicht erwähnen.
deekey777
2004-07-25, 12:26:22
Original geschrieben von q@e
So offensichtlich ist das wohl nicht. [H] schrieb etwas von 8.05er Treibern bei ATi, die zum Benchmark verwendet wurden...
Wo stehen die offiziellen momentan? 8.03?
;)
Damit sind alle Benchmarks für den :arsch2: - man veröffentlicht keine so wichtigen Benchmarks mit Betatreibern! ;D
reunion
2004-07-25, 12:59:42
Original geschrieben von q@e
So offensichtlich ist das wohl nicht. [H] schrieb etwas von 8.05er Treibern bei ATi, die zum Benchmark verwendet wurden...
Wo stehen die offiziellen momentan? 8.03?
;)
Was hat das damit zutun? ATi hat AFAIK kein "System" in den einzelnen Treibern, der Cat. 4.8 könnte genausogut schon die Versionsnummer 8.25 haben...
Original geschrieben von LovesuckZ
Nein, das hat mit Doom3 nichts zu tun.
Hier muss man den grund bei farcry, Patch1.2 und ATi's DX verletzung suchen. Denn sie wollen endlich auch OI einsetzen...
Wir werden sehen, da allerdings der Patch 1.2 zurückgezogen wurde ergibt diese vorverlegung keinen Sinn mehr.
DoomDoom
2004-07-25, 13:39:44
Original geschrieben von deekey777
Damit sind alle Benchmarks für den :arsch2: - man veröffentlicht keine so wichtigen Benchmarks mit Betatreibern! ;D
Diese Treiber hatte ATI selber ausgesucht und zu den Benchmark-Sessions mitgebracht. Die hatten schon ihre Gründe. Sind ihre offiziellen Treiber denn sooo schlecht?
Original geschrieben von DoomDoom
Diese Treiber hatte ATI selber ausgesucht und zu den Benchmark-Sessions mitgebracht. Die hatten schon ihre Gründe. Sind ihre offiziellen Treiber denn sooo schlecht?
Ach Leute wenn ihr nur ein bißchen erfahrung in diesen Sachen hättet würdet auf solche werbebenchmarks nichts geben
bin von einigen Leuten hier echt enttäuscht
seahawk
2004-07-25, 19:03:39
Original geschrieben von deekey777
Der NV30 Pfad scheint ein Teil des ARB2 zu sein.
Sagen wir so, der ARB Pfad enthält heute PP Hintd für die Karten, die damit etwas anfangen können. Die anderen ignorieren es sowieso.
So gesehen arbeiten alle Karten (dieser Klasse) den gleichen Code ab. Wo von ID für angemssen befinden wird die Resourcen sparende PP-Option der GeForce-Karten genutzt.
deekey777
2004-07-25, 19:07:27
Original geschrieben von seahawk
Sagen wir so, der ARB Pfad enthält heute PP Hintd für die Karten, die damit etwas anfangen können. Die anderen ignorieren es sowieso.
So gesehen arbeiten alle Karten (dieser Klasse) den gleichen Code ab. Wo von ID für angemssen befinden wird die Resourcen sparende PP-Option der GeForce-Karten genutzt.
Vielleicht kümmert sich allein der Treiber für PP <-> FP, siehe JC's Aussage.
Tomcat70
2004-07-25, 19:08:53
ich verstehe die ganze aufregung nicht......
erstens würd ich mal zusätzliche unabhängige tests mit dem real kaufbaren d3 abwarten, mal sehen wie es dann aussieht.
ausserdem denke ich das mindestens genauso viele (wenn nicht sogar wesentlich mehr) spiele auf unreal-engine (und abwandlungen davon) produziert werden.
und wenn kümmert es, das dort die 6800 ultra (wie z.b hier: http://www.de.tomshardware.com/graphic/20040723/his-x800-06.html)
hinter der doch ach so vermeintlich schwachen x800 pro liegt ?!
ist alles eine frage des persönlich geschmacks, rumreiten kann man auf allem..........
und obwohl mir die 6800 gt gut als produkt gefällt, desto weniger gefällt mir die ultra mit ihrem immensen strommehrverbrauch als auch die nvidia marketing-sprüche die sich an jeden strohhalm klammern. stärke vermittelt mir das nicht, eher pure angst...
tombman
2004-07-25, 19:33:48
Original geschrieben von DoomDoom
Diese Treiber hatte ATI selber ausgesucht und zu den Benchmark-Sessions mitgebracht. Die hatten schon ihre Gründe. Sind ihre offiziellen Treiber denn sooo schlecht?
die haben sich nix ausgesucht, weil sie vorher null testen durfen, die haben einfach den neuesten angeschleppt den sie hatten und gehofft, daß es schon passen wird. hats aber dann nicht.
nvidia dagegen hat eine enge zusammenarbeit mit carmack und konnte sich daher ausmalen, wie der ihre karte laufen wird...
btw, es fiel die neue wortschöpfung "werbebenchmark" hier- GENIAL!
LovesuckZ
2004-07-25, 19:38:16
Original geschrieben von tombman
nvidia dagegen hat eine enge zusammenarbeit mit carmack und konnte sich daher ausmalen, wie der ihre karte laufen wird...
Stimmt, ATi hat ja nur so nah mit Carmack zusammengearbeit, dass es bis zu einem leak reichte...
Vielleicht sollte man einsehen, dass id in Doom3 mehr Potential bei nvidia ausschoepft hat.
seahawk
2004-07-25, 21:11:41
Original geschrieben von deekey777
Vielleicht kümmert sich allein der Treiber für PP <-> FP, siehe JC's Aussage.
Das ist imho unmöglich. Und wird afaik auch nicht gemacht.
seahawk
2004-07-25, 21:12:53
Original geschrieben von tombman
die haben sich nix ausgesucht, weil sie vorher null testen durfen, die haben einfach den neuesten angeschleppt den sie hatten und gehofft, daß es schon passen wird. hats aber dann nicht.
nvidia dagegen hat eine enge zusammenarbeit mit carmack und konnte sich daher ausmalen, wie der ihre karte laufen wird...
btw, es fiel die neue wortschöpfung "werbebenchmark" hier- GENIAL!
ATI war immer über den Stand von DOOMIII informiert. Nicht informiert waren sie wahrscheinlich über die Performance der NV40 Karten.
LovesuckZ
2004-07-25, 21:14:52
Original geschrieben von seahawk
Das ist imho unmöglich. Und wird afaik auch nicht gemacht.
Fuer einen Compiler eigentlich unmoeglich, fuer eine Shaderdatenbank kein Problem.
seahawk
2004-07-25, 21:18:16
Original geschrieben von LovesuckZ
Fuer einen Compiler eigentlich unmoeglich, fuer eine Shaderdatenbank kein Problem.
Ich glaube nicht, dass dies für DOOMIII nötig ist. JC hat auf NV-Produkten gearbeitet und er hat sicher PP-Hintes benutzt.
Demirug
2004-07-25, 21:27:17
Bei der entsprechenden OpenGL Extension kann man nur für einen ganzen Shader festlegen ob man ihn schnell oder´mit hoher Genauigkeit haben will.
Es lässt sich aber programmtechnisch durchaus ermitteln ob man an einer Stelle FP32 braucht.
tombman
2004-07-25, 21:30:25
Original geschrieben von LovesuckZ
Stimmt, ATi hat ja nur so nah mit Carmack zusammengearbeit, dass es bis zu einem leak reichte...
Vielleicht sollte man einsehen, dass id in Doom3 mehr Potential bei nvidia ausschoepft hat.
genau, und danach war krieg-> deshalb die jetzigen x800 werbescores ;)
seahawk
2004-07-26, 07:32:20
Original geschrieben von Demirug
Bei der entsprechenden OpenGL Extension kann man nur für einen ganzen Shader festlegen ob man ihn schnell oder´mit hoher Genauigkeit haben will.
Es lässt sich aber programmtechnisch durchaus ermitteln ob man an einer Stelle FP32 braucht.
Also durch den Treiber??
Kladderadatsch
2004-07-26, 10:38:21
wurde hier schon ati`s statement gepostet?
„Dies (also auf die schlechte perofrmance gegenüber der nvidia-karten bezogen) ist kein Grund zur Aufregung - wir werden in den nächsten Wochen ein Update unserer Treiber herausbringen. Es ist auch wichtig, zu betonen, dass die meisten Spiele heutzutage auf ATI-Hardware schneller laufen und Ihr könnt darauf vertrauen, dass sich das auch bei den noch in diesem Sommer erscheinenden, großen Spieletiteln nicht ändern wird."
mezzo
2004-07-26, 14:00:17
Mit anderen Worten:
"Mit entsprechend 'optimierten' Cheats und ein bisschen unschärferen Texturen werden wir das schon hinkriegen, dass die Balkenlänge in den Benchmark-Diagrammen steigt..."
Hellspawn
2004-07-26, 14:05:32
Naja aber der Screen macht mich schon stutzig:
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
gerade angesichts der aussage in der pcgames(grad im anderen thread gelesen) dass doom3 also doch eine 60fps sperre hat.. zahlte nvidia gut? war das eine andere version? Mir war diese 60fps "grenze" auf diesem screenshot von anfang an sehr suspekt..
mfg
betasilie
2004-07-26, 14:09:02
Original geschrieben von Hellspawn
Naja aber der Screen macht mich schon stutzig:
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
gerade angesichts der aussage in der pcgames(grad im anderen thread gelesen) dass doom3 also doch eine 60fps sperre hat.. zahlte nvidia gut? war das eine andere version? Mir war diese 60fps "grenze" auf diesem screenshot von anfang an sehr suspekt..
mfg
Das Spiel hat eine 60fps Grenze, der Benchmark nicht.
Wäre ja auch blöd, wenn man so eine FPS Sperre in einen Benchmark einbauen würde. ;)
Cenmocay
2004-07-26, 14:27:16
Original geschrieben von Hellspawn
Naja aber der Screen macht mich schon stutzig:
http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_4.gif
gerade angesichts der aussage in der pcgames(grad im anderen thread gelesen) dass doom3 also doch eine 60fps sperre hat.. zahlte nvidia gut? war das eine andere version? Mir war diese 60fps "grenze" auf diesem screenshot von anfang an sehr suspekt..
mfg
Diese Seite hat noch nie vernünftige Tests gebracht,das ist eine reine Verkaufsveranstaltung von NV !
LovesuckZ
2004-07-26, 14:37:30
Original geschrieben von Hellspawn
gerade angesichts der aussage in der pcgames(grad im anderen thread gelesen) dass doom3 also doch eine 60fps sperre hat.. zahlte nvidia gut? war das eine andere version? Mir war diese 60fps "grenze" auf diesem screenshot von anfang an sehr suspekt..
mfg
Wie hoch ist die Moeglichkeit, dass die PCG keine Ahnung hat von der Begrenzung?
Aber immer auf Nvidia, die muessen ja an allen Schuld sein...
Das ist wohl das gute daran, daß die Benchmarks in-House bei id Software durchgeführt wurden - JC sollte schon wissen, wie und ob er eine 60fps-Sperre deaktivieren muss/kann. ;)
betasilie
2004-07-26, 14:58:38
Der Werte wurden mit dem Doom-Benchmark ermittelt. Ihr glaubt doch wohl nicht, dass der DoomIII Benchmark auch über diese FPS-Sperre verfügen wird? ... Was soll also die Diskussion?
El-Pollo-Diablo
2004-07-26, 15:01:16
nachdem was ich über diesen doom 3 benchmark erfahren habe wurde dieser durchgeführt ohne den hersteller vorzuwarnen, sodass man keine zeit hätte eine treiberoptimierung durchführen können.´
inwieweit das jetzt stimmt ist wieder so ne frage.
allerdings denke ich dass das alles prestigesache ist.
ob man nun ne xt besitzt und einen frame weniger hat oder ne ultra und einen mehr.
wenn euer auge das mitkriegt - respect.
ansonsten völlig nutzlose aufregung wer nun besser ist und wer nicht.
Original geschrieben von betareverse
Der Werte wurden mit dem Doom-Benchmark ermittelt. Ihr glaubt doch wohl nicht, dass der DoomIII Benchmark auch über diese FPS-Sperre verfügen wird? ... Was soll also die Diskussion?
daran dachte ich jetzt natürlich nicht. sry
aber ich hatte extra darauf geachtet nicht wie ein fanboy zu klingen, da ich keiner bin und mir das ganze xxx vs yyy zu blöd ist.. also springt bitte nicht jeden gleich an!
mfg
Winter[Raven]
2004-07-26, 15:17:47
Original geschrieben von LovesuckZ
Wie hoch ist die Moeglichkeit, dass die PCG keine Ahnung hat von der Begrenzung?
Aber immer auf Nvidia, die muessen ja an allen Schuld sein...
Das ist Ironie des Lebens Love, in paar Jahren wird es ATI sein die total schlecht sein werden... Nichts wehrt eweig.
Original geschrieben von LovesuckZ
Wie hoch ist die Moeglichkeit, dass die PCG keine Ahnung hat von der Begrenzung?
Aber immer auf Nvidia, die muessen ja an allen Schuld sein...
*sinnfrei*
allerdings sieht das 59.5 bzw 60.1 ganz verdächtig nahe an dieser 60 fps sperre aus... viell. hat ID ja extra für die ultra die sperre aufgehoben um die benchmarks besser darzustellen ( und überhaupt einen unterschied sichtbar zu machen )
Holundermann
2004-07-26, 15:26:39
off Topic:
Das ist Ironie des Lebens Love, in paar Jahren wird es ATI sein die total schlecht sein werden... Nichts wehrt eweig.
langsam nervt mich das fanboy gedüdel auch. immer wenn ich höre das ati die bessere bildquali hat stellen sich mir die nackenhaare auf. und in sachen treiberpolitik scheint nv ja doch recht schnell, auf jedenfall schneller wie ati, in die richtige richtung eingelenkt zu haben. und ja, ich weiss wer mit dem zirkus angefangen hat...
damit ich on Topic auch noch was sag:
die geforce 6800gt ist der P/L sieger in D3, glaube nicht das sich mit zukünftigen treiberreleases an dem bild was ändert, da beide hersteller ihre treiber ja weiterentwickeln.
Die overall performance ist derzeit schwer abschätzbar. der NV40 hat das bessere featureset, die x800 die bessere rohperformance. Nvidia hat derzeit treiber mit denen man die bildquali optimierungen ausschalten kann, ati nicht.
LovesuckZ
2004-07-26, 15:26:54
Original geschrieben von Gast
natürlich haben die keine ahnung, es geht ja schliesslich gegen NV. oh man ich hasse dieses Fanboy gelaber...
Hm, Wahrheit = "Fanboy gelaber"
Gut, dann bleibe ich dabei *eg*
allerdings sieht das 59.5 bzw 60.1 ganz verdächtig nahe an dieser 60 fps sperre aus...
Lass mich raten: 72FPS (http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_3.gif) "sieht [...] ganz verdächtig nahe an dieser 60 fps sperre aus".
Original geschrieben von El-Pollo-Diablo
nachdem was ich über diesen doom 3 benchmark erfahren habe wurde dieser durchgeführt ohne den hersteller vorzuwarnen, sodass man keine zeit hätte eine treiberoptimierung durchführen können.´
Ist doch gut so.
Dadurch wird das Cheaten der beiden grossen IHVs schon mal recht wirkungsvoll unterbunden.
Kamikaze
2004-07-26, 15:59:59
Original geschrieben von betareverse
Das Spiel hat eine 60fps Grenze, der Benchmark nicht.
letztens gab es ein interview mit JC, in dem er bestätigte, dass es keine 60 fps sperre im herkömmlichem sinne gibt!
sondern vielmehr, dass potente grafikkarten tatsächlich mehr als sichtbare 60 frames darstellen, also man zb vom framecounter 100 fps angezeigt bekommen kann und man auch tatsächlich 100 frames auf dem monitor hat, aber die komplette physik mit konstant 60 frames berechnet wird, zwecks fairness gründen im multiplayer!
wenn ich das interview finde quote ich es hier rein...
Zauberer
2004-07-26, 16:00:02
Original geschrieben von LovesuckZ
...
Lass mich raten: 72FPS (http://www.hardocp.com/images/articles/1090364971VEVx7HppJJ_3_3.gif) "sieht [...] ganz verdächtig nahe an dieser 60 fps sperre aus". Mach es doch so wie ich:
Ich werde Leuten nicht Antworten, die an eine 60 FPS Sperre in den DOOM³ Benchmarks glauben wollen.
Ich habe schon vor ein paar Monaten mal geschrieben, dass ich ne 60FPS Begrenzung in "allen" Spielen für Sinnvoll halte.
Bei den Benchmarks kann man ja aus Fun die Sperre rausnehmen um zu sehen wer den Längsten hat. :biggrin:
Sinnvoll wäre es auch noch in allen Benchs die min FPS anzugeben.
Deshalb sind die hardocp Benchs sowieso bedeutungslos.
@LovesuckZ, obwohl Du mal geschrieben hast, dass Du dich nicht als neutral bezeichnest, finde ich deine letzten Postings, wie soll ich mich ausdrücken? :???:
Äh ich hab’s, ich weiß nicht ob ich das schreiben soll, vielleicht fügst Du das in deine Signatur ein.
So wie mit "Winter[Raven]" und "tombman" mal geschehen ist. ;D
OK, ich machst trotzdem, deine letzten Posting kann man schon als "objektiv" bezeichnen.
Das ist ein sehr großes Kompliment an dich von mir, dass sieht man z.B. schon an der Größe der Schrift.
mapel110
2004-07-26, 16:02:22
Original geschrieben von Gast
natürlich haben die keine ahnung, es geht ja schliesslich gegen NV. oh man ich hasse dieses Fanboy gelaber...
Bitte solche Äusserungen unterlassen. Bleibt sachlich und fair dem Anderen gegenüber. Gesteht dem Anderen auch mal eine eigene Meinung zu. Sowas sollte man als kluger Diskussionsteilnehmer drauf haben.
Original geschrieben von Winter[Raven]
Das ist Ironie des Lebens Love, in paar Jahren wird es ATI sein die total schlecht sein werden... Nichts wehrt eweig.
und sowas ist genauso wenig erwünscht. trägt nichts zur Diskussion bei und kann man als Flame werten. Beim nächsten mal gibts einen Punkt! Seid damit gewarnt
Zauberer
2004-07-26, 16:12:16
Original geschrieben von mapel110
Bitte solche Äusserungen unterlassen. Bleibt sachlich und fair dem Anderen gegenüber. Gesteht dem Anderen auch mal eine eigene Meinung zu. Sowas sollte man als kluger Diskussionsteilnehmer drauf haben. Man habe ich mich jetzt erschreckt, DOOM³ wird ein Klacks dagegen sein.
Ich glaube ich muss meine Unterhose wechseln, ich dachte schon sobald man "LovesuckZ" lobt bekommt man einen Strafpunkt.
Puh, man, bitte erschrecke mich nicht noch einmal lieber
mapel110. :massa:
Sorry, weil das nicht zum Thema gehört aber ich stehe immer noch unter Schock. :o
betasilie
2004-07-26, 16:18:40
Original geschrieben von ow
Ist doch gut so.
Dadurch wird das Cheaten der beiden grossen IHVs schon mal recht wirkungsvoll unterbunden.
Und Du meinst ernsthaft, dass NV keinerlei Vorteile gegenüber der Treiberoptimierungen hatte?
Eigentlich sieht es doch so aus, dass der NV Developersupport in den letzten jahren intesiv mit id an Doom3 gearbeitet hat, ganz im Gegensatz zu ATI. Daher kann man es wohl nur als schlechten Witz ansehen, wenn id behauptet NV hätte keine Chance gehabt ihre Treiber auf das Spiel zu optimieren. :bonk:
betasilie
2004-07-26, 16:19:47
Original geschrieben von Kamikaze
letztens gab es ein interview mit JC, in dem er bestätigte, dass es keine 60 fps sperre im herkömmlichem sinne gibt!
sondern vielmehr, dass potente grafikkarten tatsächlich mehr als sichtbare 60 frames darstellen, also man zb vom framecounter 100 fps angezeigt bekommen kann und man auch tatsächlich 100 frames auf dem monitor hat, aber die komplette physik mit konstant 60 frames berechnet wird, zwecks fairness gründen im multiplayer!
wenn ich das interview finde quote ich es hier rein...
Aha, interessant.
Falls Du den Link findest, immer her damit. :)
mapel110
2004-07-26, 16:33:15
Original geschrieben von Zauberer
Man habe ich mich jetzt erschreckt, DOOM³ wird ein Klacks dagegen sein.
Ich glaube ich muss meine Unterhose wechseln, ich dachte schon sobald man "LovesuckZ" lobt bekommt man einen Strafpunkt.
Puh, man, bitte erschrecke mich nicht noch einmal lieber
mapel110. :massa:
Sorry, weil das nicht zum Thema gehört aber ich stehe immer noch unter Schock. :o
Punkt für Spam!
Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.
Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046
seahawk
2004-07-26, 17:28:34
Original geschrieben von betareverse
Und Du meinst ernsthaft, dass NV keinerlei Vorteile gegenüber der Treiberoptimierungen hatte?
Eigentlich sieht es doch so aus, dass der NV Developersupport in den letzten jahren intesiv mit id an Doom3 gearbeitet hat, ganz im Gegensatz zu ATI. Daher kann man es wohl nur als schlechten Witz ansehen, wenn id behauptet NV hätte keine Chance gehabt ihre Treiber auf das Spiel zu optimieren. :bonk:
Dann muss man festhalten, dass der Dev-Support bei NV besser als bei ATI ist, wenn das der Grund sein sollte, was ich nicht glaube. Außerdem haben sowohl id als auch ATI immer von einer guten Kooperation gesprochen.
Und wenn ATI nicht gewußt hat, was auf sie zu kommtt, warum bringen die dann einen BETA-Treiber mit??
DOOM3 ist nunmal auf NV Hardware zugeschnitten und daran wird imho auch kein Treiber (bei gleicher BQ) was ändern können.
Demirug
2004-07-26, 18:13:55
Original geschrieben von seahawk
Dann muss man festhalten, dass der Dev-Support bei NV besser als bei ATI ist, wenn das der Grund sein sollte, was ich nicht glaube. Außerdem haben sowohl id als auch ATI immer von einer guten Kooperation gesprochen.
Und wenn ATI nicht gewußt hat, was auf sie zu kommtt, warum bringen die dann einen BETA-Treiber mit??
DOOM3 ist nunmal auf NV Hardware zugeschnitten und daran wird imho auch kein Treiber (bei gleicher BQ) was ändern können.
Umgekehrt wird ein Schuh draus. nVidia hat bei den neuen Chips die Dinge optimiert welche DOOM III besonders beansprucht. Nur damit keine Missverständnisse aufkommen ich meine die Chips und nicht die Treiber.
mezzo
2004-07-26, 18:21:49
Original geschrieben von Demirug
Umgekehrt wird ein Schuh draus. nVidia hat bei den neuen Chips die Dinge optimiert welche DOOM III besonders beansprucht. Nur damit keine Missverständnisse aufkommen ich meine die Chips und nicht die Treiber.
Eben. Das ist nVidia hoch anzurechnen. Die Powergamer profitieren ja davon. Kein Grund zum Meckern oder Jammern. Hätte nVidia etwa - aus Mitleid mit den ATI-Fanboys - schlechtere Chips bauen sollen? ;)
Madkiller
2004-07-26, 18:30:43
Original geschrieben von mezzo
Kein Grund zum Meckern oder Jammern. Hätte nVidia etwa - aus Mitleid mit den ATI-Fanboys - schlechtere Chips bauen sollen? ;)
Ich möchte hier mal mapel110 zitieren:
Original geschrieben von mapel110
Bitte solche Äusserungen unterlassen. Bleibt sachlich und fair dem Anderen gegenüber. Gesteht dem Anderen auch mal eine eigene Meinung zu. Sowas sollte man als kluger Diskussionsteilnehmer drauf haben.
Das kann zu leicht als Flameversuch gewertet werden, und ist auch so völlig unnötig.
In Zukunft wird so etwas bepunktet.
Also haltet euch jetzt alle bitte daran!
LovesuckZ
2004-07-26, 19:34:07
NVIDIA GeForce 6800 Ultra and GeForce 6800 GT Chips Proclaimed Best for Doom 3 (http://www.nvidia.com/object/IO_14696.html)
deekey777
2004-07-26, 19:47:59
Original geschrieben von Gast
Fanboys und ihre Werbung :(
Wieso? Das ist nur eine Bestätigung für diesen Spruch:
"The 6800 series was 'designed to play DOOM 3'."
LovesuckZ
2004-07-26, 19:53:26
Original geschrieben von Gast
Fanboys und ihre Werbung :(
ATi's Doom3 Statement in voller Laenger (http://www.teamradeon.com/)
Besser?
MarcWessels
2004-07-26, 23:44:40
Original geschrieben von El-Pollo-Diablo ob man nun ne xt besitzt und einen frame weniger hat oder ne ultra und einen mehr.
wenn euer auge das mitkriegt - respect.
Hier geht's nicht um EINEN Frame - guck dir mal die Benches an, in denen wirklich die GraKa der limitierende Faktor ist!
seahawk
2004-07-27, 08:04:37
Original geschrieben von Demirug
Umgekehrt wird ein Schuh draus. nVidia hat bei den neuen Chips die Dinge optimiert welche DOOM III besonders beansprucht. Nur damit keine Missverständnisse aufkommen ich meine die Chips und nicht die Treiber.
Hast Recht, DOOMIII war eigentlich Die Henne und der NV40 das Ei.
Original geschrieben von MarcWessels
Hier geht's nicht um EINEN Frame - guck dir mal die Benches an, in denen wirklich die GraKa der limitierende Faktor ist!
Ich habe das Gefühl, auch darum geht es nicht so sehr. Vielmehr darum, daß niemand bereit ist zu akzeptieren, daß verschiedene Karten in verschiedenen Spielen verschieden schnell sind / gut performen ohne daß gleich auf Teufel komm raus Betrug, Benachteiligung etc.pp. geschrien werden muss.
Bald komme ja unabhängige Benches mit dem finalen Game heraus (bei denen hoffentlich keiner vergißt, FSAA einzuschalten, die 60fps-Sperre zu deaktivieren, die Treiber in ihren Optimierungsstufen anzugleichen etc.). Und wenn dann die GF'en immer noch "aussergewöhnlich" schnell erscheinen - so what?
Das einzige, was man dann vielleicht revidieren sollte, ist das eigene Brett vorm K...errr.... schwarz-weiß Denken.
tombman
2004-07-27, 08:49:15
Original geschrieben von q@e
die Treiber in ihren Optimierungsstufen anzugleichen etc.).
Wie würdest zb DU sowas machen? ;)
Leonidas
2004-07-27, 11:22:29
Öl ins Feuer:
***************
NVIDIA GeForce 6800 Ultra und GeForce 6800 GT sind leistungsstärkste GPUs für Doom 3
Offizielle Benchmarks beweisen es: NVIDIA GeForce 6800 Ultra und GeForce 6800 GT GPUs stellen vergleichbare Lösungen des Mitbewerbs bei Blockbuster PC-Spiel in den Schatten
SANTA CLARA, Kalifornien - 26. JULI 2004 - NVIDIA (Nasdaq: NVDA), der weltweite Marktführer in Visual Processing Lösungen, gab das Ergebnis unabhängiger Tests bekannt, die bestätigen, dass die NVIDIA® GeForce(tm) 6800 Ultra und die GeForce 6800 GT Graphics Processing Units (GPUs) bei Doom 3(tm) eine bessere Performance erzielen als vergleichbare Mitbewerbs-Produkte. Doom3 gilt als eines der am meisten erwarteten PC-Spiele in der Geschichte. Bei den Tests erzielte die NVIDIA GeForce 6800 Ultra GPU die beste Performance bei Doom 3, dicht gefolgt von der GeForce 6800 GT. Somit wurden die Highend Grafik-Chips des führenden Mitbewerbs, die ca. 100 US$ mehr kosten, in den Schatten gestellt. Die NVIDIA GeForce 6800 Ultra schlug die vergleichbare GPU des Mitbewerbs um bis zu 40%. Die GeForce 6800 GT konnte sogar ein bis zu 70% besseres Ergebnis erzielen als das vergleichbare Angebot des Mitbewerbs.
"Wenn man einfach die Zahlen betrachtet, ist es offensichtlich, dass die GeForce 6800 Ultra und die GeForce 6800 GT einen neuen Standard gesetzt haben, und das Flagschiff des Mitbewerbs sich auf sehr guter Distanz befindet," kommentiert Kyle Bennett, Chefredakteur von HardOCP, in dem Artikel. "Müsste ich eine Empfehlungsliste von Highend-Video-Karten anfertigen um Doom 3 zu spielen, die GeForce 6800 Ultra und die GeForce 6800 GT würden ohne weiteres die Ränge 1 und 2 belegen."
Die offiziellen Benchmarks wurden vom Hersteller von Doom 3, id Software(tm), mit der Unterstützung von HardOCP.com (<http://www.hardocp.com>), einer führenden Website für Hardware-Enthusiasten, durchgeführt. Die NVIDIA GeForce 6800 Ultra und die GeForce 6800 GT erreichten in jedem PCI Express Test die ersten beiden Ränge und nahmen auch bei jedem AGP Test in den jeweiligen Kategorien die ersten Plätze ein, wobei sich zwischen beiden GPUs lediglich ein Unterschied von einer zehntel Sekunde ergab.
"Berücksichtigt man diese Punkte, wird die GeForce 6800 GT im Highend-Grafikkarten-Markt das Produkt der ersten Wahl, wenn es darum geht, Doom 3 zu spielen, und das bei bestmöglicher Auflösung. Offensichtlich ist die 6800 Ultra noch schneller und damit für alle, die das Beste wollen - koste es was es will," konstatiert der Artikel.
Der komplette Artikel steht zur Verfügung auf der HardOCP Website unter <http://www2.hardocp.com/article.html?art=NjQy>.
Über NVIDIA
Die NVIDIA Corporation (Nasdaq: NVDA) ist ein Marktführer bei visuellen Computing-Technologien mit der Zielsetzung, das interaktive Erlebnis bei Consumer- und professionellen Computer-Plattformen zu steigern. NVIDIAs Grafik- und Kommunikations-Prozessoren haben einen großen Marktanteil und werden in einem weiten Bereich von Computer-Plattformen eingesetzt. Dazu gehören digitale Media-PCs für private Anwender, Unternehmens-PCs, professionelle Workstations, DCC-Systeme zur Erzeugung digitaler Inhalte, Notebooks, militärische Navigations-Systeme und Spiele-Konsolen. NVIDIA hat seinen Unternehmenssitz in Santa Clara, Kalifornien, und beschäftigt weltweit mehr als 1.900 Mitarbeiter. Für weitere Informationen steht die Website www.nvidia.de zur Verfügung.
Bestimmte Aussagen in der vorliegenden Pressemitteilung, darunter Feststellungen bezüglich der Leistungserwartungen des Unternehmens an die NVIDIA-Produktreihe und an die weitere Umsatzsteigerung, sind Prognosen, die Risiken und Unsicherheiten unterliegen. Dies kann dazu führen, dass die Ergebnisse erheblich von den Prognosen abweichen können. Zu den Risiken und Unsicherheiten gehören unter anderem Produktionsverzögerungen und anderweitige Verzögerungen bei neuen Produkten, Schwierigkeiten im Produktionsablauf und Abhängigkeit des Unternehmens von Drittanbietern, allgemeine Branchentrends einschließlich zyklische Schwankungen in der PC- und Halbleiterbranche, Auswirkungen von Mitbewerbs-Produkten und Preisalternativen, Marktakzeptanz von neuen Produkten des Unternehmens und Abhängigkeit des Unternehmens von Drittanbieterentwicklern, Berichten von Journalisten sowie Analysten. Investoren wird die Lektüre des Jahresberichts des Unternehmens auf Formular 10-K empfohlen, vor allem den Abschnitt "Business Risks", um mehr über diese und andere Risiken zu erfahren.
Zaffi
2004-07-27, 11:29:43
Original geschrieben von Leonidas Somit wurden die Highend Grafik-Chips des führenden Mitbewerbs, die ca. 100 US$ mehr kosten, in den Schatten gestellt.
Hey Goil nicht nur schneller sondern auch noch wesentlich billiger, die muss ich haben :bäh:
Jesus
2004-07-27, 12:10:29
Original geschrieben von q@e
Bald komme ja unabhängige Benches mit dem finalen Game heraus (bei denen hoffentlich keiner vergißt, FSAA einzuschalten, die 60fps-Sperre zu deaktivieren, die Treiber in ihren Optimierungsstufen anzugleichen etc.). Und wenn dann die GF'en immer noch "aussergewöhnlich" schnell erscheinen - so what?
dann muss man es als nicht-fanboy ( so wie ich ;) ) akzeptieren ;) und damit hab ich auch kein problem :) ist ja jetzt auch nicht anders das NV karten im allg. schneller bei OGL games sind - so what ? ;)
Tomcat70
2004-07-27, 12:14:03
Original geschrieben von Leonidas
Öl ins Feuer:
***************
NVIDIA GeForce 6800 Ultra und GeForce 6800 GT sind leistungsstärkste GPUs für Doom 3
Offizielle Benchmarks beweisen es: NVIDIA GeForce 6800 Ultra und GeForce 6800 GT GPUs stellen vergleichbare Lösungen des Mitbewerbs bei Blockbuster PC-Spiel in den Schatten
SANTA CLARA, Kalifornien - 26. JULI 2004 - NVIDIA (Nasdaq: NVDA), der weltweite Marktführer in Visual Processing Lösungen, gab das Ergebnis unabhängiger Tests bekannt, die bestätigen, dass die NVIDIA® GeForce(tm) 6800 Ultra und die GeForce 6800 GT Graphics Processing Units (GPUs) bei Doom 3(tm) eine bessere Performance erzielen als vergleichbare Mitbewerbs-Produkte. Doom3 gilt als eines der am meisten erwarteten PC-Spiele in der Geschichte. Bei den Tests erzielte die NVIDIA GeForce 6800 Ultra GPU die beste Performance bei Doom 3, dicht gefolgt von der GeForce 6800 GT. Somit wurden die Highend Grafik-Chips des führenden Mitbewerbs, die ca. 100 US$ mehr kosten, in den Schatten gestellt. Die NVIDIA GeForce 6800 Ultra schlug die vergleichbare GPU des Mitbewerbs um bis zu 40%. Die GeForce 6800 GT konnte sogar ein bis zu 70% besseres Ergebnis erzielen als das vergleichbare Angebot des Mitbewerbs.
das marketing von nvidia erinnert mich langsam an ein kleines kind, dem man irgendein spielzeug weggenommen hat.
nvidia tut ja gerade so als ob es nur ein einziges pc-spiel (nämlich doom 3) auf der welt gibt.
Original geschrieben von tombman
Eindeutig flaming quasar...
Kannst du auch eine konkrete Antwort bzgl der settings geben und ned flamend ausweichen?
:troest:
Nicht gleich beleidigt sein - Wenn man Augen UND Gehirn benutzt, kommt man schon zu einer guten Lösung. Leider habe ich keine X800-Karte da, so daß ich dir hier keine Denkarbeit abnehmen kann.
Ein "first guess" könnte sein, daß man ATi auf Treiber default testet (AF via CP, damit's auch schön bilinear auf allen TS>0 ist) und nV mit "Qualität" und Tri sowie Aniso-Opt. an - sieht zwar nicht mehr schön aus in einigen Fällen und ist FÜR MICH definitiv auch nicht der Sinn einer High-End Karte, zu Zeiten ihrer Veröffentlichung mit solch reduzierten Settings zu laufen, aber es könnte eine Möglichkeit sein, eine gewisse Vergleichbarkeit herzustellen. ;)
Dazu natürlich ein bißchen ausführlicher benchen, so daß man nicht zu einem Fazit für ein 4xAA/maxAF-Setting kommt, Karte XY hätte tollere, schnellere Shader/lahmes AF/ häßliches AA usw., sondern die Bottlenecks auch mal wirklich isolieren. ;)
Aber wem sage ich das, du hast damit ja jahrelange Erfahrung. =)
Original geschrieben von Tomcat70
das marketing von nvidia erinnert mich langsam an ein kleines kind, dem man irgendein spielzeug weggenommen hat.
nvidia tut ja gerade so als ob es nur ein einziges pc-spiel (nämlich doom 3) auf der welt gibt.
Was soll das Marketing jetzt auch sagen, nachdem man ihnen ihr SM3.0-Spielzeug weggenommen hat? ;)
mapel110
2004-07-27, 12:39:29
Original geschrieben von q@e
Augen UND Gehirn anschalten?
Ein Punkt dafür, völlig Inhaltslos und herablassend, um nicht zu sagen beleidigend.
So ein Posting (wie z.b. das von dir hierauffolgende geht doch, quasar. Warum nicht gleich so?!
Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.
Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046
LovesuckZ
2004-07-27, 12:40:18
Original geschrieben von q@e
Was soll das Marketing jetzt auch sagen, nachdem man ihnen ihr SM3.0-Spielzeug weggenommen hat? ;)
Nein, nicht weggenommen, nur bestaetigt:
Denn, wenn SM3.0 nutzlos waere, wieso versucht ATi alles daran, dass man spezielle Eigenschaft unter Sm2.x verwenden kann bzw. ihre Arbeitnehmer spezielle "Hacks" programmieren?
Ist es nicht Ironie, dass ATi user, auch wenn es sich um eine weitere Softwareloesung bei ATi handelt, in den genuss von OI kommen, nur weil Nvidia Tatendrang beim Pushen vom SM3.0 hatte?
Wobei, letzte Woche wurde ja noch gesagt, dass das SM3.0 in naeherer Zukunft nutzlos waere, heute wird OI als die Errungenschaft des Jahres gefeiert. Natuerlich nur, weil ATi es auch anbietet. Woher war ja SM3.0 fuer die naehere Zukunft nutzlos.
Tomcat70
2004-07-27, 12:46:49
Original geschrieben von LovesuckZ
Nein, nicht weggenommen, nur bestaetigt:
Denn, wenn SM3.0 nutzlos waere, wieso versucht ATi alles daran, dass man spezielle Eigenschaft unter Sm2.x verwenden kann bzw. ihre Arbeitnehmer spezielle "Hacks" programmieren?
Ist es nicht Ironie, dass ATi user, auch wenn es sich um eine weitere Softwareloesung bei ATi handelt, in den genuss von OI kommen, nur weil Nvidia Tatendrang beim Pushen vom SM3.0 hatte?
Wobei, letzte Woche wurde ja noch gesagt, dass das SM3.0 in naeherer Zukunft nutzlos waere, heute wird OI als die Errungenschaft des Jahres gefeiert. Natuerlich nur, weil ATi es auch anbietet. Woher war ja SM3.0 fuer die naehere Zukunft nutzlos.
worum gehts da/dir eigentlich ?
verwendet den doom3 überhaupt sm 3.0 ??
Skusi
2004-07-27, 12:53:34
SM3.0 gibbet nur unter DX. D3 ist aber OpenGL !!!
Original geschrieben von seahawk
Dann muss man festhalten, dass der Dev-Support bei NV besser als bei ATI ist, wenn das der Grund sein sollte, was ich nicht glaube. Außerdem haben sowohl id als auch ATI immer von einer guten Kooperation gesprochen.
Und wenn ATI nicht gewußt hat, was auf sie zu kommtt, warum bringen die dann einen BETA-Treiber mit??
DOOM3 ist nunmal auf NV Hardware zugeschnitten und daran wird imho auch kein Treiber (bei gleicher BQ) was ändern können.
Du wiedersprichst dich!
Kladderadatsch
2004-07-27, 15:31:56
Original geschrieben von Gast
Du wiedersprichst dich!
*der dativ ist der untergang vom genitiv*^^
dafullow³²1
2004-07-27, 17:01:37
jo werde Doom³ wohl mit meinem Duron 1200, AbitKT7, 768 MB, FSB von 104, Radeon 9500 pro, Win98se, Catalyst 4.3 zocken können !
Als erstes werde ich alle auf maximale Details stellen in 1024 und ich glaube es wird gut laufen also 20 fps erwarte ich schon im singleplayer !
Ansonsten stell ich alle auf High, dann wirds wohl flüssig laufen, was anderes kann ich mir einfach nicht vorstellen.
Im multiplayer werde ich wieder alles aufs minimalste tunen, und zwar wirklich alles, sieht dann wohl wieder aus wie Quake 1 in GL mit null details und picmip 20 oder so, aber dafür werde ich wieder rocken, weil ich alle Gegner tausendmal früher ausmache als die anderen.
Laschi XL
2004-07-27, 17:07:05
Original geschrieben von dafullow³²1
jo werde Doom³ wohl mit meinem Duron 1200, AbitKT7, 768 MB, FSB von 104, Radeon 9500 pro, Win98se...
brauchst nicht überall deinen abermal wiederholten mist hier durch's forum zu schieben.
Madkiller
2004-07-27, 18:04:41
Original geschrieben von Laschi XL
brauchst nicht überall deinen abermal wiederholten mist hier durch's forum zu schieben.
Wie schon mehrmals angekündigt wurde:
Unnötige Provokation = Punkt
Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.
Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046
deekey777
2004-07-27, 18:18:53
Ist es war, dass UltraShadow nur unter OpenGL verfügbar ist?
Original geschrieben von deekey777
Ist es war, dass UltraShadow nur unter OpenGL verfügbar ist?
Solange nV nicht auch auf die Idee mit einem FourCC-Hack kommt - ja. =)
betasilie
2004-07-27, 19:15:41
Original geschrieben von q@e
Solange nV nicht auch auf die Idee mit einem FourCC-Hack kommt - ja. =)
Was ist ein FourCC-Hack? Und wieso funktioniert Ultrashadow nur in o-gl?
Ein FourCC-Hack, soweit ich das mitbekommen habe, ist eine "Erschleichung" eines inoffiziellen Caps-Bit für DirectX über ein frei definierbares Texturformat.
Sowas ähnliches, wie es ATi evtl. mit ihrem Geometry Instancing schon vor(gemacht) haben.
Warum nur unter OpenGL: Weil eben ein Caps-Bit unter DirectX dafür fehlt. ;)
deekey777
2004-07-27, 23:27:57
Original geschrieben von q@e
Solange nV nicht auch auf die Idee mit einem FourCC-Hack kommt - ja. =)
Hehe, aber dass Doom 3 auf OpenGL basiert, hat dieser Umstand damit aber nicht zu tun.
Original geschrieben von deekey777
Hehe, aber dass Doom 3 auf OpenGL basiert, hat dieser Umstand damit aber nicht zu tun.
Nein, das hat was mit den Caps-Bits und deren Vergabe von Microsoft zu tun. =)
tombman
2004-07-28, 08:51:31
Original geschrieben von q@e
weitere flames von dir entfernt
Ein "first guess" könnte sein, daß man ATi auf Treiber default testet (AF via CP, damit's auch schön bilinear auf allen TS>0 ist) und nV mit "Qualität" und Tri sowie Aniso-Opt. an - sieht zwar nicht mehr schön aus in einigen Fällen und ist FÜR MICH definitiv auch nicht der Sinn einer High-End Karte, zu Zeiten ihrer Veröffentlichung mit solch reduzierten Settings zu laufen, aber es könnte eine Möglichkeit sein, eine gewisse Vergleichbarkeit herzustellen. ;)
#
Du kannst mich gar ned beleidigen, quasar...
Also das ist ja echt witzig... genauso habe ich immer getestet, wurde dafür aber ständig von dir und anderen nv-fans kritisiert, es sei für ATI zu unfair.
Und jetzt würdest selbst so testen. Eine bessere Bestätigung meiner Benchmarkmethoden hättest mir ned geben können :lolaway:
Original geschrieben von tombman
#
Du kannst mich gar ned beleidigen, quasar...
Also das ist ja echt witzig... genauso habe ich immer getestet, wurde dafür aber ständig von dir und anderen nv-fans kritisiert, es sei für ATI zu unfair.
Und jetzt würdest selbst so testen. Eine bessere Bestätigung meiner Benchmarkmethoden hättest mir ned geben können :lolaway:
Ich habe dir schon vor mehr als einem Monat dazu geraten, verdrehe bitte nicht die Tatsachen (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1948406#post1948406).
Ich erinnere mich noch gut an Performance-AF via Control Panel vs. Bri-AF (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1951169#post1951169) (Performance vs. Quality gab lt. deinen eigenen HALO-Tests auf der ATi ~5fps(?) Gewinn), weil ja, nach deinen Worten, man in Far Cry trotz Bri-AF nirgends Banding sieht (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1956730#post1956730), es kein Banding gibt (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1952235#post1952235) (ok, ein bißchen doppelt) und Performance-AF (aka. bilineares AF) 'schön' (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1950363#post1950363) ist.
Ebenfalls nach deinen Worten, siehst du ja jedes Banding (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1949881#post1949881) wenn welches da ist.
;)
Das ganze bitte nicht als Flame mißverstehen - ich mag lediglich so ungern falsch und irreführend dargestellt und zitiert werden. ;)
tombman
2004-07-28, 10:48:58
Original geschrieben von q@w
Ich habe dir schon vor mehr als einem Monat dazu geraten, verdrehe bitte nicht die Tatsachen (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1948406#post1948406).
Ich erinnere mich noch gut an Performance-AF via Control Panel vs. Bri-AF (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1951169#post1951169) (Performance vs. Quality gab lt. deinen eigenen HALO-Tests auf der ATi ~5fps(?) Gewinn), weil ja, nach deinen Worten, man in Far Cry trotz Bri-AF nirgends Banding sieht (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1956730#post1956730), es kein Banding gibt (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1952235#post1952235) (ok, ein bißchen doppelt) und Performance-AF (aka. bilineares AF) 'schön' (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1950363#post1950363) ist.
Ebenfalls nach deinen Worten, siehst du ja jedes Banding (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1949881#post1949881) wenn welches da ist.
;)
Das ganze bitte nicht als Flame mißverstehen - ich mag lediglich so ungern falsch und irreführend dargestellt und zitiert werden. ;)
that was then
Ganz am Anfang hab ich per. AF von ATI vs qual. nvidia + opts on getestet.
Bei 99.9% alle Fälle war des auch legitim, man sah keinen Unterschied.
Dann hab ich mich selbst widerlegt mit einer Stelle von xbitlabs (volcano level Geländerbodentextur) und hab bei ATI auf qual. AF hochgeschaltet und die restlichen Tests damit gemacht.
Aber das war euch nvidianern ja immer noch ned genug, auch dir ned. Ihr woltlet ja unbedingt die reg. shice drinnen haben...
this is now
Jetzt haben wir uns ja geeinigt wie man fair benchen kann. Aber dann später bitte ned heulen wenn die ATI trotzdem noch gewinnt...
Am Freitag bekomm ich wahrscheinlich meine Doom3 US Version von meinem shop in Wien und dann kann das benchen auch schon losgehen ;)
perforierer
2004-07-28, 11:15:12
Original geschrieben von tombman
Am Freitag bekomm ich wahrscheinlich meine Doom3 US Version von meinem shop in Wien und dann kann das benchen auch schon losgehen ;)
Am Freitag schon? Kommt mir bissi früh vor, biste sicher? :O
Jesus
2004-07-28, 11:25:10
Original geschrieben von q@w
Ich habe dir schon vor mehr als einem Monat dazu geraten, verdrehe bitte nicht die Tatsachen (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1948406#post1948406).
Ich erinnere mich noch gut an Performance-AF via Control Panel vs. Bri-AF (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1951169#post1951169) (Performance vs. Quality gab lt. deinen eigenen HALO-Tests auf der ATi ~5fps(?) Gewinn), weil ja, nach deinen Worten, man in Far Cry trotz Bri-AF nirgends Banding sieht (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1956730#post1956730), es kein Banding gibt (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1952235#post1952235) (ok, ein bißchen doppelt) und Performance-AF (aka. bilineares AF) 'schön' (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1950363#post1950363) ist.
Ebenfalls nach deinen Worten, siehst du ja jedes Banding (http://www.forum-3dcenter.de/vbulletin/showthread.php?&postid=1949881#post1949881) wenn welches da ist.
;)
Das ganze bitte nicht als Flame mißverstehen - ich mag lediglich so ungern falsch und irreführend dargestellt und zitiert werden. ;)
OT: an der einzigen stelle in FC die du gebracht hattest wo man banding sah ( sowohl mit perf als auch mit qual. af, auch auf Radeon 9800 ) verschwand es sowohl auf der x800 als auch auf de 9800 sobald man app. default verwendete ;)
und zwar egal ob man ingame bi oder tri af wählte ( was aber vermutlich daran liegt dass FC immer tri nimmt wenn man af dazuschaltet )
deekey777
2004-07-28, 11:33:01
OT weiter: Die bisher beste Filterquali erreiche ich, indem ich in Far Cry als Filterverfahren "ANISOTROPIC" erzwinge und die AF Stufe auf 8 setze (per FC Konfigurationstool -> Benutzer).
@perforierer:
Tombman ist nunmal ein ganz fixer. ;D
Wehe du spoilerst, Tombman!
Original geschrieben von Jesus
OT: an der einzigen stelle in FC die du gebracht hattest wo man banding sah ( sowohl mit perf als auch mit qual. af, auch auf Radeon 9800 ) verschwand es sowohl auf der x800 als auch auf de 9800 sobald man app. default verwendete ;)
und zwar egal ob man ingame bi oder tri af wählte ( was aber vermutlich daran liegt dass FC immer tri nimmt wenn man af dazuschaltet )
Du hast recht (es ist wirklich OT ;).
Es geht nämlich um Performance-AF, wo man angeblich kein Banding sah, später sah man dann angeblich kein Banding mit Quality-AF. Und jetzt verschwindet dieses Banding erst mit Application (auf R9600/X800: Full-Bri) -AF teilweise und taucht dafür an anderer Stelle auf.
;)
Jesus
2004-07-28, 14:56:08
der thread wurde geschlossen, du hast keine weiteren banding stellen genannt. ausserdem verschwand das banding an dieser stelle vollständig und nicht nur teilweise mit app af. und es wurde auch nicht behauptet dass es an dieser von dir gezeigten stelle ( baumhaus ) mit bi af nicht auftritt, ich habe sogar angegeben dass es mit qual af auch auftritt. und niemand hat sich dazu geäussert dass es sogar auf der x800 mit app. af verschwindet ;)
end of ot ;)
Blaire
2004-07-28, 15:01:44
Original geschrieben von tombman
that was then
Ganz am Anfang hab ich per. AF von ATI vs qual. nvidia + opts on getestet.
Bei 99.9% alle Fälle war des auch legitim, man sah keinen Unterschied.
Dann hab ich mich selbst widerlegt mit einer Stelle von xbitlabs (volcano level Geländerbodentextur) und hab bei ATI auf qual. AF hochgeschaltet und die restlichen Tests damit gemacht.
Aber das war euch nvidianern ja immer noch ned genug, auch dir ned. Ihr woltlet ja unbedingt die reg. shice drinnen haben...
this is now
Jetzt haben wir uns ja geeinigt wie man fair benchen kann. Aber dann später bitte ned heulen wenn die ATI trotzdem noch gewinnt...
Am Freitag bekomm ich wahrscheinlich meine Doom3 US Version von meinem shop in Wien und dann kann das benchen auch schon losgehen ;)
Doom3 wird frühestens Montag ausgeliefert. Ich würde mir da nicht zuviel Hoffnung machen. Aber vieleicht hast du ja Glück. :D
tombman
2004-07-28, 15:07:09
Original geschrieben von perforierer
Am Freitag schon? Kommt mir bissi früh vor, biste sicher? :O
Hab extra heute noch mal angerufen.. die meinten zu 80% sicher ... und die haben normal Recht... naja, verlangen auch unglaubliche 70€ dafür :O
Andererseits ist bei solchen Fällen immer alles möglich...
hmm, Doom3 @ Weihnachten? :D
perforierer
2004-07-28, 15:21:45
Jupp, 70 Europäer ist krass...aber wa stut man nicht alles dafür, als erster Screenshots mit dem eigenen Nick im Forum zu posten, gelle? :D
Zur Performance der ATI-Karten:
http://www.theinquirer.net/?article=17495
*Stevo*
2004-07-28, 17:22:25
Brauche Benches einer 6800nU - wehe ich kann da net auf high ohen aa/af zocken. :no:
Original geschrieben von *Stevo*
Brauche Benches einer 6800nU - wehe ich kann da net auf high ohen aa/af zocken. :no:
Da würde ich mir keine Sorgen machen
perforierer
2004-07-28, 17:35:02
Stevo, das wirste können.
Überleg mal. die Systeme, auf denen die PC games getestet hat hatten um knapp unter 60 Frames konstant bei 1600x1200 !
*Stevo*
2004-07-28, 17:41:07
Euer Wort in Gottes, aeh... JC´s Ohr
=)
Original geschrieben von tombman
Hab extra heute noch mal angerufen.. die meinten zu 80% sicher ... und die haben normal Recht... naja, verlangen auch unglaubliche 70€ dafür :O
Andererseits ist bei solchen Fällen immer alles möglich...
hmm, Doom3 @ Weihnachten? :D
Freitag schon ? trräum weiter , die warez szene hätte das spiel schon längst wenn die ware das lagerhaus verlassen hätte !
Endorphine
2004-07-28, 20:28:34
Kleiner OT-Spass am Rande: ATI steht in der Gunst der Freunde von id-Software ganz unten (http://www.idsoftware.com/business/friends/). ;) Nach dem Alphaleak ist ATI sogar noch unter VIA abgestiegen.
Tomcat70
2004-07-28, 20:31:43
Original geschrieben von Endorphine
Kleiner OT-Spass am Rande: ATI steht in der Gunst der Freunde von id-Software ganz unten (http://www.idsoftware.com/business/friends/). ;) Nach dem Alphaleak ist ATI sogar noch unter VIA abgestiegen.
hehe, wenigstens stehen sie überhaupt noch in der "friends of id"-liste ;)
Mordred
2004-07-28, 20:31:54
wundert mich das die da überhaupt noch stehen :> Da ist wohl wer zu faul sie zu kicken ;>
oder es ist die Angst das die Fanatiker keine ID Software mehr kaufen ;D
Original geschrieben von Endorphine
Kleiner OT-Spass am Rande:
ATI steht in der Gunst der Freunde von id-Software ganz unten (http://www.idsoftware.com/business/friends/).
Nach dem Alphaleak ist ATI sogar noch unter VIA abgestiegen.
Dafür das sie weder Sponsor noch Lizenznehmer sind... :bigl:
Original geschrieben von [KoC]Mordred
oder es ist die Angst das die Fanatiker keine ID Software mehr kaufen ;D
Den hektischen Reaktionen der letzten Tage nach zu schließen hat eher ATI Angst, dass die Doom-Fans keine ATI-Karten mehr kaufen... ;D
Original geschrieben von maas:
Den hektischen Reaktionen der letzten Tage nach zu schließen hat eher ATI Angst,
dass die Doom-Fans keine ATI-Karten mehr kaufen...
Ich wundere mich, das sie noch nicht den großen HL2-Holzhammer gezogen haben.
:sick:
Original geschrieben von maas
Den hektischen Reaktionen der letzten Tage nach zu schließen hat eher ATI Angst, dass die Doom-Fans keine ATI-Karten mehr kaufen... ;D
Sollte man fast auch nicht mehr kaufen. Nicht wegen der Performance, aber dass man so lange Zeit nichts mehr am OGL-Treiber gemacht hat... ist schon fast unverschämt dem Kunden gegenüber. Hab allerdings im Moment auch eine ATI im Rechner.
Original geschrieben von Bane
Ich wundere mich, das sie noch nicht den großen HL2-Holzhammer gezogen haben.
Vaporware ist zu weich um als Holzhammer zu taugen, vor allem, wenn man dieses Pulver schon vor einem Jahr verschossen hat...
Tomcat70
2004-07-28, 23:32:11
Original geschrieben von maas
Vaporware ist zu weich um als Holzhammer zu taugen, vor allem, wenn man dieses Pulver schon vor einem Jahr verschossen hat...
also hl2 ist gerade jetzt sicher keine vaporware mehr...
arcanum
2004-07-29, 03:04:03
womit sollte ati im moment bei hl2 denn auch werben? letztendlich wird ati genauso ein trara um hl2 veranstalten wenn ihre karten vorne liegen sollten.
aRKeycH
2004-07-29, 03:15:29
Naja bei mir müssen sich Ati noch gewaltig vertuhn, bis ich wieder zu nv wechsle, bevor ich zu Ati gewechselt bin hatte, gf1, gf2, und GF 3 ti500, und seit dem bin ich glücklich bei bzw. mit Ati. ;)
Achja hab ne Fire GL X2, und darum rede ich so ne scheisse.
:D
Weil mir das fanboy gequatsche am Arsch vorbei geht, auch wenn ich es auch begrüssen würde, wenn Ati sich noch ein wenig in den Arsch klemmen würde wass OGL anbelangt, wobei die behauptung , das OGL mit ati treibern, unter aller Sau wären, so nicht Richtig sind, ja Sie sind nicht so performant imom. wie die von NV, aber beileibe, nicht so tragisch wie es dargestellt wird, bei mir lief, bis jetzt alles flüssig, und nur das zählt am schluss.
Wobei, ich nicht genau sehn kann, inwiefern, sich die ogl optimierungen, bei den cat. zu den FireGL treibern unterscheiden. , jedenfalls nicht genau(ausser das ich ohne probs mit full AA arbeiten kann). ;)
Stebs
2004-07-29, 04:18:54
Original geschrieben von *Stevo*
Euer Wort in Gottes, aeh... JC´s Ohr
=)
Euer Wort in Jesus Christus' Ohr
Zufall? ;)
Wann sollten eigentlich die restlichen Benchmarks bei HardOCP rauskommen? Währe doch witzlos wenn die erst nach dem Verkaufsstart rauskommen würden...
aRKeycH
2004-07-29, 04:39:25
quote:Original geschrieben von *Stevo*
Euer Wort in Gottes, aeh... JC´s Ohr
Euer Wort in Jesus Christus' Ohr
Zufall?
Hmm bislang, habe ich eigentlich John. C. eher mit dem Teufel verglichen, schaut mal in seine Augen. ;)
Und so ein Typ kann gar nicht von den guten sein, die (p)ösen sind immer die, besseren. *g*
*Stevo*
2004-07-29, 09:12:29
Es war schon der gute alte John C. gemeint. Wobei man ihn doch ohne weiteren als den Mesiahs des 3D-Gamings nennen könnte ;D
betasilie
2004-07-29, 15:06:31
Ich werde ab Montag ebenfalls mitbenchen. MIt einer 9700@9800Pro, einer X800Pro@X800XT-PE und einer 6800Ultra. :)
9700 @ 9800Pro?
wie das denn hast dne lötkolben ausgpackt?
betasilie
2004-07-29, 15:32:09
Original geschrieben von Joe
9700 @ 9800Pro?
wie das denn hast dne lötkolben ausgpackt?
Ne Wakü auf der GPU, aber ein Voltmod habe ich nicht gemacht. :)
Komm sogar noch höher, aber dann gibt es kleine Fehler im GT3 von 3DM2003
dildo4u
2004-07-29, 15:37:51
Original geschrieben von betareverse
Ne Wakü auf der GPU, aber ein Voltmod habe ich nicht gemacht. :)
Komm sogar noch höher, aber dann gibt es kleine Fehler im GT3 von 3DM2003 Wie willst du den ram auf 340 bekommen?
Original geschrieben von betareverse
Ne Wakü auf der GPU, aber ein Voltmod habe ich nicht gemacht. :)
Komm sogar noch höher, aber dann gibt es kleine Fehler im GT3 von 3DM2003
Und die zusätzlichen pipelines hast dir ausm hut gezaubert oder wie?
dildo4u
2004-07-29, 15:53:21
Original geschrieben von Joe
Und die zusätzlichen pipelines hast dir ausm hut gezaubert oder wie? Hä? zusätzliche pipes
Zauberer
2004-07-29, 16:00:00
Original geschrieben von Joe
9700 @ 9800Pro?
wie das denn hast dne lötkolben ausgpackt? Original geschrieben von betareverse
Ne Wakü auf der GPU, aber ein Voltmod habe ich nicht gemacht. :)
Komm sogar noch höher, aber dann gibt es kleine Fehler im GT3 von 3DM2003 Original geschrieben von Joe
Und die zusätzlichen pipelines hast dir ausm hut gezaubert oder wie? Original geschrieben von dildo4u
Hä? zusätzliche pipes
Genau, seit wann hat die 9800 Pro mehr Pipelines als die 9700?
Beide haben doch 8!
Die 9700 hat nur eine geringere Taktfrequenz.
hä isses nicht so das eine 9700 NonPro weniger Pipelines hat als eine 9800 Pro?
Wo liegt dann der unterschied zwischen 9700 und 9700 Pro? Nur im Tackt?
Original geschrieben von Joe
hä isses nicht so das eine 9700 NonPro weniger Pipelines hat als eine 9800 Pro?
Wo liegt dann der unterschied zwischen 9700 und 9700 Pro? Nur im Tackt?
Die 9700, 9700Pro, 9800, 9800Pro und 9800XT haben alle 8 Pipes und unterscheiden sich nur durch Ram- und Chip-Takt (marginale Änderungen des Chipdesigns bei der 9800Serie nicht berücksichtigt).
Neue OpenGl-Treiber (mit mehr Performance) von ATI?:
http://www.theinquirer.net/?article=17528
Zauberer
2004-07-29, 16:08:27
Original geschrieben von Joe
hä isses nicht so das eine 9700 NonPro weniger Pipelines hat als eine 9800 Pro?Nein ist es nicht, beide haben 8 Pipelines.
Original geschrieben von Joe
Wo liegt dann der unterschied zwischen 9700 und 9700 Pro? Nur im Takt? Ja, meine 9700 hat z.B. 275/270MHz.
Die 9700 Pro hat 325/310MHz und die 9800 PRO 380/340MHz.
betasilie
2004-07-29, 16:11:30
Original geschrieben von Joe
hä isses nicht so das eine 9700 NonPro weniger Pipelines hat als eine 9800 Pro?
Wo liegt dann der unterschied zwischen 9700 und 9700 Pro? Nur im Tackt?
So ist es. Nur der Takt ist anders.
Zauberer
2004-07-29, 16:19:53
EDIT:
Ich habe einen Fehler gemacht!
Sorry, Hardocp macht verwirrende Benchmarks. :(
Original geschrieben von Zauberer
Um back to Topic zu kommen:
Das "Doom3 Performance Preview bei Hardocp" könnte eventuell nicht ganz "seriös" sein.
Ich habe mir mal den Far Cry Performance Review bei Hardocp angeschaut. :)
Da gewinnt eine 6800 Ultra gegen die X800 XT-PE in "allen" Benchmarks!
Es wurde mit dem "1.1" Patch und DirectX 9.0b getestet.
http://www.hardocp.com/image.html?image=MTA4MzU2NDE4OTg4OEFkazcwdGVfNF8yX2wuZ2lm
Informier dich doch bitte einmal, wer die D3 Benches durchgefuert hat.
Bevor du hier irgendwelche laecherlichen Verschwoerungstheorien zum Besten gibst.
btw., sind alle Benches in denen NV gewinnt fuer dich unserioes? Das ist ja mal interessant....
Mr. Lolman
2004-07-29, 16:44:47
Original geschrieben von Zauberer
Es wurde mit dem "1.1" Patch und DirectX 9.0b getestet.
http://www.hardocp.com/image.html?image=MTA4MzU2NDE4OTg4OEFkazcwdGVfNF8yX2wuZ2lm
Die 6800 Ultra in 1024x768, die x800xt in 1600x1200. HardOCP geht beim Benchmarken nämlich einen anderen Weg. Die schrauben die Settings so lang höher, bis die Karten nicht mehr das selbst gesetzte fps Limit erreichen.
Zauberer
2004-07-29, 16:53:53
EDIT:
Ich habe einen Fehler gemacht!
Sorry, Hardocp macht verwirrende Benchmarks. :(
Original geschrieben von Zauberer ..........
Ich frage mich wie oft das noch gesagt werden muss... Nochmal zum mitschreiben: Die benches kommen direkt von id, nicht von hardocp!!!
Zauberer
2004-07-29, 17:00:01
Original geschrieben von Mr. Lolman
Die 6800 Ultra in 1024x768, die x800xt in 1600x1200. HardOCP geht beim Benchmarken nämlich einen anderen Weg. Die schrauben die Settings so lang höher, bis die Karten nicht mehr das selbst gesetzte fps Limit erreichen.
Hups, da ist mir aber ein Fehler unterlaufen.
Aber die Benchs sind schon blöd, jeder der nur einen Blick auf die FPS Zahlen wirft (die sind ja das Wichteste), sieht NVidia vorne.
Das ist aber Fies, einen Grund mehr für mich Hardocp nicht zu mögen.
Immer hin ist auch ow darauf reingefallen!
Mr. Lolman
2004-07-29, 17:02:58
edit: Zu langsam.
BTW:
Ich mag HardOCP schon. Die versuchen einfach mal einen anderen weg zu gehen. Nämlich ganz einfach, dass man sich nicht mehr stur von Balken leiten lassen kann. Dazu gibts nur wirres gekritzel bei den HardOCP Diagrammen. Wenn mn sich nur die erreichten fps anschaut, hat man halt verloren. Aber beim Weiterblättern auf die nächste Seite hätte man schon gemerkt, dass die Ati ein 'viel grösseres' Bild rendert. ;)
Zauberer
2004-07-29, 17:03:57
Original geschrieben von Gast
Ich frage mich wie oft das noch gesagt werden muss... Nochmal zum mitschreiben: Die benches kommen direkt von id, nicht von hardocp!!!
Man das weiß ich doch.
Und wie John Carmack (von dem ich sehr viel halte) den NV40 in den Himmel gelobt hat, so sehr ist er begeistert von NVidia, dass er den NV40 als BASIS für seine neue Engine nehmen will.
Von neutral kann man bei "id" auch nicht sprechen.
dildo4u
2004-07-29, 17:06:36
Original geschrieben von Zauberer
Man das weiß ich doch.
Und wie John Carmack (von dem ich sehr viel halte) den NV40 in den Himmel gelobt hat, so sehr ist er begeistert von NVidia, dass er den NV40 als BASIS für seine neue Engine nehmen will.
Von neutral kann man bei "id" auch nicht sprechen. ich würd mal sagen das auch einfach daran liegt das NV opengl schon immer besser supportet hat sowohl hardware als auch treiber mäßig und das ist nun mal seine API mit der er schon seid Quake1 arbeitet
LovesuckZ
2004-07-29, 17:09:23
Original geschrieben von Zauberer
Und wie John Carmack (von dem ich sehr viel halte) den NV40 in den Himmel gelobt hat, so sehr ist er begeistert von NVidia, dass er den NV40 als BASIS für seine neue Engine nehmen will.
Von neutral kann man bei "id" auch nicht sprechen.
Dann sage doch, was er beim R420 "hochloben" soll.
Ausserdem hat sich Carmack ind er Vergangen auch schon negativ geaeußert oder aber Ergebnisse von anderen Shaderdays bestaetigt.
Komischer Weise wird das aber immer uebersehen...
Mr. Lolman
2004-07-29, 17:11:59
Alternativ könnte man auch Tenebrae (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=69581&highlight=Gewand) testen. Das ist auch OpenGL, da gibts auch Bumpmapping und 'DoomIII' Schatten, und ist ist ganz sicher nix optimiert worden. Und HW fressend ist das Ganze auch noch.
Zauberer
2004-07-29, 17:16:58
Original geschrieben von LovesuckZ
Dann sage doch, was er beim R420 "hochloben" soll.
Ausserdem hat sich Carmack ind er Vergangen auch schon negativ geaeußert oder aber Ergebnisse von anderen Shaderdays bestaetigt.
Komischer Weise wird das aber immer uebersehen...
Ok, da hast Du auch Recht, am X800 kann man eigentlich nichts neues hochloben.
Außer dem VS, der sogar dem NV40 technologisch überlegen ist.
Original geschrieben von LovesuckZ
Dann sage doch, was er beim R420 "hochloben" soll.
Ausserdem hat sich Carmack ind er Vergangen auch schon negativ geaeußert oder aber Ergebnisse von anderen Shaderdays bestaetigt.
Komischer Weise wird das aber immer uebersehen...
Warum kapiert ihr das nicht,es ist total egal was JC über NV oder ATI sagt. Der arbeitet für NV und damit ist es fürn Poppo was er sagt
Wie kann man nur so leichtgläubig sein und auf Werbesprüche hören
Zauberer
2004-07-29, 17:22:58
Original geschrieben von Gast
Warum kapiert ihr das nicht,es ist total egal was JC über NV oder ATI sagt. Der arbeitet für NV und damit ist es fürn Poppo was er sagt
Wie kann man nur so leichtgläubig sein und auf Werbesprüche hören
Wir wollen doch nicht JC beleidigen, oder?
Ne Webesprüche sind das nicht, immerhin hat John Carmack (von dem ich viel halte) gesagt das alle aktuellen High-End Karten egal ob ATI oder NVidia schnell genug sind für DOOM³.
Also braucht man keine NVidia für DOOM³ kaufen, heißt das übersetzt.
Darum arbeitet er nicht für NVidia.
Ihm ist NVidia nun mal sympathischer nach dem ATI Leck.
Und NVidia baut die Chips nach seinen Wünschen.
Holundermann
2004-07-29, 17:23:47
also was das gezeder hier soll, hat ja auch niemand so nen tanz gemacht als farcry besser auf den neuen atis lief, jetzt ist halt mal schicht im schacht bei ati. und wenns nur am ultra shadow 2 liegt, es wird sich nichts ändern das die r420er langsamer sind als die nv40er. auch neue treiberversionen werden daran nix rütteln. das featureset des nv40 ist einfach auf d3 ausgelegt (ultrashadow 2) man kann jetzt weder jc vorwerfen das das so gut hinhaut noch nvidia das sie das implementiert haben bzw. vorrausschauend auf d3 hin die hardware optimiert haben.
ausserdem ist das kinderpampe, auf jeder high end graka läuft d3 in ner 1280er auflösung mit high details flüssig. was soll den der ganze sch**** hier. hört auf mit eurem fanboy gelaber!!!
die beiden next gen chips sind sich nunmal ebenbürdig, aber das d3 auf den nv40 chips besser läuft ist einfach eine tatsache, ihr wollt wissen warum? WEIL NV DIE HARDWARE DA HINGEHEND OPTIMIERT HAT!!!!!!!!! <---und das ist nix schlechtes!!! ihr heulsusen
Korak
2004-07-29, 17:39:41
Original geschrieben von Holundermann
also was das gezeder hier soll, hat ja auch niemand so nen tanz gemacht als farcry besser auf den neuen atis lief, jetzt ist halt mal schicht im schacht bei ati. und wenns nur am ultra shadow 2 liegt, es wird sich nichts ändern das die r420er langsamer sind als die nv40er. auch neue treiberversionen werden daran nix rütteln. das featureset des nv40 ist einfach auf d3 ausgelegt (ultrashadow 2) man kann jetzt weder jc vorwerfen das das so gut hinhaut noch nvidia das sie das implementiert haben bzw. vorrausschauend auf d3 hin die hardware optimiert haben.
ausserdem ist das kinderpampe, auf jeder high end graka läuft d3 in ner 1280er auflösung mit high details flüssig. was soll den der ganze sch**** hier. hört auf mit eurem fanboy gelaber!!!
die beiden next gen chips sind sich nunmal ebenbürdig, aber das d3 auf den nv40 chips besser läuft ist einfach eine tatsache, ihr wollt wissen warum? WEIL NV DIE HARDWARE DA HINGEHEND OPTIMIERT HAT!!!!!!!!! <---und das ist nix schlechtes!!! ihr heulsusen
Erm ja, ich muss dich dann doch bitten deinen Ton etwas zu ändern. Deine Aussage mag zwar nicht falsch sein. Die Art und Weise der Informationsübermittlung scheint aber noch verbesserungwürdig.
deekey777
2004-07-29, 17:46:00
Es ist so weit:
The Official DOOM 3 [H]ardware Guide (http://www2.hardocp.com/article.html?art=NjQ0)
dildo4u
2004-07-29, 17:55:25
Original geschrieben von deekey777
Es ist so weit:
The Official DOOM 3 [H]ardware Guide (http://www2.hardocp.com/article.html?art=NjQ0)
toll alle tests sind ohne AA!
dildo4u
2004-07-29, 18:06:11
http://www2.hardocp.com/1090787143TO62AMOEWX_3_2_l.jpg
Ich fass es nicht ein gibt ein schalter für den schatten :schlag:
wenigstens den 9800pro test hätten sie 2mal machen können.. da haben sie so offensichtlich nen blödsinn gebaut.. 7fps minimum, KEINE andere hat sowenig, da stimmt was ned..
Hellspawn
2004-07-29, 18:10:24
der gast war ich, war auch sonst ned sehr aufmerksam hehe
ich meine auf dem nf-7s mit xp3200+
würd mich interessieren was die 7fps verursacht hat..
dildo4u
2004-07-29, 18:13:12
Original geschrieben von Hellspawn
der gast war ich, war auch sonst ned sehr aufmerksam hehe
ich meine auf dem nf-7s mit xp3200+
würd mich interessieren was die 7fps verursacht hat.. muss ein fehler mit deren system sein auf eine 3GHz P4 is das minimun 22fps mit einer 9800pro
http://www2.hardocp.com/1090787143TO62AMOEWX_9_8_l.gif
Axo ich seh grad bei den p4 ham sie kein AF eingestellt das scheint die 9800pro richtig zu ärgern vieleicht limitiert dann die 128mb
LovesuckZ
2004-07-29, 18:15:49
Oha, der Absatz der 6800NU wird sich bei den Ergebnissen wohl verzehnfachen...
ich sehe die Art, wie Hardocp.com die Test durchfuehrt, immernoch als schlecht an und warte daher auf Ergebnisse von Leuten wie Tombman etc!
dildo4u
2004-07-29, 18:17:49
Original geschrieben von LovesuckZ
Oha, der Absatz der 6800NU wird sich bei den Ergebnissen wohl verzehnfachen...
ich sehe die Art, wie Hardocp.com die Test durchfuehrt, immernoch als schlecht an!
jo was ein bock misst alle High End karten werden mit 1600*1200 ohne AA!getestet wer hat schon ein moni der da noch gute HZ werte hat und ich hab ein TFT also max 1280*1024 ich hätte lieber 1280*1024 mit 4XAA und 16XAnios so wollte ich eigentlich zocken
dildo4u
2004-07-29, 18:22:10
"The very first image quality difference that struck us was the clear advantage of having 8X anisotropic filtering enabled in High Quality. The floor shows this advantage the best. Looking at the image, it's surprising just how good Low Quality looks. id Software has done an incredible job at making even the lowest quality setting look so good"
Good work id
Genau *zustimmt* wobei mir sogar 1152x864 lieber ist, da schafft mein 19" CRT noch 100Hz ;)
Mir ist vorallem ne maximale Texturedetail Stufe wichtig und ne hohe saubere Texturefilterung, soll ja was hermachen das Game, AA nehme ich als Bonus mit (meist geht ja 2xAA mehr nimmt man immer gerne)
Kladderadatsch
2004-07-29, 18:25:35
sollten die neuen benchs nicht noch diese woche erscheinen? dann wird man sich ja auf morgen, spätestens auf übermorgen freuen können...oder auch nicht:)
dildo4u
2004-07-29, 18:26:20
Original geschrieben von iNSanE iN tHE mEMbRaNe
sollten die neuen benchs nicht noch diese woche erscheinen? dann wird man sich ja auf morgen, spätestens auf übermorgen freuen können:) Hä das sind doch die neuen benches
dildo4u
2004-07-29, 18:26:48
Original geschrieben von deekey777
Es ist so weit:
The Official DOOM 3 [H]ardware Guide (http://www2.hardocp.com/article.html?art=NjQ0)
9800ProZwerg
2004-07-29, 18:28:30
Original geschrieben von dildo4u
muss ein fehler mit deren system sein auf eine 3GHz P4 is das minimun 22fps mit einer 9800pro
http://www2.hardocp.com/1090787143TO62AMOEWX_9_8_l.gif
Axo ich seh grad bei den p4 ham sie kein AF eingestellt das scheint die 9800pro richtig zu ärgern vieleicht limitiert dann die 128mb
Wozu 8AF?
Reicht nicht 4AF? Verstehe ich nicht!
Aber sonst bin ich über die Performance positiv überrascht!
dildo4u
2004-07-29, 18:30:45
Original geschrieben von 9800ProZwerg
Wozu 8AF?
Reicht nicht 4AF? Verstehe ich nicht!
Aber sonst bin ich über die Performance positiv überrascht! Äm wenn du high quality einstellst wird 8XAF erzwungen!
Höhere Auflösung soll also mehr bringen als AA, naja bei DEN Texturen glaub ich das gerne, sehr schön!
Original geschrieben von deekey777
Es ist so weit:
The Official DOOM 3 [H]ardware Guide (http://www2.hardocp.com/article.html?art=NjQ0)
ein reiner Werbebenchmark, wer sowas ernst nimmt dem kann man nicht mehr helfen
Original geschrieben von dildo4u
"The very first image quality difference that struck us was the clear advantage of having 8X anisotropic filtering enabled in High Quality. The floor shows this advantage the best. Looking at the image, it's surprising just how good Low Quality looks. id Software has done an incredible job at making even the lowest quality setting look so good"
Good work id
Warte auf das Game und laß dich nicht von gesponserten Tests beeinflussen
Wie leichtgläubig hier alle sind
LovesuckZ
2004-07-29, 18:40:42
Original geschrieben von Gast
ein reiner Werbebenchmark, wer sowas ernst nimmt dem kann man nicht mehr helfen
Hm,
dann sage mir:
Ist jeder Benchmark ein "reiner Werbebenchmark"?
betasilie
2004-07-29, 18:42:21
Ist doch nur noch dumme Propaganda! :motz: Ich hoffe doch dringenst, dass es bald echte unabhängige Benchmarks gibt. Solche konstruierten exklusiv Tests sind doch echt zum kotzen.
Und wieso haben die so beknackte übertaktete NV-Karten genommen?! Gerade bei einem solchen Artikel ist das doch nur noch völliger Schwachsinn. :crazy:
Original geschrieben von LovesuckZ
Hm,
dann sage mir:
Ist jeder Benchmark ein "reiner Werbebenchmark"?
gääähn es gibt viele Seiten die nichts überwiesen bekommen für exclusice tests weißt du
Original geschrieben von betareverse
Ist doch nur noch dumme Propaganda! :motz: Ich hoffe doch dringenst, dass es bald echte unabhängige Benchmarks gibt. Solche konstruierten exklusiv Tests sind doch echt zum kotzen.
Und wieso haben die so beknackte übertaktete NV-Karten genommen?! Gerade bei einem solchen Artikel ist das doch nur noch völliger Schwachsinn. :crazy:
Wieso übertaktete ? Kannst du nicht lesen?
Cenmocay
2004-07-29, 18:45:35
Original geschrieben von betareverse
Ist doch nur noch dumme Propaganda! :motz: Ich hoffe doch dringenst, dass es bald echte unabhängige Benchmarks gibt. Solche konstruierten exklusiv Tests sind doch echt zum kotzen.
Und wieso haben die so beknackte übertaktete NV-Karten genommen?! Gerade bei einem solchen Artikel ist das doch nur noch völliger Schwachsinn. :crazy:
Danke Beta, wenigstens du erkennst das das alles nur Werbeblabla ist
Mir macht das nix aus aber viele Leute die keine Ahnung haben denken jetzt "boah die NV Karten muß ich unbedingt kaufen"
LovesuckZ
2004-07-29, 18:47:54
Original geschrieben von Gast
gääähn es gibt viele Seiten die nichts überwiesen bekommen für exclusice tests weißt du
Aeh?
Also Hardocp zahlt Geld an id, umd en test zu bekommen.
Okay, da gehe ich mit.
Aber was hat das mit "Werbebenchmarks" zu tun? Muessten diese nicht "pro id" ausfallen statt "pro Nvidia"?
Also, erklaere doch deinen Standpunkt mal!
dildo4u
2004-07-29, 18:48:51
Original geschrieben von Cenmocay
Danke Beta, wenigstens du erkennst das das alles nur Werbeblabla ist
Mir macht das nix aus aber viele Leute die keine Ahnung haben denken jetzt "boah die NV Karten muß ich unbedingt kaufen" Warum regt ihr euch eigentlich auf? der test ist kein GK test sondern ein extrem umfangreicher test mit vielen systemen um zu gucken wie man auf seinem system Doom3 zocken können wird daraus muss ja nicht schon wieder NV vs. ATI werden der test ist sicherlich nicht perfekt aber für viele ein guter ansatzpunkt
LovesuckZ
2004-07-29, 18:54:57
Original geschrieben von dildo4u
der test ist kein GK test sondern ein extrem umfangreicher test mit vielen systemen um zu gucken wie man auf seinem system Doom3 zocken können wird [...]
Richtig.
Hardocp hat eben die Moeglichkeit gehabt, bei id 65h zu testen. Und sie nahmen nichtmal die Timedemo, sondern liefern jedesmal 6min in Doom3 herum.
Fuer viele Leute ist es inetressant, erkennt man doch, was mehr bringt: Eine CPU und eine neue Grafikkarte.
9800ProZwerg
2004-07-29, 18:59:34
Was ich interessant finde ist, dass 800x600 Medium Quality auf einer 9500Pro128MB genauso schnell läuft wie auf einer GF4Ti4600!
Corny
2004-07-29, 18:59:34
könnte mal bitte jemand die URL's der Benchmark-Bilder von der Radeon8500 schicken? mein router spinnt und lässt mich nicht auf die seite, die Bilder gehen aber.
wäre super, Danke!!!
9800ProZwerg
2004-07-29, 19:00:55
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfNl84X2wuZ2lm
Corny
2004-07-29, 19:02:56
Original geschrieben von 9800ProZwerg
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfNl84X2wuZ2lm
hmmm... danke! aber irgendwie geht der doch nicht. gibts nen direkten link aufs bild? also mit .jpg hinten drann?
deekey777
2004-07-29, 19:06:59
Schade, dass keine 8500 mit 128 MB getestet wurde.
Karümel
2004-07-29, 19:08:15
Schade das keine TI4200 (64MB Ram) dabei ist, welche Karte könnte man denn evtl. am ehesten mit so einer Vergleichen?
9800ProZwerg
2004-07-29, 19:09:29
Original geschrieben von Corny
hmmm... danke! aber irgendwie geht der doch nicht. gibts nen direkten link aufs bild? also mit .jpg hinten drann?
Hmmm, bei mir funzt der link!
Corny
2004-07-29, 19:09:40
Original geschrieben von deekey777
Schade, dass keine 8500 mit 128 MB getestet wurde.
wie hat sie denn überhaupt abgeschnitten? man, ich sitz hier fest, komm auf fast jede internetseite, aber auf den blöden test komm ich nicht :( das ist richtig gemein!
bitte postet mir mal ein bild davon!
Black-Scorpion
2004-07-29, 19:10:10
Sehr ausgewogen der Test. :(
Ein paar Karten von ATI, fast die gesammte Palette der NV Karten und die neuen 6800er Karten auch noch übertaktetet.
Was soll der Schwachsinn.
Das hat mit einem Hardware Guide nichts zu tun, das ist eine reine Werbeveranstaltung.
Und ja, es sind übertaktete Karten.
6800 Ultra (http://www.bfgtech.com/6800.html)
6800 GT (http://www.bfgtech.com/6800GTOC.html)
6800 (http://www.bfgtech.com/6800OC.html)
Corny
2004-07-29, 19:11:18
Original geschrieben von 9800ProZwerg
Hmmm, bei mir funzt der link!
das ist ja eben mein router der spinnt, deshalb komme ich ja nichtmal auf den artikel.
wer mir helfen will sollte übrigens mal ins linx forum schauen.
brauche nen profi der sich mit routing unter linux auskennt ;D http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=158401
sry wegen offtopic, aber bin am verzweifeln :-(
Original geschrieben von Anonym_001
Sehr ausgewogen der Test. :(
Ein paar Karten von ATI, fast die gesammte Palette der NV Karten und die neuen 6800er Karten auch noch übertaktetet.
Was soll der Schwachsinn.
Das hat mit einem Hardware Guide nichts zu tun, das ist eine reine Werbeveranstaltung.
Und ja, es sind übertaktete Karten.
6800 Ultra (http://www.bfgtech.com/6800.html)
6800 GT (http://www.bfgtech.com/6800GTOC.html)
6800 (http://www.bfgtech.com/6800OC.html)
Nö die sind nicht übertaktet. Die werden so ausgeliefert!
dildo4u
2004-07-29, 19:13:14
Original geschrieben von Anonym_001
Sehr ausgewogen der Test. :(
Ein paar Karten von ATI, fast die gesammte Palette der NV Karten und die neuen 6800er Karten auch noch übertaktetet.
Was soll der Schwachsinn.
Das hat mit einem Hardware Guide nichts zu tun, das ist eine reine Werbeveranstaltung.
Und ja, es sind übertaktete Karten.
6800 Ultra (http://www.bfgtech.com/6800.html)
6800 GT (http://www.bfgtech.com/6800GTOC.html)
6800 (http://www.bfgtech.com/6800OC.html) Die BFG karten werden mit den taktraten ausgeliefert mit Lebenszeit garantie Ati hat overdrive! ich sehe da kein vorteil für irgendeine karte wenn overdrive mal wieder gerade nicht funzt beim neuen ati treiber kann weder NV Hardoc oder id software dafür sondern einzig und allein ati und vieleicht noch die ATI karten hersteller
Black-Scorpion
2004-07-29, 19:15:20
Original geschrieben von Gast
Nö die sind nicht übertaktet. Die werden so ausgeliefert!
Es sind vom Hersteller übertaktete Karten.
deekey777
2004-07-29, 19:16:07
Original geschrieben von Gast
Nö die sind nicht übertaktet. Die werden so ausgeliefert!
Das geht auch seinem Posting deutlich zum Vorschein oder? Es wurden keine einzige 6800er mit Standardtakten gebencht, sondern deren OC Varianten. Das ist ja peinlich...
Original geschrieben von Anonym_001
Es sind vom Hersteller übertaktete Karten.
Aber nicht wie geschrieben für den Test übertaktet das ist schlichtweg falsch.
deekey777
2004-07-29, 19:18:19
Original geschrieben von dildo4u
Die BFG karten werden mit den taktraten ausgeliefert mit Lebenszeit garantie Ati hat overdrive! ich sehe da kein vorteil für irgendeine karte wenn overdrive mal wieder gerade nicht funzt beim neuen ati treiber kann weder NV Hardoc oder id software dafür sondern einzig und allein ati und vieleicht noch die ATI karten hersteller
Overdrive? Wovon redest du? Zähl mal auf, welche Radeons OD unterstützen und wie/wann/wie hoch!
dildo4u
2004-07-29, 19:19:55
Original geschrieben von deekey777
Das geht auch seinem Posting deutlich zum Vorschein oder? Es wurden keine einzige 6800er mit Standardtakten gebencht, sondern deren OC Varianten. Das ist ja peinlich... Wenn Shappire ihre toxic karte die auch oc ist schon gebarcht hätte, hätte man die auch benchen können und die 20mhz mher chiptakt macht bei den 6800 auch nicht den unterschied aus
dildo4u
2004-07-29, 19:21:39
Original geschrieben von deekey777
Overdrive? Wovon redest du? Zähl mal auf, welche Radeons OD unterstützen und wie/wann/wie hoch! Wie gesagt dafür kann einzig und allein ati die karten können alle overdrive ich mein jetzt high end also X800pro und X800XT nur die asus karten bilden eine ausnahme nach zu lesen in der neusten PCGH Die X800pro karten gehen mit overdrive von 475 auf 492 chip getestet wurden X800pro von msi,Powercolor und Gecube
Interessant auch das der AM FX53 ganz schön abkackt. Da würde ich mich in Arsch beißen wenn ich mir so eine lahme Krücke geholt hätte.
Black-Scorpion
2004-07-29, 19:25:26
Original geschrieben von Gast
Aber nicht wie geschrieben für den Test übertaktet das ist schlichtweg falsch.
Habe ich das irgendwo gesagt?
Es ist auch egal ob sie für den Test oder vom Hersteller übertaktet wurden.
Übertaktet ist übertaktet.
Original geschrieben von Anonym_001
Habe ich das irgendwo gesagt?
Es ist auch egal ob sie für den Test oder vom Hersteller übertaktet wurden.
Übertaktet ist übertaktet.
Nö es obliegt jedem selber, seine Karten mit welchen Takt auch immer auszuliefern. Daher ist es Quatsch zu sagen das sie übertaktet seien. Es gibt auch Ultra Extreme Karten von EVGA in den USA die sind mit StockSpeed 450/1200. Sind nicht übertaktet sondern das ist Standardtakt. Ende
betasilie
2004-07-29, 19:29:34
Es geht hier nicht um generelle Features von NV oder ATI!
Die BFG-Karten sind schlicht vom Hersteller übertaktete Karten. Wenn NV oder ATI Overdrive anbieten, als festes Standard-Feature aller Karten, dann ist das was völlig anderes, als wenn HardOCP schlicht übertaktete Karten nimmt, wenn diese auch von BFG selbst so ausgeliefert werden.
Einfach nur noch peinlich! X-(
deekey777
2004-07-29, 19:29:59
Original geschrieben von dildo4u
Wenn Shappire ihre toxic karte die auch oc ist schon gebarcht hätte, hätte man die auch benchen können und die 20mhz mher chiptakt macht bei den 6800 auch nicht den unterschied aus
"Wenn" interessiert hier niemanden, es wurden übertaktete Grafikkarten gegen Standardmodelle gebencht.
Black-Scorpion
2004-07-29, 19:33:37
Original geschrieben von Gast
Nö es obliegt jedem selber, seine Karten mit welchen Takt auch immer auszuliefern. Daher ist es Quatsch zu sagen das sie übertaktet seien. Es gibt auch Ultra Extreme Karten von EVGA in den USA die sind mit StockSpeed 450/1200. Sind nicht übertaktet sondern das ist Standardtakt. Ende
Nur gut das BFG seine Karten als "Overclocked" anbietet.
dildo4u
2004-07-29, 19:34:10
Original geschrieben von betareverse
Es geht hier nicht um generelle Features von NV oder ATI!
Die BFG-Karten sind schlicht vom Hersteller übertaktete Karten. Wenn NV oder ATI Overdrive anbieten, als festes Standard-Feature aller Karten, dann ist das was völlig anderes, als wenn HardOCP schlicht übertaktete Karten nimmt, wenn diese auch von BFG selbst so ausgeliefert werden.
Einfach nur noch peinlich! X-( Wenns so eine krasse werbe veranstaltung ist warum wurde dann nicht die BFG mit wakü mit getestet die hat 470mhz chip? :P
Tomcat70
2004-07-29, 19:38:08
ist schon lustig zu beobachten das ganze.....lol
in meinen augen tut sich id sowieso keinen gefallen, es gibt verdammt viele leute mit ati-karten da draussen. die wenigsten rennen ins nächste geschäft um sich wegen doom 3 neue hardware zu kaufen, somit schneidet sich id mit der grottenschlecht programmierten performance auf ati-karten eh nur selbst.
ich werd mirs kaufen wenns mal in der budget ecke liegt :)
betasilie
2004-07-29, 19:43:34
Original geschrieben von dildo4u
Wenns so eine krasse werbe veranstaltung ist warum wurde dann nicht die BFG mit wakü mit getestet die hat 470mhz chip? :P
Was ist eigentlich los mit dir? Hast Du zu lange in der Sonne gesessen, oder was? :|
Sollte doch wohl für jeden verständlich sein, dass man so einen Artikel der Vergleichbarkeit halber mit den ganz normalen Modellen macht und nicht die Karten nur einer Firma in speziellen übertakteten Versionen für die Benchmarks nimmt.
perforierer
2004-07-29, 19:45:39
Original geschrieben von Karümel
Schade das keine TI4200 (64MB Ram) dabei ist, welche Karte könnte man denn evtl. am ehesten mit so einer Vergleichen?
Denke mal, sie dürfte nen Tick schneller sein als die 8500er von ATI mit 64.
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfNl84X2wuZ2lm
beziehungsweise langsamer als die 4600er mit 128 (und in low statt mittleren Details und 640)
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfNl81X2wuZ2lm
dildo4u
2004-07-29, 19:46:54
Original geschrieben von betareverse
Was ist eigentlich los mit dir? Hast Du zu lange in der Sonne gesessen, oder was? :|
Sollte doch wohl für jeden verständlich sein, dass man so einen Artikel der Vergleichbarkeit halber mit den ganz normalen Modellen macht und nicht die Karten nur einer Firma in speziellen übertakteten Versionen für die Benchmarks nimmt. zum 2 mal das ist kein ati vs. NV test sondern man soll damit einschätzen wie Doom3 auf seinen eigen system läuft nix anderes bei den ersten benches von Hardocp wurden auch mit standart karten gebencht und nur weil die BFG karte 20mhz höher getakten sein wird die framerate auf normalen 6800 karten nicht ins boden losen fallen es handelt sich hier wahrscheinlich um 3-4fps
tombman
2004-07-29, 19:50:22
Dieses Spektakel is ein WITZ!
(alle weiteren Aussagen von mir beziehen sich nur auf die jeweilig stärksten Karten: x800xtpe und 6800uOC)
1.) 6% übertaktete Nvidia Karten, das sind schon mal 2 bis 3 fps !
2.) der Sprung von der schwächsten cpu (p4 3ghz) auf die schnellste cpu (fx53) bringt bei ATI fps Verlust, bei Nvidia hingeben den superjump von 0xAA auf 4xAA ---> WTF??
3.) die Kriecherei in Neweggs Hintern hinein is ja nur mehr als Werbung zu werten. Immerhin bauen die jetzt bundles nach [H]´s Vorschlägen. :banghead:
4.) keine Angabe welche settings in den jeweiligen control panels eingestellt waren - zumindest hab ich nix gefunden.
5.) benchmarks höchst ungenau, da nicht garantiert werden kann, daß bei einer run-through fraps Messung die selben Wege gegangen werden und die selben Monster und Kämpfe stattgefunden haben.
6.) keine apples-to-apples benchmarks mit AA.
7.) keine 16xAF benchmarks.
Fazit: ich glaub´ erst was wenn ichs selbst getestet hab´:D
betasilie
2004-07-29, 19:50:30
Original geschrieben von dildo4u
zum 2 mal das ist kein ati vs. NV test sondern man soll damit einschätzen wie Doom3 auf seinen eigen system läuft nix anderes bei der ersten benchs von Hardocp wurde auch mit standart karten genabcht und nur weil die BFG karte 20mhz höher getakten sein wird die framrate auf normalen 6800 karten nicht ins boden losen fallen es handelt sich hier wahrscheinlich um 3-4fps
Als was ganze deklariert ist, ist schnuppe.
Die allermeisten Leser lesen das als ATI vs. NV shootout und das wissen id, NV und auch HardOCP. :eyes:
perforierer
2004-07-29, 19:51:39
Heillige Scheisse, was für eine Power..in 1600x1200! Soo krass:
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfMThfMV9sLmdpZg==
P.S.
Ich finde diesem Guide wirklich absolut klasse. Was für ein A>ufwand, aber echt cool gemacht!
dildo4u
2004-07-29, 19:54:08
Original geschrieben von perforierer
Heillige Scheisse, was für eine Power..in 1600x1200 mit allem an! Soo krass:
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfMThfMV9sLmdpZg==
P.S.
Ich finde diesem Guide wirklich absolut klasse. Was für ein A>ufwand, aber echt cool gemacht! nö da fehlt noch 4XAA
perforierer
2004-07-29, 19:59:17
Original geschrieben von dildo4u
nö da fehlt noch 4XAA
Stümmt! :peitsch:
Naja..dennoch beeindruckend.
Ach ja... mit 4xAA:
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfMTZfMV9sLmdpZg==
dildo4u
2004-07-29, 20:00:53
Original geschrieben von perforierer
Stümmt! :peitsch:
Naja..dennoch beeindruckend.
Ach ja... mit 4xAA:
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfMTZfMV9sLmdpZg== naja 18fps min schon dürftig aber NV will ja auch noch karten mit 512MB verkaufen *eg*
Irre ich oder sieht hier der Kopf etwas runder aus bei Ultra Details?
http://www2.hardocp.com/image.html?image=MTA5MDc4NzE0M1RPNjJBTU9FV1hfM18xMl9sLmpwZw==
tombman
2004-07-29, 20:07:23
Ich hab Kyle mal ne email geschrieben welche Treiber und control panel settings er genommen hat ;)
Mal sehen ob er antwortet :D
knallebumm
2004-07-29, 20:07:36
http://www2.hardocp.com/article.html?art=NjQ0LDE5
gf6800ultra 1600*1200 4aa 8af ULTRA HIGH :) auf fx53
anscheinend gehts doch irgendwie. (hab jetzt nicht alles gelesen)
tombman
2004-07-29, 20:10:46
Original geschrieben von handyman
http://www2.hardocp.com/article.html?art=NjQ0LDE5
gf6800ultra 1600*1200 4aa 8af ULTRA HIGH :) auf fx53
anscheinend gehts doch irgendwie. (hab jetzt nicht alles gelesen)
Na klar gehts, gibt ja AGP Texturing...
Einfach 256mb oder bei wems geht 512mb aperture size im Bios einstellen, >= 1gb main ram haben und schon geht des... kann aber zu Rucklern kommen sobald zuviele Texturen gleichzeitig nachgeladen werden.
LovesuckZ
2004-07-29, 20:13:03
Original geschrieben von tombman
2.) der Sprung von der schwächsten cpu (p4 3ghz) auf die schnellste cpu (fx53) bringt bei ATI fps Verlust, bei Nvidia hingeben den superjump von 0xAA auf 4xAA ---> WTF??
Aufgrund der Messmethode kommt es so solchen Ergebnissen.
Wer es nicht mitbekommen hat:
Hardocp macht Walkthroughts. Ausserdem verwenden sie bei den Systemen nicht imemr die selben Settings!
4.) keine Angabe welche settings in den jeweiligen control panels eingestellt waren - zumindest hab ich nix gefunden.
Default, wie beim ersten Test.
6.) keine apples-to-apples benchmarks mit AA.
Tja, ATi karten waeren dafuer zulangsam, schreibt Hardocp.
Aber ja, diese Art von bevormundung ist schrecklich, wenn die entscheiden koennten, welche Einstellung die beste fuer den Leser waere...
7.) keine 16xAF benchmarks.
Oh, warum so wichtig?
tombman
2004-07-29, 20:31:23
Original geschrieben von LovesuckZ
Aufgrund der Messmethode kommt es so solchen Ergebnissen.
Wer es nicht mitbekommen hat:
Hardocp macht Walkthroughts. Ausserdem verwenden sie bei den Systemen nicht imemr die selben Settings!
Default, wie beim ersten Test.
Tja, ATi karten waeren dafuer zulangsam, schreibt Hardocp.
Aber ja, diese Art von bevormundung ist schrecklich, wenn die entscheiden koennten, welche Einstellung die beste fuer den Leser waere...
Oh, warum so wichtig?
Zu langsam für einen benchmark ist man erst wenn der benchmark nicht mehr startet ;)
16xAF ist für mich wichtig, denn ich fahr entweder 16x oder gar nix.
Naja, Kyle hat schon einmal geantwortet, aber ich bohr´ da noch nach ;)
Demirug
2004-07-29, 20:37:17
Original geschrieben von tombman
Zu langsam für einen benchmark ist man erst wenn der benchmark nicht mehr startet ;)
16xAF ist für mich wichtig, denn ich fahr entweder 16x oder gar nix.
Naja, Kyle hat schon einmal geantwortet, aber ich bohr´ da noch nach ;)
Es gab ja diese Editorial von [H] in dem sie angekündigt haben das sie keine Benchmarks mehr machen werden sondern Spielbarkeit untersuchen wollen.
Dabei kommt dann halt sowas raus.
tombman
2004-07-29, 20:39:44
OK, hier das email log :
___________________________________________________
___________________________________________________
yes, you are right and all those settings were left and DEFAULT and the IQ
was varied inside the D3 control panel as noted in the article.
_____________________________
Kyle Bennett
Editor-in-Chief @ HardOCP.com
Owner @ Ratpadz.com
_____________________________
-----Original Message-----
From: tombman [mailto:tombman@XXXXXXXXX]
Sent: Thursday, July 29, 2004 1:29 PM
To: Kyle Bennett
Subject: Re: The Official DOOM 3 [H]ardware Guide - settings?
Ok, but there are much more settings than just application preference for
AA/AF.
Nvidia:
high perf./ perf./, quality / high quality?
aniso. and/or trilinear optimisations ON on OFF?
Ati:
mipmip detail level and/or texture preference
high perf. /perf. /quality /high quality ?
Thanks for clearing this up for me ;)
Anton
________________________________________________
----- Original Message -----
From: "Kyle Bennett" <kyle@hardocp.com>
To: "tombman" <tombman@XXXXXXXXXX>
Sent: Thursday, July 29, 2004 8:18 PM
Subject: RE: The Official DOOM 3 [H]ardware Guide - settings?
> For our DOOM 3 experience we found it best to leave our driver control
panel
> set at "Application Preference" allowing DOOM 3 to control visual aspects.
> DOOM 3 has a built in antialiasing control in the Advanced menu for
> selecting the level of antialiasing. Note that the High Quality setting
> automatically enables 8X anisotropic filtering, as we explain below.
>
> 8.05/61.76
>
> _____________________________
> Kyle Bennett
> Editor-in-Chief @ HardOCP.com
> Owner @ Ratpadz.com
> _____________________________
>
> -----Original Message-----
> From: tombman [mailto:tombman@XXXXXXXXXXXX]
> Sent: Thursday, July 29, 2004 12:45 PM
> To: kyle@hardocp.com
> Subject: The Official DOOM 3 [H]ardware Guide - settings?
>
>
> Hi,
>
> Could you please tell me which settings you used in the driver´s control
> panels
> for the x800xtpe and 6800ultra oc?
> And which drivers did you use anyway? (cat 8.05 and fw 61.76 ? )
>
> regards
>
> Anton
________________________________________________-
_________________________________________________
tombman
2004-07-29, 20:43:45
Tjo, jetzt muß mir nur noch wer sagen, welche settings bei ATI und Nvidia default sind... des weiß i ja ned auswendig :D
perforierer
2004-07-29, 20:44:58
Original geschrieben von dildo4u
naja 18fps min schon dürftig aber NV will ja auch noch karten mit 512MB verkaufen *eg*
Wobei es Framedrops immer mal geben kann...find ich erträglich, wenn die average fps passen...
Original geschrieben von tombman
Tjo, jetzt muß mir nur noch wer sagen, welche settings bei ATI und Nvidia default sind... des weiß i ja ned auswendig :D
Default bei Nvidia ist Quality
dildo4u
2004-07-29, 20:49:05
Original geschrieben von perforierer
Wobei es Framedrops immer mal geben kann...find ich erträglich, wenn die average fps passen... kommt drauf an wie oft die framedrops vorkommen kann schon ganz schön nerven
Original geschrieben von Gast
Default bei Nvidia ist Quality
Anisotropic Filtering Opt. off
Trilinear on
FSAA und AF appl. force
= Quality
tombman
2004-07-29, 20:49:49
del.
Original geschrieben von tombman
del.
Was schließt du daraus? Wie siehts bei Ati aus?
Showtime
2004-07-29, 21:06:57
Oh Gott... Mein Lieblingsgrafikkartenhersteller schneidet 5% schlechter als die Konkurrenz ab! Was mach ich denn jetzt... Ach, ich weiß! Ich versuche einfach eine Erklärung für das soooo schlechte Ergebnis meiner Karte rauszufinden, indem ich die unbedeutensten Nebensächlichkeiten schön allen darlege und breit trete. Kann ja nicht sein, dass die andere Karte bei gleichen Settings 6fps schneller ist! SKANDAL! Und jetzt auch noch Werbung für ein Onlineversandhaus zwischen den Benchmarks. Klarer Fall, die Werte sind alle nicht echt, meine lieben roten Kanadier bleiben für immer die Besten! ATi forever!
So... Mal wieder ganz klar gewonnen, ATi kann halt nix. Ist zwar nur ein System- und kein Grafikkartenvergleich, aber das wird schön ausgeschlachtet bis jeder weiß, dass nVidia einfach geiler ist. Im Test waren zwar alle Karten übertaktet, aber da halte ich einfach mit irgendwelchen gar nicht zur Sachlage passenden Argumenten dagegen, bis allen die Lust vergeht mit mir zu diskutieren. Jetzt verbreite ich noch ein bisschen Mundpropaganda über alles, was die nVidia Karten so drauf haben, dann geh ich ins Bett und träum von meiner 6800Ultra Extreme Advanced mit 512MB, die ich natürlich schon vorbestellt habe.
Ihr müsstet euch echt mal selbst zuhören können. Am Anfang fand ich das Fanboy Gelaber ja noch ganz amüsant, aber mittlerweile ist es echt nur noch traurig und nervt. Es geht um Grafikkartenhersteller, sonst nichts.
Zum Thema: Ich find es gut, dass es selbst auf teilweise 3 Jahre alter Technik noch so gut aussieht und dabei noch spielbar bleibt. Hat id mal wieder gut gemacht :)
k0nan
2004-07-29, 21:11:19
1 million percent agree @ showtime!
endlich mal einer, der's auf'n punkt bringt: hier verhalten sich 80% der user wie kleine kinder, die auf'n eis von mami warten!
radioactiveman24
2004-07-29, 21:39:08
:lolaway:
showtime, das war echt gut!triffts genau auf den Punkt.
perforierer
2004-07-30, 11:56:19
Jupp, leider sehr treffend! :)
Fatality
2004-08-01, 13:51:18
und tombman unterstützt das mit seiner signatur :D
es ist bekannt das 3Dcenter ein fanboylager ist es fehlt nur noch die rüpelhaftigkeit wie in den heise-foren *g*
Showtime
2004-08-01, 14:59:10
Aber wieso ist es so ein "Fanboy-Forum"? Die Leute hier sind doch nicht doof, und das durchschnittliche Alter schätze ich auf jeden Fall auf >18 ein. Sollte man da nicht reif genug sein, normal diskutieren zu können? ;)
Skusi
2004-08-01, 15:19:07
Tja, das Alter steht nicht unbedingt im Zusammenhang mit Erwachsen sein.
Und als ich noch jung war, da gab es schon den Krieg zwischen
C64 und Sinclair Spectrum oder später zwischen Amiga und Atari ST. Manche Leute fallen halt extrem gut auf Marketingmaschen herein,würde mich nicht wundern, wenn hin und wieder Nvidia oder Ati Mitarbeiter Fanboyposts verfassen.
perforierer
2004-08-01, 15:26:47
Stimmt..Amiga und ST war damals auch so ne strange Konkurrenz-Kiste...
Skusi
2004-08-01, 15:33:30
Und aus heutiger Sicht muss man sagen,daß beides geile Kisten waren.(für ihre Zeit)
perforierer
2004-08-01, 16:01:06
Aber hallo! Das kannste laut sagen.
Madkiller
2004-08-01, 16:05:32
Werdet bitte wieder OnTopic.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.