Archiv verlassen und diese Seite im Standarddesign anzeigen : ATi-User zum NV40 (Meinungen)
-=w@rgoyle=-
2004-04-14, 17:33:25
Tach auch!
Beinahe das falsche Forum mit dem richtigen Thread ... Habe gerade das Review vom THG (hier (http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-48.html) das Fazit) zum NV40 gelesen - leider ist der Review auf 3dcenter ja immer noch offline :( - und das hat mir ja beinahe die Schuhe ausgezogen :o !!!!
(Scheinbar) Eine echt krasse Karte dieser NV40 - mit all den Eckdaten und DER LEISTUNG & QUALITÄT!!! Und das in dem Stadium der Treiber-Entwicklung ... :respekt: Das scheint ja ein Quantensprung in der Technik zu sein (nur noch beschissene Shader-Quali) ... kommt einem die R3xx Serie von ATi und der NV3x wie aus dem letzten Jahrzehnt vor ;)
Hoffe mal, dass ATi der ganzen Sache mit dem R420 was entgegenzusetzen hat!
/edit Aber Lieferprobleme hat nVidia wohl mal wieder (bei Computerbase was von "erste Karten im Juni/Juli beim Endkunden" gelesen) da sollte ATi schneller sein!
eXistence
2004-04-14, 17:44:24
Der NV40 hält ungefähr das, was ich mir von einem Generationssprung erwarte (also nicht nur nen refresh), perfomance-mäßig steckt er die "alte" Generation natürlich in den Schatten, bietet viele neue features (die vorerst ungenutzt bleiben), ist aber auch nicht perfekt.
Wie gut der NV40 innerhalb seiner Generation ist, lässt sich erst mit dem R420 (XT?) sagen. Ich muss aber gestehen, dass ATI es wohl schwer haben wird, da vieles darauf hindeutet, dass der R420 nicht viel mehr als ein weiterer R300-Aufguss wird.
Über neue features des R420 ist so gut wie nichts bekannt, ich befürchte die einzige Möglichkeit für ATI gegenüber nV zu punkten besteht im Preis und in reiner Rohpower...
Wir werden sehen...
Akira 14
2004-04-14, 17:46:16
Naja ich warte erstmal ab,die preise für die 9800 XT/pro werden warscheihlich weiter fallen oder?
Ausserdem soll das ein 480 Watt netzteil brauchen und 499 € kosten.Hier gibts noch genaueres http://www.de.tomshardware.com/graphic/20040414/index.html
Ich hoff mal das ATI ne noch besser grafikkarte rausbringt sonst bin ich ganz traurig :-(
Original geschrieben von -=w@rgoyle=-
Beinahe das falsche Forum mit dem richtigen Thread ... Habe gerade das Review vom THG (hier (http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-48.html) das Fazit) zum NV40 gelesen - leider ist der Review auf 3dcenter ja immer noch offline :( - und das hat mir ja beinahe die Schuhe ausgezogen :o !!!!
eigentlich nicht
review (http://www.3dcenter.org/artikel/nv40_benchmarks/)
technik (http://www.3dcenter.org/artikel/nv40_technik/)
aber heftige rohpower hat das gerät auf jeden fall. und endlich mal ordentliches 4xAA
-=w@rgoyle=-
2004-04-14, 17:55:19
Meine Meinung! Habe auch ein wenig "Angst", dass der R420 wieder nur ein b-e-s-s-e-r-e-r R3xx Aufguss wird ... Hoffentlich mit genügend Power!
Und zum Generationswechsel: So überzeugend kam mir sehr lange keine Ablösung der alten GraKa-Generation mehr vor (G2->G3, G3->G4, G4->G5 *lol* - um nur mal bei nVidia zu bleiben).
der sprung ist schon gewaltig. die karte macht (bis auf 6xAA/8xSSAA, oder welcher mixed-mode auch immer, in hohen auflösungen) so ziemlich alles nass!
aber so übel war der sprung beim transistor count ja auch noch nie. 222 mio! der wahnsinn.
(ausser nv25: 63? mio -> nv30: 125 mio, nur diesmal scheint die architektur deutlich leistungsfähiger zu sein.)
9800ProZwerg
2004-04-14, 18:25:22
Boah! ich muss ehrlich gestehen das mich die Performance umhaut! Der Vorsprung ist ja gewaltig!
Mich persönlich interessiert aber vorallem die Leistung der 6800(Non-Ultra)!
Die soll ja schon für 350Euro zu haben sein! Mal sehen wie die performt! Bin gespannt!
Ich hoffe ATI legt nach!
Jo, die ist ja echt nen Ganz schönen Hammer, von der leistung her gesehem, da hat nvidia was gutes rausgebracht. :respekt: muss ich da mal sagen.
Jedoch hat die Karte doch einen sehr großen nachteil, sie scheint ja strom ohne ende zu fressen. Ich will mir doch kein 480W NT extra für die Graka kaufen.
Und gut abwärme scheint di ja auch zu produzieren. Auf den ersten Bildern, die ich gesehen hab, haben die nen ganz schön dicken Kühler drauf.
Auch wenn das keiner von den Jungs hier sieht, möchte ich nVidia hier mal gratulieren. Gut gemacht, endlich wieder ein Chip, der vom Vorsprung her an die nahe Vergangenheit erinnert (GF2 => GF3)! Ich hoffe schon fast, dass ATi nicht dagegen ankommt, denn abwechselndes "Kicken" des jeweils anderen Großen hilft gegen Monopolbildung. ;)
Also: :up: nVidia!
Der R420 wird sicher auch tierisch schnell, aber das muss erst mal überboten werden. Mit dem R500 wird dann hoffentlich wieder nVidia überholt und alles ist gut. ;)
MfG,
Raff
Becks
2004-04-14, 18:55:54
ALso ich hätte mir ehrlichgesagt mehr erwartet. 10fps bei Far Cry ist ja gut und schön, aber einen richtigen Generationswechsel ist das in meinen augen nicht!;(
z.B. GF4 ti4200 @GF FX5900U
... das wäre in meinen augen ein richtiger generationswechsel. auch wenn ich jetzt der erste hier bin der "enttäuscht" ist, hoffe ich immer noch auf den R420;).
Ghost666Ghost
2004-04-14, 19:02:43
Original geschrieben von Beckham
ALso ich hätte mir ehrlichgesagt mehr erwartet. 10fps bei Far Cry ist ja gut und schön, aber einen richtigen Generationswechsel ist das in meinen augen nicht!;(
z.B. GF4 ti4200 @GF FX5900U
... das wäre in meinen augen ein richtiger generationswechsel. auch wenn ich jetzt der erste hier bin der "enttäuscht" ist, hoffe ich immer noch auf den R420;).
Full ACK @ Beckham...Mag sein, dass das Ding von der Technik her Revolutionär ist...Aber auch wenn ich von der Technik die da drinn werkelt jetzt net sooo den Plan habe, finde ich die Game Benchmarks im Vergleich zu den R9800XT Karten einfach nur schwach...Teilweise sind die 9800XT Karten ja schneller...oder liegt das allein am SS AA? Ich weis es nicht, aber jedenfalls bin ich bis jetzt ziemlich enttäuscht...Warten wir neue Treiber ab :)
Original geschrieben von Ghost666Ghost
Full ACK @ Beckham...Mag sein, dass das Ding von der Technik her Revolutionär ist...Aber auch wenn ich von der Technik die da drinn werkelt jetzt net sooo den Plan habe, finde ich die Game Benchmarks im Vergleich zu den R9800XT Karten einfach nur schwach...Teilweise sind die 9800XT Karten ja schneller...oder liegt das allein am SS AA? Ich weis es nicht, aber jedenfalls bin ich bis jetzt ziemlich enttäuscht...Warten wir neue Treiber ab :)
Liegt definitiv am (SS)AA. Die 6800U dreht bei 4xAA (RG-MSAA) und dicken Auflösungen pervers auf im Vergleich zur 9800XT. Da kommt man sich mit ner übertakteten 9800 Pro so unbedeutend langsam vor. ;)
MfG,
Raff
StefanV
2004-04-14, 19:29:09
erstmal meine ich garnichts zum nV40, nicht bevor der R420 erschienen ist, denn erst dann wissen wir, wie gut/schlecht der nV40 wirklich ist...
Allerdings ist der nV40 in einigen Bereichen äußerst enttäuschend (AF + FSAA)...
Hartogh
2004-04-14, 21:31:05
alle Reden hier von bahnbrechend... war der leistungssprung von r200 auf r300 (8500 ->9700pro) vor knapp 2 Jahren nicht genauso gewaltig ? Der hat damals mit 4AA + AF auch alles in Grund und boden gerechnet ;)
trotzdem rockt der NV40 :up:
...und die Jungs die die Farcry performance enttäuschend finden sollten sich mal benches von einem A64/P4EE + NV40 anschauen...
lyzerak
2004-04-14, 21:46:08
Ich freue mich nur wenns bei Giga.de heisst:
Heute Abend Folgendes Thema:
R420 vs NV40 *eg*
Ich hoffe die ATI Karte wird besser!)
MFG
Enis
winter
2004-04-14, 21:54:14
Die Jungs, die von den FarCry Ergebnissen entäuscht sind, sollten auch einkalkulieren, dass die Versionsnummer der FarCry Retail IMMERNOCH NIEDRIGER ist als die der 1. DEMO. Sowohl der NVidia als auch der ATI-Compiler sind viel älter (Die cgD3D9.dll ist sogar erschreckenderweise noch von 2002), was dieses Spiel praktisch als Benchmark disqualifiziert. Die Demo ist auf neuerem Stand und sollte als Benchmark verwendet werden.
PS: Jaaah, ich darf hier antworten, ich habe eine RageII+DVD :freak: und wäre immerhin fast 9800Pro Besitzer geworden (die Möglichkeit ist immernoch da ;))
Doomtrain
2004-04-14, 21:59:28
Was macht ihr euch denn alle solche Sorgen? Der X800Pro wird von der Leistung her locker mithalten können.... und wenn nicht dann halt die X800XT ;)
Und wenn es sowieso noch 2 oder 3 Monate dauert bis man das Teilchen kaufen kann sag ich mal: Ruhig Leute, bis dahin ists noch weit...
Der Nv stinkt so hässlich und ist auch hässlich und ich hass dieses fuck Teil!! DAS KANN MIR ECHT GESTOHLEN BLEIBEN!
So ne scheisse! Aber wirklich! Pfui Teibel mir reichts ich mach diese elendigliche Scheisse nicht mehr mit. Ich hab ja gewusst, das er scheisse ist, aber das es so schlimm wird. Naja, gottseidank hab ich das Teil nicht im Rechnersonst wär ich schon vor lauter kotzen verreckt :madman:
ForbiddenSkill
2004-04-14, 22:13:14
Wenn NVidia verreckt, dann haben wir ATI-User auch ein Problem. Nähmlich ein Grafikkarten-Monopol, das heisst ATI kann die Preise hochschrauben wie er ( ? ) will und wir müssen das Zeigs kaufen, da keine andere Alternative..
Ich hoffe mal das Nvidia und Ati etwa gleich schnell bleiben und keiner von denen untergeht =)
BK-Morpheus
2004-04-14, 22:13:18
nur der Stromverbrauch stört mich schon derbe.
OK, die neue ATI wird sicher auch nicht sparsam sein, aber ich überlege mir echt, ob ich irgendwann einfach nicht mehr die neuen Grakas kaufe und somit nicht mehr die neusten hardwarefressenden Games mitzocken kann......denn wenn ich mal in eine eigene Wohnung ziehe (oder am Jahres ende mein Mudda Geld geben darf wegen Stromrechnung) und dann jedes jahr 700€ nur für den Stromverbrauch meines Rechners zahlen darf, dann hört der Spaß echt auf.
Mal sehen, ob irgendwann (wenn die Rechner ein eigenes Atomkraftwerk brauchen *g*) mal eine neue Grafikkartenserie auf den Markt kommt, dessen Technologische Revolution eher ein sehr geringer Stromverbrauch ist, als nur Grafikperformance um jeden Preis :(
Doomtrain
2004-04-14, 22:26:46
Original geschrieben von BK-Morpheus
Mal sehen, ob irgendwann (wenn die Rechner ein eigenes Atomkraftwerk brauchen *g*) mal eine neue Grafikkartenserie auf den Markt kommt, dessen Technologische Revolution eher ein sehr geringer Stromverbrauch ist, als nur Grafikperformance um jeden Preis :(
Früher oder später muß das wohl mal geschehen...
Ne mal im Ernst, so kann es ja nicht weitergehen. Jetzt 120Watt, dann ganz schnell 200+, warum schafft S3 es denn mit dem seinem Chip so wenig zu verbrauchen und NV nicht?
vermutlich wird der r420 aber mit einem transistorcount von ~180 mio ein ähnlicher stromfresser werden. :(
ausserdem scheint die pci-express variante mit einem stromanschluss auszukommen. der alte agp liefert wohl bei weitem nicht genug saft.
der pci-express nachfolger tritt gleich mit eigenem netzteil an. die ctx spezifikationen werden also ein wenig großzügiger ausfallen...
Zoggy
2004-04-14, 22:41:55
Also nochmal abwarten !
1) bis Doom 3 rauskommt (um sicher zu sein)
2) die X800 Pro und X800 XT
Für einen Upgrade konsumiert die 6800 zuviel Ström, ich gehe davon aus das die bessere Offerte die X800 Pro (8 pipelines) sein wird.
Für einen funkelnagelneuen PC wirkt die 6800 Ultra schon ganz beindruckend ! Die 12 pipelines des X800 XT werden es sehr schwer haben : ganz oben ist nVidia sicher wieder da...
X800 PRO : 12 pipes, 256 bit si
X800 XT : 16 pipes, 256 bit si
X800 SE : 8 pipes, 128 bit si
Duran05
2004-04-14, 23:30:59
Die Karte ist ein echter Sprung nach vorne!
Zumindest was die Performance angeht... AA sowie AF dürften von nun an auch bei sehr höhen Auflösungen wie z.B. 1600x1200 überall nutzbar sein.
Das ist doch schonmal erfreulich... die Grafik-Qualität wird besser!
25% mehr Strom im Vergleich zum Vorgänger sind auch noch akzeptabel... wenn man bedenkt, das die Karte 100-300% schneller ist als alle bisherigen Grafikkarten!
Jetzt müssen wir nur noch auf ATI warten... ob die da noch eins drauf setzen?
Wann gibts eigentlich neue Monitore? Höhere Auflösungen als 2048x1536 wären sicherlich nicht schlecht ;)
EL_Mariachi
2004-04-14, 23:47:46
bin beeindruckt vom NV40 ... sehr sogar.
nur blöd, dass ich mit meinem 460 Watt Netzteil nicht zur Zielgruppe gehöre ;)
naja mal abwarten wann die ersten Reviews der neuen ATI Karten erscheinen ...
-=w@rgoyle=-
2004-04-15, 00:08:46
Jepp, da muss ich mal wieder zustimmen, was den StromBedarf eines High-End-PCs zur jetzigen Zeit betrifft: viel zu viel und immer weiter steigend. Naja, Leistung hat halt Ihren Preis ... aber alternative Techniken wärens sicherlich net verkehrt ... andererseits: wartet n halbes oder Jahr, dann gibbs die gleiche Performance bei nur halben Strombedarf (siehe Mobile-Technologie) ... also vielleicht sollten wir nur halb so laut schreien ;)
ATi wird sicherlich wirklich net weniger StromHunger haben und ob sie die Leistung eines NV40 in den Schatten zu stellen wissen?! Wir werden es ja Ende April sehen *freu*
Und zum Thema FarCry ... Performance-Unterschiede auf verschiedenen PCs (CPU), schaut Ihr mal hier (http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-41.html) ff. oder hier (http://www.anandtech.com/video/showdoc.html?i=2023&p=17) - schon sieht die Welt wieder anders aus. Net nur 10fps, ganze Welten fps ;) ... aber leider bei schlechterer BildQuali (noch ...)
Gast 185
2004-04-15, 00:20:51
Ein tolles Stück Hardware, das muss man sicher anerkennen.
Dem Markt (und somit uns Endverbrauchern) zuliebe hoffe ich natürlich, dass die neuen Ati Karten da Paroli bieten werden.
Was mir aber wirklich zu denken gibt, ist der Stromverbrauch. Wobei auch die neuen ATI's diesbezüglich kaum eine Offenbarung werden dürften.
Würde die Autoindustrie genau so verfahren wie die Hardwareentwickler, säufe heute wohl jeder Kleinwagen im Schnitt 18 Liter auf 100Km.
Ich sehe am Horizont schon die ersten 1kWh Netzteile auf uns zukommen...
Metalmaniac
2004-04-15, 00:22:38
Original geschrieben von theSpy
Die Karte ist ein echter Sprung nach vorne!
Zumindest was die Performance angeht... AA sowie AF dürften von nun an auch bei sehr höhen Auflösungen wie z.B. 1600x1200 überall nutzbar sein.
Das ist doch schonmal erfreulich... die Grafik-Qualität wird besser!
25% mehr Strom im Vergleich zum Vorgänger sind auch noch akzeptabel... wenn man bedenkt, das die Karte 100-300% schneller ist als alle bisherigen Grafikkarten!
Jetzt müssen wir nur noch auf ATI warten... ob die da noch eins drauf setzen?
Bei wieviel Benches hast Du denn 100-300% Vorsprung entdeckt? Und bei 8xAA (vergleichbar mit ATI's 6x) gewinnt sogar die 9800XT zumeist, auch bei hohen Auflösungen.
Allerdings hat nVidia jetzt massive Vorteile beim 3dMark2003 herausgekitzelt. Jetzt cheaten sie diesen Benchmark nicht mehr per Software (Treiber), sondern haben als sinnvollstes Feature beim NV40 Hardware-Cheating entwickelt....;D (Ironie aus)
Nein, mal ernsthaft.nVidia hat aus Fehlern der Vergangenheit gelernt und endlich wieder zugeschlagen. Wie gut wird sich aber erst zeigen wenn, wie hier schon oft erwähnt wurde, der ATI Gegenspieler erscheint womit es Vergleiche auf Augenhöhe geben wird. Alles andere ist spekulativ. Und ich hoffe es wird bald sein, denn die nVidia-Fanboys gehen mir sowas von "Auf die Eier" mit ihrem Gehabe, was mich umso mehr aufregt, weil eben noch kein regulärer Vergleich zu haben ist und die Ausreden und das Gejammere später u.U. dann wieder umso größer sein könnten, wie beim letzten Mal. Deshalb hoffe ich auf einen relativen Gleichstand und man geht hier und anderswo wieder gesitteter miteinander um.
Carlo28
2004-04-15, 00:37:29
Werde definitiv wieder das "Lager" wechseln und mir dieses Geschoß leisten.
Die Rohpower ist schon beeindruckend und wenn man sieht das die Karte schon jetzt mit Alpha Treibern so gut abgeht...
Lediglich die Bildfehler bei FarCry stoßen mir etwas auf.
Ich hoffe das wird noch behoben.
MfG
zeckensack
2004-04-15, 00:52:57
Geiles Teil. Alle verfügbaren Daumen nach oben X-D
*aufmainstreamnv40mit4pipesodersowart*
Es gibt IMO wirklich keine erkennbaren Schwächen in der Architektur mehr, im Vergleich zu R3xx. Wo man man bei NV3x noch schwer überlegen musste, scheint hier wirklich alles zu stimmen und zusammenzupassen.
Steel
2004-04-15, 01:19:44
Kaffeesatzanalyse:
Mir isses piepegal ob die NV oder AIT Karte schlussendlich schneller sein wird.
Der "Worst Case" wäre wenn die ATI die NV so krass bash0rt, wie damals die 9700 die GF4600.
Das würde NV vermutlich nicht so leicht verkraften oder irgendwie kontern können - der nächste ATI Chip kommt dann vielleicht auch bald... (so bald wie nötig *eg*)
ATI hatte laaaaange Zeit um für den Schlag auszuholen...!!!
Und sowohl der R200 als auch der R300 waren sehr ausgefuchste Entwicklungen, daher glaube ich nicht, dass die jetzt auf einmal schlampen.
Ich bin mir ziemlich sicher, dass ATI die NV40 sehr deutlich übertreffen wird.
Besser für uns alle wäre es, wenn dem nicht so wäre.
hmm... mal sehen, der r420 wird nicht vom artx team entwickelt, die sind erst mit dem r500 wieder dran.
meint ihr, man kann die zeit bis dahin mit ner 9800np überbrücken?
oder lieber gleich auf nv40/r420 umsteigen?
in den fingern juckt's mich ja schon... *gerne500€zuvielhätt*
StefanV
2004-04-15, 01:31:14
Original geschrieben von ForbiddenSkill
Wenn NVidia verreckt, dann haben wir ATI-User auch ein Problem. Nähmlich ein Grafikkarten-Monopol, das heisst ATI kann die Preise hochschrauben wie er ( ? ) will und wir müssen das Zeigs kaufen, da keine andere Alternative..
Ich hoffe mal das Nvidia und Ati etwa gleich schnell bleiben und keiner von denen untergeht =)
Nicht wirklich ;)
In der Geschichte der GraKas gabs zwar schon ein paar nahezu Monopolisten, die sind aber früher oder später alle 'gefallen' und wurden (teilweise zeitweilig) durch andere ersetzt.
Wenn nV untergehen würde, dann würde irgendwer den Platz von nV einnehmen...
betasilie
2004-04-15, 01:41:11
Die 6800Ultra ist ein tolle Karte! Der Preis ist auch spitze für so ein neues HighEnd-Produkt, jedenfalls in den USA. Ich hoffe die Karte wird nicht mehr als 450€ kosten, alles andere wäre beim derzeitigen Eurokurs ein grobe Unverschämtheit.
Die Leistung haut mich zwar nicht völlig um, aber auf der anderen Seite hat sie meine Erwartungen erreicht, auch wenn nur knapp.
Richtig ärgerlich ist, dass NV nun keinen Vorteil beim AF mehr bietet, was für mich ganz klar ein Kaufargument weniger bedeutet, wenn ich micht zwischen R420 und NV40 entscheiden muss.
Außerdem stört es mich, dass NV keine Konkurrenz zu ATIs 6*AA bietet. Klar, für Leute deren Monitore 1600*1200 ergonomisch darstellen können, ist das ziemlich unwichtig, aber es gibt halt auch ne Menge Leute, deren Monitore maximal 1280*1024 oder weniger darstellen können, und da wäre ein guter AA-Mode jenseits des 4*AA nicht unwichtig.
Ansonsten Hut ab und mal schauen, ob ATI das toppen kann. Ich denke in Sachen Performance wird ATI da sicherlich noch ein Wörtchen mitzureden haben.
TurricanM3
2004-04-15, 02:22:37
Super Karte, muss ich echt sagen!
Da werden Auflösungen von 1600x1200 ja endlich spielbar und dann teilweise noch mit 4xAA - wer brauch da bitte noch 8x oder 6x AA bei 1280er Auflösungen wenn auch 1600er möglich sind und schneller laufen als 1280er mit 8xAA?
Die 480W sind worst case, also wenn der Rechner sonst vollgeplanzt ist mit Festplatten, Laufwerken, Lüftern und einem Prescott - im Normalfall reicht wahrscheinlich ein ordentliches 350er NT.
Übrigens:
Mir ist es schei*egal ob NVidia mit dem NV40 oder ATI mit dem R420 vorne liegt, was schneller ist kaufe ich mir und viele andere da NUR das zählt - hört doch auf mit den dämlichen "Oh nein, hoffentlich packt das der R420" Sätzen, ehrlich.
-error-
2004-04-15, 02:50:22
Also mal sollte die Karte noch nicht in den Himmel loben, das kann meinetwegen dann machen, wenn die X800XT vorgestellt wird.
Allerdings muss man sagen, das die Treiber erstmal richtig optimiert werden müssen, ATI konnte ab den Cat 3.0 nochmal richtig viel Geschwindigkeit zulegen.
Das mit dem Stromverbrauch ist Quark. Die N40 verbrät weniger Watt im 2D-Modus (IDLE) als die 9800XT, ungefähr 30 Watt mehr bei Vollast, was verkraftbar ist.
Soweit ich es verstanden habe, hat 3DC die Karte mit einem 350W-Netzteil stabil betreiben können, sogar OC war noch drin.
Ich kann diese ganze Panikmacherei garnicht nachvollziehen. Hochwertige Netzteile sind bei HighEnd-Systemem sowieso Pflicht.
Laut Chip soll die 6800U aber satte 56db(A) laut gewesen sein. Das lässt darauf schließen, dass Nvidia die 6800U an der Grenze betreibt.
ATI strebt wohl eher eine Evolution an, ein stark optimierter R360-Chip mit bis zu 16Pipes in 0.13µ gefertigt mit bis zu 180mio Transistoren und für höhrere Taktraten ausgelegt. Der R420 soll ja bei eine extrem gute PS.2.0-Performance bieten, da man auf PS3-Support gedrost verzichtet hat.
500mhz sind ohne weiteres drin. Zum Beispiel konnte man die GPU der 9600XT problemlos auf 600mhz takten, das zeigt deutlich wieviel Potenzial im Chip steckt.
Am meinsten wünsche ich mir von ATI ein besseres AF, das nicht so winkelabhängig ist.
Dicker-Gast
2004-04-15, 03:08:04
Obacht !
Bei einigen Mainboard-Konstellationen verhindert die 6800U zwei (2) PCI Slots, da sich im 2ten PCI-Slot nix befinden darf um den Lüfter nicht zu verschließen.
Haben nur wenige Reviews bemerkt ...
Als pre-6800U Besitzer empfehle ich gleich auf WaKüh umzustellen.
Unknown
2004-04-15, 04:24:21
Der NV40 ist nett...
Allerdings habe ich Informationen über den R420, die bislang sehr rar gesät bis gar nicht vorhanden sind.
Hat sich einer von euch mal gefragt warum das so ist?
Ich darf euch eines verraten, die Performance des R420 ist der Performance des NV40 nicht nur ebenbürtig, sondern überlegen.
Noch eines, Der R420 wird kein Aufguss des R3xx Chips sein.
Der R420 wird eine riesen Überraschung für einige werden.
Und der Mund wird wohl bei einigen Redakteuren die den R420 testen, noch lange offen bleiben...
Hab mal die 9700pro aus meinem Rechner verbannt und dafür eine olle GF 4600 eingebaut, um mich so langsam wieder auf nV einzustellen. :D
Bei Verfügbarkeit (im Juni hab ich Geburtstag) werde ich mir so ein Hammerteil (zumindest das Geld dafür) von der Familie/Verwandtschaft/Freunden schenken lassen.
Selbst wenn ATI mit ihrem R420 eine schnellere Karte auf den Markt wirft, nehme ich diesmal ein nV-Produkt.
MechWOLLIer
2004-04-15, 09:32:42
Ich finde, dass NV mit dem NV40 zum ersten mal seit langem wieder eine tolle Karte gebaut hat. Anversich gibts da nichts anzukreiden, nur das man jetzt auch Winkelabhängiges AF benutzt finde ich sehr schade. Mal abwarten wie jetzt der R420 wird, eine der beiden Karten wird meins:D
joe kongo
2004-04-15, 09:59:51
Meine Meinung zu NV40:
Qualität:
AF Qualität gesunken auf R3x0 Level (winkelabhängigkeit),
jedoch voll trilinear.
AA Qualität gestiegen, jedoch nicht auf R3x0 Level (kein gamma korrektes AA).
In Summe vieleicht Gleichstand in der Qualität zwischen
einer nagelneuen Karte und einer (sehr) alten Karte.
=> für mich keinerlei Ansporn für NV40 Wechsel punkto Bildqualität.
Leistung:
Teilweise gewaltig bei Spielen welche auf Rx0 Karten
bei vollen Details auch schon flüssig laufen.
Relativ gering bei Spielen (FarCry) wo ich gerne
meine Rx0 Karte schneller gesehen hätte.
=> für mich wenig Ansporn für NV40 Wechsel punkto Geschwindigkeit.
Ansonsten:
Sehr leise Karte, scheint problemlos zu laufen.
In Summe sicher die beste Karte derzeit, aber
die Vorsprünge könnten für ein komplett neues Design
größer sein.
ShadowXX
2004-04-15, 10:30:20
Ich kann mich Joe Kongo eigentlich nur anschliessen:
Die AA quali ist immer noch schlechter als bei ATI...zwar nicht mehr so dramatisch, aber schlechter -> kein Kaufgrund, zumal der r420 dort nicht schlechter als der r360 sein wird.
Bei AF, falls man die Winkelabhängigkeit tatsächlich nicht ausschalten kann, haben Sie jetzt quasi gleichstand mit ATI -> ebenfalls kein Kaufgrund mehr, da hier der r420 wohl auf dem gleichen Level spielen wird.
BQ als Kaufargument scheidet also aus....(und falls es manche bei aths Artikel überlesen haben sollten...nV Filtert auch bei den isotrophen Filtern nicht mehr "Lehrbuchhaft").
Zur Rohperformance:
Es sind genau die Steigerungen, die man sich aus Ausrechnen konnte....das ist wirklich ok und da kann man nicht meckern...allerdings ist es auch nicht "terminierend". -> erst mal r420 abwarten (nicht als Wertung verstehen)
Zum PS2.0 und PS/VS3.0:
Dort hat nV wirklich vorbildlich gearbeitet, die PS2.0 Performance des nv40 muss ATI erstmal einholen, ob Sie diese toppen können, wage ich fast zu bezweifeln.
Über PS3.0 brauch ich wohl nix sagen....auch wenn diese am Anfang wohl nicht/kaum genutzt werden hat nV damit einen grossen Wurf gemacht...allein dadurch, das Sie damit viele Entwickler ins nV-Boot holen...
-> Aber auch gilt...erst mal r420 abwarten
Zum Stromverbrauch....ich glaube da wird ATI nicht viel besser als der nv40 aussehen. -> unentschieden
Zu den Benchmarks:
Hmm....gerade bei den Games die mich interessieren, ist der Vorteil des nv40 nicht so graviered gegenüber einer 9800XT...vielleicht reissen die Treiber dort aber später noch was raus -> Abwarten und gucken was der r420 so stemmt.
Insgesamt gesehen bewerte ich den nv40 aber Positiv, speziell im Vergleich zum nv30...nV konnte diesmal halten, was Sie versprochen haben.
Aber bevor ich den r420 nicht in Aktion "gelesen" habe, kann man nicht wirklich einschätzen, wie gut der nv40 denn wirklich ist....
Ich hoffe ja inständig, dass noch vor dem 25/26 was bei ATI leakt....
cedman
2004-04-15, 10:35:14
der preis der 6800er ist ganz ok, aber wie stehts mit ati? die x800xt soll ja, so glaube ich zumindest einmal gelesen zu haben, so 500-550€ - ich denke jetzt einmal dass dies für die 256mb version gelten wird... was wird dann mit der 512mb variante? soll die dann 700€ kosten oder was? das wäre ja sehr heftig... was meint ihr?
TurricanM3
2004-04-15, 10:35:55
Laut dem Test hier auf 3DC sollen die Karten angenehm leise sein? Verstehe ich nicht.
Die 6800 nonUltra hat ja nur 12 Pipes, schade...
Das erste mal ein Grund die Ultra zu kaufen.
cedman
2004-04-15, 10:50:25
Original geschrieben von TurricanM3
Laut dem Test hier auf 3DC sollen die Karten angenehm leise sein? Verstehe ich nicht.
ja, wenn man das nv-tool installiert regelt die integrierte lüftersteuerung die drehzahl
Metalmaniac
2004-04-15, 11:01:51
Original geschrieben von Unknown
Der NV40 ist nett...
Allerdings habe ich Informationen über den R420, die bislang sehr rar gesät bis gar nicht vorhanden sind.
Hat sich einer von euch mal gefragt warum das so ist?
Ich darf euch eines verraten, die Performance des R420 ist der Performance des NV40 nicht nur ebenbürtig, sondern überlegen.
Noch eines, Der R420 wird kein Aufguss des R3xx Chips sein.
Der R420 wird eine riesen Überraschung für einige werden.
Und der Mund wird wohl bei einigen Redakteuren die den R420 testen, noch lange offen bleiben...
Obwohl ich eigentlich neutral bin im "Kampf" nVidia gegen ATI, hatte selbst schon beides und habe auch in Zukunft nichts gegen Wechsel (such immer das für mich vor allem in Preis/Leistungssicht Beste heraus und dabei vor allem niemals gerade neu erschienenes wg. des überzogenen Preises)hoffe ich langsam, daß Unknown Recht behält. Das großspurige Geflame und Gesülze der nVidia-Fanboys hier und woanders geht mir langsam zu weit. Was muß sie der nun 2 Jahre andauernde Erklärungsnotstand zur Performance-Niederlage der nV3x Generation getroffen haben. Da kriegt man echt ne Krise und ich werde mir die nV40-spezifischen Threads in den anderen Topics nicht mehr antun. Hier gehts ja noch halbwegs gesittet zu.
deekey777
2004-04-15, 11:37:33
Original geschrieben von TurricanM3
Laut dem Test hier auf 3DC sollen die Karten angenehm leise sein? Verstehe ich nicht.
...
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1726999#post1726999
Any questions?
KillerCookie
2004-04-15, 11:38:33
Hallo,
ich möchte all denen mein beileid aussprechen, die sich in letzter zeit eine 9800xt oder 256MB pro bzw. teuere nvidia karten geholt haben... ich selbst habe eine 9800pro die ich, sobald der R420 raus ist, für 250€ verkaufen werde. mal sehen wer dann billiger ist (ati. nvidia) und dann wird gekauft
:D.
wieso 250€??? kumpel mit mehr geld als hirn machts möglich :) .
MfG Maik
deekey777
2004-04-15, 11:41:09
Original geschrieben von Jason15
Hallo,
ich möchte all denen mein beileid aussprechen, die sich in letzter zeit eine 9800xt oder 256MB pro bzw. teuere nvidia karten geholt haben... ich selbst habe eine 9800pro die ich, sobald der R420 raus ist, für 250€ verkaufen werde. mal sehen wer dann billiger ist (ati. nvidia) und dann wird gekauft
:D.
wieso 250€??? kumpel mit mehr geld als hirn machts möglich :) .
MfG Maik
250??? Hut ab!
Ich bleibe bei meiner 9800 Pro.
AYAlf
2004-04-15, 11:43:15
ich habe damals nur nvidia produkte gekauft ... von meiner ersten tnt bis zur gerforce 4 serie und bin dann zur ati gewechselt. weil die nvidia fx karten einfach zu viele nachteile mitbrachten. und wenn ich mir die tests auf 3dcenter so anschaue, sehe ich da nicht den erhoften quantenspurng den hier alle bestaunen. die fps in den aktuellen spielen wie farcry und splintercell pt sind doch eher gering. mit alten spielen moechte ich die karten gar nicht vergleichen. weil eine neue generation spiele vor der tuer steht. was mir auch noch negativ auffaellt ist der hoher stromverbrauch und der wohl hohe geraeuschpegel. ausserdem ist die nvidia in hohen und mitleren qualitaetsstufen doch eher ein witz. fuer einen quantensprung haette ich da mehr erwartet.
ich glaube nicht das ati mit ihrem neuen verbesserten 3xx chip r420 viel mehr erreichen wird. aber im quali mode wird sie die geforce 6800 auf alle faelle besiegen. da die 9800xt ja in einigen tests schon viel besser als das aktuelle konkurenz produkt abschneidet.
einen geforce 2 auf geforce 3 sprung .. sehe ich hier leider nicht.
DrumDub
2004-04-15, 12:17:22
mit dem stromverbrauch, seh ich nicht so das problem. immerhin verbraucht die karte im 3d-betrieb nur unwesentlich mehr als ne 5950u (6 watt) genau wie im 2d-betrieb (3 watt): http://www.hardware.fr/articles/491/page11.html
dafür bietet sie aber in hohen auflösungen mit aa/af und bei ps 2.0 häufig mehr als die doppelte leistung der 5950u. das sollte man nicht vergessen. die effizienz hat sich also gegenüber der 5950u verdoppelt.
edit: ich vergaß. die winkelabhängigkeit des af trägt sicherlich auch zur besseren leistung bei hohen af stufen+hoher auflösung bei.
technologisch und featuretechnisch hat nv jetzt nen guten vorsprung, was die entwickler freuen wird, aber für den gamer wohl nicht den vorteil bringen wird, wie der schnelle ps 2.0 support des r3x0. performancetechnisch gehe ich davon aus, dass der r420 in form der x800xt sich vor die 6800u setzen wird. nur reicht eben leider der ps 2.b support des r420 noch nicht mal an die theoretischen fähigkeiten des nv3x (theoretisch, da zu langsam) mit ps 2.a ran: http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=5
Original geschrieben von Powerd by ATI
Laut Chip soll die 6800U aber satte 56db(A) laut gewesen sein. Das lässt darauf schließen, dass Nvidia die 6800U an der Grenze betreibt.
Chip ... :D
Ich vertraue Leo. Und der sagt, dass das Teil schön leise ist. Abgesehen davon: Wie kommst du darauf, dass die 6800U am Limit läuft, wenn Leo die Karte mal eben auf 467/618 MHz zieht, was allem Anschein nach noch nicht das Ende der Fahnenstange ist? :)
MfG,
Raff
(del)
2004-04-15, 13:11:21
also spätestens nachdem ich die monster-belüftung das erste mal zu gesicht bekam, war mir klar, das dieses vieh nichts für mich wird...
ati zeigt schliesslich, wie man high end-hardware baut ohne diesen aufgedunsenen lüfterkram. ingenieurskunst sieht irgendwie anders aus...
technisch (rein objektiv) betrachtet, muss ich aber sagen, das man bei nvidia einen satz nach vorne gemacht hat. nur reicht das für meine ansprüche nicht aus um einen wechsel zu rechtfertigen. schon gar nicht zu dem preis.
Alphaflight
2004-04-15, 13:34:33
wieso 250€??? kumpel mit mehr geld als hirn machts möglich .
:D
Wo wir schon dabei sind. Wie viel kann ich für eine 9700 np verlangen ;)
cedman
2004-04-15, 13:44:25
mit grosser wahrscheinlichkeit werden ich mir ziemlich bald nach dem release eine x800xt zulegen, auch wenn die meisten das als hirnrissig sähen - warten kann man immer, sparen auch. zudem bekomme ich für meine 9800xt sicherlich noch einen anständigen "batzen".
seit der 9700 ist mein vertrauen eher auf seiten von ati, was sich aber auch schnell ändern könnte. im moment sieht es zumindest nicht danach aus.
@DrumDub: kommst du zufälligerweise aus basel (-> sig) ?
DrumDub
2004-04-15, 13:46:53
Original geschrieben von cedman
@DrumDub: kommst du zufälligerweise aus basel (-> sig) ?
nope. nrw, deutschland. die basler zeitung kann man aber auch im internet lesen. ;)
cedman
2004-04-15, 14:19:21
Original geschrieben von DrumDub
nope. nrw, deutschland. die basler zeitung kann man aber auch im internet lesen. ;)
hätte ja sein können ;)
jalapeno
2004-04-15, 14:59:40
Schon eine echt gute Karte die nVidia da gebastelt hat... ist doch nur gut für uns alle, wenn sich die beiden gegenseitg anspornen - noch besser wäre es wenn noch ein bis zwei Anbieter echt konkurrenzfähig wären...
Da ich mir aber erst eine neue GraKa holen werde, wenn meine nicht mehr mag (oder alles auf BTX und PCI-Express umgestellt wird) oder kann, wird dieser Chip wohl eh an mir vorbeigehen.... denn wenn meine 9800Pro zurück aus der Reparatur kommt, bin ich imho mindestens für 2004 gerüstet wahrscheinlich sogar eher noch bis Mitte 2005)
Marodeur
2004-04-15, 15:08:16
Ich sehe hier schon eine Art "Quantensprung". Nur wegen Far Cry der Karte das abzusprechen halte ich für falsch.
Far Cry ist meiner Meinung nach ein Sonderfall:
Erstmal den nächsten Patch abwarten der ja im 3D-Bereich noch was ändern soll wenn ich mich nicht irre
Es gibt keine wirkliche Benchmarkfunktion
Jede Seite nimmt somit irgendein selbstgemachtes Demo und meistens wird nichtmal gesagt welcher Art die Szene ist
Da aber bei den meisten Reviews mit "dicker" CPU wie Athlon64 3400+ ein größerer Vorsprung rauskommt für die neue Karte brauchen wir bei der neuen Generation erstmal einen CPU-Skalierungstest der uns klarheit drüber verschafft wieviel nach oben hin da noch drin ist und ob Far Cry nicht stellenweise doch auch sehr CPU-limitiert ist
deekey777
2004-04-15, 15:10:29
Original geschrieben von Marodeur
Ich sehe hier schon eine Art "Quantensprung". Nur wegen Far Cry der Karte das abzusprechen halte ich für falsch.
Far Cry ist meiner Meinung nach ein Sonderfall:
Erstmal den nächsten Patch abwarten der ja im 3D-Bereich noch was ändern soll wenn ich mich nicht irre
Es gibt keine wirkliche Benchmarkfunktion
Jede Seite nimmt somit irgendein selbstgemachtes Demo und meistens wird nichtmal gesagt welcher Art die Szene ist
Da aber bei den meisten Reviews mit "dicker" CPU wie Athlon64 3400+ ein größerer Vorsprung rauskommt für die neue Karte brauchen wir bei der neuen Generation erstmal einen CPU-Skalierungstest der uns klarheit drüber verschafft wieviel nach oben hin da noch drin ist und ob Far Cry nicht stellenweise doch auch sehr CPU-limitiert ist
Ich übertreibe: FC ist zZ genau so schlimm wie Halo für den PC, was die Performance angeht.
-=w@rgoyle=-
2004-04-15, 16:41:50
Ich schließe mich da völlig Marodeur's Meinung an :) Und zur CPU-Abhängigkeit von FarCry hatte ich weiter oben auch mal zwei Links gepostet ... mal nachschauen, wer will
zum anderen: (nochmal!) Stromverbrauch ist zwar hoch (aber noch längst net so hoch wie der der 9800xt) und die lautstärke wird wohl von den wenigesten reviewern als zu laut bewertet ... aber das chrieben hier ja schon andere "Poster" :)
nagus
2004-04-15, 19:31:52
ertmal abwarten! es gibt weder dir 6800ultra zu kaufen, noch hat ati ihr neues "teil" vorgestellt.
leistung ist ok für ein nex-gen-produkt, fsaa und af ist enttäuschend weil das eine schlechter geworden ist und das andere in sachen bildqualität nicht mit ati mithalten kann. mit dem r420 wird der unterschied sicher wieder größer werden (verbessertes fsaa und vielleicht sogar schöneres, antatt hässlicheres af wie bei nvidia.
farcry-leistung ist ebenfalls enttäuschend für mich. hätte da min +50% erwartet gegenüber der 9800xt.
ich denke, dass ati leistungsmäßig und bildqualitätsmäßig LOCKER mithalten kann bzw. wahrscheinlich sogar übertreffen, da ati eine wesentlich bessere ausgangsbasis hat und sie mehr zeit für einen nachfolger hatten.
... außerdem: wenn die gerüchte stimmen, wird das ding frühestens um juni erhältlich sein, da ist ati mit sicherhiet schneller (weil weniger komplexer chip und ati seit radeon 9700pro keine paper-launch mehr macht. vcerfügbarkeit in 30 tagen oder weniger!
in diesem sinne: abwarten und tee trinken. die nv40 ist sicher nicht der weisheits letzter schluss ;)
[LOG]Skar
2004-04-15, 19:42:02
Mich regt es echt auf mit welcher Selbstverständlichkeit hier Strom verheizt wird. Ein 480Watt Netzteil, wenn mein PC wirklich mal so viel verbrauchen würde müsste ich ja nen "Geldzähler" mitlaufen lassen. High Performance ist schön, aber ohne so was wie CoolnQuite wird das nix.
Meine Meinung: Hut ab vor S3 mit ihrem 5Watt Dx9 Chip.
Ich erwarte aber mehr Vernunft von ATI, dann lieber nur 2. Schnellster sein.
In Sachen Technologie hat der NV40 ,aber wohl schon gewonnen. Was jedoch eigentlich keinen User "echt" stören sollte vor 2006.
Matrix316
2004-04-15, 21:25:53
Als baldiger wieder ATI Besitzer ;) ist das einzige was stört der Preis. ;D
Mal sehen wann eine 6800 Ultra ähnliche Karte 200 € kostet. ;)
Fetza
2004-04-15, 21:37:46
Hi,
der nv40 ist schon krass. Aber ich kann mit meiner übertakteten radeon 9800 pro noch jedes game mit maximalen details und 4aa und 4af spielen, flüssig. So lange sich daran nix ändert bleibt die auch erst mal drinn. Ich ich glaube auch das ATI mit sicherheit an neuen aa und af modi werkelt. Man stelle sich den r420 mal als af qualitätssieger vor :D
Gruss
Fetza
DrumDub
2004-04-15, 21:57:38
Original geschrieben von Fetza
Aber ich kann mit meiner übertakteten radeon 9800 pro noch jedes game mit maximalen details und 4aa und 4af spielen, flüssig. S
aber nicht in 1600x1200. ;)
Matrix316
2004-04-15, 22:09:01
Original geschrieben von DrumDub
aber nicht in 1600x1200. ;)
Wer will das auch? ;)
-=w@rgoyle=-
2004-04-15, 22:42:18
Und was ist mit FarCry??! ab 1024
Original geschrieben von -=w@rgoyle=-
Und was ist mit FarCry??! ab 1024
also mal erlich auch wenn ich wüsste das mit der graka 1600 möglich sind , würde ich diese auflösung nicht benutzen ! zumindest mit meinem guten 17" reicht die auflösung vollkomen aus.
Hartogh
2004-04-15, 22:53:57
Original geschrieben von Matrix316
Wer will das auch? ;)
Wenn man den richtigen Monitor hat !? 1600x1200 sieht weit besser aus als z.b 1024 + 4AA..
Original geschrieben von Matrix316
Wer will das auch? ;)
Schon mal daran gedacht, dass es auch Leute gibt, die einen TFT mit 1600x1200 Auflösung besitzen?
Original geschrieben von Hartogh
Wenn man den richtigen Monitor hat !? 1600x1200 sieht weit besser aus als z.b 1024 + 4AA..
richtigen monitor ?? meinst ein monitor der teurer ist als ein aktueller pc + der 6800 ultra ??
Original geschrieben von DrumDub
aber nicht in 1600x1200. ;)
hast recht mit 9800 pro nicht ,aber mit der neuen ati :D
Wer fragt warum 1600x1200 der hat wohl noch nie mit dem richtigen Monitor in der Auflösung gezockt, da verzichte ich sogar teils auf AA.
Hartogh
2004-04-15, 23:24:05
Original geschrieben von Gast
richtigen monitor ?? meinst ein monitor der teurer ist als ein aktueller pc + der 6800 ultra ??
nope ! Ein Kumpel hat sich bei ebay einen Nokia 21" schlagmichtod ersteigert. Der hat damals um die 6000DM gekostet und wiegt schlappe 35Kg ! Er hat dafür incl. versand (45€) nichtmal 200€ bezahlt *g*...
das teil macht in 1600*1200 noch gute 100hz und in 2048*1536 sicher auch noch mehr als 60Hz... Der spielt kein Spiel mehr unter 1600 ... hehe
Duran05
2004-04-15, 23:38:06
Auflösungen sind eigentlich nicht das Problem...
Gute 19"er machen die 1600x1200 Auflösung auch schon problemlos mit und sind recht günstig zu haben.
Nützlich ist das auf jeden Fall... ich spiele mittlerweile nur noch in 1600x1200.
Bei Strategiespielen hat man wesentlich mehr Überblick in dieser Auflösung. Bei 3D-Shootern macht diese Auflösung auch schon was her... zusammen mit 4fach AA und der neuen Grafikkarten-Generation dürfte dieser Modi eigentlich zum "Standard" werden.
Die Auflösung ist schon lange nichts besonderes mehr... es gibt schon deutlich höhere - die wohl mangels Leistung eher selten genutzt werden.
Bei 2048x1536 sieht man jedenfalls keine Pixelmonster mehr :)
arcanum
2004-04-16, 00:57:32
1. kühler: die meisten ati besitzer ersetzen die verbauten schrottlüfter ohnehin durch nen vga silencer oder ähnliches und riskieren damit auch noch die garantie. da habe ich lieber gleich nen guten vollautomatisch gesteuerten lüfter auf der karte.
2. 1600*1200 ist noch weit vom standard entfernt. die mit abstand meisten user dürften fürs zocken noch immer 1024*768 oder 1280*1024 (bzw 960) nutzen.
TFTs mit einer nativen auflösung von 1600*1200 gibt es erst ab 20". solche dürften für die meisten user unbezahlbar sein, mal abgesehen davon, dass es so große TFTs ohnehin nicht mit zockertauglichen panels gibt und die bildschirmdiagonale recht klein ist für die auflösung.
die meisten 19" röhrenmonitore liefern bei 1600*1200 auch keine wirklich befriedigende ergonomie weil sie mit 75hz bereits am limit betrieben werden. natürlich gibt es ausnahmen, aber wer ist schon bereit mehr als 300€ für einen 19"er auszugeben.
3. die leistungsaufnahme soll bei schätzungsweise ~100 Watt (spitzenwert) im 3d-modus liegen. interessant ist der vergleich von 6800ultra zu 19+" röhrenmonitoren die >100w im betrieb verbraten. jetzt kann jeder für sich selbst ausrechnen welches teil mehr strom (inkl. 2d-modus und stand-by) verbraucht... bei einem tft sieht die sache natürlich wieder ganz anders aus ;)
insgesamt bin ich ziemlich überzeugt vom nv40. der performancezuwachs ist auch nicht so mickrig wie von vielen beschrieben und entspricht einem normalen generationssprung und ich glaube auch nicht, dass der r420 den nv40 dem erdboden gleich machen wird. das ist und wird das wunschdenken von einigen verblendeten FanATIkern bleiben.
ich besitze im moment eine ati karte und werde nicht scheuen mir wieder eine zu holen oder ins nvidia-lager (zurück) zu wechseln, falls das preis/leistungsverhältnis stimmt. die meisten hier denken genauso, allerdings werfen die ganzen fanboys, die im forum regelrechte glaubenskriege austragen ein schlechtes licht auf beide firmen.
ich bin wie immer offen für konstruktive kritik und lasse mich auch gerne berichtigen, wenn ich im unrecht liegen sollte.
mfg
Schrotti
2004-04-16, 01:15:11
Ich spiel wegen meines TFT (17" Sony) in 1280x1024 Farcry.
Hab zwar nicht alles auf Anschlag aber es schaut gut aus.
Mfg Schrotti
Original geschrieben von arcanum
2. 1600*1200 ist noch weit vom standard entfernt. die mit abstand meisten user dürften fürs zocken noch immer 1024*768 oder 1280*1024 (bzw 960) nutzen.
TFTs mit einer nativen auflösung von 1600*1200 gibt es erst ab 20". solche dürften für die meisten user unbezahlbar sein, mal abgesehen davon, dass es so große TFTs ohnehin nicht mit zockertauglichen panels gibt und die bildschirmdiagonale recht klein ist für die auflösung.
mfg
Das ist Blödsinn. Ich besitze einen 20" NEC 2080UX+ mit 16ms Response-Time. Das Panel zählt zu einem der besten zum Zocken: Keine Schlieren, kein Tearing! Die Bildschirmdiaogonale ist mehr als ausreichend: Man darf nicht vergessen, dass es im Gegensatz zu CRTs ja sichtbare 20" sind. Es sei denn man sitzt mit 2 m Abstand davor :D, dann ist die Diagonale für die Auflösung wirklich zu klein.
jorge42
2004-04-16, 09:02:23
Es gibt kaum einen 19" oder gar 17" CRT Monitor der eine so feine Loch- bzw. Streifenmaske hat, dass dieser die 1600x1200 Auflösung auch physikalisch darstellen kann. Bei einer Streifenmaske von 0,22mm kann man auf erst einem 21" Monitor überhaupt 1600x1200 auflösen. Die Elektronik hat auch bei kleinen modernen Monitoren damit keine Probleme, aber das ist ja nicht alles. Wer bei kleinen Monitoren 1600 einstellt braucht auch kein AA mehr, denn das macht der Monitor schon von sich aus :bäh:
Genausowenig macht auf einem 21" CRT eine 2000er Auflösung Sinn. Sowas macht nur Sinn auf einem QUXGA TFT, und damit schaut man sich in professionellen Umgebungen Röntgen- und CT-Bilder an. Ich glaub, kaum das jemand sowas zu Hause zum Zocken hat.
joe kongo
2004-04-16, 09:32:11
Also bezüglich 19'' und 1600 möchte ich schon sagen, das
jedes Detail einer 1 Pixel Schrift sichbar ist, wenn auch für die Augen anstrengend. Aber was hat das Monitorgerede jetzt mit NV40 zu tun ?
Digger
2004-04-16, 10:21:12
Nicht schlecht die Karte... und in Anbetracht der Lage, daß jetzt mit Far Cry breits das dritte Game auf dem Markt ist, welches auf meinen System nicht mehr in der Standart-Auflösung von 1280x1024 (TFT) mit allen Details ruckelfrei läuft, ist die Karte schon ne Verlockung!
Aber in Anbetracht der Qualität werde ich erstmal das X800 Release abwarten...
DrumDub
2004-04-16, 10:24:32
Original geschrieben von Digger
Nicht schlecht die Karte... und in Anbetracht der Lage, daß jetzt mit Far Cry breits das dritte Game auf dem Markt ist, welches auf meinen System nicht mehr in der Standart-Auflösung von 1280x1024 (TFT) mit allen Details ruckelfrei läuft, ist die Karte schon ne Verlockung!
Aber in Anbetracht der Qualität werde ich erstmal das X800 Release abwarten...
hmmm. welches sind denn die anderen beiden games?
was meinste mit qualität?
Hatstick
2004-04-16, 12:36:02
Ist schon beeindruckend keine Frage.Der Leistungssprung scheint gewaltig zu sein.Da muß ATI sich wirklich anstrengen um mitzuhalten.Einzig der FC Bench sieht bissl komisch aus und die Lautstärke :) aber da wird hoffentlich noch was passieren.
Dann wird sie eventl.sogar gekauft wenn sie bezahlbar ist.
Digger
2004-04-16, 13:26:41
Original geschrieben von DrumDub
hmmm. welches sind denn die anderen beiden games?
was meinste mit qualität?
Ic meine Call of Duty und Halo, wobei es bei letzterem ja eher an der "tollen" PC-Umsetzung.
Das mit der Qualität bezog sich darauf, daß die 6800er momentan noch eine schlechtere Bildqualität hat als die Radeon, was natürlich auch noch an den Beta-Treibern liegen kann.
Aber etwas Gutes hat das Release der 6800er für mich ja doch. Ich bin ab von der Idee meine 9800er für 80 Euro Aufpreis gegen die 256MB Variante zu tauschen!
arcanum
2004-04-16, 15:42:49
Original geschrieben von mbee
Das ist Blödsinn. Ich besitze einen 20" NEC 2080UX+ mit 16ms Response-Time. Das Panel zählt zu einem der besten zum Zocken: Keine Schlieren, kein Tearing! Die Bildschirmdiaogonale ist mehr als ausreichend: Man darf nicht vergessen, dass es im Gegensatz zu CRTs ja sichtbare 20" sind. Es sei denn man sitzt mit 2 m Abstand davor :D, dann ist die Diagonale für die Auflösung wirklich zu klein.
habe gerade gesehen, dass dein nec ein s-ips panel hat. jedoch werden die wenigsten zu einem so teuren TFT (immerhin 1300€) greifen. für die hälfte des geldes kriegt man den nahezu gleichwertigen 1960nxi mit 19" und 25ms response time.
Original geschrieben von arcanum
habe gerade gesehen, dass dein nec ein s-ips panel hat. jedoch werden die wenigsten zu einem so teuren TFT (immerhin 1300€) greifen. für die hälfte des geldes kriegt man den nahezu gleichwertigen 1960nxi mit 19" und 25ms response time.
A) Benutze ich das Teil nicht nur zum Zocken, sondern arbeite z.T. auch daran. Die "krumme" native Auflösung der 19-Zöller-TFTs von 1280x1024 mag ich nicht bzw. bietet mir diese dafür zu wenig Fläche.
B) Die 9 ms auf dem Papier machen sich in der Praxis wohl doch bemerkbar: Ein Bekannter hat den 1960nxi und bei 3D-Shootern (UT2004, FarCry) springt der Unterschied wirlich sofort ins Auge. Von nahezu gleichwertig kann daher leider nicht die Rede sein.
Das Teil ist zugegebenermassen wirklich sehr teuer. Mir persönlich ist es das Geld allerdings wert.
also ich bin nicht umbedingt beeindruckt...
kaufen werde ich mir den nv40 allerdings nicht, es sei den ati baut riesigen scheiss mit dem r420.
vor allem die leistung finde ich nicht soooo toll.. ich mein ich zocke sowieso nur 1024 und da ist der nv40 nicht so viel flotter als meine 9800pro. im übrigen gefällt mir das mit den zwei stromanschlüssen nicht.
ich finds echt komisch... in ut z.b. auf 1024 ist die nv40 voll "lahm" und bei call of duty geht der so ab (merkwürdig).
martma
2004-04-16, 18:56:39
Ich kauf mir keine NV-Karte egal wie gut die ist. Ich bleibe noch einige Zeit bei meiner 9800XT und kauf mir dann vielleicht erst den R500.
James Ryan
2004-04-16, 19:12:50
Ich zieh mal mein persönliches Fazit zum NV40:
1) Ganz klar eine Next-Generation Karte mit brachialer Leistung, ein würdiger Nachfolger der Geforce 4, die total vermurkste FX Serie war nie echte Konkurrenz zur R3xx Reihe! ;D
2) Die Karte hat aber auch einige Treiberprobleme welche sicherlich recht bald beseitigt werden, das war bei NVIDIA bisher immer so! (Gf 3, Gf 4, Gf FX)
3) Shaderperfomance ist gewaltig angestiegen, ATi muss hier erstmal kontern!
4) FSAA ENDLICH mit vernünftiger Qualität, vergleichbar mit der R3xx Reihe. Dass die Gammakorrektur fehlt ist mir bei Screenshots nicht aufgefallen, für mich sind ATi und NVIDIA bezüglich FSAA wieder gleichwertig! (dass der 8x Modus so lahm ist stört mich übnerhaupt nicht, ich spiele nur mit maximal 4*FSAA)
5) Das winkelabhängige AF stört mich als ATi-Benutzer überhaupt nicht, bin's ja schon gewohnt! :asshole: (dafür habe ich aber eh nicht das Auge, sehe z.B. keinen Unterschied in Spielen zwischen 8*AF oder 16*AF!)
6) Alle Tests zur FarCry Perfomance sind NULL aussagekräftig, aus folgenden Gründen:
-Jeder hat andere Demos benutzt
-FarCry ist total CPU & Ram limitiert (manche Seiten haben mit 512 MB Ram gebencht :balla: )
-Der Patch 1.1 vermurkst für NVIDIA Karten einiges, da muss erst noch nachgebessert werden!
7) NVIDIA hat vorgelegt (und das nicht zu knapp), nun ist ATi am Zug! Wer am Schluss das Rennen macht ist mir relativ egal. Ich hoffe aber dass ATi endlich mal eine Lüftersteuerung nebst Runtertaktung der GPU (und Speicher) einbaut, so wie es bei der Geforce FX schon Standard war!
Kaufen werde ich mir wohl keine Geforce 6800 Ultra, wohl eher den Nachfolger, aber erstmal schauen was die nächste Zeit so bringt! ;)
MfG :smokin:
Sphinx
2004-04-16, 19:14:02
AGP ? what ? - PCI-E i will come.
^^^Und diese 6 Monate wird meine R9700Pro ausreichen um meine Webseiten zu erstellen. Und nebenbei BF1942 zu spielen. Alles andere währe nun ne Einbahnstraße. Auch die R420... in diesem Sinne.
DrumDub
2004-04-16, 22:13:24
james ryan
eine frage: wie kommst du auf die idee, dass far cry ram-limitiert ist? so lange das spiel nicht auf festplatte auslagert, während des spielens, kann man wohl nicht von einer ram limitierung sprechen. ich konnte ein auslagern auf festplatte bei fry cry mit 512mb nie feststellen.
James Ryan
2004-04-16, 22:27:50
Original geschrieben von DrumDub
james ryan
eine frage: wie kommst du auf die idee, dass far cry ram-limitiert ist? so lange das spiel nicht auf festplatte auslagert, während des spielens, kann man wohl nicht von einer ram limitierung sprechen. ich konnte ein auslagern auf festplatte bei fry cry mit 512mb nie feststellen.
Das kannst du mir nicht erzählen!
Für FarCry sind 1 GB eigentlich Pflicht. Bei mir wird mit 512 MB Ram ordentlich ausgelagert!
Die CPU Limitierung ist aber gravierender: Bei einem Review wurde ein Athlon 64 3400+ eingesetzt, da konnte sich die Geforce 6800 auch deutlicher von der Radeon 9800XT absetzen!
MfG :smokin:
MadMan2k
2004-04-17, 02:11:09
Original geschrieben von Digger
Nicht schlecht die Karte... und in Anbetracht der Lage, daß jetzt mit Far Cry breits das dritte Game auf dem Markt ist, welches auf meinen System nicht mehr in der Standart-Auflösung von 1280x1024 (TFT) mit allen Details ruckelfrei läuft, ist die Karte schon ne Verlockung!
das liegt daran, dass der GraKa RAM kanmm wird - bei mir laufen die Spiele problemlos...
Piffan
2004-04-17, 13:21:22
Original geschrieben von Gast
also ich bin nicht umbedingt beeindruckt...
kaufen werde ich mir den nv40 allerdings nicht, es sei den ati baut riesigen scheiss mit dem r420.
vor allem die leistung finde ich nicht soooo toll.. ich mein ich zocke sowieso nur 1024 und da ist der nv40 nicht so viel flotter als meine 9800pro. im übrigen gefällt mir das mit den zwei stromanschlüssen nicht.
ich finds echt komisch... in ut z.b. auf 1024 ist die nv40 voll "lahm" und bei call of duty geht der so ab (merkwürdig).
Das ist nicht komisch, sondern zeigt die starke Abhängigkeit von der CPU, bei UT bildet die CPU den Flaschenhals, zumindest in dem bewussten Test.....
Man kann die Power nur erfahren, indem man entweder die Auflösung und AF/FSAA (nur bis 4x) hochtreibt, oder ne hammermäßige CPU einsetzt....Dann nicht vergessen, dass die Treiber noch reifen müssen.
Fetza
2004-04-17, 20:37:36
Nunja, wenn ich die benchmark ergebnisse des nv40 richtig deute, sind mit dem teil aber auch keien 1600x1200 drinn. Und ich spiele farcry mit 1024x768 mit 4fach aa und 8 fach bi af, läuft in den meisten szenen absolut flüssig. Höchstens hin und wieder mal kleinere ruckler. Hab übrigends ein 22" CRT und ich finde das 1024er auflösung mit 4fach aa doch noch deutlich besser ist als 1600er ohne aa. Wenn man natürlich unbedingt in 1280er spielen will, und dann noch flüssig, ist wohl die nv40 perfekt. Übrigends hab ich bis jetzt noch kein 20" TFT gesehen, das so gut wäre wie ein CRT, zumindest für spiele. Das ganze liegt aber wohl auch sehr am subjektiven empfinden. Auf jedenfall ist mir ein TFT mit 20" nicht 1000 euro und mehr wert. Mein 22" hat mich neu gerade mal 355 euro gekostet und dabei habe ich dann garantiert keine pixel fehler.
MfG
Fetza
P.S. Mit aa meine ich keinen kot :-)
Pennywise
2004-04-17, 22:28:34
Ich habe einen Dell 20"er mit 1600x1200, der ist ideal zum zocken (hat das Panel des vorab angesprochenen NECS). Aber selbst wenn meine Karte (9700pro) alle Games in 1600x1200 spielen könnte, reicht mir doch 1024x768.
Ich kann alle Details sehen und es sieht gut aus.
Die Unschärfe durch die Umrechnung auf 1600x1200 ist sehr gut, und das interpolieren ist sehr weich und angenehm für das Auge, da ja auf 1600x1200 umgerechnet wird. Quasi AA for free ;-)
Fetza
2004-04-18, 03:08:12
Hmm, so hab ich's noch garnicht gesehen. Die TFT's konvertieren ja die eingestellt auflösung in die eigene oder? Das hab ich vergessen, aber das hat echt mal was für sich. Aber denke mal vom preis her ist dein Teil auch weit über 1000 euro's oder?
Original geschrieben von iq996
Ich habe einen Dell 20"er mit 1600x1200, der ist ideal zum zocken (hat das Panel des vorab angesprochenen NECS). Aber selbst wenn meine Karte (9700pro) alle Games in 1600x1200 spielen könnte, reicht mir doch 1024x768.
Ich kann alle Details sehen und es sieht gut aus.
Die Unschärfe durch die Umrechnung auf 1600x1200 ist sehr gut, und das interpolieren ist sehr weich und angenehm für das Auge, da ja auf 1600x1200 umgerechnet wird. Quasi AA for free ;-)
Das Panel interpoliert zwar sehr gut, dennoch ist, finde ich zumindest, die Qualität nicht mit AA zu vergleichen. AA + Interpolation (so spiele ich meist) ist hingegen optisch ganz nett. Die native Auflösung + AA finde ich aber immer noch am besten und dafür scheint der NV40 ja prädestiniert zu sein. Warten wir mal ab, wie es mit dem R420 aussieht. Ich hatte in letzter Zeit zwar nur ATI-Karten würde aber auch wieder wechseln, wenn NVIDIA das bessere Preis-/Leistungsverhältnis bieten wird.
Pennywise
2004-04-18, 12:31:45
Das die Qualität durch Interpolation nicht vergleichbar mit einem richtigen AA ist, dürfte klar sein.
Nur, ich für mich, spiele lieber in 1024 mit Interpolation als in 1600 zwangsläufig ohne. Die Details stimmen und die Grafik sind im Gesamteindruck schöner aus, Performanceprobleme gibt es auch nicht.
1600 mit AA ist wieder was anderes, aber doch extrem heftig für die Hardware.
Nur gerade auf diesem 1600er Panel bleiben bei einer Game-Auflösung von 1024 viele Pixel für die Interpolation über so daß das Ergebnis für mich sehr sauber rüberkommt. Und schnell genug ist es auch noch.
Die 1000+ EUR für den Monitor sind zwar heftig, doch ich brauche den Monitor ca. 10-12h am Tag, da lohnt sich das.
Nur zum zocken sicher zu teuer.
Pennywise
2004-04-18, 12:36:13
BTW interpoliert nicht das Panel sondern die Elektronik im Monitor, da weiss ich nicht ob die bei den Monitoren NEC bzw. Dell identisch sind. Es gibt auch noch einen Phillips mit dem Panel.
Wenn der NV40 wirklich so toll ist, werde ich mir auch eine Nvidia-Graka zulegen. Aber erst als PCI-Express, so kann man auch die Video-Encoding Features richtig nutzen. Laut CT sind die mit AGP nicht vernünftig zu nutzen, da der entsprechend schnelle Rückkanal bei AGP fehlt.
Original geschrieben von iq996
BTW interpoliert nicht das Panel sondern die Elektronik im Monitor, da weiss ich nicht ob die bei den Monitoren NEC bzw. Dell identisch sind. Es gibt auch noch einen Phillips mit dem Panel.
Das stimmt natürlich, da hatte ich den falschen Ausdruck benutzt :D Den Phillips hatte ich mir auch einmal angeschaut, zumindest dort scheint die Interpolation mit dem NEC vergleichbar zu sein. Was mir jedoch bei beiden auffiel, ist, dass die Interpolation bei 1280x960 noch mal eine gute Ecke besser ist (nicht das diese bei 1024x768 schlecht wäre), sind ja auch mehr Pixel zum Interpolieren vorhanden.
Insofern kann man die Mehrleistung ja nur begrüßen. Auf die Encoding-Performance bzw. -Qualität bin ich auch mal gespannt. Ich werde auf jeden Fall auch noch die ersten Mobos für den Athlon 64 mit PCI-X und den R420 abwarten (bei Rage3D ist derzeit auch eine wilde Diskussion um dessen Leistungsfähigkeit im Gange) und dann insgesamt aufrüsten.
superfoo
2004-04-18, 16:42:02
Hallo
Ich muss sagen, die Performance Werte des NV40 sind ja zum Teil wirklich beeindruckend.
Aber.....
Auf meinem Sys. laufen alle bisher erschienenen Spiele flüssig. Ich muss aber immer das neuste haben, also gehe ich zum Händler meines Vertrauens und kaufe mir ne NV40-Karte, natürlich in der PCI-E Variante für ca. 400€, ein neues MoBo für ca 130€ komme nach hause und merke, dass mein Sys. nicht mehr stabil läuft, gehe nochmals zum Händler 100€ für ein neues Netzteil. Ich habe also beinahe 700€ ausgegeben, damit ich 4xAA anstatt 2xAA spielen kann, und 3DMark 10000+ Punkte habe....
Natürlich sind diese Werte beeindruckend, sowie auch die ganze Technik, die dahinter steckt. Aber in der Praxis steht der Preis doch in keiner vernünftigen Relation zur gebotetnen Mehrleistung, zumal die meisten Leute nicht mal alle Vorteile nutzen können, da sie entweder zu kleine Monitore, zu langsame CPU's usw. haben....
Echte technische Innovation wäre imho eine Grafikkarte auf Leistungs-Niveau der 9800pro, welche aber den halben Stromverbrauch und eine Passiv-Kühlung bietet, für diese würde ich dann evtl. sogar meine 9700pro hergeben... ;)
Gruss Benno
Raver
2004-04-18, 17:27:04
manche Leute sollten aufhören zu träumen. ;)
BK-Morpheus
2004-04-18, 18:18:45
Original geschrieben von superfoo
Hallo
Ich muss sagen, die Performance Werte des NV40 sind ja zum Teil wirklich beeindruckend.
Aber.....
Auf meinem Sys. laufen alle bisher erschienenen Spiele flüssig. Ich muss aber immer das neuste haben, also gehe ich zum Händler meines Vertrauens und kaufe mir ne NV40-Karte, natürlich in der PCI-E Variante für ca. 400€, ein neues MoBo für ca 130€ komme nach hause und merke, dass mein Sys. nicht mehr stabil läuft, gehe nochmals zum Händler 100€ für ein neues Netzteil. Ich habe also beinahe 700€ ausgegeben, damit ich 4xAA anstatt 2xAA spielen kann, und 3DMark 10000+ Punkte habe....
Natürlich sind diese Werte beeindruckend, sowie auch die ganze Technik, die dahinter steckt. Aber in der Praxis steht der Preis doch in keiner vernünftigen Relation zur gebotetnen Mehrleistung, zumal die meisten Leute nicht mal alle Vorteile nutzen können, da sie entweder zu kleine Monitore, zu langsame CPU's usw. haben....
Echte technische Innovation wäre imho eine Grafikkarte auf Leistungs-Niveau der 9800pro, welche aber den halben Stromverbrauch und eine Passiv-Kühlung bietet, für diese würde ich dann evtl. sogar meine 9700pro hergeben... ;)
Gruss Benno
da ist was dran.
Der NV40 ist sicherlich ein guter Grafikchip. Er bietet aber keine wirklich überzeugende Neuerung, die mich veranlassen würde, eine Grafikkarte mit diesem Chip zu kaufen.
Beim AA hat man nur das Notwendigste getan. Beim AF sogar einen Schritt rückwärts gemacht. Ein Fortschritt (schneller und qualitativ besser als das am Markt verfügbare) ist nicht ersichtlich.
Somit bietet der NV40 bei den für mich 2 wichtigsten Kriterien keine Argumente für einen Kauf.
-=w@rgoyle=-
2004-04-19, 21:56:35
Na, da haben wir es ja schon! :D Laut computerbase.de (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/april/radeon_x800_pro_nv40_ultra/) bzw. theinquirer hat der R420 dem NV40 wohl einiges entgegenzusetzen
Na, da bin ich ja mal gespannt, was das wird Anfang Mai :o
also wenn man so liest was der NV40 so bietet faellt man schon vom hocker. vorallem alle leute die eine 9800 XX besitzten fallen damit in den schatten, wenn jetzt angefangen wird diese karte zu kaufen. irgendwie war das immer so, mal is ati weiter mal nvidia und so wird es auch immer bleiben denke ich. dennoch muss der R420 was drauf haben, da stimme ich zu, um mit zu halten.
greetz
Dr.Dirt
2004-04-19, 23:54:26
Original geschrieben von -=w@rgoyle=-
Na, da bin ich ja mal gespannt, was das wird Anfang Mai :o
Und ich erst :popcorn:
Radeon X800 Pro/XT Prereview!
http://www.rage3d.de/forum/ftopic597.html
papachrischi
2004-04-20, 22:02:02
Von den Features kann der NV 40 sich echt sehen lassen. Wie sieht es mit Stromverbrauch und Kühlung aus?
Bzw. muss man diese Karte im Dreieck oder im Stern an das Hausnetz anschliessen? :asshole:
Metalmaniac
2004-04-20, 22:13:36
Original geschrieben von Gast
Radeon X800 Pro/XT Prereview!
http://www.rage3d.de/forum/ftopic597.html
Wenn das stimmt, würde ich dies mit einem weinenden und einem herzlich-schadenfreudigen Lachen aufnehmen. Einerseits wäre es auf Dauer nicht schön wenn nVidia schon wieder verlieren würde, zudem noch gegen die zweitbeste Variante von ATI, also gegen das Flagschiff sogar überdeutlich, andererseits könnte ich mir die Schadenfreude gegenüber den großmäuligen nVidioten hier im Forum auch nicht wirklich verkneifen. Mal sehen, ob sich diese unglaublichen Ergebnisse bestätigen.
Original geschrieben von Gast
Radeon X800 Pro/XT Prereview!
http://www.rage3d.de/forum/ftopic597.html
Naja, einfach was in eine simple Formel packen und hoffen, daß es so eintreten könnte, ist mehr Wunschdenken, als Realität. Also nicht überbewerten das Ganze.
Exxtreme
2004-04-20, 22:47:14
Original geschrieben von Gast
Radeon X800 Pro/XT Prereview!
http://www.rage3d.de/forum/ftopic597.html
LOL, sehr professionell. :lolaway: Genauso wie die ganze Site. :lol: Und so tun, als der R3D-Tweaker von denen wäre. ;(
betasilie
2004-04-20, 22:57:47
Original geschrieben von Exxtreme
LOL, sehr professionell. :lolaway: Genauso wie die ganze Site. :lol: Und so tun, als der R3D-Tweaker von denen wäre. ;(
Full Ack! Überhaupt über so einen Schwachsinn ernsthaft zu diskutieren, ist rausgeschmissene Energie, imho.
Original geschrieben von Metalmaniac
Wenn das stimmt, würde ich dies mit einem weinenden und einem herzlich-schadenfreudigen Lachen aufnehmen. Einerseits wäre es auf Dauer nicht schön wenn nVidia schon wieder verlieren würde, zudem noch gegen die zweitbeste Variante von ATI, also gegen das Flagschiff sogar überdeutlich, andererseits könnte ich mir die Schadenfreude gegenüber den großmäuligen nVidioten hier im Forum auch nicht wirklich verkneifen. Mal sehen, ob sich diese unglaublichen Ergebnisse bestätigen.
Tritt doch mal ein bischen auf die Bremse: Die Lager der "großmäuligen" Anhänger der beiden großen Grafikchipshersteller dürften sich in etwa die Waage halten. Solche Zugaben in den Postings verleiten nur zu unnötigem Flamewar.
Zum Thema:
Du hast dir ja angesehen, auf welcher Grundlage, die Benchmarks bei Rage3D.de errechnet wurden. Das ist nichts als Spielerei. Die Formel ist eine lineare Funktion. Aber weder GPU noch RAM skalieren in ihrem Leistungsvermögen linear.
Dr.Dirt
2004-04-20, 23:01:08
Original geschrieben von Gast
Radeon X800 Pro/XT Prereview!
http://www.rage3d.de/forum/ftopic597.html
Solche Berichte sieht man leider immer wieder von nVidioten oder, wie hier, von FanATIkern.:krank:
DrumDub
2004-04-20, 23:36:14
Original geschrieben von Dr.Dirt
Solche Berichte sieht man leider immer wieder von nVidioten oder, wie hier, von FanATIkern.:krank:
exakt so ist es. :D
Meiner Meinung nach die Radeon X800 pro und X800 XT werden wieder die GeForce 6800 und 6800 Ultra klar schlagen : nicht nur vom Fillrate und Brandbreite aber auch punkto Shadereffiziens (wegen kürzere Pipelines).
Aber, ich erwarte mehr als nur ein Leistungsaufschub + PS 3.0 wie beim NV 40 sondern auch mal etwas wirklich besseres in Sachen AA und vor allem AF !
naja...nv40 halte ich für n guten chip...fertig aus, nichts weiter dazu...
mal sehen was ati bringt (leistungstechnisch)....
alles andere wie technische innovation (truform oder ähnliches) kann man eh vergessen weils die nicht geben wird, von keinem der beiden hersteller...vielleicht kommt ja schlagartig ein guter dritter hinzu O.o
es fehlt wirklich frischer wind im graka markt, die zwei bollwerke rollen gemütlich s tal runter und machen alles platt was in weg kommt...schade eigentlich
----------------------------------------------------------
Original geschrieben von Gast
Radeon X800 Pro/XT Prereview!
http://www.rage3d.de/forum/ftopic597.html
-----------------------------------------------------------
Es geht noch weiter....
Wenn man diese Resultate mit dem IQ des Schreibers multipliziert und dann addiert, dann erhält man ein wichtiges und (im Gegensatz zu diesem Artikel) sehr genaues Resultat über den Sinn und Nutzen, den wir alle aus besagtem Artikel dieses ATI Fanboys ziehen können...
Nutzen Artikel= Summe(Fanboy Resultate)* IQ des Fanboy
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.