Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread
Seiten :
[
1]
2
3
4
5
6
7
8
9
10
11
12
13
14
Leonidas
2004-04-14, 12:58:40
Links zu den 3DCenter-Artikeln (gültig ab 15 Uhr!):
www.3dcenter.org/artikel/nv40_technik/ (http://www.3dcenter.org/artikel/nv40_technik/)
www.3dcenter.org/artikel/nv40_technik/index_e.php (http://www.3dcenter.org/artikel/nv40_technik/index_e.php)
www.3dcenter.org/artikel/nv40_benchmarks/ (http://www.3dcenter.org/artikel/nv40_benchmarks/)
Weitere Links von NV40-Berichten willkommen.
Madox
2004-04-14, 13:00:55
Thx leo ... ich freu mich schon auf das 3dcenter review ... das beste im netz imho :D
san.salvador
2004-04-14, 13:02:38
Ok, hier mal der Test von Firing Squad (http://firingsquad.com/hardware/nvidia_geforce_6800_ultra/)
Leadtek (http://www.leadtek.com.tw/company/company5_1.asp?id=133)
announces WinFast A400 Ultra TDH MyVIVO
http://vulcanus.its.tudelft.nl/tt/GoT/a400-1.jpg
http://vulcanus.its.tudelft.nl/tt/GoT/a400-2.jpg
up
DrumDub
2004-04-14, 13:05:56
hier die nda-brechner: http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/default.asp
edit: da war jemand schneller
LovesuckZ
2004-04-14, 13:08:33
Referenzkühler von innen:
http://media.hardwareanalysis.com/articles/small/11097.jpg
Und ebenfalls NDA - Brecher: http://www.hardwareanalysis.com/content/article/1708.1/
Gaestle
2004-04-14, 13:44:07
Wäre es möglich, hier nicht dieselbe Diskussion zuzulassen, wie in dem anderen Thread ( http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?s=&forumid=43 ) und auf die Art und Weise das ganze geFLAME aussen vor zu lassen und sich auf INFORMATIONEN zu konzentrieren?
Wäre wirklich richtig toll.
Der Aquamark-Bench hat anscheinend Fehler, wurde hier ( http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=136805&perpage=20&pagenumber=16 ) schon lang und breit diskutiert....
Grüße
@Gaestle
Eine gute Idee. Ich hab gerade mal den ganzen Muell hier rausgesplittet und in den anderen NV40 Thread gemerged.
Nur Ultra mit 16 pipes!
Non Ultra 12 Pipes und DDR1?
http://www.gzeasy.com/newsphoto/y2k4/04/14/untitled-1.jpg
DrumDub
2004-04-14, 14:26:18
Original geschrieben von in04
Non Ultra 12 Pipes und DDR1?
macht ja sinn, da 12 pipes nicht die bandbreite brauchen wie 16 und man wesentlich billiger wegkommt.
tomshardware:
http://www20.tomshardware.com/graphic/20040414/index.html
What NVIDIA has achieved with the GeForce 6800 Ultra makes even experienced graphics cards editors shake their head in amazement and wonder. The performance this card offers will sweep graphics cards enthusiasts (the author included) off their feet and carry them off into a state of ecstasy in which they can only gape in awe at the sight of these simply amazing benchmark results - Freezinassin! Compared to the GeForce 6800 Ultra, the former high-end models Radeon 9800XT and FX 5950 Ultra often seem like nothing more than cheap mainstream cards...
Once you step back and start breathing normally again, you'll also see that, in addition to the outstanding performance, the new card finally offers very good FSAA quality as well as outstanding texture filtering, which will satisfy even quality purists, thanks to its ability to turn off the trilinear optimizations. Technologically, NVIDIA also takes the lead, owing to a full DirectX 9.0c and ShaderModel 3.0 implementation with unrestricted 32 bit floating point performance.
To those of you ready to camp out in front of your store to get your hands on one of these cards - be warned! The first barrier on your way to graphics ecstasy is the power requirement calling for a PSU with at least 480Watts. In effect, its not so much the power rating that may prove problematic - it may turn out harder to find a power supply with enough ATX power cables for use with the graphics card! Of course, true enthusiasts won't be deterred, and case modders will welcome the new challenge.
But we have some grievances as well. For one thing, there's the disappointing shader quality in FarCry. NVIDIA should get this problem ironed out as soon as possible, as it leaves a bitter aftertaste in our mouths despite (or because of) the otherwise excellent benchmark results. The new video processor also requires some more work through drivers - the GeForce 5950 Ultra with no video processor onboard offers a lower CPU utilization than the GeForce 6800 Ultra with video processor. Still, neither of these points spoil the fun, and NVIDIA should have ample time to resolve these issues before the retail boards launch. Small details like the last-minute change to the fan voltage on our review card leave us with the impression that this may be a little while off anyway. But who knows - let's just wait and see.
With the NV40 alias GeForce 6800 Ultra, NVIDIA has produced an excellent product that will serve as the basis for an entire family. After the impressive performance we saw today, we have great expectations for the other cards as well. Now that NVIDIA has raised the standard in such a breathtaking way, we are all waiting with bated breath for ATi's answer in the shape of the R420, which will launch with either 12 or 16 pixel pipelines later this month.
JoeDesperado
2004-04-14, 14:26:28
einer pressemitteilung im tbreak-forum zu entnehmen, wird gigabyte neben der obligatorischen 6800u auch eine "normale" 6800er mit 16 pipelines veröffentlichen - was doch überraschend ist, nachdem ursprünglich ja nur 12 pipes für die non-ultra angenommen wurden.
http://www.tbreak.com/forums/showthread.php?p=224471
man kann nur hoffen, dass es sich ned um einen tippfehler handelt...
Riesenfoto der Gigabyte 6800 ultra
http://www.tbreak.com/forums/attachment.php?attachmentid=9194
up
Demirug
2004-04-14, 14:52:06
Original geschrieben von DrumDub
tomshardware:
http://www20.tomshardware.com/graphic/20040414/index.html
Die technischen Erklärungen zur Pixelshader-Einheit besser nicht lessen.
Inquisitor
2004-04-14, 15:01:38
Da isser :-))
Edit: Wow, die erste Seite konnte ich lesen, dann war der Server nicht mehr erreichbar. Mal gucken, obs gleich wieder geht :-)
Inquisitor
2004-04-14, 15:06:58
Onkel Tom:
http://www.de.tomshardware.com/graphic/20040414/index.html
Pinoccio
2004-04-14, 15:07:39
Hm, schade. Wie sieht es mit einem Mirror aus? Oder speichern, packen und bittorenttisieren? Ich will auch was lesen!
mfg Sebastian
FatalError
2004-04-14, 15:10:52
@Leonidas
hättest vielleicht nicht ankündigen sollen, wohl doch ein paar Leute zuviel drauf auf dem server .. ;)
scheint alles down zu sein
nggalai
2004-04-14, 15:13:06
Damien's Artikel ist online:
http://www.hardware.fr/articles/491/page1.html
(französisch, aber gut)
93,
-Sascha.rb
LovesuckZ
2004-04-14, 15:16:20
Beyond3d.com:
http://www.beyond3d.com/previews/nvidia/nv40/
ich will auch den artikel von leo lesen :(
wann geht da wieder was?
winter
2004-04-14, 15:20:31
*kratz* Der server ist völlig überlastet ;)
Mal eine etwas andere DOS-Attacke, gell Leo :freak:
DrumDub
2004-04-14, 15:20:59
beyond3d ist auch down. :freak:
(del676)
2004-04-14, 15:23:53
fast alles is down
der verbrauch vom ganzen rechner
http://techreport.com/reviews/2004q2/geforce-6800ultra/power.gif
sind grad mal 8 Watt mehr als bei der 5950u :lolaway:
Original geschrieben von nggalai
Damien's Artikel ist online:
http://www.hardware.fr/articles/491/page1.html
(französisch, aber gut)
93,
-Sascha.rb
Der aber nicht und ist auch ziemlich gut.
Original geschrieben von Demirug
Die technischen Erklärungen zur Pixelshader-Einheit besser nicht lessen.
Full ack aber die iq tests sind auf den ersten Blick einwandfrei.
Windi
2004-04-14, 15:24:53
Bei Computerbase gibts nen netten Artikel. Die haben wohl keine Karte bekommen schreiben aber einige interressante Sachen.
http://www.computerbase.de/artikel/hardware/grafikkarten/nvidia_geforce_6800_ultra/
Das interressanteste finde ich, ist der Programmable Video Processor, kurz PVP. Er soll der CPU 95 Prozent der Arbeitsschritte beim Abspielen von MPEG2-Videos und bis zu 60 Prozent bei deren Komprimierung abnehmen.
Schöne Meldung
Inquisitor
2004-04-14, 15:25:30
Original geschrieben von Ulukay
fast alles is down
der verbrauch vom ganzen rechner
http://techreport.com/reviews/2004q2/geforce-6800ultra/power.gif
sind grad mal 8 Watt mehr als bei der 5950u :lolaway:
http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-20.html
hier nicht
(del676)
2004-04-14, 15:27:43
The NV40 reference board we tested was a single-slot card, with a very quiet fan that ran at a constant rate. If it was changing speeds, the acceleration/deceleration ramp was subtle enough that we never noticed it. In addition, the GPU's back heat-sink remained almost cool to the touch, even during our most grueling tests.
Instead of a single 12-volt power supply connector, the GeForce 6800 Ultra requires two. According to nVidia, the card will run using a single power supply connector, however this setup leaves almost no voltage headroom, and any variance in the power supply's output could cause system instability. For this reason, the GeForce 6800 Ultra has two 12-volt connectors.
Original geschrieben von Windi
Bei Computerbase gibts nen netten Artikel. Die haben wohl keine Karte bekommen schreiben aber einige interressante Sachen.
http://www.computerbase.de/artikel/hardware/grafikkarten/nvidia_geforce_6800_ultra/
Das interressanteste finde ich, ist der Programmable Video Processor, kurz PVP. Er soll der CPU 95 Prozent der Arbeitsschritte beim Abspielen von MPEG2-Videos und bis zu 60 Prozent bei deren Komprimierung abnehmen.
Schöne Meldung
Bei thg steht, daß die 6800 mit dem videoprocessor schlechtere Ergebnisse liefert, als die 5950 ohne :freak:
DrumDub
2004-04-14, 15:30:53
Original geschrieben von Ulukay
Instead of a single 12-volt power supply connector, the GeForce 6800 Ultra requires two. According to nVidia, the card will run using a single power supply connector, however this setup leaves almost no voltage headroom, and any variance in the power supply's output could cause system instability. For this reason, the GeForce 6800 Ultra has two 12-volt connectors.
ahhh... alles klar. 105 watt scheint also wirklich die obergrenze zu sein für einen stromanschluss. und da der nv45 mit schnellerem speicher kommrn wird, der logischerweise mehr strom verbraucht, macht das desgin absolut sinn.
Rampage 2
2004-04-14, 15:31:44
Original geschrieben von DrumDub
beyond3d ist auch down. :freak:
hab' grade auch gemerkt :freak:
offenbar haben sowohl bei 3DC als auch bei B3D die Server den Ansturm nicht überlebt;D - bei der 9700Pro war das damals aber nicht so gewesen...
reunion
2004-04-14, 15:35:34
Hat jemand einen Link der noch nicht total überlastet ist? ;(
DrumDub
2004-04-14, 15:36:07
Original geschrieben von Rampage 2
bei der 9700Pro war das damals aber nicht so gewesen...
da kannte auch noch keiner ati... ;D
thg hält dem ansturm aber stand. aber die sind ja eh etwas größer.
Inquisitor
2004-04-14, 15:38:04
3DC ist wieder da :D
MagicMat
2004-04-14, 15:40:15
...aber nicht der Link mit den Benchmarks...:(
Demirug
2004-04-14, 15:40:25
Also von Beyond3d hätte ich etwas mehr tiefe erwartet.
nggalai, mein französisch ist so mies das ich dort nur bilder und Zahlen anschauen konnte. Das sah aber gut gemacht aus.
Original geschrieben von Pirx
Der aber nicht und ist auch ziemlich gut.
wenn man kein franzoesich spricht nicht :D habe nur englisch und russisch gelernt :)
aber 3dcenter artikel is ja jetzt wieder up
r3DrUm
2004-04-14, 15:46:10
Original geschrieben von Ulukay
fast alles is down
der verbrauch vom ganzen rechner
http://techreport.com/reviews/2004q2/geforce-6800ultra/power.gif
sind grad mal 8 Watt mehr als bei der 5950u :lolaway:
Load ist nicht 3D, wenn die karte mit einem Spiel belastet wird, wird der Verbrauch höher liegen als beim booten.
LovesuckZ
2004-04-14, 15:47:10
Original geschrieben von Odal
aber 3dcenter artikel is ja jetzt wieder up
nur halb :)
Rampage 2
2004-04-14, 15:50:46
Original geschrieben von DrumDub
da kannte auch noch keiner ati... ;D
thg hält dem ansturm aber stand. aber die sind ja eh etwas größer.
nö, thg ist nur größer und saumäßig INKOMPETENT (das können sogar Laien wie ich sehen=)) - deswegen sind die nicht down - weil niemand bei denen was liest;D
Rampage 2
2004-04-14, 15:52:39
Original geschrieben von DrumDub
da kannte auch noch keiner ati... ;D
thg hält dem ansturm aber stand. aber die sind ja eh etwas größer.
Riptor
2004-04-14, 15:53:05
:D YEAH! nVidia Strikes Back! :up:
Ein absolut GEILES Stück Hardware, das muß man lassen! Für mich seit der GeForce 256 DDR und der GF3 wieder ein technisches Meisterwerk, daran wird ATIs R420 DERB zu knabbern haben. :naughty: Bin echt gespannt, ob ATI da überhaupt mithalten kann.
LovesuckZ
2004-04-14, 15:53:30
http://www.nvnews.net/previews/geforce_6800_ultra/index.shtml
Original geschrieben von Riptor
:D YEAH! nVidia Strikes Back! :up:
Ein absolut GEILES Stück Hardware, das muß man lassen! Für mich seit der GeForce 256 DDR und der GF3 wieder ein technisches Meisterwerk, daran wird ATIs R420 DERB zu knabbern haben. :naughty: Bin echt gespannt, ob ATI da überhaupt mithalten kann.
Mit so einer anisotropischen Filterung kommt bei mir keine Freude auf. Bin super enttäuscht und kanns eigentlich noch gar nicht glauben!
Weiss nicht, ob ich so ein Verhalten mit einem Kauf belohnt werden soll.
Ansonsten nette Karte...
reunion
2004-04-14, 16:02:16
Lässt sich das winkelabhängige AF abstellen?
Aquaschaf
2004-04-14, 16:02:46
Jetzt wo ich mal zumindest an den Technik-Artikel rankam ;)... Der NV40 ist mehr als ich erwartet habe :)
Jetzt wird es wenigstens mal wieder interessant nach gut einem Jahr von Refresh-Chips die immer nur Leistungszuwachs im einstelligen Bereich gebracht haben.
Aber erstmal abwarten, neue Grafikkarte kommt sowieso erst im Herbst in meinen Rechner.
Roadkill
2004-04-14, 16:03:08
Original geschrieben von Riptor
:D YEAH! nVidia Strikes Back! :up:
Ein absolut GEILES Stück Hardware, das muß man lassen! Für mich seit der GeForce 256 DDR und der GF3 wieder ein technisches Meisterwerk,
Jup, so Meisterhaft, das man wie immer auf den Refresh Chip warten muss, damit die beworbenen Features dann auch wirklich in ausreichender Geschwindigkeit dargestellt werden können(echte PS3.0 Games). HW T&L (Geforce256->Geforce2GTS), Vertex Shader (Geforce3->Geforce4ti)
ABer davon mal abgesehen, ist der NV40 ein gutes STück Hardware
Iceman346
2004-04-14, 16:06:37
Original geschrieben von reunion
Lässt sich das winkelabhängige AF abstellen?
Nope, lediglich Brilinear lässt sich deaktivieren. Wenigstens das war ein Schritt in die richtige Richtung.
reunion
2004-04-14, 16:06:47
Chip hat inzwischen auch schon ein Review, und wie imer unterste Schublade :D
http://www.chip.de/artikel/c_artikel_11772621.html
//edit:
Trotz dieser Vorsichtsmaßnahmen erwies sich die Laufstabilität im Test allerdings als uneinheitlich: Sogar mit einem 550-Watt-Netzteil gab’s Probleme; das 350-Watt-Netzteil eines anderen Herstellers lief dagegen gut. Was für die Karte weniger gut lief, war die anschließende Lüftergeräuschmessung, bei der sich eine Lautheit von 8,2 sone respektive 54,8 dB(A) ergab.
Original geschrieben von reunion
Lässt sich das winkelabhängige AF abstellen?
Nach aths Artikel LEIDER nein.
Winter[Raven]
2004-04-14, 16:08:40
@ ATHS oder Demirug
Kann diese Winkelabhänigkeit Treiberseitig sein? Wäre ja wirlich schlimm wenn Nvidia auf dem selben Weg unterwegs ist den ATI gezeigt hat.
Ich kann es mir kaum Vorstellen Nvidia ist do dumm und pinkelt sich selber ins bei wenn der R420 vielleicht keine Winkelabhänigkeit aufweisen wird, oder eine angemilderte Winkelabhänigkeit.
lest mal das review auf gamestar ^^
das könnte nv selber marketingtechnisch nicht besser schreiben
FatalError
2004-04-14, 16:09:33
mich würd interessieren wie gut die (bezahlbare) non ultra abschneidet. bzw wie der core bzw speicher skaliert.
Trotz dieser Vorsichtsmaßnahmen erwies sich die Laufstabilität im Test allerdings als uneinheitlich: Sogar mit einem 550-Watt-Netzteil gab’s Probleme; das 350-Watt-Netzteil eines anderen Herstellers lief dagegen gut. Was für die Karte weniger gut lief, war die anschließende Lüftergeräuschmessung, bei der sich eine Lautheit von 8,2 sone !! respektive 54,8 dB(A) ergab. Diese Werte sind im deutlich hörbaren Bereich.
Quelle:
http://www.chip.de/artikel/c_artikelunterseite_11772657.html?tid1=&tid2=
Bl@de
2004-04-14, 16:10:16
chip schreibt was von 8sone bzw. 13sone (bei der 5950). ich dachte immer grafikkarten haben wenn sie laut sind so 4-5 sone...sind da 13 nicht ein bisschen übertrieben :???:
Argo Zero
2004-04-14, 16:12:06
Original geschrieben von Winter[Raven]
@ ATHS oder Demirug
Kann diese Winkelabhänigkeit Treiberseitig sein? Wäre ja wirlich schlimm wenn Nvidia auf dem selben Weg unterwegs ist den ATI gezeigt hat.
Ich kann es mir kaum Vorstellen Nvidia ist do dumm und pinkelt sich selber ins bei wenn der R420 vielleicht keine Winkelabhänigkeit aufweisen wird, oder eine angemilderte Winkelabhänigkeit.
Das ist der Nachteil, wenn das Gesamtbild besser ausschauen soll. Um dagegen anzukämpfen bietet der NV40 einen Mischmodi zwischen SS- und MSAA an. Das resultat ist beachtlich im Vergleich zum R360.
Original geschrieben von reunion
Sogar mit einem 550-Watt-Netzteil gab’s Probleme; das 350-Watt-Netzteil eines anderen Herstellers lief dagegen gut.
Daß Netzteile ebenfalls in puncto Qualität/Stabilität unterschieden werden wie jede andere Hardware auch, bekommen die Pappenheimer wohl immernoch nicht ganz gebacken :stareup:
reunion
2004-04-14, 16:14:13
Original geschrieben von Gast
lest mal das review auf gamestar ^^
das könnte nv selber marketingtechnisch nicht besser schreiben
ACK, lest sich wie von nV abgeschrieben :D
http://www.gamestar.de/magazin/specials/hardware/17040/
Argo Zero
2004-04-14, 16:15:04
Original geschrieben von Gast
Trotz dieser Vorsichtsmaßnahmen erwies sich die Laufstabilität im Test allerdings als uneinheitlich: Sogar mit einem 550-Watt-Netzteil gab’s Probleme; das 350-Watt-Netzteil eines anderen Herstellers lief dagegen gut. Was für die Karte weniger gut lief, war die anschließende Lüftergeräuschmessung, bei der sich eine Lautheit von 8,2 sone !! respektive 54,8 dB(A) ergab. Diese Werte sind im deutlich hörbaren Bereich.
Quelle:
http://www.chip.de/artikel/c_artikelunterseite_11772657.html?tid1=&tid2=
Der NV40 verbraucht eigentlich nur unwesentlich mehr Strom als sein Vorgänger.
Aber mich würde es nicht wundern, wenn Chip ein 550Watt No Name Netzteil gegen ein 350Watt Marken-Netzteil verglichen hat ;)
Original geschrieben von Riptor
:D YEAH! nVidia Strikes Back! :up:
Ein absolut GEILES Stück Hardware, das muß man lassen! Für mich seit der GeForce 256 DDR und der GF3 wieder ein technisches Meisterwerk, daran wird ATIs R420 DERB zu knabbern haben. :naughty: Bin echt gespannt, ob ATI da überhaupt mithalten kann.
pcwelt:
Der große Lüfter, der auf einem für dieses Leistungsniveau moderat großen Kühlkörper sitzt, arbeitete mit 7,1 Sone. Das hörte sich an, wie wenn jemand ständig unseren Test-PC mit einem Akkustaubsauger reinigen würde.
Die Karte verbrät bis zu 95 Watt.....stimmt ein geiles Stück hahahaa
Nv ist mir solchem Verbauch und der abartigen Lautstärke wohl eher technologisch im Rückstand
Original geschrieben von Argo Zero
Das ist der Nachteil, wenn das Gesamtbild besser ausschauen soll. Um dagegen anzukämpfen bietet der NV40 einen Mischmodi zwischen SS- und MSAA an. Das resultat ist beachtlich im Vergleich zum R360.
Also ich bezweifle, ob ich den Unterschied zwischen
1280x1024 mit 4 AA od. dem 8x Mode im Spiel überhaupt sehe.
reunion
2004-04-14, 16:20:21
Wann wird der 3dc-Artikel wieder online gestellt?
winter
2004-04-14, 16:20:44
Tja, wenn die ein 550w nt mit ner combined von 180watt verwenden und ein 350er mit ner combined von 220watt, dann selber schuld ;)
Der Lamestar-Artikel ist mal wieder die Krönung ;) Ich frag mich wie die es geschafft haben, dass die 9800XT gegen die 5950 im Schwanzmark verliert, dieses Ergebniss hat mich schon immer erstaunt ;)
nggalai
2004-04-14, 16:21:39
Original geschrieben von Gast
Mit so einer anisotropischen Filterung kommt bei mir keine Freude auf. Bin super enttäuscht und kanns eigentlich noch gar nicht glauben! Ich hab' beim Lektorat des Artikels wie ein Lastwagenfahrer geflucht, das kannst Du mir glauben. Und nicht wegen aths' Englisch. ;D Ich persönlich hoffe, dass man das abschalten kann, glaube aber nicht daran, dass das in nächster Zeit möglich sein wird--falls überhaupt, könnte auch wie bei R3xx eine HW-Sache sein.
93,
-Sascha.rb
Demirug
2004-04-14, 16:22:42
Original geschrieben von Winter[Raven]
@ ATHS oder Demirug
Kann diese Winkelabhänigkeit Treiberseitig sein? Wäre ja wirlich schlimm wenn Nvidia auf dem selben Weg unterwegs ist den ATI gezeigt hat.
Ich kann es mir kaum Vorstellen Nvidia ist do dumm und pinkelt sich selber ins bei wenn der R420 vielleicht keine Winkelabhänigkeit aufweisen wird, oder eine angemilderte Winkelabhänigkeit.
Es gibt im Treiberpanel noch eine Einstellung (die höchste) die bisher scheinbar keiner zum laufen bekommen hat.
Argo Zero
2004-04-14, 16:27:12
Original geschrieben von Gast
Also ich bezweifle, ob ich den Unterschied zwischen
1280x1024 mit 4 AA od. dem 8x Mode im Spiel überhaupt sehe.
Wenn das AA unter bestimmten Winkeln im Spiel nicht greift kommt es dir vor AA wäre deaktiviert. Es fällt also störend auf. Besonders bei älteren spielen wie Half-Life fällt es auf, welche ohnein schon Pixelarm sind.
Abraxaς
2004-04-14, 16:27:16
Original geschrieben von winter
Der Lamestar-Artikel ist mal wieder die Krönung ;) Ich frag mich wie die es geschafft haben, dass die 9800XT gegen die 5950 im Schwanzmark verliert, dieses Ergebniss hat mich schon immer erstaunt ;)
hmm,hab den artikel auch gerade gelesen,der gesamte artikel baut ja fast auf dem 3dmurks03 auf.Aber die farcry benches sind schon ganz interssant,immerhin ~50% schneller als die 9800xt.
Noch ein paar Pixel Shader Test:
http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=21
Teilweise bis zu 6 facher Leistung gegenüber 5950 Ultra.
PS: Beyond @ its best. Super Artikel.
PPS: Vielleicht etwas zu wenige Test mit R3xx, aber sonst Hui!
Original geschrieben von Demirug
Es gibt im Treiberpanel noch eine Einstellung (die höchste) die bisher scheinbar keiner zum laufen bekommen hat.
Ihr bleibt ja am Ball.
Gibts zum AF keine Doku?
Auf jedenfall keimt jetzt mal ein kl. Hoffnungsschimmer und werd erstmal das Taschentuch auf die Seite legen
DrumDub
2004-04-14, 16:32:42
Original geschrieben von Argo Zero
Das ist der Nachteil, wenn das Gesamtbild besser ausschauen soll. Um dagegen anzukämpfen bietet der NV40 einen Mischmodi zwischen SS- und MSAA an. Das resultat ist beachtlich im Vergleich zum R360.
ja. die bq ist echt gut, aber der leistungsverlust ist enorm: http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-43.html#fsaa
ca. 76% leistung weniger gegenüber 4xrgmsaa bzw. 96,4fps vs. 22,4fps. in 1024x768 wirds aber sicher sehr gut spielbar sein im gegensatz zu den dort getesteten 1600x1200.
dildo4u
2004-04-14, 16:34:16
die UT2004 benchmarks könnt ihr schon mal vergessen der NV40 rendert die skybox NICHT!!.
As you can see however, GeForce 6800 Ultra doesn’t render the sky correctly – the clouds are completely missing! Hopefully this bug can be fixed in the next driver release. http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page8.asp
Original geschrieben von Argo Zero
Wenn das AA unter bestimmten Winkeln im Spiel nicht greift kommt es dir vor AA wäre deaktiviert. Es fällt also störend auf. Besonders bei älteren spielen wie Half-Life fällt es auf, welche ohnein schon Pixelarm sind.
Das habe ich nicht gewusst und - auf Holz klopf - auch noch nicht gesehen.
LovesuckZ
2004-04-14, 16:37:30
Original geschrieben von Demirug
Es gibt im Treiberpanel noch eine Einstellung (die höchste) die bisher scheinbar keiner zum laufen bekommen hat.
Jap.
Entweder ist dieser "Modus" nur ein überbleibsel einer Idee, oder er ist wirklich für das Abschalten der "Winkelabhaengigkeit" da.
chris42
2004-04-14, 16:38:43
Original geschrieben von reunion
Wann wird der 3dc-Artikel wieder online gestellt?
... 756 Benutzer online am 14. April 2004 um 16:22... :O
Aquaschaf
2004-04-14, 16:41:04
Ist es nicht am wahrscheinlichsten, dass NVidia ähnlich wie ATI bei der Filterung einfach etwas Transistoren gespart hat?
deekey777
2004-04-14, 16:44:05
Original geschrieben von winter
...
Der Lamestar-Artikel ist mal wieder die Krönung ;) Ich frag mich wie die es geschafft haben, dass die 9800XT gegen die 5950 im Schwanzmark verliert, dieses Ergebniss hat mich schon immer erstaunt ;)
Das ist doch ganz einfach: Man nehme einen FM not approved Treiber (>52.16) für die 5950 und siehe da, alles, was mit dem Patch 340 verändert wurde, ist weg.
Marodeur
2004-04-14, 16:50:26
Tjaja, die Kompetenz springt ihnen aus dem Gesicht...
Wallman
2004-04-14, 16:50:48
Er ist online:
http://www.3dcenter.de/artikel/nv40_benchmarks/
Zur Lautstärke:
"Dies macht Hoffnung, daß die Serien-Karten dann ähnlich leise sind - in der Vergangenheit haben es die Grafikkarten-Hersteller eigentlich sogar immer geschafft, die Geräuschentwicklung im Vergleich zu den Referenzmodellen noch etwas zu reduzieren. Zumindestens für diesen Test verdient sich nVidia jedoch erst einmal hohes Lob ob der (unerwartet) geringen Geräuschentwicklung der NV40-Karte."
http://www.team-novum.de/files/6800-hq-16x.jpg
:jumping:
Also ich hätte ja viel erwartet, aber das doch Ironie pur ...
Original geschrieben von LovesuckZ
nur halb :)
jupp und ich denk mal weil die meisten sich nicht fuer den artikel interessieren sondern nur benchmarkgeil sind haben sie die erstmal down gelassen :D
LovesuckZ
2004-04-14, 16:54:55
Original geschrieben von Coda
http://www.team-novum.de/files/6800-hq-16x.jpg
Also ich hätte ja viel erwartet, aber das doch Ironie pur ...
Man sollte nicht Ironie sagen: Nvidia zeigt uns doch deutlich, dass unser versagen etwas zu kritisieren eher nur in eine Richtung ging. Okay, ich hoffe, dass die "AF improved" Sprüche einer gegenüber dem R420 richtig sind. Dann heißt es entweder "High Quality" zu aktivieren oder wieder "Shader ersetzen".
dass unser versagen etwas zu kritisieren
Unser Versagen war es wohl nicht, aber die der "großen" Hardwarseiten und Magazine :/
Ich hab ja noch ne kleine Hoffnung, das sich das abschalten lässt - bezweifle es aber ziemlich stark
C0nker
2004-04-14, 17:00:07
Super das Gerät!
Das dumme ist nur dass mir eine Grafikkarte beim besten willen keine 400€ wert ist.
Da heist es wohl wieder 1-2Jahre warten um sich dann die 6800 zuzulegen. :(
Aber villeicht wird Ati das ganze ja noch toppen können
Original geschrieben von Demirug
Es gibt im Treiberpanel noch eine Einstellung (die höchste) die bisher scheinbar keiner zum laufen bekommen hat. Das wäre doch mal eine nette Idee für eine direkte Anfrage bei nVidia, ob gewohne AF-Qualität noch mit späteren Treibern nachgeliefert wird. :) Dann wäre der NV4x schon ein sehr grosser Wurf den ersten Artikeln nach.
Leo hats im Fazit auf den Punkt gebracht:
Super Chip mit klein(st)en Schwächen (wobei die AF-Schwäche wohl am meisten wiegt).
Byteschlumpf
2004-04-14, 17:02:42
Original geschrieben von C0nker
Super das Gerät!
Das dumme ist nur dass mir eine Grafikkarte beim besten willen keine 400€ wert ist.
Da heist es wohl wieder 1-2Jahre warten um sich dann die 6800 zuzulegen. :(
Aber villeicht wird Ati das ganze ja noch toppen können
Unsere 9700non-pros werden ja wohl noch bequem so lange halten! ;)
Original geschrieben von reunion
Lässt sich das winkelabhängige AF abstellen? Ob das theoretisch möglich wäre, das versuche ich zu klären.
Zwar ist das 6800-er AF besser als das R360-AF, denn
Die LOD-Berechnungen sind irgendwie genauer
Die "Ohren" sind bei exakt 22,5 und 67,5°
Die 6800 liefert dort immer 2x AF, während R300-360 ja in den "Spitzen" etwas weniger als 2x bringt.
Allerdings sind diese Vorteile marginal. Letztlich sind das AF der 6800 und der 9800 sehr vergleichbar. Die 5950 hat (abgesehen vom brilinearen Filter) viel besseres AF.
S3 macht mit dem Deltachrome doch vor, dass 16x AF auch bei sehr geringer Winkelabhängigkeit möglich ist.
Also der "Hammer" ist die Karte nun wirklich nicht,sie ist in den normalen Auflösungen knapp schneller als die aktuelle ATI.
http://www.3dcenter.de/artikel/nv40_benchmarks/index17.php
Original geschrieben von Coda
http://www.team-novum.de/files/6800-hq-16x.jpg
:jumping:
Also ich hätte ja viel erwartet, aber das doch Ironie pur ...
Was daran lustig sein soll verstehe ich nicht.
Das ist einfach nur traurig und ich hoffe doch, dass man diesen Quatsch abschalten kann.
deekey777
2004-04-14, 17:20:18
Original geschrieben von ow
Was daran lustig sein soll verstehe ich nicht.
Das ist einfach nur traurig und ich hoffe doch, dass man diesen Quatsch abschalten kann.
Hm? Das ist pure Schadensfreude - locker bleiben.
nggalai
2004-04-14, 17:26:53
Original geschrieben von Gast
Also der "Hammer" ist die Karte nun wirklich nicht,sie ist in den normalen Auflösungen knapp schneller als die aktuelle ATI.
http://www.3dcenter.de/artikel/nv40_benchmarks/index17.php Aber dafür, für "normale Auflösungen", kauft man sich ja nicht eine solche Videokarte, oder? ;)
93,
-Sascha.rb
omg,in max. Quali in die 6800 ja völlig ein Flop,die Karte bricht ja abartig ein.
dildo4u
2004-04-14, 17:29:42
Gibts eigentlich bei der NV40 endlich was vergleichbares zum 6XAA bei ati?
raumich
2004-04-14, 17:30:41
Original geschrieben von Gast
Also der "Hammer" ist die Karte nun wirklich nicht,sie ist in den normalen Auflösungen knapp schneller als die aktuelle ATI.
http://www.3dcenter.de/artikel/nv40_benchmarks/index17.php Sehe ich ähnlich! Also die Karte ist in vielen Spielen natürlich deutlich besser als meine 9800pro aber dafür kostet sie wohl auch mehr als doppelt so viel. Wer soviel Geld für eine Grafikkarte ausgeben möchte, der kriegt ein schönes Spielzeug... unbestritten.
In einigen (vor allem neueren) Spielen wie z.B. FarCry fand ich den Leistungszuwachs aber nicht so gravierend, das ich dafür jetzt ne doppelt so teure Grafikkarte bräuchte. Als ich mir vor ein paar Wochen die 9800pro geholt habe dachte ich schon: Wie sieht es wohl aus wenn die ganzen neuen Karten auf den Markt kommen. Jetzt sehe ich der Sache relativ entspannt entgegen.
Denn ob ich in einem anderen Spiel jetzt 50 oder 80 Frames habe, ist mir relativ schnuppe. Für mich ist beides flüssig genug. Und in den relativ neuen Games fehlt mir wie gesagt der Performancezuwachs, der mir den höheren Preis rechtfertigt. Tolle Hardware aber ich bin mit meiner Karte trotzdem weiterhin glücklich.
LovesuckZ
2004-04-14, 17:30:53
Original geschrieben von dildo4u
Gibts eigentlich bei der NV40 endlich was vergleichbares zum 6XAA bei ati?
8x
Original geschrieben von Gast
omg,in max. Quali in die 6800 ja völlig ein Flop,die Karte bricht ja abartig ein. Supersampling ist halt teuer.
winter
2004-04-14, 17:32:02
Original geschrieben von Gast
omg,in max. Quali in die 6800 ja völlig ein Flop,die Karte bricht ja abartig ein.
Eeerm ich fürchte du hast das ned wirklich verstanden ;) Der 8xAA Mode (der offitielle) ist, soweit ich das bisher gehöhrt hab, ein 4xMSAA (Mode 4x offitiell), Kombiniert mit 2x Supersampling, letzteres kostet schonmal 50% der Füllrate, deswegen geht die Performance auch so runter, schau dir lieber die Benches mit dem 4x Mode an, da siehst du, was realistisch ist.
LovesuckZ
2004-04-14, 17:33:08
Original geschrieben von raumich
Denn ob ich in einem anderen Spiel jetzt 50 oder 80 Frames habe, ist mir relativ schnuppe. Für mich ist beides flüssig genug. Und in den relativ neuen Games fehlt mir wie gesagt der Performancezuwachs, der mir den höheren Preis rechtfertigt. Tolle Hardware aber ich bin mit meiner Karte trotzdem weiterhin glücklich.
Ihr solltet bei Farcry auch nur die Benches beachten, welche im inneren aufgenommen wurden. Da befinden sich die meisten Shader: http://www20.tomshardware.com/graphic/20040414/feforce_6800-41.html
dildo4u
2004-04-14, 17:33:51
Original geschrieben von LovesuckZ
8x da bricht die karte aber immer ins unspielbare ein laut dem 3Dcenter test
Winter[Raven]
2004-04-14, 17:33:58
Original geschrieben von raumich
Sehe ich ähnlich! Also die Karte ist in vielen Spielen natürlich deutlich besser als meine 9800pro aber dafür kostet sie wohl auch mehr als doppelt so viel. Wer soviel Geld für eine Grafikkarte ausgeben möchte, der kriegt ein schönes Spielzeug... unbestritten.
In einigen (vor allem neueren) Spielen wie z.B. FarCry fand ich den Leistungszuwachs aber nicht so gravierend, das ich dafür jetzt ne doppelt so teure Grafikkarte bräuchte. Als ich mir vor ein paar Wochen die 9800pro geholt habe dachte ich schon: Wie sieht es wohl aus wenn die ganzen neuen Karten auf den Markt kommen. Jetzt sehe ich der Sache relativ entspannt entgegen.
Denn ob ich in einem anderen Spiel jetzt 50 oder 80 Frames habe, ist mir relativ schnuppe. Für mich ist beides flüssig genug. Und in den relativ neuen Games fehlt mir wie gesagt der Performancezuwachs, der mir den höheren Preis rechtfertigt. Tolle Hardware aber ich bin mit meiner Karte trotzdem weiterhin glücklich.
Mein Gott, zum WEIVIELTEM Male doch noch soll man es wiederholen, *seufz*
Leo hat auf einem 2.5 Ghz getestet, da LANGWEILLT SICH DER NV40 EINFACH, sowas nennt man auch CPU Lästig, würde Leo ne 3.2 oder 3.4 Reinstecken wäre der Vorstprung größer.
Demirug
2004-04-14, 17:34:01
Original geschrieben von winter
Eeerm ich fürchte du hast das ned wirklich verstanden ;) Der 8xAA Mode (der offitielle) ist, soweit ich das bisher gehöhrt hab, ein 4xMSAA (Mode 4x offitiell), Kombiniert mit 2x Supersampling, letzteres kostet schonmal 50% der Füllrate, deswegen geht die Performance auch so runter, schau dir lieber die Benches mit dem 4x Mode an, da siehst du, was realistisch ist.
Ich würde eher sagen 4xSSAA mit 2xMSAA.
seahawk
2004-04-14, 17:34:18
Na, jetzt wird NV mal für 12 Tage die Krone haben.
Richtig begeistert bin ich von der Karte nicht.
Original geschrieben von Demirug
Ich würde eher sagen 4xSSAA mit 2xMSAA. Das würde ich auch sagen. Und wenn die Leistung da ist, macht sich 8xS in einigen auflösungslimitierten Grafikdemos wirklich gut :)
OT: Jetzt wissen wir auch wieso aths in den USA war :)
Warum erzählt 3DCenter das die Karte ruhig ist,das stimmt nicht !
PcWelt und Gamestar haben die Lautstärke gemessen und dabei kamm über 7 Sone raus. Das ist abartig laut ,Pcwelt schreib das sich die Karte wie ein Staubsauger anhört.
Und dann kommt der Stromverbrauch von 80-95 Watt dazu *vogelzeig* ,NV sollte mal ne vernünftige Karte bauen.
Mark3Dfx
2004-04-14, 17:42:12
Original geschrieben von raumich
In einigen (vor allem neueren) Spielen wie z.B. FarCry fand ich den Leistungszuwachs aber nicht so gravierend, das ich dafür jetzt ne doppelt so teure Grafikkarte bräuchte. Als ich mir vor ein paar Wochen die 9800pro geholt habe dachte ich schon: Wie sieht es wohl aus wenn die ganzen neuen Karten auf den Markt kommen. Jetzt sehe ich der Sache relativ entspannt entgegen.
Ob da Far Cry mal nicht sehr CPU limitiert ist?
Mich würde mal ein Bench mit dem FX-53 und der 6800 Ultra interessieren.
Aber gibts da schon ausreichende Netzteile für? :freak:
DrumDub
2004-04-14, 17:42:18
Original geschrieben von Gast
Warum erzählt 3DCenter das die Karte ruhig ist,das stimmt nicht !
PcWelt und Gamestar haben die Lautstärke gemessen und dabei kamm über 7 Sone raus. Das ist abartig laut ,Pcwelt schreib das sich die Karte wie ein Staubsauger anhört.
Und dann kommt der Stromverbrauch von 80-95 Watt dazu *vogelzeig* ,NV sollte mal ne vernünftige Karte bauen.
einfach mal den mund halten. danke.
MeLLe
2004-04-14, 17:43:44
Original geschrieben von Gast
Warum erzählt 3DCenter das die Karte ruhig ist,das stimmt nicht !
Warum glaubst du anderen Seiten, nicht aber 3DC? Hast du eine nv40u schon persönlich gehört? Weisst du, wie sensibel die Ohren bei PC-Welt und GameStar sind? Vielleicht hat ja bei deren Tests die Putzfrau nebenan gestaubsaugt?
Sorry, aber solche unqualifizierten Beiträge find ich sehr amüsant. Mehr nicht.
Demirug
2004-04-14, 17:43:48
Original geschrieben von Mark3Dfx
Ob da Far Cry mal nicht sehr CPU limitiert ist?
Mich würde mal ein Bench mit dem FX-53 und der 6800 Ultra interessieren.
Aber gibts da schon ausreichende Netzteile für? :freak:
Farcry ist auch stark Bandbreiten limitiert. Hört sich merkwürdig an ist aber so.
Gibt es eigentlich nirgends ein 6800 non Ultra Review?
Oder hat NVidia bisher nur 6800 Ultra Karten ausgeliefert?
zum Preis
nvnews.net schreibt:
"The GeForce 6800 Ultra is expected to retail for $499, while the GeForce 6800 will debut at $299"
Auf 3dcenter steht:
"Preislich wurde die GeForce 6800 Ultra im übrigen mit 399 Dollar US-Listenpreis angegeben"
Was ist nun richtig?
Endorphine
2004-04-14, 17:45:31
Original geschrieben von aths
Das würde ich auch sagen. Und wenn die Leistung da ist, macht sich 8xS in einigen auflösungslimitierten Grafikdemos wirklich gut :) Das würdest du sagen? Dann sag' das doch, trau dich ruhig, hier reisst dir deshalb niemand den Kopf ab :D.
Mark3Dfx
2004-04-14, 17:45:48
Original geschrieben von Gast und dann kommt der Stromverbrauch von 80-95 Watt dazu *vogelzeig* ,NV sollte mal ne vernünftige Karte bauen.
Wie gut das Du uns sagen kannst wie alles besser geht.
Troll Dich weiter.
seahawk
2004-04-14, 17:46:24
Trotzdem würde ich gerne mal über die Lautstärke des Lüfters sprechen.
Haben Chip und PC Welt da die maximal Werte beim anlaufen gemessen oder den Treiber nicht installiert oder was ??
Original geschrieben von MeLLe
Warum glaubst du anderen Seiten, nicht aber 3DC? Hast du eine nv40u schon persönlich gehört? Weisst du, wie sensibel die Ohren bei PC-Welt und GameStar sind? Vielleicht hat ja bei deren Tests die Putzfrau nebenan gestaubsaugt?
Sorry, aber solche unqualifizierten Beiträge find ich sehr amüsant. Mehr nicht.
2 Reviews sagen das die Karte sehr laut ist und 3Dcenter sagt als einzige Seite das die Karte ruhig ist.
Wer lügt ?
Original geschrieben von Mark3Dfx
Wie gut das Du uns sagen kannst wie alles besser geht.
Troll Dich weiter.
Du solltest mal anderen Reviews lesen,dann weißt du auch mehr.
MeLLe
2004-04-14, 17:54:26
Original geschrieben von Gast
2 Reviews sagen das die Karte sehr laut ist und 3Dcenter sagt als einzige Seite das die Karte ruhig ist.
Wer lügt ?
Der, der nicht objektiv urteilt.
Das kann aber zum jetzigen Zeitpunkt keiner von uns - nicht du, und auch nicht ich - sagen.
Außerdem schrieben auch FiringSquad von angehmer Überraschung bei der Laustärke, um mal ein Gleichgewicht herzustellen. Na, wer lügt?
Original geschrieben von Gast
2 Reviews sagen das die Karte sehr laut ist und 3Dcenter sagt als einzige Seite das die Karte ruhig ist.
Wer lügt ?
Du lügst, weil du z.B. verschweigst, dass die Gamestar auch schrieb, dass die Lüftersteuerung nicht funktioniert.
Also bitte etwas kleinere Brödchen backen...
Black-Scorpion
2004-04-14, 17:59:53
Original geschrieben von MeLLe
Der, der nicht objektiv urteilt.
Das kann aber zum jetzigen Zeitpunkt keiner von uns - nicht du, und auch nicht ich - sagen.
Außerdem schrieben auch FiringSquad von angehmer Überraschung bei der Laustärke, um mal ein Gleichgewicht herzustellen. Na, wer lügt?
Bei mir ist auch fast jede Karte angenehm leise.
Ich habe aber auch 4 Gehäuse- und 2 Netzteillüfter drinn.
Also wäre ich mit solchen Aussagen vorsichtig, zumal beide? (3DC und FiringSquad) keine Meßwerte geschrieben haben.
wrdaniel
2004-04-14, 18:02:36
da hat nvidia wirklich ne sehr schoene karte hingelegt. gute shaderleistung, gutes AA, leider nur winkelabhaengiges AF. sozusagen ein sehr schneller r3*0 mit SS, und 3.0 Shadern. Was will ein Ati Fan mehr :)
jetzt noch abwarten was der R420 bringt.
dildo4u
2004-04-14, 18:09:34
http://www.tecchannel.de/hardware/1378/0.html tecchannel test
http://www.hardocp.com/article.html?art=NjA1
Hardocp test *noch down*
seahawk
2004-04-14, 18:10:53
Ich denke Beyond 3D führt uns auf den richtigen Weg.
Note that the fan appears to be variable speed dependant on the temperature. When the PC is turned the fan spins up to full speed, where it is quite loud, but once the drivers are loaded it spins down to a level that is barely audible over the P4 CPU fan. We ran an open test system it may be the case that in an enclosed environment the temperature may rise and the fan spin up even faster, thus beginning to be more audible.
At present the 2D and 3D operating speeds are the same, however NV40 is capable of altering it clock speeds for various conditions, so it is possible that this may be enabled on final boards.
Die hohen Sonewerte wurden bestimmt ohne die Regulierung des Lüfters durch den Treiber erzielt, als wenn der Lüfter auf maximaler Lautstärke lief. Dies ist aber in der PRaxis wohl seltenst der Fall.
OT
mal etwas richtig OT;
aber,
[b]das Unreal3-Demo ist richtig geil [/g]
crane
2004-04-14, 18:12:01
Die höchste Treibereinstellung im Panel, die gegenwärtig nicht funktioniert, soll angeblich die Winkelabhängigkeit beim AF umgehen (lt.Posting im NVNews Forum) - also vielleicht doch noch Hoffnung :-)
Der tecchannel test ist unter aller Sau :down: ERst mal nur 10 Zeilen pro Seite, und dann noch Werbung mitten im Text. Der Test an sich ist auch ein Witz.
san.salvador
2004-04-14, 18:13:10
http://www.3dcenter.de/artikel/nv40_benchmarks/index17.php
1600x1200
Setting 3
Nvidia<5 fps
Muha! Ich lach mich krumm. ;D
Ich hab ja nix gegen den NV40 aber so wie das da steht isses ja wirklich peinlich.
Ansonsten: Super Review, weiter so!
Sephiroth
2004-04-14, 18:16:17
Original geschrieben von san.salvador
http://www.3dcenter.de/artikel/nv40_benchmarks/index17.php
1600x1200
Setting 3
Nvidia<5 fps
Muha! Ich lach mich krumm. ;D
Ich hab ja nix gegen den NV40 aber so wie das da steht isses ja wirklich peinlich.
Ansonsten: Super Review, weiter so!
Da ist der Ut2004 Test http://www.3dcenter.de/artikel/nv40_benchmarks/index27.php noch krasser.
Wie kann es sein, daß die 5950U mehr FPS hat als die 6800U? Imo muß muß da einfach noch einiges an den Treibern getan werden, nicht nur auf diesen Test bei UT2004 bezogen. Denn auch mit der 8x AA Modi ist zwar schön anzusehen, doch von der Leistung ist er abartig. 16xAF und 4xAA bekommt man quasi für lau, nur dieser 8xAA Modi haut tierisch rein, sodaß einem die Tränen kommen (könnten).
P.S.
Ich hoffe auch das uns in einem neueren Treiber der ATI Texture-Matsch(bitte nicht hauen ;D) erspart bleibt oder ausgeschaltet werden kann.
Farcry ist ein next Gen Game richtig ?!
Dann würde ich sagen das der NV40 nicht grad was drauf hat
http://www.tecchannel.de/hardware/1378/images/0015352_PIC.gif
Super Grobi
2004-04-14, 18:24:46
Also ich bin ein kleines bischen entäuscht. Die 3dMark03 Werte sind ja irre geilö, aber in den Spiele-Benchmarks muss ich sagen das die NV40 zumteil nicht so doll ist. Also da mir die 2 Stromanschlüsse richtig sauer aufstossen (voralen dei hohe Watt anforderung) werde ich am nächsten 1. zur 9800XT greifen und hoffe das der Preis noch auf 350 Euro fällt. Ich bin mir sehr sicher das die NV40 499,- Euro kosten wird.
Gruss
SG
LovesuckZ
2004-04-14, 18:27:34
Wie oft noch!
Indoor -> viele PS2.0 oder hoeher -> GPU abhaengig
Outdoor -> limitiert fast die CPU
Warum verstehen das einige nicht?
Original geschrieben von Gast
Farcry ist ein next Gen Game richtig ?!
Dann würde ich sagen das der NV40 nicht grad was drauf hat
http://www.tecchannel.de/hardware/1378/images/0015352_PIC.gif
schonmal daran gedacht das in der gebenchten szene eine bandbreiten und cpu limitierung vorliegen koennte?
dildo4u
2004-04-14, 18:28:26
http://www.extremetech.com/article2/0,1558,1567272,00.asp
extremetech test
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MjE=
Hexus test
seahawk
2004-04-14, 18:30:29
Auf Dinge wie eine CPU Limitierung bei kommen manche hier allerdings wohl nicht - oder.
Im 3DC Test ist es ein P4 2,53 ghz gewesen.
Man wird den Nv40 erst im Vergleich zum R420 richtig vergleichen können.
Original geschrieben von Gast
Farcry ist ein next Gen Game richtig ?!
Dann würde ich sagen das der NV40 nicht grad was drauf hat
http://www.tecchannel.de/hardware/1378/images/0015352_PIC.gif
Die NV Fans hatten Recht,der NV40 ist der Hammer....Hammer Stromverbrauch, Hammer groß und Hammer teuer
deekey777
2004-04-14, 18:31:51
Kann es sein, dass die 6800 Ultra noch nicht ganz fertig ist? Der Treiber ist noch halbgar, die Takte der Grafikkarte sind sehr konservativ gewählt. Vielleicht ändert es sich noch bis zum richtigen Release.
dildo4u
2004-04-14, 18:32:19
Original geschrieben von dildo4u
http://www.extremetech.com/article2/0,1558,1567272,00.asp
extremetech test
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MjE=
Hexus test
NV40 bleibt extrem cool laut hexus nach mehre 3Dmakr03 runs nur 44° core temperatur meßfehler?
LovesuckZ
2004-04-14, 18:41:14
Und, der NV40 scheint nicht bandbreitenlimitiert zu sein, laut Hexus.net...
Laut Leo ja auch nicht, da das OCen vom Speicher kaum was gebracht hat.
Demirug
2004-04-14, 18:43:46
Original geschrieben von LovesuckZ
Und, der NV40 scheint nicht bandbreitenlimitiert zu sein, laut Hexus.net...
Mit dem 3dmark03 würde ich das aber nicht testen.
It's quite noisy at full speed, but it does slow down in 2D mode to much more tolerable levels. It sounds, to my deaf old ears, to be ~50dBA from a couple of feet away at ear height in 3D mode.
Langsam sollte sich die Reviewer mal einig werden, ~50dB ist nämlich verdammt laut!
LovesuckZ
2004-04-14, 18:45:32
Original geschrieben von Demirug
Mit dem 3dmark03 würde ich das aber nicht testen.
Naja, 12% Coreerhöung schwappt in 9% Mehrleistung über. Eigentlich fine.
Aber schoeneres von Hexus.net:
High Quality apparently turns off angle-adaptive anistropic filtering, for which the ability to do so would have been a boon for these initial articles on NV40, so we can evaluate its effects. A further article will have to do, fix it ASAP please, NVIDIA.
Original geschrieben von LovesuckZ
Wie oft noch!
Indoor -> viele PS2.0 oder hoeher -> GPU abhaengig
Outdoor -> limitiert fast die CPU
Warum verstehen das einige nicht?
Warum sollte das gerade so sein? Weil du dir das wünscht? :P
Ich glaube eher dass es draussern sehr alpha lastig ist und somit das Ganze SEHR auf die Speicherbandbreite geht. Mal ganz zu schweigen von dem Overdraw der draussen WESENTLICH übler ist als drinnen.
Mal so ne dumme Frage am Rande: Nutzt Farcry in der Version 1.1 schon den 64Bit FP Framebuffe?
Morpheus2200
2004-04-14, 18:48:14
Original geschrieben von Gast
Farcry ist ein next Gen Game richtig ?!
Dann würde ich sagen das der NV40 nicht grad was drauf hat
http://www.tecchannel.de/hardware/1378/images/0015352_PIC.gif
Erstmal würd ich warten bis NV nen richtigen treiber für die karte hat. jetzt schon zu sagen sie habe nichts drauf ist etwas voreilig, die ganzen anderen benches lassen ja schon erahnen was sie kann. und es wird sicherlich noch nen Performance schub bei farcry geben!
Winter[Raven]
2004-04-14, 18:49:08
Original geschrieben von LovesuckZ
Naja, 12% Coreerhöung schwappt in 9% Mehrleistung über. Eigentlich fine.
Aber schoeneres von Hexus.net:
High Quality apparently turns off angle-adaptive anistropic filtering, for which the ability to do so would have been a boon for these initial articles on NV40, so we can evaluate its effects. A further article will have to do, fix it ASAP please, NVIDIA.
Wie wärs mit ne Petition damit Nvidia diesen Müll mal Fixed?
Marodeur
2004-04-14, 18:49:30
Ich hoffe Anandtech rafft sich auf und macht mit der Karte einen CPU-Skalierungstest. *seufz*
Das der Chip kühl läuft könnte bei dieser großen Kühlfläche schon sein...
Demirug
2004-04-14, 18:49:32
Original geschrieben von LovesuckZ
Naja, 12% Coreerhöung schwappt in 9% Mehrleistung über. Eigentlich fine.
Aber schoeneres von Hexus.net:
High Quality apparently turns off angle-adaptive anistropic filtering, for which the ability to do so would have been a boon for these initial articles on NV40, so we can evaluate its effects. A further article will have to do, fix it ASAP please, NVIDIA.
Ich meinte eine Bandbreite Limitierung.
Das "High Quality" das Mittel gegen die Winkelabhängigkeit sein soll wurde ja schon öfter vermutet. Ich kann mir ehrlich gesagt auch nicht vorstellen das nVidia die Fähigkeit aus den TMUs entfernt hat.
Original geschrieben von Odal
schonmal daran gedacht das in der gebenchten szene eine bandbreiten und cpu limitierung vorliegen koennte?
Schon mal daran gedacht, sich den Far Cry Bench auch auf tecchannel anzuschauen? Nullo CPU Limitierung!
1024x768 ohne AA u. AF --> 45 fps
mit AA u. AF --> 33 fps
Wo solle den jetzt die CPU Limitierung herkommen. Doch nicht etwa durch die hohe Treiberlast bei zu schalten von AA.
Also manchmal werden hier die Gäste behandelt....
Original geschrieben von Gast
Schon mal daran gedacht, sich den Far Cry Bench auch auf tecchannel anzuschauen? Nullo CPU Limitierung!
1024x768 ohne AA u. AF --> 45 fps
mit AA u. AF --> 33 fps
Wo solle den jetzt die CPU Limitierung herkommen. Doch nicht etwa durch die hohe Treiberlast bei zu schalten von AA.
Also manchmal werden hier die Gäste behandelt....
mit welcher AA/AF stufe wurde denn gebencht? das musst du dazu schreiben....
weil ein einbruch um 20-25% ist nicht allzuhoch....was auf cpu/bandbreitenlimitierung schliessen laesst...
jo, man kann nur hoffen, dass die Sache mti Far Cry mit neueren Treibern besser wird.
Is ja nicht umsonst eine NextGen Karte, die ein NextGen Spiel super darstellen soll :)
Die 3Dcenter Ergebnisse unterscheiden sich schon ziemlich krass von denen anderer Reviewseiten, das liegt wohl eher am deaktiviertem brilinear Mist denn an der "langsamen" CPU.
16xAF+4xAA sind fast nie CPU Limitiert auf 1280x1024 bei aktuellen Games. Selbst auf der NV40 net.
Omnicron
2004-04-14, 18:59:27
Original geschrieben von seahawk
Ich denke Beyond 3D führt uns auf den richtigen Weg.
Die hohen Sonewerte wurden bestimmt ohne die Regulierung des Lüfters durch den Treiber erzielt, als wenn der Lüfter auf maximaler Lautstärke lief. Dies ist aber in der PRaxis wohl seltenst der Fall.
Meinung von bit-tech:
"The fan was superbly quiet, in fact upon stopping the CPU fan the NV40 was barely audible even after many hours of hard testing."
extremetech:
"The NV40 reference board we tested was a single-slot card, with a very quiet fan that ran at a constant rate. If it was changing speeds, the acceleration/deceleration ramp was subtle enough that we never noticed it. In addition, the GPU's back heat-sink remained almost cool to the touch, even during our most grueling tests."
x-bit labs:
"I was surprised to find out that the new cooling system is rather quiet. To be more exact, it generates quite a bit of noise when you start your computer and reboot it. In a little while the fan rotation speed management system calms down, as the temperature remains low enough and reduces the fan rotation speed, which makes the level of generated noise much lower, though you can still hear this fan. When you start 3D applications the fan doesn’t speed up to the utmost of its power like we saw with GeForce FX 5950 Ultra, so playing games with the new GeForce 6800 Ultra promises to be quite a pleasant occupation. I assume the fan speeds up only if the core temperature grows up to a certain threshold."
Scheint sich also nicht um einen Dustbuster2 zu handeln, also kann man wohl wieder auf schicke leise Customkühler der Boardhersteller hoffen.
:)
Original geschrieben von Odal
mit welcher AA/AF stufe wurde denn gebencht? das musst du dazu schreiben....
weil ein einbruch um 20-25% ist nicht allzuhoch....was auf cpu/bandbreitenlimitierung schliessen laesst...
Sorry, beziehe mich auf das Schaubild von tecchannel.
Also 4AA u. 8AF bei 1024*768
Nochmal die Werte des NV40 gerundet:
ohne AA AF 45 fps
mit 33 fps
wenn jetzt hier die 9800XT u. NV40 gleich auf liegen mit 33 fps, kann keine CPU Limitierung vorliegen, da ja ohne AA u. AF 45 fps ausgewiesen werden. Aber keine Ahnung was da und wie tecchannel bencht??
Original geschrieben von HOT
Die 3Dcenter Ergebnisse unterscheiden sich schon ziemlich krass von denen anderer Reviewseiten, das liegt wohl eher am deaktiviertem brilinear Mist denn an der "langsamen" CPU.
16xAF+4xAA sind fast nie CPU Limitiert auf 1280x1024 bei aktuellen Games. Selbst auf der NV40 net.
naja beim nv3x hat die brilineare optimierung kaum leistung gebracht
Demirug
2004-04-14, 19:01:12
Original geschrieben von Nedo
jo, man kann nur hoffen, dass die Sache mti Far Cry mit neueren Treibern besser wird.
Is ja nicht umsonst eine NextGen Karte, die ein NextGen Spiel super darstellen soll :)
An den Shadern liegt es jedenfalls nicht. Die sind ordentlich schnell. Auch die welche eigentlich für die ATI Karten bestimmt sind.
Noch ein paar kleine Infos zur Technik:
http://www.tommti-systems.de/start.html
Original geschrieben von Gast
Sorry, beziehe mich auf das Schaubild von tecchannel.
Also 4AA u. 8AF bei 1024*768
Nochmal die Werte des NV40 gerundet:
ohne AA AF 45 fps
mit 33 fps
wenn jetzt hier die 9800XT u. NV40 gleich auf liegen mit 33 fps, kann keine CPU Limitierung vorliegen, da ja ohne AA u. AF 45 fps ausgewiesen werden. Aber keine Ahnung was da und wie tecchannel bencht??
naja ausser die 9800xt waer dort auch bandbreiten bzw. cpu limitiert...was ich aber mal stark anzweifle
Mr. Lolman
2004-04-14, 19:07:45
Original geschrieben von Demirug
An den Shadern liegt es jedenfalls nicht. Die sind ordentlich schnell. Auch die welche eigentlich für die ATI Karten bestimmt sind.
Wieso, FC hat doch nen NV40Pfad?
Demirug
2004-04-14, 19:09:21
Original geschrieben von Gast
Noch ein paar kleine Infos zur Technik:
http://www.tommti-systems.de/start.html
Bei den NV Pipelines muss die Textureinheit eigentlich unter den ersten Recheneinheiten kommen.
Original geschrieben von Odal
naja ausser die 9800xt waer dort auch bandbreiten bzw. cpu limitiert...was ich aber mal stark anzweifle
Warum denn nicht? Auch die 9800XT macht wohl bei massivem transpentem Overdraw die Grätsche :D
Marodeur
2004-04-14, 19:11:05
Also mit einem Athlon64 3400+ als Antrieb scheint die Karte auch Far Cry ordentlich Dampf zu machen....
http://www.anandtech.com/video/showdoc.html?i=2023&p=17
Demirug
2004-04-14, 19:11:29
Original geschrieben von Mr. Lolman
Wieso, FC hat doch nen NV40Pfad?
Der wird aber nicht mit DX 9.0b aktiviert. 9.0c darf aber noch keiner ohne besondere Genehmigung in öffentlichen Benchmarks benutzten.
Zudem habe ich die Shaderspeed auf andere Art messen lassen.
Original geschrieben von Odal
naja ausser die 9800xt waer dort auch bandbreiten bzw. cpu limitiert...was ich aber mal stark anzweifle
Du willst mich veräppeln??? Laut dem Bench von tecchannel ist ein CPU Limitierung unter den Settings ausgeschlossen.
Die Graka hat "nichts" mit der CPU zu tun.
Original geschrieben von HOT
Warum denn nicht? Auch die 9800XT macht wohl bei massivem transpentem Overdraw die Grätsche :D
naja die fps hoeren sich aber nach nem innenlevel an....
und dort gibts a keinen so grossen overdraw und b ist da die 9800xt trotz guter shader performance ... shader limitiert....zumindest brechen die fps immer massiv weg wenn oberflaechen mit viel ps2.0 shadern ins bild kommen
Demirug
2004-04-14, 19:13:11
Original geschrieben von Marodeur
Also mit einem Athlon64 3400+ als Antrieb scheint die Karte auch Far Cry ordentlich Dampf zu machen....
http://www.anandtech.com/video/showdoc.html?i=2023&p=17
Ich habe den Eindruck das bei farcry die benutzte Demo auch eine nicht unbedeutende Rolle spielt.
habt ihr die karte schon irgendwo gelistet gesehen?
Original geschrieben von Gast
Du willst mich veräppeln??? Laut dem Bench von tecchannel ist ein CPU Limitierung unter den Settings ausgeschlossen.
Die Graka hat "nichts" mit der CPU zu tun.
1. liess erstmal meinen post..ich schreib cpu ODER bandbreite
2. hab ich es selber stark angezweifelt....
Jenaq
2004-04-14, 19:17:27
1. Mich würden die Benchmark Ergebnisse einer NON Ultra Version interessieren, auf 12 Pipelines reduziert (vieleicht noch was anderes offline?) dürfte sie ja auf keinen Fall auf R98XT Niveau liegen. Sollte das dennoch der Fall sein, liegts am Treiber oder irgendwas ist an der Architektur faul...
2. Warum Call of Duty dermasen hohe FPS auswirft kann keiner Erklären oder ^^ Liegts an den guten NV-OpenGL Extensions?
3. An Far Cry scheiden sich doch seit erscheinen die Geister, will man ordentliche Grafik muss man den Patch unten lassen (zumindest auf NV-Karten). Sollen erstmal richtig Patchen oder NV muss was am Treiber drehn.
dildo4u
2004-04-14, 19:20:14
http://www.nordichardware.com/reviews/graphiccard/2004/nv40/index.php?ez=13 test mit anderen games als immmer nur UT2004
Max Payne 2
1280x1024, 4xAA/8xAF
GeForce 6800 Ultra
122.6
Radeon 9800 XT
105.9
GeForce 5950 Ultra
79.6
Tomb Raider
1280x1024
GeForce 6800 Ultra
58.9
Radeon 9800 XT
54
GeForce 5950 Ultra
33.9
Battlefield 1942
1280x1024, 4xAA/8xAF
GeForce 6800 Ultra
94.7
Radeon 9800 XT
90.1
GeForce 5950 Ultra
58.4
Guck euch das mal an schon nicht mher soo krass der unterschied wenn man mal ein paar nicht treiber optemierte games testet
Marodeur
2004-04-14, 19:22:11
Original geschrieben von Demirug
Ich habe den Eindruck das bei farcry die benutzte Demo auch eine nicht unbedeutende Rolle spielt.
Glaube ich auch. Leider steht bei Anandtech nichts dabei welcher Art die Demo ist...
Original geschrieben von Odal
1. liess erstmal meinen post..ich schreib cpu ODER bandbreite
2. hab ich es selber stark angezweifelt....
Dann anders rum, warum ist für dich eine CPU Limitierung immer noch möglich - bezogen auf den tecchannel Bench?
Original geschrieben von dildo4u
http://www.nordichardware.com/reviews/graphiccard/2004/nv40/index.php?ez=13 test mit anderen games als immmer nur UT2004
http://www.nordichardware.se/diagram/bilder/3.jpg
http://www.nordichardware.se/diagram/bilder/3.jpg
waer ja ganz interessant..nur zu geringe aufloesung...
1600x1200 sollten schon dabei sein
Also das U3 Video sieht wirklich Hammer aus :o IMHO fast schon zu gut, das macht mir langsam Angst. Wenn man auch überlegt dass die noch in Alpha/Beta Status ist.
dildo4u
2004-04-14, 19:27:18
Original geschrieben von Odal
waer ja ganz interessant..nur zu geringe aufloesung...
1600x1200 sollten schon dabei sein DVI ist zukunft also TFT also 1280*1024 Jeder halbwegs erschwingliche CRT der 1600*1200 schafft ist augenfeindlich
dildo4u
2004-04-14, 19:28:15
Original geschrieben von thop
Also das U3 Video sieht wirklich Hammer aus :o IMHO fast schon zu gut, das macht mir langsam Angst. Wenn man auch überlegt dass die noch in Alpha/Beta Status ist. Wo zu saugen bitte am besten per pn;-)
Original geschrieben von thop
Also das U3 Video sieht wirklich Hammer aus :o IMHO fast schon zu gut, das macht mir langsam Angst. Wenn man auch überlegt dass die noch in Alpha/Beta Status ist.
WO kann man sich das Video anschauen?
Original geschrieben von Gast
Dann anders rum, warum ist für dich eine CPU Limitierung immer noch möglich - bezogen auf den tecchannel Bench?
ich habe mir den techchannel nicht angeschaut..ich kenn nur die werte die du gepostet hast und die anderer benches...
1. an schwachen shadern kanns beim nv40 nicht liegen (siehe halo und TRAOD die massiven shadereinsatz haben und wo er ueberdurchschnittlich performant ist)
2. an fuellrate kanns auch nicht wirklich liegen da diese bedeutend hoeher als beim nv35 ist...
3. am unperformanten 8x AA modus kanns nicht liegen da ja mit 4x AA gebencht wurde
4. an nicht DX9 effekten kanns auch nicht liegen da in anderen games der nv40 die alte generation auch versaegt...
so nun sag du es mir woran das sonst noch liegen koennte....
max. ist farcry total verbuggt oder der nv treiber/shadercompiler noch verbuggt oder [absurde spekulation]farcry besitzt einen anti NV40 modus[/absurde spekulation]
dildo4u
2004-04-14, 19:32:37
http://www.anandtech.com/video/showdoc.html?i=2023&p=1
Anandtech test!
Der dildo hat PN :) Ich denke wenn die URL gepostet wird ist der Server in 5 Minuten platt, ist mir natürlich egal ;)
Marodeur
2004-04-14, 19:33:26
Original geschrieben von dildo4u
DVI ist zukunft also TFT also 1280*1024 Jeder halbwegs erschwingliche CRT der 1600*1200 schafft ist augenfeindlich
Ich hasse TFT...
Und ich halte 1600*1200 auf einem Samsung Syncmaster 959NF nicht für augenfeindlich und der CRT ist auch erschwinglich (mittlerweile)...
Original geschrieben von seahawk
Na, jetzt wird NV mal für 12 Tage die Krone haben.
Richtig begeistert bin ich von der Karte nicht.
Lass hören: was begeistert dich denn nicht?
Und was glaubst du könnte dich am R420 begeistern?
Demirug
2004-04-14, 19:34:28
Also der Treiber kommt mit den Farcry Shadern gut zurecht. Ich habe mir jetzt noch nicht jeden einzelnen angeschaut Aber im Durchschnitt liegt die Performancesteigerung gegenüber dem NV35 bei der Shaderpower sogar überdurchschnittlich hoch.
Original geschrieben von dildo4u
DVI ist zukunft also TFT also 1280*1024 Jeder halbwegs erschwingliche CRT der 1600*1200 schafft ist augenfeindlich
darum gehts ja nicht was augenfreundlich ist und was nicht...
sondern darum das es keinen sinn macht in einer aufloesung zu testen wo der chip sich langweilt..da erkennt man dann auch keine grossen unterschiede zur alten generation...zumindest nicht wenn man auf aktuellen systemen testet....
Original geschrieben von dildo4u
DVI ist zukunft also TFT also 1280*1024
Erst redest du von Zukunft, dann erwähnst du aber die aktuelle Normalität... Wenn schon Zukunft, dann mindestens TFTs mit 1600x1200 ;)
dildo4u
2004-04-14, 20:02:31
url: torstenb.homeip.net
benutzer/password: (leerzeichen)
Letz kill dis serva:-)
UNREALEngine3Video NV40 presentation
P.S:Funzt nur mit ftp programm P.P.S:Many THX an Thop;-)
Wie ich eben erfahren habe is der Server schon tot (<1kb/s) ;D
PS. thx gebühren natürlich nicht mir sondern dem ausem b3d forum :)
PPS. er scheint doch noch mit ~30kb/s zu halten :)
dildo4u
2004-04-14, 20:31:21
sorry für die ganzen teile aber freenet hat ne 1.5mb beschränkung pro file
UnrealEngine3Video LOHNT sich wirklich:-)
http://people.freenet.de/Dildo4u/unreal3_0002rename.part01.rar
http://people.freenet.de/Dildo4u/unreal3_0002rename.part02.rar
http://people.freenet.de/Dildo4u/unreal3_0002rename.part03.rar
http://people.freenet.de/Dildo4u/unreal3_0002rename.part04.rar
http://people.freenet.de/Dildo4u/unreal3_0002rename.part05.rar
http://people.freenet.de/Dildo4u/unreal3_0002rename.part06.rar
http://people.freenet.de/Dildo4u/unreal3_0002rename.part07.rar
http://people.freenet.de/Dildo4u/unreal3_0002rename.part08.rar
http://people.freenet.de/Dildo4u/unreal3_0002rename.part09.rar
Is freenet also voller DSL speed
LovesuckZ
2004-04-14, 20:33:41
Guckt euch die Pixelshadermessungen an: http://www.xbitlabs.com/articles/video/display/nv40.html
Xbitmark oder so -> 1.5 bis 3 facher Speed zum r360
HL2 Beta (http://www.xbitlabs.com/articles/video/display/nv40_29.html) -> CPU limitiert und glaube fast 2.5 fach.
Tja, damit hat Nvidia wohl alles erreicht, was es zu erreichen gab. Nun ist ATi dran
P.S: Der NV40 scheint nicht andbreitenlimitieren: http://www.xbitlabs.com/articles/video/display/nv40_15.html
Original geschrieben von LovesuckZ
Guckt euch die Pixelshadermessungen an: http://www.xbitlabs.com/articles/video/display/nv40.html
Xbitmark oder so -> 1.5 bis 3 facher Speed zum r360
HL2 Beta (http://www.xbitlabs.com/articles/video/display/nv40_29.html) -> CPU limitiert und glaube fast 2.5 fach.
Tja, damit hat Nvidia wohl alles erreicht, was es zu erreichen gab. Nun ist ATi dran
P.S: Der NV40 scheint nicht andbreitenlimitieren
was ich nun wieder sehr komisch daran finde ist das sie die r9800xt und fx5950u im farcryDEMO nun doch so deutlich schlaegt und in der final nicht soviel besser als eine r9800xt ist
http://www.xbitlabs.com/articles/video/display/nv40_31.html
der hl2beta link funzt nicht
Matrix316
2004-04-14, 20:42:54
Original geschrieben von Xmas
Erst redest du von Zukunft, dann erwähnst du aber die aktuelle Normalität... Wenn schon Zukunft, dann mindestens TFTs mit 1600x1200 ;)
Genau! Aber selbst 1600*1200 ist bei einem Samsung 959NF z.B. auch auf dem Desktop durchaus auszuhalten. Allerdings in Spielen und besonders bei Egoshootern, ist die Schärfe eh uninteressant.
Deutsche Nvidia-Info:
http://www.nvidia.de/page/geforce_6800.html
up
Original geschrieben von Odal
ich habe mir den techchannel nicht angeschaut..ich kenn nur die werte die du gepostet hast und die anderer benches...
1. an schwachen shadern kanns beim nv40 nicht liegen (siehe halo und TRAOD die massiven shadereinsatz haben und wo er ueberdurchschnittlich performant ist)
2. an fuellrate kanns auch nicht wirklich liegen da diese bedeutend hoeher als beim nv35 ist...
3. am unperformanten 8x AA modus kanns nicht liegen da ja mit 4x AA gebencht wurde
4. an nicht DX9 effekten kanns auch nicht liegen da in anderen games der nv40 die alte generation auch versaegt...
so nun sag du es mir woran das sonst noch liegen koennte....
max. ist farcry total verbuggt oder der nv treiber/shadercompiler noch verbuggt oder [absurde spekulation]farcry besitzt einen anti NV40 modus[/absurde spekulation]
Alles klar, Du gehst die Sache anders an.
Ich bezog mich rein auf das Zahlenmaterial des Benches und hab dieses interpretiert auf CPU bzw. Bandbreitenlimitierung.
Ich denke, der tecchannel FarCry-ench ist eh total fürn Herbert und hat eigentl. gar keine Aussagefähigkeit, weil er mir zu weit von den anderen Ergebnissen abweicht.
LovesuckZ
2004-04-14, 20:47:30
Shadermark (http://www.techreport.com/reviews/2004q2/geforce-6800ultra/shadermark.gif) bei Techreport.com (http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=13) und Shadermark (http://img.hexus.net/v2/graphics_cards/nvidia/nv40/images/shadermark.png) bei bei Hexus.net (http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NDcmdXJsX3BhZ2U9MTg=)
Showtime
2004-04-14, 20:48:15
Danke für das Video :D
Hier noch 2 Links zum Unreal Engine 3 Video aus dem B3D Forum:
http://www.jamesbambury.pwp.blueyonder.co.uk/unreal3_0002.wmv
http://sanbjoe.home.online.no/nv40/unreal3_0002.wmv
Godmode
2004-04-14, 20:58:19
Original geschrieben von thop
Also das U3 Video sieht wirklich Hammer aus :o IMHO fast schon zu gut, das macht mir langsam Angst. Wenn man auch überlegt dass die noch in Alpha/Beta Status ist.
Also ich finde dieses Video auch überwältigend, diese Geometrie Details sind einfach hammerhaft :), aber wenn das Game endlich released ist wird es bestimmt wieder viele andere Games gaben, die das getopt haben :)
Original geschrieben von Gast
Alles klar, Du gehst die Sache anders an.
Ich bezog mich rein auf das Zahlenmaterial des Benches und hab dieses interpretiert auf CPU bzw. Bandbreitenlimitierung.
Ich denke, der tecchannel FarCry-ench ist eh total fürn Herbert und hat eigentl. gar keine Aussagefähigkeit, weil er mir zu weit von den anderen Ergebnissen abweicht.
naja wenns nur da so waere...das mit farcry is aber wo anders auch so "seltsam"
und dann noch der mysterioese test auf xbitlabs wo mit der farcryDEMO gebencht wurde..und der NV40 nun dort viel performanter ist....
Original geschrieben von Odal
naja wenns nur da so waere...das mit farcry is aber wo anders auch so "seltsam"
und dann noch der mysterioese test auf xbitlabs wo mit der farcryDEMO gebencht wurde..und der NV40 nun dort viel performanter ist....
Farcry benutzt doch bei unterschiedlichen Versionen auch unterschiedliche Renderingpfade auf nvidia-Hardware.
deekey777
2004-04-14, 21:08:15
Original geschrieben von mayo
Farcry benutzt doch bei unterschiedlichen Versionen auch unterschiedliche Renderingpfade auf nvidia-Hardware.
Da hast du Recht - nur muss die 6800 Ultra sich mit dem NV30 Pfad vergnügen, der im Vergleich zu dem R300 Pfad hässlicher ist. Was aber bei X-bit schief lief/läuft, ist deren Geheimnis.
Original geschrieben von Fadl
Hier noch 2 Links zum Unreal Engine 3 Video aus dem B3D Forum:
http://www.jamesbambury.pwp.blueyonder.co.uk/unreal3_0002.wmv
http://sanbjoe.home.online.no/nv40/unreal3_0002.wmv
danke danke danke,der Link ist super.
Ist das Videos geil oder was,wow alles schau super detailiert aus, alle Achtung Epic.
Hellfire-Torrod
2004-04-14, 21:12:04
Jup, finde ich auch....vor allem gegen ende die sache mit dem schatten und das ding da das mehr Polygone hat als eine map im spiel selbst!
Original geschrieben von Fadl
Hier noch 2 Links zum Unreal Engine 3 Video aus dem B3D Forum:
http://www.jamesbambury.pwp.blueyonder.co.uk/unreal3_0002.wmv
http://sanbjoe.home.online.no/nv40/unreal3_0002.wmv
Ich will dies Video in einer Top Qualität biiiiiitte
Original geschrieben von Demirug
An den Shadern liegt es jedenfalls nicht. Die sind ordentlich schnell. Auch die welche eigentlich für die ATI Karten bestimmt sind. Nvidia sagte öfters, welche Units jede Pipe kriegt, sei nach Spiele-Analysen entschieden worden. Eine einzelne Pipe ist imo wirklich nicht überladen mit Units, aber offenbar machts dann halt die Masse der Pipes.
Original geschrieben von mayo
Farcry benutzt doch bei unterschiedlichen Versionen auch unterschiedliche Renderingpfade auf nvidia-Hardware.
wurde ja eigentlich schon gesagt..nur wieso soll die nv40 einen besseren rendering pfad in der demo haben als in der final?
sie kann max. den nv30 pfad haben (falls dieser schon in der demo drin war) aber nicht dort bedeutend schneller sein als in der final..ausser die haben ne bremse eingebaut :D
Original geschrieben von Fadl
Hier noch 2 Links zum Unreal Engine 3 Video aus dem B3D Forum:
http://www.jamesbambury.pwp.blueyonder.co.uk/unreal3_0002.wmv
http://sanbjoe.home.online.no/nv40/unreal3_0002.wmv
Wenn ich das was in dem Video zu sehn ist als Demo zur NV40 dazu bekomm,kauf ich die NV40 sofort ;O
Karlsson
2004-04-14, 21:20:51
Hui, das nenn´ich Nextgen! Der Highend(!) R360 sieht dagegen ja teilweise aus wie Mittelklasse.
Dabei können sich selbst "Ati-Jünger" freuen: ~€500 für ne XT 9800 dürften wohl sehr bald der Vergangenheit angehören und damit auch auf das Preisgefüge in der jetzigen "Low-Highend" (5900/9800) drücken. :)
P.S.: Freue mich schon auf den NV40 vs. R420 Vergleich. Dann aber bitte auf´m A64 o.Ä. ;)
Smiley2000
2004-04-14, 21:22:27
@ gast Reicht dir die Qualität nicht oder was? Das video ist der wahnsinn.
TinyFighter
2004-04-14, 21:22:54
Also ich frag nochmal, da sich die Gemüter beruhigt haben:
Gibt es bereits Games od. wann kommen Games die die neuen Features unterstüzten u. wo man auch was "erleben" kann, was bei einer zB 9800Pro od. 5950 U nicht möglich ist?
Od. kann man noch bis Herbst warten, bis sich die Preise eingependelt haben u. es eben auch so etwas wie die Pro bei ATI gibt....also fast gleiche Leistung um eindeutig weniger Geld...:)
Außerdem könnte es nicht wieder sein das die ersten Käufer so in etwa die Tester sind u. dann wird wieder was an den Karten verbessert...
Ich weiß ich frag dumm rum aber es muss einen neue Graka her darum!!
Zu FarCry:
Ich habe mal irgendwo gelesen das die FarCry.exe der letzten Demo einer höhere Versionsnummer haben soll als die aktuelle im Game.
Vielleicht gibt es ja auch noch weitere Unterschiede.
Das fertige Game war sicherlich schon in der Presse als die Demo erschien. Und demnach ist es gut möglich das einiges am Code schon verbessert wurde oder liege ich da falsch?
Demirug
2004-04-14, 21:26:50
Original geschrieben von aths
Nvidia sagte öfters, welche Units jede Pipe kriegt, sei nach Spiele-Analysen entschieden worden. Eine einzelne Pipe ist imo wirklich nicht überladen mit Units, aber offenbar machts dann halt die Masse der Pipes.
Was willst du mir jetzt damit sagen?
Original geschrieben von Odal
wurde ja eigentlich schon gesagt..nur wieso soll die nv40 einen besseren rendering pfad in der demo haben als in der final?
sie kann max. den nv30 pfad haben (falls dieser schon in der demo drin war) aber nicht dort bedeutend schneller sein als in der final..ausser die haben ne bremse eingebaut :D
Schau dir mal die Fotos bei Tomshardware von Farcry an. Dort ist die Qualität der 6800 eindeuting besser als die von der FX5950. Vielleicht bekommt die Geforce 6800 seit Version 1.1 einfach höherwertigere Shader überreicht. Dafür spricht ja die sonstige vorbereitung auf SM3 mit Version 1.1.
Original geschrieben von Smiley2000
@ gast Reicht dir die Qualität nicht oder was? Das video ist der wahnsinn.
naja die qualitaet laesst was erahnen aber gut is sie nicht..hab mir mal das video gezogen (mit 400KB pro sec. :D )
Original geschrieben von mayo
Schau dir mal die Fotos bei Tomshardware von Farcry an. Dort ist die Qualität der 6800 eindeuting besser als die von der FX5950. Vielleicht bekommt die Geforce 6800 seit Version 1.1 einfach höherwertigere Shader überreicht. Dafür spricht ja die sonstige vorbereitung auf SM3 mit Version 1.1.
ich meinte auch im vergleich mit der 9800XT .... und was ich an bildmaterial gesehen hab bekommt die 6800u auch die reduzierte percission verpasst....
Zu dem Unreal 3 Video:
Soweit ich das richtig verstanden habe, sagt der Typ am Ende das es alles nur vorgerendet ist, also nicht live auf dem NV40 läuft. Soll aber auch mit decent framerates gehen...
Ganz davon abgesehen, kann sich noch jemand an die ersten Tech Bilder von Unreal 2 zum GF2 launch erinnern? Komplett mit Gesichtsmimik etc....
dildo4u
2004-04-14, 21:36:00
Original geschrieben von Gast
Zu dem Unreal 3 Video:
Soweit ich das richtig verstanden habe, sagt der Typ am Ende das es alles nur vorgerendet ist, also nicht live auf dem NV40 läuft. Soll aber auch mit decent framerates gehen...
Ganz davon abgesehen, kann sich noch jemand an die ersten Tech Bilder von Unreal 2 zum GF2 launch erinnern? Komplett mit Gesichtsmimik etc.... nein er sagt das der NV40 die einzige karte ist wo die Engige mit decent framerates leuft warum sollten die das sonst auf der NV40 presentation zeigen
DrumDub
2004-04-14, 21:38:45
Original geschrieben von mayo
Dafür spricht ja die sonstige vorbereitung auf SM3 mit Version 1.1.
ohne dx9c kein sm3. daran kanns also nicht liegen.
Original geschrieben von Marodeur
Ich hasse TFT...
Und ich halte 1600*1200 auf einem Samsung Syncmaster 959NF nicht für augenfeindlich und der CRT ist auch erschwinglich (mittlerweile)...
Full ack!
winter
2004-04-14, 21:42:11
Original geschrieben von Fadl
Zu FarCry:
Ich habe mal irgendwo gelesen das die FarCry.exe der letzten Demo einer höhere Versionsnummer haben soll als die aktuelle im Game.
Vielleicht gibt es ja auch noch weitere Unterschiede.
Das fertige Game war sicherlich schon in der Presse als die Demo erschien. Und demnach ist es gut möglich das einiges am Code schon verbessert wurde oder liege ich da falsch?
Ok, ich kann dir das bestätgen:
FarCry Demo1: ----> 1.1.5.1120 (Fort Demo)
FarCry Patch1.1: -> 1.1.0.1230
Und merkwürdigerweise sind die Compiler (z.B. Nvidia CG compiler) älter als die in der Demo...
Argo Zero
2004-04-14, 21:43:20
Original geschrieben von Gast
Zu dem Unreal 3 Video:
Soweit ich das richtig verstanden habe, sagt der Typ am Ende das es alles nur vorgerendet ist, also nicht live auf dem NV40 läuft. Soll aber auch mit decent framerates gehen...
Ganz davon abgesehen, kann sich noch jemand an die ersten Tech Bilder von Unreal 2 zum GF2 launch erinnern? Komplett mit Gesichtsmimik etc....
Epic macht nur die Engine bzw. Unreal Tournament.
Was dann aus der Engine für Unreal 3 herausgeholt wird werden wir sehen. Epic zeigt nur das, was die Engine später mal können wird.
Winter[Raven]
2004-04-14, 21:50:20
Original geschrieben von Argo Zero
Epic macht nur die Engine bzw. Unreal Tournament.
Was dann aus der Engine für Unreal 3 herausgeholt wird werden wir sehen. Epic zeigt nur das, was die Engine später mal können wird.
Es gibt KEIN Unreal 3, und ist derzeit auch NICHT GEPLANNT ! ;)
TinyFighter
2004-04-14, 21:51:54
Original geschrieben von TinyFighter
Also ich frag nochmal, da sich die Gemüter beruhigt haben:
Gibt es bereits Games od. wann kommen Games die die neuen Features unterstüzten u. wo man auch was "erleben" kann, was bei einer zB 9800Pro od. 5950 U nicht möglich ist?
Od. kann man noch bis Herbst warten, bis sich die Preise eingependelt haben u. es eben auch so etwas wie die Pro bei ATI gibt....also fast gleiche Leistung um eindeutig weniger Geld...:)
Außerdem könnte es nicht wieder sein das die ersten Käufer so in etwa die Tester sind u. dann wird wieder was an den Karten verbessert...
Ich weiß ich frag dumm rum aber es muss einen neue Graka her darum!!
Hallo krieg ich bitte bitte eine Antwort??:-(
Original geschrieben von DrumDub
ohne dx9c kein sm3. daran kanns also nicht liegen.
du magst ja recht haben. Aber hier ein Auszug aus dem changelog:
- Added support for NVidia NV40 chipset
- Added support for PS3.0 shader profile
Im gleichen Atemzug haben sie sicherlich die Prezision für den nv40 erhöht, was im Vergleich zur Demo einen Performanceverlust zu folge hatte. Dafur spricht ja, dass der NV40 eine bessere Qualität bietet als der NV38.
Original geschrieben von winter
Ok, ich kann dir das bestätgen:
FarCry Demo1: ----> 1.1.5.1120 (Fort Demo)
FarCry Patch1.1: -> 1.1.0.1230
Und merkwürdigerweise sind die Compiler (z.B. Nvidia CG compiler) älter als die in der Demo...
Hmmm... seltsam.
Die höheren Frameratend er demo lassen sich aber übrigens erklären wenn man sich bei X-bit-labs die Screenshots anguckt. *fg*
Demirug
2004-04-14, 21:58:32
TinyFighter, es gibt schon eine Liste mit Spielen die SM3 Support bekommen werden. In wie weit sich das auch optisch auswirken wird und wann die Spiele erscheinen weiss derzeit einfach noch keiner.
Original geschrieben von Gast
Hmmm... seltsam.
Die höheren Frameratend er demo lassen sich aber übrigens erklären wenn man sich bei X-bit-labs die Screenshots anguckt. *fg*
Ist mir auch eben aufgefallen nachdem die endlich bei mir erreichbar waren.
DrumDub
2004-04-14, 22:01:01
hier sieht man schön den unterschied zwischen dem 4xrgmsaa der 9800xt und der 6800u:
9800xt (http://www.techreport.com/reviews/2004q2/geforce-6800ultra/image.x?img=9800xt-4xaa.png)
6800u (http://www.techreport.com/reviews/2004q2/geforce-6800ultra/image.x?img=6800-4xaa.png)
beides scheint vor- und nachteile zu haben. der rauch sieht bei der 9800xt besser aus (hinter dem mittleren großen flugzeug), dafür sehen die details bei der 6800u besser aus (hinteres flugzeug rechts unter der mitte).
auch interessant: http://techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=27
hier sieht man defintiv den vorteil von fp32 gegenüber fp24 (ränder der kugel in der mitte).
nice work, techreport! :up:
Original geschrieben von Demirug
Was willst du mir jetzt damit sagen? Dass meine Vermutung, NV hätte die Pipes zu "dürr" gemacht, offenbar falsch ist.
Bin zwar kein Experte aber ich kann mir vorstellen das recht schnell Patches kommen werden die erstmal nur der Passreduktion dienen werden. Ueber die naechsten Monate kommen dann vielleicht weitere Patches wo dann das eintritt was du gerne haettest, PS/VS3.0-Only-Effekte. Koennte aber durchaus sein, das diese erst mit dem Refresh kommen da es mehr Power braucht oder wenn es ganz dumm laeuft, erst mit einer PS/VS3.0 faehigen Karte von ATI da dann die Basis breiter ist und sich der Aufwand vorher nicht lohnt. Wobei von schon von vielen Leuten hier im Forum gesagt wurde das das Umstellen/Patchen auf 3.0 nur sehr geringen Aufwand bedeutet. Kann mir aus mehreren Gruenden eh nicht vorstellen das kaum einer 3.0 Patches bringt.
Demirug
2004-04-14, 22:10:25
Original geschrieben von aths
Dass meine Vermutung, NV hätte die Pipes zu "dürr" gemacht, offenbar falsch ist.
Achso, wenn ich eine Freigabe bekomme kann ich ein paar Shader zusammenstellen die zeigen das trotz weniger Rohpower mehr Rechenleistung (pro Pipe) erreicht wird.
Demirug
2004-04-14, 22:13:59
Original geschrieben von Gast
Bin zwar kein Experte aber ich kann mir vorstellen das recht schnell Patches kommen werden die erstmal nur der Passreduktion dienen werden. Ueber die naechsten Monate kommen dann vielleicht weitere Patches wo dann das eintritt was du gerne haettest, PS/VS3.0-Only-Effekte. Koennte aber durchaus sein, das diese erst mit dem Refresh kommen da es mehr Power braucht oder wenn es ganz dumm laeuft, erst mit einer PS/VS3.0 faehigen Karte von ATI da dann die Basis breiter ist und sich der Aufwand vorher nicht lohnt. Wobei von schon von vielen Leuten hier im Forum gesagt wurde das das Umstellen/Patchen auf 3.0 nur sehr geringen Aufwand bedeutet. Kann mir aus mehreren Gruenden eh nicht vorstellen das kaum einer 3.0 Patches bringt.
Passreduktion ist sehr unwahrscheinlich. Mir ist kein Spiel bekannt das bei 2.0 bereits ans Limit gekommen ist.
Das Zauberwort bei 3.0 heist Resourcenreduktion. Man kann mit weniger Shadern die gleiche Anzahl von Effekten erreichen weil alle Variante eines Effekts zusammen in einem Shader untergebracht werden können.
Original geschrieben von Demirug
Passreduktion ist sehr unwahrscheinlich. Mir ist kein Spiel bekannt das bei 2.0 bereits ans Limit gekommen ist.
Das Zauberwort bei 3.0 heist Resourcenreduktion. Man kann mit weniger Shadern die gleiche Anzahl von Effekten erreichen weil alle Variante eines Effekts zusammen in einem Shader untergebracht werden können.
Ich habe doch gesagt ich bin kein Experte :D
Ich hatte sowas wie von PS1.3 auf PS1.4 im Kopf :) Man lernt halt nie aus.
Original geschrieben von Gast
Hmmm... seltsam.
Die höheren Frameratend er demo lassen sich aber übrigens erklären wenn man sich bei X-bit-labs die Screenshots anguckt. *fg*
bingo...nu is mir das auch aufgefallen :D
DEMO NV40
http://www.xbitlabs.com//images/video/nv40/GameProblems/farcry_nv40.jpg
So muss es aussehen :D
http://www.xbitlabs.com//images/video/nv40/GameProblems/farcry_reference.jpg
nun ist ja wieder alles klar
bzw. doch nicht...denn wieso ist der nv40 kaum schneller in farcry?
Karümel
2004-04-14, 22:26:09
Weshalb sind eigentlich jetzt die zwei Stromanschlüsse notwendig, wenn beide von einen Kabel (mit Y-Stecker) gespeist werden können?
Weiss das jemand?
Demirug
2004-04-14, 22:26:25
Original geschrieben von Gast
Ich habe doch gesagt ich bin kein Experte :D
Ich hatte sowas wie von PS1.3 auf PS1.4 im Kopf :) Man lernt halt nie aus.
So falsch ist es ja nicht. Bisher ist eben nur noch kein Spiel am Limit gewesen. Es könnte aber demnächst Spiele kommen die mit 2.0 mehr als einen Pass brauchen. AFAIK habe sich die STALKER Entwickler in der Richtung geäussert das ihnen die 2.0 Shaderlänge nicht immer reicht.
Demirug
2004-04-14, 22:28:14
Original geschrieben von Karümel
Weshalb sind eigentlich jetzt die zwei Stromanschlüsse notwendig, wenn beide von einen Kabel (mit Y-Stecker) gespeist werden können?
Weiss das jemand?
Weil man sich mit dem Y-Stecker schon leicht ausserhalb der zulässigen Leistung pro Steckerpin bewegt. Da die Pins aber in der Regel mehr aushalten als gefordert geht es eben noch.
Argo Zero
2004-04-14, 22:28:41
Original geschrieben von Karümel
Weshalb sind eigentlich jetzt die zwei Stromanschlüsse notwendig, wenn beide von einen Kabel (mit Y-Stecker) gespeist werden können?
Weiss das jemand?
Dient zur Systemstabilität.
Theoretisch ginge auch einer.
Karümel
2004-04-14, 22:30:40
Danke für die schnellen Antworten.
Rampage 2
2004-04-14, 22:32:54
Original geschrieben von Marodeur
Ich hasse TFT...
Und ich halte 1600*1200 auf einem Samsung Syncmaster 959NF nicht für augenfeindlich und der CRT ist auch erschwinglich (mittlerweile)...
Hey, ich habe absolut den selben Monitor (959NF) und spiele all meine Spiele bei 1600x1200 (außer UT2003). Meine Augen haben sich noch nie beklagt:)
16x12 rul@rt
(del676)
2004-04-14, 22:34:20
Original geschrieben von Demirug
Weil man sich mit dem Y-Stecker schon leicht ausserhalb der zulässigen Leistung pro Steckerpin bewegt. Da die Pins aber in der Regel mehr aushalten als gefordert geht es eben noch.
dann häng ich an jeden kanal der an der graka hängt noch zusätzlich eine sata pladde an und gut is?
Hellfire-Torrod
2004-04-14, 22:37:12
Ich denke, das währe schon wieder zu viel des gut...
ich darf mir n neues netzteil kaufen, denn ich hab nur zwei stränge und die sind beide mehr oder weniger voll.....(sind zwar je zwei frei, jedoch hb ich da noch laufwerke etz drann...)
Hoffa aber, das ich das irgendwie trotzdem hinbekomme....sind ja immerhin 420 watt.....!
Demirug
2004-04-14, 22:39:03
Original geschrieben von Ulukay
dann häng ich an jeden kanal der an der graka hängt noch zusätzlich eine sata pladde an und gut is?
Im Prinzip ja. Ich habe allerdings keine Ahnung wie gut der Spannungstabilisator auf dem NV40 ist. Wenn die Platten dann schwankende Lastanforderungen haben und der Stabilisator die Spannungsveränderungen nicht ausgleicht kann es Ärger geben. Wie gut das Netzteil ist spielt da natürlich auch noch eine Rolle. Ist schwer vorherzusagen.
fizzo
2004-04-14, 22:42:13
gratulation an nvidia fuer den nv40:up: - bin positiv ueberrascht!
von der 6800u konnte man heute genug in erfahrung bringen. mich persoenlich interessiert die 6800erjedoch mehr! welche daten sind bis dato bekannt bzw. bis wann sollte diese verfuegbar sein?
crane
2004-04-14, 22:42:28
Adaptives AF:
http://techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=3
Zitat:
NVIDIA was also kind enough to expose a setting in its driver that allows the user to disable its adaptive anisotropic filtering optimizations by choosing "High quality" image settings. In this case, both ATI and NVIDIA use adaptive aniso, so disabling this optimization wouldn't really be fair.
LovesuckZ
2004-04-14, 22:45:20
Toll, er hat wohl wahrscheinlich nicht bemerkt, dass sich nichts aendert...
Winter[Raven]
2004-04-14, 22:50:20
Original geschrieben von LovesuckZ
Toll, er hat wohl wahrscheinlich nicht bemerkt, dass sich nichts aendert...
Kann aber irgendwie nicht stimmen:
http://www.xbitlabs.com/images/video/nv40/nv40_performance_hit_gif/torlan_aniso_1024.gif
Die 6800Ultra verliert 3frames bei HQ ...
Original geschrieben von Winter[Raven]
Kann aber irgendwie nicht stimmen:
http://www.xbitlabs.com/images/video/nv40/nv40_performance_hit_gif/torlan_aniso_1024.gif
Die 6800Ultra verliert 3frames bei HQ ...
da kann irgendwie nicht stimmen das bei 16x AF mehr fps rausspringen als bei 8X AF ...
ausser das 16AF optimiert so stark das weniger gefiltert wird als bei 8x AF ... was keinen sinn ergibt
LovesuckZ
2004-04-14, 22:56:01
Nein, die Karte verliert mit HQ nichts, sondern bei der anderen Einstellung erwächst etwas...
zeckensack
2004-04-14, 22:56:38
Original geschrieben von Karümel
Weshalb sind eigentlich jetzt die zwei Stromanschlüsse notwendig, wenn beide von einen Kabel (mit Y-Stecker) gespeist werden können?
Weiss das jemand? Es kann dir dann passieren, dass dir (am Y-Verteiler, nicht an den Anschlüssen an der Karte) die Kontakte abbrennen ;(
Hängt alles davon ab, wie gut die Stecker in Schuss sind. Molex-"Weibchen" sind recht anfällig für Verbiegen, wodurch der Kontakt schlechter wird, bzw die Stromstärke dann eben über eine kleinere Kontaktfläche muss.
(del676)
2004-04-14, 22:59:51
Original geschrieben von Demirug
Im Prinzip ja. Ich habe allerdings keine Ahnung wie gut der Spannungstabilisator auf dem NV40 ist. Wenn die Platten dann schwankende Lastanforderungen haben und der Stabilisator die Spannungsveränderungen nicht ausgleicht kann es Ärger geben. Wie gut das Netzteil ist spielt da natürlich auch noch eine Rolle. Ist schwer vorherzusagen.
ich glaub fast ein 550 Watt NoiseBlocker Netzteil sollt über Glättungskondensatoren verfügen die solche Lastanforderungen überbrücken können :D :D
naja bald wissen wirs
*vorbestell*
Karlsson
2004-04-14, 23:09:54
Original geschrieben von zeckensack
Es kann dir dann passieren, dass dir (am Y-Verteiler, nicht an den Anschlüssen an der Karte) die Kontakte abbrennen ;(
Hängt alles davon ab, wie gut die Stecker in Schuss sind. Molex-"Weibchen" sind recht anfällig für Verbiegen, wodurch der Kontakt schlechter wird, bzw die Stromstärke dann eben über eine kleinere Kontaktfläche muss.
Die Frage hatte ich mir auch schon gestellt. Eigentlich kein Wunder bei den geringen Spannungen und der hohen Leistung. Da muss der Strom hoch. Besten Dank für die Aufklärung. :)
Ich möchte mal wissen warum die Ultra nur 400 Mhz hat ,warum haben sie nicht etwas mehr gegeben ?
Ich mein die aktuellste Karte hat doch schon 475,wenn sie diesen Takt genommen hätten würde man doch noch besser dastehn.Soll der NV45 nicht schon im Juni vorgestellt werden also sehr kurz nach dem NV40 ?
Werden dann auf 450 oder sogar 500 gehn,die ATI XT soll ja 600 Mhz haben,NV sollte da nicht sparen.
also schau mal:
6800U 16x1 mal 400 MHz
5950U 4x2 mal 475 MHz
so was ist nun schneller
rechne mal selber
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.