Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller R420 / Radeon X800 Thread
Seiten :
1
2
[
3]
4
5
6
7
8
9
10
dildo4u
2004-05-04, 20:30:06
Der Grafikchip NVIDIA GeForce 6800 Ultra Extreme kann in punkto 3D-Performance den RADEON X800 XT Platinum Edition knapp schlagen. Er erreicht zum Beispiel beim 3DMark03 Werte, die bis zu 6 Prozent höher liegen - und das trotz einer um 70 MHz geringeren Core-Taktfrequenz Ui toll 3dmurks champion sorry musste sein*g*. Bei den übrigen Benchmarks fällt der Leistungsvorsprung deutlich geringer aus, so dass man von einem echten Kopf-an-Kopf-Rennen zwischen dem GeForce 6800 Ultra Extreme und dem RADEON X800 XT Platinum Edition sprechen kann.
http://www.tecchannel.de/hardware/1384/8.html
LovesuckZ
2004-05-04, 20:31:47
Wie sagt man o schoen:
Nvidia @ best?
http://www.chip.de/news/c_news_11844422.html
Lustiger Troll
2004-05-04, 20:33:22
Original geschrieben von LovesuckZ
Wie sagt man o schoen:
Nvidia @ best?
http://www.chip.de/news/c_news_11844422.html
Benchmark "Far Cry": Statement von Nvidia
Auf eine Anfrage, wie diese extremen Verbesserungen der Benchmark-Resultate zustande kämen, sagte Nvidia-Sprecher Jens Neuschäfer gegenüber CHIP Online, dass "man bei Far Cry einerseits einen vorhandenen Treiberbug (z-culling) beseitigt, zum anderen die Treiber weiter auf das Spiel und dessen Benchmark optimiert hat".
Dem Nvidia-Sprecher zufolge sei dies ein normaler Prozess bei der Einführung einer neuen Grafikchip-Generation wie der GeForce-6-Reihe und werde auch in Zukunft weiter praktiziert. (db)
Rampage 2
2004-05-04, 20:34:12
HAAAAAAAAAAAAAAAAALLLLLLOOOOOOOOOOOOOOO, will denn irgendjemand meine Fragen beantworten? Ich warte...
dildo4u
2004-05-04, 20:34:47
Keine Frage, Nvidia ist angesichts der hohen Leistung von ATIs Radeon X800 XT (Platinum Edition) in Panik geraten. Anders ist wohl nicht zu erklären, dass man kurz vor dem Launch der Radeon X800 XT mit einer höher getakteten GeForce 6800 Ultra (Extreme Edition) gegen schießt.
Dieser Schnellschuss könnte nach hinten losgehen: Der Grund dafür liegt nicht beim Extreme-Edition-Modell - vielmehr ist der "optimierte" 61.11-Treiber mit Vorsicht zu genießen. Benennt man die Benchmark-Datei um, sackt das Ergebnis wieder deutlich hinter einer Radeon X800 XT zurück
mhh sher schade ati braucht doch konkurenz crytek soll endlich mal PS3.0 an der start bringen
seahawk
2004-05-04, 20:36:25
Original geschrieben von LovesuckZ
Wie sagt man o schoen:
Nvidia @ best?
http://www.chip.de/news/c_news_11844422.html
Hmm, auf Grund der Problem mit der gegenwärtigen Version von FarCry mit der 6800 halte ich es für legitim doe Applikation zwecks Bugfixing zu erkennen.
Wahrscheinlich ersetzt der Treiber geezielt den NV3X Pfad gegen einen speziellen NV40 Pfad der im Game noch nicht implementiert ist.
deekey777
2004-05-04, 20:37:12
Original geschrieben von Lustiger Troll
Benchmark "Far Cry": Statement von Nvidia
Auf eine Anfrage, wie diese extremen Verbesserungen der Benchmark-Resultate zustande kämen, sagte Nvidia-Sprecher Jens Neuschäfer gegenüber CHIP Online, dass "man bei Far Cry einerseits einen vorhandenen Treiberbug (z-culling) beseitigt, zum anderen die Treiber weiter auf das Spiel und dessen Benchmark optimiert hat".
Dem Nvidia-Sprecher zufolge sei dies ein normaler Prozess bei der Einführung einer neuen Grafikchip-Generation wie der GeForce-6-Reihe und werde auch in Zukunft weiter praktiziert. (db)
Seit wann gibt es in Far Cry einen Benchmark???
Rampage 2
2004-05-04, 20:37:47
Original geschrieben von Rampage 2
Ich habe einige Fragen zum R420 Chip:
1.) Unterstützt der R420 weiterhin Truform? Oder hat es dieses Feature nicht mehr? In der X800-Spezifikationsliste auf ATI's Website tauchte es nämlich nicht auf - das macht mir Sorgen.
2.) Ist das Temporal-AA optional? D.h. kann man es auch abschalten wenn man will und gewöhnliches AA nutzen?
3.) Wer hat denn nun die allgemein bessere Pixel/Vertex-Shader Performance? Nvidia oder ATI?
4.) Hat Nvidia besseres insgesamt Anisotropic Filtering als ATI? (Es gab doch so 'ne Spekulation, dass Nvidia per Patch die Isotropische Filterung verbessern will und das adaptive AF optional macht)
Also hier sind sie nochmal - bitte bitte beantworten!
Lustiger Troll
2004-05-04, 20:38:24
Original geschrieben von deekey777
Seit wann gibt es in Far Cry einen Benchmark???
Vorallem wenn man eine Verknüpfung mit -Devmode macht sollte es ja nicht mehr die Original FarCry.exe sein, oder?
Quasar
2004-05-04, 20:43:17
Original geschrieben von Rampage 2
Ich habe einige Fragen zum R420 Chip:
1.) Unterstützt der R420 weiterhin Truform? Oder hat es dieses Feature nicht mehr? In der X800-Spezifikationsliste auf ATI's Website tauchte es nämlich nicht auf - das macht mir Sorgen.
2.) Ist das Temporal-AA optional? D.h. kann man es auch abschalten wenn man will und gewöhnliches AA nutzen?
3.) Wer hat denn nun die allgemein bessere Pixel/Vertex-Shader Performance? Nvidia oder ATI?
4.) Hat Nvidia besseres insgesamt Anisotropic Filtering als ATI? (Es gab doch so 'ne Spekulation, dass Nvidia per Patch die Isotropische Filterung verbessern will und das adaptive AF optional macht)
1.) Keine Ahnung, habe keine X800
2.) Ja.
3.) Das läßt sich nicht pauschalisieren.
4.) Ja, sogar in der jetzigen Form ist es minimal besser als das von ATi (und setzt auf besserem isotropen Filter auf, IIRC).
[dzp]Viper
2004-05-04, 20:44:18
Original geschrieben von Rampage 2
Ich habe einige Fragen zum R420 Chip:
1.) Unterstützt der R420 weiterhin Truform? Oder hat es dieses Feature nicht mehr? In der X800-Spezifikationsliste auf ATI's Website tauchte es nämlich nicht auf - das macht mir Sorgen.
2.) Ist das Temporal-AA optional? D.h. kann man es auch abschalten wenn man will und gewöhnliches AA nutzen?
3.) Wer hat denn nun die allgemein bessere Pixel/Vertex-Shader Performance? Nvidia oder ATI?
4.) Hat Nvidia besseres insgesamt Anisotropic Filtering als ATI? (Es gab doch so 'ne Spekulation, dass Nvidia per Patch die Isotropische Filterung verbessern will und das adaptive AF optional macht)
1. Ja - aber scheinbar nur genauso wie der r3x0
2. Ja ist Optional - kannst also auch das alte AA benutzen oder garkeines
3. Uff schwer zu sagen... laut Shadermark beides der r420 - wenn auch nur knapp...
Rampage 2
2004-05-04, 20:46:23
Zu 4.) Nvidia sagte doch glaub ich dass die isotropische Filterung möglicherweie per neuem Treiber wieder verbesserbar ist, oder? (Ich schau mal im Inside NV40-Artikel von 3dcenter nach)
Demirug
2004-05-04, 20:46:52
1.) Unterstützt der R420 weiterhin Truform? Oder hat es dieses Feature nicht mehr? In der X800-Spezifikationsliste auf ATI's Website tauchte es nämlich nicht auf - das macht mir Sorgen.
2.) Ist das Temporal-AA optional? D.h. kann man es auch abschalten wenn man will und gewöhnliches AA nutzen?
3.) Wer hat denn nun die allgemein bessere Pixel/Vertex-Shader Performance? Nvidia oder ATI?
4.) Hat Nvidia besseres insgesamt Anisotropic Filtering als ATI? (Es gab doch so 'ne Spekulation, dass Nvidia per Patch die Isotropische Filterung verbessern will und das adaptive AF optional macht)
1. Laut Caps ja aber ich denke mal das es wieder durch die CPU emuliert wird wie beim R300.
2. Ja
3. Pro Takt oder absolute?
4. MS meinte in einem Statement das der Isotrophe Filter von nVidia besser als der des Refrast sei. Was das AF angeht müssen wir wohl noch warten.
2B-Maverick
2004-05-04, 20:48:58
Original geschrieben von Rampage 2
Zu 4.) Nvidia sagte doch glaub ich dass die isotropische Filterung möglicherweie per neuem Treiber wieder verbesserbar ist, oder? (Ich schau mal im Inside NV40-Artikel von 3dcenter nach)
NV sagt viel wenn der Tag lang ist. Deren Pinoccio-Nase reicht doch schon bis zum Mond :D
Icke persönlich bin sehr davon angetan das man nun endlich eine ECHTE Wahl zu haben scheint zwischen 2 Herstellern: beide mit gutem AA, beide mit ausreichendem Speed... und insgesamt zu teuer ;)
Mr. Lolman
2004-05-04, 20:49:26
Original geschrieben von seahawk
Spielefirmen reagieren sensibel auf die Erhöhung der Minimalanforderung. Und wenn die Konvertierung nicht auf dem Rechner des Users erfolgen kann, sondern schon konvertierte Texturen mitgeliefert werden müssen, dann ist da schnell ne CD mehr nötig.
Was 3dc mit dem Netzteil zu tun hat ist mir gerade leider nicht klar
Dann packt man einfach Hires Texturen auf die CDs/DVDs, und je nach Wahl der Spieloptionen, werden komprimiert, oder nicht. (und dann auf der Platte gespeichert)
Original geschrieben von LovesuckZ
leider vergisst unserer Gast, dass ich wegem dem Speed nichts gesagt habe...
Ich prangere es an, dass man im gleichen Atemzug sagt, dass ATi mit 6AA schneller und die bessere Qualitaet biete. Es ist richtig, dass sie mit 6AA die bessere Qualitaet haben, aber sie sind im Gegensatz zu 4AA nicht immer schneller. Und ich sage jetzt, den unterschied zwischen 4AA und 6AA sehe man in hohen Aufloesungen nicht, so wie beim AF. Also wer braucht 6AA? niemand, richtig!
http://img32.photobucket.com/albums/v95/franz/FarCry_noAA.jpg
http://img32.photobucket.com/albums/v95/franz/FarCry_2xAA.jpg
http://img32.photobucket.com/albums/v95/franz/FarCry_4xAA.jpg
http://img32.photobucket.com/albums/v95/franz/FarCry_6xAA.jpg
LovesuckZ
2004-05-04, 20:52:17
Und welche Aufloesung Mr. L.? Mach das mal in 1280*1024 und 1600*1200.
Rampage 2
2004-05-04, 20:54:57
Original geschrieben von Demirug
1. Laut Caps ja aber ich denke mal das es wieder durch die CPU emuliert wird wie beim R300.
2. Ja
3. Pro Takt oder absolute?
4. MS meinte in einem Statement das der Isotrophe Filter von nVidia besser als der des Refrast sei. Was das AF angeht müssen wir wohl noch warten.
Zu 3.) Am besten du beanwortest beide Fragen:D
zu 4.) Jedenfalls war davon die Rede auf irgendeiner HW-Seite (FS? Anandtech?) dass mit einem neuen Treiber die AF-"Optimierungen" des NV40 wieder rückgängig gemacht werden können...
Rampage 2
2004-05-04, 20:58:07
Demirug, ich hab da 'ne Frage zum 3Dc:
Würde dieses Feature die Performance von UT1 (nicht UT2003/4) unter OpenGL enorm steigern, wenn man die hochaufgelösten S3TC-Texturen aus der 2ten UT-CD nutzt? Diese sind schließlich ja auch vorkomprimiert.
Mr. Lolman
2004-05-04, 21:02:43
Original geschrieben von LovesuckZ
Und welche Aufloesung Mr. L.? Mach das mal in 1280*1024 und 1600*1200.
Stell doch dein Windows auf 1280 oder 1600, und schau dir die Screenshots nochmal an.
Original geschrieben von Rampage 2
Demirug, ich hab da 'ne Frage zum 3Dc:
Würde dieses Feature die Performance von UT1 (nicht UT2003/4) unter OpenGL enorm steigern, wenn man die hochaufgelösten S3TC-Texturen aus der 2ten UT-CD nutzt? Diese sind schließlich ja auch vorkomprimiert. 3Dc speichert nur 2 Kanäle, während eine Textur die Farben speichert, 3 Kanäle braucht.
Mr. Lolman
2004-05-04, 21:04:29
Original geschrieben von Rampage 2
Zu 3.) Am besten du beanwortest beide Fragen:D
Die könntest du dir bei Demis herumgedrukse auch selbst geben. Pro Takt: NV, Absolut: ATi
(wobei man natürlich erst DX9.0c und SM3.0 abwarten sollte ;))
Original geschrieben von dildo4u
Der Grafikchip NVIDIA GeForce 6800 Ultra Extreme kann in punkto 3D-Performance den RADEON X800 XT Platinum Edition knapp schlagen. Er erreicht zum Beispiel beim 3DMark03 Werte, die bis zu 6 Prozent höher liegen - und das trotz einer um 70 MHz geringeren Core-Taktfrequenz Ui toll 3dmurks champion sorry musste sein*g*. Bei den übrigen Benchmarks fällt der Leistungsvorsprung deutlich geringer aus, so dass man von einem echten Kopf-an-Kopf-Rennen zwischen dem GeForce 6800 Ultra Extreme und dem RADEON X800 XT Platinum Edition sprechen kann.
http://www.tecchannel.de/hardware/1384/8.html
Dildo versucht es auf die billige Art,der Tecchannel Test ist absolut unglauwürdig !
Ein seriöser Test gibt bei hothardware
Hab hier noch einen sehr guten Test von HotHardware,lohnt sich
Farcry
http://www.hothardware.com/articleimages/Item517/fc1024.png
http://www.hothardware.com/articleimages/Item517/fc1600.png
die neuen Karte sind richtig stark ,schaut euch mal die Unterschied zur alten Gen an
Halo
http://www.hothardware.com/articleimages/Item517/halo1280.png
UT2004
http://www.hothardware.com/articleimages/Item517/ut1600.png
tRpii
2004-05-04, 21:10:08
das wurde schon 3x gepostet, ich denke einmal reicht doch oder..
Original geschrieben von Rampage 2
zu 4.) Jedenfalls war davon die Rede auf irgendeiner HW-Seite (FS? Anandtech?) dass mit einem neuen Treiber die AF-"Optimierungen" des NV40 wieder rückgängig gemacht werden können... Diesbezüglich bemühe ich mich noch immer um ein offizielles Statement von Nvidia.
Rampage 2
2004-05-04, 21:12:54
Ach ja, jetzt hab ich's. Auf Anandtech's NV40-Review stand, dass es einen "High Quality"-Mode im Treiber geben wird, mit dem das adaptive AF ausgeschaltet werden kann.
Stimmt das?
Übrigens finde ich das 4xAA und das 8xAA von Nvidia qualitätsmäßig genausogut wie ATI's 4xAA und 6xAA - der einzige Schwachpunkt beim 8xAA von NV ist die Performance.
Aber qualitätsmäßig ist das AA gleichwertig wie ATI und das AF sogar noch besser. Außerdem hat NV PS3.0 und bessere PS-Performance.
Demirug
2004-05-04, 21:14:16
Original geschrieben von Rampage 2
Zu 3.) Am besten du beanwortest beide Fragen:D
zu 4.) Jedenfalls war davon die Rede auf irgendeiner HW-Seite (FS? Anandtech?) dass mit einem neuen Treiber die AF-"Optimierungen" des NV40 wieder rückgängig gemacht werden können...
3. Vertexshader habe wir (wir = PCGH) nicht geprüft weil dort in der Regel sowieso kein Flaschenhals zu suchen ist. Bei den Pixelshader hat der NV40 im Mittel einen leichten Vorteil pro Takt. IIRC waren es so 10% (kann ich morgen aber nochmal genau nachschauen). Allerdings gibt es da heftige Ausreiser in beide Richtungen. Absolute reicht das natürlich nicht aus um den um 30% höheren Takt des R420 auszugleichen. Allerdings hatte ich auch den Eindruck das der Treiber nicht immer das optimum aus dem NV40 herrausholt. Ich will jetzt aber keine Hoffnungen auf einen Wundertreiber schüren weil zum einen nicht alle Begrenzungen des NV40 Pixelshader offen gelegt sind. Es könnte also durchaus sein das vermeintliche Optimierungsmöglichkeiten gar nicht vorhanden sind. Zum anderen ist es sehr schwer einen solchen Optimierungsprozess schnell und richtig durchzuführen. Es will ja niemand beim Laden eines Levels ewig warten bis der Treiber die beste Umsetzung für alle Shader gefunden hat.
4. Es gibt im Panel noch einen Qualitätsmodus der derzeit scheinbar keine Wirkung hat und es wurde der Verdacht geäusert das man damit wieder das alte GeForce AF bekommen könnte wenn es den mal freigeschaltet wird. Aber nichts genaues weiss man nicht.
Lustiger Troll
2004-05-04, 21:14:22
Original geschrieben von Rampage 2
Ach ja, jetzt hab ich's. Auf Anandtech's NV40-Review stand, dass es einen "High Quality"-Mode im Treiber geben wird, mit dem das adaptive AF ausgeschaltet werden kann.
Stimmt das?
Das auch nur wenn NV40 schneller ist als r420, denke ich mal, so ist es ja nun nicht also bleibt uns dieser Modus wohl oder übel verborgen.
Crushinator
2004-05-04, 21:15:25
Original geschrieben von Quasar
Es soll auch Leute gegeben haben, die es wagten, unter ihre 1-Slot-Karten eine richtige PCI-Karte zu installieren und prompt mit Instabilitäten und Bildfehlern bestraft wurden. C00l, was es alles geben soll, nicht? ;) Weißt Du auch, um welche 1-Slot Karte es sich handelte?
Demirug
2004-05-04, 21:16:28
Original geschrieben von Rampage 2
Demirug, ich hab da 'ne Frage zum 3Dc:
Würde dieses Feature die Performance von UT1 (nicht UT2003/4) unter OpenGL enorm steigern, wenn man die hochaufgelösten S3TC-Texturen aus der 2ten UT-CD nutzt? Diese sind schließlich ja auch vorkomprimiert.
Für die UT1 Texturen bringt 3dc nichts. Da sind gänzlich unterschiedliche Kompressionsverfahren am Start.
Jenaq
2004-05-04, 21:19:49
Übrigens finde ich das 4xAA und das 8xAA von Nvidia qualitätsmäßig genausogut wie ATI's 4xAA und 6xAA - der einzige Schwachpunkt beim 8xAA von NV ist die Performance.
Aber qualitätsmäßig ist das AA gleichwertig wie ATI und das AF sogar noch besser. Außerdem hat NV PS3.0 und bessere PS-Performance.
Kommt auf das Spiel und die verwendete Technik an, siehe Beispiel:
http://www.de.tomshardware.com/graphic/20040414/images/fsaa-2.jpg
Piffan
2004-05-04, 21:24:18
Original geschrieben von crushinator
C00l, was es alles geben soll, nicht? ;) Weißt Du auch, um welche 1-Slot Karte es sich handelte?
Selbstredent gibt es das Problem, nun tue nicht so ahnungslos. Wenn ich die hohen Temperaturen meiner 9800XT von MSI anschaue, würde ich da niemals die Luftzirkulation behindern durch ne Karte direkt darunter.....
Man könnte ja mal einen Poll aufmachen und fragen, wer neben ner HighEndKarte von Ati auch noch ne PCI- Karte im 1 Slot stecken hat und KEINE Probleme bekommt, wenn er maximal taktet und stundenlang FarCry zockt.....UT2 reicht übrigens auch, um die Graka aufzuheizen.....
betasilie
2004-05-04, 21:24:29
Original geschrieben von LovesuckZ
Wie sagt man o schoen:
Nvidia @ best?
http://www.chip.de/news/c_news_11844422.html
Unterschiede in der IQ gibt es aber nicht, oder? Daher sollte es ja egal sein, ob NV da von Hand optimiert hat.
Lächerlich ist es nur, da NV ja vorher noch gesagt hat, dass es beim NV40 keine anwendungsspezifischen Optimierungen mehr gibt.
Original geschrieben von betareverse
Unterschiede in der IQ gibt es aber nicht, oder? Daher sollte es ja egal sein, ob NV da von Hand optimiert hat.
Lächerlich ist es nur, da NV ja vorher noch gesagt hat, dass es beim NV40 keine anwendungsspezifischen mher gibt.
Vor allem dacht ich auch, dass aktuelle Treiber nicht mehr auf so einen billigen Dateiumbennenungstrick reinfallen..
Quasar
2004-05-04, 21:30:41
Original geschrieben von crushinator
C00l, was es alles geben soll, nicht? ;) Weißt Du auch, um welche 1-Slot Karte es sich handelte?
Ja, natürlich.
Um eine Radeon9700 Pro von Connect3D und eine Radeon 9800 Pro von Powercolor.
Aber das wird wahrscheinlich daran liegen, daß ich ein übler Fanboy bin und deswegen die Karten bei mir nicht ordentlich arbeiten wollten, gell?
MarcWessels
2004-05-04, 21:32:42
Original geschrieben von kiss
Irgendwie ist der NV40 besser!
nVidia sollte aber erstmal mal ordentliche treiber rausbringen, vielleicht steigt die Performance noch mehr!
Öhhh???? :chainsaw:
Demirug
2004-05-04, 21:33:01
Original geschrieben von betareverse
Unterschiede in der IQ gibt es aber nicht, oder? Daher sollte es ja egal sein, ob NV da von Hand optimiert hat.
Lächerlich ist es nur, da NV ja vorher noch gesagt hat, dass es beim NV40 keine anwendungsspezifischen mher gibt.
IIRC war der Spruch etwas anders. "Von einer Optimierung darf nicht nur ein Benchmark profitieren sondern es muss das ganze Programm etwas davon haben".
betasilie
2004-05-04, 21:42:46
Original geschrieben von Demirug
IIRC war der Spruch etwas anders. "Von einer Optimierung darf nicht nur ein Benchmark profitieren sondern es muss das ganze Programm etwas davon haben".
:spock: Aha, das habe ich dann anders in Erinnerung. Ich dachte es gibt keine handfrisierten Shader mehr, weil der NV40 das nicht mehr nötig hat.
Wie auch immer, wenn solche Optimierungen keinen Verlust an IQ bedingen, sind diese bei mir willkommen, egal welche Maxime vorher ausgesprochen wurde.
Lustiger Troll
2004-05-04, 21:43:54
Original geschrieben von betareverse
:spock: Aha, das habe ich dann wohl falsch verstanden. Ich dachte es gibt keine handfrisierten Shader mehr, weil der NV40 das nicht mehr nötig hat.
Dem Nvidia-Sprecher zufolge sei dies ein normaler Prozess bei der Einführung einer neuen Grafikchip-Generation wie der GeForce-6-Reihe und werde auch in Zukunft weiter praktiziert. (db)
Klärt das deine Frage?
betasilie
2004-05-04, 21:44:49
Original geschrieben von Lustiger Troll
Dem Nvidia-Sprecher zufolge sei dies ein normaler Prozess bei der Einführung einer neuen Grafikchip-Generation wie der GeForce-6-Reihe und werde auch in Zukunft weiter praktiziert. (db)
Klärt das deine Frage?
Ich kann lesen.
Es geht darum was von NV zum Release des NV40 diesbzgl. gesagt wurde.
Demirug
2004-05-04, 21:48:37
Original geschrieben von betareverse
:spock: Aha, das habe ich dann wohl falsch verstanden. Ich dachte es gibt keine handfrisierten Shader mehr, weil der NV40 das nicht mehr nötig hat.
Wie auch immer, wenn solche Optimierungen keinen Verlust an IQ bedingen, sind diese bei mir willkommen.
Ich schrieb ja schon das ich dem Shadercompiler noch nicht so ganz traue und davon ausehe das man per hand aus dem einen oder anderen Shader noch einen oder mehrer Takte rauspressen kann. IMHO ist das Befehlswort des NV40 noch komplexer als das des NV35. Eine gute Grundperformance erreicht der Compiler schon war man ja dieses mal so schlau und hat nicht gewartet bis der Chip fertig war bevor man damit anfängt.
Stromsparer
2004-05-04, 21:49:54
Soviel zur Leistungsaufnahme laut ATI, gesehen auf beyond3d:
"...Although we were unable to measure the power utilisation, according to statistics provided from ATI the X800 XT Platinum Edition had an average power draw of 76W whilst continually looping through 3DMark2001SE and 65W looping through 3DMark03 - the X800 PRO's power use in the same tests are 58W and 49W respectively..."
LovesuckZ
2004-05-04, 21:51:10
Das sind doch Werte von ATi?
Oder was hat das Wort "unable" (nicht möglich?) zu bedeuten?
MarcWessels
2004-05-04, 21:52:56
Original geschrieben von aths
Testen die mit AF?
Bei Battlefield 1942 und Halo sieht man auch mit deaktiviertem AF bilineare Artefakte wenn man nicht per rTool die Stageoptimierung deaktiviert - offenbar greift sie also auch in solchen Fällen, oder seh ich da was falsch?
betasilie
2004-05-04, 21:53:01
Original geschrieben von Demirug
Ich schrieb ja schon das ich dem Shadercompiler noch nicht so ganz traue und davon ausehe das man per hand aus dem einen oder anderen Shader noch einen oder mehrer Takte rauspressen kann. IMHO ist das Befehlswort des NV40 noch komplexer als das des NV35. Eine gute Grundperformance erreicht der Compiler schon war man ja dieses mal so schlau und hat nicht gewartet bis der Chip fertig war bevor man damit anfängt.
Wäre schön, wenn NV dem Shadercompiler allgemein den Boost geben könnte, der in FarCry zu sehen ist. Mal schauen was die Treiber da in den nächsten Monaten bringen.
dildo4u
2004-05-04, 21:53:46
Original geschrieben von LovesuckZ
Das sind doch Werte von ATi?
Oder was hat das Wort "unable" (nicht möglich?) zu bedeuten? ja sind ati werte morgen kommt die pcgh da wird auch immer gemessen wenn die werte stimmen wow
Crushinator
2004-05-04, 21:55:48
Original geschrieben von Quasar
Ja, natürlich. Um eine Radeon9700 Pro von Connect3D und eine Radeon 9800 Pro von Powercolor. Das ist ja interessant, und deshalb rein interessehalber: Mit oder ohne Gehäuselüftung?
Quasar
2004-05-04, 22:04:33
Mit ohne Gayhäusebelüftung ausser dem zweifächrigen Enermax Netzteil und offener Gehäusewand.
Demirug
2004-05-04, 22:07:01
Original geschrieben von betareverse
Wäre schön, wenn NV dem Shadercompiler allgemein den Boost geben könnte, der in FarCry zu sehen ist. Mal schauen was die Treiber da in den nächsten Monaten bringen.
Bei Farcry soll es ja ein Z-Cull Bug sein. Also ein Fehler der dazu führt das Sachen die eigentlich nicht gerendert werden sollten (durch Early-Z verworfen) doch gerendert werden.
Crushinator
2004-05-04, 22:08:04
@Quasar
OK, danke für die Info, ohne jetzt auch noch meine Meinung zum Betreiben eines High-End PC mit High-End GraKa ohne Gehäuselüfter zum wiederholten male zum Ausdruck zu bringen.
LovesuckZ
2004-05-04, 22:08:53
Original geschrieben von Demirug
Bei Farcry soll es ja ein Z-Cull Bug sein. Also ein Fehler der dazu führt das Sachen die eigentlich nicht gerendert werden sollten (durch Early-Z verworfen) doch gerendert werden.
Und nun die entscheidene Frage: Warum nur in Farcry?
Stromsparer
2004-05-04, 22:10:19
Lovesuckz,
fragst du ernsthaft?! Zum einen hast du die Antwort schon richtig aus aus dem Text geschlossen, zum anderen wärst du zur gleichen Erkenntnis mit Hilfe meiner Einleitung gekommen. Dort seht doch "laut ATI"
Demirug
2004-05-04, 22:14:35
Original geschrieben von LovesuckZ
Und nun die entscheidene Frage: Warum nur in Farcry?
Das ist eine gute Frage und die Antwort kennt wohl nur nVidia. Wobei Farcry als Besonderheit viele Shader mit Texkill hat. Vielleicht besteht da ein Zusammenhang.
Black-Scorpion
2004-05-04, 22:15:48
Original geschrieben von crushinator
@Quasar
OK, danke für die Info, ohne jetzt auch noch meine Meinung zum Betreiben eines High-End PC mit High-End GraKa ohne Gehäuselüfter zum wiederholten male zum Ausdruck zu bringen.
Quasar hat einen Pentium III@1,4GHz.
Link ist in seiner Sig.
Crushinator
2004-05-04, 22:28:41
Original geschrieben von Anonym_001
Quasar hat einen Pentium III@1,4GHz. Link ist in seiner Sig. Danke für den freundlichen Hinweis. Auch wenn ich nicht davon ausgehe, daß Quasar die genannten GraKas in seinem eigenen PC verbaut hatte - ist auch jetzt völlig egal ob oder nicht - schrieb ich soweit ich mich erinnern kann, daß meine Meinung sich auf Betreiben von ... und NICHT explizit Quasars geschilderten und meinerseits nicht reproduzierbaren Fall bezieht.
Quasar
2004-05-04, 22:28:48
Original geschrieben von Anonym_001
Quasar hat einen Pentium III@1,4GHz.
Link ist in seiner Sig.
Das stimmt zwar, aber der betreffende PC war mein Testsystem (3GHz-P4).
Allerdings glaube ich nicht daran, daß ein Gehäuselüfter den Hitzestau zwischen AGP und PCI bei offenem Gehäuse behoben hätte (ausser diese unsäglichen Dinger in den Seitenwänden...)
Majestic
2004-05-04, 22:33:17
Meinst du son Teil http://www.com-tra.de/img/p/tit_004_b.jpg , oder nen richtigen 80ér Fan in der Rückwand? Diese Slot-Lüfter sind nähmlich nur laut un bringen fast gar nix.
Nochmal
2004-05-04, 22:34:09
Man sollte immer einen PCI-Slot zwischen GraKa und nächster PCI-Karte frei lassen.
Das bedeutet beim r420 muss man einen Slot und beim NV40 Ultra /Extreme) zwei Slots opfern.
Dies wiegt noch schwerer, wenn in Zukunft PCI-Express-Slots auf dem Mainboard zu finden sind. Dann bleibt von eventuell 2-PCI-Express-Steckplätzen keiner übrig.
Godmode
2004-05-04, 22:36:49
Laut Inq will Gainward den NV40 um 150 MHz höher takten(Core) und Speicher wollen sie auf 1200 MHz effektiv bringen! Cool FX!
Naja da bin ich mal gespannt wieviel FPS die produzieren kann, dürfte aber alles jetzige in den "Schatten" stellen.
Gibts eigentlich für ATI auch solche Liquid Editions um sehr viel Geld?
"Not content with this, Gainward has hand carved a lot of the fastest 450MHz '6800 Ultra XTreme' GPU's, slipped on a trick Innovatek water block, and hope to tweak the core of these up to 150MHz higher than other GeForce 6800 Ultras.
The Gainward CoolFX Ultra/2600 will feature 256MB of full spec 600MHz GDDR3 memory which Gainward anticipate will clock beyond its rated 1200MHz DDR."
(del676)
2004-05-04, 22:38:31
150 mehr als die Ultra oder die Ultra Extreme?
Godmode
2004-05-04, 22:38:58
Original geschrieben von Ulukay
150 mehr als die Ultra oder die Ultra Extreme?
Als die Ultra!
wären dann 550 MHz Core und 1200 MHz RAM
dildo4u
2004-05-04, 22:41:41
Original geschrieben von Quasar
Das stimmt zwar, aber der betreffende PC war mein Testsystem (3GHz-P4).
Allerdings glaube ich nicht daran, daß ein Gehäuselüfter den Hitzestau zwischen AGP und PCI bei offenem Gehäuse behoben hätte (ausser diese unsäglichen Dinger in den Seitenwänden...)
http://people.freenet.de/Dildo4u/luft1.JPG
Das hab bei mir recht viel gebracht halt mit 2lüftern konnte die karte wesnetlich besser oc hier mit zalman
NB temp war ca3-4 gard besser mit 2 lüftern
Demirug
2004-05-04, 22:42:02
Original geschrieben von bans3i
Als die Ultra also 550 MHz
Das wird aber wenn ich das richtig verstanden habe eine Wassergekühlte Spezialvariante. Also nur was für die ganz Wahnsinningen.
Lustiger Troll
2004-05-04, 22:45:17
AFAIK soll die CoolFX 2600 von gainward 850 Euro kosten. Ist ja mal ein schnäpchen ;).
ja fast umsonst :balla:
kaufen so...0,05 prozent der user :D
Lustiger Troll
2004-05-04, 22:47:54
Original geschrieben von St@N
ja fast umsonst :balla:
kaufen so...0,05 prozent der user :D
Mehr wird es von diesen Selektierten Chips sicherlich auch nicht geben ;D.
(del676)
2004-05-04, 22:48:07
550/1200 klingt super ...
dildo4u
2004-05-04, 22:49:26
Original geschrieben von Ulukay
550/1200 klingt super ... Un gleicher maßen unrealistisch was soll so eine karte für ein NT brauchen?
Lustiger Troll
2004-05-04, 22:49:58
Original geschrieben von dildo4u
Un gleicher maßen unrealistisch
Wieso??
Winter[Raven]
2004-05-04, 22:52:56
Weil es einfach ned, geht. Wenn ATI nur 525 mhz schafft kann Nvidia keine 550 schaffen, Nvidia ist doch voll schwul.
Ich errinere an nggalai Aussage zum Thema NV40 und 600 mhz und sehr gute OC von NV40 Chips.
Godmode
2004-05-04, 22:53:28
Original geschrieben von Demirug
Das wird aber wenn ich das richtig verstanden habe eine Wassergekühlte Spezialvariante. Also nur was für die ganz Wahnsinningen.
Sorry kommt das nicht rüber? Ohne WAKÜ ist das glaub ich fast unmöglich?
Mich macht nur was stutzig was nggalai mal gemeit hat. Er hat mal gesagt das er nen Dev persönlich kennt, der eine Devkarte mit NV40 bekommen hat, die mit 600 MHz läuft!! Kann sowas überhaupt möglich sein ohne WAKÜ??
edit: Cool das weiß sogar noch jemand :)
dildo4u
2004-05-04, 22:53:38
http://www.e-bug.de/cgi-ssl/preise.cgi?file=deeplink.tpl&u=gast&p=gast&artnr=12751
die neue 6800 Ultra mit Wasserkühlung !
unterstützte AGP-Standards:
AGP 2x AGP 4x AGP 8x
GeForce 6800 Ultra Chip
Chiptakt: 400 MHz
dildo4u
2004-05-04, 22:55:13
Original geschrieben von Winter[Raven]
Weil es einfach ned, geht. Wenn ATI nur 525 mhz schafft kann Nvidia keine 550 schaffen, Nvidia ist doch voll schwul.
Ich errinere an nggalai Aussage zum Thema NV40 und 600 mhz und sehr gute OC von NV40 Chips. weil nvidia
vielciht 60millionen tarnsitoren mher hat aber die brauchen ja auch kein strom und entwickeln auch kein hitze ;-)
Sphinx
2004-05-04, 22:55:44
Tja alles hat seinen Preis ,) *gg Für die paar Enthusiasten die gelda´a´a machen ,) - in ausreichenden Mengen vorhanden.
san.salvador
2004-05-04, 22:55:47
Original geschrieben von Nochmal
Das bedeutet beim r420 muss man einen Slot und beim NV40 Ultra /Extreme) zwei Slots opfern.
Dies wiegt noch schwerer, wenn in Zukunft PCI-Express-Slots auf dem Mainboard zu finden sind. Dann bleibt von eventuell 2-PCI-Express-Steckplätzen keiner übrig.
Blödsinn, PCI Express Grafikkarten haben den Lüfter oben, dann muss sich Nvidia was neues zum blockieren suchen.
Lustiger Troll
2004-05-04, 22:56:16
Original geschrieben von dildo4u
weil nvidia
vielciht 60millionen tarnsitoren mher hat aber die brauchen ja auch kein strom und entwickeln auch kein hitze ;-)
Was hat der Transencount mit der taktbarkeit zu tun??
(del676)
2004-05-04, 22:56:47
Original geschrieben von dildo4u
http://www.e-bug.de/cgi-ssl/preise.cgi?file=deeplink.tpl&u=gast&p=gast&artnr=12751
die neue 6800 Ultra mit Wasserkühlung !
unterstützte AGP-Standards:
AGP 2x AGP 4x AGP 8x
GeForce 6800 Ultra Chip
Chiptakt: 400 MHz
schreibfehler
deekey777
2004-05-04, 22:57:05
Original geschrieben von san.salvador
Blödsinn, PCI Express Grafikkarten haben den Lüfter oben, dann muss sich Nvidia was neues zum blockieren suchen.
:down:
Wenn ich mir die Seite 135 in der neuen c't anschaue, liegst du weit daneben!!!
Lustiger Troll
2004-05-04, 22:57:58
Original geschrieben von dildo4u
http://www.e-bug.de/cgi-ssl/preise.cgi?file=deeplink.tpl&u=gast&p=gast&artnr=12751
die neue 6800 Ultra mit Wasserkühlung !
unterstützte AGP-Standards:
AGP 2x AGP 4x AGP 8x
GeForce 6800 Ultra Chip
Chiptakt: 400 MHz
Das ist immer angegeben bei meiner Gainward 5900U sind es auch nur 450, aber mit experttool werden es plötzlich 475 ;). Glaubes Gainward schafft das.
Aquaschaf
2004-05-04, 23:00:09
Original geschrieben von Lustiger Troll
Was hat der Transencount mit der taktbarkeit zu tun??
Mehr Transistoren -> idR geringere Taktbarkeit, und ATI benutzt lowk. Also ich will einen wassergekühlten R420 mit 700MHZ sehen :D
Lustiger Troll
2004-05-04, 23:00:42
Original geschrieben von Aquaschaf
Mehr Transistoren idR geringere Taktbarkeit, + ATI benutzt lowk. Also ich will einen wassergekühlten R420 mit 700MHZ sehen :D
Ich auch *eg*
dildo4u
2004-05-04, 23:00:59
Original geschrieben von Lustiger Troll
Das ist immer angegeben bei meiner Gainward 5900U sind es auch nur 450, aber mit experttool werden es plötzlich 475 ;). Glaubes Gainward schafft das. sorry aber wie soll NV mit dem selbe fertigungstechnik 0.13 bei der NV40 einen höher takt als mit dem NV38 erreichen wenn der NV40 fast den doppelten transitor count hat?
Godmode
2004-05-04, 23:01:05
Naja wenn ich das Geld hätte würde ich mir nen NV40 mit Stickstoffkühlung holen :)
Godmode
2004-05-04, 23:02:02
Original geschrieben von dildo4u
sorry aber wie soll NV mit dem selbe fertigungstechnik 0.13 bei der NV40 einen höher takt als mit dem NV38 erreichen wenn der NV40 fast den doppelten transitor count hat?
frag das Gaynward!
Godmode
2004-05-04, 23:02:36
Was ist eigenltlich mit dem 6800UE Artikel auf 3DC, dachte da kommt heut noch was?
Lustiger Troll
2004-05-04, 23:03:56
Original geschrieben von dildo4u
sorry aber wie soll NV mit dem selbe fertigungstechnik 0.13 bei der NV40 einen höher takt als mit dem NV38 erreichen wenn der NV40 fast den doppelten transitor count hat?
Das ist ja nicht NV die das schaffen sondern Gainward, auch die NV38 macht 550 Mhz mit, weiss nicht was du hast? Glaube Dusauber hier aus dem Forum hat mit einer 5950 GS auch 585 Mhz rausgeholt mit Wakü, Gainward gibt mehr saft auf den GPU anderes Stepping bei den Ram dann passt das schon.
dildo4u
2004-05-04, 23:04:14
Original geschrieben von bans3i
frag das Gaynward! naj vielicht erhöhen sie ja auch die spannung extrem schon mutig sowas dann mit 2 jahre garantie auszuliefern wenn das stimmt mit den 550mhz
Demirug
2004-05-04, 23:04:25
Original geschrieben von bans3i
Sorry kommt das nicht rüber? Ohne WAKÜ ist das glaub ich fast unmöglich?
Mich macht nur was stutzig was nggalai mal gemeit hat. Er hat mal gesagt das er nen Dev persönlich kennt, der eine Devkarte mit NV40 bekommen hat, die mit 600 MHz läuft!! Kann sowas überhaupt möglich sein ohne WAKÜ??
edit: Cool das weiß sogar noch jemand :)
Das war glaube ich nur der RAM der auf 600MHZ lief.
Godmode
2004-05-04, 23:05:11
Man muss auch sagen, dass man mit der vergrößerten Die-Fläche des NV40 mehr Wärme abführen kann, oder?
Godmode
2004-05-04, 23:06:02
Original geschrieben von Demirug
Das war glaube ich nur der RAM der auf 600MHZ lief.
Dachte ich auch, aber er hat dort darauf bestanden das es der Core war!! Ich suche das Posting mal
Demirug
2004-05-04, 23:06:41
Original geschrieben von dildo4u
sorry aber wie soll NV mit dem selbe fertigungstechnik 0.13 bei der NV40 einen höher takt als mit dem NV38 erreichen wenn der NV40 fast den doppelten transitor count hat?
Frag mal IBM und TSMC wo die Unterschiede in iheren 0.13 Prozessen sind.
Die Frage ist auch für welche Taktraten der NV40 designt wurde.
Lustiger Troll
2004-05-04, 23:06:43
Original geschrieben von bans3i
Man muss auch sagen, dass man mit der vergrößerten Die-Fläche des NV40 mehr Wärme abführen kann, oder?
Heatspreader ist ja auch keiner mehr da also kann man den NV38 und den NV40 schonmal nicht vergleichen.
AYAlf
2004-05-04, 23:06:59
egal was ihr hier fachsimpelt.
ich hoffe einfach mal, dass jetzt die meisten user auf das richtige pferd setzen .. und das heisst ati. grundsaetzlich ist das die bessere wahl. nicht nur, das ati jetzt wieder bessere quali und geschwindigkeit hat. auch das neue treiberlayout ist um einiges besser. nvidia hat ja schon vorher mit seinen 5x.x treibern abgestunken. weil nix ging. fuer jedes spiel brauchte man einen anderen treiber. (spreche aus eigener erfahrung) auch die profesionalitaet der nvidia spezialisten laesst zu wuenschen uebrig. erinnern wir uns doch alle an das staendige cheaten um nicht ganz so dumm da zu stehen. ati hat sowas in dem masse nun mal nicht noetig. weil sie einfach das bessere produkt haben. das gilt fuer den 3xx und den 4xx.
nvidia fanboys sind halt viel gewohnt .. der geraeuschbug und der flimmerbug laesst gruessen ;D .
ich denke aber, es sollten noch leute geben die nvidia produkte kaufen. sonst gibt es keine konkurenz mehr. und das waere fuer die preise schaedlich. vielleicht schafft nvidia mit dem 5x chip ein besserer wurf. es waere dem konzern ja zu wuenschen.
[dzp]Viper
2004-05-04, 23:08:17
Es war der RAM
Also RAM war auf 600 MHZ und das Ziel beim Core sind 500 Mhz
dildo4u
2004-05-04, 23:08:56
Original geschrieben von Demirug
Frag mal IBM und TSMC wo die Unterschiede in iheren 0.13 Prozessen sind.
Die Frage ist auch für welche Taktraten der NV40 designt wurde. ach hat nvidia gewechselt jetzt vom NV38 zum NV40?
Godmode
2004-05-04, 23:09:03
Nggalai:
Um möglichen Gerüchten schon im Vorfeld Einhalt zu gebieten: Die Dinger, die sich Entwickler momentan "günstig" bestellen können, laufen mit den empfohlenen 400MHz Chip / 550MHz RAM Takten. Einige Karten wurden jedoch vorm Launch mit höheren Takten verteilt, z.B. hat einer meiner Reviewer-Kollegen vorm Launch eine Karte mit 600MHz RAM-Takt erhalten (statt 550MHz). Hier bezieht er sich auf den RAM
Was dann die AIB abliefern steht auf einem ganz anderen Blatt. Wenn die da eine Monsterkühlung draufpacken, seh ich 450-500MHz für Consumer als durchaus realistisch an. 600MHz dürfte echt die Ausnahme sein, und eben: ich weiss von genau einer Karte, die das geschaft hat. Werden wohl mehrere sein (daher das "mindestens eine" weiter oben im Thread), aber die Norm wird das garantiert nicht. Hier aber auf den Core
Der Chip ist eh schnell genug. Ich hätte lieber mehr RAM-Takt.
93,
-Sascha.rb
dildo4u
2004-05-04, 23:11:02
ja die nvidaner ham recht gainward packt das und zwar so*G*
http://webpages.charter.net/jumper75/waterchill.JPG
(del676)
2004-05-04, 23:12:16
dildo4u ... bei aller liebe ... aber du nervst
*plonk*
san.salvador
2004-05-04, 23:12:34
Original geschrieben von deekey777
:down:
Wenn ich mir die Seite 135 in der neuen c't anschaue, liegst du weit daneben!!!
Habe mich auf den Text auf Seite 130 (3. + 4. Spalte) bezogen und offensichtlich falsch inerpretiert. Die Lüfter scheinen doch nach unten zu zeigen, aber eine darunterliegende Kühlzone ist vorgesehen. Sorry für den Fehler, aber eine weitere Kühlzone dürfte auch einiges bringen, so sie anständig umgesetzt wird.
Lustiger Troll
2004-05-04, 23:12:36
Original geschrieben von Ulukay
dildo4u ... bei aller liebe ... aber du nervst
*plonk*
Full Ack...
Godmode
2004-05-04, 23:12:39
Original geschrieben von AYAlf
Poste nicht, wenn du nichts weißt = don't feed the troll
dildo4u
2004-05-04, 23:14:31
Original geschrieben von Lustiger Troll
Full Ack... ihr seid mich gleich los muss ins bett nich bös sein jeder kann sich seine karte kaufen aber ick bin mit sicher meine näste ist 400€ billiger is als die gainward
Lustiger Troll
2004-05-04, 23:16:03
Original geschrieben von dildo4u
ihr seid mich gleich los muss ins bett nich bös sein jeder kann sich seine karte kaufen aber ick bin mit sicher mein ist 400€ billiger is als die gainward
Das freut mich ja für dich, aber unsere Diskussion geht nicht drum wer sich die Kauft oder nicht sondern ob es möglich ist die mit 550+ Mhz zu betreiben, es ist möglich.
1. werden da selektierte Chips genommen
2. kommt AFAIK mehr spannung auf die GPU
3. ist eine Wasserkühlung dabei (komplett mit pumpe, radi...)
Majestic
2004-05-04, 23:17:53
Da sich viele Highendkarten-Käufer früher später ne Wakü anschaffen, wird das auch kein Problem sein.;D
GT -> Ultra
Ultra -> Ultra E
Demirug
2004-05-04, 23:18:02
Original geschrieben von dildo4u
ach hat nvidia gewechselt jetzt vom NV38 zum NV40?
Ja ich dachte das wäre allgemein bekannt das der NV40 bei IBM produziert wird und der NV38 noch bei TSMC.
dildo4u
2004-05-04, 23:18:14
Original geschrieben von Lustiger Troll
Das freut mich ja für dich, aber unsere Diskussion geht nicht drum wer sich die Kauft oder nicht sondern ob es möglich ist die mit 550+ Mhz zu betreiben, es ist möglich. wenn mans genau nimmt is das speku also passt das hier auch nicht 100%;-)
Godmode
2004-05-04, 23:19:19
Demirug weißt du warum Leo den 6800UE Artikel nicht online stellt?
sry hab es schon wenn er kommt: "plus ein weiterer kleiner Artikel in Vorbereitung, der irgendwann in der Nacht kommen wird"
Lustiger Troll
2004-05-04, 23:19:45
Das ist Fakt, keine Speku...
dildo4u
2004-05-04, 23:20:36
Original geschrieben von bans3i
Demirug weißt du warum Leo den 6800UE Artikel nicht online stellt? vielicht hat er noch keine X800XT zum vergleich fänd ick besser wenn das dann in einem artikel behandelt wird
Lustiger Troll
2004-05-04, 23:20:56
Original geschrieben von Majestic
Da sich viele Highendkarten-Käufer früher später ne Wakü anschaffen, wird das auch kein Problem sein.;D
GT -> Ultra
Ultra -> Ultra E
Das sollte schon mit dem originalkühler möglich sein, ausser GT zu Ultra glaub ich nicht da ein Stromanschluss fehlt.
deekey777
2004-05-04, 23:21:28
Original geschrieben von san.salvador
Habe mich auf den Text auf Seite 130 (3. + 4. Spalte) bezogen und offensichtlich falsch inerpretiert. Die Lüfter scheinen doch nach unten zu zeigen, aber eine darunterliegende Kühlzone ist vorgesehen. Sorry für den Fehler, aber eine weitere Kühlzone dürfte auch einiges bringen, so sie anständig umgesetzt wird.
Wenn du aber die PCIe Grafikkarte in ein BTX-Gehäuse auf ein BTX-Mainboard einbauen willst, dann hast du entweder ein Problem, oder, falls Intel mitgedacht hat, die PCIe Grafikkarte wird tatsächlich mit dem Kühler nach oben eingebaut - in diesem Fall liege ich daneben. ;)
Godmode
2004-05-04, 23:22:01
Wie hoch würde man den R420 wohl takten können mit WAKÜ?? Macht mal wer nen extreme OC Artikel über NV40 und R420 mit Voltmod und Stickstoff please, wär doch was für THG :)
dildo4u
2004-05-04, 23:22:11
Original geschrieben von Lustiger Troll
Das ist Fakt, keine Speku... laut inq ick kann davon noch nix auf der gainward seite lesen test zu der karte hab ick auch noch nich gesehen aber ok am besten wir verlgeichen jetzt alle karte und cpus mit kompressor kühler hat ja auch jeder
Lustiger Troll
2004-05-04, 23:22:33
Original geschrieben von bans3i
Wie hoch würde man den R420 wohl takten können mit WAKÜ?? Macht mal wer nen extreme OC Artikel über NV40 und R420 mit Voltmod und Stickstoff please, wär doch was für THG :)
Macci?? ;D
AYAlf
2004-05-04, 23:23:13
Original geschrieben von bans3i
Poste nicht, wenn du nichts weißt = don't feed the troll
ich bin user .. ich progge nicht fuer grakas. soweit gebe ich dir recht. aber ich beschaeftige mich viel mit grakas. videos beaerbeiten erstellen. benchen ein wenig zocken usw. ausserdem weiss ich das die 5x.x treiber der letzte scheiss sind (sorry fuer die ausdrucksweisse aber mit diesen treibern kann man nur verzweifeln).
ich bin also einer der user die es zu ueberzeugen gilt. und nvidia kann leider niemanden mehr ueberzeugen. zumindes keinen normalen bencher, zocker. mir ist reichlich egal wie die quali und die geschwindigkeit in meine kiste kommt. sie muss einfach da sein. und die meiste power fuers geld bekomme ich nun mal bei ati karten. und da ich aus eigener erfahrung weiss das nvidia karten !!!nur!!! aerger machen. werde ich doch zu dieser diskusion meinen senf hinzuegen duerfen.
ps: deine post enthalten auch nicht das tolle fachwissen, eher im gegenteil. du bist einer dieser company-fanboys. und da deine company den kuerzeren gezogen hat, staenkerst du hier rum.
Majestic
2004-05-04, 23:23:19
Original geschrieben von Lustiger Troll
Das sollte schon mit dem originalkühler möglich sein, ausser GT zu Ultra glaub ich nicht da ein Stromanschluss fehlt.
Hmm, ich werds ja sehen wenn ich sie eingebaut hab. Selbst wenn sie nur ein paar Mhz mehr mach... Die GPU soll ja schon bei wenig mehr Mhz viel an Leistung extra bringen.
Lustiger Troll
2004-05-04, 23:23:55
Original geschrieben von dildo4u
laut inq ick kann davon noch nix auf der gainward seite lesen test zu der karte hab ick auch noch nich gesehen aber ok am besten wir verlgeichen jetzt alle karte und cpus mit kompressor kühler hat ja auch jeder
Hast du ein Problem damit das die Karte schneller als die ATI ist/sein könnte. Muss doch nicht sein, oder.
Godmode
2004-05-04, 23:24:19
Original geschrieben von Lustiger Troll
Macci?? ;D
Was meinst du damit? Ich bezog mich auf den OC Artikel wo sie nen P4 auf 5,.. GHz getaktet haben mit flüssigem Stickstoff: http://www.tomshardware.com/site/videos/index.html
dildo4u
2004-05-04, 23:25:19
Original geschrieben von Lustiger Troll
Hast du ein Problem damit das die Karte schneller als die ATI ist/sein könnte. Muss doch nicht sein, oder. nein ick krieg sonsts komplexe*g* aber von club3d wird auch wakü für X800 geben
http://www.ati-news.de/Bilder/Cebit/2004/Club3d/3.jpg hier noch mit 9800XT die x800 druften sie ja noch nicht zeigen das aber die kühler designs recht ähnlich sind wirds whol auch für die x800passen
Lustiger Troll
2004-05-04, 23:27:47
Original geschrieben von bans3i
Was meinst du damit? Ich bezog mich auf den OC Artikel wo sie nen P4 auf 5,.. GHz getaktet haben mit flüssigem Stickstoff: http://www.tomshardware.com/site/videos/index.html
kenn ich, du kennst macci nicht tztz....
http://service.futuremark.com/compare?2k3=2113980
deekey777
2004-05-04, 23:29:29
Eine n00b Frage: Der X800Pro-Lüfter wird mit drei Kabeln angeschlossen - kann es sein, dass eine Lüftersteuerung möglich ist?
http://www.3d-center.de/images/r420_benchmarks/board1.jpg
Godmode
2004-05-04, 23:30:56
Original geschrieben von AYAlf
ich bin user .. ich progge nicht fuer grakas. soweit gebe ich dir recht. aber ich beschaeftige mich viel mit grakas. videos beaerbeiten erstellen. benchen ein wenig zocken usw. ausserdem weiss ich das die 5x.x treiber der letzte scheiss sind (sorry fuer die ausdrucksweisse aber mit diesen treibern kann man nur verzweifeln).
ich bin also einer der user die es zu ueberzeugen gilt. und nvidia kann leider niemanden mehr ueberzeugen. zumindes keinen normalen bencher, zocker. mir ist reichlich egal wie die quali und die geschwindigkeit in meine kiste kommt. sie muss einfach da sein. und die meiste power fuers geld bekomme ich nun mal bei ati karten. und da ich aus eigener erfahrung weiss das nvidia karten !!!nur!!! aerger machen. werde ich doch zu dieser diskusion meinen senf hinzuegen duerfen.
ps: deine post enthalten auch nicht das tolle fachwissen, eher im gegenteil. du bist einer dieser company-fanboys. und da deine company den kuerzeren gezogen hat, staenkerst du hier rum.
1. du sprichst immer von allen, ja klar das der R420/NV40 nicht allen gefällt, aber man kann nicht von allen sprechen, so wie du das machst.
2. ich gebe dir recht, ich habe sicherlich nicht soviel fachwissen wie einige andere hier(zb Demi, Ahts, Leo....), aber ich versuche immer objektiv zu bleiben, was man von einigen anderen nicht sagen kann (sorry beta und love;D) Zeig mir wahl wo bei mir der fanboy zum verschein kommt, ich weiß es nählich nicht wo ich was fanboyiges geschreiben habe!!
3. solche sachen wie der NV40/R420 machen nur probleme sind so allgemein, dass man sie besser gleich bleiben lässt.
Typisches Fanboy Posting: von AYAlf:
quote:
--------------------------------------------------------------------------------
Original geschrieben von AYAlf
wie soll ich es sagen...
... die farcry benches sind also alle lug und trug. ich dachte wenigstens, mit dem neuen flagschiff von nvidia, muss nicht gecheatet werden. das bei der fx reihe die haelfte der 2.x shader benutzt wurden (ca. 50+) und bei ati (ca. 100+) wahr ja hinlaenglich bekannt und nachweissbar. auch anhand der spieleigenen log datei. aber das nun auch die 6800 variante mit weniger 2.0 shadern arbeitet und auf die leichter zu berechnenden 1.x shader ausweicht ist wirklich .
--------------------------------------------------------------------------------
Das Problem ist das Farcry keinen Möglichkeit beinhaltet auf unterschiedlichen Karten die Verwendung der gleichen Technik für alle Effekte zu erzwingen. Damit ist die Vergleichbarkeit nicht mehr gegeben.
Du schreibst einfach was, obwohl du nichtmal weißt wodurch das entsteht zb das NV40 PS1.1 Shader bei FC verwendet! Also lieber informieren, bevor man NV/ATI den schwarzen Peter in die Tasche schiebt!!
dildo4u
2004-05-04, 23:31:53
Original geschrieben von deekey777
Eine n00b Frage: Der X800Pro-Lüfter wird mit drei Kabeln angeschlossen - kann es sein, dass eine Lüftersteuerung möglich ist?
http://www.3d-center.de/images/r420_benchmarks/board1.jpg definitiv möglich kann aber auch sein das mit dem 3 kabel nur die lüfter drehzahl ausgelesen wird
Majestic
2004-05-04, 23:32:00
Original geschrieben von dildo4u
nein ick krieg sonsts komplexe*g* aber von club3d wird auch wakü für X800 geben
http://www.ati-news.de/Bilder/Cebit/2004/Club3d/3.jpg hier noch mit 9800XT die x800 druften sie ja noch nicht zeigen das aber die kühler designs recht ähnlich sind wirds whol auch für die x800passen
Oh, das ist der neue Kühler von Aquacomputer. Würd mal auf deren Forum schauen ob der auf die X800 passt.
Godmode
2004-05-04, 23:32:07
Original geschrieben von Lustiger Troll
kenn ich, du kennst macci nicht tztz....
http://service.futuremark.com/compare?2k3=2113980
Axxo ja weiss schon!
klaus
2004-05-04, 23:35:46
Original geschrieben von perforierer
Ich seh mich da als recht neutral an, weil ich keine Präferenz für einen Hersteller habe. Also ich sehe z.B kein Feature bei der 6800er, das mir wichtig wäre. Der 3.0 Supportist mir herzlich egal. Ne Graka hält max. zweieinhalb Jahre. dann kommt die Unreal Engine 3.0 und vergleichbare Engines, die Gebrauch vopn den 3.0 Shadern machen...und und man braucht dann ohnehin ne neue Graka, schon vom, Speed her. 3.0 ist ein Feature für die Verkaufsschachtel, find ich. Preis, Wärmeentwicklung und vor allem Lautstärke sind aber z.B. für mich extrem wichtige Kriterien.
Original geschrieben von crushinator
Mich persönlich interessiert z.B. null komma nix von dem, was SM3 mitbringt. Praxistaugliches Realtime-Rendering (Obacht: Nicht Offline-Rendering) zur Visualisierung von 3D-Objekten jedoch schon, und da kommt es - zumindest bei mir - zu 95% auf nur Eines an: echte (CPU unabhängige) Geometrieleistung und Füllrate. Wenn ich dann die Karte(n) noch relativ unkompliziert in jeden herkömmlichen PC einbauen kann, ohne beim Arbeiten damit übertrieben gesagt taub zu werden und/oder fast ein Vermögen loszuwerden, wird die jeweilige Karte um so interessanter.
Original geschrieben von Witz komm raus
Ich sehe das von der Geforce 6800 Ultra aus gesehen die Radeon X800 XT satte +40% schneller ist mit vollen Quali-Optionen. (NV: 54 FPS/ ATI: 75 FPS - 4xAA sowie 8xaF) Aber natürlich sieht da niemand einen Vorteil für ATI. Jeder kauft sich lieber eine Geforce, knallt zu den 54 FPS noch PS3.0 dazu und freut sich das er mit 40 FPS durch die Gegend schleicht. Super, das ist Fortschritt im Sinne von NVIDIA. Auf das wir in 6 Monaten das nächste Speedupgrade brauchen und deren Karte kaufen. Die Radeon 9700 war geschwindigkeitsmäßig eine OFFENBARUNG, die X800 XT ist es AUCH!!! Brachiale Power für hohe Auflösung und geglättete Kanten sowie ein aF was gleich dem der neuen Geforce ist, was will man mehr? Ahja, ich vergaß Strom sparen. :D Sieh es wie es ist, ATI hält weiter das Zepter hoch. Ich freu mich schon auf die PCGH, dort stehen wohl letztlich die gleichen Benchmarks drin. Lovesuckz, tuts nicht langsam weh? Du bist der einzige der wie ein Fels in der Brandung steht, und alles was am NV40 nicht so pralle ist uns als "Feature" zu verkaufen.
Ich freue mich immer wieder, wenn ich mir die Mühe mit Formulierungen sparen kann, weil mir ein anderer die Worte aus dem Mund nimmt! :up:
Meine "Vorredner" treffen den Nagel auf den Kopf. ATi hat mit dem X800 eindeutig seine performance-Krone behauptet. Sie holen mit einem niedrigeren Stromverbrauch bei gleichzeitig deutlich höherer Taktung einfach mehr aus ihren Chips raus. Und das sage ich als jemand, der mit Sicherheit nicht als fanboy bezeichnet werden kann. Denn ich setze schon seit dem Ende seliger Voodoo2-Zeiten auf nVidia und habe mir schon vor etlichen Jahren, als ich mich mit der rattigen Rage32 eines Freundes rumärgern musste, geschworen, nie im Leben eine ATi-Grafikkarte zu kaufen. Und jetzt, da ich endlich meine alte Graka ausmustern will und nach den Vergleichstests die Karten auf dem Tisch liegen, sehe ich mindestens drei qualvollen Wochen voller Tagträume und schlafloser Nächte entgegen, bis ich endlich die Grafikkarte besitze, welche die wirklich relevanten Anforderungen (pfeilschnelles AA+AF, effizienterer Energieverbrauch, niedriges Betriebsgeräusch) zur Perfektion beherrscht.
Dank an dildo4u (kehr' mal die Spinnweben in Deiner Zimmerecke weg!), kami und Viper für die links auf Seite 23/24 :). Ach ja: Dank auch an alle anderen; selten war ein thread auf 3DC dermaßen unterhaltsam. :lolaway:
Original geschrieben von bans3i
Du schreibst einfach was, obwohl du nichtmal weißt wodurch das entsteht zb das NV40 PS1.1 Shader bei FC verwendet! Also lieber informieren, bevor man NV/ATI den schwarzen Peter in die Tasche schiebt!!
Dass die Ps1.1 Shader aber wiederum nur mit FP16 gerechnet werden, ist nVidia zuzuschreiben.
Godmode
2004-05-04, 23:52:42
Original geschrieben von Gasl
Dass die Ps1.1 Shader aber wiederum nur mit FP16 gerechnet werden, ist nVidia zuzuschreiben.
Kannst du mir Quellen zeigen, dass Nvidia für PP bei SM1.1 verantwortlich ist?
Original geschrieben von klaus
Ich freue mich immer wieder, wenn ich mir die Mühe mit Formulierungen sparen kann, weil mir ein anderer die Worte aus dem Mund nimmt! :up:
Meine "Vorredner" treffen den Nagel auf den Kopf. ATi hat mit dem X800 eindeutig seine performance-Krone behauptet. Sie holen mit einem niedrigeren Stromverbrauch bei gleichzeitig deutlich höherer Taktung einfach mehr aus ihren Chips raus. Und das sage ich als jemand, der mit Sicherheit nicht als fanboy bezeichnet werden kann. Denn ich setze schon seit dem Ende seliger Voodoo2-Zeiten auf nVidia und habe mir schon vor etlichen Jahren, als ich mich mit der rattigen Rage32 eines Freundes rumärgern musste, geschworen, nie im Leben eine ATi-Grafikkarte zu kaufen. Und jetzt, da ich endlich meine alte Graka ausmustern will und nach den Vergleichstests die Karten auf dem Tisch liegen, sehe ich mindestens drei qualvollen Wochen voller Tagträume und schlafloser Nächte entgegen, bis ich endlich die Grafikkarte besitze, welche die wirklich relevanten Anforderungen (pfeilschnelles AA+AF, effizienterer Energieverbrauch, niedriges Betriebsgeräusch) zur Perfektion beherrscht.
Dank an dildo4u (kehr' mal die Spinnweben in Deiner Zimmerecke weg!), kami und Viper für die links auf Seite 23/24 :). Ach ja: Dank auch an alle anderen; selten war ein thread auf 3DC dermaßen unterhaltsam. :lolaway:
Stimmt alles:
Immerhin hat es ATI geschafft eine Karte rauszubringen, die schneller ist, die bessere Bildqualität hat, weniger Strom verbraucht, LEISER ist, nur einen Slot benötigt, weniger Transistorten hat !! und bald verfügbar ist ???
Irgendwie verstehe das wer will! Halt nvidia-Fanboys everyware!
Lustiger Troll
2004-05-04, 23:56:40
Original geschrieben von Gasl
Dass die Ps1.1 Shader aber wiederum nur mit FP16 gerechnet werden, ist nVidia zuzuschreiben.
:rofl: mehr muss ich dazu wohl nicht sagen, oder....
/Edit werde den Spruch mal in meine Sig aufgenommen weil ich den so Lustig finde *eg*
dildo4u
2004-05-05, 00:07:45
http://www.overclockersclub.com/?read=8367770 hier noch mal ne schöne übersicht News, Previews, & Reviews: ATi RADEON x800
Leider fehlt 3Dcenter :abgel:
Godmode
2004-05-05, 00:09:59
Original geschrieben von RERE
Stimmt alles:
Immerhin hat es ATI geschafft eine Karte rauszubringen, die schneller ist, die bessere Bildqualität hat, weniger Strom verbraucht, LEISER ist, nur einen Slot benötigt, weniger Transistorten hat !! und bald verfügbar ist ???
Irgendwie verstehe das wer will! Halt nvidia-Fanboys everyware!
Ja stimmt schon, aber das sind nur die Vorteile dieser Karte.
NV40 hat auch seine Vorteile, aber eben andere als die des R420
R420:
+nice Speed
+nice 6XAA
+wenig hitze
+wenig stromverbrauch
+3DC (wenn es was bringt)
-nur SM2.0
-weniger neue Dinge
-weiterhin nur Winkelabhängiges AF
NV40:
+endlich 4XRGMSAA
+auch guter Speed
+SS AA Modi für ältere Spiele
+SM 3.0(wenn es was bringt)
+MDR
-SS Modi nur für ältere Spiele geeignet
-mehr Stromhunger
-AF verschlechtert(mit Vorbehalt: ich bin noch immer überzeugt davon, dass man es vielleicht irgendwan mit nem Regtweak oder im CB die Winkelabhängigkeit aktivieren kann)
Also jeder soll sich den Sieger selber küren! Dem einen gefällt halt das besser, dem anderen was anders :)
Ich finde jedenfalls beide Produkte sehr beeindruckend sowohl von ATI als auch von Nvidia.
Original geschrieben von dildo4u
http://www.overclockersclub.com/?read=8367770 hier noch mal ne schöne übersicht News, Previews, & Reviews: ATi RADEON x800
Leider fehlt 3Dcenter :abgel:
Die waren ja auch nicht beim Pressetermin, wohl nen Frisörtermin gehabt (speku) !
betasilie
2004-05-05, 00:16:21
Original geschrieben von bans3i
Ja stimmt schon, aber das sind nur die Vorteile dieser Karte.
NV40 hat auch seine Vorteile, aber eben andere als die des R420
R420:
+nice Speed
+nice 6XAA
+wenig hitze
+wenig stromverbrauch
+3DC (wenn es was bringt)
-nur SM2.0
-weniger neue Dinge
-weiterhin nur Winkelabhängiges AF
NV40:
+endlich 4XRGMSAA
+auch guter Speed
+SS AA Modi für ältere Spiele
+SM 3.0(wenn es was bringt)
+MDR
-SS Modi nur für ältere Spiele geeignet
-mehr Stromhunger
-AF verschlechtert(mit Vorbehalt: ich bin noch immer überzeugt davon, dass man es vielleicht irgendwan mit nem Regtweak oder im CB die Winkelabhängigkeit aktivieren kann)
Also jeder soll sich den Sieger selber küren! Dem einen gefällt halt das besser, dem anderen was anders :)
Ich finde jedenfalls beide Produkte sehr beeindruckend sowohl von ATI als auch von Nvidia.
Ein tolle Zusammenfassung, der ich mich zu 100% anschließen kann. :)
NV40 hat auch seine Vorteile, aber eben andere als die des R420
R420:
+nice Speed ? Double Speed als NV40 !!!
+nice 6XAA ? Beste Bildqaulität
+wenig hitze ? wenig Strombedarf, ältere Netzteil laufen!!!
+wenig stromverbrauch ! Blamabl fü nvidia
+3DC (wenn es was bringt)
ja sicher!!! bissu blind
-nur SM2.0 ? Esgibt nichts wann PSW2.0 besser und R420 schneller kann!"!
-weniger neue Dinge ??? Fanboy
-weiterhin nur Winkelabhängiges AF ? NAUND - lüüüüpt doch
misterh
2004-05-05, 00:21:36
mich würde mal interessieren wieviel seite schon r420 und 6800UE review gemacht haben? wäre schön wenn jmd mir paar seite nennt!
Edit:
sry hab grad gemerkt dass einer schon gepostet hat, wo man viele review seite sehen kann.
SKYNET
2004-05-05, 00:22:14
Original geschrieben von LovesuckZ
Sie erreichen dies dadurch, dass sie deutlich weniger Features unterstuetzen.
Sieht man das wirklich nicht? Oder ist einem das egal?
die leute aus dem ati-elfen-land sehn das net.
lass sie doch, werden sich in der ar*ch beissen wenn sie sich ne r420 kaufen und wir nächstes jahr noch immer auf der NV40 zocken können ohne auf effekte zu verzichten die nur PS3.0 bieten kann.
Lustiger Troll
2004-05-05, 00:22:51
Original geschrieben von bans3i
Ja stimmt schon, aber das sind nur die Vorteile dieser Karte.
NV40 hat auch seine Vorteile, aber eben andere als die des R420
R420:
+nice Speed
+nice 6XAA
+wenig hitze
+wenig stromverbrauch
+3DC (wenn es was bringt)
-nur SM2.0
-weniger neue Dinge
-weiterhin nur Winkelabhängiges AF
NV40:
+endlich 4XRGMSAA
+auch guter Speed
+SS AA Modi für ältere Spiele
+SM 3.0(wenn es was bringt)
+MDR
-SS Modi nur für ältere Spiele geeignet
-mehr Stromhunger
-AF verschlechtert(mit Vorbehalt: ich bin noch immer überzeugt davon, dass man es vielleicht irgendwan mit nem Regtweak oder im CB die Winkelabhängigkeit aktivieren kann)
Also jeder soll sich den Sieger selber küren! Dem einen gefällt halt das besser, dem anderen was anders :)
Ich finde jedenfalls beide Produkte sehr beeindruckend sowohl von ATI als auch von Nvidia.
Ja da muss ich dir auch zustimmen, aber wäre vielleicht noch gut wenn du das von wegen Single und Dualslotkühlung noch mit reinnimmst, sonst kommt noch einer und behauptet du bist ein Fanboy ;).
AYAlf
2004-05-05, 00:23:01
@bansei
es muss dir doch aufgefallen sein, das ich die posts alle mit einem ironischem unterton verfasst habe. bei den meisten steht dies auch dabei.
auf den fc post zurueckzukehren. er ist voellig aus dem zusammenhang gerissen. und ausserdem ist dem normalen user voellig egal, wie ihre graka die geschwindigkeit und qualitaet erhaelt. es ist nur wichtig, dass sie beides hat. es ist ja schoen, dass hier viele mit ihrem fachwissen umzugehen wissen. aber dem normalen user oder dem, der die karte als gebrauchsgegenstand ansieht (zum zocken, benchen, videos bearbeiten usw.) ist nur mit den effektiven zahlen geholfen. und da die meisten user diese karten eben nur zum spielen moechten (wie auch die meisten aus diesem forum, wie es scheint - sonst brauechten sie diese geschwindigkeit nicht). ist diese gruppe als wichtigste anzusehen. denn sie kauft die produkte. und aus den vorliegenden daten ist eindeutig ersichtlich, dass nvidia im hintertreffen ist, was preis und leistung angeht (findest du im uebrigen auch im testbericht auf dieser seite zu den r4xx chips).
ich bin kein fanboy. ich bin ein kaeufer der sich fuer das beste produkt entscheidt. (ich selber habe viel mehr nvidia karten, als ati karten in meinen rechnern. genau genommen besitze ich nur eine ati karte) und das beste produkt ist und bleibt nun mal ati. ich kann hier manche user nicht verstehen (ich meine spieler, nicht die programmierer) die sich immer noch an jedem stohhalm klammern um ihre company (in dem fall nvidia) die stange zu halten.
so das war ganz ohne sarkasmus und ironie.
ps: was mir hier in vielen threads zum thema ati und nvidia auffaellt ist, dass selbst die, die es besser wissen sollten. eine art krieg gegen andere grafikkartenbesitzer anzetteln. ich finde das irgendwie putzig.
psps: wenn nvidia wieder einmal die nase vorn haben sollte, werde ich natuerlich kraeftig fuer diese seite streiten.
pspsps: viele erzaehlen hier trotz besseres wissen nur die geschoente wahrheit ueber ihre karte. die negativen aspekte werden imme aussen vor gelassen. oder als selbstverstaendlich abgetan. =)
Godmode
2004-05-05, 00:24:35
Original geschrieben von Lustiger Troll
Ja da muss ich dir auch zustimmen, aber wäre vielleicht noch gut wenn du das von wegen Single und Dualslotkühlung noch mit reinnimmst, sonst kommt noch einer und behauptet du bist ein Fanboy ;).
Genau diese Dinge hab ausgelasen, da es sicherlich wieder Designs von MSI und Co als Single Slot geben wird, genau so wie die Lautstärke.
Godmode
2004-05-05, 00:28:17
Original geschrieben von AYAlf
@bansei
es muss dir doch aufgefallen sein, das ich die posts alle mit einem ironischem unterton verfasst habe. bei den meisten steht dies auch dabei.
auf den fc post zurueckzukehren. er ist voellig aus dem zusammenhang gerissen. und ausserdem ist dem normalen user voellig egal, wie ihre graka die geschwindigkeit und qualitaet erhaelt. es ist nur wichtig, dass sie beides hat. es ist ja schoen, dass hier viele mit ihrem fachwissen umzugehen wissen. aber dem normalen user oder dem, der die karte als gebrauchsgegenstand ansieht (zum zocken, benchen, videos bearbeiten usw.) ist nur mit den effektiven zahlen geholfen. und da die meisten user diese karten eben nur zum spielen moechten (wie auch die meisten aus diesem forum, wie es scheint - sonst brauechten sie diese geschwindigkeit nicht). ist diese gruppe als wichtigste anzusehen. denn sie kauft die produkte. und aus den vorliegenden daten ist eindeutig ersichtlich, dass nvidia im hintertreffen ist, was preis und leistung angeht (findest du im uebrigen auch im testbericht auf dieser seite zu den r4xx chips).
ich bin kein fanboy. ich bin ein kaeufer der sich fuer das beste produkt entscheidt. (ich selber habe viel mehr nvidia karten, als ati karten in meinen rechnern. genau genommen besitze ich nur eine ati karte) und das beste produkt ist und bleibt nun mal ati. ich kann hier manche user nicht verstehen (ich meine spieler, nicht die programmierer) die sich immer noch an jedem stohhalm klammern um ihre company (in dem fall nvidia) die stange zu halten.
so das war ganz ohne sarkasmus und ironie.
ps: was mir hier in vielen threads zum thema ati und nvidia auffaellt ist, dass selbst die, die es besser wissen sollten. eine art krieg gegen andere grafikkartenbesitzer anzetteln. ich finde das irgendwie putzig.
psps: wenn nvidia wieder einmal die nase vorn haben sollte, werde ich natuerlich kraeftig fuer diese seite streiten.
pspsps: viele erzaehlen hier trotz besseres wissen nur die geschoente wahrheit ueber ihre karte. die negativen aspekte werden imme aussen vor gelassen. oder als selbstverstaendlich abgetan. =)
Ich nehme das voll zu Kenntnis, ich sehe es ein das für dich ATI das bessere Produkt hat. Ich habs oben schon deutlich gemacht, jeder Hersteller hat Vor und Nachteile und wenn die Vorteile für dich bei ATI überwiegen wärst du ja wirklich blöd wenn du eine NV kaufen würdest.
Also auf ein weiterhin friedliches Diskutieren :) nix für ungut wenn ich vorher etwas zu laut wurde.
mfg dom
BlödKop
2004-05-05, 00:28:29
Original geschrieben von hhuk
NV40 hat auch seine Vorteile, aber eben andere als die des R420
R420:
+nice Speed ? Double Speed als NV40 !!!
+nice 6XAA ? Beste Bildqaulität
+wenig hitze ? wenig Strombedarf, ältere Netzteil laufen!!!
+wenig stromverbrauch ! Blamabl fü nvidia
+3DC (wenn es was bringt)
ja sicher!!! bissu blind
-nur SM2.0 ? Esgibt nichts wann PSW2.0 besser und R420 schneller kann!"!
-weniger neue Dinge ??? Fanboy
-weiterhin nur Winkelabhängiges AF ? NAUND - lüüüüpt dochsicher sicher
nv40 hat aber um einiges mehr an transis also darf er auch mehr strom verbrauchen.
-weiterhin nur Winkelabhängiges AF ? NAUND - lüüüüpt doch
super kann man drehen unsd sagen naund bei nv auch LÜÜÜÜÜÜÜÜÜÜÜÜÜÜÜÜÜÜPT auch alles.
und wenn ati es gepackt hätte ne fp32 architektur auf die beine zu stellen gäbe es fp24 nicht aber es wird nunmal das genommen was der schlechteste zu bieten hat um ihn nicht aussenvor zu lassen.
usw usw also was soll der quatsch.
FLAMEBOY
Godmode
2004-05-05, 00:30:05
Ich hab die Postings von den Anonymous Flamern eh schon gemeldet, werden also nicht mehr lange da sein, hoffe ich.
edit: beim nächsten großen Launch Gast Funktion auschalten für ein paar Tage. Würde das Klima hier merklich verbessern :)
DrumDub
2004-05-05, 00:31:30
bans3i
echt nen super zusammenfassung der wichtigsten punkte. :up:
wobei du beim nv40 noch nen paar features vergessen hast (64bit framebuffer, fp16-texturunterstützung und filterung, tone-mapping im ramdac). die werden aber für den gemeinen gamer eh nicht relevant sein.
SKYNET
2004-05-05, 00:31:36
Original geschrieben von Ulukay
wieviel PCI slots hast du belegt viper?
hrhr, also ich habe nur einen belegt.
darum kann der referenzküler auch 4 slots belgen wenn er will, vonmir aus auch 5 oder 6, weil die karte die ich drinne habe ist nur drinne weil ich zufaul bin endlichmal mein onboard lan fit zumachen ;D
SKYNET
2004-05-05, 00:33:04
Original geschrieben von deekey777
Die NV40 ist in 18-24 Monaten das, was die 5200 jetzt ist. Dieses Hype um die SM 3.0 der NV40 ist zum Kotzen!!! Das bringt nur Geschwindigkeit, diese bringt die R420 auch. Das ist kein Argument für die NV40!
Eindeutig besseres AF? Wayne interessiert? Heutzutage zählt AA und AF gemeinsam!
laber kein saft.
dei nv40 ist in 24 monaten das was die Ti4600 jetzt ist.
und die 4600er langt sogar für farcry in gemäßigeten auflösungen noch locker.
*dir mal die rosa ATI brille abnimmt*
Godmode
2004-05-05, 00:34:04
Original geschrieben von DrumDub
bans3i
echt nen super zusammenfassung der wichtigsten punkte. :up:
wobei du beim nv40 noch nen paar features vergessen hast (64bit framebuffer, fp16-texturunterstützung und filterung, tone-mapping im ramdac). die werden aber für den gemeinen gamer eh nicht relevant sein.
War Absicht!! Ich wollte das NV40/R420 genau 5 + und 3 - hat, sonst heißts gleich wieder der hat um 1 mehr bla blub :)
DrumDub
2004-05-05, 00:44:40
Original geschrieben von bans3i
War Absicht!! Ich wollte das NV40/R420 genau 5 + und 3 - hat, sonst heißts gleich wieder der hat um 1 mehr bla blub :)
schon klar. deshalb schrieb ich ja auch die sache mit dem gemeinen gamer... war nur ne anmerkung.
für mich persönlich als spieler ist die x800pro momentan das interessanteste angebot. da ich mir aber eh erst anfang 2005 ne neue graka+cpu+mobo+etc. zulegen werde, ist das eh für mich egal. ;)
BlueRaven
2004-05-05, 00:45:35
werden die ATI Radeon X800XT / Pro Karten noch im Mai zu haben sein oder.. muss auch auf die lange warten.
Ich finde es nicht schlecht das ATI noch eine 1 Slot schaft mit einem 1 Strom anschluss und nicht wie bei Nvidia mit 2 und dazu noch eine mindest anforderung von 480Watt Netzteil und natürlich 2 Slot design.
bye
BlueRaven
Winter[Raven]
2004-05-05, 00:49:32
edit: beim nächsten großen Launch Gast Funktion auschalten für ein paar Tage. Würde das Klima hier merklich verbessern
Tjö, habe hier angesprochen: http://80.237.203.42/vbulletin/showthread.php?s=&threadid=140572
aber da wird man nur dumm angemacht. Was solls.
Riptor
2004-05-05, 01:01:05
Wieder mal ein Launch, wieder das GLEICHE Rumgemaule, das GLEICHE Geflame, das GLEICHE Geflenne, dass doch die ANDEREN immer die bösen, bösen Querulanten seien, die einfach nicht die "Wahrheit der ABSOLUTEN Karte" wahrhaben wollen. Bei so vielen Fanboys hier verliert man wieder jegliche Motivation, seine Meinung kund zu tun. Schon arm, wie der "Kampf ATI vs. nVidia" in die nächste Runde geht. Anscheinend werden diverse Leute hier es NIE lernen (wollen)... Arm, arm...
PS: bans3i ist wenigstens einer der wenigen Leute, die einen vernünftigen Eindruck machen.
PPS: Schade, dass das eigene Ego immer wichtiger ist, als zusammen dazu beizutragen, etwas niveauvoller miteinander umzugehen. Aber immer weiter unterstellen, angreifen und austeilen, mit der Taktik kommt man sicherlich gaaaaanz weit. :down:
PPPS: Achja:
"viele erzaehlen hier trotz besseres wissen nur die geschoente wahrheit ueber ihre karte. die negativen aspekte werden imme aussen vor gelassen. oder als selbstverstaendlich abgetan."
Da können sich einige mal an die Nase fassen, als immer auf die "anderen" zu zeigen. ;) Bin jetzt raus, euch noch "viel Spaß".
RyoHazuki
2004-05-05, 01:51:56
So, jetzt werd ich mal was dazu sagen, auch wenn ich nicht der waiseste bin !
Erstmal ein paar fakten:
Wenn ich alles richtig verstanden habe, ist der R420 ein aufgebohrter R3x0.
Ergo: Das bedeutet für mich, das man nicht sehr große treiberanpassungen machen muss. Und die karte/Chip auch mit beta treibern doch schon sehr ausgereift sein sollte.
Und wenn ich mich recht erinnere ist der NV40 eine völlig neuentwicklung.
Ergo: Das bedeutet für mich, das die karte noch sehr viel optimierung braucht. ---> Da neue architektur. Man kann das ganze doch ganz köstlich zwischen dem Forceware 60.72 und dem 61.11 betrachten. Alleine Call Of Duty 20% Schneller, manch andere auch 5% langsamer. Aber wenn Nvidia erstmal fertig ist. Sollten 10% - 20% in vielen spielen mehr sein. Vorallem bei farCry glaube ich noch "MEHR" denn zurzeit st das unter aller sau.
*** Leute seht den tatsachen ins auge, etwas logisches denken hilft jedem im leben weiter. Ich (und das solltet ihr auch) werde erst meinen klaren sieger krönen, wenn nichtsmehr mit Beta da steht, wenn treiber ausgereift sind.***
ES GIBT IM MOMENT KEINEN KLAREN SIEGER, AUS UND VORBEI
Metalmaniac
2004-05-05, 02:01:10
Original geschrieben von SKYNET
die leute aus dem ati-elfen-land sehn das net.
lass sie doch, werden sich in der ar*ch beissen wenn sie sich ne r420 kaufen und wir nächstes jahr noch immer auf der NV40 zocken können ohne auf effekte zu verzichten die nur PS3.0 bieten kann.
Sollte das wirklich der letzte von wirklich amüsanten wie überflüssigen Posts beider Fanboy-Lager gewesen sein? Naja, ist schon spät halt. Aber zum Thema. Leider kann ich als normaler User bei hochtechnischen Dingen überhaupt nicht mitreden, aber gerade deshalb repräsentiere ich wohl die Mehrheit der Leute, die ab und an nur mal normal zocken wollen, und das möglichst optisch ansprechend und dabei ausreichend schnell.
Als erstes würde ich allen mit ATI's 9800Pro/XT und nVidia's FX59xx raten, bei ihren Karten zu bleiben, sie reichen sicherlich noch eine Weile aus (wahrscheinlich bis ins nächste Jahr). Meine 9800pro schlägt ja in höchsten Qualitätsstufen sogar zumeist noch das neueste Produkt von nVidia, wenngleich in nur bedingt spielbaren Frameraten (ist zwar keine XT, läßt sich aber bei Bedarf über dessen Taktraten bringen).
Alle sollten nVidia desweiteren unendlich dankbar sein, sich selbstlos Features wie Shader3.0 auferlegt zu haben, die deshalb bestimmt bald (nächstes Jahr?!) Standard sein werden ;D . Rechtzeitig zum Launch der dann erscheinenden NV50 und R500, die das dann auch angemessen darstellen sollten, werde ich vielleicht auch an einem Refresh vorhandener Grafik-Hardware in meinem PC nicht vorbeikommen.
Sollte mir meine vorhandene Karte aus irgendwelchen Gründen die Arbeit aber verweigern, würde ich beim jetzigen Stand der Dinge für mich wohl die X800pro bevorzugen, die auf lange Sicht performancetechnisch ganz weit vorne liegt, auch sonst gewisse Vorzüge genießt (alles in allem pari zum NV40) aber als wichtigstes Kaufargument das beste Preis-Leistungsverhältnis zu haben scheint (bis zu 100€ weniger, das waren vor 2 1/2 Jahren noch 200DM).
Alles in allem werde ich mir also wohl kaum in den A...h beissen müssen, vielleicht aber Leute, die sich an dem bloßen Vorhandensein zukünftiger Features aufg..len, teure Hardware damit sich schon heute zulegen, aber u.U. dann irgendwann feststellen müssen, daß sich Geschichte wiederholt (FX5200-DirectX9).
Eigentlich glaube ich daß die, die hier am "lautesten" posten, sich zumeist erstmal gar nicht sofort die neuesten Karten kaufen werden, es geht hier vielen scheinbar nur ums Prinzip. Aber lustig ists allemal. Wobei, wenn ich objektiv urteilen sollte, mir die Posts von nVidia-Anhängern mehr wie mittelschwere Rückzugsgefechte anmuten und ich schon als Kind gelernt habe, wer am lautesten schreit hat meistens Unrecht. Beide Karten sind saugeil, superschnell und haben in allen Bereichen ihre Vor-und Nachteile. Allgemein sind Launches neuer Grafik-Hardware immer noch zu häufig, hatten sich beide Hersteller nicht vor einiger Zeit mal auf die Reduzierung des Tempos verständigt?
betasilie
2004-05-05, 02:24:50
Original geschrieben von Winter[Raven]
Tjö, habe hier angesprochen: http://80.237.203.42/vbulletin/showthread.php?s=&threadid=140572
aber da wird man nur dumm angemacht. Was solls.
Du machst hier die Gäste blöd an, das ist das Problem.
Ich jedenfalls fände es besser, wenn bekennende Fanboys die Diskussionsforen nicht betreten dürften.
Daher kehre erst mal vor der eigenen Tür. ;)
Marodeur
2004-05-05, 03:01:15
*selfdelete*
Frage hat sich von selbst erledigt...
Sphinx
2004-05-05, 03:20:09
Original geschrieben von Metalmaniac
Sollte mir meine vorhandene Karte aus irgendwelchen Gründen die Arbeit aber verweigern, würde ich beim jetzigen Stand der Dinge für mich wohl die X800pro bevorzugen, die auf lange Sicht performancetechnisch ganz weit vorne liegt, auch sonst gewisse Vorzüge genießt (alles in allem pari zum NV40) aber als wichtigstes Kaufargument das beste Preis-Leistungsverhältnis zu haben scheint (bis zu 100€ weniger, das waren vor 2 1/2 Jahren noch 200DM).
Alles in allem werde ich mir also wohl kaum in den A...h beissen müssen, vielleicht aber Leute, die sich an dem bloßen Vorhandensein zukünftiger Features aufg..len, teure Hardware damit sich schon heute zulegen, aber u.U. dann irgendwann feststellen müssen, daß sich Geschichte wiederholt (FX5200-DirectX9).
Kann dem beisteuern - Dieses mal wird es - wenn überhaupt die X800Pro werden sollte sich meine R97ooPro verabschieden - ansonsten zeigen die Benches zuversichtlich was ich Anfang nächsten Jahres für ein Spiele vergnügen unter PCI-Express haben werde seitens ATI. (Wer glaubt das daß X880 Modell ende der Fahnenstange dieses Jahr sein wird der täuscht gewaltigt ,) )
jfhgd
2004-05-05, 07:41:26
Hi,
ich finde das die Diskussionen in den letzten Wochen im Spekulattionsbereich genau das reflektieren was heute abgeht!
Es gibt hier einige Flamer auch unter den Regestrierten die nichts auslassen um eine Stimmung aufzubauen die ich nicht NACHVOLLZIEHEN kann.
Die technischen Fakten sprechen eindeutig für den R420!
SamLombardo
2004-05-05, 07:42:47
So dann will ich auch mal.
Die X800 ist in etwa so geworden wie ich es erwartet hatte. Ein paar Prozent schneller als die 6800 durchschnittlich. So what? Dieser "Vorteil" ist sicherlich nirgendwo wahrnehmbar oder bewegt sich in den Größen 9800pro vs 5900. Nein hier gibt es praktisch ein Kopf an Kopf Rennen. Das dieser Fakt von FanATIkern als das Nonplusultra hingestellt wird ist mir unverständlich, war aber nicht anders zu erwarten.
Tatsache ist: Die Karten sind unter jetzigen Bedingungen gleichauf (teilw. Vorteile im einstelligen Bereich für Ati - irrelevant)ABER : Nvidia hat den Technologievorteil auf seiner Seite, hat den wesentlich komplexeren Chip mit den besseren Features und PS3.0! und wird alles daran setzen bei den Entwicklern PS3.0 Unterstützung zu erreichen für die nächsten Games bzw per Patch nachzuliefern (Siehe FarCry). Vor allem da PS3.0 Support programmiertechnisch wohl keine allzu komplizierte Sache ist...Insofern denke ich, dass Nvidia die deutlich attraktivere Karte bietet, da die Konkurrenz "nur" gleichschnell, aber gewissermaßen Technik von Gestern ist.
mfG Sam
Für das was an Games dieses und nächstes Jahr kommt reicht wohl meine 9800pro locker.Und eh PCI-Express nicht richtig aufm Markt ist lohnt sich ne neue Graka,ob nun R420 oder NV 40 wohl nur halb.
Der NV40 schleppt meiner Meinung nach viel zu viele stromfressende Features mit sich rum die Spielespieler(derzeit) nicht brauchen.Und die Herren Entwickler die PS 3.0 haben wollen,haben ja nicht mal die Vorgängerversionen ausgenutzt.Also derzeit belanglos.
Smithers
2004-05-05, 08:00:48
Original geschrieben von SamLombardo
So dann will ich auch mal.
Die X800 ist in etwa so geworden wie ich es erwartet hatte. Ein paar Prozent schneller als die 6800 durchschnittlich. So what? Dieser "Vorteil" ist sicherlich nirgendwo wahrnehmbar oder bewegt sich in den Größen 9800pro vs 5900. Nein hier gibt es praktisch ein Kopf an Kopf Rennen. Das dieser Fakt von FanATIkern als das Nonplusultra hingestellt wird ist mir unverständlich, war aber nicht anders zu erwarten.
Tatsache ist: Die Karten sind unter jetzigen Bedingungen gleichauf (teilw. Vorteile im einstelligen Bereich für Ati - irrelevant)ABER : Nvidia hat den Technologievorteil auf seiner Seite, hat den wesentlich komplexeren Chip mit den besseren Features und PS3.0! und wird alles daran setzen bei den Entwicklern PS3.0 Unterstützung zu erreichen für die nächsten Games bzw per Patch nachzuliefern (Siehe FarCry). Vor allem da PS3.0 Support programmiertechnisch wohl keine allzu komplizierte Sache ist...Insofern denke ich, dass Nvidia die deutlich attraktivere Karte bietet, da die Konkurrenz "nur" gleichschnell, aber gewissermaßen Technik von Gestern ist.
mfG Sam
Dito. Hätte es nicht besser sagen können. Wenn der R420 so um die 50 Prozent vor der NV40 gelegen hätte, dann wäre der technologische Nachteil der Atis aufgewogen. Aber da es Ati mit seiner aufgebohrten R300 gerade mal geschaft hat mit PS2.0 gleichschnell zu sein wie die NV40, kann der Sieger nur der NV40 sein, da er gewissermaßen PS3.0 als "Bonus" drauflegt und - wie Lombardo schon geschrieben hat - der PS3.0 Support leicht per Patch nachgelegt werden kann, und notfalls von NV "erkauft" wird! Wetten!
seahawk
2004-05-05, 08:14:42
Original geschrieben von Mr. Lolman
Dann packt man einfach Hires Texturen auf die CDs/DVDs, und je nach Wahl der Spieloptionen, werden komprimiert, oder nicht. (und dann auf der Platte gespeichert)
HiRes Texture - lol. Davon habe ich auf meiner Platte nur für den Mod momentan ca. 4,3 GB.
opaverse
2004-05-05, 08:19:30
Original geschrieben von Smithers
Dito. Hätte es nicht besser sagen können. Wenn der R420 so um die 50 Prozent vor der NV40 gelegen hätte, dann wäre der technologische Nachteil der Atis aufgewogen. Aber da es Ati mit seiner aufgebohrten R300 gerade mal geschaft hat mit PS2.0 gleichschnell zu sein wie die NV40, kann der Sieger nur der NV40 sein, da er gewissermaßen PS3.0 als "Bonus" drauflegt und - wie Lombardo schon geschrieben hat - der PS3.0 Support leicht per Patch nachgelegt werden kann, und notfalls von NV "erkauft" wird! Wetten!
Träum du nur schön weiter!
Wenn NV wirklcih den besseren Chip hätte, warum dann die Spielereien???
1. Bsp.: FX5200 mit angeblichem DX9 Support - Keine DX9 Spiel auf der Welt hat DX9 Features eingeschaltet bei der FX5200
2. Bsp.: Farcry, alle Fx-Karten haben einen PS1.1 Pfad von Farcry bekommen! Ich dachte sie wären der technologie Driver hinsichtlich Pixelshader??
3. Bsp.: Ich erinnere mich als wäre es gestern als die ganze Bande verkündet hatte, mit DX9.1 wird alles besser!!
Und wo ist DX9.1 ???? Erfindung vom grünen Marketing!
4. Bsp.: Aktueller Farcry-Betrug mit NV40 siehe Chip-Beitrag:
CHIP Online meint:
Keine Frage, Nvidia ist angesichts der hohen Leistung von ATIs Radeon X800 XT (Platinum Edition) in Panik geraten. Anders ist wohl nicht zu erklären, dass man kurz vor dem Launch der Radeon X800 XT mit einer höher getakteten GeForce 6800 Ultra (Extreme Edition) gegen schießt.
Dieser Schnellschuss könnte nach hinten losgehen: Der Grund dafür liegt nicht beim Extreme-Edition-Modell - vielmehr ist der "optimierte" 61.11-Treiber mit Vorsicht zu genießen. Benennt man die Benchmark-Datei um, sackt das Ergebnis wieder deutlich hinter einer Radeon X800 XT zurück.
Damit scheint sich die unsägliche - und für alle Seiten schädliche - Diskussion "Treiber-Betrug versus Benchmark-Optimierungen" neu zu entfachen
Fazit:
Es gibt nur einen klaren Sieger ! ATI
Radeonator
2004-05-05, 08:19:56
Selbst mit einer auf 550MHz getrimmten Karte ca 20% langsamer und schlechteres Feature Set als die nV40...da hat ATi sich wohl diesmal verzettelt.Stellt euch vor die hätten wirklich nur das 12Pipe Design rausgebracht!
Naja, WB nVidia! Bis zum nächsten GPU Fight! Spannendes Match , bis zum Ende, echt kewl.... ;)
BK-Morpheus
2004-05-05, 08:22:58
Original geschrieben von SamLombardo
Insofern denke ich, dass Nvidia die deutlich attraktivere Karte bietet, da die Konkurrenz "nur" gleichschnell, aber gewissermaßen Technik von Gestern ist.
Technik von gestern?
Also ich finde den geringen Stromverbrauch und die dadurch geringere Abwärme bzw. nicht so wuchtige (und äußerst leise) Kühlerlösung sehr von Vorteil für ATI.
Ob PS3.0 so der Bonus ist wird sich genauso zeigen, wie die 3Dc Technologie von ATI...also nen richtigen Technologievorteil für den NV40 seh ich eher nicht.
LovesuckZ
2004-05-05, 08:24:28
Original geschrieben von opaverse
Wenn NV wirklcih den besseren Chip hätte, warum dann die Spielereien???
Weil leute wie du nur auf die Balken schauen.
Es ist bezeichnend für die jetzige Zeit, dass nur sehr wenige Reviewer die Featurelosigkeit des r420 übrhaupt angeprangert haben.
Und ich werde echt Lachen, wenn in einem jahr plötzlich einige meinen, dass das SM3.0 wichtig sei, weil Nvidia die Vorarbeit, also Spieleunterstuetzung, geleistet habe und man nun SM3.0 faehige Hardware benoetige. Nene, bleibt bei eurer Steinzeitkarte oder benutzt nie das SM3.0. Ich meine, 3dc ist ein gutes Feature, das koennt ihr doch benutzten!
Nun, um wiedr auf das Thema zurueck zu kommen: Xbitlabs testet wie imemr auch die HL2 - Beta, und da liegt die XT version nicht gerade weit vorne...
http://www.xbitlabs.com/articles/video/display/r420-2_12.html
[dzp]Viper
2004-05-05, 08:32:54
Original geschrieben von LovesuckZ
Weil leute wie du nur auf die Balken schauen.
Es ist bezeichnend für die jetzige Zeit, dass nur sehr wenige Reviewer die Featurelosigkeit des r420 übrhaupt angeprangert haben.
Und ich werde echt Lachen, wenn in einem jahr plötzlich einige meinen, dass das SM3.0 wichtig sei, weil Nvidia die Vorarbeit, also Spieleunterstuetzung, geleistet habe und man nun SM3.0 faehige Hardware benoetige. Nene, bleibt bei eurer Steinzeitkarte oder benutzt nie das SM3.0. Ich meine, 3dc ist ein gutes Feature, das koennt ihr doch benutzten!
Nun, um wiedr auf das Thema zurueck zu kommen: Xbitlabs testet wie imemr auch die HL2 - Beta, und da liegt die XT version nicht gerade weit vorne...
http://www.xbitlabs.com/articles/video/display/r420-2_12.html
Ich möchte dich bitten, 3Dc nicht zu runter zu machen! Momentan gibt es keinen Unterschied zwischen 3Dc und PS3.0.
Beides wird noch nicht benutzt und wir wissen von beiden noch nicht, was es im endeffekt so richtig bringt!
PS3.0 und 3Dc sind beides sehr nette Sachen - wenn sie den mal eingesetzt werden ;)
Was nun schneller von den beiden features integriert wird, können wir jetzt noch nicht sehen. Aber scheinbar wird beides sehr gut von den Entwicklern angenommen!
Am liebsten wäre mir eine Karte die beides kann :D Dann würde es diese sinnlose Diskussion nämlich nicht geben ;)
seahawk
2004-05-05, 08:35:50
Original geschrieben von [dzp]Viper
Ich möchte dich bitten, 3Dc nicht zu runter zu machen! Momentan gibt es keinen Unterschied zwischen 3Dc und PS3.0.
Beides wird noch nicht benutzt und wir wissen von beiden noch nicht, was es im endeffekt so richtig bringt!
PS3.0 und 3Dc sind beides sehr nette Sachen - wenn sie den mal eingesetzt werden ;)
Was nun schneller von den beiden features integriert wird, können wir jetzt noch nicht sehen. Aber scheinbar wird beides sehr gut von den Entwicklern angenommen!
Am liebsten wäre mir eine Karte die beides kann :D Dann würde es diese sinnlose Diskussion nämlich nicht geben ;)
Na 3dc ist soch ziemlich limitiert ...
SM3.0 hingegen ist wenigstens ein Standard der später auch mal von allen Anbietern genutzt werden wird.
hjfhsdfjk
2004-05-05, 08:36:24
Zeige mir einen Highendgamer der nicht in den maximal verfügbaren Details spielt !
Demnach ist der Purespeed - Vergleich genauso für die Katz als wenn ich nen Ferrari mit nem Porsche in der 30'er Zone
vergleiche.
Immerhin hat MS bereits angekünfigt 3DC in DX9 aufzunehmen!
Würde sich bestimmt auch gut in der XBOX machen*gggg*.
Mein Entschluss steht fest: X800Pro ist bereits auf meiner Wunschliste.
Überhaupt, hat irgendjemand hier denn bedacht, das die Karte mit Referenz-Design und NORMAL-Takt gebecnht wurde.
Die Speichermodule sind ohne Kühler! Ich bin mir 100% sicher, das genauso wie bei meiner 9800Xt noch einiges raszuholen ist.
Immerhin kann ATI jederzeit durch Treiber-Updates nachziehen, falls nv Ihre Spielereien fortsetzt wäre das nur legitim!
sfgdfg
2004-05-05, 08:38:09
Original geschrieben von seahawk
Na 3dc ist soch ziemlich limitiert ...
SM3.0 hingegen ist wenigstens ein Standard der später auch mal von allen Anbietern genutzt werden wird.
Sm3.0 kann nix was nicht auch PS2.0 kann! Ende aus Nikolaus!
LovesuckZ
2004-05-05, 08:39:16
Original geschrieben von sfgdfg
Sm3.0 kann nix was nicht auch PS2.0 kann! Ende aus Nikolaus!
SM2.0 kann nichts, was eine CPU auch nicht kann! "Ende aus Nikolaus!"
Achja, Truform in hardware kann nix, was eine CPU auch nicht kann *eg*
nagus
2004-05-05, 08:44:19
Original geschrieben von LovesuckZ
SM2.0 kann nichts, was eine CPU auch nicht kann! "Ende aus Nikolaus!"
Achja, Truform in hardware kann nix, was eine CPU auch nicht kann *eg*
:banghead: :schlag:
[dzp]Viper
2004-05-05, 08:46:00
Original geschrieben von seahawk
Na 3dc ist soch ziemlich limitiert ...
SM3.0 hingegen ist wenigstens ein Standard der später auch mal von allen Anbietern genutzt werden wird.
ja es ist limitiert, aber denoch ist es ein fortschritt oder? Es bringt uns höchstens vorteile - keine nachteile...warum also 3Dc schlecht reden? Ich verstehe hier einfach die Logik mancher Aussagen nicht...
Es gibt schon eine Menge Entwickler die dieses Feature integrieren wollen (gab da so eine Folie von ATI mit den Studios drauf)
Ich finde es gut...
Scheinbar unterstützt Farcry dieses Feature auch schon - sonst könnte ich mir den riesen vorsprung der ATI karten ab 1280x1024 mit AA und AF nicht erlären :ratlos:
Ich hoffe, dass beides eingesetzt wird... Dann sehen wir 3Dc vielleicht auch bald bei NV und PS3.0 kommt mit dem R500 im Frühjahr 2005 auch für ATI.
Jeder soll sich selber entscheiden was für ihn wichtiger ist. Purespeed und dabei der verzicht auf PS3.0 der VIELLEICHT in 4-5 Monaten seine Früchte trägt. Oder eben die Featurereichere Karte die VIELLEICHT zukunftstauglicher ist und ein paar nette Spielerreinen noch nebenbei mitbringt.
Ist das zu viel verlangt? Ich glaube nicht...
Original geschrieben von LovesuckZ
SM2.0 kann nichts, was eine CPU auch nicht kann! "Ende aus Nikolaus!"
Achja, Truform in hardware kann nix, was eine CPU auch nicht kann *eg* Freu dich doch, durch die ach so dolle "Featurelosigkeit" (wieso kann die Karte dann überhaupt irgendwas, wenn sie keine Features hat) wird die Karte ja performancemäßig in 3.0-Spielen zurückfallen, oder auch nicht.:kratz:
BK-Morpheus
2004-05-05, 08:51:53
ich denke mal, das sich erst mit der Zeit zeigen wird, welche Karte besser ist und ob SM 3.0 oder 3Dc der Bringer sind.
Was aus meiner Sicht zumindest stark für ATI spricht sind 2-3 kleinigkeiten (oben schon erwähnt von mir) Stromverbrauch, Kühllösung und auch der günstige Preis der X800Pro.....also Preis/Leistung wohl echt super, so dass viele Leute beim Aufrüsten sicher die X800Pro nehmen werden.
Ich bleibe eh erstmal bei meiner 9500Pro...abwarten und Tee trinken....BTX, DDR2, PCI Express und der A64 für den neuen Sockel sollen erstmal zeigen, was sie bringen und wie die Resonanz so ist....dann werde ich sehen, ob ich auf A64+R420 mit PCI Express aufrüste oder nicht....bisher bin ich eh mit meinem Rechner zufrieden.
seahawk
2004-05-05, 08:57:53
Original geschrieben von [dzp]Viper
ja es ist limitiert, aber denoch ist es ein fortschritt oder? Es bringt uns höchstens vorteile - keine nachteile...warum also 3Dc schlecht reden? Ich verstehe hier einfach die Logik mancher Aussagen nicht...
Es gibt schon eine Menge Entwickler die dieses Feature integrieren wollen (gab da so eine Folie von ATI mit den Studios drauf)
Ich finde es gut...
Ist das zu viel verlangt? Ich glaube nicht...
Ein Feature wie Trueform, das wurde auch von eingen Games unterstüzt und ist dann doch wieder nutzlos geworden.
3dc bedeutet Mehrarbeit für die Entwickler und dürfte daher nur für große Studios machbar sein. Es ist verlustbehaftet, hat Probleme bei bestimmten Formen des Displacement Mappings, kann keine farbigen Texturen bearbeiten und ist kein wirklicher Standard. Und es funktioniert bis jetzt nur mit dem R420.
Die Idee ist klasse, ob es wirklich über die Masse der Spiele gesehen was bringt, muss sich zeigen.
SM3.0 wird auf Dauer was bringen, ob der NV40 davon noch profitieren wird bezweifele ich hingegen.
Für mich ist die ATI die bessere Lösung zur heutigen Zeit. Die Zunkunftsfeatures von beiden Karten halte ich für ziemlich wertlos.
Ich werde mir auf jeden Fall erst im Herbst eine neue Karte kaufen, da wird man schon mehr wissen.
Original geschrieben von sfgdfg
Sm3.0 kann nix was nicht auch PS2.0 kann! Ende aus Nikolaus! Die Specs hast du aber, ja?
Original geschrieben von DrumDub
bans3i
echt nen super zusammenfassung der wichtigsten punkte. :up:
wobei du beim nv40 noch nen paar features vergessen hast (64bit framebuffer, fp16-texturunterstützung und filterung, tone-mapping im ramdac). die werden aber für den gemeinen gamer eh nicht relevant sein. Noch nicht.
Als R300 kam, und FP-Texturen nutzen konnte, war ATI dabei groß zu erzählen was man damit für tolle Sachen machen kann. FP-Filtern direkt in der TMU ist natürlich noch viel besser (spart ggf. Füllrate, entlastet vor allem den Pixelshader ...)
Original geschrieben von hjfhsdfjk
Zeige mir einen Highendgamer der nicht in den maximal verfügbaren Details spielt !*Meld*
Details auf Max frisst mir in der Regel zu viel Leistung, da nehme ich lieber 1 - 2 Stufen weniger.
Original geschrieben von aths
*Meld*
Details auf Max frisst mir in der Regel zu viel Leistung, da nehme ich lieber 1 - 2 Stufen weniger.
Musst du nun ja nicht mehr ;)
Du kennst die neuen Karten ja genau und siehst was möglich ist :)
lalalalala
2004-05-05, 09:48:29
Also ich hab mich jetzt mal ein bißchen hier durch die Diskussion gekämpft! Man Man es gibt ziemlich viele P4 User die sich über den Stromverbrauch des NV40 aufregen, Achtung jetzt kommt der Zusammenhang, hättet euch wenn ihr so ökonomisch und ökologisch denkt doch auch einen Athlon zulegen müssen der verbrät nämlich auch noch ein paar Watts weniger als sein Komparse der P4! Jaja ich hörs schon wieder Fanboy, blabla aber dies sei nur mal ein kleiner Denkanstoss. Genrell finde ich haben beide Firmen einen fantastischen Job gemacht, ATI sehr konservativ und Nvidia eher futuristisch, aber dazu nochmal kurz irgendwer muss ja mit Neuerungen kommen. Stellt euch nur mal vor ATI hätte nicht die PS 2.0 als erster in seine Karten implementiert dann gäbe es heute vielleicht kein PS 2.0. Und so verhält es sich mit der Einführung der PS 3.0 ohne die es vielleicht keinen PS 4.0 und so weiter und so weiter... Ich hoffe das es durch naja fast Gleichheit der Karten einen schönen Preiskampf gibt, wo wir als Endkunden profitieren und uns ein paar Euros sparen.
OT: Welch ein lustiger Thread ;)
Hab mich schlappgelacht beim Lesen.... das totale Chaos. So schlimm war es selten :D
BTT: Und wiedermal ist es reine Geschmackssache welche Karte man sich kauft, man wird mit beiden sehr gut leben können.
3Dc, SM3.0, FPF usw. sind erstmal irrelevant für den Kunden, denn diese bringen in erster Linie eh nur Geschwindigkeit (oder auch nicht) und da müsste man mal bei einem Nachtest mit Finaltreiber+DX9.0c+entsprechender Apps nochmal Vergleiche machen.
Ich bitte aber folgendes zu bedenken:
- Sowohl ATI als auch NV hat nur beta Treiber zur Verfügung bei den Reviews. Inakzeptabel.
- Die Taktraten der X800 Modelle unterscheiden sich von Test zu Test; hier ist ATI irgendwie keine einheitliche Linie gefahren. Das mag ein Versehen sein, aber es ist inakzeptabel bei Reviews.
- Die Ergebnisse variieren derart stark, dass man sich als Normalleser kaum noch ein Bild davon machen kann wie die Leistungsfähigkeit jetzt wirklich ist. Extrembeispiel hier: COD. Bei dem einen ist ATI 40% langsamer, bei anderen 20% schneller... was soll man davon halten??
- DX9.0c ist noch nicht erschienen <- nicht akzeptabel von M$ :asshole:
Beider Hersteller verfolgen unterschiedliche Strategien und ich wundere mich immer wieder wie sich hier einige Leute nach ihrer Lieblingsfirma nach dem Wind drehen. Es gab eine Zeit, da war es nicht schlimm, dass man keine neuen Features unterstützt bei NV und nun ist es ein Verbrechen ;) Für ATI gilt das gleiche.
NV richtet sich eher an Profis und ATI nur an Konsumenten. Da aber beide Karten ihre vor und Nachteile haben, ist es eh reine Geschmackssache für welche man sich entscheidet und es gibt keine Killergründe für diese oder jene. Kauft euch die die ihr möchtet und schlagt euch nicht gegenseitig die Birne ein deswegen, ich finde das einfach hohl
(Na ja gut wenn man Streit unbedingt braucht, kann man ja weitermachen, gell LS? :D).
Meiner persönlichen Einschätzung nach werde ich wohl weder die eine noch die andere favourisieren und erstmal abwarten, wie sich die Dinge entwickeln. Es sind einfach zuwenig Informationen über die tatsächliche Leistungsfähigkeit beider Produkte vorhanden, als dass ich eine endgültige Entscheidung treffen könnte. Dank des miesen AFs, der unsicheren Taktungen und der Unsicherheit, was NV in zukünftigen Treibern so anstellt wird, bleibt wohl erstmal nur abwarten und vielleicht die Hoffnung dass es noch weitere Player auf dem Markt geben wird mit konkurrenzfähigen Produkten (Auf PowerVR und S3g schiel).
LovesuckZ
2004-05-05, 10:16:23
Original geschrieben von HOT
NV richtet sich eher an Profis und ATI nur an Konsumenten.
Welche "Konsumenten" meinst du? Die, die Farcry mit SM2.0 spielen?
Was meinst du, was wohl passiert waere, wenn ATi mit dem r300 kein SM2.0 faehige Hardware 2002 vorgestellt haette? Wir haetten heute kein Farcry und damit keine so gute Grafik.
Denkst du nicht, dass der Konsument durch diese "Experimentierfreude" von ATi belohnt wurde?
Ich kann die Sichtweise nicht verstehen, dass jemand meint, dass man keine Features benoetige, da sowieso alles reiche.
Dank ATi würden wir die Unterstuetzung des SM3.0 erst in frühsten 12 Monate sehen. Soll man darüber lachen oder weinen?
BK-Morpheus
2004-05-05, 10:24:24
Original geschrieben von LovesuckZ
Welche "Konsumenten" meinst du? Die, die Farcry mit SM2.0 spielen?
Was meinst du, was wohl passiert waere, wenn ATi mit dem r300 kein SM2.0 faehige Hardware 2002 vorgestellt haette? Wir haetten heute kein Farcry und damit keine so gute Grafik.
Denkst du nicht, dass der Konsument durch diese "Experimentierfreude" von ATi belohnt wurde?
Ich kann die Sichtweise nicht verstehen, dass jemand meint, dass man keine Features benoetige, da sowieso alles reiche.
Dank ATi würden wir die Unterstuetzung des SM3.0 erst in frühsten 12 Monate sehen. Soll man darüber lachen oder weinen?
Ist echt lustig, dass manche Fanboys einfach schon viel mehr über die Entwicklung der SPiele und dem SM3.0 wissen, als alle anderen.
In wie weit sich SM 3.0 dann in der Praxis zukünftig entwickelt wird sich erst noch zeigen.
Radeonator
2004-05-05, 10:25:32
Liebe Fanboys, die sich als Gäste "getarnt" gerade lächerlich machen, ihr müsst nicht weinen! Man stirbt wirklich nicht wenn ein totes Stück Hardware geringfügig langsamer und mit weniger Features läuft! Ehrlich nicht! ;D
Leo hat (wie immer) ein Klasse review gemacht, aus dem nV als klarer Sieger hervor geht, so what?????
Kaufen soll sich jeder was ihm gefällt und Punkt,non?
(PS3.0 bringt vorerst Speed)
LovesuckZ
2004-05-05, 10:29:03
Original geschrieben von BK-Morpheus
Ist echt lustig, dass manche Fanboys einfach schon viel mehr über die Entwicklung der SPiele und dem SM3.0 wissen, als alle anderen.
Es ist einfach logisches Denken. Ohne r300 -> kein farcry, HL2 und andere first SM2.0 Spiele im jahre 2003/4.
Ohne NV40 würden wir frühsten in 12 Monate die Unterstuetzung sehen, da ich nicht annehme, dass der r500 dieses Jahr noch komme. Da bedeutet gleichzeitig, dass viele optionale Feature des SM2.0 nie verwendet werden, da nicht jede SM2.0 faehige Hardware diese unterstuetze.
[B]
Leo hat (wie immer) ein Klasse review gemacht, aus dem nV als klarer Sieger hervor geht, so what?????
Kaufen soll sich jeder was ihm gefällt und Punkt,non?
Lesen kannst du nicht? Das Fazit sieht für mich anders aus. Zudem dort nur die PRO Version der ATI getestet wurde. Nicht die XT.
Aber einige können es scheinbar nicht lassen.....
BK-Morpheus
2004-05-05, 10:33:11
Original geschrieben von Radeonator
Leo hat (wie immer) ein Klasse review gemacht, aus dem nV als klarer Sieger hervor geht, so what?????
Kaufen soll sich jeder was ihm gefällt und Punkt,non?
Aha...dann lese ich es wohl noch n paar mal....es ist ja schonmal nicht die X800XT sondern "nur" die günstigere X800Pro und zudem kommt noch, dass ich malwieder der Meinung bin:
Lieber etwas weniger Performance dafür die netten positiven Sachen wie Stromverbrauch, Kühlergröße und relativ günstigen Preis.
Im ganzen betrachtet, wenn man auch viele andere Reviews gelesen hat, denke ich schon, dass gerade die X800Pro eine sehr begehrte Karte wird und die 6800Ultra ist so im durschnitt der vielen Reviews nicht eklatant schneller als die X800Pro (zudem muss man echt mal den Preis im Auge behalten).
Könnte nur sein, dass SM 3.0 so der Hammer wird, dass NVIDIA dadurch gut Punkten kann....aber das wird sich ja erst noch zeigen...vielleicht ist es ja auch andersrum und SM 3.0 wird nicht DAS Feature schlechthin und dafür wird 3Dc ein netter Standard.....mal abwarten
Lustiger Troll
2004-05-05, 10:33:17
Original geschrieben von Fadl
Lesen kannst du nicht? Das Fazit sieht für mich anders aus. Zudem dort nur die PRO Version der ATI getestet wurde. Nicht die XT.
Aber einige können es scheinbar nicht lassen.....
Es wurde ja auch nur die 6800 Ultra getestet und nicht die 6800 Ultra Extreme *eg*.
BK-Morpheus
2004-05-05, 10:36:36
Original geschrieben von LovesuckZ
Es ist einfach logisches Denken. Ohne r300 -> kein farcry, HL2 und andere first SM2.0 Spiele im jahre 2003/4.
Ohne NV40 würden wir frühsten in 12 Monate die Unterstuetzung sehen, da ich nicht annehme, dass der r500 dieses Jahr noch komme. Da bedeutet gleichzeitig, dass viele optionale Feature des SM2.0 nie verwendet werden, da nicht jede SM2.0 faehige Hardware diese unterstuetze.
ja und das die Geschichte mit dem SM 3.0 jetzt auch so löuft (und zwar noch bevor der R500 da ist) weisst du auch oder wie?
Vielleicht sollte man nicht zu viele Prognosen machen sondern lieber schaun, was nun wirklich passieren wird.
LovesuckZ
2004-05-05, 10:42:24
Original geschrieben von BK-Morpheus
ja und das die Geschichte mit dem SM 3.0 jetzt auch so löuft (und zwar noch bevor der R500 da ist) weisst du auch oder wie?
Je eher SM3.0 unterstuetzende Spiele kommen, umso stärker ist das dem Einsatz von nvidia zu verdanken. Und wie ich sagte: Ohne NV40, keine Spieleunterstuetzung innerhalb des naechsten Jahres. Und wenn ich mir anhoere, was ATi sagt, dass man SM3.0 nicht benutzen solle bis man die naechste generation praesentiere, dann ist es wohl anzunehmen, dass die Arbeit an Nvidia haengen bleibt. Das schlimmste ist, dass viele das gut finden...
Vielleicht sollte man nicht zu viele Prognosen machen sondern lieber schaun, was nun wirklich passieren wird.
Die Vergangenheit hat es wohl deutlich gezeigt, dass es ohne Hardware keine Unterstuetzung gaebe. Da brauch man nicht warten.
Ich meine, Logik ist nicht meine Staerke, aber es sollte wohl jeder einsehen, dass wir Nvidia eine schnelle Unterstuetzung des SM3.0 zu verdanken haetten.
Radeonator
2004-05-05, 10:50:21
Original geschrieben von Fadl
Lesen kannst du nicht? Das Fazit sieht für mich anders aus. Zudem dort nur die PRO Version der ATI getestet wurde. Nicht die XT.
Aber einige können es scheinbar nicht lassen.....
Och menno, ich hab doch extra geschrieben, nicht gleich weinen... und nun tuns die Fanboys doch...
BK-Morpheus
2004-05-05, 10:50:31
Original geschrieben von LovesuckZ
...aber es sollte wohl jeder einsehen, dass wir Nvidia eine schnelle Unterstuetzung des SM3.0 zu verdanken haetten.
da hast du ganz klar recht nur es klingt so, als wäre SM 3.0 der burner und das kann man halt noch nicht so genau sagen....vielleicht wird SM 3.0 ja so genial wie Trueform ;D ....ok etwas übertrieben...aber vielleicht wird er ja wirklich nicht so super.
Denke aber auch, das SM 3.0 Potential hat nur in welchem Zeitraum er das Potential auch ausnutzt und in welchem Ausmaß ist die Frage...
roman
2004-05-05, 10:50:55
Original geschrieben von Radeonator
Liebe Fanboys, die sich als Gäste "getarnt" gerade lächerlich machen, ihr müsst nicht weinen! Man stirbt wirklich nicht wenn ein totes Stück Hardware geringfügig langsamer und mit weniger Features läuft! Ehrlich nicht! ;D
Leo hat (wie immer) ein Klasse review gemacht, aus dem nV als klarer Sieger hervor geht, so what?????
Kaufen soll sich jeder was ihm gefällt und Punkt,non?
Ja, Trolle füttern, das kannst du. Deine ständigen provokanten Kommentare tragen auch nichts zu einem angenehmen Gesprächsklima bei. Aber in einem Punkt hast du recht: Grakas sind tatsächlich ein totes Stück Materie, obwohl manche hier die Dinger anscheinend mit ins Bettchen nehmen.
Eins noch: wo genau liest du im 3DC-Review einen klaren Sieger heraus?
[WEISSBIER]Moff
2004-05-05, 10:51:54
Ich bin der Meinung, daß derzeit noch keine genaue Aussage zu den Performance Verhältnissen möglich ist. Die Tests unterscheiden sich in ihren Benches extrem und vermutlich ist 3DCenter die einzige Seite, die bei ATI die Stage-Optimierung deaktiviert hat. Da sie aber keine XT und nur durch Glück ne Pro bekommen haben (tolle Leistung von ATI), bleibt der endgültige Showdown vorläufig aus.
Beide Treiber sind ausserdem noch beta und keiner kann sagen wieviel aus den neuen Architekturen noch ohne "Cheats" rausgeholt werden kann. Das alles wird sich wohl frühestens klären lassen, wenn die ersten Boards im Regal stehen und die ersten Final-Treiber bzw. DX9.0c raus sind.
Es kann (nach meiner Meeinung als Laie) gut sein, daß die Benches mit den größten Differenzen (Far Cry) sich dann weiter angleichen und am Ende ein Patt mit Vorteil für ATI bei DX (HL2 und co.) und Nvidia bei OpenGL (DOOM3 und alles was auf der Engine basieren wird) rauskommt.
Dann muss jeder selbst entscheiden, was er will und das rumgeflame hört hoffentlich auf.
Gästle
2004-05-05, 10:52:22
wann kommen denn die ganzen PS3.0 Spiele? Wieviele PS2.0 Spiele gibt es schon? Interessiert jemanden im Jahr 2006 noch der Vergleich X800 vs. GF6800, wenn die Performanceunterschiede bei 1% liegen? Ja, man sieht dann bei der GF6800 nen netten Effekt mehr und das ist auch die Stärke der GF6800. Aber interessiert derzeit eigentlich nur, was in 2 Jahren möglich sein wird? Man hat zwei Möglichkeiten: Jetzt voller Speed und die bessere BQ bei höherer Performance, niedrigerem Stromverbrauch, geringerer Bauform und weniger Geräuschentwicklung. Oder man "investiert in die Zukunft", hat die technologisch interessantere Karte und freut sich über PS3.0 Demos und Spiele... Der nächste 3D Murks wird kommen, da wird dann nVidia den Takt angeben und die Fanatiker werden wieder rumschrein, dass PS3.0 sinnlos sei und 3D Murks überhaupt nen sch***s sei. Und die nVidioten werden dann rumschrein, dass man PS3.0 unterstützen soll und dass das DAS Killerfeature sei. Und am Ende ist man genauso weit wie vorher: Viel Lärm um nix, weil im Endeffekt interssiert es keinen Menschen, ob sich hier die Fanboys an die Gurgel gehen. LOL
BK-Morpheus
2004-05-05, 10:53:35
Original geschrieben von Radeonator
Och menno, ich hab doch extra geschrieben, nicht gleich weinen... und nun tuns die Fanboys doch...
ich bin ganz ehrlich kein Fanboy (außer von stromsparenden Karten mit gutem P/L Verhältniss *g*), aber das hört sich an, als ob DU ein großer Fanboy bis und anderen den Vorwurf machst sie würden ein Fanboy sein. :lolaway:
Crushinator
2004-05-05, 10:56:26
Original geschrieben von LovesuckZ
(...) Ich meine, Logik ist nicht meine Staerke, aber es sollte wohl jeder einsehen, dass wir Nvidia eine schnelle Unterstuetzung des SM3.0 zu verdanken haetten. Gaynau, das Zauberwort heißt Konjunktiv, und da Logik wiederum angeblich meine Stärke sein soll, würde ich den praktischen Einsatz von SM3 in Spielen gerne abwarten, um mich ggf. dann erst bei nVIDIA für diese Wohltat zu bedanken. :)
[dzp]Viper
2004-05-05, 10:57:53
Lovesuck - wann kam die 9700pro raus? Ah richtig.... vor fast 2 jahren... nagut es sind jetzt 1 1/2 jahre...
Und Jetzt kommen gerade mal die ersten DX9 spiele raus...
Wenn NV nun vorprescht und PS3.0 anbietet - ok gut so... damit geht das alles etwas schneller...
NV bietet PS3.0 an - das finde ich gut
ATI bietet es nicht an - finde ich zwar nicht so gut, aber ich kann damit leben weil die performance unter PS2.0 ausgezeichnet ist.
Früher war NV die Technologiebremse.... jetzt ist es mal ATI für ein paar monate... (Obwohl 3Dc eine nette sache ist - wenn es nicht so limitiert wäre...)
Ich weiss auch garnicht, warum man sich darüber so aufregt... ändern kannst du eh nichts dran.
Wenn dir PS3.0 so wichtig ist, dann kauf dir eine NV40 - wir werden dich deswegen nicht steinigen oder so... jedem das seine
Aber wie DU über den r420 redest ist einfach ätzend... es nervt absolut... du kommst immer und immer wieder mit den selben aussagen und kommst so als ziemliches gegenstück zu nagus raus (auch wenn du das vielleicht nicht bist)
Eigentlich kann man mit dir LS ganz gut diskutieren... aber momentan ist es wirklich nervig ;(
[dzp]Viper
2004-05-05, 11:02:15
Original geschrieben von Radeonator
Och menno, ich hab doch extra geschrieben, nicht gleich weinen... und nun tuns die Fanboys doch...
mit solchen kommetaren erreichst du garnichts...
die X800 Pro soll gegen die 6800 GT antreten und nicht gegen die 6800ultra - das hat Leo auch eindeutig im review geschrieben...
für dich nochmal:
X800 pro - 6800 GT
X800 XT - 6800 Ultra
Und nur weil dich jemand auf DEINEN fehler hinweist, ist das noch lange kein Fanboy oder Fanatiker....
Lustiger Troll
2004-05-05, 11:05:07
Ihr vergesst wohl immer wieder das es wenige Wochen/Tage geht um die PS2.0 auf PS3.0 aufzubohren, NV hat zudem noch sehr viele Spieleentwickler in seiner Hand, es würde mich auch gar nicht verwundern wenn NV sogar "die" Technologiebremse bei den PS2.0 war, deshalb haben wir erstt jetzt solche Spiele, nur jetzt sieht es anders aus, sie werden extremen Druck auf die Devs machen damit PS3.0 so schnell wie möglich benutzt wird.
LovesuckZ
2004-05-05, 11:07:09
Original geschrieben von [dzp]Viper
Lovesuck - wann kam die 9700pro raus? Ah richtig.... vor fast 2 jahren... nagut es sind jetzt 1 1/2 jahre...
Und Jetzt kommen gerade mal die ersten DX9 spiele raus...
Danke, dass du mich bestaetigst :)
ATI bietet es nicht an - finde ich zwar nicht so gut, aber ich kann damit leben weil die performance unter PS2.0 ausgezeichnet ist.
Das bietet auch Nvidia und gleichzeitig SM3.0.
Früher war NV die Technologiebremse.... jetzt ist es mal ATI für ein paar monate... (Obwohl 3Dc eine nette sache ist - wenn es nicht so limitiert wäre...)
Nvidia war technologisch noch nie so weit hinter ATi. Wir reden hier von zwei unterschiedlichen Shadermodelln. Dazu kommt noch, das ATi kaum oder sogar garnichts wegem dem SM geaendert hat. Das finde einige klasse. Nunja, wahrscheinlich liegt es daran, dass es eigentlich ein r300 Core ist und viele ihre r3xx Karte lieben *eg*
Eigentlich kann man mit dir LS ganz gut diskutieren... aber momentan ist es wirklich nervig ;(
Immerhin beleidige ich noch nicht :D
Gästle
2004-05-05, 11:08:10
Original geschrieben von crushinator
Gaynau, das Zauberwort heißt Konjunktiv, und da Logik wiederum angeblich meine Stärke sein soll, würde ich den praktischen Einsatz von SM3 in Spielen gerne abwarten, um mich ggf. dann erst bei nVIDIA für diese Wohltat zu bedanken. :)
:up: genau so sehe ich das auch...
@ Lustiger Troll: wenn dadurch ein optischer Mehrwert ermöglicht wird, warum nicht. Aber diesen Beweis ist uns nVidia noch schuldig... Zudem ist nicht genau ersichtlich, wie sehr die Performance dabei in Mitleidenschaft gezogen wird in Bezug auf die tatsächlich sichtbare Verbesserung. Dann können wir immer noch nvidia anbeten. *g*
DrumDub
2004-05-05, 11:08:21
Original geschrieben von aths
Noch nicht.
Als R300 kam, und FP-Texturen nutzen konnte, war ATI dabei groß zu erzählen was man damit für tolle Sachen machen kann. FP-Filtern direkt in der TMU ist natürlich noch viel besser (spart ggf. Füllrate, entlastet vor allem den Pixelshader ...)
ja. ein noch hätte ich dazu schreiben können. eigentlich wollte ich damit nur ausdrücken, dass während der lebensdauer des nv40 gamer von diesen features nicht profitieren werden.
fp-textur-formate sind einfach noch zu speicheraufwändig, um in spielen eigesetzt zu werden, wenn gerade mal 128mb-karte standard werden. oder irre ich mich da? insofern hatte ati da einen technolgischen vorteil mit dem r3x0, der aber in der praxis nicht nutzbar ist. nv hat da mit dem nv40 gleichgezogen, bietet aber zusätzlich die richtige ansiotrope filterung dieser texturformate an.
momentan ist mir nur diese demo bekannt welches fp-texturen nutzt:
Additionary, D3DFMT_A16B16G16R16F and D3DFMT_A16B16G16R16 texture formats that can be rendered are highly recommended.
http://www.daionet.gr.jp/~masa/rthdribl/
Mcdave
2004-05-05, 11:13:25
Hier auch noch ein Review (sry, falls das schon gepostet wurde): http://www.zdnet.de/enterprise/client/0,39023248,39122010,00.htm
Lustiger Troll
2004-05-05, 11:13:48
Original geschrieben von Gästle
:up: genau so sehe ich das auch...
@ Lustiger Troll: wenn dadurch ein optischer Mehrwert ermöglicht wird, warum nicht. Aber diesen Beweis ist uns nVidia noch schuldig... Zudem ist nicht genau ersichtlich, wie sehr die Performance dabei in Mitleidenschaft gezogen wird in Bezug auf die tatsächlich sichtbare Verbesserung. Dann können wir immer noch nvidia anbeten. *g*
SM3.0 sieht nicht schöner aus, es ist ein Speedupdate, es werden längere Shader möglich, Branching, Looping und der ganze technische Kram... versteht das doch mal endlich, es ist nicht so wie von PS1.1-->PS2.0 wo es schöner aussieht.
[dzp]Viper
2004-05-05, 11:14:40
Original geschrieben von LovesuckZ
Nvidia war technologisch noch nie so weit hinter ATi. Wir reden hier von zwei unterschiedlichen Shadermodelln. Dazu kommt noch, das ATi kaum oder sogar garnichts wegem dem SM geaendert hat. Das finde einige klasse. Nunja, wahrscheinlich liegt es daran, dass es eigentlich ein r300 Core ist und viele ihre r3xx Karte lieben *eg*
naja - zu 9700pro anfangszeiten schon :naughty: ;)
Es findet NIEMAND hier klasse, dass ATI nur SM2.0 - aber sie können damit leben! Du interpretierst Sachen rein, die garnicht wahr sind :down:
Eher ist die reaktion so: (kommt zumindestens in deinen Postings so rüber)
"Das ATI kein PS3.0 anbietet ist nicht schön, aber wir können damit leben"
bei dir siehts so aus
"Das ATI kein PS3.0 anbietet ist nicht schön und ich kann auch nicht damit leben"
Na bemerkst du den unterschied? ;)
[dzp]Viper
2004-05-05, 11:16:18
Original geschrieben von Lustiger Troll
SM3.0 sieht nicht schöner aus, es ist ein Speedupdate, es werden längere Shader möglich, Branching, Looping und der ganze technische Kram... versteht das doch mal endlich, es ist nicht so wie von PS1.1-->PS2.0 wo es schöner aussieht.
jaein
es sind keine richtig NEUEN effekte möglich -aber wesentlich mehr "alte" - damit könnte es dann auch wieder besser aussehen...
Lustiger Troll
2004-05-05, 11:19:16
Original geschrieben von [dzp]Viper
jaein
es sind keine richtig NEUEN effekte möglich -aber wesentlich mehr "alte" - damit könnte es dann auch wieder besser aussehen...
Das habe ich an anderer stelle auch schon geschrieben, aber eben in erster Linie sind die vorhandenen Effekte schneller (sollte jedenfalls so sein), danach kann sicher noch das eine oder andere Eye-Candy einbauen wenn die Performance es zulässt.
LovesuckZ
2004-05-05, 11:24:05
Original geschrieben von [dzp]Viper
Es findet NIEMAND hier klasse, dass ATI nur SM2.0 - aber sie können damit leben! Du interpretierst Sachen rein, die garnicht wahr sind :down:
Liest du dir die Postings auch durch oder stellst du mir gerade deine eigene meinung dar? Der groeßteil hier findet den r420 super, da er schneller ist und weniger Strom benötigt. Das dies nur dadurch geht, dass er eine fette r300 karte ist, die bis auf eine halbherzige 3dc Implantierung nichts neues bietet, interessiert niemanden.
Man schaut auf die Balken, denkt toll und schon ist man zu frieden.
DrumDub
2004-05-05, 11:25:14
Original geschrieben von ow
Da irrst du. SM3.0 kann sehr viel besser aussehen als 2.0. (das gilt uebrigens ebenso fuer PS2.0 im Vergleich zu 1.x, automatisch sieht da nichts besser aus).
Ausserdem ermoeglicht Sm3.0 es Dinge, die mit 2.0 gar nicht machbar sind.
ja, nur zu welchem preis. die frage ist odch, ob branching ein praxisnutzen hat oder nicht, womit ich meine, ob solche shader in speilen überhaupt eingesetzt werden können. wenn man sich far cry ansieht, so werden sort in erster linie ps 1.1 eingesetzt und ein paar ps 2.0 bzw. ps 2.x. soweit ich weiß lautet ja die devise bei der shadererstellung bis ps 2.x, man soll immer die möglichst niedrigste ps-version nehmen, mit der der effekt darstellbar ist. das könnte natürlich beim sm 3.0 ändern, die frage ist nur, ob dies in der praxis so umgesetzt wird bzw. was der hlsl-compiler ausspuckt, sobald das dx9c sdk eingesetzt wird. insofern ist die diskussion momentan etwas theoretisch. sichtbare vorteile (nicht perfomance) für sm 3.0 in spielen werden wir imho erst 2005 sehen.
Lustiger Troll
2004-05-05, 11:26:07
Original geschrieben von ow
Das stimmt so auch nicht.
Wie sicher einleuchten wird kann man mit ~32000 Instruktionen etwas mehr berechnen als wenn man auf 512 limitiert ist.
Ja das stimmt wohl, aber ob die Effekte am ende auch besser aussehen oder nur schneller berechnet werden, können im moment nur sehr wenige sagen, die die es sagen können dürfen nichts sagen... DX9.0C sollte erstmal releast werden dann sehen wir ja was es (optisch) bringt.
Original geschrieben von Lustiger Troll
SM3.0 sieht nicht schöner aus, es ist ein Speedupdate, es werden längere Shader möglich, Branching, Looping und der ganze technische Kram... versteht das doch mal endlich, es ist nicht so wie von PS1.1-->PS2.0 wo es schöner aussieht. FP32 vs. FP24?
Der Sprung von 1.x auf 2.x brachte das FP-Format. Damit sehen die meisten Effekte automatisch besser aus. Der Sprung auf FP32 kann für weitere (wenn auch kleinere) Verbesserungen sorgen.
So wie SM 3.0 im NV40 umgesetzt wird, sind die meisten der neuen Features recht "teuer" (kosten viele Takte.) Die 3.0-Features sind aber in SM 4.0 vollständig enthalten. So oder so werden wir in der Zukunft von der Entwicklung von 3.0 profitieren.
Demirug
2004-05-05, 11:26:52
Original geschrieben von ow
Das stimmt so auch nicht.
Wie sicher einleuchten wird kann man mit ~32000 Instruktionen etwas mehr berechnen als wenn man auf 512 limitiert ist.
Dann muss man den Shader mit den 32000 Anweisungen eben zerlegen. Funktioniert schon.
Was mich wundert ist das hier noch keiner mit der "Instancing API" bzw "Vertex Stream Frequency" (DX Bezeichung) gekommen ist.
Original geschrieben von ow
Das stimmt so auch nicht.
Wie sicher einleuchten wird kann man mit ~32000 Instruktionen etwas mehr berechnen als wenn man auf 512 limitiert ist. Wobei beide Limits imo irrelevant sind, wenn es um Echtzeit-Rendering im Jahre 2004 (und 2005) geht.
DrumDub
2004-05-05, 11:27:52
Original geschrieben von ow
Das stimmt so auch nicht.
Wie sicher einleuchten wird kann man mit ~32000 Instruktionen etwas mehr berechnen als wenn man auf 512 limitiert ist.
ein shader mit 32000 instruktionen läuft auch sicher mit 60fps auf dem nv40. :eyes:
das argument zieht für spiele nun absolut garnicht.
Lustiger Troll
2004-05-05, 11:29:28
Original geschrieben von aths
FP32 vs. FP24?
hat sich erledigt....
Original geschrieben von Demirug
Was mich wundert ist das hier noch keiner mit der "Instancing API" bzw "Vertex Stream Frequency" (DX Bezeichung) gekommen ist. Das wurde mir von NV zwar erklärt, aber ich hatte nicht den Eindruck, das wirklich verstanden zu haben. Um nicht (womöglich auch noch falsch) nachzukauen, was mir die PR-Abteilung erzählt, ließ ich das dann ganz weg.
Original geschrieben von Lustiger Troll
Was meinst du mit dem, sorry aber ich kann dir nicht folgen. FP32 hat effektiv 24 Bit Auflösung, FP24 bietet nur 17 Bit. Damit hat man mit FP32 (im gleichen "stop", also "Bereich") 128x feinere Stufen. Das kommt einigen Effekten zugute.
AYAlf
2004-05-05, 11:32:55
was ich nicht kapieren kann .... !?
klaert mich mal auf!
1. nvidia kommt doch schon mit dem sm2 standart nicht klar. siehe fc. dort werden ueber 50% der sm2 shader nicht genutzt, damit man eine bessere performanz hat. und sich wenigstens ein bischen gegenueber ati behaupten kann!?
2. wieso bringt nvidia sm3 raus wenn sie mit dem vorgaenger nicht klar kommen? und die meisten shader in 1.x berechnen?
3. nvidia 6800 ist ein klarer technologierueckschritt was die abwaerme (megaluefter = sehr anfaellig wie man beim vorgaenger gesehen hat), stromverbruach, paltzverbruach betrifft.
4. die qualitaet der einzelnen features wird bei nvidia immer schlechter seid dem geforce3 chip. (af, aa usw.) nvidia erkauft sich seine geschwinidigkeit mit feature einbussen. ist das so richtig?
das ist kein fanboygeflame .. das sind einfach nur ein paar fragen, die ich bezueglich nvidia habe. und ich haette sie gerne von dem fachwissenden publikum beantwortet. meine weinigkeit, als "normal user" sieht die entwicklung so!
!!!ich besitze nvidia und ati karten!!!
forensoft sucks
2004-05-05, 11:34:10
Original geschrieben von LovesuckZ
Liest du dir die Postings auch durch oder stellst du mir gerade deine eigene meinung dar? Der groeßteil hier findet den r420 super, da er schneller ist und weniger Strom benötigt. Das dies nur dadurch geht, dass er eine fette r300 karte ist, die bis auf eine halbherzige 3dc Implantierung nichts neues bietet, interessiert niemanden.
Man schaut auf die Balken, denkt toll und schon ist man zu frieden.
Wegen den Balken wurde GF2, 3 und 4 gekauft - da ist sogar aths in seinem Artikel drauf eingegangen. das die 8500 ps 1.4 bot, interessierte vielleicht 1 Promille der Nutzer, das gleiche gilt für 6800.
Auch wenn aller Berichte von: ps 3.0 Suppurt, der z.Z noch nicht relevt erscheint.... schon springen die Leser zu - wo sind die Balken!!!!!1111 *sabber*
So ist nun mal die (pcdau) Welt.
AYAlf
2004-05-05, 11:35:37
Original geschrieben von aths
FP32 hat effektiv 24 Bit Auflösung, FP24 bietet nur 17 Bit. Damit hat man mit FP32 (im gleichen "stop", also "Bereich") 128x feinere Stufen. Das kommt einigen Effekten zugute.
kann man das wirklich in bewegten bildern unterscheiden?
DrumDub
2004-05-05, 11:35:39
Original geschrieben von aths
FP32 vs. FP24?
den unterschied sieht man sogar schon. zumindest in einem demo, wenn ich mit der vemutung richtig liege, das der nv40 hier reines fp32 einsetzt. kann natürlich auch am fp-frambuffer des nv40 liegen.
wenn ich die screenshots auf dieser seite (http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=27) von diesem demo sehe, so sehe ich dort auch bezüglich des r3x0, die gleichen minimalen artefakte um die mittlere kugel, die ich bei mir in realtime mit dem demo auch sehe. diese artefakte kann ich auf dem screenshot vom nv40 nicht sehen.
seahawk
2004-05-05, 11:37:47
[SIZE=1]Original geschrieben von DrumDub
soweit ich weiß lautet ja die devise bei der shadererstellung bis ps 2.x, man soll immer die möglichst niedrigste ps-version nehmen, mit der der effekt darstellbar ist. das könnte natürlich beim sm 3.0 ändern, [SIZE]
Das war nur die Guideline von NV für den NV3X, da dieser eine erhebliche Schwäche im PS 2.0 hatte.
Für die NV4X empfiehlt NV eine möglichst hohe Shaderversion zu nehmen.
ATI rät zur Zeit dringend von der Nutzung von SM3.0 ab. - Welcher Überraschung. :D
Wären die X800XT und die 6800Ultra gleich schnell, dann wäre SM3.0 sicherlich ein Argument für NV.
Lustiger Troll
2004-05-05, 11:38:57
Original geschrieben von AYAlf
was ich nicht kapieren kann .... !?
klaert mich mal auf!
1. nvidia kommt doch schon mit dem sm2 standart nicht klar. siehe fc. dort werden ueber 50% der sm2 shader nicht genutzt, damit man eine bessere performanz hat. und sich wenigstens ein bischen gegenueber ati behaupten kann!?
2. wieso bringt nvidia sm3 raus wenn sie mit dem vorgaenger nicht klar kommen? und die meisten shader in 1.x berechnen?
3. nvidia 6800 ist ein klarer technologierueckschritt was die abwaerme (megaluefter = sehr anfaellig wie man beim vorgaenger gesehen hat), stromverbruach, paltzverbruach betrifft.
4. die qualitaet der einzelnen features wird bei nvidia immer schlechter seid dem geforce3 chip. (af, aa usw.) nvidia erkauft sich seine geschwinidigkeit mit feature einbussen. ist das so richtig?
das ist kein fanboygeflame .. das sind einfach nur ein paar fragen, die ich bezueglich nvidia habe. und ich haette sie gerne von dem fachwissenden publikum beantwortet. meine weinigkeit, als "normal user" sieht die entwicklung so!
!!!ich besitze nvidia und ati karten!!!
1. Weil es im Spiel keinen Pfad für die NV40 gibt, die NV40 hat absolut kein Problem mit dem SM2.0 es ist sogar teilweisse schneller als SM1.1.
2. siehe 1.
3. mag die grösse des Boards schon stimmen, aber da ist auch ein wenig mehr Technology drinn als bei ATI.
4. nur das AF wurde schlechter (gleichschlecht wie ATIs), das AA wurde sogar besser mit dem 4x. Auch ATI kauft sich Performance auf kosten der BQ, könnte ja nochmel die Texturstages erwähnen aber das sollte bekannt sein...
AYAlf
2004-05-05, 11:39:30
Original geschrieben von forensoft sucks
Wegen den Balken wurde GF2, 3 und 4 gekauft - da ist sogar aths in seinem Artikel drauf eingegangen. das die 8500 ps 1.4 bot, interessierte vielleicht 1 Promille der Nutzer, das gleiche gilt für 6800.
Auch wenn aller Berichte von: ps 3.0 Suppurt, der z.Z noch nicht relevt erscheint.... schon springen die Leser zu - wo sind die Balken!!!!!1111 *sabber*
So ist nun mal die (pcdau) Welt.
recht hast du!!!
es interessiert bei ut2k4 keine sau wie geil die grafik ist... wenn man erst mal im mp spielt. dann schaltet man ehh aelle features ab. damit die performanz stimmt. und ich glaube auch nicht das irgendjemand den unterschied zwischen 24fp und 32fp erkennt.
wohingegen runde formen und keine eckigen linien den spielern wichtig zu sein scheint.
Demirug
2004-05-05, 11:40:23
Original geschrieben von ow
Also zurueck zu Multipass-Rendering?
Duerfte der BQ nicht gerade zugute kommen.
Aber funktionieren wuerde es schon, da hast du recht.
FP32 Texturen als Zwischenspeicher und die BQ ist OK.
LovesuckZ
2004-05-05, 11:40:38
Original geschrieben von AYAlf
1. nvidia kommt doch schon mit dem sm2 standart nicht klar. siehe fc. dort werden ueber 50% der sm2 shader nicht genutzt, damit man eine bessere performanz hat. und sich wenigstens ein bischen gegenueber ati behaupten kann!?
Nvidia ist unter SM2.0 mit FP32 sehr schnell. Das Problem mit farcry ist a) ein eingebautes durch Crytek und b) ein Treiberproblem und hat nichts mit der Hardware zu tun.
3. nvidia 6800 ist ein klarer technologierueckschritt was die abwaerme (megaluefter = sehr anfaellig wie man beim vorgaenger gesehen hat), stromverbruach, paltzverbruach betrifft.
60 Millionen Transistoren mehr machen sich bemerkbar. Und da der NV40 eindeutig mehr Features als der r420 bietet und gleichzeitig noch so schnell ist, ist dies ein guter Kompromiss zwischen Features, Leitungs und Ökologie.
4. die qualitaet der einzelnen features wird bei nvidia immer schlechter seid dem geforce3 chip. (af, aa usw.) nvidia erkauft sich seine geschwinidigkeit mit feature einbussen. ist das so richtig?
Nein.
Demirug
2004-05-05, 11:42:12
Original geschrieben von aths
Das wurde mir von NV zwar erklärt, aber ich hatte nicht den Eindruck, das wirklich verstanden zu haben. Um nicht (womöglich auch noch falsch) nachzukauen, was mir die PR-Abteilung erzählt, ließ ich das dann ganz weg.
Das was in den Folien dazu steht stimmt schon.
DrumDub
2004-05-05, 11:42:40
Original geschrieben von seahawk
Das war nur die Guideline von NV für den NV3X, da dieser eine erhebliche Schwäche im PS 2.0 hatte.
Für die NV4X empfiehlt NV eine möglichst hohe Shaderversion zu nehmen.
ATI rät zur Zeit dringend von der Nutzung von SM3.0 ab. - Welcher Überraschung. :D
Wären die X800XT und die 6800Ultra gleich schnell, dann wäre SM3.0 sicherlich ein Argument für NV.
ah... okay. denke für die aufklärung. dennoch zeigt sich imho, am beispiel far cry, dass hier in erster linie auf ps 1.1 gesetzt wurde, da diese effekte ja auch mit dem nv25 darstellbar sind. so sieht das spiel auch auf diesen karte besser aus. warum also ps 2.x nehmen, wenns auch mit ps 1.1 geht? höchstens die speed spricht imho dafür, also das gleiche argument wie bei ps 2.x vs. ps 3.0.
meines wissen nach läuft far cry ja auch recht gut auf den karten mit nv 25 (z.b. das wasser ist nur ps 1.1, wenn ich mich recht entsinne).
Original geschrieben von AYAlf
was ich nicht kapieren kann .... !?
klaert mich mal auf!
1. nvidia kommt doch schon mit dem sm2 standart nicht klar. Mit dem 2-er Standard kommen sie gut klar. Allerdings gingen ATI bezüglich der HW-Implementierung völlig unterschiedliche Wege. Die GF FX profitiert stark von 1.x, die Radeon kaum.
Original geschrieben von AYAlf
2. wieso bringt nvidia sm3 raus wenn sie mit dem vorgaenger nicht klar kommen? und die meisten shader in 1.x berechnen?DX 9.0c ist noch nicht raus, therefore kann 3.0 noch nicht genutzt werden.
Lustiger Troll
2004-05-05, 11:47:57
Original geschrieben von DrumDub
ah... okay. denke für die aufklärung. dennoch zeigt sich imho, am beispiel far cry, dass hier in erster linie auf ps 1.1 gesetzt wurde, da diese effekte ja auch mit dem nv25 darstellbar sind. so sieht das spiel auch auf diesen karte besser aus. warum also ps 2.x nehmen, wenns auch mit ps 1.1 geht? höchstens die speed spricht imho dafür, also das gleiche argument wie bei ps 2.x vs. ps 3.0.
meines wissen nach läuft far cry ja auch recht gut auf den karten mit nv 25 udn das wasser ist ps 1.1.
Wie aths schon anmerkte sind PS1.1 im INT Format, PS2.0 benutzen das FP Format, FP Shader sehen besser aus, deshalb werden auch PS2.0 verwendet, nun ist der Sprung von INT auf FP viel grösser gewessen als er das jetzt mit SM2.0-->SM3.0 ist, dank der HLSL... ich hoffe das stimmt alles mehr oder weniger und schlagt mich nicht gleich ;D.
Original geschrieben von AYAlf
kann man das wirklich in bewegten bildern unterscheiden? Werden wirklich heute schon Effekte programmmiert, wirklich FP32 brauchen, oder nehmen die Entwickler Rücksicht auf die installierte Radeon-Basis und können damit die mit FP32 mögliche BQ nicht ganz ausschöpfen?
BK-Morpheus
2004-05-05, 11:48:10
Original geschrieben von LovesuckZ
Und da der NV40 eindeutig mehr Features als der r420 bietet und gleichzeitig[...]
Kannst du mir außer dem SM 3.0 noch die anderen Features aufzählen ?
Ich dachte da wäre sonst nicht wirklich ein anderes tolles Feature....evtl. könnte man die vielen AA Modi dazuzählen (obwohl ich eh nur die 2x 4x und 6x der ATI bräuchte).
Lustiger Troll
2004-05-05, 11:56:14
Original geschrieben von BK-Morpheus
Kannst du mir außer dem SM 3.0 noch die anderen Features aufzählen ?
Ich dachte da wäre sonst nicht wirklich ein anderes tolles Feature....evtl. könnte man die vielen AA Modi dazuzählen (obwohl ich eh nur die 2x 4x und 6x der ATI bräuchte).
Dedizierter, chipintegrierter Videoprozessor
Hardwareseitige MPEG-Codierung und -Decodierung
WMV9-Decodierbeschleunigung,
Zwei DVO-Ports zur Anbindung externer TDMS-Transmitter und TV-Encoder, Unterstützt Microsoft Video Mixing Renderer (VMR) für mehrere Videofenster gleichzeitig bei voller Qualität und Funktionalität, DVD- und HDTV-fähige MPEG-2-Decodierung, Auflösung bis zu 1920x1080 (interlaced),
Modernste Algorithmen zur verlustfreien Komprimierung von Farb-, Textur- und z-Daten - auch bei höchsten Auflösungen und Frame-Raten
Schnelles z-Clear
HCT (High-Resolution Compression Technology) sorgt für noch mehr Performance bei hohen Auflösungen, NVIDIA High-Precision Dynamic-Range (HPDR) Technologie
Volle Unterstützung für Gleitkommaberechnungen in der gesamten Pipeline
Gleitkommafilterung für höhere Qualität bei Bewegtbildern
Gleitkommatexturierung für noch klarere, detailliertere Grafiken
Gleitkomma-Framebuffer-Blending für noch mehr Details bei Effekten wie Bewegungsunschärfe oder Explosionen
Neues Antialiasing mit gedrehtem Raster - für noch bessere Kantenglättung reicht das....
http://www.nvidia.de/page/specs_gf6.html
Lustiger Troll
2004-05-05, 11:56:14
Doppelpost...
DrumDub
2004-05-05, 11:57:06
Original geschrieben von Lustiger Troll
Wie aths schon anmerkte sind PS1.1 im INT Format, PS2.0 benutzen das FP Format, FP Shader sehen besser aus, deshalb werden auch PS2.0 verwendet, nun ist der Sprung von INT auf FP viel grösser gewessen als er das jetzt mit SM2.0-->SM3.0 ist, dank der HLSL... ich hoffe das stimmt alles mehr oder weniger und schlagt mich nicht gleich ;D.
ja. hast natürlich recht. ps 1.x war auf int beschränkt. mir gings nur um dei tatsache, dass far cry in erster linie noch ps 1.1 einsetzt, wo es geht, um eben eine möglichst breite userbasis anzusprechen.
BK-Morpheus
2004-05-05, 11:59:24
Dedizierter, chipintegrierter Videoprozessor
Hardwareseitige MPEG-Codierung und -Decodierung
WMV9-Decodierbeschleunigung
Komisch, das die CPU Auslastung bei den WMV HD Videos viel höher mit der Nvidia Karte ist.....ATI hat doch da dieses Feature mit der speziellen Hardwaredecodierung für den Videokram......musste mal bei Chip lesen, die haben dazu was getestet.
BK-Morpheus
2004-05-05, 12:03:16
ah, hier isses:
*
VIDEOSHADER™ HD
* Seamless integration of pixel shaders with video in real time
* FULLSTREAM™ video de-blocking technology for Real, DivX, and WMV9 formats
* VIDEOSOAP™ noise removal filtering for captured video
* MPEG1/2/4 decode and encode acceleration
o DXVA Support
o Hardware Motion Compensation, iDCT, DCT and color space conversion
* All-format DTV/HDTV decoding
* YPrPb component output for direct drive of HDTV displays
* Adaptive Per-Pixel De-Interlacing and Frame Rate Conversion (temporal filtering)
* Dual integrated display controllers
* Dual integrated 10 bit per channel 400 MHz DACs Integrated 165 MHz TMDS transmitter (DVI 1.0 / HDMI compliant and HDCP ready)
* Integrated TV Output support up to 1024x768 resolution
* Windows® Logo Program compliant
* CATALYST™ Software Suite
Lustiger Troll
2004-05-05, 12:03:20
Original geschrieben von BK-Morpheus
Komisch, das die CPU Auslastung bei den WMV HD Videos viel höher mit der Nvidia Karte ist.....ATI hat doch da dieses Feature mit der speziellen Hardwaredecodierung für den Videokram......musste mal bei Chip lesen, die haben dazu was getestet.
Offiziel hat ATI keine WMV beschleunigung, aber NV hat es ob es schneller ist, weiss ich nicht vielleicht wurde es nicht im Treiber Implementiert.
Crushinator
2004-05-05, 12:06:18
Original geschrieben von BK-Morpheus
Komisch, das die CPU Auslastung bei den WMV HD Videos viel höher mit der Nvidia Karte ist.....ATI hat doch da dieses Feature mit der speziellen Hardwaredecodierung für den Videokram......musste mal bei Chip lesen, die haben dazu was getestet. Das kommt vermutlich nur davon, daß die "Beschleunigung" im Treiber noch nicht funktioniert. Vorschlag zur Güte: Erst Retail-fähige Treiber abwarten, und dann endgültiges Urteil fällen.
DrumDub
2004-05-05, 12:07:51
Original geschrieben von Lustiger Troll
Offiziel hat ATI keine WMV beschleunigung, aber NV hat es ob es schneller ist, weiss ich nicht vielleicht wurde es nicht im Treiber Implementiert.
noe. ati hats auch offiziell. siehe das posting von bk-morpheus über deinem.
Lustiger Troll
2004-05-05, 12:10:29
Original geschrieben von DrumDub
noe. ati hats auch offiziell. siehe das posting von bk-morpheus über deinem.
Dort steht video deblocking, ist dass das selbe?
seahawk
2004-05-05, 12:12:40
Original geschrieben von DrumDub
ja. hast natürlich recht. ps 1.x war auf int beschränkt. mir gings nur um dei tatsache, dass far cry in erster linie noch ps 1.1 einsetzt, wo es geht, um eben eine möglichst breite userbasis anzusprechen.
AFAIK nutzt FarCry für die NV3X überwiegend 1.1 Shader.
Für den R3XX nutzt es PS2.0 Shader, auch wenn man die gleichen Effekte auch unter 1.1 realisieren könnte. (was wiederum exakt den Empfehlungen von ATI entspricht)
Ich behaupte jetzt mal, dass man bei R420 keine großen Verbesserungen mehr erwarten darf was die Leistung angeht. Es ist halt R300 x 2 und die Software ist schon sehr gut auf diesen optimiert.
Der NV40 hingegen ist komplett neu, Optimierungen auf den NV3X schaden ihm eher. Da schlummert evtl. noch Potential.
DrumDub
2004-05-05, 12:15:31
Original geschrieben von Lustiger Troll
Dort steht video deblocking, ist dass das selbe?
nein. aber:
MPEG1/2/4 decode and encode acceleration
wmv ist mpeg4. ;)
Demirug
2004-05-05, 12:19:15
Original geschrieben von ow
Ah ja, diese Moeghlichkeit hatte ich gar nicht betrachtet.
Aber gibt's dann nicht wieder die Probleme mit nicht funktionierendem AA (aka FullscreenEffekte&AA-Problem:D)?
Kann man umgehen. So wie es inzwischen auch durchaus möglich ist FullscreenEffekte&AA gleichzeitig zu nutzen.
DrumDub
2004-05-05, 12:24:37
Original geschrieben von seahawk
AFAIK nutzt FarCry für die NV3X überwiegend 1.1 Shader.
Für den R3XX nutzt es PS2.0 Shader, auch wenn man die gleichen Effekte auch unter 1.1 realisieren könnte. (was wiederum exakt den Empfehlungen von ATI entspricht)
nein. das stimmt so nicht. auch auf dem r3x0 nutzt far cry überwiegend ps 1.1.:
FarCry 1.1 --> Radeon 9700 Cat4.4@gf fx 5900 ultra in 1024x768 VeryHigh
PS 2.0 = 8
PS 2.x = 27
PS 1.1 = 92
VS 2.x = 2
VS 1.1 = 144
FarCry 1.1 --> Radeon 9700 Cat4.4 in 1024x768 VeryHigh
PS 2.0 = 41
PS 1.1 = 88
VS 2.x = 3
VS 1.1 = 144
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1750540#post1750540
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.