Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread
Seiten :
1
2
3
4
5
6
[
7]
8
9
10
11
12
13
14
MikBach
2004-05-10, 18:59:05
Original geschrieben von aths
Nein. Das bedeutet, dass Nvidia nicht die Transistoren übrig hatte, sowohl das "optimierte" als auch das "richtige" AF zu implementieren. Sie mussten sich für eines entscheiden.
Das ist aber nur hypothetisch. Ich spreche von Fakten, und das was Luciano Alibrandi sagt, ist Fakt. EOD.
PS Hätten sie noch mehr Transistoren "verbraucht", wären sie noch langsamer, als sie jetzt schon sind(Mhz).
Quasar
2004-05-10, 19:04:52
Original geschrieben von aths
Solange ich keine Karte und entsprechende Testprogramme habe, erst mal nichts.
Du hast doch eine R9600?
DanMan
2004-05-10, 19:06:15
Original geschrieben von MikBach
Als unsere anisotrope Qualität DEUTLICH besser als beim Konkurrenzprodukt war, gab es keinen Reviewer in der Internet-Community, der uns für die Filterqualität gelobt hat – es gab nur Beschwerden bezüglich der Performance.
OMG! Sie haben die BQ getötet! IHR SCHWEINE! :motz:
Für die Zukunft planen wir, eine große Auswahlmöglichkeit von maximaler Qualität (so perfekt, wie wir es hinkriegen können) bis hin zur höchstoptimierten Leistung.
Da hab ich mir allerdings vor Freude fast in die Hosen gemacht. :embara:
reunion
2004-05-10, 19:07:00
Original geschrieben von MikBach
PS Hätten sie noch mehr Transistoren "verbraucht", wären sie noch langsamer, als sie jetzt schon sind(Mhz).
Die Transistorenanzahl hat AFAIK keinen direkten einfluss auf die Taktfrequenz...
Original geschrieben von MikBach
Das ist aber nur hypothetisch. Ich spreche von Fakten, und das was Luciano Alibrandi sagt, ist Fakt. EOD.Die Fähigkeit zwischen den Zeilen lesen zu können, scheint nicht weit verbreitet zu sein.
Original geschrieben von MikBach
PS Hätten sie noch mehr Transistoren "verbraucht", wären sie noch langsamer, als sie jetzt schon sind(Mhz). Mich interessiert weder, wie viele Transistoren ein Chip hat, noch wie hoch er getaktet ist (noch wie viele Pipelines er hat) sondern nur, was er pro Zeiteinheit leisten kann.
MikBach
2004-05-10, 19:22:13
Original geschrieben von reunion
Die Transistorenanzahl hat AFAIK keinen direkten einfluss auf die Taktfrequenz...
Nö, ob man jetzt 100 Millionen hat oder 400 Millionen ist nicht wichtig. Die kann man Beide so hoch takten( gleicher Fertigungsprozess vorausgesetzt) :bonk: ;D
reunion
2004-05-10, 19:25:16
Original geschrieben von MikBach
Nö, ob man jetzt 100 Millionen hat oder 400 Millionen ist nicht wichtig. Die kann man Beide so hoch takten( gleicher Fertigungsprozess vorausgesetzt) :bonk: ;D
9600XT:
500mhz Chiptakt
75 mio Transitoren
X800XT:
520mhz Chiptakt
160 mio Transitoren
beide 130nm lowk
Original geschrieben von Quasar
Du hast doch eine R9600? Stimmt, ist ja auch praktisch ein R420, nur halt mit weniger Pipes X-D
Dann die nächste Sache: Ich habe derzeit keine Zeit :|
Original geschrieben von reunion
Die Transistorenanzahl hat AFAIK keinen direkten einfluss auf die Taktfrequenz... Genau, es kommt immer darauf an, wofür die Transistoren genutzt werden. Kyro2 wurde, um höher takten zu können, transistormäßig vergrößert.
Quasar
2004-05-10, 19:26:31
Original geschrieben von MikBach
Nö, ob man jetzt 100 Millionen hat oder 400 Millionen ist nicht wichtig. Die kann man Beide so hoch takten( gleicher Fertigungsprozess vorausgesetzt) :bonk: ;D
Wieviele Millionen Transistoren sind auf einem (gern demjenigen mit der höchsten Speicherkapazität) RAMBUS-Chip verbaut und mit welcher Taktrate läuft der?
Auf die zweite Frage habe ich eine Antwort: Mindestens bis 400MHz.
Die Erste Frage: >100 Millionen dürften's locker sein.
MikBach
2004-05-10, 19:29:18
Original geschrieben von reunion
9600XT:
500mhz Chiptakt
75 mio Transitoren
X800XT:
520mhz Chiptakt
160 mio Transitoren
beide 130nm lowk
Da kommt auch schon die passend Atwort von aths. :D
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1798487#post1798487
eidt: da ich sehe, dass Quasar auch irgendwelche Probleme hat meine Anspielung zu verstehen, hier die Erklärung:
@ reunion
Du willst doch nicht den Kühler einer 9600XT(welche auch notfalls passiv geht) mit dem einer X800XT vergleichen. Ausserdem hat man den Fertigungsprozess optimiert, dewegen verbietet sich hier ein Vergleich.
Ich meinte eigentlich mit meiner Aussage, dass Nvidia mit 222 Millionen eh schon Probleme mit der Taktbarkeit(und auch der Verlustleistung) hat. Mit noch mehr Transistoren wäre das der OberGAU(da auch anderer Fertigungsprozess als bei ATI). ;)
Quasar
2004-05-10, 19:30:07
Original geschrieben von aths
Stimmt, ist ja auch praktisch ein R420, nur halt mit weniger Pipes X-D
Dann die nächste Sache: Ich habe derzeit keine Zeit :|
Daß du keine Zeit hast, finde ich bedauerlich. ;(
Zu deiner ersten Bemerkung:
Bis auf 3dc - wer weiß?
StefanV
2004-05-10, 19:46:50
Original geschrieben von MikBach
Nö, ob man jetzt 100 Millionen hat oder 400 Millionen ist nicht wichtig. Die kann man Beide so hoch takten( gleicher Fertigungsprozess vorausgesetzt) :bonk: ;D
P3, 180nm Fertigung -> ~1GHz Ende Gelände, ~30Mio Transis (7,5 Mio Logik)
P4, 180nm Fertigung -> ~2GHz Ende Gelände, ~42MIo Transis
K75, 180nm Fertigung -> 1,4GHz Max, ~37 Mio Transis
Palomino, 180nm Fertigung -> 1,733GHz Max, ~37,5Mio Transis
Mal ein paar CPUs als Beispiel :eyes:
Quasar
2004-05-10, 19:55:38
Original geschrieben von MikBach
eidt: da ich sehe, dass Quasar auch irgendwelche Probleme hat meine Anspielung zu verstehen, hier die Erklärung:
[...]
Probleme nicht, aber deine Anspielung war schlicht unzutreffend. Fertigungsprozess und Taktrate mit der Transistorzahl zu verknüpfen reicht eben nicht. =)
MikBach
2004-05-10, 19:59:22
Original geschrieben von Stefan Payne
P3, 180nm Fertigung -> ~1GHz Ende Gelände, ~30Mio Transis (7,5 Mio Logik)
P4, 180nm Fertigung -> ~2GHz Ende Gelände, ~42MIo Transis
K75, 180nm Fertigung -> 1,4GHz Max, ~37 Mio Transis
Palomino, 180nm Fertigung -> 1,733GHz Max, ~37,5Mio Transis
Mal ein paar CPUs als Beispiel :eyes:
LoL. Sind doch nicht wirklich die gleichen Fertigungsprozesse. Ein 0,13Prozess kann sich in Details SEHR DEUTLICH von einem anderen 0,13Prozess unterscheiden(SOI, Strained Silicon usw, wenn du schon die CPUs ansprichst).
Aber darüber will ich mich nicht wirklich unterhalten.
Was mich interessiert, ist der Speed und die IQ der Grakas. Andere "technische Spielchen" wie SM3.0 und 3Dc natürlich auch. ;)
Rampage 2
2004-05-10, 20:00:03
Sagt mal, hat denn vielleicht schon einer eine X800XT auf GF6800U Niveau heruntergetaktet (also auf 400/550)? Dann weiß man wie die Chips bei gleichen Takten konkurrieren - bzw. wie schnell die GF6800U möglicherweise beim selben Takt wie die X800XT (also auf 520/560) wäre. Denn irgendwie ist es für die 6800U nicht fair, dass die X800XT mit höherer Taktrate antritt - das kann schließlich ja jeder machen...
Original geschrieben von Rampage 2
Denn irgendwie ist es für die 6800U nicht fair, dass die X800XT mit höherer Taktrate antritt - das kann schließlich ja jeder machen...
Ist das dein Ernst?
MarcWessels
2004-05-10, 20:12:51
Original geschrieben von Mancko
Im Gegensatz dazu hat ATI absichtlich die Filteroptimierung im Default Zustand von Anfang an eingebaut und auf Nachfrage von 3DCenter ja auch bestätigt, dass sie nicht im Traum daran denken das auszustellen. Dazu kommt noch der doch sehr verdächtige Vorfall mit den Colour Mipmaps.
In D3D verliert die 6800 ebenso bei eingefärbten MipMaps - weniger als ATI. In OGL sind die Verhältnisse halt nur NOCH extremer.
Da kann von Cheat keine Rede sein! Und was die Stageoptimierung bei ATI angeht: Per Tool läßt sie sich ja zum Glück abschalten und großartig beeinflußt wurden die Benchmarkwerte in den Reviews nicht dadurch, da selbst die X800Pro im Schnitt lediglich 2% bei Deaktvierung der "Optimierung" an Geschwindigkeit verliert. Der Gewinn durch Brilinearität bei nVidia auf dem NV40 ist DEUTLICH höher!
ShadowXX
2004-05-10, 20:19:59
Original geschrieben von MarcWessels
In D3D verliert die 6800 ebenso bei eingefärbten MipMaps - weniger als ATI. In OGL sind die Verhältnisse halt nur NOCH extremer.
Da kann von Cheat keine Rede sein! Und was die Stageoptimierung bei ATI angeht: Per Tool läßt sie sich ja zum Glück abschalten und großartig beeinflußt wurden die Benchmarkwerte in den Reviews nicht dadurch, da selbst die X800Pro im Schnitt lediglich 2% bei Deaktvierung der "Optimierung" an Geschwindigkeit verliert. Der Gewinn durch Brilinearität bei nVidia auf dem NV40 ist DEUTLICH höher!
ok...gehen wir mal davon aus, das das Einfärben performance Kostet....und deshalb diese Abweichungen entstehen...
Das erklärt allerdings noch nicht die 20%ige Mehrleistung über Peak bei der r420Pro.
Es sollte schon überprüft werden, was das ist...und nicht einfach hingenommen werden...
Quasar
2004-05-10, 20:33:21
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1791601#post1791601
So wirkt es sich aus, wenn definitiv die TS-Optimierung ausgeschaltet wird.
Von TS-Opt. auf Full-Tri sind's mal eben 50% Leistungszuwachs. Ich glaube nicht, daß die X800 so sehr an der Bandbreite hängt, daß die restlichen 43 Prozentpunkte eh im Nirwana verpuffen - dann hätte ATi sie auch gleich mit nur 400MHz rausbringen können. ;)
Original geschrieben von Quasar
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1791601#post1791601
So wirkt es sich aus, wenn definitiv die TS-Optimierung ausgeschaltet wird.
Von TS-Opt. auf Full-Tri sind's mal eben 50% Leistungszuwachs. Ich glaube nicht, daß die X800 so sehr an der Bandbreite hängt, daß die restlichen 43 Prozentpunkte eh im Nirwana verpuffen - dann hätte ATi sie auch gleich mit nur 400MHz rausbringen können. ;)
Nicht Bandbreite sondern Shaderleistung.
Wenn bei Shadern verhältnismässig mehr arithmetische Operationen als Texturops genutzt werden schrumpft der Unterschied von bi- zu tri stark zusammen.
tokugawa
2004-05-10, 21:01:35
Original geschrieben von Quasar
Das stimmt nicht. Ich habe versucht, die Karte mit nur einem Connector zu betreiben. Ausser einem Piepen aus dem Pieper rührte sich nyx.
Was seltsam ist.
Die FX Karten konnten noch völlig ohne Stromstecker funktionieren, nur waren die dann langsamer, soweit ich weiß.
MikBach
2004-05-10, 21:04:39
Original geschrieben von tokugawa
Was seltsam ist.
Die FX Karten konnten noch völlig ohne Stromstecker funktionieren, nur waren die dann langsamer, soweit ich weiß.
Der 3DBetrieb funktionierte auch nicht, zumindest bei den Karten, die ich zum testen hatte.
tokugawa
2004-05-10, 21:06:16
Original geschrieben von dfgdfg
Die NV Fans sind doch so stolz auf das z.Z unnötige S 3.0,ich hab hier ein Bsp für die Unnötigkeit
Stalker ist doch auf NV optimiert ;D
http://www.xbitlabs.com/articles/editorial/display/stalker_5.html
Zur Zeit unnötig für Gamer, das mag schon sein.
"Generell unnötig" stimmt aber absolut nicht.
Ich bitte wirklich alle, die sich Gamer nennen, nicht von Gaming auf das gesamte breite Anwendungsgebiet der Computergrafik zu schließen.
Und ja, die NV40 hat auch andere "Audienzen" als Gamer. Seltsamerweise (oder logischerweise?) sind in diesen Bereichen (etwa Forschung in der Visualisierung und Computergrafik) gerade die Vorzüge von NV sehr stark. Mag unwichtig sein für "Gamer".
Ist aber wichtig für die Zukunft. Denn die ganzen Algorithmen (die in Spielen verwendet werden) werden oft/meist eben in der Forschung erfunden. Und die wollen halt auch Hardware haben. Sowas nennt sich Fortschritt.
Das schlechtreden zu wollen, nur weil's in Spielen aktuell nichts bringt, halte ich für engstirnig. Denn genausogut könnte man sagen, in der Schule was lernen ist doch unnötig, braucht man ja "zur Zeit" eh nicht. Bei der Einstellung fragt man sich wirklich: wozu überhaupt noch Forschung?
reunion
2004-05-10, 21:11:52
Original geschrieben von Rampage 2
Denn irgendwie ist es für die 6800U nicht fair, dass die X800XT mit höherer Taktrate antritt - das kann schließlich ja jeder machen...
Warum?
Der R420 ist eben für höhere Taktfrequenzen ausgelegt, du taktest einen P4 ja auch nicht auf die gleiche Frequenz wie einen A64 oder?
MikBach
2004-05-10, 21:16:09
Original geschrieben von tokugawa
Zur Zeit unnötig für Gamer, das mag schon sein.
"Generell unnötig" stimmt aber absolut nicht.
Ack.
Ich bitte wirklich alle, die sich Gamer nennen, nicht von Gaming auf das gesamte breite Anwendungsgebiet der Computergrafik zu schließen.
Und ja, die NV40 hat auch andere "Audienzen" als Gamer. Seltsamerweise (oder logischerweise?) sind in diesen Bereichen (etwa Forschung in der Visualisierung und Computergrafik) gerade die Vorzüge von NV sehr stark. Mag unwichtig sein für "Gamer".
Ack, allerdings sind die meisten Abnehmer dieser Karten "Gamer".
Ist aber wichtig für die Zukunft. Denn die ganzen Algorithmen werden oft/meist eben in der Forschung erfunden. Und die wollen halt auch Hardware haben. Sowas nennt sich Fortschritt.
Full Ack.
Das schlechtreden zu wollen, nur weil's in Spielen aktuell nichts bringt, halte ich für engstirnig. Denn genausogut könnte man sagen, in der Schule was lernen ist doch unnötig, braucht man ja "zur Zeit" eh nicht. Bei der Einstellung fragt man sich wirklich: wozu überhaupt noch Forschung?
Da sagst du aber was Wahres. Auch für (Spiele)Entwickler ist ein NV40 imo Pflicht.
deekey777
2004-05-10, 21:29:27
Albatron First-to-Market with GeForce 6800 Ultra (http://www.neowin.net/comments.php?id=19839&category=main)
Japanese stores confirmed recently that Albatron may be the first-to-market with its Trinity GeForce 6800 Ultra graphics cards. The information published by Akiba PC Hotline claims that the first batch of such products is anticipated to arrive in the middle of the month – days from now.
An Albatron’s spokesman lately told that the company’s latest graphics cards, the GeForce 6800 and the GeForce 6800UV, will hit the shelves in Taiwan in early May, a lot earlier than NVIDIA said on the launch day of its NV40 graphics processor. Even though there are no reports about such products availability today, there is information that the add-in graphics cards are expected to arrive in days from now. Officially NVIDIA promised that its partners would deliver the GeForce 6800 Ultra-based products in late May or early June.
The GeForce 6-series of graphics processors will be available across entry-level, mainstream, performance-mainstream, high-end and, apparently, so-called ultra high-end graphics cards. The new series of NVIDIA’s graphics processors is the company’s second generation lineup of DirectX 9.0-compatible offerings that greatly leverage the feature-set of NVIDIA GeForce FX graphics chips and brings important additional caps like Shader Model 3.0 as well as great performance improvements over the previous generation hardware.
So far NVIDIA has unveiled only a $499 offering called the GeForce 6800 Ultra that is based on a 400MHz chip that integrates 16-pixel pipelines, 6 vertex pipelines as well as equipped with 256MB of GDDR3 memory at 1100MHz. Later graphics cards powered by similar graphics processors priced at $399 and $299 will be introduced.
MikBach
2004-05-10, 21:36:42
Original geschrieben von deekey777
So far NVIDIA has unveiled only a $499 offering called the GeForce 6800 Ultra that is based on a 400MHz chip that integrates 16-pixel pipelines, 6 vertex pipelines as well as equipped with 256MB of GDDR3 memory at 1100MHz. Later graphics cards powered by similar graphics processors priced at $399 and $299 will be introduced.[/i]
Wo ist den der EE? ?(
Oder war das wirklich nur eine "OverclockingGPU" seitens Nvidia, die man bringen kann, aber nicht offiziell ist. ?(
Winter[Raven]
2004-05-10, 21:38:12
Original geschrieben von MikBach
Wo ist den der EE? ?(
Oder war das wirklich nur eine "OverclockingGPU" seitens Nvidia, die man bringen kann, aber nicht offiziell ist. ?(
Es gibt von Nvidia keine EE! Diese ist den Grakahestellern überlassen eine solche rauszubringen.
MikBach
2004-05-10, 21:41:06
Original geschrieben von Winter[Raven]
Es gibt von Nvidia keine EE! Diese ist den Grakahestellern überlassen eine solche rauszubringen.
robbitop hat doch mal behauptet, dass der EE "offiziell" gegen den X800XT antreten soll.
Wie soll das gehen, wenn der EE nicht offiziell ist? :)
MarcWessels
2004-05-10, 21:43:07
Original geschrieben von Quasar
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1791601#post1791601
So wirkt es sich aus, wenn definitiv die TS-Optimierung ausgeschaltet wird.
Von TS-Opt. auf Full-Tri sind's mal eben 50% Leistungszuwachs. Ich glaube nicht, daß die X800 so sehr an der Bandbreite hängt, daß die restlichen 43 Prozentpunkte eh im Nirwana verpuffen - dann hätte ATi sie auch gleich mit nur 400MHz rausbringen können. ;)
Woran's liegt, ist doch wohl egal. DASS die X800 bei Deaktivierung der TS-Optim. gegenüber der R9800 nur einen Bruchteil an fps verliert, ist Fakt!
reunion
2004-05-10, 21:48:14
Original geschrieben von MarcWessels
Woran's liegt, ist doch wohl egal. DASS die X800 bei Deaktivierung der TS-Optim. gegenüber der R9800 nur einen Bruchteil an fps verliert, ist Fakt!
Es liegt vermutlich ganz einfach daran dass die X800XT die 2,5-fache Füllrate aber nur ca. 50% mehr Speicherbandbreite als die hier getestete 9800XT hat.
Quasar
2004-05-10, 22:24:42
Original geschrieben von ow
Nicht Bandbreite sondern Shaderleistung.
Wenn bei Shadern verhältnismässig mehr arithmetische Operationen als Texturops genutzt werden schrumpft der Unterschied von bi- zu tri stark zusammen.
Jein, denke ich. Einerseits hast du damit so, wie es dasteht, sicher recht, andererseits denke ich nicht, daß UT2004 ein so shaderlimitiertes Game ist.
Quasar
2004-05-10, 22:26:07
Original geschrieben von tokugawa
Was seltsam ist.
Die FX Karten konnten noch völlig ohne Stromstecker funktionieren, nur waren die dann langsamer, soweit ich weiß.
So seltsam ist das nicht. Die FXen kannten zumeist noch einen separaten 2D-Takt. Die 6800 anscheinend nicht mehr.
Quasar
2004-05-10, 22:29:18
Original geschrieben von MarcWessels
Woran's liegt, ist doch wohl egal. DASS die X800 bei Deaktivierung der TS-Optim. gegenüber der R9800 nur einen Bruchteil an fps verliert, ist Fakt!
Nein, es ist mitnichten egal. Schön, mag ja sein, daß die X800 wirklich so resistent gegen einen Leistungseinbruch bei trilinearer Filterung ist.
Als "Fakt" sehe ich das momentan jedenfalls noch nicht an.
MikBach
2004-05-10, 23:30:24
Original geschrieben von Quasar
Nein, es ist mitnichten egal. Schön, mag ja sein, daß die X800 wirklich so resistent gegen einen Leistungseinbruch bei trilinearer Filterung ist.
Als "Fakt" sehe ich das momentan jedenfalls noch nicht an.
Dann teile uns bitte mit, wenn es denn wirklich Fakt ist. :)
MarcWessels
2004-05-10, 23:37:27
Ok, kein Fakt - wie denn auch bei der Menge an Spielen, die Thilo von der PCGH gebenched hat... ;D
EDIT: *Ironiemarker*
Piffan
2004-05-10, 23:39:03
Schaut doch mal in den Schwesterthread, da sind die letzten Postings von Demirurg zu genau diesem Thema recht interessant.
MikBach
2004-05-10, 23:44:28
Original geschrieben von Piffan
Schaut doch mal in den Schwesterthread, da sind die letzten Postings von Demirurg zu genau diesem Thema recht interessant.
:|
Und? :???:
Was hat das mit den Werten bei der PCGH zu tun?
Mehr als ein A64 3400+ geht atm nicht!
Oder was willst du uns damit sagen? :???:
MarcWessels
2004-05-11, 00:05:58
ER will uns damit sagen, daß der R420 nur 68% Füllraten-Effizienz erreicht.
Radeonator
2004-05-11, 00:16:00
Jo, die Lüüd haben auch immer gesagt das die 9700er und FX karten total unterfordert wären...blahblah
Wers glaubt, bei Vollast glaub ich auch kaum, das die Karten dann immer noch Spitze performen. Zuviel Theorie, die sich faktisch in 90% der Fälle nicht umsetzen lässt...
MarcWessels
2004-05-11, 00:39:24
Öhm, darum ging's nicht.
Piffan
2004-05-11, 07:41:01
Richtig. Außerdem eines nicht vergessen: Die Systembandbreite ist bei einem Intel- System höher, also kann in Einzelfällen doch mehr gehen als mit einem 64er Athlon....Der Ahtlon ist bei bestimmten Anwendungen der Kracher, aber nicht überall.
edit: Bezog mich auf die Aussage von Marc Wessels:
"ER will uns damit sagen, daß der R420 nur 68% Füllraten-Effizienz erreicht."
Winter[Raven]
2004-05-11, 09:41:15
Ujesh Desai General Manager of Desktop GPUs for NVIDIA:
A good quality 350 Watt power supply with a sufficient 12V rail pull can support the 6800 Ultra standard clocks of 400/550. A lot of reviewers have already shown that they are running on 350 Watt power supplies with no problems. Overclockers will still want the big power supply and will want to connect both molex connectors. We are putting production tests in our manufacturing line to ensure this [new 350W requirement] is the case and will be lowering the spec.
So, also braucht die Karte doch keinen 480watt Teil ^^.
tRpii
2004-05-11, 10:02:30
Die Reviewer werden sicherlich auch zusätzlich kram wie dvd-brenner, soundkarte etc. nicht drin gehabt haben ;) und wenn man bis auf graka, proz, mobo+ram und einer platte nix angeschlossen hat denke ich auch dass 350 Watt reichen :P
K29!ll3r
2004-05-11, 10:54:42
Etwas OT:
Für wieviel werd ich meine FX 5900 noch verkaufen können, wenn die GF 6800 erhältlich sind??
BodyLove
2004-05-11, 11:00:08
@K29!ll3r
Schaust du *hier* (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?s=&forumid=86).;)
K29!ll3r
2004-05-11, 11:06:29
I'm sorry...:D
Wurde schon mal besprochen, aber ich will's nochmals wissen: Wird die 6800 GT bei OC Probleme kriegen, da sie "nur" einen zusätzlichen Stromanschluss hat??
Mancko
2004-05-11, 11:14:03
Original geschrieben von tRpii
Die Reviewer werden sicherlich auch zusätzlich kram wie dvd-brenner, soundkarte etc. nicht drin gehabt haben ;) und wenn man bis auf graka, proz, mobo+ram und einer platte nix angeschlossen hat denke ich auch dass 350 Watt reichen :P
Wenn Nvidia granantiert, dass es mit 350 Watt läuft, dann ist das auch so. Alles andere ist Makulatur. Also lasst sie mal testen und die Produkte in den Laden bringen und dann sehen wir weiter.
Irgendwelche Flame-Kommentare kannst du dir jedenfalls sparen, da nicht du entscheidest wieviel Watt ein Netzteil haben muss um einen NV40U zu betreiben sondern nur Nvidia und der AIB.
Quasar
2004-05-11, 11:22:12
Zwei Stromanschlüsse, dicke Kühler und irrwitzig hohe Watt-Angaben für emfpohlene Netzteile - alles nur der heutige Zahlenwahn.
Dummerweise soll ja der AIB dafür Sorge tragen, daß seine Karten dann auch im hinterletzten Schrott-PC ordentlich laufen.
Ich versteige mich mal zu der Behauptung, daß eine 6800 GT mit nur einem Stromanschluss an einem ordentlichen 300W Netzteil auch Ultra-Taktraten mitmachen kann (abhängig natürlich vom Chip).
BodyLove
2004-05-11, 11:24:59
...und Speicher.
Crushinator
2004-05-11, 11:25:57
Original geschrieben von Quasar
(...) Ich versteige mich mal zu der Behauptung, daß eine 6800 GT mit nur einem Stromanschluss an einem ordentlichen 300W Netzteil auch Ultra-Taktraten mitmachen kann (abhängig natürlich vom Chip). Ob das sinnvoll ist, einen Strang mit über 75 Watt zu belasten? :kratz2:
Quasar
2004-05-11, 11:31:41
111 - 43 = 68.
:gruebel: oder?
Crushinator
2004-05-11, 11:48:42
Ich dachte, wir reden von Ultra Taktraten?
Quasar
2004-05-11, 11:54:10
AFAIK wird die ULTRA mit 111W angegeben... stimmt das nicht?
K29!ll3r
2004-05-11, 11:56:38
Doch, stimmt!!
Reicht denn dieser eine Anschluss auch, wenn ich über die Ultra Taktraten gehen will?? (Vorausgesetzt natürlich, der Chip macht's mit...:D)
tRpii
2004-05-11, 11:57:30
Original geschrieben von Mancko
Wenn Nvidia granantiert, dass es mit 350 Watt läuft, dann ist das auch so. Alles andere ist Makulatur. Also lasst sie mal testen und die Produkte in den Laden bringen und dann sehen wir weiter.
Irgendwelche Flame-Kommentare kannst du dir jedenfalls sparen, da nicht du entscheidest wieviel Watt ein Netzteil haben muss um einen NV40U zu betreiben sondern nur Nvidia und der AIB.
Wo bitte liesst du da ein Flame raus? Und ja, ich glaube immer alles was ATi und nVIDIA sagt. Was ATI und nV sagt das hat zu stimmen.
edit: Und ich denke dennoch, dass ein 350 PSU mit SK, CD-Rom LW, DVD Brenner/LW, 2 Festplatten etc. nicht ausreicht (ausser dieses hat eine sehr starke V12 (+-) und V5 Leitung).
Crushinator
2004-05-11, 11:59:24
Original geschrieben von Quasar
AFAIK wird die ULTRA mit 111W angegeben... stimmt das nicht? Vielleicht reden wir ja nur an einander vorbei. Ich meine, es sei nicht sinnvoll, eine Karte die auf Ultra Taktrate gehievt über 75 Watt verballern würde, nur mit einem Strang zu versorgen.
Quasar
2004-05-11, 12:08:00
Ja, anscheinend haben wir wirklich aneinander vorbeigeredet. Ich dachte, du bezogst dich auf die Leistung, die allein über den Netzteilanschluss aufgenommen wird.
Also von vorn:
Karten* über 75W** halte ich durchaus für geeignet, mit einem einzelnen Netzteilanschluss versorgt zu werden.
*mit dem einem aktuellen Grafikchip und 256MB GDDR3 RAM
**natürlich nicht _alles_ über 75W
Sphinx
2004-05-11, 13:30:33
? - Was ist über die 6800 GT Bekannt - ? sollte es nicht eine vollwertige (nur niedrig~getacktete) 6800Ultra sein...
QUELLE: FrontNews über 3dcenter : http://www.tweakpc.de/mehr.php?news_id=5890
Die Club-3D GeForce 6800, 8 Rendering Pipelines,
Core/Mem. Clock 325 MHz / 700 MHz, 128 MB DDR RAM, 256-Bit
Die Club-3D GeForce 6800 GT , 12 Rendering Pipelines,
Core/Mem. Clock 350 MHz / 1 GHz, 256 MB GDDR3 RAM, 256-Bit
Die Club-3D GeForce 6800 Ultra, 16 Rendering Pipelines,
Core/Mem. Clock 400 MHz / 1,1 GHz, 256 MB GDDR3 RAM, 256-Bit
Hier http://www.forum-3dcenter.org/vbulletin/attachment.php?s=&postid=1766263
Gas3t
2004-05-11, 13:42:26
Original geschrieben von Sphinx
? - Was ist über die 6800 GT Bekannt - ? sollte es nicht eine vollwertige (nur niedrig~getacktete) 6800Ultra sein...
Die Club-3D GeForce 6800, 8 Rendering Pipelines,
Core/Mem. Clock 325 MHz / 700 MHz, 128 MB DDR RAM, 256-Bit
Die Club-3D GeForce 6800 GT , 12 Rendering Pipelines,
Core/Mem. Clock 350 MHz / 1 GHz, 256 MB GDDR3 RAM, 256-Bit
Die Club-3D GeForce 6800 Ultra, 16 Rendering Pipelines,
Core/Mem. Clock 400 MHz / 1,1 GHz, 256 MB GDDR3 RAM, 256-Bit
Hier http://www.forum-3dcenter.org/vbulletin/attachment.php?s=&postid=1766263
Auf dem Bild steht aber eindeutig 16 Pipes für die GT. Wo hast du die Angaben für die Club-3D-Karten her?
Sphinx
2004-05-11, 13:46:35
http://www.tweakpc.de/mehr.php?news_id=5890
Hehe und die Normale 68oo Hat anstatt 12 -> 8 !
betasilie
2004-05-11, 13:50:40
Original geschrieben von Sphinx
http://www.tweakpc.de/mehr.php?news_id=5890
Hehe und die Normale 68oo Hat anstatt 12 -> 8 !
Bist Du sicher? :spock: Das ist bestimmt ein Fehler.
BodyLove
2004-05-11, 13:50:41
Original geschrieben von Sphinx http://www.tweakpc.de/mehr.php?news_id=5890
Hehe und die Normale 68oo Hat anstatt 12 -> 8 !
Schau dir mal das hier an:
Original geschrieben von Luciano Alibrandi Im Bereich um die $499 bieten wir mit der 6800 Ultra eine neue Architektur, Unterstützung für Next-Gen-Features (SM 3.0, 64bit Filtering / Blending von Texturen) und Spielraum zum übertakten an. Deswegen lautet unsere Empfehlung für jemanden, der $499 für eine Grafikkarte ausgeben möchte: Nimm die 6800 Ultra, nicht zuletzt wegen der Übertaktbarkeit ist sie die bessere Langzeit-Investition.
Die zweite Karte ist die GeForce 6800 GT. Diese Karte bietet 16 volle Pipes, 256 MB DD3, und alle Next-Gen-Features wie die GeForce 6800 Ultra, und wie das rumprobieren mit dem Übertakten zeigt, sollte sie ebenfalls den Spielraum für die Übertakter haben. Die Karte hat alle Features zum tollen Preis: 16 Pipelines, Support für SM 3.0 und 64 Bit Textur-Filterung / Blending, eine Ein-Slot-Kühlerlösung, und kommt mit einem Stromanschluss aus.
Dann haben wir noch die GeForce 6800 (Standard), die genau das gleiche Featureset hat, aber 12 Pipes und 128 MB DDR1-Speicher.
Der sagt nämlich was anderes.
Quelle: 3dCenter (http://www.3dcenter.org/artikel/2004/05-09.php)
DrumDub
2004-05-11, 13:55:22
Original geschrieben von BodyLove
Der sagt nämlich was anderes.
Quelle: 3dCenter (http://www.3dcenter.org/artikel/2004/05-09.php)
denke, dass club3d da gepennt hat. wahrscheinlich haben sie die anzahl der pipelines der unterschiedlichen versionen von x800 vs. 6800 verwechselt. solche fehler passieren halt.
MarcWessels
2004-05-11, 13:58:38
Original geschrieben von Piffan
Richtig. Außerdem eines nicht vergessen: Die Systembandbreite ist bei einem Intel- System höher, also kann in Einzelfällen doch mehr gehen als mit einem 64er Athlon....Der Ahtlon ist bei bestimmten Anwendungen der Kracher, aber nicht überall.
OT: Beim "alten" Athlon hättest Du Recht, was die Bandbreite angeht.
BodyLove
2004-05-11, 14:00:09
Original geschrieben von DrumDub
denke, dass club3d da gepennt hat. wahrchseinlich haben sie die anzahl der pipelines der unterschiedlichen versionen von x800 vs. 6800 verwechselt. solche fehler passieren halt.
Ist es möglich, eigene Versionen rauszubringen, welches eben mit nochmal verkleinerten Pipes kommt. Nehmen wir als Bsp das Speicherinterface 256bit / 128bit? Ich denke, zwar technisch schwerer umsetzbar, aber vielleicht auch möglich. Natürlich liegt das weiter fern, als zu glauben, dass club3d einfach einen fehler gemacht hat.;)
LovesuckZ
2004-05-11, 14:02:49
Original geschrieben von BodyLove
Ist es möglich, eigene Versionen rauszubringen, welches eben mit nochmal verkleinerten Pipes kommt
Die Chips kommen von nvidia. Ich bezweifel, das ein Partner mit einem Bleistift Pipelines aktiviert bzw. deaktiviert.
Das Speicherinterface kann man ja anhand der Platine regeln, ohne am Chip etwas zu aendern.
Sphinx
2004-05-11, 14:03:07
Stimmt entweder ein Fehler seitens TweakPC oder Club3d...
http://www8.alternate.de/html/nodes_info/jagw35.html
^^ Hier kost dir GT "nur" 500 Euro...
DrumDub
2004-05-11, 14:14:56
Original geschrieben von LovesuckZ
Die Chips kommen von nvidia. Ich bezweifel, das ein Partner mit einem Bleistift Pipelines aktiviert bzw. deaktiviert.
der war gut. ;D
BodyLove
2004-05-11, 14:35:17
Original geschrieben von LovesuckZ
Die Chips kommen von nvidia. Ich bezweifel, das ein Partner mit einem Bleistift Pipelines aktiviert bzw. deaktiviert.
Das Speicherinterface kann man ja anhand der Platine regeln, ohne am Chip etwas zu aendern.
Und wenn NV unter der Hand solche Low-Quality Chips verkauft?;)
Aber klar. Ich sagte ja auch weithergeholt.
DanMan
2004-05-11, 18:47:21
A good quality 350 Watt power supply with a sufficient 12V rail pull can support the 6800 Ultra standard clocks of 400/550. A lot of reviewers have already shown that they are running on 350 Watt power supplies with no problems. Overclockers will still want the big power supply and will want to connect both molex connectors. We are putting production tests in our manufacturing line to ensure this [new 350W requirement] is the case and will be lowering the spec.
- Ujesh Desai, General Manager of Desktop GPUs for NVIDIA
Na dann. :)
http://www.gamespot.com/news/2004/05/10/news_6096837.html
Radeonator
2004-05-11, 20:36:26
Upds *net gesehen*
Was ist denn nun dran? Club 3D nV40 mit 8/12/16 Pipelines ???? Glaub auch eher an eine ATi-nV Verwechslung...ist ja auch net einfach ;)
Gay-ward hat Preislich eh den Anus weit offen...für die 6800Ultra mit WakÜ schlappe 870Euronen :crazy: Die haben heute die Preise die Asus früher hatte... :lol:
K29!ll3r
2004-05-11, 20:49:03
Ich denke auch, dass die da was mit den X800 verwechselt haben...
Apropos ASUS: Haben die ihre GeForce 6800 überhaupt schon offiziell angekündigt?
ice cool69
2004-05-11, 22:06:29
Ma ne Frage: Weiß man mittlerweile schon wann die spezielle Shader 3.0-Version von Far Cry rauskommt?
betasilie
2004-05-12, 00:24:54
Original geschrieben von ice cool69
Ma ne Frage: Weiß man mittlerweile schon wann die spezielle Shader 3.0-Version von Far Cry rauskommt?
Wenn DX9.0c released wurde. ;)
AlfredENeumann
2004-05-12, 12:57:36
PNY Verto GeForce 6800Ultra TVO/VIVO wird in kürze auf dem Markt verfügbar sein.
Preis ~520€.
DrumDub
2004-05-12, 13:12:43
Original geschrieben von AlfredENeumann
PNY Verto GeForce 6800Ultra TVO/VIVO wird in kürze auf dem Markt verfügbar sein.
Preis ~520€.
massenverfügbarkeit oder ein paar stück?
AlfredENeumann
2004-05-12, 13:21:01
Das kann ich leider nicht sagen.
Habe nur die Info von einem der deutschen Distributoren.
Wenn die Distris eine Verfügbarkeit ankündigen, dann dauert es i.d.R. nicht lang bis die Karten (wenn auch in kleinen Mengen) lieferbar sind.
(del676)
2004-05-12, 13:38:06
Original geschrieben von AlfredENeumann
PNY Verto GeForce 6800Ultra TVO/VIVO wird in kürze auf dem Markt verfügbar sein.
Preis ~520€.
siehe Signatur :)
direkt beim Grosshändler bestellt :D :D
Original geschrieben von ice cool69
Ma ne Frage: Weiß man mittlerweile schon wann die spezielle Shader 3.0-Version von Far Cry rauskommt? Und...Original geschrieben von betareverse
Wenn DX9.0c released wurde. ;) Die SM3-Version von FarCry ist schon längst draußen (Patch 1.1), nur braucht's halt DX9c, um diesen Pfad auch nutzen zu können...
Hängt also (wie immer) an M$ !
:D
Razor
DrumDub
2004-05-12, 13:42:15
Original geschrieben von AlfredENeumann
Das kann ich leider nicht sagen.
Habe nur die Info von einem der deutschen Distributoren.
Wenn die Distris eine Verfügbarkeit ankündigen, dann dauert es i.d.R. nicht lang bis die Karten (wenn auch in kleinen Mengen) lieferbar sind.
ok. danke. das reicht mir als info.
Grestorn
2004-05-12, 15:56:04
Laut Ingram Micro ist die PNY 6800U ab dem 2.6 lieferbar.
Die Sapphire X800 Pro ist ab 27.5. lieferbar.
Ich werd mir wohl beide holen, die X800 für den Rechner meine Freundin und die 6800U für mich selbst.
Gruß, Martin
reunion
2004-05-12, 19:17:14
All the Ultras are clocked at 400 MHz:
"NVIDIA SAID THAT all Geforce 6800 Ultra will remain clocked at 400MHz, the same speed that they where introduced at in San Francisno and Geneva last month.
Sources close to Nvidia confirmed that the 6800 Ultra cards will remain at 400MHz since it actually can ship them in any volumes at this speed, while its 450+MHz chips will be reserved for special partners.
Special cards will be introduced by, yes, Gainward, a company that will soon be ready with its Cool FX water-cooled card clocked at over 450MHz. We suspect that it may reach over 500MHz.
Gainward is still testing its final clock speeds but we are sure that this card will be one of the fastest cards ever produced up to this point.
Another company which will do this is the ambitious XFX, which will also introduce a limited number of cards clocked at least to 450MHz for the core and close to 1200MHz for the memory. We don't have any idea about its availability.
The third partner will be US only and will be BFG. It has the green light to introduce these 450MHz cards as well.
We don't have any solid date when any of these cards will be available but Gainward should be ready to sample early next week with production in just a week or two beyond that.
In this product cycle we expect to see the Radeon X800XT Platinum water cooled producing a nice little fight, we believe. µ
by :cop: FUAD :cop: :naughty:
http://www.theinquirer.net/?article=15864
kommt die GT auhc am 2.6. ?
Grestorn
2004-05-12, 19:50:09
Die GT wird noch nicht von Ingram gelistet, sorry...
ice cool69
2004-05-13, 15:00:20
Ok anders gefragt: Wann soll denn DX9c draußen sein laut MS? Und braucht man dringend PS/VS 3.0 oder kommen auch Radeon-Besitzer der nächsten Generation in den Genuss des Grafikupdates?
Quasar
2004-05-13, 15:06:30
Aus einer "weitergeleiteten) Mail von heute morgen:
The DirectX® Team is pleased to announce the release of DirectX 9.0 SDK
Update (Summer 2004) - Beta 3.
This Beta release contains the full DirectX SDK which features the
pre-release of the DirectX 9.0c developer runtime.
Areas of concentration in the DirectX 9.0 SDK Update (Summer 2004) Beta
release are:
- HLSL support for Pixel Shader & Vertex Shader 3.0
- Effects Framework performance improvements
- Pre computed Radiance Transfer improvements
- New Sample framework
- New & Updated Samples (and removal of some crusty ones)
- PIX tool for better debugging of Direct3D applications
- Introduction of the Preview Pipeline for easier content creation
As this beta release of the DirectX 9.0 SDK Update (Summer 2004), we hope
you will take the opportunity to install it, work with the new features and
provide feedback through BetaPlace. We look to you and your feedback to
help get the kinks out prior to the next pre-release.
LovesuckZ
2004-05-13, 15:07:26
War dort auch der Downloadlink enthalten?
Quasar
2004-05-13, 15:11:19
Nein, und ich bin auch kein Beta-Tester von M$.
Original geschrieben von Quasar
Nein, und ich bin auch kein Beta-Tester von M$.
Natürlich war er dabei:
http://beta.microsoft.com
Quasar
2004-05-13, 15:41:54
Dann ruf' mal die Webseite auf.... Unter einem DL-Link verstehe ich ehrlich gesagt etwas anderes.
Aber hast recht, die URL, die du gepostet hast, war auch mit drin.
Demirug
2004-05-13, 15:46:05
Original geschrieben von Quasar
Dann ruf' mal die Webseite auf.... Unter einem DL-Link verstehe ich ehrlich gesagt etwas anderes.
Aber hast recht, die URL, die du gepostet hast, war auch mit drin.
Der Gast war ich (Keks weg).
Es gibt für MS Betas schon lange keine direkten DL-Links mehr.
Quasar
2004-05-13, 15:54:50
Bestreite ich ja auch nicht, aber eine allgemeine Webseite ist für mich kein DL-Link.
Das ist eher sowas:
http://www.microsoft.com/directx/beta_subscribers/Highly_Confidential_DX9_SDK_Summer_Update.zip
Radeonator
2004-05-13, 18:20:48
Mich und ich denke die meisten anderen auch, interessiert die GT am meisten. Irgendwo schon ein release Termin aufgetaucht ???
VooDoo7mx
2004-05-13, 18:43:05
Release scheint erst mitte Juni zu sein.
Seit heute sind auch einige GTs bei Geizhals gelistet.
Die von Club3D kostet ca 390€.
Die von gainward noch mal ne Stange mehr.
Hmmm das meiste was ich bis jetzt für eine Graka ausgegeben hab war 230€...
Ich glaub das wird sich demnächst ändern.
Aber ich denke wenn in 5-6 Wochen so ziemlich alle Hersteller ihre GTs vorgestellt haben und diese auch im Lager der Shops auf glückliche Käufer warten wird sich der Preis auch weiter nach unten hin einpegeln.
Ich denke mal 350€ ist nicht unrealistisch für die günstigsten Kartenhersteller.
Bin ich eigentlich der einzigste der den Preis der X800Pro im Vergleich zur 6800GT absolut überzogen findet?
robbitop
2004-05-13, 18:53:21
jepp ich werd meine GT auch im August abgreifen, dann kostet die schon wieder ne Stange weniger.
Ich kann allen echt nur eine MSI empfehlen. Mit Sicherheit leise Kühllösung und gute D/A Transducer auf dem PCB.
dildo4u
2004-05-13, 18:54:20
Original geschrieben von VooDoo7mx
Release scheint erst mitte Juni zu sein.
Seit heute sind auch einige GTs bei Geizhals gelistet.
Die von Club3D kostet ca 390€.
Die von gainward noch mal ne Stange mehr.
Hmmm das meiste was ich bis jetzt für eine Graka ausgegeben hab war 230€...
Ich glaub das wird sich demnächst ändern.
Aber ich denke wenn in 5-6 Wochen so ziemlich alle Hersteller ihre GTs vorgestellt haben und diese auch im Lager der Shops auf glückliche Käufer warten wird sich der Preis auch weiter nach unten hin einpegeln.
Ich denke mal 350€ ist nicht unrealistisch für die günstigsten Kartenhersteller.
Bin ich eigentlich der einzigste der den Preis der X800Pro im Vergleich zur 6800GT absolut überzogen findet? Ja biste wo ist das problem hier stehen 16pipes bei 350mhz gegen 12 mit 475mhz und performance technisch is die X800pro auch ganz gut dabei besonders bei DX9 games aller Farcry
BodyLove
2004-05-13, 18:56:38
Original geschrieben von VooDoo7mx
Bin ich eigentlich der einzigste der den Preis der X800Pro im Vergleich zur 6800GT absolut überzogen findet?
ATI soll sich ja die Option noch freihalten, eine X800xt ohne "platinum Edition" auf den Markt zu bringen. Falls der X800pro viel Boden verliert, bringt imho eben ATI die "normale" X800xt mit weniger takt, aber mit 16Pipes auf den Markt. Die Preise des X800pros rutschen dann langsam runter.
robbitop
2004-05-13, 19:16:49
die Pro und die GT sind soziemlich gleichschnell.
Die Preise gehen iO.
Mehr als 399 würde ich für beide nicht ausgeben wollen. Aber im August sinds bestimmt schon >350EUR *hoffhoff*
Sphinx
2004-05-13, 22:13:07
Original geschrieben von dildo4u
Ja biste wo ist das problem hier stehen 16pipes bei 350mhz gegen 12 mit 475mhz und performance technisch is die X800pro auch ganz gut dabei besonders bei DX9 games aller Farcry
Leistungsmäßig(FPS) sogar teils mehr als die GF68ooUltra ! Im "nicht"Übertakteten Zustand...
[WEISSBIER]Moff
2004-05-13, 22:41:46
Allerdings würd' ich gerade bei Far Cry noch die nächsten paar Treiberversionen und dx9.0c abwarten.
Quasar
2004-05-14, 08:15:02
Ich würd' vor allem mal abwarten, wie sich die Preise gestalten werden. Launch-Preise sind sowas von für die Tonne - der Markt wird das schon regeln, wenn eines der Produkte leistungsmäßig deutliche besser als das andere sein sollte.
Die Leistung der GT sollte einfach auszurechnen sein: Ultra*0,875.
Von der Rohpower dürfte die GT auch besser mithalten können, denn auf dieselbe Pipeline-Anzahl gerechnet, hat die X800 nur 9MHz mehr, nicht 120MHz, wie bei den Großen.
Der Rest steht und fällt mit den Optmierungen - seien sie nun in Hardware gegossen oder in Software.
LovesuckZ
2004-05-14, 09:03:14
Original geschrieben von Sphinx
Leistungsmäßig(FPS) sogar teils mehr als die GF68ooUltra ! Im "nicht"Übertakteten Zustand...
Das schafft auch eine GT gegenüber einer XT, die ja gerade mal 175MHz (nen bissl weniger als 50%) Kerngeschwindigkeit weniger hat...
ShadowXX
2004-05-14, 10:14:39
Weiss eigentlich jemand, warum die 6800Ultra in dieser HDR "ribble"-Demo so viel langsamer als die x800xt ist??
(ca. 60FPS (nv40U) vs. ca. 130FPS (r420xt), beide mit 4xAA)
Bei den anderen Benches ala Shadermark & Co. liegen die beiden ja ziemlich gleichauf...
Quasar
2004-05-14, 10:19:56
Original geschrieben von ShadowXX
Weiss eigentlich jemand, warum die 6800Ultra in dieser HDR "ribble"-Demo so viel langsamer als die x800xt ist??
(ca. 60FPS (nv40U) vs. ca. 130FPS (r420xt), beide mit 4xAA)
Bei den anderen Benches ala Shadermark & Co. liegen die beiden ja ziemlich gleichauf...
Welche HDR? Und hast du einen Link dorthin?
edit:
Err.. hab' schon. Im Techreport, gell?
edit2:
DL-Link: http://www.daionet.gr.jp/~masa/archives/rthdribl_1_2.zip
ShadowXX
2004-05-14, 10:25:42
Original geschrieben von Quasar
Welche HDR? Und hast du einen Link dorthin?
Tests sind von Tech Report.
x800xt link: http://www.techreport.com/reviews/2004q2/radeon-x800/index.x?pg=27
6800U link: http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=27
Der nv40U ist zwar 2-3x schneller als die alte FX, aber gegen den XT sieht das richtig langsam aus....
Ich frage mich eben wieso, da sich die beiden sonst eigentlich nicht so viel nehmen...
Wenn man die beiden "ribble"-Ergebnisse allerdings gegeneinanderstellt, sieht es aus, als wenn der XT in einer anderen Klasse spielen würde...
//edit:
@Quasar:ja, die meine ich...du warst schneller als ich...aber so finden es auch andere relativ schnell
robbitop
2004-05-14, 10:27:39
afaik ist der R300 auf HDR ausgelegt, der NV40 muss das irgendwie emulieren. Ich weiss leider nix Genaueres. Aber die Sache wird eh nicht genutzt, bis auf diese eine Demo afair.
ShadowXX
2004-05-14, 10:29:28
Original geschrieben von robbitop
afaik ist der R300 auf HDR ausgelegt, der NV40 muss das irgendwie emulieren. Ich weiss leider nix Genaueres. Aber die Sache wird eh nicht genutzt, bis auf diese eine Demo afair.
???
ich dachte das der nv40 jetzt auch HDR (bzw. lt. 3DC eher MDR) beherrscht....
Oder funktioniert das nur mit den neuen 64Bit Framebuffer???
Quasar
2004-05-14, 10:46:12
In dem Environment habe ich ca. 72fps mit der X800 Pro. Auf die XT hochgerechnet dürften das eigentlich nicht viel mehr als 105-110fps sein.
edit:
Habe mir grad mal die shader.out angesehen...
Nein, Ahnung von Programmieren habe ich immer noch nicht, aber es sind für die kurze Demo eine Menge Shader - in etwa so viele wie bei HALO in einem Time-Demo Durchlauf. Allerdings hier durchgehend 2.0-Shader (wenn ich nichts übersehen habe). Die allermeisten tragen pp_hints, was dem NV40 eigentlich schmecken sollte, da sehr viele ebenfalls bis zu 7 ts deklarieren (ich nehme mal an, das sind die Temp-Register).
robbitop
2004-05-14, 11:31:38
nene wenn du den 64bit Framebuffer nutzt, geht MSAA nicht mehr.
Irgendwie ist der R300 hardwaretechnisch scheinbar ein paar Nummern besser auf HDR ausgelegt.
War wohl keine große Priorität bei der Entwicklung des NV40. Scheinbar nutzt es eh niemand.
ShadowXX
2004-05-14, 12:34:22
Original geschrieben von robbitop
nene wenn du den 64bit Framebuffer nutzt, geht MSAA nicht mehr.
Irgendwie ist der R300 hardwaretechnisch scheinbar ein paar Nummern besser auf HDR ausgelegt.
War wohl keine große Priorität bei der Entwicklung des NV40. Scheinbar nutzt es eh niemand.
Es war mehr darauf bezogen, ob das "neue" HDR beim nv40 nur mit dem 64Bit Framebuffer funktioniert...
Das MSAA mit dem 64Bit FB nicht funktioniert ist klar.
Man sollte es eher anders sehen: Diese HDR-IBL Demo ist auf die HDR-Fähigkeiten (sprich: Textur-/Rendertarget-Formate) des R300 ausgelegt. Insgesamt ist aber der NV40 wesentlich besser für HDR-Rendering geeignet.
robbitop
2004-05-14, 14:37:26
ahhh danke für die Info samX ;)
ShadowXX
2004-05-14, 14:37:30
Original geschrieben von Xmas
Man sollte es eher anders sehen: Diese HDR-IBL Demo ist auf die HDR-Fähigkeiten (sprich: Textur-/Rendertarget-Formate) des R300 ausgelegt. Insgesamt ist aber der NV40 wesentlich besser für HDR-Rendering geeignet.
ok....das macht sinn..Danke.
Vielleicht gibts vom gleichen Author ja noch mal eine HDR Demo für den nv40...
ShadowXX
2004-05-14, 15:57:09
Übrigens gibts jetzt schon 6800Ultras für ca. 471 Euronen.
http://www.geizhals.at/deutschland/a100577.html
Sind welche von Club3D....
ironMonkey
2004-05-14, 16:00:49
Naja, eher wie bei ATI, die Karten sind schon mit Endpreis gelistet, aber mehr auch nicht.
Gruß
robbitop
2004-05-14, 16:01:06
nicht lieferbar
BodyLove
2004-05-14, 16:34:15
Tja, langsam nervt es mich aber trotzdem. Der Preis ist interessant. Nur wird die Karte wohl erst mitte nächten Monats lieferbar sein. Ich glaube früher wird dies nicht realisiert.:(
Mr. Lolman
2004-05-14, 18:16:56
Original geschrieben von BodyLove
Tja, langsam nervt es mich aber trotzdem. Der Preis ist interessant.
Naja ob 900 Mark so einen interessanten Preis darstellen,...
LovesuckZ
2004-05-14, 18:18:53
Original geschrieben von Mr. Lolman
Naja ob 900 Mark so einen interessanten Preis darstellen,...
Es gab deutlich schlechtere Angebote das letzte Jahr. Und für die Leistung und den Features ist das ein vernünftiger Preis, wenn man ihn bereit ist zu bezahlen.
betasilie
2004-05-14, 18:27:22
Welche Features sind interesant? Kommst Du jetzt wieder mit dem SM3.0 Mist? :freak:
Quasar
2004-05-14, 18:32:58
Original geschrieben von betareverse
Welche Features sind interesant? Kommst Du jetzt wieder mit dem SM3.0 Mist? :freak:
:lol:
Ack!
Framerate is life!
BodyLove
2004-05-14, 18:52:44
Original geschrieben von betareverse
Welche Features sind interesant? Kommst Du jetzt wieder mit dem SM3.0 Mist? :freak:
Seien wir doch ehrlich. Imho war es unsinnig für die 9800xt 500€ zu blechen, obwohl die 9800Pro 300 kostete. Im Vergleich dazu, ist der X800xt/6800U billig. Zumindest weiss man, wohin das Geld fließt.
ironMonkey
2004-05-14, 18:59:39
Original geschrieben von Mr. Lolman
Naja ob 900 Mark so einen interessanten Preis darstellen,...
Das ist sehr günstig wenn man bedenkt das einige für eine Karte über 1000 Mark hingelegt haben bei der der Sprung nicht so groß war was Leistung betrifft auf das vorgänger Modell.
Features ala SM3.0 ist ja im gewissen Sinne ein MUSS da es ja auch andere haben/ haben werden und ATI beim nächsten Chip sicher auch, doch wenn es bei den jetzigen Chips so wichtig währe dann hätte ATI sich sicher dahinter geklemmt und es auch unterstützt, Grafik gibts derzeit mehr als genug in den aktuellen Spielen das einem die Kinnlade unten bleibt, nur das "Spiel an sich" fehlt.
Gruß
Original geschrieben von betareverse
Welche Features sind interesant? Kommst Du jetzt wieder mit dem SM3.0 Mist? :freak:
Ultrashadow 2
Original geschrieben von robbitop
nene wenn du den 64bit Framebuffer nutzt, geht MSAA nicht mehr.Wenn du auf eine Textur renderst, auch nicht, jedenfalls nicht auf dem R300 afiak.
Original geschrieben von robbitop
War wohl keine große Priorität bei der Entwicklung des NV40. Scheinbar nutzt es eh niemand. Ganz im Gegenteil. Nur nutzt rthdribl offenbar nicht die NV40-eigenen Features.
VooDoo7mx
2004-05-14, 19:56:45
Original geschrieben von betareverse
Welche Features sind interesant? Kommst Du jetzt wieder mit dem SM3.0 Mist? :freak:
Also ich wär für einen Strafpunkt...
ich würd n Fanboypunkt geben. Und zwar dir!! :P
ShadowXX
2004-05-14, 20:28:06
Original geschrieben von WEGA
Ultrashadow 2
Der Vin Diesel Film???? ;D ;D
Mal ernst....für das was der nv40 bietet und dafür, das es sogar ein "Vorbesteller"-Preis ist, ist sogar relativ Preiswert...
Man kann daraus fast schliessen, dass wenn die Karte erst mal breit verfügbar ist, man Sie vielleicht sogar in Regionen von 420-440 Euro kaufen kann...
Der Preiskampf wird diesmal wohl ziemlich Hart werden..
(Ehrlich gesagt hab ich 2 Sekunden lang mit dem Gedanken gespielt auf den bestellen Knopf zu drücken....dann hat allerdings meine Vernunft gesiegt, die mir sagte, ich solle doch erst mal Benches mit den Retail-Karten abwarten (mit "echten" Treibern und vielleicht dx9c))
MikBach
2004-05-14, 20:34:43
Original geschrieben von VooDoo7mx
Also ich wär für einen Strafpunkt...
Wieso das?
Ich sehe SM3.0 atm als ein Feature das man haben kann, aber nicht muss(als Gamer). Für Entwickler ist ein NV40 natürlich Pflicht. Ich will erstmal die performance vom SM3.0 auf dem NV40 sehen, bevor ich mich über das Featuer SM3.0 beim NV 40 freuen kann.
Nicht dass das noch so endet, dass der in der Theorie gewonnene Performancevorsprung des NV40 in der Praxis nicht umsetzbar ist, weil es irgendwelche Probleme gibt, wie z.B Treiber oder das Hardwaredesign an sich, was man auch mit dem Treiber nicht beheben kann(so etwas kann man bei neuen Technologien auch nicht ausschliessen, siehe CineFX).
Also mit dem Jubel über SM3.0 beim NV40 würde ich noch abwarten. An sich ist das SM3.0 aber ein gute Überleitung zu DXNext und SM4.0. Das wird die Revolution darstellen. *freu*
DanMan
2004-05-14, 20:35:57
Original geschrieben von ShadowXX
Der Preiskampf wird diesmal wohl ziemlich Hart werden..
Zurecht! Die Dinger kosten mittlerweile ja ein kleines Vermögen...
Winter[Raven]
2004-05-14, 21:16:25
Original geschrieben von betareverse
Welche Features sind interesant? Kommst Du jetzt wieder mit dem SM3.0 Mist? :freak:
Kommst du jetzt wieder mit dem 3dc Mist? :freak:
Wieso das?
Ich sehe SM3.0 atm als ein Feature das man haben kann, aber nicht muss(als Gamer). Für Entwickler ist ein NV40 natürlich Pflicht. Ich will erstmal die performance vom SM3.0 auf dem NV40 sehen, bevor ich mich über das Featuer SM3.0 beim NV 40 freuen kann.
Nicht dass das noch so endet, dass der in der Theorie gewonnene Performancevorsprung des NV40 in der Praxis nicht umsetzbar ist, weil es irgendwelche Probleme gibt, wie z.B Treiber oder das Hardwaredesign an sich, was man auch mit dem Treiber nicht beheben kann(so etwas kann man bei neuen Technologien auch nicht ausschliessen, siehe CineFX).
Also mit dem Jubel über SM3.0 beim NV40 würde ich noch abwarten. An sich ist das SM3.0 aber ein gute Überleitung zu DXNext und SM4.0. Das wird die Revolution darstellen. *freu
Wieso das?
Ich sehe 3dc atm als ein Feature das man haben kann, aber nicht muss(als Gamer). Für Entwickler ist ein NV40 natürlich Pflicht. Ich will erstmal die performance vom 3dc auf dem R420 sehen, bevor ich mich über das Featuer 3dc beim R420 freuen kann.
Nicht dass das noch so endet, dass der in der Theorie gewonnene Performancevorsprung des R420 in der Praxis nicht umsetzbar ist, weil es irgendwelche Probleme gibt, wie z.B Treiber oder das Hardwaredesign an sich, was man auch mit dem Treiber nicht beheben kann(so etwas kann man bei neuen Technologien auch nicht ausschliessen, siehe R3xx).
Also mit dem Jubel über 3dc beim R420 würde ich noch abwarten.
MikBach
2004-05-14, 21:22:59
Original geschrieben von Winter[Raven]
Kommst du jetzt wieder mit dem 3dc Mist? :freak:
Er hat SM3.0 nur nicht so gelobt wie du. Ich kann den ganzen SM3.0Hype auch nicht verstehen(mit Ausnahmen, die ich in meinem vorhergehendem Post erklärt habe).
Ich bin 3Dc gegenüber auch skeptisch, so lange die Praxistauglichkeit nicht bewiesen ist. Das bin ich beim SM3.0 aber auch.
Abwarten ist hier das Zauberwort.
betasilie
2004-05-14, 22:06:31
Mir geht es genauso, wie MikBach schon andeutete. SM3.0 ist eine schöne Sache, die man aber schlicht nicht haben muss. Wie hoch der Geschwindigkeitsboost wird, muss man von Spiel zu Spiel sehen. Dieser SM3.0 Hype, den LS immer wieder aufleben lassen will, um NV zu promoten, ist schlicht nur noch lächerlich. Aber das kennt man ja nicht anders.
3Dc ist auch eine schöne Sache, die wahrscheinlich visuelle Vorteile bringen wird, da demnächst wohl einige Spiele doppelt hoch aufgelöste Normalmaps via 3Dc anbieten werden, oder den entstanden Speicherplatz für Texturen nutzen werden. Das absolute Killerfeature ist 3Dc aber auch nicht, imo.
Original geschrieben von WEGA
Ultrashadow 2
Das könnte imho ein echter Pluspunkt für NV werden. Ich bin schon auf die DoomIII Benchmarks gespannt.
... Meiner Meinung nach sind NV40 und R420 auf einem ähnlichem Niveau. Man muss halt schauen welche Art von Spiele man bevorzugt und öfter spielt und dann schlicht nach Benchmarks kaufen.
HL2 wird mit ATI Karten besser laufen und DoomIII mit NV Karten. Den Rest der Nextgen-Games muss man mal abwarten.
Winter[Raven]
2004-05-14, 22:13:57
Original geschrieben von betareverse
Mir geht es genauso, wie MikBach schon andeutete. SM3.0 ist eine schöne Sache, die man aber schlicht nicht haben muss. Wie hoch der Geschwindigkeitsboost wird, muss man von Spiel zu Spiel sehen. Dieser SM3.0 Hype, den LS immer wieder aufleben lassen will, um NV zu promoten, ist schlicht nur noch lächerlich. Aber das kennt man ja nicht anders.
3Dc ist auch eine schöne Sache, die wahrscheinlich visuelle Vorteile bringen wird, da demnächst wohl einige Spiele doppelt hoch aufgelöste Normalmaps via 3Dc anbieten werden, oder den entstanden Speicherplatz für Texturen nutzen werden. Das absolute Killerfeature ist 3Dc aber auch nicht, imo.
Das könnte imho ein echter Pluspunkt für NV werden. Ich bin schon auf die DoomIII Benchmarks gespannt.
... Meiner Meinung nach sind NV40 und R420 auf einem ähnlichem Niveau. Man muss halt schauen welche Art von Spiele man bevorzugt und öfter spielt und dann schlicht nach Benchmarks kaufen.
HL2 wird mit ATI Karten besser laufen und DoomIII mit NV Karten. Den Rest der Nextgen-Games muss man mal abwarten.
1. Bullshit
2. Bullshit
3. Wusste ich garnicht, dass du ne Kristalkugel oder eine DOOM III Version mit R420 und NV40 hast um entscheiden zukönnen, ob die gleich auf sind oder nicht.
LovesuckZ
2004-05-14, 22:14:52
Original geschrieben von betareverse
Mir geht es genauso, wie MikBach schon andeutete. SM3.0 ist eine schöne Sache, die man aber schlicht nicht haben muss.
Ist gemerkt.
/edit: Achja, verzichte dann bitte aber auch Shader bzw. Anwendungen, welche über das Standard SM2.0 hinaus gehen.
Dieser SM3.0 Hype, den LS immer wieder aufleben lassen will, um NV zu promoten, ist schlicht nur noch lächerlich. Aber das kennt man ja nicht anders.
Weißt du, was laecherlich ist? Deine beleidigende Art gegenüber den Members, welche eine andere Meinung haben. Ich habe nirgends SM3.0 angesprochen, du versuchst aber gegen User zu bashen, weil du nicht diskussionsfaehig bist. Undja, ich nehme den Punkt gerne!
3Dc ist auch eine schöne Sache, die wahrscheinlich visuelle Vorteile bringen wird, da demnächst wohl einige Spiele doppelt hoch aufgelöste Normalmaps via 3Dc anbieten werden, oder den entstanden Speicherplatz für Texturen nutzen werden.
3Dc waere ebenso "eine schöne Sache, die man aber schlicht nicht haben muss", nach dir. Nunja, wahrscheinlich weil es von ATi kommt, ist es aber plotzlich nutzvoll...
MikBach
2004-05-14, 22:18:28
Original geschrieben von Winter[Raven]
1. Bullshit
2. Bullshit
Hehe, das reicht nicht. Das bitte erklären!!!
Ich sehe es genauso wie betareverse. :D
Das, was du da behauptest, kann ja jeder behaupten. LoL.
Mehr Details, bitte!!! :)
MikBach
2004-05-14, 22:29:34
Original geschrieben von LovesuckZ
Weißt du, was laecherlich ist? Deine beleidigende Art gegenüber den Members, welche eine andere Meinung haben. Ich habe nirgends SM3.0 angesprochen, du versuchst aber gegen User zu bashen, weil du nicht diskussionsfaehig bist. Undja, ich nehme den Punkt gerne!
Bleib mal auf dem Teppich, keiner wird hier Punkte vergeben, wenn wir vernünftig bleiben.
Deine Schallplatte von SM3.0 kenne ich aber auch, also tu nicht so scheinheilig. :D
Original geschrieben von LovesuckZ
3Dc waere ebenso "eine schöne Sache, die man aber schlicht nicht haben muss", nach dir. Nunja, wahrscheinlich weil es von ATi kommt, ist es aber plotzlich nutzvoll... :D
Nö, weil man nicht abschätzen kann, wie es sich entwickelt, genauso wie SM3.0.
BodyLove
2004-05-14, 22:31:02
Das ist doch alles eine Glaubensfrage. Irgendeine Firma muss die Innovation bringen. Die andere Firma kann sich dann aufs Speed konzentrieren. Das war immer so. Irgendwann ist ATI leid, als Technologiebremse beledigt zu werden, dass sie ein Chip herausbringen, welches mit viel Tech protzen kann. NV ist sich leid, immer beim Speed hinterher zu hinken, weshalb sie dann auf die Features verzichten. Und das geht immer so weiter.
Beta hat recht, wenn er sagt, dass SM3 jetzt nichts bringt. Und LS hat recht, wenn er sagt, dass ohne NV kein SM3 in Zukunft gebe. Bei euch beiden geht es nicht darum, welcher Chip besser ist. Ihr habt beide unterschiedliche Ansichten. Ihr müsst verstehen, dass der eine, dem anderen nichts beibringen kann (im weitesten Sinne). Somit haben beide recht. Keiner ist im Unrecht. Ich denke das gibt die momentane Lage wieder.
MadMan2k
2004-05-14, 22:34:20
zum Thema SM3.0 auf dem NV40 hat aths eigentlich alles kurz und knackig zusammengefasst:
Original geschrieben von aths
Noch mal zum mitmeißeln:
Für den NV40-Käufer bringt das, solange er den NV40 einsetzt, wenig bis gar nichts.
Da 3.0 auf dem Weg zu 4.0 liegt, gehen 3.0-Features in 4.0 mit ein. 3.0 als überflüssig wegdiskutieren zu wollen ist so ähnlich, wie den 1.4-er für unsinnig zu halten, nur weil er so selten eingesetzt wurde.
Soweit ich weiß, will XGI auch 3.0-compliant Karten bringen. Ehe es (eine relevante Zahl) 4.0-Spiele gibt, werden wohl noch viele Jahre ins Land ziehen. Aber auch wenn es schon 4.0-HW gibt, wird der Entwickler ja nicht daran gehindert, seine HLSL-Shader u. a. auch mit dem 3_0-Profil übersetzen zu lassen.
die Ausführlichere Fassung und warum Branching auf dem NV40 wenig bis gar nix bringt gibts hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=141450).
MikBach
2004-05-14, 22:47:28
Original geschrieben von MadMan2k
zum Thema SM3.0 auf dem NV40 hat aths eigentlich alles kurz und knackig zusammengefasst:
die Ausführlichere Fassung und warum Branching auf dem NV40 wenig bis gar nix bringt gibts hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=141450).
Ja, das stimmt, aber lass uns die Praxis abwarten. Ich habe schon einiges gehört, was nicht eingetreten ist, besonders bei Nvidia. Aber ich lasse mich gerne überraschenen.
Winter[Raven]
2004-05-14, 22:48:01
SM3.0 ist eine schöne Sache, die man aber schlicht nicht haben muss. Wie hoch der Geschwindigkeitsboost wird, muss man von Spiel zu Spiel sehen. Dieser SM3.0 Hype, den LS immer wieder aufleben lassen will, um NV zu promoten, ist schlicht nur noch lächerlich. Aber das kennt man ja nicht anders.
3Dc ist auch eine schöne Sache, die wahrscheinlich visuelle Vorteile bringen wird, da demnächst wohl einige Spiele doppelt hoch aufgelöste Normalmaps via 3Dc anbieten werden, oder den entstanden Speicherplatz für Texturen nutzen werden. Das absolute Killerfeature ist 3Dc aber auch nicht, imo.
Dann brauchen wir ATI's 3dc schlicht und einfach auch nicht. Was lächerlich ist deine Einstellung zu Features die nicht von ATI kommen.
Visuelle Vorteile? Kann ich auch im nicht Komprimiertem Format haben, solange ich den nötigen Ram habe :P. Was man bei Shadern 3.0 aber nicht behaupten kann.
Mehr Shaderanweisungen --> bringt visuelle Vorteile, und als Bonus bekommt man einen Boost was 2.0 Shader angeht :P
MikBach
2004-05-14, 22:52:59
Original geschrieben von Winter[Raven]
Dann brauchen wir ATI's 3dc schlicht und einfach auch nicht. Was lächerlich ist deine Einstellung zu Features die nicht von ATI kommen.
Visuelle Vorteile? Kann ich auch im nicht Komprimiertem Format haben, solange ich den nötigen Ram habe :P. Was man bei Shadern 3.0 aber nicht behaupten kann.
Mehr Shaderanweisungen --> bringt visuelle Vorteile, und als Bonus bekommt man einen Boost was 2.0 Shader angeht :P
Nach deinen Smiles zu urtielen, kann ich verstehen, dass du bisschen verärgert bist. Visuelle Vorteile kann imho 3Dc schneller bringen als das SM3.0.
Aber SM3.0 ist fortschrittlicher, das will keiner abstreiten.
NUr ist der NV40 wirklich fähig dazu?
Winter[Raven]
2004-05-14, 23:02:44
Nach deinen Smiles zu urtielen, kann ich verstehen, dass du bisschen verärgert bist. Visuelle Vorteile kann imho 3Dc schneller bringen als das SM3.0.
Ja, ich bin verärgert. Es waren die selben Leute die meinten man würde das Scheiß AF von ATI in der R3xx Reihe nicht sehn, man hat alles schön geredet, und im gleichem Atemzug hat man das NV's AF heruntergespielt.
Jetzt macht man doch nichts anderes, den man kann wender an Nv's AF noch am AA was aussetzen, also sind jetzt die Features dran.
Schneller bringen? Sagt wer? Laut Demirug sieht es derzeit nach "Mehr Arbeit" für 3dc aus. Den das Shader 3.0 Paket hat derzeit für mich persönlich das bessere Preis/Vorteil Verhältniss.
Das werden wir mit DX9.0c rausfinden. Ich kann mir einfach nicht vortellen, dass Nvidia ihr Shader 3.0 Paket so propagieren würde, wenn es sogut wie nix bringt.
betasilie
2004-05-14, 23:09:35
Original geschrieben von BodyLove
Beta hat recht, wenn er sagt, dass SM3 jetzt nichts bringt. Und LS hat recht, wenn er sagt, dass ohne NV kein SM3 in Zukunft gebe. Bei euch beiden geht es nicht darum, welcher Chip besser ist. Ihr habt beide unterschiedliche Ansichten. Ihr müsst verstehen, dass der eine, dem anderen nichts beibringen kann (im weitesten Sinne). Somit haben beide recht. Keiner ist im Unrecht. Ich denke das gibt die momentane Lage wieder.
Und ich sage auch immer, dass ich die Pioneerarbeit von NV in Sachen SM3.0 schätze. Und wenn NV dann beim NV50 einen Vorteil hat gegenüber dem R500, weil sie mehr Erfahrung bei SM3.0 sammeln konnten mit dem NV40, dann wäre ihnen der Erfolg auch zu gönnen.
Nur das hat alles nix mit den SM3.0 des NV40 zu tun, die sicherlich nie eingesetzt werden um Grafikeffekte zu produzieren, die ein R420 nicht darstellen kann. 3Dc sehr wohl, zumindest bei den Spielen, die es unterstützen werden, und das sind nicht wenige.
Im übrigen weiß ich noch nicht welche Karte ich mir kaufe. Wenn ich in 2-3 Monaten zugreifen werde, kann das eine X800XT oder aber auch eine 6800Ultra sein. Da bin ich völlig offen und warte auf Benchmarks von HL2 und DoomIII. Außerdem interessiert es mich, wie sich die Treiber von ATI und NV entwickeln werden.
Die Leute die mich einen Fanboy nennen, sollten sich mal an die eigene nase Fassen. Nur weil ich diesen scheiß Hype um SM3.0 nicht unterstütze, weil es dem Gamer schlicht nix bringt, bin ich noch lange kein Fanboy. Aber wer es nötig hat Leute die NV nicht hypen wollen als ATI Fanboy zu diffamieren, der hat wohl seine Gründe solche Filme zu fahren. :sick:
MikBach
2004-05-14, 23:09:57
Original geschrieben von Winter[Raven]
Ja, ich bin verärgert. Es waren die selben Leute die meinten man würde das Scheiß AF von ATI in der R3xx Reihe nicht sehn, man hat alles schön geredet, und im gleichem Atemzug hat man das NV's AF heruntergespielt.
Jetzt macht man doch nichts anderes, den man kann wender an Nv's AF noch am AA was aussetzen, also sind jetzt die Features dran.
Schneller bringen? Sagt wer? Laut Demirug sieht es derzeit nach "Mehr Arbeit" für 3dc aus. Den das Shader 3.0 Paket hat derzeit für mich persönlich das bessere Preis/Vorteil Verhältniss.
Lol.
Warum zitierst du nicht meine ersten 2 Zeilen, und nimmst Stellung dazu?
Demi ist ganz in Ordnung, aber eine Glasskugel hat er auch nicht.
Wer weiss schon, ob der NV40 5 oder 7 Takte braucht(beim Brancinig)? DU?
Dann bitte eine Erklärung dazu, da werden wir alle schlauer.
Wenn du nichts neues beizutragen hast, da besser nichts posten, als irgendein Müll.
Winter[Raven]
2004-05-14, 23:24:05
Demi ist ganz in Ordnung, aber eine Glasskugel hat er auch nicht.
Wer weiss schon, ob der NV40 5 oder 7 Takte braucht(beim Brancinig)? DU?
1. Demirug besitzt vielleicht keine Glasskugel, aber er ist Programmierer und er kann sehr wohl abschätzen was mehr mehr bringt fürs Geld.
2. Wenn Nvidia ihre 3.0 HW richtig eingebaut hat, kann diese nicht langsammer sein als die 2.0 HW. Ehe schneller.
betasilie
2004-05-14, 23:28:26
Original geschrieben von Winter[Raven]
2. Wenn Nvidia ihre 3.0 HW richtig eingebaut hat, kann diese nicht langsammer sein als die 2.0 HW. Ehe schneller.
Da sieht man mal wieder wie kompetent Du bist. Der Techlevel hat überhaupt nix mit Geschwindiglkeit zu tun.
MikBach
2004-05-14, 23:29:30
Original geschrieben von Winter[Raven]
1. Demirug besitzt vielleicht keine Glasskugel, aber er ist Programmierer und er kann sehr wohl abschätzen was mehr mehr bringt fürs Geld.
2. Wenn Nvidia ihre 3.0 HW richtig eingebaut hat, kann diese nicht langsammer sein als die 2.0 HW. Ehe schneller.
Ja und?:???:
Imo sind die Spiele eh PS-limitiert. Mit VS-Power kann man da nicht viel erreichen. Verstehst du was ich meine, oder bedarf meine Aussage einer Erklärung? :D
ironMonkey
2004-05-15, 00:08:30
Original geschrieben von Winter[Raven]
1. Demirug besitzt vielleicht keine Glasskugel, aber er ist Programmierer und er kann sehr wohl abschätzen was mehr mehr bringt fürs Geld.
2. Wenn Nvidia ihre 3.0 HW richtig eingebaut hat, kann diese nicht langsammer sein als die 2.0 HW. Ehe schneller.
Nix gegen Demirug aber man muss kein Programmierer sein um zu wissen was mehr fürs Geld bringt, das ist Marketing( SM3.0 ist das eine , Firmen an Land ziehen die es nutzen was anderes)und von dem lässt du dich grad an der Nase rumführen zumal zwischen Theorie und Praxis nicht selten Welten liegen.
Gruß
Demirug
2004-05-15, 01:50:10
Inzwischen hat sich nVidia ja ein bischen was aus der Nase ziehen lassen.
- statisches Branching ist "4free" weil im Zweifelsfall der Treiber den Shader aufrollt und dadurch in einen Shader ohne Branches verwandelt.
- dynamisches Branchoperationen haben eine Latenz von 2. Für ein einfaches WENN-DANN braucht man zwei Ops (also eine Latenz von 4) für ein vollständiges WENN DANN SONST sind es 3 Ops (Latenz = 6). Das stellt nun leider nicht das optimum für eine PS 3.0 Hardware dar. Unklar ist allerdings noch ob der Pixelprozessor neben einer Branchoperation auch noch etwas anderes im gleichen Takt erledigen kann. Es gibt da leider etwas wiedersprüchliche Aussagen dazu. Aber selbst wenn ein Branchbefehl exclusiv die Pipeline belegt ist das ganze immer noch zu gebrauchen. Allerdings nur wenn die zu überspringenden Blöcke mehr Takte benötigen als durch die Branchbefehle an latenz hinzukommt.
SM3 jetzt aber nur auf die Pixelshader zu reduzieren halte ich für etwas engstirnig.
Gibt es doch noch zwei andere sehr interesante Dinge im SM3.
Auf der einen Seite haben wir da noch das Vertextexturing das sich beim NV40 primär dazu nutzten lässt Physikberechnungen (Oberflächenbewegungen, Partikel) von der CPU auf die GPU zu verlagern.
Die zweite Funktion erlaubt es schnell mehrfach das gleiche Objekte zu rendern. Wobei jedes Objekt noch gewiesse individuelle mekrmale haben darf. Das wichtigste ist dabei natürlich die Position. Sehr praktisch wenn man schnell einen Wald rendern will oder sich in einem Strategiespiel mehrfach die gleichen Einheitentypen auf dem Bildschirm befinden. Der wichtigste Punkt dabei ist aber das die CPU das ganze für alle Objekte vom gleichen Typ mit nur einem Aufruf anstossen kann. Das stellt eine grosse Einsparung an CPU Leistung dar.
DanMan
2004-05-15, 01:57:03
Seid ihr diese nervige Henne <-> Ei Diskussion nicht langsam selber leid? Ihr dreht euch hier ständig im Kreis.
Weder zu 3dc noch zu SM3.0 kann man etwas sagen bis es erste Spiele dazu im Laden gibt. Also mal die Füße still halten und abwarten.
Meine persönliche Meinung verkneif ich mir um die Diskussion nicht noch mehr anzuheizen.
In Bezug auf Demirugs Post:
Gerade die 2. Funktion finde ich sehr interessant. Wenn ich es nicht besser wüsste, würde ich sagen, dass das der Grund für die überragende Leistung des NV40 in Spellforce ist. :D
betasilie
2004-05-15, 02:19:39
Original geschrieben von Demirug
Auf der einen Seite haben wir da noch das Vertextexturing das sich beim NV40 primär dazu nutzten lässt Physikberechnungen (Oberflächenbewegungen, Partikel) von der CPU auf die GPU zu verlagern.
Die Frage ist wie performant das ganze ist.
Original geschrieben von Demirug
Die zweite Funktion erlaubt es schnell mehrfach das gleiche Objekte zu rendern. Wobei jedes Objekt noch gewiesse individuelle mekrmale haben darf. Das wichtigste ist dabei natürlich die Position. Sehr praktisch wenn man schnell einen Wald rendern will oder sich in einem Strategiespiel mehrfach die gleichen Einheitentypen auf dem Bildschirm befinden. Der wichtigste Punkt dabei ist aber das die CPU das ganze für alle Objekte vom gleichen Typ mit nur einem Aufruf anstossen kann. Das stellt eine grosse Einsparung an CPU Leistung dar.
Das hört sich verdammt interessant an! Wie wahrscheinlich ist, dass sowas in nächster Zeit eingesetzt wird?
Quasar
2004-05-15, 02:26:48
Original geschrieben von betareverse
Die Frage ist wie performant das ganze ist.
Das hört sich verdammt interessant an! Wie wahrscheinlich ist, dass sowas in nächster Zeit eingesetzt wird?
a) 60fps
b) ?
DanMan
2004-05-15, 02:29:33
Original geschrieben von betareverse
Das hört sich verdammt interessant an! Wie wahrscheinlich ist, dass sowas in nächster Zeit eingesetzt wird?
Nanana! Wer hat sich denn da nicht ausreichend informiert? ;)
Zur Frage: denkbar wäre, dass man das in FarCry für die Flora und Fauna gebrauchen könnte (soll ja bald nen SM3.0 Patch bekommen).
betasilie
2004-05-15, 02:39:07
Original geschrieben von DanMan
Nanana! Wer hat sich denn da nicht ausreichend informiert? ;)
Zur Frage: denkbar wäre, dass man das in FarCry für die Flora und Fauna gebrauchen könnte (soll ja bald nen SM3.0 Patch bekommen).
Denkbar wäre vieles, aber gerade bei FC würde das wegen dem LOD vielleicht nicht so,leicht machbar sein.
Mich interessiert, was Demirug meint bzgl. der Nutzung in kommenden Spielen.
Ich könnte mir vorstellen, dass dieses Feature Probleme macht mit der Abwärtskompatiblität.
betasilie
2004-05-15, 02:39:57
Original geschrieben von Quasar
a) 60fps
b) ?
a) 60fps ?
b) ?
Quasar
2004-05-15, 02:47:02
a) so performant ist das Ganze
b) tja, keine Ahnung. Bin etwas raus aus dem Spiele-Entwickeln. ;)
DanMan
2004-05-15, 02:51:41
Original geschrieben von betareverse Ich könnte mir vorstellen, dass dieses Feature Probleme macht mit der Abwärtskompatiblität.
Hö? Entweder es wird SM3 unterstützt oder nicht. Wo soll da das Kompatibilitätsproblem herkommen?
http://www.nvnews.net/previews/geforce_6800_ultra/page_3.shtml
Ganz unten stehts nochmal knapp erläutert (nicht nur/unbedingt für dich).
LovesuckZ
2004-05-15, 08:51:09
Original geschrieben von betareverse
Nur weil ich diesen scheiß Hype um SM3.0 nicht unterstütze, weil es dem Gamer schlicht nix bringt, bin ich noch lange kein Fanboy.
Du unterstuetzt aber dem Hype um 3Dc durch Argumente, die ebenfalls beim SM3.0 gelten koennen. Du widersprichst dich in dieser Diskussions in einer Reihe. Du versuchst dich dauernd als "objektiv" darstellen, bist es aber nicht und fängst an Leute einfach mal so zu beleidigen (siehe vorige Seite).
Aber wer es nötig hat Leute die NV nicht hypen wollen als ATI Fanboy zu diffamieren, der hat wohl seine Gründe solche Filme zu fahren. :sick:
Weißt du, wenn du zum Beispiel wie aths wärst, der auch ATi kritisiert, dann koennte man das noch sagen: Okay, er ist neutral. Aber wer so penetrant gegen das SM3.0 vorgeht und die selben Gegenargumente aufmal für 3Dc verwendet, muss sich diesen Vorwurf gefallen lassen.
@ BodyLove
Ich habe mich nie gegen 3Dc ausgesprochen. Im Gegensatz zu andere, die SM3.0 (ein featurepaket) als "nutzlos" deklarieren, finde ich, ist 3Dc genauso sinnvoll.
ice cool69
2004-05-15, 09:19:10
Er kann doch der Meinung sein dass 3Dc mehr bringt als SM3 ohne als ATI-Fanboy abgestempelt zu werden, ich verbiete auch niemandem der Meinung zu sein SM3 bringt realere Vorteile als 3Dc.
Ich glaube jedenfalls dass SM3 in der ersten Generation nicht viel bringen wird, gerade die Featueres wie Physik und Partikel in der GPU sind absolut genial und hoch interessant, sie werden aber zu Lebzeiten des NV40 nicht einsetzbar sein da zu langsam.
tRpii
2004-05-15, 10:24:04
Hier mal FarCry auf nem 6800 mit PS3.0/VS3.0..
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=5855
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=5854
original thread (http://www.nvnews.net/vbulletin/showthread.php?t=28772)
soll bei 1280x1024, 4x AA, 1xAF mit ca. 25 FPS gelaufen sein.. [nen video wird evtl. später soll laut dem typ nochn folgen..
ShadowXX
2004-05-15, 11:43:02
Original geschrieben von tRpii
Hier mal FarCry auf nem 6800 mit PS3.0/VS3.0..
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=5855
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=5854
original thread (http://www.nvnews.net/vbulletin/showthread.php?t=28772)
soll bei 1280x1024, 4x AA, 1xAF mit ca. 25 FPS gelaufen sein.. [nen video wird evtl. später soll laut dem typ nochn folgen..
Falls die Pics echt sind (und so scheint es zumindest), dann gibts doch einen "kleinen" visuellen Unterschied zwischen den PS2.0 und den PS3.0 Shadern....
Hmmm....scheint allerdings auch ganz gut auf die Performance zu gehen...
MikBach
2004-05-15, 11:50:46
Original geschrieben von ShadowXX
Falls die Pics echt sind (und so scheint es zumindest), dann gibts doch einen "kleinen" visuellen Unterschied zwischen den PS2.0 und den PS3.0 Shadern....
Hmmm....scheint allerdings auch ganz gut auf die Performance zu gehen...
Ack.
Bei 1280x1024 mit 4xAA und ohne AF nur 25 fps. Mit vollem AF wären es bestimmt 15 fps. ;D Das ist doch bisschen mager.
Aber die Pics sehen toll aus. *staun*
ice cool69
2004-05-15, 12:11:10
Es gibt KEINEN visuellen Unterschied zwischen Shader 3 und 2!!!
Die gleiche Qualität ist auch bei Shadern 2.0 möglich, das wurde von den Entwicklern immer wieder betont, ich hoffe doch sehr dass der Patch auch für die X800XT gebaut wurde.
Solche Texturen sind für ATI mit dem R420 eine winzige Kleinigkeit dank 3Dc.
LovesuckZ
2004-05-15, 12:39:16
Original geschrieben von ice cool69
Die gleiche Qualität ist auch bei Shadern 2.0 möglich, das wurde von den Entwicklern immer wieder betont, ich hoffe doch sehr dass der Patch auch für die X800XT gebaut wurde.
Das geht sogar alles mit einer CPU.
Koennen wir dies endlich mal sein lassen? Oder wollt ihr euren baldigen Fehlkauf rechtfertigen?
Man koennte genauso 3Dc "wegreden", da auch alles mit 512MB oder DXT5 geht...
Solche Texturen sind für ATI mit dem R420 eine winzige Kleinigkeit dank 3Dc.
:???: 3Dc erzeugt keine "Texturen"...
dildo4u
2004-05-15, 12:41:03
Original geschrieben von LovesuckZ
Das geht sogar alles mit einer CPU.
Koennen wir dies endlich mal sein lassen? Oder wollt ihr euren baldigen Fehlkauf rechtfertigen?
Man koennte genauso 3Dc "wegreden", da auch alles mit 512MB oder DXT5 geht...
:???: 3Dc erzeugt keine "Texturen"...
naja ein bissel aggresiv findest du nicht eine X800XT als fehlkauf zu bezeichnen
Lustiger Troll
2004-05-15, 12:42:13
Original geschrieben von ice cool69
Es gibt KEINEN visuellen Unterschied zwischen Shader 3 und 2!!!
Die gleiche Qualität ist auch bei Shadern 2.0 möglich, das wurde von den Entwicklern immer wieder betont, ich hoffe doch sehr dass der Patch auch für die X800XT gebaut wurde.
Solche Texturen sind für ATI mit dem R420 eine winzige Kleinigkeit dank 3Dc.
Wenn es auf der 6800U schon nur mit 25 FPS läuft, hat es wohl auf der R420 so um die 5 FPS, das macht dann richtig Spass und du kannst dann deine Freunde einladen und ihnen eine Diashow von deinem Urlaub auf der Far Cry Insel zeigen ;). Was du über die Texturen sagt, kommentiere ich mal nicht, schade hab ich schon eine Sig. Ich sag nur mal 3dc bringt KEINEN visuellen unterschied.
LovesuckZ
2004-05-15, 12:43:34
Original geschrieben von dildo4u
naja ein bissel aggresiv findest du nicht eine X800XT als fehlkauf zu bezeichnen
Irgendwoher muss ja dieser "Hass" auf das SM3.0 von einigen kommen.
Ich meine, warum wird die selbe Argumentation, die viele gegen das SM3.0 anwenden, nicht auch gegen 3Dc benutzt?
dildo4u
2004-05-15, 12:44:02
Original geschrieben von Lustiger Troll
Wenn es auf der 6800U schon nur mit 25 FPS läuft, hat es wohl auf der R420 so um die 5 FPS, das macht dann richtig Spass und du kannst dann deine Freunde einladen und ihnen eine Diashow von deinem Urlaub auf der Far Cry Insel zeigen ;). Was du über die Texturen sagt, kommentiere ich mal nicht, schade hab ich schon eine Sig. Ich sag nur mal 3dc bringt KEINEN visuellen unterschied. was zu beweise wäre getestet hat das noch niemand
Lustiger Troll
2004-05-15, 12:47:26
Original geschrieben von dildo4u
was zu beweise wäre getestet hat das noch niemand
Beweiss du mir erst mal das es keinen Visuellen unterschied zwischen SM3.0 und SM2.0 gibt, aber 3dc MUSS ja gut sein denn es kommt von ATI, SM3.0 KANN nix bringen, es ist ja nur von NV.
Winter[Raven]
2004-05-15, 12:49:07
Original geschrieben von dildo4u
was zu beweise wäre getestet hat das noch niemand
du bist also der Meinung durch eine CPU Emulation soll es schneller laufen als auf dem NV40?:bonk:
Ich will nicht wissen was du Nachts träums ... :|
Es gibt KEINEN visuellen Unterschied zwischen Shader 3 und 2!!!
:bonk:
Vielleicht sollten einige endlich anfangen richtig zulesen. Es gibt nicht nur einen performance Unterschied sonadern auch einen visuellen Unterschied. Ob der NV40 diese nun schnell oder langsamm berechnen kann spiel keine Rolle.
Schau dir Nalu und Ruby an, wer siet durch die 3.0 Shader besser aus?
dildo4u
2004-05-15, 12:52:20
Original geschrieben von Winter[Raven]
du bist also der Meinung durch eine CPU Emulation soll es schneller laufen als auf dem NV40?:bonk:
Ich will nicht wissen was du Nachts träums ... :| wiso? man kann den tollen 3.0 effekt doch auf mehrer PS2.0 shader aufteilen dann musst der R420 zwar vieleicht 2mal rendern aber ob das nun viel langsammer ist als beim NV40 glaub ich nicht da der R420 bei PS2.0 bei FC doch überlegen ist
Original geschrieben von dildo4u
wiso? man kann den tollen 3.0 effekt doch auf mehrer PS2.0 shader aufteilen dann musst der R420 zwar vieleicht 2mal rendern aber ob das nun viel langsammer ist als beim NV40 glaub ich nicht da der R420 bei PS2.0 bei FC doch überlegen ist
Der R420 kann kein FP32. Schon allein deshalb kann er nicht die geforderte SM3.0 Qualität bieten.
Allein das reicht schon ohne nähere Shaderanalyse.
SM3.0 > SM2.0 so sieht die Sache aus.
Lustiger Troll
2004-05-15, 12:57:12
Original geschrieben von dildo4u
wiso? man kann den tollen 3.0 effekt doch auf mehrer PS2.0 shader aufteilen dann musst der R420 zwar vieleicht 2mal rendern aber ob das nun viel langsammer ist als beim NV40 glaub ich nicht da der R420 bei PS2.0 bei FC doch überlegen ist
Die Benchmarks für FC kannst du in die Tonne kloppen! Und du bist der Meinung das wenn man was 2 mal rendern muss ist das schneller als wenn man es nur einmal Rendeert? Das Träumst du also in der Nacht.
dildo4u
2004-05-15, 12:58:16
Original geschrieben von Lustiger Troll
Die Benchmarks für FC kannst du in die Tonne kloppen! Und du bist der Meinung das wenn man was 2 mal rendern muss ist das schneller als wenn man es nur einmal Rendeert? Das Träumst du also in der Nacht. ich hab gesagt das es whol nicht viel langsammer ist als der NV40 ich hab nicht gesagt das es schneller ist und slebt wenn wenn der NV40 dann gard noch 1024*768 mit 4XAA schafft und dam mirckrige 25fps rauskommen bringt das rein gar nix dann zock ich lieber mit ein paar weniger effekten dafür aber mit 50fps
Winter[Raven]
2004-05-15, 12:58:33
Original geschrieben von dildo4u
wiso? man kann den tollen 3.0 effekt doch auf mehrer PS2.0 shader aufteilen dann musst der R420 zwar vieleicht 2mal rendern aber ob das nun viel langsammer ist als beim NV40 glaub ich nicht da der R420 bei PS2.0 bei FC doch überlegen ist
Das du mal wieder auf Far Cry pochst war mir klar, leider sind die Benches bis zum DX9.0c release für die Tonne. Es werden Äpfel gegen Birnen verglichen.
dildo4u
2004-05-15, 13:01:00
Original geschrieben von Winter[Raven]
Das du mal wieder auf Far Cry pochst war mir klar, leider sind die Benches bis zum DX9.0c release für die Tonne. Es werden Äpfel gegen Birnen verglichen. und danach immer noch wenn der NV40 dann mit PS3.0Läuft
Lustiger Troll
2004-05-15, 13:02:42
Original geschrieben von dildo4u
und danach immer noch wenn der NV40 dann mit PS3.0Läuft
Wieso das, der R420 kann ja deiner Meinung auch alles darstellen was der NV40 kann?
dildo4u
2004-05-15, 13:04:29
Original geschrieben von Lustiger Troll
Wieso das, der R420 kann ja deiner Meinung auch alles darstellen was der NV40 kann? naj ich sag nur das es möglich aber es wird whol nicht programmiert fest steht nur das whol auch mit DX9.0C dann immer noch kein vergleich möglich ist ausser man kann dann beim NV40 zwischen PS2.0 und 3.0 wählen
ice cool69
2004-05-15, 13:06:19
Es gibt keinen visuellen Unterschied zwischen S2 und S3 und da die Geforce in Far Cry und bei hohen Auflösungen von der Radeon geradezu versägt wird kann sie nicht alleine durch Shader 3.0 100% der Leistung wettmachen, das ist schwachsinnig.
Ich gehe jede Wette ein dass die gleiche Qualität auf ner X800XT möglich ist und es auf dieser mit mehr als 25 FPS läuft.
Außerdem solltet ihr mit den persönlichen Angriffen aufhören, es ist absolut erlaubt einen Hersteller zu bashen, herumzuflamen etc., persönliche Angriffe sind aber gegen einzelne Personen gerichtet und in diesem Forum verboten!!!
Lustiger Troll
2004-05-15, 13:07:42
Original geschrieben von dildo4u
naj ich sag nur das es möglich aber es wird whol nicht programmiert fest steht nur das whol auch mit DX9.0C dann immer noch kein vergleich möglich ist ausser man kann dann beim NV40 zwischen PS2.0 und 3.0 wählen
Ich verstehe dich immer noch nicht, zum einten sagt ihr es gibt keinen Visuellen unterschied, zum anderen behauptest du jettzt man soll doch von SM3.0 auf SM2.0 umschalten können.
Lustiger Troll
2004-05-15, 13:12:50
Original geschrieben von ice cool69
Es gibt keinen visuellen Unterschied zwischen S2 und S3 und da die Geforce in Far Cry und bei hohen Auflösungen von der Radeon geradezu versägt wird kann sie nicht alleine durch Shader 3.0 100% der Leistung wettmachen, das ist schwachsinnig.
Ich gehe jede Wette ein dass die gleiche Qualität auf ner X800XT möglich ist und es auf dieser mit mehr als 25 FPS läuft.
Du hast aber schon mitbekommen das NV noch arge Treiberprobleme in FC hat? Du bist auch der Meinung das etwas CPU generiertes schneller ist als wenn es auf einer speziel dafür Konzipierten GPU läuft? Sei bitte realistisch. Lassen wir mal von FC ab, da die Benches nichts sagen, die Treiber sind noch Buggy, es gibt keinen Pfad für den NV40 usw usw...
ice cool69
2004-05-15, 13:19:44
Er meint es gibt keine Vergleichmöglichkeit wie der Performanceunterschied ist wenn die gleiche Qualität auf 3er oder 2er-Shader läuft, da man zwischen diesen beiden Modi nicht umschalten wird können.
Das Spiel läuft ja nicht plötzlich nur noch auf der CPU ab, es handelt sih um einen sehr kleinen Anteil den der NV40 in GPU an Physikberechnung/Partikeleffekten übernehmen kann.
Dazu 2 Sachen:
1. Man weiß nicht wieviel das in Far Cry ist bzw. ob überhaupt etwas im NV40 berechnet wird was der X800XT nicht könnte (Physik oder was weiß ich)
2. Mit einer starken CPU wäre wohl selbst ein hoher Anteil wettzumachen:
Hierbei möchte ich auf die gute alte Geforce1 verweisen. Die T&L Engine wurde groß angepriesen und war ja auch eine "spezialisierte Einheit" bei der doch keiner ernsthaft glauben konnte dass das eine CPU besser könnte.
Ich finde aus der Vergangenheit kann man sehr viel lernen ;)
tRpii
2004-05-15, 13:21:16
Ich kann mir schon vorstellen das Crytek ein paar Shader etwas verändert und somit dann zeigen will "hey schaut, so sieht es mit SM3.0 aus". Denn wenn das mit der Performance stimmt dann können sie diese absolut nicht vermarkten da 25 fps bei der auflösung etc. einfach "nichts" ist.
Ansonsten bleibt es einfach mal abzuwarten ob SM3.0 oder 3Dc irgendetwas (in der nächsten Zeit) bringt. Ich persönlich finde dass 3Dc bis auf in ein paar Spielen nicht großartig zum einsatz kommen wird, dagegen SM3.0 schon aber auch erst nächstes jahr. Performancetechnisch wird der NV40 vielleicht etwas zulegen (mit D9.0c) und etwas an den X800XT kommen (in Hohen Auflösungen) aber der X800XT wird meinstens (ausser OGL) vorn bleiben.
jm2c
betasilie
2004-05-15, 13:21:59
Original geschrieben von DanMan
Hö? Entweder es wird SM3 unterstützt oder nicht. Wo soll da das Kompatibilitätsproblem herkommen?
Nun, wenn diese Technik erst ausreichend schnell mit VS3.0 performt und in der praxis garnicht von der CPU emulierbar ist, dann hätte man ein Problem. Wenn Du ein Haufen Objekte so generieren lassen würdest, dann würde das nur mit VS3.0 funktionieren und auf andere Hardware quasi garnicht. Daher meine Frage, wie leicht so ein Feature optional integrierbar ist und wie performant ist der NV40 in dieser Hinsicht in der Spielepraxis.
Original geschrieben von LovesuckZ
Weißt du, wenn du zum Beispiel wie aths wärst, der auch ATi kritisiert, dann koennte man das noch sagen: Okay, er ist neutral. Aber wer so penetrant gegen das SM3.0 vorgeht und die selben Gegenargumente aufmal für 3Dc verwendet, muss sich diesen Vorwurf gefallen lassen.
Dass ich dir diese flache Polemik durchgehen lasse, hättest Du wohl gerne.
Ich kann auch neutral sein, wenn ich SM3.0 beim NV40 für unwichtig halte und 3Dc zu bevorzuge, da es imo schon in diesem Jahr mehrer Spiele gibt, die es nutzen werden und somit, im Gegensatz zu SM3.0, sichtbare Unterschiede geben wird. ... Und das Thema hatten wir schon so oft, aber Du musst ja immer wieder mit der gleichen Laier anfangen. :kotz:
Für mich steht Ultrashadow2 als NV40-Feature gegen 3Dc. Das sind Technologien, von denen man zu Lebzeiten der Karten auch was haben wird.
Und alles was Demirug so positives über die VS3.0 sagt ist schön, aber Demi ist da als Entwickler imho manchmal etwas technophil ;). Mich würde interessieren, welche VS3.0 Feature seiner Meinung nach auch in den nächsten 12-18 Monaten in Spielen zu sehen sein werden und ob der NV40 schnell genug ist diese VS3.0-Feature auch wirklich als Performceplus in Spielen einzusetzen. Ein Grafikdemo und ein Spiel sind immer zwei paar Schuhe.
dildo4u
2004-05-15, 13:22:05
Original geschrieben von Lustiger Troll
Ich verstehe dich immer noch nicht, zum einten sagt ihr es gibt keinen Visuellen unterschied, zum anderen behauptest du jettzt man soll doch von SM3.0 auf SM2.0 umschalten können. naja jeder sagt wir müsse auf DX9.0C warte erst dann geht der NV40 richtig oder wie auch immer aber mit PS3.0 effekten ist er ja langsammer als mit PS2.0 also würde dann der R420 wieder alle benches gewinnen
betasilie
2004-05-15, 13:23:57
Original geschrieben von Winter[Raven]
Es werden Äpfel gegen Birnen verglichen.
:jedifire: Es ist ja schön, dass Du dir diesen Satz von ow gemerkt hast, aber langsam geht es mir auf meine werten Nüsse, ständig diese Floskel von dir zu lesen.
Und im übrigen werden hier keine Äpfel mit Birnen verglichen, auch wenn wir alle auf DX9.0c in Bezug auf FC warten, daher überleg demnächst lieber mal, bevor Du schlaue Sprüche bringen willst.
LovesuckZ
2004-05-15, 13:30:43
Original geschrieben von betareverse
Ich kann auch neutral sein, wenn ich SM3.0 beim NV40 für unwichtig halte und 3Dc zu bevorzuge, da es imo schon in diesem Jahr mehrer Spiele gibt, die es nutzen werden und somit, im Gegensatz zu SM3.0, sichtbare Unterschiede geben wird.
Bitte, hoere auf dauernd von "neutral" zu reden. Du und deine Postings sind es bei diesem Thema nicht. Auch wenn du es öfters wiederholst, es wird nicht wahr.
Welche Spiele außer HL2 und SS2 verwenden denn 3Dc schon? Du kannst gerne mal eine Auflistung geben.
Und 3Dc führt zu keinen "sichtbare[n] Unterschiede[n]". Das ist wie mit deiner "Neutralitaet": Wiederholung führt nicht zur Richtigkeit!
... Und das Thema hatten wir schon so oft, aber Du musst ja immer wieder mit der gleichen Laier anfangen. :kotz:
Ich weiß nicht, aber wer hat dies geschrieben:
"Welche Features sind interesant? Kommst Du jetzt wieder mit dem SM3.0 Mist?"
"M3.0 ist eine schöne Sache, die man aber schlicht nicht haben muss.[...]3Dc ist auch eine schöne Sache, die wahrscheinlich visuelle Vorteile bringen wird.[...]"
Lügen helfen dir jetzt auch nicht mehr weiter.
Für mich steht Ultrashadow2 als NV40-Feature gegen 3Dc. Das sind Technologien, von denen man zu Lebzeiten der Karten auch was haben wird.
Es wird in diesem Jahr mehr Spiele geben, die gebrauch vom SM3.0 machen als von "Ultrashadow2"...
ice cool69
2004-05-15, 13:31:41
Es ist mühsam immer wieder zu wiederholen dass Shader 3.0 nicht mehr können als 2.0er, sie können nur gewisse Berechnungen schneller abarbeiten.
Die Sache mit der Partikel/Physikberechnung in der GPU ist noch in den Kinderschuhen und höchstwahrscheinlich noch nicht besonders performant.
Mit 3Dc sind jedoch größere Normalmaps möglich die bei gleicher Qualität bei nvidia nicht 256MB Speicher sondern 1 GB Speicher auf der Karte benötigen würden, dafür kostet 3Dc etwas an Leistung (welche jedoch vorhanden ist).
Soweit ich weiß sind auch die Pixelshader von ATI performanter als die von nvidia.
Lustiger Troll
2004-05-15, 13:33:24
Original geschrieben von dildo4u
naja jeder sagt wir müsse auf DX9.0C warte erst dann geht der NV40 richtig oder wie auch immer aber mit PS3.0 effekten ist er ja langsammer als mit PS2.0 also würde dann der R420 wieder alle benches gewinnen
Ich lass es, es scheint keinen Wert zu haben, wieso sollte er mit SM3.0, die dieselbe Effekte darstellen langsamer sein als mit SM2.0, wenn es doch keinen visuellen Vorteil bringt, dann ist IMO das ganze ein Downgrade? Wie schnell er sein wird müssen wir noch abwarten, der Typ auf Nvnwes kann von mir aus schreiben er habe die U3 Engine gezockt, ich glaub ihm eh nicht bis es auf richtigen Seiten steht, woher hat er den SM3.0 Patch für FC, woher hat er DX9.0c???
LovesuckZ
2004-05-15, 13:35:15
Original geschrieben von ice cool69
Es ist mühsam immer wieder zu wiederholen dass Shader 3.0 nicht mehr können als 2.0er, sie können nur gewisse Berechnungen schneller abarbeiten.
Rofl, sry, aber der Satz passt wie die Faust auf das Auge: "Wiederholung führt nicht zur Richtigkeit!"
Ich werde das wohl patentieren lassen muessen!
Mit 3Dc sind jedoch größere Normalmaps möglich die bei gleicher Qualität bei nvidia nicht 256MB Speicher sondern 1 GB Speicher auf der Karte benötigen würden, dafür kostet 3Dc etwas an Leistung (welche jedoch vorhanden ist).
:O
Ich will mal das Spiel sehen, was alleine an 1GB unkomprimierte Normalmaps hat, selbst bei Ruby machen diese nur ca. 50MB aus...
ice cool69
2004-05-15, 13:36:22
T&L war auch kein Downgrade und hat zu Lebzeiten der Karte auch nichts gebracht!
dildo4u
2004-05-15, 13:36:54
Original geschrieben von Lustiger Troll
Ich lass es, es scheint keinen Wert zu haben, wieso sollte er mit SM3.0, die dieselbe Effekte darstellen langsamer sein als mit SM2.0, wenn es doch keinen visuellen Vorteil bringt, dann ist IMO das ganze ein Downgrade? Wie schnell er sein wird müssen wir noch abwarten, der Typ auf Nvnwes kann von mir aus schreiben er habe die U3 Engine gezockt, ich glaub ihm eh nicht bis es auf richtigen Seiten steht, woher hat er den SM3.0 Patch für FC, woher hat er DX9.0c??? taj das ist die frage ob mit DX9.0C auch für mher speed im PS2.0 modus genutzt wird oder ob es "nur" neuePS3.0 effekte geben wird wo dann alles ja langsammer läuft
Lustiger Troll
2004-05-15, 13:38:59
Original geschrieben von ice cool69
T&L war auch kein Downgrade und hat zu Lebzeiten der Karte auch nichts gebracht!
Nur gab es damals keinen HLSL Compiler der die Shader inerhalb von wenigen Tagen/Wochen aufwerten konnten.
Lustiger Troll
2004-05-15, 13:41:41
Original geschrieben von dildo4u
taj das ist die frage ob mit DX9.0C auch für mher speed im PS2.0 modus genutzt wird oder ob es "nur" neuePS3.0 effekte geben wird wo dann alles ja langsammer läuft
Ich frage nochmal, wie kommst du drauf das SM3.0 langsamer ist als SM2.0, wo SM3.0 ja ein Speedupdate ist?
ShadowXX
2004-05-15, 13:44:08
Jungs, Jungs...immer ruhig mit den jungen Pferden...
Die Benches, die wir bis jetzt kennen, sind Momentaufnahmen....beim nv40 wohl stärker als bei der ATI, aber trotzdem bei beiden Momentaufnahmen.
Die Köpfe können wir uns immer noch einschlagen, wenn mal Retail-Karten mit nicht Beta-Treibern gebencht wurden.
3Dc kann nett sein und was bringen...SM3.0 kann nett sein und was bringen...
Lasst uns erst mal abwarten.
Die Liste von Games, die demnächst 3Dc unterstützen sollen, ist ca. genausogross, wie die Liste von Games, die demnächst SM3.0 unterstützen sollen..
Wenn diese Games draussen bzw. gepachted sind, können wir immer noch über die einzelnen Features "richten"....
Beide haben jeweils andere Probleme, was ihre "neuen" Features angeht...
ATI hat das Problem, da 3Dc (momentan) propitär ist und nV, das ihre jetzige Implemantation von SM3.0 wohl nur in bestimmten Fällen einen Speedboost bringen kann.
(ja, auch das SM3.0 ist momentan propitär, aber dadurch, das man die Shader nur neu durch die Compiler jagen braucht ist der "propitäre" Effekt nicht ganz so stark (IMHO))
IMHO wird es im Endeffekt auf einen quasi-Gleichstand hinauslaufen, mit leichten Vorteilen für ATI bei den 1600er Auflösungen...
Welche Karte man diesmal kauft wird mehr Geschmackssache sein....
ice cool69
2004-05-15, 13:45:29
Ich glaube es ist sinnlos über Dinge weiterzudiskutieren die keiner wissen kann, da hier niemand ne Kristallkugel hat mit der man in die Zukunft sehen kann.
Ich warte einfach ab bis die entsprechenden Karten am Markt sind und Spiele wie Half Life2, Serious Sam2 und FarCry-PatchDX9.0c, dann werde ich sehen welche Karte schneller und schöner die Pixel aneinanderreiht.
Wer anderes behauptet ist ein Fanboy oder scheint in die Zukunft sehen zu können.
Es kann bei Sm3 wie bei T&L ablaufen, muss es aber nicht.
Was mich an der GF6800Ultra halt noch stört ist die Performance bei hoher Bildqualität, wenn sie da nicht mit der Radeon gleichziehen oder zumindest knapp rankommen kann ist sie für mich halt keine Alternative.
Und egal wie schön Far Cry dann aussieht: 25FPS ist absolut GROTTIG!!!
dildo4u
2004-05-15, 13:45:42
Original geschrieben von Lustiger Troll
Ich frage nochmal, wie kommst du drauf das SM3.0 langsamer ist als SM2.0, wo SM3.0 ja ein Speedupdate ist? nö bis jetzt hab ich nur davon gehört und gesehen das PS3.0 mher effkte bringt aber das es mher speed gibt ist eine reine spekulation von dir und selbts du als Nvidia fanboy wirst einsehen das der NV40 mit PS3.0 nicht mher effekte haben kann und dann auch noch schneller sein wird als vorher
Lustiger Troll
2004-05-15, 13:47:11
Original geschrieben von dildo4u
nö bis jetzt hab ich nur davon gehört und gesehen das PS3.0 mher effkte bringt aber das es mher speed gibt ist eine reine spekulation von dir
Hmmm das ist keine Speku von mir, es sollte nach aussagen von einigen hier ja genau umgekehrt sein, keine neuen Effekte sindern nur mehr Speed, mehr Anweisungen...
ice cool69
2004-05-15, 13:48:04
Seit wann ist die T&L-EInheit ein Shader? lol
Edit: Der Speedvorteil hält sich aber in Grenzen da die XT in hohen Auflösungen/Qualitätseinstellungen deutlich schneller ist.
Lustiger Troll
2004-05-15, 13:50:07
Original geschrieben von ice cool69
Seit wann ist die T%L-EInheit ein Shader? *lol*
So hab ichs nicht gemeint, ich meinte es ist einfacher heute SM3.0 zu implementieren als das es bei T&L damals möglich war. Hab mich wohl falsch ausgedrückt.
Original geschrieben von ice cool69
Es ist mühsam immer wieder zu wiederholen dass Shader 3.0 nicht mehr können als 2.0erKlar können sie mehr. Zum Beispiel (mindestens) hunderte Dependent Read Ebenen nutzen.
Original geschrieben von ice cool69
Mit 3Dc sind jedoch größere Normalmaps möglich die bei gleicher Qualität bei nvidia nicht 256MB Speicher sondern 1 GB Speicher auf der Karte benötigen würden, dafür kostet 3Dc etwas an Leistung (welche jedoch vorhanden ist).Was 256 MB an 3Dc-komprimierten Normalmaps einnimmt, lässt sich unkomprimiert in 512 MB unterbringen.
Original geschrieben von ice cool69
Soweit ich weiß sind auch die Pixelshader von ATI performanter als die von nvidia. Die NV40-Pipe kann pro Takt mehr tun, als die R420-Pipe.
ice cool69
2004-05-15, 14:02:00
Und wieso soll das einfacher sein? Ich behaupte jetzt einfach mal damit ein deutlich merkbarer Performancevorteil bei den Shadern 3.0 eintritt reicht es nicht einmal HLSL drüberzujagen.
Damit wir uns nicht falsch verstehen, ich bevorzuge nicht ATI sondern einfach nur die bessere Karte. Soll heißen dass es momentan so aussieht dass ich mir eine R420 holen werde da diese in hohen Auflösungen mit AA/AF noch sehr performant ist.
Sollte die NV40 mit neuen Treibern das selbe schaffen oder sich zB rausstellen dass ATI beim AA/AF cheatet, sowie auch bei 3Dc kein optischer Vorteil rausspringen, so werde ich sicherlich die NV-Karte nehmen, da diese einfach technisch interessanter ist.
Solange NV jedoch deutlich zurückliegt wie momentan muss nvidia erstmal nachziehen bevor ein nvidia-Fanboy Grund zum feiern hat.
Lustiger Troll
2004-05-15, 14:05:44
Original geschrieben von ice cool69
Solange NV jedoch deutlich zurückliegt wie momentan muss nvidia erstmal nachziehen bevor ein nvidia-Fanboy Grund zum feiern hat.
NV liegt Deutlich zurück, wo, in FC?
Solange es keine Retailkarten gibt ist niemand gewinner, denn die beiden Karten liegen Meist nah beieinander!
dildo4u
2004-05-15, 14:07:50
Original geschrieben von Lustiger Troll
NV liegt Deutlich zurück, wo, in FC?
Solange es keine Retailkarten gibt ist niemand gewinner, denn die beiden Karten liegen Meist nah beieinander!
http://people.freenet.de/Dildo4u/x800xt2.JPG
Wo in 800X600?
ice cool69
2004-05-15, 14:08:02
Tun sie nicht sobald die Füllrate zu limitieren beginnt, nämlich in 1600x1200 mit 4xAA und 8xAF.
Original geschrieben von betareverse
Ich kann auch neutral sein, wenn ich SM3.0 beim NV40 für unwichtig halte und 3Dc zu bevorzuge, da es imo schon in diesem Jahr mehrer Spiele gibt, die es nutzen werden und somit, im Gegensatz zu SM3.0, sichtbare Unterschiede geben wird. ... 3Dc an sich macht schlechtere BQ, da verlustbehaftet komprimiert wird, während SM 3.0 mit FP32 bessere BQ als 2.0 mit FP24 erzeugen sollte :)
Natürlich ist es besser, die hochaufgelöste ober verlustbehaftet komprimierte Normal Map zu nehmen, als die gering aufgelöste verlustfrei gespeicherte. Gehen wir aber davon aus, dass die Entwickler als Zielplattform maximal 128 MB auf der Graka voraussetzen, kommt der Enthusiast mit einer 256-MB-Graka ohne 3Dc sogar noch etwas besser weg (kann hoch aufgelöste, verlustfrei gespeicherte Normal Maps nehmen.)
Trotzdem ist 3Dc imo eine sinnvolle Technik. TMUs im Vertexshader wären zwar imo letztlich sinnvoller, aber man kann nicht alles zur gleichen Zeit haben. 3Dc war ja mit sehr wenigen Änderungen am Chip möglich, und da sich das nunmal anbot finde ich gut, dass ATI den ersten Schritt in bezug auf Normalmap-Kompression geht.
Was Texturkomprimierung i. A. angeht, bekleckerte sich Nvidia noch nie mit Ruhm, das muss man auch mal sehen.
Original geschrieben von ice cool69
T&L war auch kein Downgrade und hat zu Lebzeiten der Karte auch nichts gebracht! Quake3 (und einige Techdemos) liefen schneller. Daran, dass man mit einer GeForce256 DDR erstaunlich lange gut dran war, ist T&L wohl nicht ganz unschuldig, auch wenn es nicht der Megabringer war. Max Payne z. B. nutzt T&L.
ice cool69
2004-05-15, 14:18:42
Ich hatte genau diese Geforce1DDR und die war schon bei erscheinen zu langsam um QUake3Arena bei maximaler Texturauflösung flüssig darzustellen.
Original geschrieben von ShadowXX
Jungs, Jungs...immer ruhig mit den jungen Pferden...
Die Benches, die wir bis jetzt kennen, sind Momentaufnahmen....beim nv40 wohl stärker als bei der ATI, aber trotzdem bei beiden Momentaufnahmen.So ist es: ATI bietet eine ausgereifte Treiberunterstützung an, und eine HW, auf die seit ca. 2 Jahren optimiert wird.
Bei Nvidias NV40 haben die Leute noch zu tun, die neue Architektur auszunutzen. Privat (also nicht als Redakteur) bin ich schlicht begeistert von der NV40-Pipeline. So viele kluge Ansätze – und der Rest der GPU ist darauf abgestimmt. (Ausnahme: Das AF. Mit dem NV40-AF bin ich nicht zufrieden.) Wenn Kirk mir noch einige Details zur Pipe erzählt, die ich in gefragt habe, will ich 'nen Artikel dazu schreiben wo man sehen wird, warum auf den NV40 schwieriger zu optimieren ist. Aber dass es eben auch lohnt, da der NV40 bei guter Ausnutzung brutale arithmetische Power bringen kann. Power, über die sich jeder Entwickler freut, weil man Effekte lieber berechnen möchte als sie mit einfachen Texturverknüpfungen zu gestalten. Das kostenlose NRM_PP beim NV40 kommt zum Beispiel dann zum Einsatz, wenn man feinstes Floatingpoint-Bumpmapping berechnet.
Original geschrieben von dildo4u
nö bis jetzt hab ich nur davon gehört und gesehen das PS3.0 mher effkte bringt aber das es mher speed gibt ist eine reine spekulation von dir und selbts du als Nvidia fanboy wirst einsehen das der NV40 mit PS3.0 nicht mher effekte haben kann und dann auch noch schneller sein wird als vorher Man kann pro Pass deutlich mehr Effekte machen als mit 2.0. Macht man aber nicht, weil es kaum Hardware gibt, als dass das für Spiele (mit Echtzeitrendering) noch schnell genug wäre.
ice cool69
2004-05-15, 14:21:02
Die Frage ist ob die Möglichkeiten von 3Dc bei Half Life2 und Serious Sam2 genutzt werden oder nicht.
Das selbe gilt natürlich für Shader 3.0...
dildo4u
2004-05-15, 14:22:15
Original geschrieben von aths
Man kann pro Pass deutlich mehr Effekte machen als mit 2.0. Macht man aber nicht, weil es kaum Hardware gibt, als dass das für Spiele (mit Echtzeitrendering) noch schnell genug wäre. Es ging hier speziell um Farcry und da wird PS3.0 für mher effekte genutzt
LovesuckZ
2004-05-15, 14:23:29
Original geschrieben von ice cool69
Die Frage ist ob die Möglichkeiten von 3Dc bei Half Life2 und Serious Sam2 genutzt werden oder nicht.
Die Moeglichkeiten von SM3.0 sind deutlich schwerer auszuschoepfen als bei 3Dc. Hier müssen nur die Normalmaps kompremiert werden, damit hat man, bis auf die Anpassung der Shader, schon 95% der Möglichkeiten erreicht.
Beim SM3.0 (da es nicht nur ein Feature ist) ergeben sich mehr Schwierigkeiten (lohnt sich dynamisches branchen in dieser Situation etc.).
LordDeath
2004-05-15, 14:27:20
letztendlich müssen wir doch warten, bis die entwickler was auf dem 3.0 shadermodell programmieren und dann können wir erst sagen, was es bringt und was nicht. so sagt sonst jeder etwas aber niemand das gleiche!
ice cool69
2004-05-15, 14:49:38
Das selbe was 3Dc angeht, insofern kann man nur abwarten.
Original geschrieben von dildo4u
ich hab gesagt das es whol nicht viel langsammer ist als der NV40 ich hab nicht gesagt das es schneller ist und slebt wenn wenn der NV40 dann gard noch 1024*768 mit 4XAA schafft und dam mirckrige 25fps rauskommen bringt das rein gar nix dann zock ich lieber mit ein paar weniger effekten dafür aber mit 50fps
schwachfug. Dann wird zu erst auf AA und AF verzichtet.
HQ++ und maximal mögliche Game Effekte kommen immer zu erst.
Original geschrieben von ice cool69
Es ist mühsam immer wieder zu wiederholen dass Shader 3.0 nicht mehr können als 2.0er, sie können nur gewisse Berechnungen schneller abarbeiten.
Die Sache mit der Partikel/Physikberechnung in der GPU ist noch in den Kinderschuhen und höchstwahrscheinlich noch nicht besonders performant.
Mit 3Dc sind jedoch größere Normalmaps möglich die bei gleicher Qualität bei nvidia nicht 256MB Speicher sondern 1 GB Speicher auf der Karte benötigen würden, dafür kostet 3Dc etwas an Leistung (welche jedoch vorhanden ist).
Soweit ich weiß sind auch die Pixelshader von ATI performanter als die von nvidia.
auch für dich nochmal SM3.0 bringen FP32 auf der ganzen Linie. ATI bietet kein FP32 somit sind sie bei der erreichbaren Qualität nur Mittelmaß. Etwas was man ja Nvidia gern mit FP16 vorgeworfen hat.
Behaltet bitte eure Linie. Wer FP32 nicht anbietet ist nur noch Mittelmaß. Das ist die klare Botschaft.
dildo4u
2004-05-15, 15:13:20
Original geschrieben von Gast
schwachfug. Dann wird zu erst auf AA und AF verzichtet.
HQ++ und maximal mögliche Game Effekte kommen immer zu erst. toll und was ist wenn ich wegen meinem TFT in 1280*1024 zocken muss weil er darunter interpoliert
ice cool69
2004-05-15, 15:25:50
Wieso ist FP24 nur noch Mittelmaß?
Das ist es erst wenn man den Unterschied zu FP32 sieht und bisher konnte mir den noch niemand in aktuellen Spielen zeigen.
Quasar
2004-05-15, 15:26:09
Original geschrieben von LovesuckZ
[...]Normalmaps[...],selbst bei Ruby machen diese nur ca. 50MB aus...
Wenn du das auf meine frühere Aussage von 280 vs. 220MB beziehst: Streich' das bitte. Auch auf einer R420 gibt die Info-Seite von Sushi ~280MB an benutzten Texturen an - wobei ich allerdings nicht weiß, ob dort eventuell mit unkomprimiertem Platz gerechnet wurde.
Original geschrieben von ice cool69
Wieso ist FP24 nur noch Mittelmaß?
Das ist es erst wenn man den Unterschied zu FP32 sieht und bisher konnte mir den noch niemand in aktuellen Spielen zeigen. Da die Entwickler auf FP24 Rücksicht nehmen müssen, wird das auch so schnell nicht passieren.
ice cool69
2004-05-15, 15:39:07
Da die neuen Karten nur 256MB Speicher haben ist davon auszugehen dass es sich hier um unkomprimierte Werte handelt. Glaube kaum dass die Demo gut laufen kann wenn viel auf den Hauptspeicher ausgelagert werden muss.
Original geschrieben von Gast
schwachfug. Dann wird zu erst auf AA und AF verzichtet.
HQ++ und maximal mögliche Game Effekte kommen immer zu erst. Bei mir nicht. Erst mal kommt:
- 800x600 Minimum (dank Double Scan ein gutes Bild), besser 1024x768 oder höher
- 2x AA, AF so viel wie füllratenmäßig geht.
- 60-75 fps im Schnitt, bei schwierigen Szenen nicht unter 40.
- Dann wird geguckt, bei welchen Game-Settings das möglich ist.
ironMonkey
2004-05-15, 15:48:10
Naja, aths, bei deinen Anfoderungen braucht man erstmal ein gutes System:)
30fps finde ich als unterste Grenze ganz gut wenn man an eine Stelle kommt wo's rund geht.
Gruß
ice cool69
2004-05-15, 15:52:52
aths Anforderungen sind nicht nur nachvollziehbar sondern decken sich mit den meinen, ohne AA spiele ich wirklich nur noch im Notfall, ist für mich eines der wichtigsten Features überhaupt.
ironMonkey
2004-05-15, 16:08:40
Ich zocke meist in 1280er Auflösung, hin und wie wieder in 1024er.
Wenn man sich die FPS Angaben von aths nimmt und mal UT04 zockt, dann weiß man das man für min 40fps ein absolutes high end System braucht.
AA und AF auf Teufel komm raus, aber Details auf niedrig macht keinen Sinn, weil AA und AF genau wie hohe Details dazu da sind die BQ zu verbessern, allerdings muss man ja erstmal was haben wo man die Kanten klätten kann;D
Gruß
Original geschrieben von ironMonkey
Ich zocke meist in 1280er Auflösung, hin und wie wieder in 1024er.Ich jetzt auch, dank neuer Graka.
Original geschrieben von ironMonkey
Wenn man sich die FPS Angaben von aths nimmt und mal UT04 zockt, dann weiß man das man für min 40fps ein absolutes high end System braucht.Nee. Ging auch mit P4 1800 / Ti 4600 schon.
UT 2003 spielte ich auf dem System mit 60+ fps. Ok, in 800x600. Aber mit FSAA und AF (2x // 4x "Stage-optimiert".)
Original geschrieben von ironMonkey
AA und AF auf Teufel komm raus, aber Details auf niedrig macht keinen Sinn, weil AA und AF genau wie hohe Details dazu da sind die BQ zu verbessern, allerdings muss man ja erstmal was haben wo man die Kanten klätten kann;D Für mich sind halbwegs glatte Kanten und allermindestens 2x anisotrop gefilterte Texturen wichtiger, als hohes Texturdetail welches man dann aber nur in bestimmten Szenen sieht. Angesichts der CPU schalte ich erst mal alles weg, was CPU-lastig ist, und die Graka wird nur so viel gefordert, dass sie AA/AF noch bringen kann. Neben hoher Framerate, natürlich.
Original geschrieben von ice cool69
aths Anforderungen sind nicht nur nachvollziehbar sondern decken sich mit den meinen, ohne AA spiele ich wirklich nur noch im Notfall, ist für mich eines der wichtigsten Features überhaupt. Seit die Ti 4600 meine Voodoo4 ablöste war klar: Ohne FSAA spiele ich nichts. (Max Payne spielte ich schon auf der Voodoo4 mit FSAA. In 720x576 ...) Die 5900 erlaubt nun auch noch höhere Auflösungen, um den 19-Zöller mal bisschen auszufahren, nebst 8x AF :)
Iceman346
2004-05-15, 17:40:59
Original geschrieben von aths
Für mich sind halbwegs glatte Kanten und allermindestens 2x anisotrop gefilterte Texturen wichtiger, als hohes Texturdetail welches man dann aber nur in bestimmten Szenen sieht.
Tue ich oftmals genauso. Grade bei UT2004 ist der visuelle Unterschied zwischen "Normal" und "Highest" oftmals garnicht zu sehen, die Performance geht aber merkbar runter.
reunion
2004-05-15, 20:25:12
Original geschrieben von dildo4u
http://people.freenet.de/Dildo4u/x800xt2.JPG
Wo in 800X600?
Viel intressanter ist das obrige Diagramm, wo schritt für schritt immer mehr AA bzw. AF zugeschaltet wird, und man schön sieht das die X800XT kaum Leistung daran verliert während die 6800U doch arg einbricht...
reunion
2004-05-15, 20:43:51
Original geschrieben von Lustiger Troll
Du hast aber schon mitbekommen das NV noch arge Treiberprobleme in FC hat? Du bist auch der Meinung das etwas CPU generiertes schneller ist als wenn es auf einer speziel dafür Konzipierten GPU läuft? Sei bitte realistisch. Lassen wir mal von FC ab, da die Benches nichts sagen, die Treiber sind noch Buggy, es gibt keinen Pfad für den NV40 usw usw...
Schön, wenn NV es nicht schafft das ein absolutes Top-Spiel wie Far Cry nach mehreren Wochen und einem Patch schnell und in voller Qualität läuft, dann...
misterh
2004-05-15, 21:15:49
Original geschrieben von reunion
Schön, wenn NV es nicht schafft das ein absolutes Top-Spiel wie Far Cry nach mehreren Wochen und einem Patch schnell und in voller Qualität läuft, dann...
schuld ist doch 1.1 oder? das werden wir bei erneuten patch von Far Cry sehen, ob es eine verbesserung geben wird unter Nvidia Graka!
VooDoo7mx
2004-05-15, 22:06:45
Original geschrieben von reunion
Schön, wenn NV es nicht schafft das ein absolutes Top-Spiel wie Far Cry nach mehreren Wochen und einem Patch schnell und in voller Qualität läuft, dann...
Wieso ist doch alles in Butter.
Mit dem 56.72 läuft Fart Cry einwandfrei auf der NV3X Serie.
Alles andere ist vollkommen irrelevant, da es
1. keine kaufbaren GeForce 6800 Karten gibt
2. keine Finalen Release WHQL Treiber für eben diese Karten gibt
Also :wayne:
(del676)
2004-05-15, 22:19:52
Original geschrieben von VooDoo7mx
Wieso ist doch alles in Butter.
Mit dem 56.72 läuft Fart Cry einwandfrei auf der NV3X Serie.
Alles andere ist vollkommen irrelevant, da es
1. keine kaufbaren GeForce 6800 Karten gibt
2. keine Finalen Release WHQL Treiber für eben diese Karten gibt
Also :wayne:
das will ich sehen
auf einer nv3x läufts nämlich beschissen!
Sphinx
2004-05-15, 22:19:58
Original geschrieben von VooDoo7mx
Wieso ist doch alles in Butter.
Mit dem 56.72 läuft Fart Cry einwandfrei auf der NV3X Serie.
Alles andere ist vollkommen irrelevant, da es
1. keine kaufbaren GeForce 6800 Karten gibt
2. keine Finalen Release WHQL Treiber für eben diese Karten gibt
Also :wayne:
Bingo
MarcWessels
2004-05-15, 23:11:34
Original geschrieben von Ulukay
das will ich sehen
auf einer nv3x läufts nämlich beschissen!
...und häßlich.
MarcWessels
2004-05-15, 23:18:35
Original geschrieben von aths
Bei mir nicht. Erst mal kommt:
- 800x600 Minimum (dank Double Scan ein gutes Bild), besser 1024x768 oder höher
- 2x AA, AF so viel wie füllratenmäßig geht.
- 60-75 fps im Schnitt, bei schwierigen Szenen nicht unter 40.
- Dann wird geguckt, bei welchen Game-Settings das möglich ist.
Ich stell auf 1024x768 32Bit und maximal InGame-Details DANN gucke ich, wie hoch das AF (full tri) geht, wenn dann noch Leistung übrig ist, ob 1600x1200 geht (1280 lohnt nicht) und ZUM SCHLUß, ob n bißchen AA möglich ist, was aber in 99% aller Fälle nicht paßt.
Ziel sind 100fps durchschnittlich und eine minimale fps-Rate von 60fps!
AF kann niemals so wichtig sei wie Details im Spiel, denn die machen erstmal die visuelle Qualität im Spiel aus! Was ist denn wohl besser? Der alte KingKong-Film auf'm fetten 16:9 PalPlus oder die neue Verfilmung auf nem guten 4:3er?
AA ist klar unwichtiger als AF, eine höhere Auflösung wiederum wichtiger als AA denn damit verbessert man die Details in der Entfernung.
Original geschrieben von MarcWessels
AF kann niemals so wichtig sei wie Details im SpielDas ist deine Meinung, die ich akzeptiere. Für mich ist AF absolut notwendig.
Original geschrieben von MarcWessels
AA ist klar unwichtiger als AF, eine höhere Auflösung wiederum wichtiger als AA denn damit verbessert man die Details in der Entfernung. AA ist für mich noch wichtiger als AF. Ab 800x600 ist AA für mich wichtiger, als eine höhere Auflösung, für 1024x768 gilt das erst recht.
MadManniMan
2004-05-16, 02:51:39
*das ganze Gebashe überflogen hat*
Ich sehe auf den "SM3.0" Pics Offset Mapping - es wäre blasphemisch, das auf SM2.X HW nicht optional anzubieten.
Radeonator
2004-05-16, 03:09:11
selbst auf ner 5900xt läufts gut, man muss lediglich wasser und fx nicht auf voll stellen, dann ist alles paletti...
Je nach review und je nach Zeitschrift und Site differieren die Benches komischer weise stark bis sehr stark...ich geb also immer einen feuten §&"%"$! auf diese ganzen tollen Reviews und verschaffe mir selbst ein Bild, sollten andere theoretiker hier vielleicht auch mal tun!!!
MarcWessels
2004-05-16, 03:54:26
Original geschrieben von Radeonator
selbst auf ner 5900xt läufts gut, man muss lediglich wasser und fx nicht auf voll stellen, dann ist alles paletti...
Wenn's weiter nichts ist... *fg*
(del676)
2004-05-16, 09:59:16
Original geschrieben von Radeonator
selbst auf ner 5900xt läufts gut, man muss lediglich wasser und fx nicht auf voll stellen, dann ist alles paletti...
Je nach review und je nach Zeitschrift und Site differieren die Benches komischer weise stark bis sehr stark...ich geb also immer einen feuten §&"%"$! auf diese ganzen tollen Reviews und verschaffe mir selbst ein Bild, sollten andere theoretiker hier vielleicht auch mal tun!!!
und selbst dann is noch eine normale 9700pro schneller als die 5900
robbitop
2004-05-16, 11:44:44
das bestreitet auch niemand.
Die NV3x ist nunmal im Bereich PS recht schwach..
(del676)
2004-05-16, 11:46:39
Original geschrieben von robbitop
das bestreitet auch niemand.
Die NV3x ist nunmal im Bereich PS recht schwach..
nur sollte man dann von solchen Aussagen abstand nehmen:
"Wieso ist doch alles in Butter.
Mit dem 56.72 läuft Fart Cry einwandfrei auf der NV3X Serie."
robbitop
2004-05-16, 11:56:03
die Aussage ist korrekt imo, er hat es ja in keinster Relation zu einer Karte eines anderen IHV gesetzt.
Ich kann dem nur zustimmen, FC läuft einwandfrei ;)
dildo4u
2004-05-16, 11:59:33
Original geschrieben von robbitop
die Aussage ist korrekt imo, er hat es ja in keinster Relation zu einer Karte eines anderen IHV gesetzt.
Ich kann dem nur zustimmen, FC läuft einwandfrei ;) nur das mit patch 1.1 auf den FX karten teilweise
schlechter aussehende shader nutzt
tRpii
2004-05-16, 12:04:59
http://www.phatstreetrider.com/~hugoa6/cgi-bin/pictures/E3%20Stuff%20yo!/farcryps3short.mpg
hier mal nen FarCry-Video mit den schönen SM3 Patch.. wenn ich ehrlich bin sieht das alles argh scheisse aus ;) die felsen z.b. sind Flach wie ne flunder und sehen durch die texturen einfach mieß aus..
robbitop
2004-05-16, 12:06:58
@dildo
da hast du ja mal eine ganz neue Info für uns, danke ;)
Man kann auch einfach mit v1.0 zocken, wo ist das Problem?
Wenn man eben mehr performance braucht, geht das natürlich zulasten der BQ. Wo soll der Speed herkommen?
Muss jeder selbst wissen, welchen Weg er nimmt.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.