Archiv verlassen und diese Seite im Standarddesign anzeigen : DX8 R300 CineFX(NV30) PS und VS Vergleich
Demirug
2002-08-14, 13:44:46
Ist ein dummer Titel aber ist ja auch egal
NVIDIA hat die Siggraph papers noch einmal aktualisiert.
http://developer.nvidia.com/docs/IO/3121/ATT/CineFX_1-final.pdf
Darin findet man einen Vergleich der Pixel und Vertexshader:
nett:)
kann man darus schliessen, das CineFX technologisch schon eine Stufe ueber dem R300 steht (ohne jetzt mit D3D und OGL-Specs jonglieren zu muessen)?
Demirug
2002-08-14, 13:59:41
Originally posted by ow
nett:)
kann man darus schliessen, das CineFX technologisch schon eine Stufe ueber dem R300 steht (ohne jetzt mit D3D und OGL-Specs jonglieren zu muessen)?
IMHO: Ja
P.S: Wobei DX9 wohl auf CineFX Level hochgezogen wird. <-- Diese Information wurde ihnen präsentiert von UNBEKANNT
Richthofen
2002-08-14, 14:07:03
jo sehr wahrscheinlich, denn wenn man den Aussagen vom NV CEO glaubt werden NV30 und DX9 in einem Zeitfenster präsentiert. Sehr wahrscheinlich also, das der Delay in Sachen DX9 auf ein kleines Update zurückzuführen ist was die Specs angeht.
Originally posted by Demirug
IMHO: Ja
P.S: Wobei DX9 wohl auf CineFX Level hochgezogen wird. <-- Diese Information wurde ihnen präsentiert von UNBEKANNT
Fuer die DX9-Spiele-Praxis laeuft es dann aber auf den R300 als kleinsten gemeinsamen Nenner heraus hoffe ich doch?
Falls es denn so kommt....
nagus
2002-08-14, 14:24:51
Originally posted by Richthofen
jo sehr wahrscheinlich, denn wenn man den Aussagen vom NV CEO glaubt werden NV30 und DX9 in einem Zeitfenster präsentiert. Sehr wahrscheinlich also, das der Delay in Sachen DX9 auf ein kleines Update zurückzuführen ist was die Specs angeht.
da ist wohl der wunsch vater des gedanken. ich glaub kaum, dass Microsoft Nvidia diesen gefallen tut und DX9 auf die NV30 specs aufbläst. für DX9.1 ok, aber an DX9 wird sich sicher nix mehr ändern. immerhin ist bereits die BEta2 released worden und es ist auch bekannt, dass MS und NV sich nicht unbedingt "gern" haben angesichts des xbox-desasters.
die entwickler werden kaum so dumm sein und die spiele auf die NV30 optimieren, wenn die karte frühestens in 3 monaten rauskommt und die R300 praktisch schon erhältlich ist und vollständig DX9 kompatibel ist.
r300 -> dx9.0
nv30 -> dx9.1
????
so würde ich es erwarten.
was wenn sich jetzt nv30 verspäten würde und erst im nächsten jahr kommt dann kommt dx9 auch erst nächstes jahr???
das wäre dann für ati ein bisschen blöd!?
Demirug
2002-08-14, 14:35:26
Originally posted by nagus
da ist wohl der wunsch vater des gedanken. ich glaub kaum, dass Microsoft Nvidia diesen gefallen tut und DX9 auf die NV30 specs aufbläst. für DX9.1 ok, aber an DX9 wird sich sicher nix mehr ändern. immerhin ist bereits die BEta2 released worden und es ist auch bekannt, dass MS und NV sich nicht unbedingt "gern" haben angesichts des xbox-desasters.
Nagus, glaub es einfach und damit habe ich eigentlich schon wieder zu viel gesagt. In Betas werden bei MS grundsätzlich noch änderungen gemacht. Featurecomplete sind erst die RCs.
die entwickler werden kaum so dumm sein und die spiele auf die NV30 optimieren, wenn die karte frühestens in 3 monaten rauskommt und die R300 praktisch schon erhältlich ist und vollständig DX9 kompatibel ist.
Es wird weder auf den den R300 nach auf NV30 optimiert. Das wird erst intteresant wenn entsprechende Karten eine gewisse Marktdurchsetzung haben.
daflow
2002-08-14, 14:38:02
^^
thx
Uiuiui i seh nix und i hoer nix ;)
P.s. Vorsicht dieser Thread löscht sich nach einmaligem lesen von selbst!
Korak
2002-08-14, 14:39:11
Originally posted by ow
Fuer die DX9-Spiele-Praxis laeuft es dann aber auf den R300 als kleinsten gemeinsamen Nenner heraus hoffe ich doch?
Du sagst es :)
Doomtrain
2002-08-14, 15:09:39
Originally posted by Demirug
IMHO: Ja
Wobei DX9 wohl auf CineFX Level hochgezogen wird.
EDIT:
Wegen Unsinn (Auf den mich Demirug freundlicherweise aufmerksam gemacht hat) gestrichen!!!! Danke!!! :fuck:
Edit:
Demirug
2002-08-14, 15:14:22
Originally posted by Doomtrain
Wie schon gesagt, CineFX wird wohl optional sein, die Specs für Pixel-und Vertexshaderkonstanten stehen schon lange fest.
Solange es keinen RC gibt steht überhaupt nichts fest. Und was den Rest angeht: Lese meine Beiträge genau und du weist was sache ist.
nagus
2002-08-14, 15:20:55
Originally posted by Demirug
Nagus, glaub es einfach und damit habe ich eigentlich schon wieder zu viel gesagt. In Betas werden bei MS grundsätzlich noch änderungen gemacht. Featurecomplete sind erst die RCs.
ähhh... nein, das glaub ich nicht "einfach". wer bist du, dass du solche aussagen treffen kannst? MS und Nvidia CEO?
Originally posted by Demirug
Es wird weder auf den den R300 nach auf NV30 optimiert. Das wird erst intteresant wenn entsprechende Karten eine gewisse Marktdurchsetzung haben.
da tust du dich aber glaub ich gewaltig täuschen! mit welcher karte werden wohl die entwickler DX9 spiele programmieren? mit jender, die zuerst erhältlich ist! und das ist "leider" die R300.
Originally posted by Demirug
Solange es keinen RC gibt steht überhaupt nichts fest. Und was den Rest angeht: Lese meine Beiträge genau und du weist was sache ist.
stimmt, aber du tust so als ob du irgendwelche "insider" infos hättest... und das glaub ich die ehrlich gesagt nicht.
und btw ist es durchaus möglich, dass sich die NV30 noch weiter verzögert! bis dahin gibts vielleicht schon eine DX9.1 komp. karte von ATI ( oder zumindest angekündigt ... )
daflow
2002-08-14, 15:26:24
lol ;)
Exxtreme
2002-08-14, 15:28:31
Hmm, könnte es theoretisch sein, daß ATi die Specs per "Treiberupdate" hochziehen kann? Wenn sie schon so viele Loops machen können, dann könnte man doch theoretisch den Loop-Zähler erhöhen, oder nicht?
Gruß
Alex
Demirug
2002-08-14, 15:38:26
Originally posted by nagus
ähhh... nein, das glaub ich nicht "einfach". wer bist du, dass du solche aussagen treffen kannst? MS und Nvidia CEO?
Beta-Tester
da tust du dich aber glaub ich gewaltig täuschen! mit welcher karte werden wohl die entwickler DX9 spiele programmieren? mit jender, die zuerst erhältlich ist! und das ist "leider" die R300.
In der Regel bekommen die Entwickler eine durchschnitts Karte (damit es am Ende dort auch läuft). Die Highend karten haben bestenfalls die Engineentwickler (falls die nicht lizenziert ist). Mit der Entwicklung von DX9 Spielen wird desweiteren fast niemand beginnen bevor DX9 nicht final ist und selbst dann werden die meisten auch noch DX8 Karten berücksichtigen müssen.
stimmt, aber du tust so als ob du irgendwelche "insider" infos hättest... und das glaub ich die ehrlich gesagt nicht.
siehe oben
und btw ist es durchaus möglich, dass sich die NV30 noch weiter verzögert! bis dahin gibts vielleicht schon eine DX9.1 komp. karte von ATI ( oder zumindest angekündigt ... )
Möglich ist alles. Nur kann im Moment auch noch niemand sicher sein was DX9.1 bringen wird.
Originally posted by nagus
stimmt, aber du tust so als ob du irgendwelche "insider" infos hättest... und das glaub ich die ehrlich gesagt nicht.
Du kannst das ruhig glauben.
Demirug weiss wovon er spricht im Gegensatz zu dir.
nagus
2002-08-14, 15:40:24
anscheinend glaubt jetzt jeder, dass die R300 NICHT vollständig DX9 kompatibel ist?! nur weil irgendjemand die schlussfolgerung gezogen hat, dass die erweiterten NV30 features vielleicht gleich mit DX9 verknüpft werden?!?
es gibt weder den beweis noch irgendwelche verlässliche infos, dass die NV30 überhaupt über diese features verfügt! immerhin ist hier die reden von der NV3X architektur!! kann genausogut sein, dass X für "5" steht und das würde bedeuten, dass Nvidia vielleicht in 9 monaten einen DX9.1 komp chip, den NV35 vorstellen will!
keiner kann mit sicherheit sagen ob diese features überhaupt "echt" sind. könnte durchaus sein, dass alles nur ein marketingtrick ist. ( das gleiche hat sich ja auch mit den angeblichen NV30 bildern herausgestellt. alles nur viel wind um nichts! )
Richthofen
2002-08-14, 15:40:43
"
stimmt, aber du tust so als ob du irgendwelche "insider" infos hättest... und das glaub ich die ehrlich gesagt nicht.
"
Tja nagus dann tust du mir leid wenn du dem Demi nicht glaubst.
Ich glaub ihm und weiss auch wieso. Vielleicht kommst du mal dahinter wenn du genau hier nachforschst. Viel Spass :)
"
da tust du dich aber glaub ich gewaltig täuschen! mit welcher karte werden wohl die entwickler DX9 spiele programmieren? mit jender, die zuerst erhältlich ist! und das ist "leider" die R300.
"
Naja dazu sag ich mal nix ausser dem Verweis auf das letzte J.C Interview.
Doom3 Entwickelt was auf GF3 möglich war , und läuft auf dem NV30 am besten.
Sein nächstes Game wird entwickelt auf Basis was mit dem NV30 möglich ist.
Nagus vielleicht blickst du mal über den Tellerrand hinaus und überlegst dir mal was Spieleentwickler noch so brauchen, was imho fast noch wichtiger ist als die Hardware.
Wenn du dann mal auf der entsprechenden Nvidia Seite warst, dann weisst auch wieso Nvidia überproportional als Hardwarebasis für neue Spiele genutzt wird.
PS: Nicht zum Aushalten mit dem.
nagus
2002-08-14, 15:41:52
Originally posted by ow
Du kannst das ruhig glauben.
Demirug weiss wovon er spricht im Gegensatz zu dir.
aber natürlich, immerhin ist er der weltbeste experte für alles, oder etwa nicht?
du kannst dir solche spoettischen Bemerkungen sparen.
aber verrate uns doch mal, wie ein Chip der VOR DX9 erscheint, die DX9-Specs erfuellen soll, die zum Erscheinen des Chips noch gar nicht endgueltig feststehen??
Gute Hellseher bei ATi??
nagus
2002-08-14, 15:44:38
Originally posted by Richthofen
"
stimmt, aber du tust so als ob du irgendwelche "insider" infos hättest... und das glaub ich die ehrlich gesagt nicht.
"
Tja nagus dann tust du mir leid wenn du dem Demi nicht glaubst.
Ich glaub ihm und weiss auch wieso. Vielleicht kommst du mal dahinter wenn du genau hier nachforschst. Viel Spass :)
"
da tust du dich aber glaub ich gewaltig täuschen! mit welcher karte werden wohl die entwickler DX9 spiele programmieren? mit jender, die zuerst erhältlich ist! und das ist "leider" die R300.
"
Naja dazu sag ich mal nix ausser dem Verweis auf das letzte J.C Interview.
Doom3 Entwickelt was auf GF3 möglich war , und läuft auf dem NV30 am besten.
Sein nächstes Game wird entwickelt auf Basis was mit dem NV30 möglich ist.
Nagus vielleicht blickst du mal über den Tellerrand hinaus und überlegst dir mal was Spieleentwickler noch so brauchen, was imho fast noch wichtiger ist als die Hardware.
Wenn du dann mal auf der entsprechenden Nvidia Seite warst, dann weisst auch wieso Nvidia überproportional als Hardwarebasis für neue Spiele genutzt wird.
PS: Nicht zum Aushalten mit dem.
vielleicht kannst du mich am a**** lecken?
diese PRO Nvidia einstellung geht mir sowas von auf den sack!
Demirug
2002-08-14, 15:45:50
Originally posted by Exxtreme
Hmm, könnte es theoretisch sein, daß ATi die Specs per "Treiberupdate" hochziehen kann? Wenn sie schon so viele Loops machen können, dann könnte man doch theoretisch den Loop-Zähler erhöhen, oder nicht?
Gruß
Alex
Die Loops könnte man mit einem Treiberupdate erhöhen wenn der Loopzähler nicht als 2 Bitzähler ausgelegt ist. Bei den anderen sache wird das aber schwer bis unmöglich.
Im Endeffekt wird man sich aber sowieso eher an der technologisch "schwächeren" Karte ausrichten. Bei guten Engines/Spielen wird man aber die besseren Möglichkeiten der NV30 zur Passreduzierung einsetzten. (Akutelles Beispiel DOOM III: 1 Pass R200, 2-3 Passes NV2x)
P.S. Das schwächer jetzt bitte nicht überbewerten. der NV25 ist technisch auch schwächer als der R200.
Wäre das (CineFX=DX9) nicht eher gegen das Interesse von Microsoft, eine breite Unterstützung für DX9 zu gewinnen (wobei DX9 Spiele wohl erst in ein paar Monaten (Jahren, Jahrzehnten) zu bewundern sind)?
Bedeutet das, daß die Lobbyisten von NV einen größeren Einfluß bei MS haben, als die von ATI?
Doomtrain
2002-08-14, 16:05:15
Originally posted by Demirug
IMHO: Ja
Wobei DX9 wohl auf CineFX Level hochgezogen wird.
EDIT:
Wegen Unsinn (Auf den mich Demirug freundlicherweise aufmerksam gemacht hat) gestrichen!!!! Danke!!! :fuck:
EDIT:
Exxtreme
2002-08-14, 16:21:50
Hmm, wenn MS DX9 tatsächlich auf CineFX-Level hochzieht, dann hat sich ATi von MS das zweite Mal über den Tisch ziehen lassen. Scheint echt die gleiche Situation zu sein wie zu R100-Zeiten.
Gruß
Alex
Doomtrain
2002-08-14, 16:28:45
Bete mal das dies nicht der Fall sein wird!
bambo
2002-08-14, 16:43:39
Warum? Je besser und fortgeschrittener DX9 wird, umso besser für uns alle. Nur ein kurzsichtiger FanATIker kommt auf die dumme Hoffnung, dass der Fortschritt und die Weiterentwicklung möglichst lange aufgehalten wird.
Wir wollen doch alle nur das gleiche: dass 3D-Spiele immer schöner aussehen.
Nur ein paar kleinkarierte Markenanhänger scheinen Angst vor Fortschritt zu haben. Wer hofft, dass die Entwicklung zugunsten seines Lieblingsherstellers stehenbleibt, dem ist nicht mehr zu helfen.
:bonk:
:lol:
Korak
2002-08-14, 16:46:48
Originally posted by bambo
Nur ein paar kleinkarierte Markenanhänger scheinen Angst vor Fortschritt zu haben. Wer hofft, dass die Entwicklung zugunsten seines Lieblingsherstellers stehenbleibt, dem ist nicht mehr zu helfen.
Das erinnert mich jetzt irgendwie an die PS 1.4 Diskussion =)
nggalai
2002-08-14, 16:47:16
Hi nagus,Originally posted by nagus
aber natürlich, immerhin ist er der weltbeste experte für alles, oder etwa nicht? Ich hab's schonmal gesagt, aber sag's gerne nochmals:
Hier im Forum gibt's ein paar Leute, welche als Beta-Tester/Entwickler bereits sehr, sehr früh mit gewissen Produkten *hust*DX9*hust*gewisse Spieleengines*hust* in Berührung kommen. Dass diese Leute sich mit genauen Quellenangaben zurückhalten ist klar. Nichtsdestotrotz ist es nett von diesen Personen, dass sie auch hier im Forum mal ein, zwei Insider-Sachen fallen lassen.
Also, bitte, halte dich mit gewissen Kommentaren zurück. Oder willst Du uns jetzt weismachen, dass Du erst jetzt gerade gehört hast, dass Demiurg zu "diesen Leuten" gehört?
ta,
-Sascha.rb
Exxtreme
2002-08-14, 16:50:30
Originally posted by Korak
Das erinnert mich jetzt irgendwie an die PS 1.4 Diskussion =)
Mich auch. ;)
Mich juckt das herzlich wenig ob MS DX9 auf CineFX-Level hochzieht. Ich hatte sowieso nie den Kauf einer NV30-Karte in Erwägung gezogen. Ich glaube die Leute überschätzen diesen "Vorteil" des NV30. Was die R300 nicht in einen Pass schafft, das macht sie in mehreren Durchläufen. Performance dürfte es auch kaum kosten.
Gruß
Alex
Originally posted by nagus
aber natürlich, immerhin ist er der weltbeste experte für alles, oder etwa nicht? Demirug weiss wovon er spricht und ich wäre froh, wenn du mal deine Scheuklappen abnehmen würdest.
Demi steht nicht auf irgendeiner Hersteller-Seite, sondern ist so freundlich uns durch kryptische Bemerkungen mit Insider-Infos zu versorgen. Wenn du ihm gleich in die Karre fährst lässt er es das nächste mal vielleicht bleiben - womit keinem geholfen wäre.
Richthofen
2002-08-14, 18:55:00
"
Wäre das (CineFX=DX9) nicht eher gegen das Interesse von Microsoft, eine breite Unterstützung für DX9 zu gewinnen (wobei DX9 Spiele wohl erst in ein paar Monaten (Jahren, Jahrzehnten) zu bewundern sind)?
Bedeutet das, daß die Lobbyisten von NV einen größeren Einfluß bei MS haben, als die von ATI?
"
Warum sollte es?
Ob nun jeder Hardwarehersteller das alles erreicht was da drinn steht in DX ist doch MS latte. Es reicht doch wenn MS aufm Papier zeigt das DX besser als OGL ist.
Siehs doch mal so. Spätestens 6 Monate nach dem NV30 oder von mir aus auch R300 gibts wieder Refreshs die dann ganz sicher die Lücken schliessen. Das ist ein so geringes Zeitfenster, das macht sich für Entwickler kaum bemerkbar. Die programmieren Jahre an nem Game rum.
Wenn sie also DX9 auf NV30 hochziehen, dann würde mich mal interessieren ob dabei die x-Box2 oder was auch immer es in Konsolenrichtung gab eine Rolle spielt.
Eventuell ein kleiner Deal zwischen NV und MS? Weiss der Geier aber MS ändert nicht zum ersten mal etwas kurz vorher.
Wir werden es ja sehen was es nun damit auf sich hat.
Richthofen
2002-08-14, 18:56:51
"
vielleicht kannst du mich am a**** lecken?
"
Ne lass mal, mach ich lieber nicht.
Ich korrigiere meine Alterseinschätzung was dich betrifft neulich von sagen wir 17 auf 15 herunter.
Wenn DX9 so "erweitert" wird, dass die Funktionalität der kommenden Chips (egal von wem) voll unterstützt wird, so begrüße ich das ausdrücklich. Aber genausowenig wie ATI von DX8.1 profitiert hat, wird NV auch nicht groß von erweiterten DX9-Specs profitieren. Die Entwickler werden dafür sorgen, dass ihre Spiele auf breiter Hardwarebasis laufen, noch dazu ist es wohl noch ein bisschen länger hin, bis sie an die Grenzen des R300 stoßen werden (bevor bei Spielen die Spec-Grenze erreicht wird, ist die Leistung nicht mehr ausreichend).
Spiele sind aber nicht der einzige Anwendungsbereich für 3D-Karten. Und deshalb fände ich es ganz gut, wenn man auch alle Hardwarefähigkeiten nutzen kann.
Demirug
2002-08-14, 19:09:47
Xmas,
full ack. Sonst kommen die Hersteller noch auf die Idee eine eigene API zu bauen die dann nur noch mit ihrern Karten läuft. Das hat schon OpenGL für die meisten Entwickler uninteresant gemacht. Wenn jetzt jemand das gefühl hat einen OpenGL vs. DX Diskussion zu starten möge er die dafür vorhandenen Threads benutzen.
Unregistered
2002-08-14, 20:49:59
Das NV-Dokument habe ich mir jetzt angeguckt. Besonders wichtig scheint für NV die Feststellung zu sein:Branching is per-vertex
Das ganze irritiert etwas. Einmal, weil ich nicht genau weiß, welche Auswirkungen das für konkrete Games wie Doom haben wird. Rein oberflächlich sieht es so aus, als ob der NV30 den R300 als Vorspeise beim Frühstück vernascht.
Noch irritierender finde ich das NV-Dokument wegen der Anmerkungen des Reverend, dass die NV-Darstellung des R300 sich von Reverends Auffassungen über den R300 unterscheiden.
Originally posted by Exxtreme
Hmm, wenn MS DX9 tatsächlich auf CineFX-Level hochzieht, dann hat sich ATi von MS das zweite Mal über den Tisch ziehen lassen. Scheint echt die gleiche Situation zu sein wie zu R100-Zeiten.
Gruß
Alex
Ich weiss nicht, ob man das so sehen kann.
ATi hat den R300 released bevor DX9 fertig ist.
MS braucht sich weder von NV noch ATi vorschreiben zu lassen, wie die endgültige DX Spec auszusehen hat.
Wenn MS der Meinung ist, dass einige der NV30 Möglichkeiten es wert sind, von DX9 unterstützt zu werden, dann werden sie das einbauen.
Haben sie mit dem PS 1.4 der R200 ja auch getan.
Der R350 wird sicher weiterentwickelt sein, nachdem ATi ja schon einen reinen Shrink des R300 auf 0.13 ausgeschlossen hat.
Karümel
2002-08-14, 21:43:53
Auch wenn ich von der ganzen Materie so gut wie garkeine Ahnung habe, hier mal meine Gedanken.
Das Dokument zeigt doch nur was sich Nvidia als nächsten Schritt so denkt, sprich was nach DX 9.0 kommt, und da der NV 30 ja später erscheinen wird als der R300 wieso sollten die nicht auch auf „erweiterte Funktionen“ sprich CineFX setzen. Dafür hat Ati den ersten DX 9.0 Chip und Nvidia ist vielleicht beim NV 30 „einen kleinen Schritt“ weiter. Nur was wird es im Endeffekt bringen? Ich glaube kaum was, da bis die ersten Spiele auf den Markt kommen, ja noch einige Zeit vergeht und dann diese Karten sowieso schon wieder überholt sind.
Falls ich total falsch verstanden habe, sprich ich da oben totalen Müll verzapft habe, wäre es nett wenn mich jemand darauf Aufmerksam machen könnte, danke.
OT
Wenn ich mir die Postings von Nagus hier anschaue frage ich mich ob Ati-Karten irgendwie „Einfluss“ auf das Denkvermögen haben können. Falls ja, was für Schutzmaßnahmen muß ich treffen, damit ich verschont werde, da ich mir evtl. bald ne Ati.Karte kaufen möchte. ;) <- Smilie
Demirug
2002-08-14, 22:33:41
Karümel,
die ganze situation ist technisch betrachtet sehr kompliziert.
Da es zum Zeitpunkt ab dem es R300 Karten zu kaufen gibt noch kein DX9 gibt sind diese Karten eigentlich keine DX9 Karten sonder verdammt schnelle DX8 Karten. Sobald aber DX9 erscheint werden aus den DX8 Karten durch ein Treiberupdate DX9 Karten.
Ist der NV30 zum Erscheinungszeitpunkt von DX9 auch schon auf dem Markt hätten technisch gesehen beide Unternehmen zeitgleich einen DX9 Chip. Kommt NV30 nach DX9 ist ATi der technische Gewinner. Moralisch betrachtet ist aber ATi in jedem Fall der Sieger dieser Runde.
Wenn wir jetzt nur die Pixel und Vertex shader betrachten gilt folgendes:
R300 < NV30
R300 < DX9
NV30 ? DX9
Das Fragezeichen könnte für <, > oder = stehen da ist alles noch zu sehr im fluss.
Das ganze wird aber auf die Spiele eher geringen Einfluss haben. Die biligeren Produktionen richten sich sowieso an dem technisch schwächeren Chip aus. Die besseren optimieren auf die einzelnen Chips. In der Praxis wird sich das aber weniger in den Effekten als in der Anzahl der Passes die zum erreichen eines Effektes benötigt werden auswirken. Was in letzer Konsequenz einen Speedvorteil für NV30 bedeuten würde(dies ist allerdings rein theoretisch). Nur bis die ersten spiele mit DX9 technik erscheinen werden wir uns wohl schon über R350 und NV35 unterhalten.
mictasm
2002-08-15, 00:46:31
Auf jeden Fall schreibt er nicht nur irgendwelche blöden Kommentare.
MIC
Tarkin
2002-08-15, 01:53:35
Letztenendes kommt es ja nur auf den Speed an (und wann entsprechenden Karten verfügbar sind ... und da ist nun mal ATI schneller gewesen.)
Die ganze Diskussion, ob nun DX9 mit nv3x Technik erweitert wird, finde ich sowieso irrelevant (Warum? ... das dürfte auch klar sein, oder?).
Alles nur Haarspalterei und I-Tüppfelchen-Reiterei.
gute Nacht.
(PS: hoffentlich werden wir heute mal erste Reviews von 9700er Karten sehen ... bin vor allem aufs AA gespannt!)
Guradia
2002-08-16, 11:17:11
@Tarkin
http://service.madonion.com/compare?2k1=4202539 <- Tut es das nicht auch erstmal (ist von gestern)?
Radeon 9700 ... über 17.000 Punkte ...
(wenige Punkte dahinter eine TI4600 .. allerdings mit knapp 1 GHz höherem CPU-Takt)
Korak
2002-08-16, 11:58:53
Originally posted by Guradia
@Tarkin
http://service.madonion.com/compare?2k1=4202539 <- Tut es das nicht auch erstmal (ist von gestern)?
Radeon 9700 ... über 17.000 Punkte ...
(wenige Punkte dahinter eine TI4600 .. allerdings mit knapp 1 GHz höherem CPU-Takt)
Den Zahlen trau ich nicht ganz :|
Originally posted by Korak
Den Zahlen trau ich nicht ganz :|
Begründet, siehe MT-Fillrate.
Razor
2002-08-17, 15:07:09
@nagus (und auch andere)
immerhin ist bereits die BEta2 released worden und es ist auch bekannt, dass MS und NV sich nicht unbedingt "gern" haben angesichts des xbox-desasters.
Beta's sagen überhaupt nichts...
Und wegen des XBox-Desasters kommt der Grafik-Kern auch bei der 2.Box von nVidia ?
Böse, böse Strafe !
:D
da tust du dich aber glaub ich gewaltig täuschen! mit welcher karte werden wohl die entwickler DX9 spiele programmieren? mit jender, die zuerst erhältlich ist! und das ist "leider" die R300.
Gott sei dank heißt glauben nich zwangsläufig wissen, gell ?
;-)
Optmiert wird nach Marktverbreitung, nicht nach Erscheinungsdatum !
Oder meinst Du, dass so wenig Apps auf R200 optimiert sind, weil sie so spät kam ?
Na dann schau' Dir einfach mal ein paar Verkaufszahlen NV1x/2x via R100/R200 an...
anscheinend glaubt jetzt jeder, dass die R300 NICHT vollständig DX9 kompatibel ist?! nur weil irgendjemand die schlussfolgerung gezogen hat, dass die erweiterten NV30 features vielleicht gleich mit DX9 verknüpft werden?!?
Da DX9 noch nicht 'fertig' ist, kann bis zu dessen 'Fertigstellung' eigentlich noch niemand genau sagen, welcher Chip nun compliant (i.e. zwingend zu unterstützende Features enthält) ist, oder eben nicht. Wenn allerdings (Vorsicht: Spekulation ;-) nun die CineFX-Specs als erforderlich angesehen werden, dann (und nur dann, wenn...) ist der R300 tatsächlich nicht compliant...
***
Und im übrigen wird es auch für DX9 keinen Chip geben der vollstädig (!) DX-kompatibel ist !
(wozu auch ?)
???
Um es kurz zu sagen: Glaube nicht, dass der R300 nicht DX9-compliant sein wird. Vermutlich wird er aber weniger DX9-Features unterstützen, als es der NV30 tut...
So korrekt, Demirug ?
;-)
Bis denne
Razor
Also was ich denke is dass NVidia versucht mit diesen infos Leute davon abzuhalten die Radeon 9700 zu kaufen, indem sie Leuten klar macht dass die Radeon9700 nicht so viel kann wie der NV3X ( man beachte nicht NV30), den es vielleicht erst in 1 Jahr gibt. Aber leider kann der NV3X auch nicht soviel wie eine R500, also sollte man sich den auch net kaufen.
MadManniMan
2002-08-28, 21:23:51
ist halt alles im moment noch zum großen teil beschissener marketingkack, wegen dem man sich hier kaum an die kehle gehen sollte...
OhneZ
2002-08-29, 15:53:13
Originally posted by ow
du kannst dir solche spoettischen Bemerkungen sparen.
aber verrate uns doch mal, wie ein Chip der VOR DX9 erscheint, die DX9-Specs erfuellen soll, die zum Erscheinen des Chips noch gar nicht endgueltig feststehen??
Gute Hellseher bei ATi??
Ich hoffe doch ;-)
aber ich schätzte ATI hat sich nur an das Grundkonstrukt von DX9 gehalten. Das war ja schon länger bekannt.Änderungen die im nachhinein reinkommen ......naja das heisst dann eben DX9.1.
aber wie ich hier schon gelesen habe ...... werden wir uns bei den ersten DX9 Spielen über ganz andere Chips unterhalten.
Wahrscheinlich DX11 Chips :-)
Das sehe ich genauso.
Es wurde ja noch nicht einmal der Schritt zu DX8 komplett vollzogen und selbst neue Chips wie der Parhelia oder der P10 sind nicht 'richtig' DX9.
Im Moment zaehlt nur der Speed und qualitaetssteigernde Massnahmen (AA, AF) unter DX7/8.
OhneZ
2002-08-29, 16:02:05
Originally posted by Demirug
Karümel,
die ganze situation ist technisch betrachtet sehr kompliziert.
Da es zum Zeitpunkt ab dem es R300 Karten zu kaufen gibt noch kein DX9 gibt sind diese Karten eigentlich keine DX9 Karten sonder verdammt schnelle DX8 Karten. Sobald aber DX9 erscheint werden aus den DX8 Karten durch ein Treiberupdate DX9 Karten.
Ist der NV30 zum Erscheinungszeitpunkt von DX9 auch schon auf dem Markt hätten technisch gesehen beide Unternehmen zeitgleich einen DX9 Chip. Kommt NV30 nach DX9 ist ATi der technische Gewinner. Moralisch betrachtet ist aber ATi in jedem Fall der Sieger dieser Runde.
Meinst Du nicht das der R300 eine DX9 Karte ist? Die Spec von DX9 ist doch schon lange bekannt. Das der Chip vieleicht keine DX9.1 Karte ist glaub ich schon eher, weil da bestimmt diese Änderungen eingebaut werden. Ich geb Dir insofern recht, zur Zeit gibt es noch kein DX9 in fertiger Form, aber auf dem Papier gibt es diese schon lange genug.
und daran hat sich ATI bestimmt gehalten.
Originally posted by OhneZ
Ich geb Dir insofern recht, zur Zeit gibt es noch kein DX9 in fertiger Form, aber auf dem Papier gibt es diese schon lange genug.
und daran hat sich ATI bestimmt gehalten.
Nein, so ist das wohl nicht.
Solange DX9 nicht fertig ist, koennen auch die Specs noch geaendert werden. Ob das der Fall sein wird ist eine andere Frage....who knows?
Exxtreme
2002-08-29, 16:14:08
Originally posted by OhneZ
Ich geb Dir insofern recht, zur Zeit gibt es noch kein DX9 in fertiger Form, aber auf dem Papier gibt es diese schon lange genug.
und daran hat sich ATI bestimmt gehalten.
MS ist dafür bekannt, daß sie öfter Sachen vor der Veröffentlichung noch ändern. PS1.4 in DX8.1 war auch so eine Nacht-und-Nebel-Aktion. Genauso hätte die R100 ursprünglich vollständig DX8.0-compliant werden sollen. Was daraus geworden ist, das wissen wir ja. Deswegen würde ich mich nicht auf unangekündigte Features seitens Microsoft verlassen.
Und wenn die R300 doch nicht DX9.x-compliant ist... who cares? Das Teil ist der bestehenden Software featuremässig soweit voraus, daß es für mind. 18 Monate reicht. Und ausserdem kümmern sich die Entwickler kaum darum, daß irgendein Spiel irgendwelche DX-Specs erfüllt. Sie orientieren sich eher an der Masse.
Gruß
Alex
MadManniMan
2002-08-29, 16:34:52
man darf nicht vergessen, daß ati viel mit der dx9-kompadingens geworben hat. wär das nonsens, hätte man sicherlich etwas von ms gehört...
Demirug
2002-08-29, 16:55:58
1. Bis zum RC von DX kann sich noch alles ändern. Wir sind aber erst beim Beta2.
2. MS möchte laut eigener Aussage pro Jahr ein DX refresh herausbringen welches sich an der entsprechenden Highend Hardware orinentiert.
3. R300 Karten sind DX9 Karten. Sie bewegen sich zwar am unteren ende der DX9 norm aber es sind DX9 Karten.
4. AFAIK wird es wenn DX9 auf den Markt kommt keine Karte geben welche die komplette Shaderspec beherschen wird. Ich weis nichts über die NVIDIA termine. ;)
5. DX x Karte Features != DX x Karte Features. Wobei x für eine beliebige Zahl steht. Es ist und bleibt die aufgabe der Entwickler abzufragen welche DX Features von einer Karte unterstützt werden und diese bei bedarf zu nutzen. Im Endeffekt bedeutet das sich die Hersteller eher an der "technisch" schwächeren Karte ausrichten.
OhneZ
2002-08-29, 17:51:45
Originally posted by Demirug
1. Bis zum RC von DX kann sich noch alles ändern. Wir sind aber erst beim Beta2.
2. MS möchte laut eigener Aussage pro Jahr ein DX refresh herausbringen welches sich an der entsprechenden Highend Hardware orinentiert.
Ich weiss zwar nicht ob das jetzt unter dieses NDA ( oder so ähnlich) fällt, aber wenn MS ein Refresh pro Jahr rausbringen will wird es dann nicht Zeit für DX9 ?? oder andres gefragt Weisst Du wann es rauskommen soll und/oder wieviele Betas noch folgen ??
Demirug
2002-08-29, 19:18:23
Originally posted by OhneZ
Ich weiss zwar nicht ob das jetzt unter dieses NDA ( oder so ähnlich) fällt, aber wenn MS ein Refresh pro Jahr rausbringen will wird es dann nicht Zeit für DX9 ?? oder andres gefragt Weisst Du wann es rauskommen soll und/oder wieviele Betas noch folgen ??
Ich hab Termine darf sie aber leider nicht nennen. Tut mir echt leid
Pussycat
2002-08-30, 11:51:54
Könnte nicht ein Unreg (hinter Proxy-server) diese infos leaken ;)
robbitop
2002-09-01, 23:37:25
"Doom3 Entwickelt was auf GF3 möglich war "
AFAIK ist Doom 3 entwickelt für das was auf der NV10 (Geforce1) möglich war, nämlich DX7 TNL.
Es wird zwar die DX8 Shader nutzen, aber auch noch nicht exzerziv (wer Rechtschreibfehler findet, darf sie behalen ;-) ).
Es soll also auf NV10/15 /R100/RV200 gut laufen ohne grosse Unterschiede.
Also ist DX8 nicht die Grundlage für DOOM3.
Exxtreme
2002-09-01, 23:45:46
Originally posted by robbitop
Also ist DX8 nicht die Grundlage für DOOM3.
Nein, sondern OpenGL1.3 + Hersteller-Extensions. Um eine Grafikchip-Familie richtig auszunutzen ist bei OpenGL ein eigener Code-Path nötig. Deswegen wird Doom3 AFAIK 3 Code-Paths haben:
1. NV1x, R100, RV200
2. NV2x, R200, R300(?), RV300(?), Parhelia
3. NV3x, R300(?), R350(?)
Da, wo ich mir nicht sicher bin, ist die R300 und Abkömmlinge. Deswegen die Fragezeichen.
Gruß
Alex
Originally posted by Exxtreme
Nein, sondern OpenGL1.3 + Hersteller-Extensions. Um eine Grafikchip-Familie richtig auszunutzen ist bei OpenGL ein eigener Code-Path nötig. Deswegen wird Doom3 AFAIK 3 Code-Paths haben:
1. NV1x, R100, RV200
2. NV2x, R200, R300(?), RV300(?), Parhelia
3. NV3x, R300(?), R350(?)
Da, wo ich mir nicht sicher bin, ist die R300 und Abkömmlinge. Deswegen die Fragezeichen.
Gruß
Alex
Doom3 wird mindestens 6 Renderpfade haben, wobei NV und ATI wegen der spezifischen Extensions klar getrennt sind:
-Standard ARB-Extensions
-NV1x
-NV2x
-NV30
-R200/RV250/R300
-P10 (ist ähnlich dem NV1x-Pfad)
-möglicherweise Parhelia und Xabre
-OpenGL 1.3 Base/2.0 (werden wohl nicht Teil des Spiels)
robbitop
2002-09-02, 15:14:35
ohhh mann war ich blöd..wahrscheinlich schon zu müde...klar Doom is ja OGL..klar..id Software und JC....oh mann...
sorry nochma...LoL
jedenfalls nutzt AFAIK Doom3 die Shader auch nicht richtig aus.
sondern erst richtig die TNL Unit.
Also Shader sind nicht die Basis für das spiel (sonst könnte man es schlecht/garnicht auf R100/RV200/NV10/11/15 Chips spielen.
naja durch die Verschiedenen Renderpfade werden denke ich die Shader aber schon recht ordendlich genutzt, aber ich glaube nicht dass die Pfade für NV30/R300 und NV20/25/R200 das Spiel grossartig besser aussehen lassen. kann mich auch irren.
-> Abwarten und Tee..na ihr wisst schon ;-)
Richthofen
2002-09-02, 16:15:39
besser nicht, aber es wird fixer laufen auf den neueren Generationen wegen leistungsfähigerer Shader Hardware.
zeckensack
2002-09-02, 16:40:48
OT zu Doom 3:
Doom 3 setzt Dot3 Bumpmapping, Stencil und Destination Alpha voraus. Mehr nicht. Deswegen ist NV10/R100 das Minimum. Allerdings werden dann die relativ aufwendigen Lichtberechnungen (nicht die Schattenberechnungen) in gar fürchterliches Multipassing aufgeteilt (JC: Doom 3 sieht auf allen lauffähigen Karten gleich aus).
Shader-HW wird benutzt um weniger Passes zu benötigen und führt so zu drastisch besserer Performance.
Vertex Shader werden für das Animationssystem benutzt, Standard-T&L dagegen muß in OpenGL sowieso nicht explizit unterstützt werden.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.