Archiv verlassen und diese Seite im Standarddesign anzeigen : Neue NV40-Details (und vieeel Marketing...)
Hellknight[FA]
2004-02-10, 12:14:47
http://www.theinquirer.net/?article=14058
demnach soll die Karte (auf den NV38 bezogen)
3 x schneller sein und
8 x schnellere Shader besitzen
sowie speziell
4 x schneller in Doom III und
7 x schneller in HalfLife 2 sein
Klingt für mich nach Einschüchterungstaktik :D ;) wäre aber zu schön um wahr zu sein :D ;)
Greetings
Timo
HOT@Work
2004-02-10, 12:20:48
Lächerlich wie immer solche angaben :D
Wie bekannt werden diese Werte aber wieder mal nur in speziellen Einzelsituationen erreicht, oder sind sogar völlig aus der (Marketingabteilungs-)Luft gegriffen oder beziehen sich auf einen NV38@50MHz.
mrdigital
2004-02-10, 12:25:19
Hat es was zu bedeuten das ein Herr "Fuad" den Artikel geschrieben hat? ;D
Sphinx
2004-02-10, 12:25:22
LoL - ihr ungläubigen ,)
StefanV
2004-02-10, 12:36:52
hm, ein Fall für die Spielwiese?? :|
Demirug
2004-02-10, 12:48:52
Original geschrieben von Stefan Payne
hm, ein Fall für die Spielwiese?? :|
Nicht wirklich. Ein Körnchen Wahrheit steckt in dem was Fuad hier schreibt wohl schon. Allerdings sollte er lernen richtig abzuschreiben.
Quasar
2004-02-10, 12:49:22
Original geschrieben von Hellknight[FA]
4 x schneller in Doom III und
7 x schneller in HalfLife 2 sein
Letzteres könnte ich mir ja noch fast vorstellen, wenn man bedenkt, wieviel Potential im nV3x brachliegt (dazu noch Takt und mehr Pixel pro Clock und fertig haben wir). Und Ersteres wäre demnach auch möglich, wenn man den ARB32-Pfad meint. *eg*
Fragt sich nur, ob ATi da nich ein bißchen mehr rausholt mit dem R420.
Godmode
2004-02-10, 12:56:15
Ich bin ja echt schon gespannt ob NV jetz endlich wieder mal eine TOP GPU auf den Markt bringt? Und vor allem ob sie schneller sind als ATI. Naja ich würde es ihnen wünschen da sie sich mit dem nv30 ja ordentlich blamiert haben :). ATI wird aber auch sicherlich nicht geschlafen haben und die werden sicher auch ein schnelles Teil liefern
TheCounter
2004-02-10, 15:19:29
Also das sind Träumereien, mehr nicht. 7x schneller in HL2? Ja vielleicht in Einzelsituationen wo der NV38 nur 5 FPS oder so hat, genauso wie bei Doom 3. Das wird viel zu verallgemeinert und da viele Leute (Damit mein ich jetzt Leute die sich nicht so auskennen) dann davon ausgehen das dass durchschnittlich 7x bzw. 4x mehr FPS sind, glauben sie das auch noch.
Die Realität wird ganz anders aussehen, solchen Zahlen schenk ich keine Aufmerksamkeit und Bedeutung mehr, nach dem was in letzter Zeit alles versprochen wurde. Wenn dann will ich unabhängige Benchmarks sehen, und zwar nichnur einen sondern so viele wie Möglich das man nen Vergleich hat.
Also heißt es erstmal wieder warten.
Godmode
2004-02-10, 15:32:44
Ich hab bis jetz auch immer viel mehr von neuen Gpu's erwartet, als was dann letztendlich herausgekommen ist. Ja schön und gut dass Nvidia beim Core 600 MHz erreichen will aber ich glaube trotzdem nich das sie dass erreichen. War bis jetz immer so, nv38 wollten sie auch viel mehr ich glaub so 500-550. Aber weil die Ausbeute dann zu schlecht gewesen wäre haben sie doch wieder nur 475 gemacht :(. naja kann man gespannt sein was es dann letztendlich wird, aber ich erwarte einfach nicht mehr soviel
Hellknight[FA]
2004-02-10, 15:34:59
Original geschrieben von TheCounter
Also das sind Träumereien, mehr nicht. 7x schneller in HL2? Ja vielleicht in Einzelsituationen wo der NV38 nur 5 FPS oder so hat, genauso wie bei Doom 3. Das wird viel zu verallgemeinert und da viele Leute (Damit mein ich jetzt Leute die sich nicht so auskennen) dann davon ausgehen das dass durchschnittlich 7x bzw. 4x mehr FPS sind, glauben sie das auch noch.
Scheisse, wo hamse Dich denn rausgelassen? WOAHHH ein gaaanz hartgesottener Hardware-Pro :lol: . Wir anderen Nubs ham' ja keine Ahnung wat?
Wahrscheinlich gehörst Du ebenfalls zu der von Dir genannten Riege der Leute die sich nicht so auskennen :lol:.
OK mein Kleiner - jetzt für die hinteren Ränge:
Zur Zeit ist es so, dass ATi-Grafikkarten bei den Beta-HL2-Benchmarks durchschnittlich wesentlich besser dastehen als NV-Karten. Allerdings kommt dies nur dadurch zu Stande da, sobald es shader-lastig wird NV-Karten ziemlich in die Knie gehen (z. B. 5 fps). Genau dies soll jetzt (zumindest habe ich es so verstanden) um den Faktor 7 angehoben werden (dann sinds halt mit dem NV40 bei der betreffenden Szene 35 fps).
Natürlich geht dadurch nicht automatisch die durchschnittliche Framerate um den selben Faktor nach oben. Deshalb wurde ja auch geschrieben, dass die allgemeine Geschwindigkeit nur um den Faktor 3 ansteigt.
Außerdem schaue ich bei Benchmarks net auf die maximale Bildwiederholrate sondern eher auf die minimale ...
Demirug
2004-02-10, 15:38:01
Hellknight, bitte etwas freundlicher zu deinen Mitmenschen sein.
[dzp]Viper
2004-02-10, 15:39:56
Original geschrieben von Hellknight[FA]
Zur Zeit ist es so, dass ATi-Grafikkarten bei den Beta-HL2-Benchmarks durchschnittlich wesentlich besser dastehen als NV-Karten. Allerdings kommt dies nur dadurch zu Stande da, sobald es shader-lastig wird NV-Karten ziemlich in die Knie gehen (z. B. 5 fps). Genau dies soll jetzt (zumindest habe ich es so verstanden) um den Faktor 7 angehoben werden (dann sinds halt mit dem NV40 bei der betreffenden Szene 35 fps).
TheCounter hat NIX anderes geschieben....
Original geschrieben von Hellknight[FA]
Natürlich geht dadurch nicht automatisch die durchschnittliche Framerate um den selben Faktor nach oben. Deshalb wurde ja auch geschrieben, dass die allgemeine Geschwindigkeit nur um den Faktor 3 ansteigt.
Faktor 3? Ich würde sagen, dass dies immer noch Träumerei ist ;) eher Faktor 1,5 oder MAXIMAL 2 (obwohl das auch schon extrem unwahrscheinlich ist)!
Wenn die allgemeine geschwindigkeit (=durchschnittsgeschwindigkeit?!) um den faktor 2 ansteigen würde, dann hätten wir ja einen noch nie dagewesenen fps ansprung und genau deswegen ist es so unwahrscheinlich. Es gab bisher noch NIE einen so extrem starken anstieg der durchschnittsfps (nur in ausgewählten benchmarks vielleicht...)
Spake
2004-02-10, 15:42:45
was mich vielmehr interressiert ist die aussage 8x schnellere Shader
könnte ja sein dass nv sich einfach mal gedacht PS und VS zu vereinen
nachdem bereits im nv30 ein VS array geschaffen wurde könnte es doch durchaus wahrscheinlich sein???
wenn dem so wäre wären wohl auch die angaben zu der spiele-verschnellerung durchaus erstzunehmen(die richtigen situationen vorausgesetzt)
Tigerchen
2004-02-10, 15:43:07
Was wurdem dem NV30 nicht für Performancesprünge angedichtet....
Same procedure than every year ......
[dzp]Viper
2004-02-10, 15:44:36
Original geschrieben von Tigerchen
Was wurdem dem NV30 nicht für Performancesprünge angedichtet....
Same procedure than every year ......
oder zu geforce 1 zeiten (oder geforce 2 zeiten - oder geforce 3 zeiten)
Es ist immer das selbe... Und jedes mal fallen viele drauf rein :D
In normalen SPielen wird derzuwachs sicher nicht mehr als 30-40 % betragen - mit AA und AF vielleicht 50% - aber sicher nicht 150% ;)
Quasar
2004-02-10, 15:45:08
Original geschrieben von Spake
was mich vielmehr interressiert ist die aussage 8x schnellere Shader
könnte ja sein dass nv sich einfach mal gedacht PS und VS zu vereinen
nachdem bereits im nv30 ein VS array geschaffen wurde könnte es doch durchaus wahrscheinlich sein???
wenn dem so wäre wären wohl auch die angaben zu der spiele-verschnellerung durchaus erstzunehmen(die richtigen situationen vorausgesetzt)
An 4.0-Shader aus DirectX-Next glaube ich noch nicht. Zumindest nicht bei nV40 und R420.
Sunrise
2004-02-10, 16:14:59
Original geschrieben von Spake
was mich vielmehr interressiert ist die aussage 8x schnellere Shader
könnte ja sein dass nv sich einfach mal gedacht PS und VS zu vereinen
nachdem bereits im nv30 ein VS array geschaffen wurde könnte es doch durchaus wahrscheinlich sein???
wenn dem so wäre wären wohl auch die angaben zu der spiele-verschnellerung durchaus erstzunehmen(die richtigen situationen vorausgesetzt)
Was mich viel mehr interessiert: Wieso ist NV nicht einfach still und liefert, statt vorher die Welt verrückt zu machen ?
Keine einzige Aussage aus dieser Präsentation liefert auch nur einen Funken an Details.
HajottV
2004-02-10, 16:27:28
Original geschrieben von Spake
[...] aussage 8x schnellere Shader [...] könnte es doch durchaus wahrscheinlich sein???
Wieso funktioniert das eigentlich immer? Lernen die Leute nicht aus der Erfahrung (= GF1, GF2, GF3, GF4, FX)?
Setz' bei jeder Zahl eine "1," davor, und die Werte sind realistisch.
Gruß
Jörg
Demirug
2004-02-10, 16:32:11
Bei den PS >= 2.0 hat nV ja gar keine andere Wahl als massive schneller zu werden. Bisher waren sie noch nie so unter Druck gewesen eine Leistungssteierung zu erreichen.
TheCounter
2004-02-10, 16:38:37
Original geschrieben von Hellknight[FA] Zur Zeit ist es so, dass ATi-Grafikkarten bei den Beta-HL2-Benchmarks durchschnittlich wesentlich besser dastehen als NV-Karten.
Ahja, ich bezieh mich (Obwohl ichs nicht hingeschrieben habe) auf Benchmarks die mit den neuen Forceware Treibern gemacht wurden, da steht die FX garnicht mal so schlecht da, die Benchmarks von Valve (sponsored by ATI) waren eh für die Tonne.
Das sind alles nur irgendwelche Zahlen, die Realität kann ganz anders aussehen. Kann gut sein das die Zahlen war sind, aber wie ich auf Seite 1 schon geschrieben habe nur in Extremfällen. Oder es passiert ein Wunder *g*
tja wenn ATI mit R420 auf 0,13nm geht können se auch höher takten blöd gesagt wenn mann ne 9800 auf 600 Mhz chiptakt hat muss NV sich ganz schön ins Zeug legen :)
Fresh Prince
2004-02-10, 16:57:13
Also wenn NV wieder bloß einen neuen Aufguß der viel zu komplizierten CineFX engine liefert dann wird ATI wohl weiterhin nicht zu schlagen sein. NV sollte sich lieber strikt an die DX9 Spezifikationen halten sonst siehts in sachen shaderleistung weiterhin schlecht aus (im vergleich zu ATI)!!
LovesuckZ
2004-02-10, 17:02:48
Original geschrieben von Sunrise
Was mich viel mehr interessiert: Wieso ist NV nicht einfach still und liefert, statt vorher die Welt verrückt zu machen ?
Sagt nichts Nvidia, sondern http://www.theinquirer.net und die schreiben schonmal viel...
LovesuckZ
2004-02-10, 17:03:38
Original geschrieben von Fresh Prince
NV sollte sich lieber strikt an die DX9 Spezifikationen halten sonst siehts in sachen shaderleistung weiterhin schlecht aus (im vergleich zu ATI)!!
Was sind denn diese "strikt[en] [...] DX9 Spezifikationen"?
Demirug
2004-02-10, 17:09:43
Original geschrieben von Fresh Prince
Also wenn NV wieder bloß einen neuen Aufguß der viel zu komplizierten CineFX engine liefert dann wird ATI wohl weiterhin nicht zu schlagen sein. NV sollte sich lieber strikt an die DX9 Spezifikationen halten sonst siehts in sachen shaderleistung weiterhin schlecht aus (im vergleich zu ATI)!!
Komplizierte Shader erfordern einen komplizierten Pixelprozessor. Wenn ATI PS 3.0 haben will dann kommen sie auch um eine entsprechende Architektur nicht herum oder es wird richtig lahm.
Zudem steht in der DX9 Spec nichts darüber wie man etwas implementieren muss/soll. Dort steht nur wie es sich verhalten muss.
Das Grundkonzept von CineFX ist nicht lahm sondern nur das was nVidia daraus gemacht hat bzw aufgrund gewisser Zwänge machen musste. Ein "Aufguß" bei dem die bekannten schwächen beseitigt sind kann Takt für Takt durchaus genauso schnell und auch schneller als der R300 Pixelprocessor sein.
Fresh Prince
2004-02-10, 17:25:50
Original geschrieben von Demirug
Komplizierte Shader erfordern einen komplizierten Pixelprozessor. Wenn ATI PS 3.0 haben will dann kommen sie auch um eine entsprechende Architektur nicht herum oder es wird richtig lahm.
Zudem steht in der DX9 Spec nichts darüber wie man etwas implementieren muss/soll. Dort steht nur wie es sich verhalten muss.
Das Grundkonzept von CineFX ist nicht lahm sondern nur das was nVidia daraus gemacht hat bzw aufgrund gewisser Zwänge machen musste. Ein "Aufguß" bei dem die bekannten schwächen beseitigt sind kann Takt für Takt durchaus genauso schnell und auch schneller als der R300 Pixelprocessor sein.
Danke für die Aufklärung! ;D
Spake
2004-02-10, 17:29:23
ich halte die shader-performance-steigerung für eine der wahrheitsgetreueren aussagen
immerhin glaub ich nett dass nv die einfach so lassen werden wie beim nv30 und einfach versuchen mit treibern dass ganze auszugleichen
außerdem würde nv es sich wohl gerne ohne schwachstelle àla HL2 zeigen
immerhin war der tumult um die werte der damalgien Valve-benches wohl deutlich mehr negative presse für nv als irgendwelche treiber-cheats oder schlechtes AA und wohl acuh deutlich schlimmer für die meinung der DAU's
Ailuros
2004-02-10, 17:35:26
Bei so und so viel angegebener hoeheren Leistung muesste man aber auch wissen welche genau die Vergleichsbasis ist.
2x,3x,7x mal schneller als was genau?
Ich moechte real-time tests von unabhaengigen Quellen sehn und nicht die eigenen Werbebehauptungen von NVIDIA.
Winter[Raven]
2004-02-10, 17:39:30
Original geschrieben von Ailuros
Bei so und so viel angegebener hoeheren Leistung muesste man aber auch wissen welche genau die Vergleichsbasis ist.
2x,3x,7x mal schneller als was genau?
Ich moechte real-time tests von unabhaengigen Quellen sehn und nicht die eigenen Werbebehauptungen von NVIDIA.
Sagt nichts Nvidia, sondern http://www.theinquirer.net ... Wer lesen kann ist klar im Vorteil Ailuros !!!
Ailuros
2004-02-10, 17:43:37
Original geschrieben von Winter[Raven]
Sagt nichts Nvidia, sondern http://www.theinquirer.net ... Wer lesen kann ist klar im Vorteil Ailuros !!!
Ich weiss sehr genau was ich gelesen habe, was ich verstanden hab, was ich weiss und was ich im vorigen Post gesagt habe. Den letzten Satz weise ich mit Liebe auf Dich selber zurueck :D
Spake
2004-02-10, 17:52:07
hat inquirer überhaupt benches durchgeführt? ;)
was mich allerding swundert ist dass noch so wenig über die chips von Ati/nv bekannt ist
immerhin sollen die schon zur Cebit kommen 0der?
wenig bekannt-> wenig verändert
naja hoffentlich nicht :D
Winter[Raven]
2004-02-10, 17:55:55
Original geschrieben von Ailuros
Ich weiss sehr genau was ich gelesen habe, was ich verstanden hab, was ich weiss und was ich im vorigen Post gesagt habe. Den letzten Satz weise ich mit Liebe auf Dich selber zurueck :D
und nicht die eigenen Werbebehauptungen von NVIDIA
Sagt nichts Nvidia, sondern http://www.theinquirer.net ... Wer lesen kann ist klar im Vorteil Ailuros !!!
Häää ?
Muss ich jetzt verstehen was du in deinem Letztem satz verzapft hast ?
LovesuckZ
2004-02-10, 17:56:02
Original geschrieben von Ailuros
Ich weiss sehr genau was ich gelesen habe, was ich verstanden hab, was ich weiss und was ich im vorigen Post gesagt habe.
Nunja, Nvidia's "eigenen Werbebehauptungen" werden wohl kaum von FUD geleitet. Wurde von nvidia nichtmal behauptet, dass man keine Kommentare mehr zu seinem "Enthuellungen" abgeben werde?
Solange wie die Werte nicht von nvidia per PDF oder abfotografierten Folien stamm (oder sonst was), solange kann man wohl kaum nvidia für die Aussagen von FUD verantwörtlich machen.
Nunja, wahrscheinlich bin ich sowieso der einzigste, der dies versteht...
Ailuros
2004-02-10, 17:56:30
Es sollte wohl bekannt sein, dass man beim Inquirer gerne abschreibt von das was sonst woanders erwaehnt wird.
Ailuros
2004-02-10, 17:59:02
Original geschrieben von LovesuckZ
Nunja, Nvidia's "eigenen Werbebehauptungen" werden wohl kaum von FUD geleitet. Wurde von nvidia nichtmal behauptet, dass man keine Kommentare mehr zu seinem "Enthuellungen" abgeben werde?
Solange wie die Werte nicht von nvidia per PDF oder abfotografierten Folien stamm (oder sonst was), solange kann man wohl kaum nvidia für die Aussagen von FUD verantwörtlich machen.
Nunja, wahrscheinlich bin ich sowieso der einzigste, der dies versteht...
Lovesuck,
Halte mal bitte Deine Puste bis zur Veroeffentlichung. Ich werde noch hier sein und dann kannst Du auf das Thema nochmal zurueckkommen.
Es handelt sich um Material dass ungluecklicherweise zu frueh herausgesickert ist. Das da Fehler drinstehen beim Inquirer wurde ja schon erwaehnt.
Winter[Raven]
2004-02-10, 18:00:32
Nunja, wahrscheinlich bin ich sowieso der einzigste, der dies versteht...
Noe, bist ned alleine ^^. Ich bin an deiner Seite ... :D
Wobei mich persönlich da dieses Zitat von Demi etwas stört:
Allerdings sollte er lernen richtig abzuschreiben.
@ Demirug
Du redest so als würdest du mehr wissen als du sagst ^^.
LovesuckZ
2004-02-10, 18:02:10
Original geschrieben von Ailuros
Lovesuck,
Halte mal bitte Deine Puste bis zur Veroeffentlichung. Ich werde noch hier sein und dann kannst Du auf das Thema nochmal zurueckkommen.
Ich hab nur FUD als "Quelle", somit bin ich zur Zeit eher misstraurisch gegenüber den werten und den bashen gegen Nvidia wegen den Zahlen. Sollten diese Zahlen so aehnlich von nvidia veröffentlicht werden, dann ja, lohnt es sich. Vorher nicht.
Ansonsten, mein PN Fach steht dir jederzeit offen
:)
Demirug
2004-02-10, 18:12:16
Original geschrieben von Winter[Raven]
@ Demirug
Du redest so als würdest du mehr wissen als du sagst ^^.
Wenn dem so wäre dann dürfte ich nicht mehr sagen. Womit es also egal ist ob ich nun mehr weiss oder nicht.
Sunrise
2004-02-10, 18:43:01
Original geschrieben von LovesuckZ
Sagt nichts Nvidia, sondern http://www.theinquirer.net und die schreiben schonmal viel... Original geschrieben von Winter[Raven]
Sagt nichts Nvidia, sondern http://www.theinquirer.net ... Wer lesen kann ist klar im Vorteil Ailuros !!!
Der gesammte Artikel ist direkt abgeschrieben von einer Präsentation von NVIDIA, die schon länger zurück liegt. FUAD ist ja bekannt für seine eigenen Kreationen, die er auf anderen Seiten "zusammenmischt".
Winter[Raven]
2004-02-10, 18:49:51
Der gesammte Artikel ist direkt abgeschrieben von einer Präsentation von NVIDIA
Ahhh ... Quelle ? Beweise ? Foto ?
Original geschrieben von Sunrise
Was mich viel mehr interessiert: Wieso ist NV nicht einfach still und liefert, statt vorher die Welt verrückt zu machen ?
Keine einzige Aussage aus dieser Präsentation liefert auch nur einen Funken an Details.
Zeig mir mal bitte die Stelle wo es von Nvidia Aussagen zum NV4x gibt.
Dann können wir über das "die Welt verrückt" machen nochmal reden.
Solange so irgendeine Spastenseite im Internet nur irgendwelchen Dünnschiss hinschreibt, hat Nvidia damit nix am Hut und ist somit auch nicht in der Verantwortung.
loewe
2004-02-10, 19:26:18
Original geschrieben von Demirug
Wenn dem so wäre dann dürfte ich nicht mehr sagen. Womit es also egal ist ob ich nun mehr weiss oder nicht.
Gute Antwort! :D
Mich wundert eigentlich nur wie lange es gedauert hat, bis es endlich durchgesickert ist. :)
Original geschrieben von Ailuros
Lovesuck,
Halte mal bitte Deine Puste bis zur Veroeffentlichung. Ich werde noch hier sein und dann kannst Du auf das Thema nochmal zurueckkommen.
Es handelt sich um Material dass ungluecklicherweise zu frueh herausgesickert ist. Das da Fehler drinstehen beim Inquirer wurde ja schon erwaehnt.
Ist mir vollkommen egal wovon es sich hier handelt. Solange sich nicht Derek Perez oder Brian Burke hinstellen und mir sagen wie schnell angeblich der NV40 wird, solange ist für mich das alles nur Geschwätz von Webseiten und niemanden sonst - und damit Aus die Maus und Basta.
Demirug
2004-02-10, 19:33:25
Original geschrieben von loewe
Gute Antwort! :D
Mich wundert eigentlich nur wie lange es gedauert hat, bis es endlich durchgesickert ist. :)
Du weisst ja das sich das alte Plappermaul Fuad es sich mit nV verscherzt hat. Er muss sich seine Sache jetzt wohl auf umständlichere Art und Weise besorgen. Die anderen scheinen sich diesesmal auch weitgehend an die NDA zu halten.
Tigerchen
2004-02-10, 19:33:29
Brian Burke! Irgenwie ist sowas doch sein Stil oder? :D
Who the hell is Fuad? :???:
MfG,
Raff
Demirug
2004-02-10, 20:07:45
Original geschrieben von Raff
Who the hell is Fuad? :???:
MfG,
Raff
Fuad Abazovic ist der "Grafikexperte" von Inquirer. Seine Kristalkugel ist berühmt und berüchtigt. Auf der letzten Cebit hat in nVidia vom Stand geschmissen.
seahawk
2004-02-10, 20:18:19
Da hat er wohl was gehört oder kurz gesehen :D
Der Artikel ist typisch für ihn :D
Sunrise
2004-02-10, 20:29:00
Original geschrieben von Gast
Zeig mir mal bitte die Stelle wo es von Nvidia Aussagen zum NV4x gibt.
Dann können wir über das "die Welt verrückt" machen nochmal reden.
Solange so irgendeine Spastenseite im Internet nur irgendwelchen Dünnschiss hinschreibt, hat Nvidia damit nix am Hut und ist somit auch nicht in der Verantwortung.
Schonmal daran gedacht zu reggen ? Oder willst du uns damit irgendwas wichtiges sagen ?
VooDoo7mx
2004-02-10, 20:29:31
Original geschrieben von Demirug
Auf der letzten Cebit hat in nVidia vom Stand geschmissen.
LOL
Wusste ich ja noch gar nicht...
Richtig so immer feste druff! :punch:
:w00t:
Demirug
2004-02-10, 20:45:18
Ach ja ganz vergessen. Die inzwischen wohl offizielle 3DCenter Forum Schreibweise ist:
:cop: FUAD :cop:
oder die Langform:
:cop:
Follow
Up
Advanced
Disinformation
:cop:
@ Demirug: Thx 4 info. So eine berühmte Persönlichkeit ist das also. ;) Komisch, dass ich noch nie genaueres über den gehört habe.
Zu den "Daten" sage ich mal nicht mehr als dass ich ihnen keinen Glauben schenke. Klingt IMHO zu gut, um wahr zu sein und man kennt das ja schon von vielen voran gegangenen Chips... Daher: Abwarten und Tee trinken, in ein paar Wochen wissen wir mehr.
MfG,
Raff
Exxtreme
2004-02-10, 20:53:41
Original geschrieben von Tigerchen
Brian Burke! Irgenwie ist sowas doch sein Stil oder? :D
Ja, das könnte hinhauen. BB ist echt ein Fall für sich. Und :cop: FUAD :cop: hat das gefressen.
Leonidas
2004-02-10, 21:41:51
Original geschrieben von Demirug
Fuad Abazovic ist der "Grafikexperte" von Inquirer. Seine Kristalkugel ist berühmt und berüchtigt. Auf der letzten Cebit hat in nVidia vom Stand geschmissen.
Was ich auch (in milderer Form) geschafft habe, als ich ein paar (illegale) GeForceFX-Benches an den herumstehenden Testgeräten versucht habe ;-)).
Original geschrieben von Leonidas
Was ich auch (in milderer Form) geschafft habe, als ich ein paar (illegale) GeForceFX-Benches an den herumstehenden Testgeräten versucht habe ;-)).
Aber zum Glück erst nachdem die Testkarten im Gepäck waren ;)
MadManniMan
2004-02-10, 23:05:45
Original geschrieben von Hellknight[FA]
3 x schneller sein und
8 x schnellere Shader besitzen
Bei den Shadern wirds Kram sein, der durch momentanerweise bescheidene Implementationen arschlahm ist.
Beim "3x" hab ich 2 Varianten, die jeweils von FSAA & AF betroffen sind:
a) nV hat irgend bei einer AA-Variante an der EER gefeilt und vergleicht nun in hoher Res mit dem NV38 bei eben gleicher EER, aber anderer Samplezahl
b) nV hat am AF "geschraubt" ( :D ) und zeigt nun - in Verbindung mit einer dereinst über Supersampling erreichte Samplezahl und damit in unreiner Relation zum NV38 - daß ATi mit dem "doofblinden" User doch Recht hatte
3x Rawpower? Ausgeschlossen.
Original geschrieben von Hellknight[FA]
4 x schneller in Doom III und
7 x schneller in HalfLife 2 sein
Bingo, alles Spezial-&Extrem-st² Fälle (TM).
Zumindest wissen wir, daß der NV40 etwas wird, auf das wir uns freuen können - man vergleiche nur mit dem Marketingscheißdreck betreffs NV20. Im Endeffekt war die Karte die IMHO bisher beste von nV =)
(del676)
2004-02-10, 23:12:38
naja ... so toll klingen die zahlen auch ned ...
StefanV
2004-02-10, 23:20:33
Original geschrieben von Ulukay
naja ... so toll klingen die zahlen auch ned ...
Nujo, klingt irgendwie nach 'Nem 'brauchbaren' Update, a la GF2 -> GF3...
Soo der überchip wird der nV40 wohl auch nicht werden, wobei ich auch nicht wirklich denke, daß nV einen rundumschlag machen wird und sich von dem 'alten Ballast' trennen werden wird...
Original geschrieben von MadManniMan
3x Rawpower? Ausgeschlossen.In DirectX9-Spielen durchaus möglich.
8x schnellere Shader, Rechnung à la Demirug:
- Aufspaltung Vector4 in Vector3+Scalar: *2 (in Spezialfällen, wir reden von der "Peak Performance :))
- Mehr Units: *2 (wenn 8 Pipes)
- größeres Temp-File: *X, sagen wir mal, *2.
Schon haben wir 8x Leistung.
MadManniMan
2004-02-10, 23:37:26
Original geschrieben von Stefan Payne
Nujo, klingt irgendwie nach 'Nem 'brauchbaren' Update, a la GF2 -> GF3...
Bingo. Und darauf freu ich mich auch :)
Original geschrieben von Stefan Payne
Soo der überchip wird der nV40 wohl auch nicht werden, wobei ich auch nicht wirklich denke, daß nV einen rundumschlag machen wird und sich von dem 'alten Ballast' trennen werden wird...
Die Wurzeln wirst Du eh nicht los, jedes noch so abenteuerlich wirkende Design irgendwelcher Firmen ist bisher evolutionär gewesen.
Einen überraschenden Chip gibts - wenn überhaupt - höchsten von einem, der nicht zum "Oligopol" gehört. Ub0rchips wirds dank der meines Erachtens relativen Einheitlichkeit zwischen Loci und NV40 nicht von unseren Rotgrünen Freunden geben - und auch nicht von anderen. Schließlich wird jeder seine Stärken und Schwächen haben, dank denen man nicht mehr ohne wie dereinst ne V2 empfehlen kann.
MadManniMan
2004-02-10, 23:43:05
Original geschrieben von aths
In DirectX9-Spielen durchaus möglich.
In speziellen, konstruierten, oder aber zufälligen Szenen - ok!
Alles <= 2.0? Nope.
Original geschrieben von aths
8x schnellere Shader, Rechnung à la Demirug:
- Aufspaltung Vector4 in Vector3+Scalar: *2 (in Spezialfällen, wir reden von der "Peak Performance :))
- Mehr Units: *2 (wenn 8 Pipes)
- größeres Temp-File: *X, sagen wir mal, *2.
Schon haben wir 8x Leistung.
Mit Skalarprodukten und Temp-Dings kannst Du mich jagen, von daher laß ich Dir deine 2mal "2*" stehen, aber für das dritte "*2" kannste von mir kein Nicken erwarten.
Mehr Pipes? IMHO 1.5* auch wenn Du Dich dagegen wehrst. Dann nochmal 1.333* durch Mehrtakt + Effektivität.
deekey777
2004-02-10, 23:45:30
!Description
NVidia claims about its, upcoming, NV40 chip are beginning to raise hopes that the graphics war may truly be back on. Even though the claims about the new chip may seem extravagant, they do seem to suggest that the new boards will correct quite a few of the misgivings of the current core which has kept NVidia playing second fiddle to Canadian rival ATI.
According to the inquirer.net, the new core will enable cards to run four times faster in Doom 3 and seven times faster in Half Life 2 then its current fastest product. In order to back-up such extravagant claims the company indicates that the NV40 will support the shader models 3.0 that it claims are in DirectX 9.0c and that the new chip will have three times the performance and eight times faster shaders than the NV35. If any of this is even remotely close to the cards actual performance then the graphics speed crown will really be up for grabs this time round.
The NV40 is expected to run at between 450 and 550 MHz with the faster versions gaining the coveted U or Ultra marking while the memory will be GDDR 2 or 3. NVidia has also been working on keeping the noise levels down on the new boards, so expect an improvement there too.
Although sample boards should be out this month, cards are expected to become available in April while the official announcement is expected during this year's CeBit exhibition i.e. Thursday 18th of March."
http://www.megagames.com/news/html/hardware/nv403timesfasterthangfx5950.shtml
Allein die Aussage, dass die NV40 sieben mal schneller in HL2 sein wird (im Vergleich zur TNT?), ist schon ein Hammer! Und viermal schneller in Doom3... Und deren Englisch ist auch nicht das beste...
StefanV
2004-02-10, 23:46:48
Original geschrieben von aths
In DirectX9-Spielen durchaus möglich.
8x schnellere Shader, Rechnung à la Demirug:
- Aufspaltung Vector4 in Vector3+Scalar: *2 (in Spezialfällen, wir reden von der "Peak Performance :))
- Mehr Units: *2 (wenn 8 Pipes)
- größeres Temp-File: *X, sagen wir mal, *2.
Schon haben wir 8x Leistung.
aths, ich denke hier eher an FSAA...
Nehmen wir mal 4x RGAA beim NV40 an...
Soweit so gut, wie man nV kennt, werden sie dann 12x gegen 4x RGAA benchen und schon hat man die entsprechende Mehrleistung...
Wenn man AF noch a la ATI optimiert, dann kann man auch mal auf 7x kommen *eg*
Quasar
2004-02-10, 23:51:59
Original geschrieben von Stefan Payne
Soweit so gut, wie man nV kennt, werden sie dann 12x gegen 4x RGAA benchen und schon hat man die entsprechende Mehrleistung...
Da kenn' ich noch ganz andere, heiße Verfechter dieser Methode. :naughty:
Und gerade die empören sich des Öfteren über nVidias Marketing-Methoden.
Ich hoffe wirklich, daß du recht hast, Stefan. Dann möchte ich nämlich gern mal die Reaktion der Betroffenen/Betreffenden sehen. *eg*
Jo Demirug du willst uns also damit sagen, dass einige hier jetzt schon ungefähr wissen wie schnell die neuen chips werden richtig?? :)
Nur wir dummen hier, hocken rum und haben keine ahnung :( das ist echt bisserl nervig *gg
Wie heisst es so schön "Wissen ist Macht"
Original geschrieben von MadManniMan
In speziellen, konstruierten, oder aber zufälligen Szenen - ok!
Alles <= 2.0? Nope.Ich rede von 2.0 (und 2.X.)
Original geschrieben von MadManniMan
Mit Skalarprodukten und Temp-Dings kannst Du mich jagen, von daher laß ich Dir deine 2mal "2*" stehen, aber für das dritte "*2" kannste von mir kein Nicken erwarten.
Mehr Pipes? IMHO 1.5* auch wenn Du Dich dagegen wehrst. Dann nochmal 1.333* durch Mehrtakt + Effektivität. *1.5 bei 6 Pipes. Durch die Aufspaltung der Einheiten gibt es auch einen Schub. Dann eben noch die Sache mit den Temps. Takt für Takt und Pipe für Pipe wird es wohl mindestens R300-Effektivität geben.
Die Zahlen sind natürlich unbrauchbar, bewusst irgendwo "geleakt" damit das alle schreiben. Gerade bei den Shadern ist aber das größte Potenzial da (und beim FSAA natürlich.)
MadManniMan
2004-02-11, 00:02:47
Original geschrieben von aths
Schon haben wir 8x Leistung.
BS, was ich sagte! Sorry, reunion hatte sich verschrieben! Laut :cop: Mr. Schlau :cop: gibts die Angaben in Bezug auf den NV35, nicht den NV38. Damit gilts neben den Pipes*1.5 nur noch mit 1.333* Mehrtakt auf deinen 2er Faktor zu kommen, was bei einer Basis von 400MHz schon machbar sein sollte. 533MHz ahoi!
MadManniMan
2004-02-11, 00:06:32
Original geschrieben von aths
Ich rede von 2.0 (und 2.X.)
Huppa, mir ist da ein "=" hinter das "<" gerutscht. Ich meinte auch, daß 2.* durchaus im Rahmen des Möglichen wär.
Original geschrieben von aths
*1.5 bei 6 Pipes. Durch die Aufspaltung der Einheiten gibt es auch einen Schub. Dann eben noch die Sache mit den Temps. Takt für Takt und Pipe für Pipe wird es wohl mindestens R300-Effektivität geben.
Eben, hab ich ja schon gesagt. Mich wundert jetzt nur, daß Du mir so wenig bei der Annahme eines x*2/2-Pipe Aufbaus für NV4X widersprichst :)
Original geschrieben von Stefan Payne
Nujo, klingt irgendwie nach 'Nem 'brauchbaren' Update, a la GF2 -> GF3...
Soo der überchip wird der nV40 wohl auch nicht werden, wobei ich auch nicht wirklich denke, daß nV einen rundumschlag machen wird und sich von dem 'alten Ballast' trennen werden wird...
also wenn du mit "alter Ballast" kein Winkelabhaengiges (vernuenftiges) AF oder Features ala Shader 2.x anstatt nur 2.0 meinst, dann waers ziemlich traurig....
obwohl man bei den Zahlen vermuten kann das winkelabhaengiges AF ala Ati eingebaut wird...traurig traurig...
Ailuros
2004-02-11, 06:34:10
Original geschrieben von Gast
Ist mir vollkommen egal wovon es sich hier handelt. Solange sich nicht Derek Perez oder Brian Burke hinstellen und mir sagen wie schnell angeblich der NV40 wird, solange ist für mich das alles nur Geschwätz von Webseiten und niemanden sonst - und damit Aus die Maus und Basta.
Schoen. Obwohl es Ungenauigkeiten im FUAD Artikel gibt, stell ich Dir jetzt schon ein paar Besen bereit und sicher nicht um das Forum zu kehren :D
Mach ein Rendezvous mit den beiden aus fuer den Kaffeekranz, kann sein dass sie doch zu beschaeftigt sind ;)
WinterRaven & Lovesuck,
Habt ihr je NV's Marketing in der Vergangenheit verfolgt oder nicht? Und wenn wir schon dabei sind Marketing ist normal, ich persoenlich halte nichts davon und dass abgesehen welchen IHV es betreffen koennte, deshalb sind mir auch unabhaengige real-time Tests wichtiger.
Wieso der ganze Fusel ueberhaupt? Erwartet ihr beiden vielleicht dass NV40 nur als 30% schneller als NV3x vermarktet wird oder was? Ja um genau die Vermarktung geht es hier. Nirgends hab ich gesagt dass jegliche angegebenen Unterschiede nicht der Realitaet entsprechen koennten oder sogar werden, wobei die Vergleichsbasis aber doch ein anderes Kapitel ist.
Hypothetisches Beispiel: R3xx im Fall (a) = N Leistung; R4xx im gleichen Fall (a) = 3*N Leistung. Soweit so gut ja? Marketing-technisch stimmt das dann auch, egal ob N= 10fps z.B. sein koennte oder nicht. Wo genau ist der Einwand nochmal?
Ailuros
2004-02-11, 06:54:50
The Anti-FUAD game:
NVIDIA'S UPCOMING graphics chip, NV40, supports the Shader models 3.0 that Nvidia claims are in DirectX 9.1 and which, in the real world, are in DirectX 9.0c.
+1
Still, Nvidia's fearless marketeers are also claiming that the chip has three times the performance and eight times faster shaders than the NV35—Geforce FX 5950. Hmm
-1
It's even more interesting that Nvidia claims that its card will end up four times faster in Doom 3 and seven times faster in Half Life 2.
-1
NV40 is still AGP
+1
Nvidia calls its NV40 board an "enthusiast" board since it will come at high end price. Boards will be samples this month, February, with availability in April.
+1 (projected best case scenario)
Launch date so far remains Cebit's Thursday 18th of March.
+1
NVIDIA IS BEAVERING away creating the NV45, a chip which uses PCI Express and marks a break of tradition for the graphics gnome.
+1
NV45 comes equipped with 256MB of 256Mbit GDDR3 memory, and not GDDR 2 like we suggested before.
+1
Nvidia will call its NV45 board the PCI Express Enthusiast board and this baby will cost you $499.
+1
Nvidia has put its PCI Express generation of cards under a Q2 hat but we suspect that NV45 might be announced together with NV40 so let's say it will be launched at SnoBIT in Hangover in March.
+1
Demirug
2004-02-11, 07:31:29
Original geschrieben von Gast
Jo Demirug du willst uns also damit sagen, dass einige hier jetzt schon ungefähr wissen wie schnell die neuen chips werden richtig?? :)
Nur wir dummen hier, hocken rum und haben keine ahnung :( das ist echt bisserl nervig *gg
Wie heisst es so schön "Wissen ist Macht"
Was einige hier wissen weiss ich nicht. Ich weiss nur was ich weiss. Da ich keine Karte mit einem NV40 habe und auch niemand den ich kenne mir gegenüber bestätigt eine solche Karte zu haben weiss ich definitive nicht wie schnell die neuen Chips werden. Papier ist ja bekanntermassen geduldig.
Ailuros
2004-02-11, 08:27:14
OT: Ich bin im Grunde froh dass - so wie es aussieht - beide grossen IHVs nur sehr nahe an Verfuegbarkeit ankuendigen. Etwa 1 Monat davor ist IMHO eine ideale Periode. Das Gegenteil waere dann ein Fall wo ich Bedenken mit Sachen wie "Geduld" und "Papier" haette ;) (ja ich hab den vorigen Kommentar schon richtig verstanden, nur ist es eine Aussnahme die ich erwaehnen wollte).
Wie komisch es auch klingen mag: ich wuensche ATI und NV viel Glueck was deren naechster Generations Produkte betrifft und ich darf mir wohl auch einen fairen Kampf wuenschen oder?
Original geschrieben von Quasar
Da kenn' ich noch ganz andere, heiße Verfechter dieser Methode. :naughty:
Und gerade die empören sich des Öfteren über nVidias Marketing-Methoden.
Ich hoffe wirklich, daß du recht hast, Stefan. Dann möchte ich nämlich gern mal die Reaktion der Betroffenen/Betreffenden sehen. *eg*
Meinst du die Schreiber dieses Artikels (http://www.3dcenter.de/artikel/ati_nvidia_aa_performance/)?
Der zeigt doch schön wie "Scheiße" das AA von Nvidia ist. ;D ;D Und ja, du hast recht. Wenn man so einen Massstab anlegt dann gilt er natürlich auch für beide, ATi und Nvidia. Wenn also Nvidia behaupten sollte, das man jetzt 4xRGAA gegen naja vielleicht 8xAA ala NV30 benchen soll, dann haben sie schon irgendwie recht. Bin gespannt wie die vielen Webseiten reagieren, die bisher immer 4x gegen 4x usw. gebencht haben.
Ailuros
2004-02-11, 08:42:14
Ich bezweifle dass bei den so und so viel schneller als-Zahlen irgend etwas anderes als Shader-Leistung in der Mehrzahl gemeint ist.
[devil's advocate mode]
Bin gespannt wie die vielen Webseiten reagieren, die bisher immer 4x gegen 4x usw. gebencht haben.
Nicht anders zumindest als man 8xAF gegen 8xAF getestet hat. Merkst Du was? Wenn der Reviewer so unwissend ist, dass er verschiedene Implementationen NICHT unterscheiden kann, dann ist dabei bei bestem Willem nicht jeglicher IHV direkt daran schuld fuer das was getestet wird.
Nunja, 4 Samples sind IMO immer noch 4 Samples. Das TriSetup ist entweder für RG ausgelegt oder eben nicht, daraus resultiert kein Performancenachteil.
Wenn man jetzt rein EER vergleicht, hat man ein Problem. Wenn man rein die Bildqualität bei gleicher Sampleanzahl vergleicht, ist's fair - und da sieht nV bei 4 Samples nunmal keinen Stich bezgl. Qualität.
[code]
- x - - - - - -
x - - - - - - -
- - x - - - - -
- - - x - - - -
- - - - - - - -
- - - - - - - -
- - - - - - - -
- - - - - - - -
[code]
EER = 4x4, 4 Subsamples. ;D ;D
Müsste also durchaus vergleichbar mit der AA-Qualität von ATi sein, wenn ich mal die (offenkundig implizierten) Maßstäbe Einiger hier anlege.
Daß ich dabei nur 25% der Pixel"fläche" höher auflöse PFFF. Hauptsache EER.
Wird's jetzt klarer, was ich meine?
;Q
Ailuros
2004-02-11, 08:48:20
2xAA/2xAF in =/> 1280*960*32 fuer R3xx und NV3x. Da minimalisieren sich die Widersprueche.
Da kannst du sicher sein, Ailuros, daß da das Geschrei erst richtig losgeht.
- 2xAA bei High-End - lächerlich!
- Der will nur nVs Schwäche verhüllen
- Wer spielt heute in solchen Settings
usw. usf.
Obwohl ich ehrlich gesagt, drüber nachdenke, trotzdem genau das zu tun. Ein Annäherung habe ich ja wenigstens mit 2x/4x schon drin. Da kompensiert nVs ein wenig besseres AF ein bißchen ATis Gammakorrektur.
;Q
haifisch1896
2004-02-11, 11:51:11
@Gast
Nebenbei gesehen gehören zu den R3xx und NV3x auch die Midrange-Karten der beiden Häuser, nicht nur HighEnd.
hendrikhey,
das ist mir schon bewußt. Jedoch scheint auch dort der "Trend" zum 4xAA ungebrochen - jedenfalls wenn ich die Argumentation in etlichen "Empfehlungsthreads" hier im Forum richtig mitverfolgt habe. Dort heisst es nämlich immer: "Nimm bloß keine nV, die haben erbärmliches AA und/oder miese Pixelshader".
Selbst wenn nach Einstiegskarten unter 80EUR gefragt wurde...
Spake
2004-02-11, 17:16:27
lustig eigentlich dass die großen einsparungen bei transitoren/qualität nicht unbedingt so stark bei low-end karten ist wie man meinen könnte
würde man dort transistoren sparen und dadurch die bildqualität bei AA/AF verschelchtern würde es die käuferschicht herzlich wenig stören(nur die reviewer :D)
-immerhin besser performance und deshalb möglicherweise ein benutzbares AA/AF
-transitoreneinsparungen für Ati/Nvidia und damit weniger herstellungskosten
CrazyIvan
2004-02-11, 17:42:01
Wann gibbet eigentlich funktionierendes AA mit Full-Screen PS Effekten bei Auflösungen > 1024x768 (z. B. NFS U mit Motion Blur und AA?
Oder gibts da von technischer Seite Probleme? War doch AFAIR nur das Problem, dass die Größe des zu berechnenden Bildes bei >= 2xAA zu groß für die PixelShader war ... oder irre ich?
@ Spake
Wird wohl daran liegen, dass man mit den Mid-Range und Low-End Chips die Yields der Produktion verbessert. Eigene Fertigungsstraßen für jeden Chip würden sich IMHO net lohnen.
Aquaschaf
2004-02-11, 18:06:28
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=80688
Godmode
2004-02-11, 20:16:44
Ich möchte ja zu gern wissen wann enldich mal ppp in die gpus kommen, aber sicher erst mit nv50 oder noch später.
Original geschrieben von CrazyIvan
[kleinwenigOT]
Wann gibbet eigentlich funktionierendes AA mit Full-Screen PS Effekten bei Auflösungen > 1024x768 (z. B. NFS U mit Motion Blur und AA?
Oder gibts da von technischer Seite Probleme? War doch AFAIR nur das Problem, dass die Größe des zu berechnenden Bildes bei >= 2xAA zu groß für die PixelShader war ... oder irre ich?Nein. Wenn du Effekte mittels Texture to Rendering machst, musst du dich um Anti-Aliasing selbst kümmern.
Spake
2004-02-11, 22:24:56
@ Spake
Wird wohl daran liegen, dass man mit den Mid-Range und Low-End Chips die Yields der Produktion verbessert. Eigene Fertigungsstraßen für jeden Chip würden sich IMHO net lohnen.
wie jetzt der nv31 und der nv34 sind doch beides eigene chips und nicht einfach der nv30/nv35 mit deaktivierten funktionen
afaik hat der nv34 45mil transistoren und cih denke nv hätte dort auch weiter sparen könne
DrumDub
2004-02-11, 23:16:06
Original geschrieben von aths
Nein. Wenn du Effekte mittels Texture to Rendering machst, musst du dich um Anti-Aliasing selbst kümmern.
heißt es nicht "reder to texture"?
Um genau zu sein, Render to Texture ;)
MadManniMan
2004-02-12, 01:20:00
Original geschrieben von bans3i
Ich möchte ja zu gern wissen wann enldich mal ppp in die gpus kommen, aber sicher erst mit nv50 oder noch später.
Also gewiß nicht mit Loci oder NV4X.
Ailuros
2004-02-12, 02:42:58
Original geschrieben von Gast
Da kannst du sicher sein, Ailuros, daß da das Geschrei erst richtig losgeht.
- 2xAA bei High-End - lächerlich!
- Der will nur nVs Schwäche verhüllen
- Wer spielt heute in solchen Settings
usw. usf.
Obwohl ich ehrlich gesagt, drüber nachdenke, trotzdem genau das zu tun. Ein Annäherung habe ich ja wenigstens mit 2x/4x schon drin. Da kompensiert nVs ein wenig besseres AF ein bißchen ATis Gammakorrektur.
;Q
Quasar,
Ich hab's nicht ganz genau gemacht. 2xAA/2xAF als Basis; ich wuerde in dem Fall sogar auf noAA/AF vielleicht sogar verzichten (aussnahme die Faelle wo AA nicht funktioniert). 4xAA/8xAF kann man ja immer noch hinzufuegen; im Idealfall zwei screenshots pro Spiel von jeder Loesung. Um ehrlich zu sein waeren mir diese zwei Optionen eigentlich schon genug. Zu viele Benches mit zu vielen verschiedenen Resultaten verwirren den Leser nur. Im Notfall dann noch einen getrennten Review auf flight/racing sims und absolutest hoechster Qualitaet settings.
Ich hab ja auch nicht Dich oder einen spezifischen Reviewer gemeint, aber schau Dir mal den Trend der Reviews bei Firinsquad z.B. an.
Ailuros
2004-02-12, 02:49:39
Zum Thema AA mit full screen Effekten und dergleichen: ich glaube Eric Demers Aussagen bei rage3D, dass man anti-aliasing den ISVs ueberlassen sollte ist IMHO die beste Idee.
Hier kann dann auch der Entwickler entscheiden - wenn und wo immer noetig - teilweise Super sampling einzuschalten. Hauptsache die Hardware unterstuetzt natuerlich MS und SSAA.
Zum Thema PPP:
Das ganze ist noch so verwirrend mit DX-Next dass man lieber abwarten sollte bis das API zu einerer "festeren" Form kommt. Momentan wird ja staendig Zeug reduziert und auch hinzugefuegt; so kann man keine Urteile darueber schliessen. Und ja die Aenderungen kommen Dank dem "feedback" der IHVs zustande ;)
RyoHazuki
2004-02-14, 03:52:03
Original geschrieben von [dzp]Viper
TheCounter hat NIX anderes geschieben....
Faktor 3? Ich würde sagen, dass dies immer noch Träumerei ist ;) eher Faktor 1,5 oder MAXIMAL 2 (obwohl das auch schon extrem unwahrscheinlich ist)!
Wenn die allgemeine geschwindigkeit (=durchschnittsgeschwindigkeit?!) um den faktor 2 ansteigen würde, dann hätten wir ja einen noch nie dagewesenen fps ansprung und genau deswegen ist es so unwahrscheinlich. Es gab bisher noch NIE einen so extrem starken anstieg der durchschnittsfps (nur in ausgewählten benchmarks vielleicht...)
Glaub mir... den gab es !
G200 -> G400
CrassusX
2004-02-14, 11:42:51
hm? Welche representative Auflösung wurde da denn gewählt?
1600x1280? 640x480?
Solange die Werte nicht in der Auflösung 1024x768 bei12x(oder ati4x)FSAA und Aniso8x erstellt wurden interessieren sie mich nicht. :asshole:
CrazyIvan
2004-02-14, 14:49:55
@ CrassusX
Hast Du ne Ahnung, was der G200 bzw. G400 sind? Laut Deinem Post scheinst Du es ja net zu wissen.
Nunja, das sind zwei Chips von Matrox - der G400 war vor einigen Jahren ein halbwegs missglückter Versuch, im Top-Level 3D Bereich wieder mitzuspielen. Zwischen G200 und G400 lagen aber AFAIR auch n paar Jährchen - insofern ist Faktor 2 IMHO erstens ein Muss und zweitens noch etwas untertrieben...
War der G400 nich der erste mit ordentlichem Bump-Mapping? Haben die doch damals auf der Cebit groß promotet, wenn ich mich recht an den Matrox Stand erinnere...
(del676)
2004-02-14, 17:09:00
Original geschrieben von CrazyIvan
der G400 war vor einigen Jahren ein halbwegs missglückter Versuch, im Top-Level 3D Bereich wieder mitzuspielen
missglückt?
es war eindeutig die beste Karte, hatte Features ohne Ende und eine super BQ
da konnte die TNT2 und die (lächerliche) V3 nicht mithalten
StefanV
2004-02-14, 17:36:23
Original geschrieben von CrazyIvan
@ CrassusX
Hast Du ne Ahnung, was der G200 bzw. G400 sind? Laut Deinem Post scheinst Du es ja net zu wissen.
Nunja, das sind zwei Chips von Matrox - der G400 war vor einigen Jahren ein halbwegs missglückter Versuch, im Top-Level 3D Bereich wieder mitzuspielen. Zwischen G200 und G400 lagen aber AFAIR auch n paar Jährchen - insofern ist Faktor 2 IMHO erstens ein Muss und zweitens noch etwas untertrieben...
War der G400 nich der erste mit ordentlichem Bump-Mapping? Haben die doch damals auf der Cebit groß promotet, wenn ich mich recht an den Matrox Stand erinnere...
das würd ich nicht so sehen...
Wobei die G200 es gerad mal mit der Riva128 aufnehmen konnte (nagut, in 32bit einigermaßen mit der Riva TNT, was aber eher ein Wunder ist).
Die Daten der G200 -> 75MHz/100MHz Chip/Core, 64bit Speicherinterface.
Die G400 war deutlich besser (125MHz Core, 166MHz SPeicher, 128bit Speicherinterface), 2 Pipelines (und noch ein paar andere goodies)...
Und soo viel Zeit lag zwischen der G200 und G400 auch nicht, da die G200 einen Monat vor der TNT vorgestellt wurde und die G400 mehr oder minder zeitgleich mit der TNT2...
Und nunja, die G400 war unter 16bit nicht soo schnell, dafür konnte er aber in 32bit der TNT2 regelrecht die Hosen ausziehen (Bandbreitensparende Maßnahmen hatte die G200 allerdings auch schon, mehr oder minder)...
robbitop
2004-02-14, 17:36:53
gibts eigentlich Neuigkeiten über Serie5?
Es ist in letzter Zeit so still um PVR geworden, fast als würde Serie5 Schwierigkeiten haben.
Weiß jmd mehr?
Godmode
2004-02-14, 20:51:52
welche Codename hatte dann die Parhelia?
robbitop
2004-02-14, 21:07:55
die Parhelia hiess parhelia und ist somit afaik die einzige Karte die mit ihrem Codenamen vertrieben wurde.
Nachfolger sollte "Pitou" heissen, wurde aber gecancled
Ailuros
2004-02-14, 21:42:01
Original geschrieben von robbitop
die Parhelia hiess parhelia und ist somit afaik die einzige Karte die mit ihrem Codenamen vertrieben wurde.
Nachfolger sollte "Pitou" heissen, wurde aber gecancled
Pitou = Parhelia2(two)
Kein Codename sondern ein Scherz.
***edit: es gab Besprechungen mit den Bitboys ueber einen Nachfolger von Parhelia, aber das Projekt wurde nie realisiert.
robbitop
2004-02-14, 22:06:58
ja natürlich als Codename ;)
Demirug
2004-02-14, 22:33:13
Gezwitscher. Ich habe keine Ahung wie verlässlich das ganze ist. Deswegen gebe ich es einfach mal 1:1 (Ok ist übersetzt) weiter.
NV40/NV45:
- Basisstruktur 8*2
- 16 Zixel/Takt
- 175M Transitoren
- 550 MHz Core
- 4 VS
- 24 Pixel-FPUs
- 8xSparsed AA
LovesuckZ
2004-02-14, 22:35:53
VS = Array?
"Nur" 8xSparsed AA? Kein stochastic AA?
Wie errechnet man die Pixel-FPUs?
Ailuros
2004-02-14, 22:38:47
Original geschrieben von robbitop
ja natürlich als Codename ;)
Natuerlich und Mercedes kommt demnaechst mit einem Karren namens Pikachu :bäh:
Ailuros
2004-02-14, 22:42:22
Kein stochastic AA?
Ich bin froh dass wir bei so kleiner Anzahl von samples noch kein stochastic sehen. ;)
Demirug
2004-02-14, 22:45:16
Original geschrieben von LovesuckZ
VS = Array?
"Nur" 8xSparsed AA? Kein stochastic AA?
Wie errechnet man die Pixel-FPUs?
Du stellst fragen. Ich habe nur diese Liste. Mehr gab es nicht dazu.
Was die Pixel FPUs angeht so verteilst du diese einfach auf die Pipelines. Das wären also 3 pro Pipeline. Ich weiss jetzt nicht ob der Shadercore da mitgezählt wird gehe aber davon aus. Zum Vergleich:
Cine FX I: 1 FPU pro Pipeline
Cine FX II: 2 FPUs pro Pipeline
Als Pipeline gilt hier wie üblich ein SIMD Kanal.
LovesuckZ
2004-02-14, 22:49:05
Original geschrieben von Ailuros
Ich bin froh dass wir bei so kleiner Anzahl von samples noch kein stochastic sehen. ;)
Wer sagt, dass Nvidia nur 8 verwenden werde?
Imo langweileilt mich irgendwie MS, da sollte mal was neues kommen...
Ailuros
2004-02-14, 22:58:42
Original geschrieben von LovesuckZ
Wer sagt, dass Nvidia nur 8 verwenden werde?
Imo langweileilt mich irgendwie MS, da sollte mal was neues kommen...
Und wer sagt Dir dass genug Bandbreite und Framebuffer verfuegbar waere fuer 16x/32x samples? Wer sagt dass stochastic oder pseudo-stochastic billig in Sachen HW kommt? Offensichtlich bietet die Anzahl der Transistoren und der analoge Stromverbrauch keine weiteren Kopfschmerzen.
Wenn es zu stochastic kommen wuerde, wer garantiert uebrigens dass es doch nicht auch Multisampling sein koennte? Es waere dann nur zufaellige oder pseudo-zufaellige Langeweile :D
Ailuros
2004-02-14, 23:05:10
Original geschrieben von Demirug
Du stellst fragen. Ich habe nur diese Liste. Mehr gab es nicht dazu.
Was die Pixel FPUs angeht so verteilst du diese einfach auf die Pipelines. Das wären also 3 pro Pipeline. Ich weiss jetzt nicht ob der Shadercore da mitgezählt wird gehe aber davon aus. Zum Vergleich:
Cine FX I: 1 FPU pro Pipeline
Cine FX II: 2 FPUs pro Pipeline
Als Pipeline gilt hier wie üblich ein SIMD Kanal.
Darf ich auch fragen? 32 ROPs logischerweise oder?
Demirug
2004-02-14, 23:16:59
Original geschrieben von Ailuros
Darf ich auch fragen? 32 ROPs logischerweise oder?
Wenn nVidia mit Bruteforce arbeit und 8xAA haben brauchen sie 64 vollständige ROPs und nochmal 64 Z/Stencil ROPs. Mit etwas mehr Intelligenz reichen 8 ROPs + 8Z/Stencil ROPs aus. Wobei es da öfter mal eng wird. Ich halte daher 32 ROPs auch für einen guten Richtwert.
EDIT: Natürlich jetzt alles bezogen auf diese Spekulative Liste von oben.
Original geschrieben von Demirug
Gezwitscher. Ich habe keine Ahung wie verlässlich das ganze ist. Deswegen gebe ich es einfach mal 1:1 (Ok ist übersetzt) weiter.
NV40/NV45:
- Basisstruktur 8*2
- 16 Zixel/Takt
- 175M Transitoren
- 550 MHz Core
- 4 VS
- 24 Pixel-FPUs
- 8xSparsed AADas entspräche im Prinzip exakt meiner Theorie :grübel:
robbitop
2004-02-14, 23:37:01
die Angaben von Demirug passen hervoragend ins Bild nachdem wir soviele Gerüchte gehört haben in letzter Zeit.
24Pixel FPUs: bedeutet 24 AOps/Takt und 16TOps/Takt als Peakangabe?? Wenn das Temp registerproblem gelöst wurde, sollte die PS Leistung recht "nett" sein.
@Demi
was hällst du von der Theorie von Uttar mit dem 6x2 +2x2 vom VS?
hört sich etw seltsam an..
Ailuros
2004-02-14, 23:52:17
@Demi
was hällst du von der Theorie von Uttar mit dem 6x2 +2x2 vom VS?
hört sich etw seltsam an..
Eine elegantere Masche was TMUs betrifft (oder TMU arrays wie Demi schon erwaehnt hat ala 3dfx) macht schon Sinn.
***edit:
16TOps/Takt
Und die 4 t-ops im VS3.0 hast Du vergessen?
robbitop
2004-02-15, 01:08:01
die gehören ja vieleicht schon dazu ;)
Ailuros
2004-02-15, 01:27:57
Original geschrieben von robbitop
die gehören ja vieleicht schon dazu ;)
Also? Die gleiche Schlussvolgerung: zu kompliziert - zu verwirrend. Ich koennte jetzt an etliche Kombinationen denken ueber wie das Ganze aussehen koennte. Teufel ich koennte sogar daran denken dass eine TMU pro pipe auch als FPU zur gleichen Zeit arbeiten koennte, was wohl auch nicht gegen die 24FPUs Theorie sprechen wuerde.
NV35=
8 TMUs
16FPUs
NV40=
8/16TMUs
16/24FPUs
hrhrhrhr
Godmode
2004-02-15, 01:42:23
stochastic ?????? kann mich mal wer aufklären was das ist????
Ailuros
2004-02-15, 01:44:59
Original geschrieben von bans3i
stochastic ?????? kann mich mal wer aufklären was das ist????
http://www.3dcenter.de/artikel/anti-aliasing-masken/
Godmode
2004-02-15, 01:58:02
Original geschrieben von Ailuros
http://www.3dcenter.de/artikel/anti-aliasing-masken/
thx
Original geschrieben von Ailuros
NV35=
8 TMUs
16FPUs
NV40=
8/16TMUs
16/24FPUs
hrhrhrhr
16 FPUs im NV35? Wo sollen die herkommen? Der Shader Core ist entweder 8T oder 4A, die Combiner dann nochmal 4A, in manchen Fällen vielleicht auch 8A (bei FP; bei Fixed Point sollten es immer 8A sein, wie bei NV30). Also entweder 0T/8(12)A oder 8T/4(8)A.
Vom NV40 erwarte ich dann schon 16T/16A oder 0T/24A, möglicherweise mit Zwischenstufen.
Demirug
2004-02-15, 08:11:57
Original geschrieben von robbitop
die Angaben von Demirug passen hervoragend ins Bild nachdem wir soviele Gerüchte gehört haben in letzter Zeit.
24Pixel FPUs: bedeutet 24 AOps/Takt und 16TOps/Takt als Peakangabe?? Wenn das Temp registerproblem gelöst wurde, sollte die PS Leistung recht "nett" sein.
24 Pixel-FPU/s != 24 A-OPs. Es geht aus der Liste nicht hervor welche art von FPUs verbaut wurden. Die FPUsim NV35 können ja tweilweise auch mehr als eine Op\takt.
@Demi
was hällst du von der Theorie von Uttar mit dem 6x2 +2x2 vom VS?
hört sich etw seltsam an..
Die habe ich doch mitgebastelt. Es war der einzige Weg zwei wiedersprüchliche Angaben unter einen Hut zu bekommen. Es ging dabei auf der einen Seite darum das es nur 6 Pipelines sein sollen aber auf der anderen Seite an bis zu 4 Quads gleichzeitig gearbeitet wird.
Demirug
2004-02-15, 08:17:02
Original geschrieben von Ailuros
Also? Die gleiche Schlussvolgerung: zu kompliziert - zu verwirrend. Ich koennte jetzt an etliche Kombinationen denken ueber wie das Ganze aussehen koennte. Teufel ich koennte sogar daran denken dass eine TMU pro pipe auch als FPU zur gleichen Zeit arbeiten koennte, was wohl auch nicht gegen die 24FPUs Theorie sprechen wuerde.
NV35=
8 TMUs
16FPUs
NV40=
8/16TMUs
16/24FPUs
hrhrhrhr
TMUs sind TMUs und keine programmierbaren FPUs. Zudem lohnt sich das ganze nicht weil nan um die Werte zur TMU zu schicken den Shadercore braucht der dann in diesem Takt nichts anderes rechnet.
Wie Xmas schon gesagt hat sind es beim NV35 keine 16 FPUs sondern nur 8.
Demirug
2004-02-15, 08:30:36
Original geschrieben von Xmas
Vom NV40 erwarte ich dann schon 16T/16A oder 0T/24A, möglicherweise mit Zwischenstufen.
Zuwenig, das reicht nicht.
Ich würde eher sagen. 2T/9A oder 0T/10A pro SIMD Kanal.
Original geschrieben von Demirug
Zuwenig, das reicht nicht.
Ich würde eher sagen. 2T/9A oder 0T/10A pro SIMD Kanal.
Pro SIMD-Kanal? Ich weiß jetzt nicht genau was du damit meinst, der NV40 hat dann deren 4 oder 8?
4*2T hat NV30 ja schon, also denke ich mal du meinst 8. Aber 16T/72A insgesamt? Bitte? Oder reden wir hier einfach aneinander vorbei?
Zumal ich hier ein recht starkes Missverhältnis T:A sehe.
Ailuros
2004-02-15, 14:14:06
Original geschrieben von Xmas
16 FPUs im NV35? Wo sollen die herkommen? Der Shader Core ist entweder 8T oder 4A, die Combiner dann nochmal 4A, in manchen Fällen vielleicht auch 8A (bei FP; bei Fixed Point sollten es immer 8A sein, wie bei NV30). Also entweder 0T/8(12)A oder 8T/4(8)A.
Vom NV40 erwarte ich dann schon 16T/16A oder 0T/24A, möglicherweise mit Zwischenstufen.
*aechz* bin ich daemlich...4*2FPUs=8 :banghead:
Ailuros
2004-02-15, 14:20:13
Original geschrieben von Xmas
Pro SIMD-Kanal? Ich weiß jetzt nicht genau was du damit meinst, der NV40 hat dann deren 4 oder 8?
4*2T hat NV30 ja schon, also denke ich mal du meinst 8. Aber 16T/72A insgesamt? Bitte? Oder reden wir hier einfach aneinander vorbei?
Zumal ich hier ein recht starkes Missverhältnis T:A sehe.
Kann sein dass es ein typo ist. Vielleicht meinte er 2T/6A?
Demirug
2004-02-15, 14:47:51
SIMD-Kanal = Pipeline im klasichen Sinn.
Un nein es ist kein Typo.
3 FPUs.
FPU1 (Shadercore): (2 Texop + 1 komplexe skalar Op) oder (1 Vec3 + einfache Skalar Op + 1 komplexe Skalar Op)
FPU2+3 (Combiner): jeweils 2 Vec3+2 einfache Skalar.
Damit ergibt sich ein maxwert von 10 A Ops.
Natürlich alles ohne Gewähr.
Man darf hierbei aber nicht vergessen das die FX12 Regcombiner im NV3X ja auch 8 Ops/Takt ausfüphren können. Wenn im NV4X die FX12 Regcombiner vollständig gegen FP-Regcombiner ausgetauscht wurden muss man die gleiche Leistung bringen. Ein solcher Austausch macht Sinn weil MS ja nicht auf die Multi-Genauigkeitsmodel von nVidia eingegangen ist. Bei PS >= 2.0 sind FX Combiner eigentlich zur Untätigkeit verdammt. Es macht daher keinen Sinn diese mitzuschlepen wenn man sie vollständig durch FP Versionen ersetzen kann die man immer benutzen kann.
So macht das natürlich Sinn. Ich meinte aber oben mit 16T/16A und 0T/24A vollständige Vec4 Operationen. Und das entspricht ja zumindest bei MAD genau dem was du beschreibst. Hinsichtlich der Combiner wäre ich aber nicht so sicher, dass der Aufbau hier gleich bleibt und man wirklich 2 oder 3 Outputs haben kann.
Wenn man es genau nimmt kann ja jeder FX-Combiner 6 Ops als Peak-Wert (auch wenn es kaum brauchbar ist ;))
Demirug
2004-02-15, 15:15:01
Original geschrieben von Xmas
So macht das natürlich Sinn. Ich meinte aber oben mit 16T/16A und 0T/24A vollständige Vec4 Operationen. Und das entspricht ja zumindest bei MAD genau dem was du beschreibst. Hinsichtlich der Combiner wäre ich aber nicht so sicher, dass der Aufbau hier gleich bleibt und man wirklich 2 oder 3 Outputs haben kann.
Wenn man es genau nimmt kann ja jeder FX-Combiner 6 Ops als Peak-Wert (auch wenn es kaum brauchbar ist ;))
Ich bezog mich nicht auf einen MAD.
Der FP-Combiner im NV35 sieht ja in etwa so aus.
| | | |
MUL32 MUL32
| |
|-<---|
ADD32 ADD16
| |
Ich gehe von etwas ähnlichem im NV40 aus. Im Unterschied zum NV35 sollte der FP-Combiner aber einen Vec3+Skalar Split haben.
Was macht das ADD16 da? Fehlt da nicht noch ein Eingang, oder wie soll man das verstehen?
seahawk
2004-02-15, 17:05:39
Nette Liste Demi
Demirug
2004-02-15, 17:27:34
Original geschrieben von Xmas
Was macht das ADD16 da? Fehlt da nicht noch ein Eingang, oder wie soll man das verstehen?
Da fehlen sicherlich noch ein paar Zuleitungen. nVidia ist da sehr Schweigsam.
dildo4u
2004-02-15, 23:23:42
http://www.theinquirer.net/?article=14152 passt hier zwar nicht 100% rein aber nvidia Wird den NV40 DOOM3 im pack mit ausliefern für mich nur logisch das Doom3 ja whol sher gut auf dem NV30-40 laufen wird ATI hat das selbe ja mit HL2 leuft auch sher gut auf ihren karten.
Ailuros
2004-02-16, 12:40:31
*self correction* uebrigens war mein eigener Gedanke was die texture samplers im VS3.0 betrifft wohl auch Schwachsinn....
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.