Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zum Artikel "nVidia GeForceFX Preview"
Leonidas
2002-11-19, 01:34:15
Hier isser. (http://www.3dcenter.org/artikel/2002/11-19_a.php)
Ich hoffe, es sind keine Fehler drin. Leider sind viele Sachen mißdeutig oder nur halb beschrieben.
/edit 19.11. 16:21
16 GB/sec multipliziert mit 4:1 = 48 GB/sec ????????????
Hier habe ich wohl nicht mal mehr rechnen können ;-). Korrigiert auf 3:1.
/edit 19.11. 16:45
Auf Seite 2 weitere nVidia-eigene Benchmarks hinzugefügt.
/edit 19.11. 16:59
8x AA ist doch ein MS/SS Mischmodus. Ist korrigiert.
/edit 19.11. 17:06
Um Mißverständnissen von fremdsprachigen Lesern vorzubeugen, sind alle Benchmarks explizit mit "Source/Quelle: nVidia" gekennzeichnet wurden.
/edit 19.11. 18:22
Natürlich hat die Parhelia 4 TMU pro Pipe. Einfacher Schreibfehler meinerseits - gefixt.
/edit 20.11. 02:18
Die GeForceFX kann nicht bis zu 256 MB addressieren, sondern bis zu 1024 MB - gefixt.
/edit 20.11. 07:55
Da es einige immer noch nicht raffen, steht jetzt bei den Benchmarks sicherheitshalber "Doom III (Beta)" da.
/edit 25.11. 19:41
Angaben zu den DM-Möglichkeiten präzisiert.
Unregistered
2002-11-19, 02:27:45
So, jetzt hab ich auch meine Gute-Nacht-Geschichte und kann beruhigt einschlafen ;)
Wie immer ein wunderbar objektiver Artikel mit allen wichtigen (/verfügbaren) Fakten.
Schade nur dass wir auf den Chip noch ein paar Monate warten müssen...
Unregistered
2002-11-19, 03:18:24
Alle reden immer davon, ob die GeForceFX schneller ist als eine Rad.9700pro
Ich seh für Nvidia ein viel größeres Problem:
Wenn die GFX wirklich erst ein knappes halbes Jahr nach der R300 kommt, sollte es doch für Ati kein wirklich großes Problem darstellen, eine leicht verbesserte (höhergekaktete?) Version nachzuschieben und die GFX kurz nach erscheinen erneut in die Schranken zu weisen.
Oder - nach fast 6 Monaten auch nicht so unwahrscheinlich - gleich eine stark höhergetaktete Version in 0.13µ nachzuschieben und Nvidia damit praktisch in Grund und Boden zu rendern!
Damit würden extrem schwere Zeiten für NV anbrechen: Seit Einführung der Ur-GeForce war der Name Nvidia gleichgesetzt mit der Führung in Technologie und Performance. Dieses Image ist jetzt dadurch, das alle seit Monaten von der R300 als "schnellster Karte der Welt" sprechen, schon leicht angekratzt. Und jeden Monat, den sich die "neueste GeForce Wunderkarte" verzögert, kratzt es weiter.. und weiter... und weiter. Und sollte sich der Zustand durch eine neue R300 auf ein Jahr oder vielleicht sogar noch länger ausweiten, ist der Name GeForce wohl nicht mehr allzuviel wert.
Und ein Namensverlust kostet Einheiten im Mainstream-Markt. Und dann beginnen die Aktien zu fallen....
MASTERELWOOD
PS: Ein Gedanke: Ob der Typ in der Entwicklingsabteilung von NV, der entschieden hat, "das ein 128Bit Speicherinterface für die nächste GeForce Generation noch ausreicht" noch einen Job hat ? ;-)
Und wenn der
Quasar
2002-11-19, 07:00:45
nVidia declined to provide more details about the actual sample patterns. Tamasi and Kirk would only say that the sample positions and patterns have changed, and that they are non-rectangular.
Deutlicher geht's doch schon fast nicht mehr, oder?
Was Anti-Aliasing und AF betrifft, so handelt es sich im Artikel wie beim Rest nur darum, was man aktuellen Informationen entnehmen kann. Dass wir uns da bei verschiedenen Punkten letztlich irren, ist nicht auszuschließen, dass irgendwas im Preview falsch ist, sogar recht wahrscheinlich - hoffentlich nur in Detailfragen.
BTW, ich hab jetzt eine Theorie für den 6xS-Modus :P
nggalai
2002-11-19, 08:10:25
Originally posted by aths
BTW, ich hab jetzt eine Theorie für den 6xS-Modus :P 4xMSAA plus 2xSSAA?
;)
ta,
-Sascha.rb
Demirug
2002-11-19, 08:22:22
Gut zu sehen ist, wie die GeForceFX die DirectX9-Mindestanforderungen, welche sich in der Radeon 9700 Pro wiederspiegeln, weit übererfüllt. nVidia nennt demzufolge als Vertex und Pixel Shader Versionen für seine GeForceFX offiziell "2.0+". Allerdings ist dies nicht wirklich korrekt, da es eine derartige Versionen seitens Microsoft nicht gibt. Möglicherweise wird Microsoft beim entgültigen Release von DirectX 9.0 die GeForceFX-Fähigkeiten als Vertex und Pixel Shader Version 2.1 führen, möglicherweise sogar als Version 3.0. Genauso gut ist es aber auch möglich, daß die GeForceFX weiterhin bei Version 2.0 bleibt, wenn es keine Version 2.1 gibt und die entgültige Version 3.0 noch höhere Anforderungen mit sich bringt.
Da diese Information ja schon lange geleakt ist kann ich es auch ohne probleme schreiben.
DX9 unterstützt für Vertex und Pixelshader jeweils 3 neue Versionen.
2.0
2.0 Extended
3.0
Wobei die Extended Version sehr Variable ist da alle relevanten Eigenschaften vom Chip einzeln unterstützt werden können oder nicht. GeforceFX ist ganz eindeutig 2.0 Extended und nutzt diese Variante auch vollständig aus. Welcher Chip als erstes 3.0 schaffen wird ist noch nicht abzusehen aber es sollen schon mehrer in der Entwicklung sein.
Unserer Meinung nach ist der Mehrwert der wesentlich besseren Programmierbarkeit der GeForceFX für den Spieler praktisch nicht vorhanden (dagegen dürfte der Chip für Spieleentwickler interessant sein). Denn daß zu Lebenszeiten von GeForceFX und Radeon 9700 Pro in Spielen so komplexe Shader zum Einsatz kommen, daß die Radeon 9700 Pro zum (performance-fressenden) Multipass-Rendering gezwungen würde, wagen wir zu bezweifeln. Mit aber nur "einfachen" Shader-Programmen nach DirectX9-Mindestanforderung wird die Radeon 9700 Pro der GeForceFX bezüglich Shader-Performance kaum nachstehen, die Möglichkeiten der GeForceFX blieben dann ungenutzt.
Teilweise kann ich mich dem anschliessen aber nicht vollständig. In dem Moment wenn man Shader mit einer Highlevel sprache schreibt befindet man sich schon auf halben Weg die erweiteren Möglichkeiten des NV30 Chips zu nutzen. Einfach den gleichen Shader mehrmals für die verschiedenen Chips compilieren oder am besten gleich erst auf der Zielplatform. Dabei ist es durchaus möglich das ein Shaderprogramm aufgrund der besseren Möglichkeiten des NV30 kürzer und damit schneller wird. Wobei wir ja noch nicht genau wissen wie schnell die Shader der beiden Konkurrenten bei der Verwendung von DX9 Shader wirklich sind.
Originally posted by nggalai
4xMSAA plus 2xSSAA?
;)
ta,
-Sascha.rb Das wären ja 8 Subpixel.
x-dragon
2002-11-19, 10:13:23
Im übrigen entstammt die von nVidia offiziell genannte Speicherbandbreite von 48 GB/sec für die GeForceFX eben dieser Rechnung von 16 GB/sec echter Speicherbandbreite (1000er Basis), multipliziert mit der Kompressionsrate von 4.Kann mir das mal kurz einer erklären? Ich komm da immer auf bis zu 64 GB/sec theoretische Bandbreite, aber 48 wäre ja nur das 3-fache ???
Mein aktueller "Vorschlag" für 6xS wäre:
Allerdings würde dieser Modus die Texturen in Y-Richtung verschmieren...
Tom Servo
2002-11-19, 10:55:57
Ist hier nicht wieder der Rechenfehler 16*4=48 enthalten?:
Im übrigen entstammt die von nVidia offiziell genannte Speicherbandbreite von 48 GB/sec für die GeForceFX eben dieser Rechnung von 16 GB/sec echter Speicherbandbreite (1000er Basis), multipliziert mit der Kompressionsrate von 4.
Und dann ist der erste Doom-Benchmark ja doch mit 4xFSAA und der zweite nicht. Wäre es da nicht unbedingt zu erwarten, das mit FSAA der Unterschied deutlich grösser ist? Der Radeon hängt doch die GF4 auch erst mit FSAA ab.:
Wie zu sehen, sind die nVidia-eigenen Zahlen auf den ersten Blick nicht ganz stimmig: Im ersten Doom III Benchmark soll die GeForceFX 5800 Ultra ganze 350 Prozent einer GeForce4 Ti4600 bringen, im zweiten (unteren) Doom III Benchmark sind es dann allerdings "nur" noch gut 250 Prozent. Dieser Unterschied kann jedoch von unterschiedlichen Settings herrühren
Das der Heatpipekühler nicht auf der endgültigen Version sein soll hat mich jetzt aber überascht. Hiess es nicht sogar bei beyond3d, dasss nVidia diesen Kühler noch verbessern wolle (wegen Lautstärke).
Unregistered
2002-11-19, 11:34:55
Hi
Aufgrund der Fillrate glaube ich ohne Zweifel das nVIDIA ATi schlagen wird.
Die Frage ist allerdings wird das Teil auch wirklich mit solchen Taktraten antreten.
Dann kommt noch die AF Methode, wenn diese nicht Performance optimiert wird, dann hat dennoch nVIDIA einen leichten Nachteil.
Klar schneller bei AF um einen Hauch aber noch immer nicht so effektiv wie ATi.
Ich glaube kaum das nVIDIA sich eine neue Implementierung einfällen lässt.
FSAA kann mann momentan nur raten.
Im grossen und ganzen ist genau das eingetreten was ich immer gesagt habe.
nVIDIA macht einen Paperlaunch.
Von einen Wunderchip kann ich allerdings nichts sehen.
Gruss Labberlipp
nggalai
2002-11-19, 11:49:59
Originally posted by aths
Das wären ja 8 Subpixel. Hmm?
4xMSAA verwendet doch 4 Subpixel?
Und 2xSSAA 2?
Das wären dann doch 6 Subpixel? Oder verwechsle ich da was?
ta,
-Sascha.rb
Exxtreme
2002-11-19, 11:57:57
Sascha,
die Hypriden aus SSAA und MSAA funktionieren aber so nicht. :)
Es wird jedes mal die Anzahl der Subpixel verdoppelt bei diesen Mischmodi. Das MSAA-Ergebnis wird nochmal dem SuperSampling unterzogen. Deswegen ist immer nur entweder 2xMSAA x 2x SSAA oder 4x MSAA x 2x SSAA möglich... AFAIK.
Originally posted by nggalai
Hmm?
4xMSAA verwendet doch 4 Subpixel?
Und 2xSSAA 2?
Das wären dann doch 6 Subpixel? Oder verwechsle ich da was?
ta,
-Sascha.rb
nggalai
2002-11-19, 12:13:52
Duh. Ja. Hast recht. SSAA halt. ;)
Hmm. Aber wie säh's bei 2xMSAA +4xMSAA aus, mit verschiedenen Abtast-Gittern? dann käme man doch auf sechs Samples? Aber dann muss man's ja ned kombinieren, sondern hätte dann gleich einen "normalen" 6xMSAA-Modus . . . ???
*Kaffeetrinkengeh*
Zum Artikel,
finde ich gut, eine gute Zusammenfassung. Ich würde allerdings wie z.B. auf extremetech gesehen bei den TMUs pro Pipeline momentan noch ein Fragezeichen setzen, offizielle Angaben dazu habe ich keine gefunden, auch keine Texel-Angaben etc. Gibt auch eine Diskussion zum Thema:
http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=41065
ta,
-Sascha.rb
DrumDub
2002-11-19, 12:21:23
im großen und ganzen liefert der NV30 genau das, was man von ihm erwartet. leider tendiert nvidia wie üblich mal wieder dazu die features marketingtechnisch total aufzublasen. aber das sind wir ja mittlerweile gewöhnt. *g*
ich bin wirklich mal gespannt, wann die geforceFX in großen stückzahlen verfügbar sein wird. wenn von februrar 2003 hier und anderswo die rede ist, dann glaube ich, dass das nvidia gerade im mittleren und gehobenen preissegment ganz schöne einbußen bescheren wird. denn bis dahin wird die ganze produktlinie der radeon 9xxx familie lieferbar sein. und da greifen doch viele lieber zu ner radeon 9500 (Pro) statt der älteren gf 4 4200 (4400).
vielleicht erleben wir ja auch noch die eine oder andere überraschung von den underdogs (3dlabs, Imagination Technologies, SIS, Matrox). wobei ich hier am ehesten was interessantes von Imagination Technologies erwarte, da 3dlabs sich wohl auf den CAD/rendering-bereich konzetrieren wird, matrox dasselbe mit dem parhelia macht (und auch noch kein nachfolge-produkt angekündigt hat) und SIS bisher schließlich nur mäßiges geliefert hat, um es mal vorsichtig auszudrücken.
witzig, dass der connector auf der GF FX genauso gelöst ist, wie bei der V5. mich würde mal interessieren, ob die gerüchte stimmen, dass an dieser karte mehr ehemalige 3dfx-ingenieure beteiligt waren, als nvidia-eigene, und dass dies wohl auch zu internen grabenkämpfen bei nvidia geführt hat (grund für die verzögerung neben den problemem mit 0.13-fertigungsprozess???). andererseits lässt das für die neuen anti-aliasing-modi hoffen bzw. deren qualität bei der kantenglättung.
was die heatpipe/lüfterkombination auf dem chip angeht, so habe ich da auch nur vernommen bzw. gelesen, dass es bei dieser lösung belieben wird... für den gamer ist der sich die karte leistet, kann es auch nen pci-slot weniger sein...;) außerdem hat diese lösung den vorteil, dass die warme luft direkt aus dem pc-gehäuse hinaus befördert wird.
P Dogg
2002-11-19, 13:53:13
Ich habe mir diverse Previews des Chips durchgelesen,allerdings
entzieht sich mir bisher der praktische Nutzen solch einer Karte.
Selbst DX8 Spiele muss man,wie im Artikel geschrieben,noch mit der
Lupe suchen,die meisten Spiele momentan reizen gerade einmal die
DX7 Möglichkeiten voll aus,ab und zu hat man ein paar nette Wassereffekte dank Pixelshader.Spiele,die voll auf DX8 setzen,werden wir IMHO erst nächstes Jahr sehen.
Die momentan angebotenen Spiele laufen hervorragend auf meiner Graka
(GF3 Ti-500),ich habe im Moment überhaupt nicht das Bedürfnis,mir eine neue Graka zuzulegen,wofür auch?
Ok,man könnte sagen,dann hätte ich AA und AF for free,allerdings ist das IMO nur in einigen Spielen wirklich sinnvoll,z.B. Rennspiele,Sims und 3d RTS macht zumindestens AA sinn,aber bei UT2k3 kriege ich davon eh nix mit.
Meiner Meinung hängt die Software Industrie der Hardware zu sehr nach,
genau der umgekehrte Fall wie es noch vor ein paar Jahren war,wo man sich für Strike Commander gleich den passenden Rechner mitkaufen musste.Im Moment ist es genau umgekehrt,man hat teure Hardware,die nur zu 50 Prozent genutzt wird,und wenn die Software dafür zu haben ist,ist die Hardware schon wieder veraltet.
Was mich an der Sache dann doch ärgert ist,daß wir immer noch mit miesem TV-Out,teilweise indiskutabler 2d BQ und mit vermeidbaren
Kompatibilitätsproblemen zu kämpfen haben,hier wird allerdings so gut wie gar nix getan.Vielleicht bietet der GF-FX hier mehr,Nvidia hatte ja Besserung gelobt,ich bin auf jeden Fall auf das erste Review gespannt,trotzdem...
Unregistered
2002-11-19, 14:18:57
btw. jemand sollte nvnews mal aufklaeren:
GF FX Performance:
"Finally, the moment we've been waiting for! 3DCenter has posted some preliminary benchmarks which compare the new GeForce FX directly with the ATI RADEON 9700 Pro. Though only DOOM III is listed, I'm sure the plot will answer more than a few questions."
www.nvnews.net
*ow* w/o cookies
Unreal Soldier
2002-11-19, 14:56:07
Sehr guter Artikel, wie im neutral und objektiv mit viele Details und Kritik, aber das einzige was mich an der GeForceFX Presentation in Comdex stört ist dass keine Details zu den AA und AF Verfahren gegeben wurden und dazu noch dass der NV30 als 8x2 Architektur geprissen wurde und jetzt als 8x1 vorgestellt wird.
MfG
Unreal Soldier
Tigershark
2002-11-19, 15:13:30
Schöner Artikel wie immer, nur :
Im übrigen entstammt die von nVidia offiziell genannte Speicherbandbreite von 48 GB/sec für die GeForceFX eben dieser Rechnung von 16 GB/sec echter Speicherbandbreite (1000er Basis), multipliziert mit der Kompressionsrate von 4.
Auch bei mir ist 4x16 NICHT 48 sondern 64... ;D
Also isses von 3x ausgegangen oder wie ?
Tigershark
2002-11-19, 15:16:04
Verd.... Keksääääääää !!! :asshole:
;)
nggalai
2002-11-19, 15:45:34
Hola, Originally posted by nggalai
Hmm. Aber wie säh's bei 2xMSAA +4xMSAA aus, mit verschiedenen Abtast-Gittern? dann käme man doch auf sechs Samples? Aber dann muss man's ja ned kombinieren, sondern hätte dann gleich einen "normalen" 6xMSAA-Modus . . . ???
OK, Waveys GFFX-Interview (http://www.beyond3d.com/previews/nvidia/nv30launch) hat das geklärt, wie's mit 6xS und 8x FSAA aussieht:The documentation made note of an 8X FSAA mode, how is this achieved and is it it Multi-sampling?
The 6XS and 8X modes are a combination of Super-Sampling and Multi-sampling.
On GeForce4 there was a total of 4 Z units per pipeline, which enabled you to output 4 MSAA samples per pipe per clock, is this still the same for GeForce FX?
Yes it is.
Are they still the sort of ordered grid sampling schemes that we've seen on GeForce4 or does GeForce FX have any jittered / programmable grids?
The 6XS is a skewed grid, the 8X mode is an ordered grid.
Übrigens ein interessantes Interview. Lohnt sich, zu lesen.
ta,
-Sascha.rb
nggalai
2002-11-19, 15:48:05
Originally posted by Tigershark
Schöner Artikel wie immer, nur :
Auch bei mir ist 4x16 NICHT 48 sondern 64... ;D
Also isses von 3x ausgegangen oder wie ? Ja, weil 4:1 nicht zu 100% erreicht werden kann. Also nimmt man einen mittleren Faktor (Schätzwert), in dem Fall Verdreifachung der Bandbreite. IMHO. ;)
ta,
-Sascha.rb
betasilie
2002-11-19, 15:57:39
Schöner Artikel. Gerade der Hinweis, dass die speziellen CineFX-Möglichkeiten technologisch sehr interessant sind, aber nie in Spielen zur Lebzeiten der GF-FX genutzt werden, ist sehr wichtig. Ich würde mich schon freuen, wenn wir Anfang 2004 ein paar DX9.0-Spiele zu Gesicht bekommen.
Originally posted by nggalai
Duh. Ja. Hast recht. SSAA halt. ;)
Hmm. Aber wie säh's bei 2xMSAA +4xMSAA aus, mit verschiedenen Abtast-Gittern? dann käme man doch auf sechs Samples? Aber dann muss man's ja ned kombinieren, sondern hätte dann gleich einen "normalen" 6xMSAA-Modus . . . ???Ich arbeite dran :) :D
nggalai
2002-11-19, 16:19:55
Originally posted by aths
Ich arbeite dran :) :D hehe. *freu*
Aber jetzt wissen wir ja, dass der 6xS-Modus ein Mixmode ist. Vielleicht, hmm, mit mehreren Buffern? i.e. 2xSSAA, plus 4xMSAA des "Ursprungsbildes"? Dann sollte man das doch addieren können . . .
ta,
-Sascha.rb
Exxtreme
2002-11-19, 16:25:41
Also dürfte der 6xS-Modus eine deutlich bessere Bildqualität bieten als der 8x-Modus. Nur wie es dann mit der Geschwindigkeit aussieht...
"The 6XS is a skewed grid, the 8X mode is an ordered grid."
nggalai
2002-11-19, 16:31:43
Originally posted by Exxtreme
Also dürfte der 6xS-Modus eine deutlich bessere Bildqualität bieten als der 8x-Modus. Nur wie es dann mit der Geschwindigkeit aussieht...
Hmm, ich weiss ned. der 8x ist ja auch ein Mixmode, ich schätze mal 4xMSAA plus 4xSSAA (vorausgesetzt, mein Gerate mit den mehreren Buffern anstelle von Bildauflösung hochrechnen und dann mit MSAA drüber stimmt ;) ) oder 2xSSAA mal 4xMSAA (mit hochskalieren, MSAA, runterskalieren). Bei der ersten Variante sollte die Sache besonders mit Alpha-Texturen bei 8x recht cool aussehen . . .
Zur Performance beim 6xS-Modus: laut NV wurde die GFFX ja auf 4xMSAA "optimiert", vom Design her. Vielleicht bricht da die Performance nicht so krass ein, im Verhältnis, wie bei der GF4 / 4xS-Modus.
Aber wartemer mal auf die ersten richtigen Tests. Dauert ja nicht mehr sooo lange.
ta,
-Sascha.rb
Leonidas
2002-11-19, 16:51:12
Originally posted by X-Dragon
Kann mir das mal kurz einer erklären? Ich komm da immer auf bis zu 64 GB/sec theoretische Bandbreite, aber 48 wäre ja nur das 3-fache ???
Mein Fehler. Hab es korrigiert.
Leonidas
2002-11-19, 16:52:27
Originally posted by Tom Servo
Das der Heatpipekühler nicht auf der endgültigen Version sein soll hat mich jetzt aber überascht. Hiess es nicht sogar bei beyond3d, dasss nVidia diesen Kühler noch verbessern wolle (wegen Lautstärke).
Ich glaube nicht, das man wirklich eine 2-Slot-Variante in den Markt bringen wird. Widerspricht der AGP-Spezifikation.
Ein gut zu lesender Artikel, der de Fakten schön kompakt präsentiert.
Aber in der Tabelle der Chip-Spezifikationen hat sich ein kleiner Fehler eingeschlichen. Die Matrox hat meines Wissens nach 4 Textur-Einheiten je pipeline.
ich finde in dem artikel wird zu stur auf die derzeitige situation zwischen r300 und nv30 eingegangen.
bis der nv30 auf dem markt is wird höchst wahrscheinlch längst der r350 auf dem markt sein, der wiederum mit ddr2 und höherem chiptakt gepaart den nv30 schlagen dürfte...
was mich auch noch interessiert ist, was denn jetzt von 3dfx technologie in den chip eingeflossen ist. mit den 3dfx/nvidia graben kämpfen höre ich zum ersten mal... wäre aber auch nen artikel wert :P
sonst schöner artikel (obwohl nicht viel neues dabei ist, bedingt durch nvidia ;)
Desti
2002-11-19, 18:12:50
Speicherausbau
(max. MB) 256 256
Irgendwo hatte ich gelesen, dass der NV30 1024MB unterstützt. :o
Desti
2002-11-19, 18:13:52
Originally posted by Leonidas
Ich glaube nicht, das man wirklich eine 2-Slot-Variante in den Markt bringen wird. Widerspricht der AGP-Spezifikation.
Von ATI gibts ja auch ne 2 Slot Karte mit R300 :)
Unregistered
2002-11-19, 18:18:57
Was ich noch nicht ganz raffe, warum ist man von 2 Textureinheiten je Pipe auf eine
"zurückgegangen" ???
Ist das kein Rückschritt ?
Leonidas
2002-11-19, 18:21:41
Originally posted by Axel
Matrox hat meines Wissens nach 4 Textur-Einheiten je pipeline.
Was auch stimmt. Einfacher Schreibfehler.
Leonidas
2002-11-19, 18:23:56
Originally posted by cao
ich finde in dem artikel wird zu stur auf die derzeitige situation zwischen r300 und nv30 eingegangen.
bis der nv30 auf dem markt is wird höchst wahrscheinlch längst der r350 auf dem markt sein, der wiederum mit ddr2 und höherem chiptakt gepaart den nv30 schlagen dürfte...
was mich auch noch interessiert ist, was denn jetzt von 3dfx technologie in den chip eingeflossen ist. mit den 3dfx/nvidia graben kämpfen höre ich zum ersten mal... wäre aber auch nen artikel wert :P
sonst schöner artikel (obwohl nicht viel neues dabei ist, bedingt durch nvidia ;)
Zu R350: Ist eine Spekulation, das dieser so zeitig auf den Markt kommt.
Was an 3dfx-Technik im NV30 drin ist: Leider unbekannt.
Zu 3dfx vs. nVidia: Ist ebenfalls eine Spekulation, aber ohne greifbare Grundlage.
Leonidas
2002-11-19, 18:24:45
Originally posted by Desti
Speicherausbau
(max. MB) 256 256
Irgendwo hatte ich gelesen, dass der NV30 1024MB unterstützt. :o
Wäre schön, wenn ich dafür einen Link bekommen würde. Thx.
Originally posted by Exxtreme
Also dürfte der 6xS-Modus eine deutlich bessere Bildqualität bieten als der 8x-Modus. Nur wie es dann mit der Geschwindigkeit aussieht...
Nein. Der Trick liegt in der Formulierung "an" ordered grid. Es handelt sich um ein um 45° gedrehtes Ordered Grid. Weitere Details gibts heute Abend in einer kompakten Forum und mit Bildchen :)
StefanV
2002-11-19, 19:22:59
Originally posted by Desti
Von ATI gibts ja auch ne 2 Slot Karte mit R300 :)
nicht nur ATI bietet so eine Karten an, auch die Wildcat ist eine AGP PRO-50 Karte, die also auch 2 Slots belegt.
Dafür ist auch ein AGP Pro anschluss vorhanden.
Bei einigen Karten, glaub Evans&Sutherland, gibts sogar PCI Karten für die Spannungsregelung.
DAS sind aber Profi Karten mit einem AGP PRO Slot ;)
nggalai
2002-11-19, 21:40:17
Originally posted by Unregistered
Was ich noch nicht ganz raffe, warum ist man von 2 Textureinheiten je Pipe auf eine
"zurückgegangen" ???
Ist das kein Rückschritt ? Nö, sondern eine Design-Entscheidung. Mehrere TMUs pro Pipeline müssen auch irgendwie "gefüttert" werden. Ausserdem scheint bei der NV30 der Begriff "TMU" nicht gross Sinn zu machen, da das Teil nicht mehr so "fix" gebaut zu sein scheint. Vielleicht tatsächlich gar keine "TMU"s mehr, sondern "nur" noch Pixelshader / ALUs.
Aber eben: wird schon im anderen Thread hier (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=41065) diskutiert.
ta,
-Sascha.rb
DrumDub
2002-11-19, 21:41:37
zu dem gerücht 3dfx vs. nvidia-ingenieure:
http://rashly3dfx.tripod.com/index2.html
unter "company", abschnitt "the future"
"All of the upcoming 3dfx technology, like Rampage, will not be a total waste though. The nv30 from nvidia will be highly 3dfx influenced. Some Rampage technology will be used, some Gigapixel technology, hopefully some 3dfx FSAA, and some more 3dfx technology. The best part of that card will be that ex-3dfx employees worked on it. There are even rumors that so many ex-3dfx employees are working on the nv30, that nVidia employees got mad."
wie gesagt: unbestätigte gerüchte!!
AlfredENeumann
2002-11-19, 22:26:16
Ich suche dort im Text nochwas. Wird dort irgendwo erwähnt das da auch mal was Nvidia-Eigenes mit drin ist, oder ist alles "Zugekauft" ?
PS: Das soll jetzt kein Flame sein.
DrumDub
2002-11-20, 00:12:49
keine ahnung, aber ich denk mal, mit "influenced" im bezug auf den nv30, ist halt gemeint, dass die technologie nicht mehr allein auf der der gf 3/4 basiert. man muss wohl reviews der karten abwarten, bis man vielleicht sieht, was da an 3dfx- (RGSS ???) und gigapixel-technologie (Lightspeed Memory Architecture III ???) in die GPU "eingeflossen" ist.
das alles wird aber spekulation bleiben, da sich wohl kaum jemand von nvidia dazu äußern wird.
Desti
2002-11-20, 00:37:35
Originally posted by Leonidas
Wäre schön, wenn ich dafür einen Link bekommen würde. Thx.
http://www.extremetech.com/article2/0,3973,710340,00.asp
Maximum Addressable Memory 256MB 1GB
Leonidas
2002-11-20, 02:17:07
Originally posted by Desti
http://www.extremetech.com/article2/0,3973,710340,00.asp
Maximum Addressable Memory 256MB 1GB
Ich danke Dir. Da der ExtremeTech-Bericht auch ansonsten ab und zu gelobt wurde, gehe ich davon aus, das diese Angabe richtig ist und korrigiere bei uns entsprechend.
brinkerami
2002-11-20, 06:54:51
wenn ich die daten so vergleiche, fällt mir folgendes dazu ein:
früher, als kiddies, haben wir - auf kosten der lebensdauer und auch der "stabilität" - unsere mofas frisiert.
bleibt abzuwarten, wie der unter zugzwang stehende hersteller nvidia solche probleme mit dem aufgebohrten fx-chip löst... wenn überhaupt. ein erster ansatz ist wohl, dass der chip nicht mit der etwas wärmeren case-inneren luft gekühlt wird, sondern die luft ausserhalb des gehäuses genutzt wird. warum dies notwendig ist,ist ja wohl klar...
Unregistered
2002-11-21, 01:39:32
Hi!
Ihr schreibt das die Möglichkeiten der Programmierung des GeforceFX weitestgehend brach liegen werden. habt ihr da nicht Cg vergessen. durch Cg soll doch die Nutzung dieser Möglichkeiten vereinfacht werden. Guckt Euch doch mal das Video von der Präsentation an. Dort werden auch ein Sequel zu Command & Conquer und Everquest III glaube ich vorgestellt. Das sieht schon beeindruckend aus. wird alles in Echtzeit gerendert und kommt in den Spielen Anfang nächstn Jahres zum Einsatz.
Nico
Leonidas
2002-11-21, 04:10:45
Originally posted by Unregistered
Hi!
Ihr schreibt das die Möglichkeiten der Programmierung des GeforceFX weitestgehend brach liegen werden. habt ihr da nicht Cg vergessen. durch Cg soll doch die Nutzung dieser Möglichkeiten vereinfacht werden. Guckt Euch doch mal das Video von der Präsentation an. Dort werden auch ein Sequel zu Command & Conquer und Everquest III glaube ich vorgestellt. Das sieht schon beeindruckend aus. wird alles in Echtzeit gerendert und kommt in den Spielen Anfang nächstn Jahres zum Einsatz.
Nico
Ich habe Cg nicht erwähnt, weil Cg eigentlich nix mit der GeForceFX zu tun hat - sowohl in positiver wie auch in negativer Hinsicht.
Positiv: Cg erzeugt Shader-Code für alle DirectX 8/9 Chips, also auch für GeForce 3/4 und die Radeon 8x00/9x00.
Negativ: Cg muß sich erst einmal gegen HLSL und GLslang durchsetzen. Dafür sehe ich im übrigen schlechte Chancen. Aber wie gesagt: Dieser Kampf läuft ganz unabhängig der GeForceFX ab, Cg hat in dem Sinne nicht viel mit der GeForceFX zu tun.
PS: Hat nVidia bestätigt, daß die gezeigten Spiele-Szenen mit Cg realisiert wurden? Dies bezweifle ich, bevor ich es nicht sicher weiss. Die Arbeit an den genannten Spielen wurde im übrigen weit vor dem ersten Beta-Release von Cg angefangen. Zudem gibt es momentan noch keine Cg-Version, die überhaupt DirectX9-Code auswerfen kann. Insofern sind die gezeigten Spiele im Maximal-Fall mittels Cg für die GeForce4 Ti programmiert wurden, auf keinen Fall für die GeForceFX.
Demirug
2002-11-21, 07:46:34
Originally posted by Leonidas
Negativ: Cg muß sich erst einmal gegen HLSL und GLslang durchsetzen. Dafür sehe ich im übrigen schlechte Chancen. Aber wie gesagt: Dieser Kampf läuft ganz unabhängig der GeForceFX ab, Cg hat in dem Sinne nicht viel mit der GeForceFX zu tun.
Cg und HLSL sind indentisch. Der Unterschied ist lediglich das von MS nur ein DX Compiler kommen wird und NVIDIA zusätzlich auch noch einen OpenGL Compiler der allerdings primär nur für NVIDIA Shader erzeugen kann. GLslang ist genauso gut oder schlecht wie Cg und HLSL aber liegt noch weiter in der Zukunft.
skbrown
2002-11-28, 07:17:12
Please excuse English, but thread is right on topic for me and I don't read German. Am now just completing assembly of components for new maximum performance PC. Was just about to order ATI All-In-Wonder 9700 Pro until I saw the preliminary benchmark results for the nVidia Geforce FX chipset. It appears that the performance of video cards with this chipset will be markedly better than the ATI card. My questions are as follows: 1. When are cards with the FX chipset likely to be available? 2. Which of the video card manufacturers seem to do the best job with the nVidia chipsets? 3. Is it likely the video cards with the FX chipset will also have the TV/Video functions like the All-In-Wonder cards? 4. What card would be recommended as a "temporary" card until the FX cards are available, keeping in mind that I would probably try to sell it on eBay when I got the FX card? All comments/suggestions sincerely appreciated. Thanks for responding in English.
zeckensack
2002-11-28, 12:17:46
Originally posted by skbrown
Please excuse English, but thread is right on topic for me and I don't read German. Am now just completing assembly of components for new maximum performance PC. Was just about to order ATI All-In-Wonder 9700 Pro until I saw the preliminary benchmark results for the nVidia Geforce FX chipset. It appears that the performance of video cards with this chipset will be markedly better than the ATI card. My questions are as follows: 1. When are cards with the FX chipset likely to be available? 2. Which of the video card manufacturers seem to do the best job with the nVidia chipsets? 3. Is it likely the video cards with the FX chipset will also have the TV/Video functions like the All-In-Wonder cards? 4. What card would be recommended as a "temporary" card until the FX cards are available, keeping in mind that I would probably try to sell it on eBay when I got the FX card? All comments/suggestions sincerely appreciated. Thanks for responding in English. First off, please note that the published benchmarks are provided by NVIDIA, and may be skewed a bit in their favor.
The NV30 looks to have a significant fillrate advantage while at the same time the R300 has a little more bandwith. It's hard to predict which card will win overall and IMO it would be more prudent to wait for independent benchmarks with shipping cards before making a decision.
1. We kind of expect shipping product anywhere between February and April, earlier than Feb seems highliy unlikely now.
2. Hard to say. The usual suspects would be Leadtek, MSI, Asus and maybe Pine/XFX and Albatron.
3. Very Likely. As with any previous generation from NV.
4. Radeon 9700 non-Pros look very attractive, as do Radeon 9500Pros. Both offer very good bang for the buck. If you're not into that kind of thing the Ti4600/4400s are now reasonably affordable. But I wouldn't buy anything less than a Ti4200 or Radeon 9500 if I were in the market for a card right now.
Originally posted by zeckensack
1. We kind of expect shipping product anywhere between February and April, earlier than Feb seems highliy unlikely now.
This is IMO related to the expected timeframe for Europe. Maybe shipments for US and other countries start late december/early january
3. Very Likely. As with any previous generation from NV.
Note: The ATi AIW products also use a TV-tuner, not only video in/out.
Except from NVs "personal cinema" (external tuner) i have never seen NV cards with TV tuner.
StefanV
2002-11-28, 13:38:17
Originally posted by ow
Note: The ATi AIW products also use a TV-tuner, not only video in/out.
Except from NVs "personal cinema" (external tuner) i have never seen NV cards with TV tuner.
But there are some NV Cards with a TV Tuner.
In the c't there was a test a long time ago, there was a GF2 MX with TV Tuner.
It was an ASUS IIRC.
oops, Stefan Payne is right IIRC.
There are a few NV card models with TV tuner on the market.
Personal cinema can be combined with many GF cards, check it out here:
http://www.comprousa.com/products/personal.htm
Originally posted by DrumDub
zu dem gerücht 3dfx vs. nvidia-ingenieure:
"hopefully some 3dfx FSAA"
wie gesagt: unbestätigte gerüchte!! Ab GeForce4 hat das FSAA etwas von 3dfx, nämlich Dowfiltering in der RAMDAC-Logik. Da hat sich zu GF FX leider nichts verbessert, von wegen 4x RG Raster oder so.
Leonidas
2002-11-30, 02:03:09
Super. Dank an alle, die unserem fremdsprachigen Gast geholfen haben. Begeistert mich, macht mich stolz auf das 3DC Forum.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.