PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Internetseite zum NV30


hyperterminal
2005-01-15, 23:02:34
Hallo!

Ich bin der Besitzer der Seite www.example.org

Nun will ich dort auch etwas über diesen Grafikchip schreiben.

Da ich leider nicht so der Experte bin, wäre es nett wenn ihr mir helfen könntet.

Bis jetzt habe ich folgendes geplant:
-Technische Daten
-Analyse der Daten/ Warum der NV30 floppte
-Der "Kultfaktor"

Technischen Daten:
Codename NV30
Fertigungsprozess 0.13 Micron
Chip-Technologie 256-Bit
Transistoren 125 Millionen
GPU-Takt 500 MHz
Füllrate 4 Gigapixel/s
Speicher 2.0ns DDR2
Speicherausbau 128MB
Speicher-Takt 500 MHz
Speicherinterface 128-Bit
Speicherbandbreite 15,6 GB/s
Vertex Shader 2.0+
Pixel Shader 2.0+
Pixel Pipelines 8
DirectX 9.0 (+)
RAMDAC 2 x 400 MHz
Lautstärke bis zu 50dB(A)
Stromverbrauch max. 75W
Gewicht 0,61 kg

Habe die größtenteils von THG. Sind die soweit korrekt? Es geht mir nicht darum, alle aufzulisten, sondern nur die Interessanten.

Könntet ihr mir zu den anderen beiden Punkten (Analyse der Daten/ Warum der NV30 floppte, Der "Kultfaktor") noch etwas sagen?

Vielen Dank schonmal für eure Mithilfe. Wenn ihr wollt kann ich eure Namen am Ende des Artikels nennen.

Szenario21
2005-01-15, 23:11:20
ich habe selber eine NV30 und soweit ich das sehe sind die daten wohl richtig..
du koenntest evtl. dieses: http://www.derweissesprinter.de/CoolingFan_FUN_small.zip Videofile auf deine seite setzen, darin veralbern sich die nv leutz sozusagen selbst bezogen auf den nv30.

huha
2005-01-15, 23:11:51
Zum Kultfaktor und Flopgrund zugleich gehört natürlich die Kühlung.
Technisch exzellent, nur leider etwas laut... ;)

-huha

misterh
2005-01-15, 23:19:05
haben keine 8Pixel-Pipline. Eher 4 wie NV35

Szenario21
2005-01-15, 23:21:33
ja zum einem natuerlich die hohe lautstaerke und dann ist die karte mit der shaderleistung 2.0 ja nichtsogut weggekommen außerdem hatte sie nur ein 128bit Speicherinterface waehrend ati mit ihrer Radeon9700/9800 schon 256bit anbot.

Ich muss aber sagen die Karte hat Charakter, ich bin jedenfalls froh eine zu besitzen und wuerde die auchnet so schnell verkaufen, es sei denn der preis ist angemessen aber der muesste schon sozusagen Sammlergerecht sein ;)

hyperterminal
2005-01-15, 23:24:46
ich habe selber eine NV30 und soweit ich das sehe sind die daten wohl richtig..
du koenntest evtl. dieses: http://www.derweissesprinter.de/CoolingFan_FUN_small.zip Videofile auf deine seite setzen, darin veralbern sich die nv leutz sozusagen selbst bezogen auf den nv30.
danke das video habe ich schon überall gesucht :)

@misterh: bist du dir da sicher? habe sowohl nv30 und nv35 aber meines wissens nach haben die 8 pixel pipelines

was ich noch gern wissen würde wären die release dates von nv30 und nv35 habe bei google leider keine genauen daten gefunden

@Szenario21
habe unter anderem folgendes geschrieben:
"Die schlechte Shaderleistung bei Shader 2.0 Spielen zeigte sich erst, nach dem die Karte auf dem Markt schon gescheitert war. Jene ist also nicht für den Misserfolg des NV30 verantworlich."

das steht ja dann in widerspruch zu deiner aussage. meinst du damals war shader 2.0 schon wichtig? sonst mach ich diesen abschnitt weg

Szenario21
2005-01-15, 23:30:07
@Szenario21
habe unter anderem folgendes geschrieben:
"Die schlechte Shaderleistung bei Shader 2.0 Spielen zeigte sich erst, nach dem die Karte auf dem Markt schon gescheitert war. Jene ist also nicht für den Misserfolg des NV30 verantworlich."

das steht ja dann in widerspruch zu deiner aussage. meinst du damals war shader 2.0 schon wichtig? sonst mach ich diesen abschnitt wegachso hm das weiß ich jetzt ehrlich gesagt garnicht ob das zu der zeit relevant war, ich habe meine karte erst gekauft als sie sozusagen schon gefloppt war muesste man mal genauer recherchieren welche spiele zum launch der fx5800 so rauskamen.

Raff
2005-01-15, 23:33:27
Es handelt sich AFAIK um eine 4x2-Architektur, nicht 8x1, wie oft behauptet wurde.

MfG,
Raff

Demirug
2005-01-15, 23:37:54
Es handelt sich AFAIK um eine 4x2-Architektur, nicht 8x1, wie oft behauptet wurde.

MfG,
Raff

Ja, es ist 4*2 (was auch sonst als umgebauter NV25?). Ausser wenn lediglich Z und/oder Stencil Operationen durchgeführt werden. Dann ist es 8*0.

hyperterminal
2005-01-15, 23:45:03
Ja, es ist 4*2 (was auch sonst als umgebauter NV25?). Ausser wenn lediglich Z und/oder Stencil Operationen durchgeführt werden. Dann ist es 8*0.
danke muss ich gleich verbessern

umgebauter nv25? hört sich interessant an. kannst du da etwas mehr zu erzählen?

ich dachte nämlich immer die architektur wurde grundlegend verändert. folgende sache stellt mich z.b. vor ein rätsel:

bei gleicher architektur müsste die fx 5800 ultra ja bei spielen wie z.b. quake3 wegen der hohen taktraten deutlich schneller sein als die ti4600, was sie aber nicht ist

Raff
2005-01-15, 23:51:09
Doch, die 5800 Ultra ist bei Spielen wie Quake III deutlich schneller als eine GF4 Ti-4600.
Die NV3x-Serie bricht "nur" übel ein, wenn Pixel-Shader in der Version 2.0 genutzt werden.

MfG,
Raff

Gummikuh
2005-01-16, 17:25:27
* Dieses Posting wurde von mir um seinen Flameinhalt erleichtert. *

Wenn du wirklich wissen willst warum der NV30 floppte...hier auf dieser Seite findest du schöne Artikel hierzu...schau dir mal "NV40 im Detail" an...da sind auch paar Hinweise zur FX bzw. was bei der GeForce 6 geändert wurde.

Dann gibts hier auf dieser Seite noch diesen wunderschönen Artikel
" Pixelshader: Reicht "Partial Precision" aus?"...hier erfährst du auch ein paar Infos warum die GeForce FX net so in die Pötte gekommen ist was die Shader-leistung angeht. Stichwort Hybrid-Chip.

Ganz einfach... Microsoft hat bei DirectX 9 ganzzahlige Berechnungen verboten...läuft also alles im Fließkommaprinzip.Das war im Prinzip der Grund warum der NV30 bzw. die GeForce FX Serie nicht der bringer war.Der NV 30 benutzt ganzzahlige und Fließkommaberechnungen.Diese Hybrid Auslegung hat zum Dilemma geführt.Na ja bei der FX 5800 Ultra hat dann noch der FX Flow Kühler und die 128 Bit Speicheranbindung den Rest gegeben.
Hätte Microsoft anders gehandelt hätte der GeForce FX auch ein Erfolg werden können.Nvidia war eben mit der Entwicklung des NV30 schon fertig bevor alle Spezifikationen von DirectX 9.0 feststanden.

Gummikuh
2005-01-16, 18:47:35
Und das Filmchen hab ich mir auch mal angeguckt...echt geil :biggrin:

Quasar
2005-01-16, 19:01:58
Na ja ...meiner Meinung nach haben die ATI 9700 Charakter...da funzt
Direct X 9.0 wenigstens richtig...gell? :biggrin:
Hatte es noch nie mit ner GeForce FX zu tun [blablubb]

Und wozu postest du dann diesen 'Rant' hier? Nur Spam oder auch Flame?

Quasar
2005-01-16, 19:22:44
Hallo

Auf ComputerBase.de habe ich mal ein Kolumne zu cineFX veröffentlicht, die sich mit dem nV30 beschäftigte. Besteht allerdings großteils aus Spekulationen - vielleicht kannst du was damit anfangen.


Hallo!

Ich bin der Besitzer der Seite www.nv30.de

Nun will ich dort auch etwas über diesen Grafikchip schreiben.

Da ich leider nicht so der Experte bin, wäre es nett wenn ihr mir helfen könntet.

Bis jetzt habe ich folgendes geplant:
-Technische Daten
-Analyse der Daten/ Warum der NV30 floppte
-Der "Kultfaktor"

Technischen Daten:
Codename NV30
Fertigungsprozess 0.13 Micron
Chip-Technologie 256-Bit
Transistoren 125 Millionen
GPU-Takt 500 MHz
Füllrate 4 Gigapixel/s
Speicher 2.0ns DDR2
Speicherausbau 128MB
Speicher-Takt 500 MHz
Speicherinterface 128-Bit
Speicherbandbreite 15,6 GB/s
Vertex Shader 2.0+
Pixel Shader 2.0+
Pixel Pipelines 8
DirectX 9.0 (+)
RAMDAC 2 x 400 MHz
Lautstärke bis zu 50dB(A)
Stromverbrauch max. 75W
Gewicht 0,61 kg

Habe die größtenteils von THG. Sind die soweit korrekt? Es geht mir nicht darum, alle aufzulisten, sondern nur die Interessanten.

Könntet ihr mir zu den anderen beiden Punkten (Analyse der Daten/ Warum der NV30 floppte, Der "Kultfaktor") noch etwas sagen?

Vielen Dank schonmal für eure Mithilfe. Wenn ihr wollt kann ich eure Namen am Ende des Artikels nennen.

hyperterminal
2005-01-16, 20:03:41
Ganz einfach... Microsoft hat bei DirectX 9 ganzzahlige Berechnungen verboten...läuft also alles im Fließkommaprinzip.Das war im Prinzip der Grund warum der NV30 bzw. die GeForce FX Serie nicht der bringer war.Der NV 30 benutzt ganzzahlige und Fließkommaberechnungen.Diese Hybrid Auslegung hat zum Dilemma geführt.Na ja bei der FX 5800 Ultra hat dann noch der FX Flow Kühler und die 128 Bit Speicheranbindung den Rest gegeben.
Hätte Microsoft anders gehandelt hätte der GeForce FX auch ein Erfolg werden können.Nvidia war eben mit der Entwicklung des NV30 schon fertig bevor alle Spezifikationen von DirectX 9.0 feststanden.
dank deinem post ist mir gerade etwas eingefallen

war es nicht so, dass microsoft bei der festsetzung der dx spezifikationen eng mit ati zusammenarbeitete, da die den ersten dx9 chip hatten? deswegen wurde dx9 doch auf den r300 optimiert und nvidia hatte zu der zeit noch keinen lauffähigen nv30.

und dann war da doch noch was mit der genauigkeit der pixelshader
leider liegt das in einer ziemlich dunklen ecke meines gedächtnisses

nv30 16/32bit präzision r300 24/32 und die dx9 spezifikation fordert mindestens 24bit?

Gummikuh
2005-01-16, 20:05:39
Und wozu postest du dann diesen 'Rant' hier? Nur Spam oder auch Flame?

hab ich etwa was schlimmes gesagt?

Gummikuh
2005-01-16, 20:21:03
dank deinem post ist mir gerade etwas eingefallen

war es nicht so, dass microsoft bei der festsetzung der dx spezifikationen eng mit ati zusammenarbeitete, da die den ersten dx9 chip hatten? deswegen wurde dx9 doch auf den r300 optimiert und nvidia hatte zu der zeit noch keinen lauffähigen nv30.

und dann war da doch noch was mit der genauigkeit der pixelshader
leider liegt das in einer ziemlich dunklen ecke meines gedächtnisses

nv30 16/32bit präzision r300 24/32 und die dx9 spezifikation fordert mindestens 24bit?


Also inwiefern Microsoft mit ATI zusammengearbeitet hat kann ich nicht sagen...die Releasedaten habe ich auch nicht auswendig gelernt.
Soweit ich weiß war der NV30 vor der DX9 Spezifikation schon fertig entwickelt, bzw. war es zu spät das Design des Chips umzukrempeln.

Jup da war was mit den Pixelshadern und deren Rechengenauigkeit.
Also der NV 30 rechnet mit FX 12/FP 16/FP 32 soweit ich weiß.
R 300 hat FP 24. NV45 mal außer Konkurrenz FP 16 und FP 32.
FX12 ist quasi von MS verboten worden.FP16 ist mit bestimmten Einschränkungen erlaubt.

Hier steht alles ziemlichausführlichhttp://www.3dcenter.de/artikel/2004/11-29_a.php

kmf
2005-01-16, 20:24:47
hab ich etwa was schlimmes gesagt?Ja. Postings solchen Inhalts sind immer wieder Ausgangspunkt von unnötigen Flamewars. Und genau solche möchte ich hier verhindern. Deshalb habe ich die Passage aus deinem Posting rausgenommen.

Gummikuh
2005-01-16, 20:57:10
Ja. Postings solchen Inhalts sind immer wieder Ausgangspunkt von unnötigen Flamewars. Und genau solche möchte ich hier verhindern. Deshalb habe ich die Passage aus deinem Posting rausgenommen.

ok...ok...hab da wohl meine Meinung zu diversen Produkten zweier großer Hersteller ein wenig zu offenkundig rausgehauen.

Spasstiger
2005-01-16, 21:14:35
-Der "Kultfaktor"

Welcher Kultfaktor? Ich finde an diesen Karten nichts kultig. Die einzige GeForce FX mit Daseinsberechtigung war imo die GeForce FX 5900 XT.

godess
2005-01-16, 21:26:54
übrigens: der NV30 (FX5800) hatte nur 128bit(ddr2) der NV35 (FX59x0) hatte erst 256bit(ddr)

Guest
2005-01-16, 22:10:52
Ich will ja nicht pingelig sein, aber eine GeForce FX 5800 Ultra hatte genau 16,0 GB/Sek. Speicherbandbreite und nicht 15,6 GB/Sek.

Atma
2005-01-16, 23:27:42
Welcher Kultfaktor?

In den FX'en steckt technologie von 3dfx daher der kultfaktor. Da ich die 3dfx ära aber nicht mit gemacht habe kann ich dazu auch nich mehr sagen.

hyperterminal
2005-01-20, 19:46:08
so ich habe nochmal eine frage:
http://www.hardware-mag.de/news.php?id=2814

stimmt diese meldung?

gibt es "nur" 100.000 nv30 chips? wieviele entfallen davon wohl auf die 5800 ultra (weniger als die hälfte?)?

Gummikuh
2005-01-20, 21:38:36
Ob es nur 100.000 NV30 gibt kann ich dir besten Willens nicht beantworten, aber wenn ja, dann dürfte der Anteil an Ultras wohl eher noch geringer sein, da es ja das Flagschiff der Serie war (und die Ultra war ja auch Schweineteuer).

Auf jedenfall wurde der NV35 schon ziemlich schnell nach dem NV30 präsentiert...das war schon so 3-4 Monate später...ging auf jedenfall fixer wie sonst üblich mit dem Refreshchip.