Archiv verlassen und diese Seite im Standarddesign anzeigen : Sammelthread: Infos zum NV30-Launch (Comdex)
nggalai
2002-11-18, 16:37:47
Hola,
wie schon weiland bei der R300, hier der Sammelthread für bestätigte, offizielle Infos zum NV30-Launch. Alles andere (Inquirer etc.) bitte ins Spekulations-Forum.
ta,
-Sascha.rb
/edit L.
Bisherige Previews:
http://www.3dcenter.org/artikel/2002/11-19_a.php
http://www.tomshardware.de/graphic/02q4/021119/index.html
http://www.chip.de/produkte_tests/produkte_tests_8919090.html
http://www.hardware-tweaker.de/HTML/Home_4/Overclocking/Grafikkarten_Teil1/Geforce_FX_Teil1/geforce_fx_teil1.html
http://www.wcm.at/modules.php?name=News&file=article&sid=4356
http://www.golem.de/0211/22728.html
http://www.heise.de/newsticker/data/anw-18.11.02-006/
http://www.tecchannel.de/hardware/1072/index.html
http://www.anandtech.com/mb/showdoc.html?i=1749
http://www.nvnews.net/previews/geforce4_fx/index.shtml
http://www.guru3d.com/tech/geforcefx/
http://www.beyond3d.com/previews/nvidia/nv30gfx/
http://www.beyond3d.com/previews/nvidia/nv30launch/
http://www.3dvelocity.com/reviews/nv30/nv30.htm
http://www.3dgpu.com/previews/geforcefx_1.php
http://www.digit-life.com/articles2/gffx/index.html
http://www.tweak3d.net/reviews/nvidia/nv30preview/index.shtml
http://www.hothardware.com/hh_files/S&V/nv30_preview.shtml
http://www.extremetech.com/article2/0,3973,710337,00.asp
http://www.sharkyextreme.com/hardware/videocards/article.php/1502451
http://www.bjorn3d.com/_preview.php?articleID=80
http://www.hexus.net/review.php?review=456
http://www.bit-tech.net/article/97/
http://www.hardocp.com/article.html?art=Mzkw
http://www.spodesabode.com/content/article/geforcefx/1
http://www.viperlair.com/articles/techreport/nvidia/nv30/geforcefx.shtml
http://www.ukgamer.com/article.php4?id=208
http://gear.ign.com/articles/377/377795p1.html
http://firingsquad.gamers.com/hardware/gffx/
http://www.tech-report.com/etc/2002q4/geforce-fx/index.x?pg=1
nggalai
2002-11-18, 16:38:57
http://money.cnn.com/2002/11/15/technology/comdex_nvidia/index.htm
Mit kleinem Beispielbild (das untere, nicht das obere ;) ).
ta,
-Sascha.rb
nggalai
2002-11-18, 16:45:52
http://www.theregister.co.uk/content/3/28153.html
Auszug:First up, a faster processor: 500MHz v. 325MHz in used in the TI4600. Next, there’s more memory bandwidth 1GHz DDRII DRAM (600MHz DDR1); new anti-aliasing technology, dubbed Intellisample, designed to double the efficiency of memory reads and writes; and AGP 8X bandwidth (double that of AGP 4X). Built using 0.13micron production technology, the GeForce FX also handles eight pixels per clock cycle, against 4 for its immediate predecessor, by definition doubling the theoretical fill rate.325MHz Ti4600? :| Tippfehler in der Pressemappe?
ta,
-Sascha.rb
Quasar
2002-11-18, 16:52:16
Vielleicht auch die Schuld des ständig praktizierten, unreflektierten Voneinanderabschreibens?
Unregistered
2002-11-18, 16:53:04
GeForce FX: NV30 finalmente svelato:
http://www.hwupgrade.it/articoli/734/
Für Non-Italianos gibbet auch ein paar hübsche Bilderchen.
x-dragon
2002-11-18, 17:02:55
Originally posted by Unregistered
GeForce FX: NV30 finalmente svelato:
http://www.hwupgrade.it/articoli/734/
Für Non-Italianos gibbet auch ein paar hübsche Bilderchen.
und hier in englisch:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.hwupgrade.it%2Farticoli%2F734%2F&langpair=it%7Cen&hl=de&ie=UTF-8&oe=UTF-8&newwindow=1&prev=%2Flanguage_tools
ich liebe Google :)
nggalai
2002-11-18, 17:03:39
Nette Seite, unreg.
Intellisample:
- Color Compression
- Fast Clear del Color Buffer
- Dynamic Gamma Correction
- Adaptive Texture Filtering
- Nuove modalità di Anti Aliasing
Also volle Framebuffer-Kompression?
ta,
-Sascha.rb
Unregistered
2002-11-18, 17:15:39
geforce 4600 mit 325mhz single rate meinten die wohl...
nagus
2002-11-18, 17:36:59
http://www.hwupgrade.it/articoli/734/2.html !
die karte ist ja noch größer als eine GF4!! *pfFF* typisch Nvidia ;)
http://www.hwupgrade.it/articoli/734/scheda.jpg
Rampage
2002-11-18, 17:39:23
Originally posted by nagus
http://www.hwupgrade.it/articoli/734/2.html !
die karte ist ja noch größer als eine GF4!! *pfFF* typisch Nvidia ;)
Scheiß drauf, hauptsache sie hat Power, und das hat sie wie es aussieht :)
Birdman
2002-11-18, 17:41:24
Originally posted by nagus
http://www.hwupgrade.it/articoli/734/2.html !
die karte ist ja noch größer als eine GF4!! *pfFF* typisch Nvidia ;)
http://www.hwupgrade.it/articoli/734/scheda.jpg
aba der chips sieht echt mal geil aus....ne schande wenn da ein Kühler draufsitzt :D
Unregistered
2002-11-18, 17:46:19
Von dieser Zeichenform sieht es schwer nach dem Geforce4TI Referenz Kühler aus, vielleicht heizt sie ja doch nicht so.
Unregistered
2002-11-18, 17:53:45
Originally posted by nggalai
Nette Seite, unreg.
Intellisample:
- Color Compression
- Fast Clear del Color Buffer
- Dynamic Gamma Correction
- Adaptive Texture Filtering
- Nuove modalità di Anti Aliasing
Also volle Framebuffer-Kompression?
ta,
-Sascha.rb Das scheint auch bis jetzt die einzige "richtige" NV30-Seite zu sein. NVnews hat einen eigenen IRC-Channel eingerichtet (irc.eu.freenode.net #nvnews), da wird eigentlich nur diese Seite http://www.hwupgrade.it/articoli/734/ als Informationsquelle genannt und gegen Trash à la Inquirer geflamt. Ansonsten wird im NVnews-Chat ziemlich viel geblödelt.
Eine stets aktualisierte Zusammenstellung der Infos bzw. der Infoquellen gibt es noch nicht. Wäre vielleicht gut, wenn in diesem Thread ausschließlich Infos / Infosquellen genannt würden und Diskussionen, Spekulationen, Flames, Flamewars und Flamedeathmatches in entsprechenden Threads geführt würden.
Quasar
2002-11-18, 17:53:56
Originally posted by nagus
http://www.hwupgrade.it/articoli/734/2.html !
die karte ist ja noch größer als eine GF4!! *pfFF* typisch Nvidia ;)
*Mal'n bissel dagegen flame*
Ja, große Boards rulen. So lüttsche Popelteile kriegste auch bei SiS....
robbitop
2002-11-18, 17:59:07
mehr als eine GF4Ti4600 KANN sie nicht heizen da über normalen AGP2.0 nicht mehr als afaik 37W zur Verfügung sehen wenn man alle Spannungen zusammenmixt.
sonst bräuchte sie nen externen anschluss.
Demirug
2002-11-18, 18:00:27
Originally posted by robbitop
mehr als eine GF4Ti4600 KANN sie nicht heizen da über normalen AGP2.0 nicht mehr als afaik 37W zur Verfügung sehen wenn man alle Spannungen zusammenmixt.
sonst bräuchte sie nen externen anschluss.
Den hat sie doch scheinbar
robbitop
2002-11-18, 18:02:33
zeichnest du ihn bitte ein??? (bittteeeebitte)
ich bin wohl zu blind... :D
skampi
2002-11-18, 18:03:56
Also ich hab auch nichts gegen große Bretter, nur reinpassen müssen 'se.
@robbi
Schau mal ganz rechts, der 4Pol.
MeLLe
2002-11-18, 18:04:02
Originally posted by Demirug
Den hat sie doch scheinbar
Wobei Dein "scheinbar" scheinbar nicht ganz ernstzunehmen ist, gelle Demirug? ;)
robbitop
2002-11-18, 18:04:31
ok ich glaub ich habe ihn, aber warum haben sie dann soviele Spannungswandler???
meine Theorie (mann was fällt mir alles während des Schreibens ein?):
sie zieht erstma massich Saft aus dem AGP Port und erst den Rest ziehn sie aus der 5V Leitung (wegen Reklamationen aufgrund schwacher Netzteile (DAUs wissen sowas eben nich..denken karte is putt LOL)).
nah was meint ihr???? ^^
MeLLe
2002-11-18, 18:04:35
Originally posted by robbitop
zeichnest du ihn bitte ein??? (bittteeeebitte)
ich bin wohl zu blind... :D
Rechts "oben" ...
MechWOLLIer
2002-11-18, 18:04:49
Bin mal gespannt, obn m an heute noch was mehr von der Karte zu sehn bekommt
Oli_Immerschoen
2002-11-18, 18:05:27
Originally posted by Demirug
Den hat sie doch scheinbar
...was natürlich die NVidia-Fanboys hier mächtig ins Schwitzen bringen würde denn was haben se über den externen Stromanschluß der 9700 Pro gelästert :D
Demirug
2002-11-18, 18:06:49
Auf der Karte rechts oben. Das könnte durchaus eine externe Stromversorgung sein. Bin aber auch für alternativ vorschläge offen.
Ich meine aber nicht den kleinen Lüfteranschluss.
Sir Integral Wingate Hellsing
2002-11-18, 18:13:00
Originally posted by Demirug
Auf der Karte rechts oben. Das könnte durchaus eine externe Stromversorgung sein. Bin aber auch für alternativ vorschläge offen.
Ich meine aber nicht den kleinen Lüfteranschluss.
Das ist definitiv nen externer Stromanschluss.
Geil, erst lästern alle nVidia-Fans über ATis Stromlösung bei der R300 und nu haben sie sie mit dem NV30 selbst ;)
AlfredENeumann
2002-11-18, 18:14:18
Originally posted by Quasar
Ja, große Boards rulen.
Is ja auch 3DFx-Technik drin
Sesino
2002-11-18, 18:14:22
Auwei, ich bin ein Nvidia Fan und mir geht der externe Stromanschluss am Popo vorbei..
PS: ATI Fan bin ich auch! Aber S3 mag ich nicht so!
Schlumbf
2002-11-18, 18:14:31
Wenns nach mir gänge würde da ein SLI Kabel reinkommen ;)
Aber im Ernst: Man kann doch durch das Plastik die 4 Metall Stäbchen sehen, das ist 100%zig ein Stromanschluss, stellt sich nur noch die Frage ob man ihn benutzen muss
Unregistered
2002-11-18, 18:14:35
Ein glück ich als alter Nvidia fanboy hab mir grad ein 4200watt netzteil geholt bin mal gespannt ob sich die poer des netzteils auch aufs übertakten auswirkt?
MegaManX4
2002-11-18, 18:15:04
Das wird ein ganz normaler "Festplattenstromstecker" sein. Ahja...da werden Erinnerungen an meine Voodoo 5 5500 wach :) .
Thomas
skampi
2002-11-18, 18:15:29
Originally posted by Unregistered
Von dieser Zeichenform sieht es schwer nach dem Geforce4TI Referenz Kühler aus, vielleicht heizt sie ja doch nicht so.
2 2pol. Lüfteranschlusse (5V?) -> evtl. für Kühler mit 2 Lüftern ähnlich dem von Leadtek (optional). Fänd ich auch besser als die Standard-GF4-Quälgeister, obwohl da solls ja auch leisere von gegeben haben.
Schlumbf
2002-11-18, 18:18:14
Noch etwas zum Zeit totschlagen bevor ein paar anständige Daten kommen (falls sie überhaupt kommen).
Unbedingt lesen: <<<Klick>>> (http://www.planet3dnow.de/artikel/diverses/doping/index.shtml)
MegaManX4
2002-11-18, 18:20:33
Originally posted by skampi
2 2pol. Lüfteranschlusse (5V?) -> evtl. für Kühler mit 2 Lüftern ähnlich dem von Leadtek (optional). Fänd ich auch besser als die Standard-GF4-Quälgeister, obwohl da solls ja auch leisere von gegeben haben.
Ich frag mich immernoch wann die Hersteller endlich mal auf die Idee kommen 70mm Lüfter mit halber Bauhöhe zu montieren. Ich habe jedenfalls lieber EINEN großen Lüfter der langsam dreht, als 2 kleine Lüfter die mit 5000upm meinen Gehörgang einschmelzen. Am liebsten ist mir aber natürlich meine 9700'er mit Heatpipe-Passiv Kühlung ;D. Mal ehrlich, so schwer kann es doch nicht sein auch die NV30 Passiv zu kühlen. Von mir aus kann der Chip 90°C bei 0db warm werden...besser als ein 45°C bei 46db ist das allemal.
Thomas
Unregistered
2002-11-18, 18:23:54
http://www.heise.de/newsticker/data/anw-18.11.02-006/
Metzger
2002-11-18, 18:24:50
fucking cookies
last post was mine :)
Unregistered
2002-11-18, 18:25:26
Wenn ich das kollektive Geflame mal kurz unterbrechen darf:
http://www.anandtech.com/mb/showdoc.html?i=1749&p=1
So, jetzt bitte weiterflamen. Das soll hier ja schließlich kein Sammelthread mit Infos zum NV30-Launch sein.
CueqzappeR
2002-11-18, 18:30:48
jetzt wurde auch die nvidia site angepasst.
da blinkt einem ein Powered by Pure Adrenaline entgegen :)
Unregistered
2002-11-18, 18:30:50
http://www.beyond3d.com/previews/nvidia/nv30gfx/
Wie schauts denn mit dem TV Out Chip aus? Ist das nicht der der in den KyroII SE Karten verbaut wirt/soll?
Mir is der TV Out wichtig
mfg Alfa
skampi
2002-11-18, 18:31:37
0.13-micron GPU
125 million transistors
8 pixel rendering pipelines, 1 texture unit per pipeline, can do 16 textures per pass
1 massively parallel vertex rendering engine
4 x 32-bit "DDR2" memory controllers running at ~500MHz DDR
Up to 48GB/s of memory bandwidth using compression
AGP 8X support
Full DX9 Pixel & Vertex Shader support
???
Na wenn das mal nicht ne Neuigkeit ist.
Unregistered
2002-11-18, 18:32:50
http://www.anandtech.com/mb/showdoc.html?i=1749&p=7 ein bissel über das 2 fache der 4600 bei doom3
roman
2002-11-18, 18:35:58
jo, die zahlen kommen aber direkt von nvidia und sind daher IMHO mit vorsicht zu betrachten ...
Originally posted by Birdman
aba der chips sieht echt mal geil aus....ne schande wenn da ein Kühler draufsitzt :D
Kannst ja mal ausprobieren, ob man ihn soweit runtertakten kann, dass er ohne jede Kühlung läuft.
50-70MHz könnten schon drin sein.;);)
Tom´s Bericht:
http://www7.tomshardware.com/graphic/02q4/021118/index.html
Wenn ich die Daten des NV30 sehe und dieser Chip erst im Februar zu kaufen sein wird, dann muss ich sagen die Runde geht an ATi.
Daten sagen nicht viel. Da muss schon die Praxis zeigen, was das taugt.
skampi
2002-11-18, 18:47:26
Quelle Anand
Just like the Radeon 9700 Pro, the GeForce FX can only process one texture per pixel pipeline in a single clock, giving the GeForce FX no inherent fill rate advantage over the Radeon. NVIDIA makes up their performance advantages in their memory architecture, higher core clock speeds and overall efficiency. The GeForce FX, like the Radeon 9700 Pro, can process 16 textures per pixel, just not in a single clock which is often misunderstood.
@ow
Einen kleinen Einblick gibt das schon. Ist zwar noch ein bißchen früh aber an Performance-Wunder glaub ich nicht mehr.
Alexander
2002-11-18, 18:47:56
Ich bin etwas erstaunt, daß der NV30 nur OGMS können soll. Damit nützt einem die ganze Geschwindigkeit ja gar nicht so viel, weil man für denselben Effekt eine höhere FSAA-Stufe wählen muß.
Alexander
Desti
2002-11-18, 18:50:08
Also ich bin finde es sehr schwach von nVidia was die da heute bringen. Paperlaunches gibt es zwar fast überall, aber AMD & Co. liefern wenigsten lauffähige Muster aus und es gibt genügend Benches.
Desti
2002-11-18, 18:53:01
Originally posted by ow
Kannst ja mal ausprobieren, ob man ihn soweit runtertakten kann, dass er ohne jede Kühlung läuft.
50-70MHz könnten schon drin sein.;);)
Radeon Karten zumindest stürzen ab wenn man den Takt extrem verringert.
Meine Radeon 8500LE z.B. bereits ab 190Mhz.
Originally posted by skampi
@ow
Einen kleinen Einblick gibt das schon. Ist zwar noch ein bißchen früh aber an Performance-Wunder glaub ich nicht mehr. [/SIZE]
Ich auch nicht. Aber der Grafikcore selbst scheint mir mit seinen Fähigkeiten recht gelungen. Der kann sicher recht schöne Pixel zeichnen.:D
Das AA kann man wohl vergessen. Was NV da geritten hat, ab 4x auf bei OG zu bleiben....:|
Originally posted by Desti
Radeon Karten zumindest stürzen ab wenn man den Takt extrem verringert.
Meine Radeon 8500LE z.B. bereits ab 190Mhz.
Hab ich nicht anders erwartet. Die Grafikcores sind sicher fast alle aus dynamischen Schaltkreisen aufgebaut und brauchen 'Refreshs' wie DRAM. Unter einem gewissen Takt geht da nix mehr.
Irgendwie lustig.... von dem "Über"Chip is ja net sehr viel übrig geblieben. Das einzige womit das Teil wirklich punkten kann ist der Takt.
Aber wenn man standartmässig schon das Teil mit Heatpipe betreiben muss, is das schon sehr arm finde ich. Das Teil kostet bestimmt 1/3 mehr in der Produktion als der R300.
Auch ja, und trotz 130nm eine grössere DIE Fläche hinzukriegen als ATI mit 150nm is auch nicht geradfe kostensparend ;) der Ausschuss muss horrend sein.
MeLLe
2002-11-18, 19:00:17
http://nvidia.com/view.asp?PAGE=geforcefxThe GeForce FX's new 6XS mode delivers silky-smooth visuals not seen in the current 4X or 4XS modes, calculating 50% more samples. This feature is available through the control panel, so even current games can take advantage of this stunning new level of clarity.
What's more, the GeForce FX's innovative new architecture includes an advanced and completely transparent form of lossless depth Z-buffer and color compression technology. The result? Essentially all modes of antialiasing are available at all resolutions without any performance hit. Greatly improved image quality, with no drop in frame rate!Und dazu Anand's statement:The compression engine and the high clock speed of the GeForce FX enabled NVIDIA to introduce to new anti-aliasing modes: 6XS under Direct3D, and 8X AA under both OpenGL and Direct3D. Because of the compression engine, performance with AA enabled should be excellent on the GeForce FX.
BlackBirdSR
2002-11-18, 19:05:10
anand sagt die Nv30 ist bei Doom3 um einiges schneller als die Radeon9700 Pro (33 vs 45 oder so)
Karümel
2002-11-18, 19:05:20
http://www.pcgames.de/index.cfm?article_id=103100
Alexander
2002-11-18, 19:07:10
Originally posted by ow
Das AA kann man wohl vergessen. Was NV da geritten hat, ab 4x auf bei OG zu bleiben....:|
Da kann Tom dann wieder 4x gegen 4x benchen und tolle Performancevorsprünge feststellen... :]
Wie das Bild dann aussieht ist ja Wurscht...
Alexander
Desti
2002-11-18, 19:07:31
Ich wette die Karte braucht deutlich mehr Saft als ne R9700PRO :)
2B-Maverick
2002-11-18, 19:09:44
Was mich verdammt noch mal wundert, ist das sowohl Ananad als auch Tom (bzw. Lars) schreiben das der R9700 keine Framebufferkompression betreibt! Obwohl dies doch soweit ich weiss zumindest beim Einsatz von AA der Fall ist..... hmmmmmmm
roman
2002-11-18, 19:11:58
Originally posted by BlackBirdSR
anand sagt die Nv30 ist bei Doom3 um einiges schneller als die Radeon9700 Pro (33 vs 45 oder so)
nö, das sagt ned anand, das sagt nvidia. ;)
Tiamat
2002-11-18, 19:13:45
Originally posted by Romanski
nö, das sagt ned anand, das sagt nvidia. ;)
Was aber auch 100% stimmen wird ;)
BlackBirdSR
2002-11-18, 19:14:09
Originally posted by Romanski
nö, das sagt ned anand, das sagt nvidia. ;)
nicht zu mir ;) Anand schon
Sowie´s aussieht is der NV30 wirklich net so doll. Schneller als der Radeon9700 wird er wohl sein, aber des ist wohl kein wunder, bei 5 monaten zeitunterschied. Was mich entäuscht sind das AA des chips und dass nur 1 TMU pro pipe verwendet wird. Das die shader besser als die der Radeon sind ist eigentlich egal, weils in absehbarar zeit sowieso nur DX8 games geben wird.
Insgesamt gesagt sieht´s net so doll aus für den NV30 auch wenn man erst mal richtige tests abwarten muss.
@Seahawk:
Geflamt wird hier nicht. Wenn du deine Meinung kundtun möchtest, dann kannst du das auf anständige Weise tun.
lol des hab ich grad bei anand gelesen
"The lossless compression algorithm can obtain up to a 4:1 compression ratio which explains where NVIDIA gets their 48GB/s of memory bandwidth from. Remember that the 500MHz DDR2 memory on the GeForce FX provides 16GB/s of bandwidth on the 128-bit memory bus, but multiply that by 4 and you'll get the 48GB/s of memory bandwidth NVIDIA is claiming."
Jaja 4*16 ist 48 :lol:
Wenn ich des meinem mathe lehrer antworten würde, würde ich doch glatt die 12te wiederholen müssen. Oder vielleicht gleich nochmal die 1te.
roman
2002-11-18, 19:21:54
Originally posted by seahawk
Ist es nicht schön, jetzt kennen wir die größte Hardwareenttäuschung 2002.
naja, wenn schon dann die größte Hardwareenttäuschung 2003 :D
aber so krass würde ichs dann doch nicht ausdrücken, der erwartete überflieger wird sie halt nicht. nvidia hat sich halt zum ersten mal ein wenig verrechnet, aber mal schauen, was erste benchmarks so zeigen. auf die zahlen, die nvidia da rausgibt (siehe anand), geb ich eigentlich nicht viel.
Unregistered
2002-11-18, 19:22:56
Originally posted by robbitop
ok ich glaub ich habe ihn, aber warum haben sie dann soviele Spannungswandler???
Wo ist denn da nen Spannungswandler??? Ich seh nur nen paar Kondesatoren und Spulen...
Alexander
2002-11-18, 19:23:59
Originally posted by burk23
Jaja 4*16 ist 48 :lol:
Wenn ich des meinem mathe lehrer antworten würde, würde ich doch glatt die 12te nochmal machen müssen.
Gröhl...der ist echt gut...aber weil wir gerade beim Thema "colour compression" sind...hat ATI nicht auch eine ähnliche Technologie oder irre ich mich da?
Alexander
MeLLe
2002-11-18, 19:24:37
Originally posted by Unregistered
Wo ist denn da nen Spannungswandler??? Ich seh nur nen paar Kondesatoren und Spulen...
Richtig. Und die gab es schon auf der Gf4 in Massen... ;)
seahawk
2002-11-18, 19:27:10
Mit der größten Hardwareenttäuschung 2002 meinte ich eigentlich, dass die karte 2002 nicht zu haben ist. (Aber ich vergeß ja immer dass das hier anders aufgefaßt wird)
Ich bin wirklich auf einen ersten Test gespannt, so von den techischen Daten scheint sie die R9700pro nicht zu distanzieren, mal abwarten was die neuen Ideen von Nvidia zu in der Praxis bringen.
MeLLe
2002-11-18, 19:30:11
Originally posted by Schlumbf
Wenns nach mir gänge würde da ein SLI Kabel reinkommen ;)
Aber im Ernst: Man kann doch durch das Plastik die 4 Metall Stäbchen sehen, das ist 100%zig ein Stromanschluss, stellt sich nur noch die Frage ob man ihn benutzen muss
Anand sagt dazu:Just like ATI's Radeon 9700 Pro, the GeForce FX will require a HDD/FDD power connector to operate. If you fail to connect a power cable the card will still work, just at a lower speed and it will display an error on your screen.
Unregistered
2002-11-18, 19:36:23
Originally posted by MeLLe
Richtig. Und die gab es schon auf der Gf4 in Massen... ;)
Yep, dort aber auch Spannungswandler. Und damit sollte klar sein das der NV30 seinen Strom nur ausm Externen Stecker bezieht. Ist IMO auch die bessere Lösung als erstmal alles mühselig ausm AGP zusammen zu transformieren. :)
christoph
2002-11-18, 19:41:25
...aber weil wir gerade beim Thema "colour compression" sind...hat ATI nicht auch eine ähnliche Technologie oder irre ich mich da?
ja, kann r300 auch, siehe hier:
http://www.beyond3d.com/previews/nvidia/nv30gfx/index.php?p=5
If NVIDIA hasn't held anything back then the major advancements over GeForce4's memory architecture will come from the colour compression techniques, though this is an area which ATI also have implemented in R300, at least where FSAA is concerned. Also, it would appear that NV30 utilises a 128-bit wide memory bus in conjunction with higher speed DDR-II memory; however, a 128-bit bus at 1GHz achieves around 16GB per second transfer, which is only a little below Radeon 9700 PRO's bandwidth.
und mehr infos von b3d
http://www.beyond3d.com/forum/viewtopic.php?t=3196&postdays=0&postorder=asc&start=80
I've just got back from the launch - I've not had a look at all this thread but here are 4 things:
1.) Its a 128bit bus.
2.) Its 8x1, not 8x2.
3.) There are no GigaPixel deferred rendering / geometry caching elements. ZCULL can reject more pixels per clock than GF4.
4.) FSAA is similar to GF4 and there's no programmable grids etc.
I interviewed one of the tech guys and assuming my tape caught it all I'll have it up as soon as I can.
soso
Doomtrain
2002-11-18, 19:42:32
Ich weiß gar nicht was ihr habt?? Wenn ein neuer Grafikchip vorgestellt wird, halbiert einfach eure Erwartungen und ihr hab ein ungefähres Bild vom Produkt. Wurde mal wieder bestätigt *eg**eg*
Das wird aber auf jeden Fall mal wieder ein Kampf der Giganten. Yes, ich freue mich schon riesig auf das Duell!!!!!!
Unregistered
2002-11-18, 19:43:44
nette Kühlung :
http://www.hardocp.com/images/articles/1037482125yomDI2gHPV_5_9_l.jpg
Wie schnell wohl die R9700Pro mit so einer Monsterkühlung wäre? 400MHz??
( eignentlich hatte ich ja so eine Monsterkühlung bei der R300 erwartet. 107Mio T @ 325MHz @ 0,15µm; und jetzt hat der NV30 so was! )
nagus
2002-11-18, 19:50:51
Originally posted by BlackBirdSR
anand sagt die Nv30 ist bei Doom3 um einiges schneller als die Radeon9700 Pro (33 vs 45 oder so)
kein wunder! hat ja auch (wenns wirklich stimmt) 500/1000Mhz! und DOOM3 hat (zumindest die geleakte beta) noch keinen eigenen Rederpfad für die R300.
meine wichtigsten erkenntnisse bis jetzt :D
-Beim FSAA wirds spannend, ATIs rohe Speicherbandbreite vs. NVs "Compression Engine" wer wohl da am Ende wohl vorneliegt...
-Insgesamt der Radeon ähnlicher als man dachte (8 pipes x 1 TMU)
-Höherere Taktraten -> mehr Füllrate/Rohleistung
-Ansonsten die verbesserten Vertex & Pixelshader und die höhere Rendergenauigkeit ggü. der Radeon...
-Innovative Heatpipekühlung auf dem vormarsch? (Abits OTES läßt grüßen)
Quasar
2002-11-18, 19:52:04
Wer sagt denn was von OGMS? Bei Tom find ich nichts dazu und Anand lahmt gerade ziemlich....
Das ist doch nicht wirklich die Standardkühlung ???
(Ich meine das Bild oben.)
Richthofen
2002-11-18, 19:54:03
ich find zum AA auch nix grossartiges.
Ausser das es 6xS und 8x gibt.
Hauwech
2002-11-18, 19:54:41
hmmm ja da hat sich der liebe anand anscheinend fett verrechnet. wenn ich es richtig gelesen habe sagt nVidia ja auch *up to 4:1*. Da das ja aehnlich dem Matrox-Verfahren sein soll, werden halt 16GB 'nicht gerechnet' weil diese wohl die Kanten beinhaltet und se nehmen wahrscheinlich 48GB (3:1) als 'normal' an + halt andere Limitierungen die das eh auf diesen hochgerechneten Wert sagen wir mal 'begrenzen'. ( yup, ich weiss, klingt bescheuert aber ist wohl in etwa nVidia's Rechnung *shrug*).
Kann leider Anandtech nicht erreichen um noch mal looki-looki zu machen :/ hoffe ich habe das richtig geschrieben mit 'up to 4:1'
Unregistered
2002-11-18, 19:57:58
lol nvidia hat ne angepasste seite für die fx gemacht ;)
> also wenn man auf den banner klickt <
Diesen "Kühler" scheint nvidia wirklich ernst zu meinen. Da lassen die in 0,13µm produzieren und brauchen immer noch so ein Monster von Kühler.
Unregistered
2002-11-18, 20:00:15
Originally posted by Axel
Das ist doch nicht wirklich die Standardkühlung ???
(Ich meine das Bild oben.)
DOCH!
Siehe Tomshardware; Anandtech; Hardocp
@ Quasar;
die OGMS findest du auf Anandtech, Tomshardware, und auch bei c't. ( stimmt aber nur für OpenGL). Bei DX schafft die Karte auch noch 6XS (da stürzt dann aber die Framerate ab, da es sich ja um 50% Supersampling handelt).
nagus
2002-11-18, 20:01:01
mein fazit bis jetzt:
- karten-layout + schwachsinniger kühlvorrichtung (nur mit dem einen ziehl, die relativ magere leistung mit brachialer MHZ gewalt zu kaschieren) > auf 325/620MHz würde die NV30 vermutlich ziehmlich alt aussehen im vergleich zur 9700PRO
- FSAA und AF wird interessant im vergleich zur radeon 9700 (besoders der angebliche 8X modus )
- durch das aufwendige board-layout und die wahnwitzige kühlvorrichtung wird der spaß relativ teuer werden...
... ich hätte mir alles in allem mehr erwartet. die R300 launch war da wesentlich GEILER!
Unregistered
2002-11-18, 20:07:04
einfach mal hier www.nvidia.com vorbei schaun *g* hat sich einiges getan
seahawk
2002-11-18, 20:07:24
Bißchen voreingenommen oder ??? @ nagus
FormatC
2002-11-18, 20:07:36
Originally posted by nagus
mein fazit bis jetzt:
- karten-layout + schwachsinniger kühlvorrichtung (nur mit dem einen ziehl, die relativ magere leistung mit brachialer MHZ gewalt zu kaschieren) > auf 325/620MHz würde die NV30 vermutlich ziehmlich alt aussehen im vergleich zur 9700PRO
- FSAA und AF wird interessant im vergleich zur radeon 9700 (besoders der angebliche 8X modus )
- durch das aufwendige board-layout und die wahnwitzige kühlvorrichtung wird der spaß relativ teuer werden...
... ich hätte mir alles in allem mehr erwartet. die R300 launch war da wesentlich GEILER!
Ganz ruhig.. Niemand hat bisher "Scheiss auf Radeon!" geschrieen. ;)
Hat schon jemand das Kleingedruckte gelesen ?
Die benchmarks die Anand von nvidia veröffentlicht hat, wurden mit folgendem ermittelt:
3 GHz P4
512MB RAM
Windows XP
1280x1024 HQ
nvdemo3
Da glaube ich schon, daß der NV30 schneller ist ;)
Unregistered
2002-11-18, 20:11:56
http://www.nvidia.com/docs/IO/3648/SUPP/large03.jpg hmm sieht das geil aus die frabgebung kommt so geil ich denk das ist bestimmt 64bit farbtiefe
Quasar
2002-11-18, 20:17:53
Originally posted by Unregistered
@ Quasar;
die OGMS findest du auf Anandtech, Tomshardware, und auch bei c't. ( stimmt aber nur für OpenGL). Bei DX schafft die Karte auch noch 6XS (da stürzt dann aber die Framerate ab, da es sich ja um 50% Supersampling handelt).
Danke, aber weder Tom noch Anand (geht jetzt wieder) sagen etwas von OGMS. Und im PDF steht auch nur etwas von "doppelt sovielen Samples" sowie die Bezeichnungen der Modi (6xS und 8x), aber nichts von OG oder RG.
Ich erlaube mir, dass weiterhin als offen zu betrachten, ebenso, ob die "xS-Modi" nicht auch unter OpenGL realisiert werden.
Unregistered
2002-11-18, 20:34:56
Ales Banane fanATIker 18.11.2002, 12:54 | Quelle: Investors Business Daily
NV30 heißt nVidia GeForceFX
Heute GeForceFX Vorstellung - Ab Februar laut nVidia für $360 erhältlich hmm wie kommts du von 360$ auf über 600€ über 600DM(gibs nich mehr) vieleicht
zeckensack
2002-11-18, 20:35:07
Originally posted by BlackBirdSR
anand sagt die Nv30 ist bei Doom3 um einiges schneller als die Radeon9700 Pro (33 vs 45 oder so) Augen auf!
In bewußtem Diagramm steht nichts über die Herkunft des roten Balkens. :|
Könnte genausogut eine Radeon 7500 sein ?-)
(nee, war'n Scherz, ihr wißt schon worauf ich mit dieser drastischen Unterstellung hinauswill ...)
Anárion
2002-11-18, 20:35:54
Originally posted by nagus
mein fazit bis jetzt:
- karten-layout + schwachsinniger kühlvorrichtung (nur mit dem einen ziehl, die relativ magere leistung mit brachialer MHZ gewalt zu kaschieren) > auf 325/620MHz würde die NV30 vermutlich ziehmlich alt aussehen im vergleich zur 9700PRO
- FSAA und AF wird interessant im vergleich zur radeon 9700 (besoders der angebliche 8X modus )
- durch das aufwendige board-layout und die wahnwitzige kühlvorrichtung wird der spaß relativ teuer werden...
... ich hätte mir alles in allem mehr erwartet. die R300 launch war da wesentlich GEILER!
Nagus, geh doch mal ein Weilchen schlafen :zzz:
Siehst danach alles ein wenig lockerer. Es geht doch nur um Graka-Chips, um nichts anderes :eyes:
perforierer
2002-11-18, 20:36:46
GeforceFX (NV30) lässt 3dfx wieder auferstehen
Irgendwie erinnert mich nVidia zur Zeit wirklich immer mehr an 3dfx.
Die Karten werden immer größer, die Chips kommen immer später und irgendwie kommt der Hype mit der Realität nimmer ganz mit :)
Karümel
2002-11-18, 20:41:17
Ist das von "Bedeutung"?
http://www.chip.de/produkte_tests/produkte_tests_8919090.html
@Unreg & FormatC
Dieser Thread wurde von eurem Geflame befreit.
Wenn ihr spielen wollt, dann nutzt doch bitte das entsprechende Forum dafür.
Also bitte etwas Mässigung im Tonfall. Danke.
FormatC
2002-11-18, 20:45:13
Entschuldigung.
Originally posted by nagus
auf 325/620MHz würde die NV30 vermutlich ziehmlich alt aussehen im vergleich zur 9700PRO
P4 vs. AthlonXP?
Wen interessiert Takt für Takt wenn der höhere Takt Teil des Designs ist?
x-dragon
2002-11-18, 20:46:38
Originally posted by Unregistered
... Ab Februar laut nVidia für $360 erhältlich hmm wie kommts du von 360$ auf über 600€ über 600DM(gibs nich mehr) vieleicht Wahrscheinlich daher:
Nvidia macht zur Zeit noch keine Angaben zu verschiedenen Geschwindigkeits-Versionen oder kostenoptimierten Ablegern des GeForceFX, sondern arbeitet noch daran, die Chipausbeute zu erhöhen. In diesem Jahr werden allenfalls einzelne Exemplare in den Handel kommen. Mit breiter Verfügbarkeit ist dagegen erst Januar oder Februar 2003 zu rechnen. Der Preis der entsprechenden Grafikkarte wird voraussichtlich über 600 Euro liegen.
Quelle: http://www.heise.de/newsticker/data/anw-18.11.02-006/
Quasar
2002-11-18, 20:47:30
Originally posted by nagus
die NV30[..]mit brachialer MHZ gewalt[..]würde[..]im vergleich zur 9700PRO[..]vermutlich[..]wesentlich GEILER[..]werden!
So sehe ich das auch. :lol:
(Sorry, falls der Kontext da ein bißchen durcheinandergeraten sein sollte, aber ich konnte deinen komplexen und originellen Ausführung evtl. nicht durchgehend folgen...)
FormatC
2002-11-18, 20:47:40
OT: gelöscht.
Exxtreme
2002-11-18, 20:47:59
Originally posted by Karümel
Ist das von "Bedeutung"?
http://www.chip.de/produkte_tests/produkte_tests_8919090.html
Neeee. ;)
CHIP kann man normalerweise knicken.
was ich ja noch interessant finde das nvidia eine zweite aniso implementierung haben wird , welche wohl ähnlich der r300 funktioniert(performance methode?) aber zusätzlich die alte welche in den gf4 drin ist auch zurverfügung steht(qualitiy mehtode?).
leider ist die 6xs wieder nur in d3d , warum nur?
im grossen und ganzen muss man noch gewisse details abwarten um genaue aussagen zu machen (8xAA RG oder OG?).
Ich hab mal kurz den anand artikel durchgelesen und da scheinen ja ziemlich viele falschinformation zu den vertexshader/pixelshader kapazitäten der r300 zu bestehen.
..und sonst viel marketing viel wind um nichts , eher eine langweiliger launch. Man wird sehen ob ati eine schnellere r300 oder sogar r350 im frühjahr drauflegen kann.
x-dragon
2002-11-18, 20:57:01
Originally posted by tEd
...und sonst viel marketing viel wind um nichts , eher eine langweiliger launch. Meinst du sowas?
http://www.chip.de/artikelbilder/3256945_2c4eff1db9.jpg
Ja, wirklich sehr aufschlussreich ... :D
Exxtreme
2002-11-18, 20:58:29
Also wenn die Daten tatsächlich stimmen, bezweifle ich doch stark, daß das Teil an die Radeon9700Pro rankommt. 500 MHz für'n Speicher klingen erstmal nach viel aber mal sollte nicht vergessen, daß DDR2 deutlich höhere Latenzen hat. Ich bin auch von einer 8*2-Architektur ausgegangen. Das hätte in vielen Spiele Vorteile. Und sollte sich das mit'm FSEAA bewahrheiten, daß in den hohen Stufen nur OG möglich ist, dann wird diese GraKa die Qualität eines gammakorrekten 6x SMOOTHVISION2 (all caps!) mit höchster Wahrscheinlichkeit nicht erreichen.
Originally posted by X-Dragon
Meinst du sowas?
http://www.chip.de/artikelbilder/3256945_2c4eff1db9.jpg
Ja, wirklich sehr aufschlussreich ... :D
he das ist confidential ;D
Karümel
2002-11-18, 21:00:10
Originally posted by Exxtreme
Neeee. ;)
CHIP kann man normalerweise knicken.
*gg*
Deswegen ja auch die ""
x-dragon
2002-11-18, 21:04:13
Originally posted by tEd
he das ist confidential ;D Ups, und sowas gibts dann bei Chip? Seltsam seltsam ...
Was die Daten angeht, sind glaube ich wohl alle gespannt wie sich diese bei Spielen behaupten können. Ich glaube inzwischen auch eher, das die Grakikkarte mehr 3D-Entwickler ausgelegt/gedacht ist als für "normale" Spieler.
Unregistered
2002-11-18, 21:09:39
Originally posted by Unregistered
nette Kühlung :
http://www.hardocp.com/images/articles/1037482125yomDI2gHPV_5_9_l.jpg
Wie schnell wohl die R9700Pro mit so einer Monsterkühlung wäre? 400MHz??
( eignentlich hatte ich ja so eine Monsterkühlung bei der R300 erwartet. 107Mio T @ 325MHz @ 0,15µm; und jetzt hat der NV30 so was! )
Pussycat
2002-11-18, 21:09:41
Anandtech:
Remember that the 500MHz DDR2 memory on the GeForce FX provides 16GB/s of bandwidth on the 128-bit memory bus, but multiply that by 4 and you'll get the 48GB/s of memory bandwidth NVIDIA is claiming.
Irgendwie kann ich nicht rechnen, oder es gibt nur 125M deutsch/Französische.
Hoffentlich war's diesmal wenigstens Anand's Fehler und nicht nVidia's.
Unregistered
2002-11-18, 21:10:41
Originally posted by Unregistered
########################
********
########################
Aber sonst geht's noch?
Quasar
2002-11-18, 21:16:10
Originally posted by Exxtreme
Also wenn die Daten tatsächlich stimmen, bezweifle ich doch stark, daß das Teil an die Radeon9700Pro rankommt. 500 MHz für'n Speicher klingen erstmal nach viel aber mal sollte nicht vergessen, daß DDR2 deutlich höhere Latenzen hat. Ich bin auch von einer 8*2-Architektur ausgegangen. Das hätte in vielen Spiele Vorteile. Und sollte sich das mit'm FSEAA bewahrheiten, daß in den hohen Stufen nur OG möglich ist, dann wird diese GraKa die Qualität eines gammakorrekten 6x SMOOTHVISION2 (all caps!) mit höchster Wahrscheinlichkeit nicht erreichen.
Also, DDR-II (http://www.samsungelectronics.com/semiconductors/Graphics_Memory/GDDR-II_SDRAM/128M_bit/K4N26323AE/k4n26323ae.htm) hat eine Latenz von 5-7, und DDR-I hat eine von 4-6. Dazu gerechnet, dass Graphic-RAM nicht soo sehr Latenzabhängig ist, würde ich das mal nicht als entscheidend werten...
BTW, gammakorrektur gibt's jetzt bei nV auch ;)....
Unregistered
2002-11-18, 21:16:40
Originally posted by nagus
- karten-layout + schwachsinniger kühlvorrichtung (nur mit dem einen ziehl, die relativ magere leistung mit brachialer MHZ gewalt zu kaschieren) > auf 325/620MHz würde die NV30 vermutlich ziehmlich alt aussehen im vergleich zur 9700PRODie Kühlvorrichtung ist tatsächlich schwachsinnig. Ausser AMD-User (Abführung der Wärme nach draussen) braucht son scheiss doch keiner. Bei gleicher Taktrate würd ich auf eine Überlegenheit des NV30 tippen, da diese ColerCompression einen vernünftigen Eindruck macht.
Originally posted by nagus
- FSAA und AF wird interessant im vergleich zur radeon 9700 (besoders der angebliche 8X modus )Sehe ich eher unspektakulär. Der Chip wird nicht schnell genug sein, um 8xAA ordentlich darzustellen. Ich denke, das praktikabele Maximum liegt bei 4xAA.
Originally posted by nagus
- durch das aufwendige board-layout und die wahnwitzige kühlvorrichtung wird der spaß relativ teuer werden...
Da glaub ich eher an das Gegenteil. Mit einer langsam laufenden Karte (400MHZ Chip / 400MHZ DDR2) dürfte man vergleichsweise günstige Karten bauen können. Die Kombination aus Kupfer & 0,13er Technik, verhilft dem Chip zu hohen Taktraten, die ColerCompressin dürfte auch auf billigen 128bit Ram-Systemen viel Leistung entfalten. Die Kosten des ATI 256bit-Ram Interfaces dürften recht hoch sein.
Originally posted by nagus
... ich hätte mir alles in allem mehr erwartet. die R300 launch war da wesentlich GEILER! Wenn der Chip wie angegeben etwa 40% scheller als die 9700PRO ist (Anandtech (http://www.anandtech.com/mb/showdoc.html?i=1749&p=7)), hat er meine Erwartungen sogar übertroffen. Der Launch ist aber tatsächlich ählich Scheisse (noch schlechter) wie der des 9700PRO (ebenfalls keine Benchmarks).
Unregistered
2002-11-18, 21:19:40
CT schrieb "Der Preis der entsprechenden Grafikkarte wird voraussichtlich über 600 Euro liegen."
Aber sonst gehts noch?
Hauwech
2002-11-18, 21:20:45
Originally posted by nagus
mein fazit bis jetzt:
- karten-layout + schwachsinniger kühlvorrichtung (nur mit dem einen ziehl, die relativ magere leistung mit brachialer MHZ gewalt zu kaschieren) > auf 325/620MHz würde die NV30 vermutlich ziehmlich alt aussehen im vergleich zur 9700PRO
- FSAA und AF wird interessant im vergleich zur radeon 9700 (besoders der angebliche 8X modus )
- durch das aufwendige board-layout und die wahnwitzige kühlvorrichtung wird der spaß relativ teuer werden...
... ich hätte mir alles in allem mehr erwartet. die R300 launch war da wesentlich GEILER!
1) Sie werden sich beim Layout, auch wenn es sehr nach 4600er aussieht, schon was gedacht haben. Warum schwachsinning? Haben halt ne Idee aufgegriffen. Oder ist es toll ne Menge Schlaeuche im PC zu haben so wie du zB? Die meissten haben den PCI-Slot direkt neben dem AGP wahrscheinlich eh frei mit halbwegs modernen Boards wo man mehr oder weniger sowieso kaum noch Zusatzkarten braucht. Nicht alle FX-Karten werden den Monsterkuehler draufhaben.
Und wie Xmas es so schoen gesagt hat: Wen interessiert Takt fuer Takt wenn der hoehere Takt Teil des Designs ist?
Kerl, nur weil deine 9700 in diesem Fall 'schlecht aussieht' im Anandartikel muss man also was finden was man persoenlich scheisse findet? (Gabs bei der 9700 auch mitm extra Stromstecker, also mehr oder weniger furzegal, ist ne gute Sache btw)
2) Yup wird interssant
3) So wird auch nur das Topmodell aussehen und wer das Geld dafuer hat, den interessiert es eh nicht(ok, das durchsichtige Plastikgehaeuse IST haesslich). Was hasst du denn fuer deine Wakue ausgegeben? Ja, beinhaltet auch Prozzikuehlung aber nicht jeder kann/will/moechte ne Wakue haben. "Wenn" die Karte sehr leise sein sollte ist das Ziel fuer den 'Enthusiast' der NICHT OCer ist, schon erreicht.
Mal erste 'richtige' Tests abwarten, wenn se besser wird, legt ATI ne Schueppe drauf; wenn nicht, dann wird nVidia nachlegen usw usw usw
Also.... easy nagus :)
edit: die bei Anandtech angegebenen 30-50% Mehrleistung kann man wahrscheinlich als von 'Speicherbandbreite-limitiert bis Normal-Zustand durch ca 53% hoeheren Takt' (bei echten 500/1000 MHZ) einstufen. Frage mich nur wie das bei 256bittigem Speicherinterface ausgesehen haette.. kann mal einer schaetzen?
StefanV
2002-11-18, 21:21:44
Interessant, der Kühler...
btw: ist euch schon der Luftkanal aufgefallen??
An der einen Seite kommt die Kalte luft rein, an der anderen Seite wird die erwärmte Luft rausgeblasen.
Dazu scheint dieses Design 'dicht' zu sein, also nix mit der Belüftung des PC Innenraums zu tun zu haben...
Interessant...
BTW:
Warum der ganze Aufwand eigentlich??
Die einzige Erklärung wäre ein Chip, der ~60W verbrät...
zeckensack
2002-11-18, 21:22:02
Originally posted by Unregistered
Wenn der Chip wie angegeben etwa 40% scheller als die 9700PRO ist (Anandtech (http://www.anandtech.com/mb/showdoc.html?i=1749&p=7)), hat er meine Erwartungen sogar übertroffen. Der Launch ist aber tatsächlich ählich Scheisse (noch schlechter) wie der des 9700PRO (ebenfalls keine Benchmarks).
Originally posted by zeckensack
Augen auf!
In bewußtem Diagramm steht nichts über die Herkunft des roten Balkens. :|
Noch dazu ist's ein handgebautes Spezial-Demo ("NVDEMO3"), da wäre ich sehr skeptisch. Wo sind die 3DMarks etc?
Exxtreme
2002-11-18, 21:22:06
Err, diese 40% mehr würde ich mit höchster Vorsicht geniessen! Schau mal am Diagram auf das Kleingedruckte. Dort steht "nvdemo3" oder so.
Originally posted by Unregistered
Wenn der Chip wie angegeben etwa 40% scheller als die 9700PRO ist (Anandtech (http://www.anandtech.com/mb/showdoc.html?i=1749&p=7)), hat er meine Erwartungen sogar übertroffen. Der Launch ist aber tatsächlich ählich Scheisse (noch schlechter) wie der des 9700PRO (ebenfalls keine Benchmarks).
Liquaron
2002-11-18, 21:22:54
wenn der Preis wirklich bei 600 Euro liegt lach ich die aber aus.
Dann steht für mich aber 100%ig fest das ich mir dann nach weihnachten lieber eine Radeon 9700 pro für 350 Euro hole als fast eine doppelt so teure Karte die mir in dem moment auch net viel mehr bringt. Also tut mir leid da kann die GeforceFX noch so tolle features haben aber dieser Preis wäre mir für eine Graka einfach zu hoch.
Pussycat
2002-11-18, 21:24:14
Originally posted by Unregistered
einfach mal hier www.nvidia.com vorbei schaun *g* hat sich einiges getan
Add-in Card Manufacturers
ASUS Computer International
BFG Technologies, Inc.
eVGA.com Corporation
Gainward Co. Ltd.
Leadtek Research Inc.
MSI Computer Corporation
PNY Technologies, Inc.
Visiontek fehlt.
Skinner
2002-11-18, 21:26:16
geil, lauter spekulatius hier ;D
da halte ich mich zurück uns lese/lache lieber =)
frag_evil
2002-11-18, 21:28:47
Wozu braucht der NV30 dann einen power connector?
StefanV
2002-11-18, 21:30:26
Originally posted by frag_evil
Wozu braucht der NV30 dann einen power connector?
Vielleicht weil sich NV mit der Verlustleistung verkalkuliert hat??
Originally posted by Stefan Payne
Interessant, der Kühler...
btw: ist euch schon der Luftkanal aufgefallen??
An der einen Seite kommt die Kalte luft rein, an der anderen Seite wird die erwärmte Luft rausgeblasen.
Dazu scheint dieses Design 'dicht' zu sein, also nix mit der Belüftung des PC Innenraums zu tun zu haben...
Interessant...
BTW:
Warum der ganze Aufwand eigentlich??
Die einzige Erklärung wäre ein Chip, der ~60W verbrät...
Ein gutes Netzteil ist eben für eine High-End-Karte Pflicht. Ansonsten stört es ja nicht, wenn das Design "dicht" ist und nicht den Innenraum extrem aufheizt. Und die "Silent Running" Technik ist schon etwas, was ich mir seit langem wünsche (nicht nur für Grafikkarten!)
zeckensack
2002-11-18, 21:32:24
Originally posted by Hauwech
1) Sie werden sich beim Layout, auch wenn es sehr nach 4600er aussieht, schon was gedacht haben. Warum schwachsinning? Haben halt ne Idee aufgegriffen. Oder ist es toll ne Menge Schlaeuche im PC zu haben so wie du zB? Die meissten haben den PCI-Slot direkt neben dem AGP wahrscheinlich eh frei mit halbwegs modernen Boards wo man mehr oder weniger sowieso kaum noch Zusatzkarten braucht. Nicht alle FX-Karten werden den Monsterkuehler draufhaben.
Und wie Xmas es so schoen gesagt hat: Wen interessiert Takt fuer Takt wenn der hoehere Takt Teil des Designs ist?Zwei Slots statt einem ist einfach nicht akzeptabel. Dann sollen die Jungs halt 'ne AGP Pro 110-Karte bauen. Es ist mir auch völlig wurscht, wieviele Leute den ersten PCI frei haben, Tatsache ist nunmal daß das Teil offensichtlich als normale AGP-Karte nicht lauffähig ist.
Ich will auch garnicht wissen wie weit 'ne R9700 gehen würde mit einem solchen Aufbau ... in den Rechner käme mir sowas nie :bäh:
Kerl, nur weil deine 9700 in diesem Fall 'schlecht aussieht' im Anandartikel muss man also was finden was man persoenlich scheisse findet? (Gabs bei der 9700 auch mitm extra Stromstecker, also mehr oder weniger furzegal, ist ne gute Sache btw)
Nochmal, diesmal etwas größer:
Originally posted by zeckensack
Augen auf!
In bewußtem Diagramm steht nichts über die Herkunft des roten Balkens. :|
Exxtreme
2002-11-18, 21:33:39
Originally posted by Stefan Payne
Vielleicht weil sich NV mit der Verlustleistung verkalkuliert hat??
Also laut Anand soll das Teil auch ohne Stromstecker laufen, allerdings mit reduzierter Taktfrequenz und Grafikfehlern.
Apropos Anand. Der Junge ist mal wieder biased ohne Ende... :bonk:
Hauwech
2002-11-18, 21:34:23
Originally posted by frag_evil
Wozu braucht der NV30 dann einen power connector?
Hat doch schon mal jemand gepostet, damit sie stabil bei hohem Takt laeuft. Das gleiche wie bei der 9700. Nix besonderes also.
Pussycat
2002-11-18, 21:35:14
Ich finde Anand auch ein bissln zu positiv, da die bisherigen Werte nur enttäuschen (ausser die 500 MHz, wenn sie stimmen sollten).
Aber ich denke dass er gerade darum immer so schnell seine infos kriegt.
Richthofen
2002-11-18, 21:35:49
"
Visiontek fehlt.
"
die haben ja auch Insolvenz angemeldet.
Würdest du etwas an jemanden verkaufen der kein Geld zum bezahlen hat?
Dann wärst du aber ein schlechter Geschäftsmann.
BFG hat Geld und die Verträge. Deswegen stehen die halt jetzt auf der Liste.
Mal was zum Layout:
Also im Gegensatz zu Nagus glaube ich ist das Layout eher billiger als das der R300.
Es ist doch viel einfacher ein grosses globiges Layout zu machen alls sich was kleines einfallen zu lassen. Man hat mehr Spielraum und kann billigere Komponenten einbauen.
Notebooks, Handys, PDAs etc.. sind deshalb teuer, weil sie klein und kompakt sind.
Ein Desktop ist billiger als ein Notebook.
Ich denke die haben da einfach gespaart. Die investieren da nicht viel Geld in kompaktes Layout etc...
Warum auch?
Sind wir mal ehrlich. Schaut euch dochmal die Freaks auf den LANs mit solchen Karten an.
Je globiger und prolliger so ein Teil ist desto besser. Die fahren da alle voll drauf ab. Warum soll man sich also nen Kopp um kompaktes Layout machen, wenn die meissten auf den Prollfaktor stehen?
Nvidia spaart Geld und gekauft wirds auch.
Das selbe mit dem Kühler. Schaut euch dochmal die GeForce4 Teile teilweise an. Es gibt halt immer mal so Phasen und momentan überwiegt eindeutig die Prollphase.
Die meissten Kunden haben für schlichtes und langweiliges Design einfach nix übrig in diesem Marktsegment. Schaut euch doch einfach mal auf LANs teilweise diese kranken Typen mit ihren Gehäusen an.
Nvidia hat in meinen Augen in dem Punkt einfach nach dem Minimalprinzip gehandelt.
Ansonsten ist der Kühler zwar gross aber bei den meissten ist der PCI 1 eh frei wegen Shared IRQ zum AGP und angeblich soll es ja eine dynamische Kontrolle irgendwie geben, das die Karte und der Rest sich der Belastung anpassen. So hab ich das zumindest rausgelesen. Korrigiert mich wenn ich mich irre.
In meinen Augen haben die das Layout ganz bewusst so gemacht. Ist billig und sieht prollig aus. Schaut doch einfach auf den Kühler das sagt doch alles.
frag_evil
2002-11-18, 21:37:16
Was ich sagen will, ist das sie in der öffentlichen Präsentation schreiben "within AGP power budget", auf der Karte aber deutlich ein Power connector zu sehen.
Präsentation <=> Realität
jetzt verstanden?
StefanV
2002-11-18, 21:37:33
Originally posted by Xmas
Ein gutes Netzteil ist eben für eine High-End-Karte Pflicht. Ansonsten stört es ja nicht, wenn das Design "dicht" ist und nicht den Innenraum extrem aufheizt. Und die "Silent Running" Technik ist schon etwas, was ich mir seit langem wünsche (nicht nur für Grafikkarten!)
1. ja, schon, nur wo führt das hin??
ALlein für GraKa und CPU ist schon meist recht viel von der Ausgangsleistung, die die meisten Netzteile schaffen, schon verbraucht.
Was für Netzteile sollen wir in 2 Jahren nutzen??
750W Netzteile als EInstiegsmodell??
Ich fürchte, daß sich die Rechner dahin zurückentwickeln, wo sie mit den Röhrenrechnern einst waren, zu Heizkraftwerken, die unmengen an Energie verpulvern...
Naja, aber das war genug OT ;)
Zurück zum Thema:
Wenn der Lüfter so riesig ist, dann bedeutet das für mich, daß die Verlustleistung eben so groß ist oder aber der Chip kann keine 'höheren' Temperaturen ab (75-90°C)...
2. stören tus mich eigentlich nicht, wundern dafür umsomehr...
Warum sollte man so ein System auf einer Grafikkarte bauen??
Erklärung siehe 3 Sätze weiter oben ;)
StefanV
2002-11-18, 21:40:24
Originally posted by frag_evil
Was ich sagen will, ist das sie in der öffentlichen Präsentation schreiben "within AGP power budget", auf der Karte aber deutlich ein Power connector zu sehen.
Präsentation <=> Realität
jetzt verstanden?
Ahso, klar, jetzt verstehe ich.
So kann mans natürlich auch sehen...
Lightning
2002-11-18, 21:40:43
Originally posted by Richthofen
"
Visiontek fehlt.
"
die haben ja auch Insolvenz angemeldet.
Würdest du etwas an jemanden verkaufen der kein Geld zum bezahlen hat?
Dann wärst du aber ein schlechter Geschäftsmann.
BFG hat Geld und die Verträge. Deswegen stehen die halt jetzt auf der Liste.
Mal was zum Layout:
Also im Gegensatz zu Nagus glaube ich ist das Layout eher billiger als das der R300.
Es ist doch viel einfacher ein grosses globiges Layout zu machen alls sich was kleines einfallen zu lassen. Man hat mehr Spielraum und kann billigere Komponenten einbauen.
Notebooks, Handys, PDAs etc.. sind deshalb teuer, weil sie klein und kompakt sind.
Ein Desktop ist billiger als ein Notebook.
Ich denke die haben da einfach gespaart. Die investieren da nicht viel Geld in kompaktes Layout etc...
Warum auch?
Sind wir mal ehrlich. Schaut euch dochmal die Freaks auf den LANs mit solchen Karten an.
Je globiger und prolliger so ein Teil ist desto besser. Die fahren da alle voll drauf ab. Warum soll man sich also nen Kopp um kompaktes Layout machen, wenn die meissten auf den Prollfaktor stehen?
Nvidia spaart Geld und gekauft wirds auch.
Das selbe mit dem Kühler. Schaut euch dochmal die GeForce4 Teile teilweise an. Es gibt halt immer mal so Phasen und momentan überwiegt eindeutig die Prollphase.
Die meissten Kunden haben für schlichtes und langweiliges Design einfach nix übrig in diesem Marktsegment. Schaut euch doch einfach mal auf LANs teilweise diese kranken Typen mit ihren Gehäusen an.
Nvidia hat in meinen Augen in dem Punkt einfach nach dem Minimalprinzip gehandelt.
Ansonsten ist der Kühler zwar gross aber bei den meissten ist der PCI 1 eh frei wegen Shared IRQ zum AGP und angeblich soll es ja eine dynamische Kontrolle irgendwie geben, das die Karte und der Rest sich der Belastung anpassen. So hab ich das zumindest rausgelesen. Korrigiert mich wenn ich mich irre.
In meinen Augen haben die das Layout ganz bewusst so gemacht. Ist billig und sieht prollig aus. Schaut doch einfach auf den Kühler das sagt doch alles.
Nene, ist schon klar. Hauptsache nVidia hat mal wieder alles richtig gemacht, gelle? ;D
P.S. Sollte jetzt kein Flame oder Spamm sein, ich finde es nur lustig wie Richthofen alles immer für seine "Lieblingsfirma" auslegt.
nagus
2002-11-18, 21:43:03
Originally posted by Anárion
Nagus, geh doch mal ein Weilchen schlafen :zzz:
Siehst danach alles ein wenig lockerer. Es geht doch nur um Graka-Chips, um nichts anderes :eyes:
danke für den tip. das werd ich dann machen....
das ganze NV30 blah, blah und hin und her geht mir auf den sender
nvidia hat es nicht geschafft videos von den ach so tollen demos zu veröffentlichen.... ziehmlich armselig
Hauwech
2002-11-18, 21:45:23
Sorry Z-Bag, aber ich sehe das nicht als schlimm an aus dem von mir genannten Grund. Ich denke nVidia wird da schon nachgeforscht haben obs eher angenommen wird oder nicht.
Gabs denn bei der Vorstellung des R300 sofort Tests bzw Folien mit Benchmarks etc? Wenn ich mich nicht irre hat ATI das gleiche gemacht. *shrug* Wenn ich mich irre sorry.
Glaube nicht das nVidia da mit den bei Anand genannten Zahlen zu weit von der Wahrheit entfernt liegt, ansonsten duerften die sich selbst nen Strick mit solchen Sachen drehen. (siehe Klage gegen Intel wegen falscher Versprechungen beim P4 als Beispiel...) Tut mir leid das zu sagen aber die Amis sind recht schnell mit Klagen, kein Hersteller kann sich da zu weit aus dem Fenster lehnen und alles behaupten was er lustig ist also werden die Aussagen im Artikel schon einigermassen richtig sein.
Ficus
2002-11-18, 21:47:50
Originally posted by Lightning P.S. Sollte jetzt kein Flame oder Spamm sein, ich finde es nur lustig wie Richthofen alles immer für seine "Lieblingsfirma" auslegt. Nagus steht Richthofen aber in nix nach :D
sorry OT :(
Pussycat
2002-11-18, 21:48:00
Originally posted by Richthofen
Nvidia hat in meinen Augen in dem Punkt einfach nach dem Minimalprinzip gehandelt.
Ansonsten ist der Kühler zwar gross aber bei den meissten ist der PCI 1 eh frei wegen Shared IRQ zum AGP und angeblich soll es ja eine dynamische Kontrolle irgendwie geben, das die Karte und der Rest sich der Belastung anpassen. So hab ich das zumindest rausgelesen. Korrigiert mich wenn ich mich irre.
In meinen Augen haben die das Layout ganz bewusst so gemacht. Ist billig und sieht prollig aus. Schaut doch einfach auf den Kühler das sagt doch alles.
Aber es könnte nicht so sein, dass NV um jeden Preis an der Taktschraube drehen musste? Und die grosse Platine ist genauso billig wei ein Heatpipe?
Und dass der 1. PCI standartmaßig blockiert wird ist auch nicht schlimm? AUCH NICHT MIT MINI-BAREBONES AUF LANPARTYS (protzen) DIE NUR 3 PCISLOTS HABEN?
nggalai
2002-11-18, 21:48:20
Uiii, ihr wart ja fleissig. ;D
OK, das beste Preview gibt's IMO--wie schon so oft--auf www.beyond3d.com . Wavey hat übrigens nochn Interview vom European Launch Event mitgebracht, muss es aber noch abtippen. In England haben's zwar Demos und Benchmarks laufen lassen, aber keine Zahlen rausgerückt. In Las Vegas jedoch schon, und DemoCoder hat schön aufgeschrieben:
Quake3 @ 2048x1536 max quality @ 173fps
Doom3 @ 1280x1024 @ 49.8fps (vs 20.9 for 4600)
UT2k3 4XFSAA 8xANISO @ 108fps vs 37.3 for 4600.
Triple performance in nature benchmark in 3dmark2001 with NV30 vs 4600
Runs Viewperf: 1830 on NV30GL vs 690 on Quadro900XL
Natürlich alles mit einer guten Dosis Salz zu konsumieren--Benchmarkzahlen bringen in der Form nur wenig, und werden sich bis zum Verkaufsstart wohl noch krass ändern.
ta,
-Sascha.rb
Thalion
2002-11-18, 21:49:57
Originally posted by nagus
mein fazit bis jetzt:
- karten-layout + schwachsinniger kühlvorrichtung (nur mit dem einen ziehl, die relativ magere leistung mit brachialer MHZ gewalt zu kaschieren) > auf 325/620MHz würde die NV30 vermutlich ziehmlich alt aussehen im vergleich zur 9700PRO
Wenn man schon unterschiedliche Designs unbedingt so vergleichen möchte, dann wennigstens bei gleichem Chiptakt und gleicher Speicherbandbreite (Speicher der R300-Graka so
untertakten, daß er bei 16GB Bandbreite liegt, u. NV30 auf 325Mhz takten).
Vorrausgesetzt man würde unter solchen Bedingungen gegeneinander "Benchen", wo liegt den deiner Meinung nach, der scheinbar für dich so offensichtliche Nachteil im Design des NV30, der ihn gegenüber dem R300 "alt" aus sehen läßt?
nagus
2002-11-18, 21:51:29
Originally posted by Quasar
So sehe ich das auch. :lol:
(Sorry, falls der Kontext da ein bißchen durcheinandergeraten sein sollte, aber ich konnte deinen komplexen und originellen Ausführung evtl. nicht durchgehend folgen...)
is eh super NV30 :flower:
zeckensack
2002-11-18, 21:53:49
Originally posted by Hauwech
Sorry Z-Bag, aber ich sehe das nicht als schlimm an aus dem von mir genannten Grund. Ich denke nVidia wird da schon nachgeforscht haben obs eher angenommen wird oder nicht.Vielleicht ist's auch einfach die Notwendigkeit des hohen Taktes, weil man sonst nicht gut genug aussähe ???
Immerhin möglich :eyes:
Gabs denn bei der Vorstellung des R300 sofort Tests bzw Folien mit Benchmarks etc? Wenn ich mich nicht irre hat ATI das gleiche gemacht. *shrug* Wenn ich mich irre sorry.Nein, es gab nicht sofort ausführliche Tests. Die ersten Benchmarks waren allerdings umfassender und standen auch in Relation zu eindeutig identifizierten Karten der Konkurrenz. Durchgeführt wurden sie von Anand, Onkel Tom und Kyle von [H]ardOCP, die durften jeweils zwei Stunden unter Aufsicht ausgewählte Benchmarks fahren. Wie gesagt, das waren die ersten Benchmarks, immerhin 3DMurx, Q3, RTCW, Aquanox und andere, mit/ohne AA/AF. Recht informativ im Vergleich zu dieser Aktion.
Glaube nicht das nVidia da mit den bei Anand genannten Zahlen zu weit von der Wahrheit entfernt liegt, ansonsten duerften die sich selbst nen Strick mit solchen Sachen drehen. (siehe Klage gegen Intel wegen falscher Versprechungen beim P4 als Beispiel...) Tut mir leid das zu sagen aber die Amis sind recht schnell mit Klagen, kein Hersteller kann sich da zu weit aus dem Fenster lehnen und alles behaupten was er lustig ist also werden die Aussagen im Artikel schon einigermassen richtig sein. Genau das meine ich. Verklagen kann man da nichts, weil keine Settings angegeben sind und die Vergleichskarte nicht benannt wird. Da steht ja nicht mal 'fps' an den Balken, dieses Diagramm hat juristisch betrachtet Null Substanz.
nagus
2002-11-18, 21:54:14
Originally posted by X-Dragon
Meinst du sowas?
http://www.chip.de/artikelbilder/3256945_2c4eff1db9.jpg
Ja, wirklich sehr aufschlussreich ... :D
:lol::lol::lol:
alex_x
2002-11-18, 21:57:38
hi
das sind doch mal wieder rosige aussichten für uns grafikkartenfans!
endlich hat nvidia mit ihren super chip gecontert.so wie es aussieht muss ati sich warm anziehen und sich schleunigst etwas einfallen lassen!ich bin auf die ersten tests gespannt!
gruß:Alex
nagus
2002-11-18, 22:01:49
Originally posted by Richthofen
"
Visiontek fehlt.
"
die haben ja auch Insolvenz angemeldet.
Würdest du etwas an jemanden verkaufen der kein Geld zum bezahlen hat?
Dann wärst du aber ein schlechter Geschäftsmann.
BFG hat Geld und die Verträge. Deswegen stehen die halt jetzt auf der Liste.
Mal was zum Layout:
Also im Gegensatz zu Nagus glaube ich ist das Layout eher billiger als das der R300.
Es ist doch viel einfacher ein grosses globiges Layout zu machen alls sich was kleines einfallen zu lassen. Man hat mehr Spielraum und kann billigere Komponenten einbauen.
Notebooks, Handys, PDAs etc.. sind deshalb teuer, weil sie klein und kompakt sind.
Ein Desktop ist billiger als ein Notebook.
Ich denke die haben da einfach gespaart. Die investieren da nicht viel Geld in kompaktes Layout etc...
Warum auch?
Sind wir mal ehrlich. Schaut euch dochmal die Freaks auf den LANs mit solchen Karten an.
Je globiger und prolliger so ein Teil ist desto besser. Die fahren da alle voll drauf ab. Warum soll man sich also nen Kopp um kompaktes Layout machen, wenn die meissten auf den Prollfaktor stehen?
Nvidia spaart Geld und gekauft wirds auch.
Das selbe mit dem Kühler. Schaut euch dochmal die GeForce4 Teile teilweise an. Es gibt halt immer mal so Phasen und momentan überwiegt eindeutig die Prollphase.
Die meissten Kunden haben für schlichtes und langweiliges Design einfach nix übrig in diesem Marktsegment. Schaut euch doch einfach mal auf LANs teilweise diese kranken Typen mit ihren Gehäusen an.
Nvidia hat in meinen Augen in dem Punkt einfach nach dem Minimalprinzip gehandelt.
Ansonsten ist der Kühler zwar gross aber bei den meissten ist der PCI 1 eh frei wegen Shared IRQ zum AGP und angeblich soll es ja eine dynamische Kontrolle irgendwie geben, das die Karte und der Rest sich der Belastung anpassen. So hab ich das zumindest rausgelesen. Korrigiert mich wenn ich mich irre.
In meinen Augen haben die das Layout ganz bewusst so gemacht. Ist billig und sieht prollig aus. Schaut doch einfach auf den Kühler das sagt doch alles.
"etwas groß" ist schon "etwas" untertrieben das teil braucht nicht EINEN PCI Slot sonder 2!!!!! >> schauts euch mal die bilder auf hard-ocp genauer an. eine PCI karte in den 2. slot zu schieben geht sich sicher nicht mehr aus.
Doomtrain
2002-11-18, 22:03:32
Nagus, hör endlich auf zu flamen!!!!! Ist ja ekelhaft zu lesen was du dauernd von dir gibst.
Der GeForceFX wird min. genauso gut oder schneller sein, sieh es ein!!! Aber nein, ATI ist nun Gott. Ich platz gleich!
:tgv:
nagus
2002-11-18, 22:03:58
Originally posted by alex_x
hi
das sind doch mal wieder rosige aussichten für uns grafikkartenfans!
endlich hat nvidia mit ihren super chip gecontert.so wie es aussieht muss ati sich warm anziehen und sich schleunigst etwas einfallen lassen!ich bin auf die ersten tests gespannt!
gruß:Alex
ati "muss" sich nicht viel einfallen lassen. eine 0,13 R300 + DDR2 reicht IMHO schon völlig ...
aber warten wir mal vernünftige tests ab.
nagus
2002-11-18, 22:04:56
Originally posted by Doomtrain
Nagus, hör endlich auf zu flamen!!!!! Ist ja ekelhaft zu lesen was du dauernd von dir gibst.
Der GeForceFX wird min. genauso gut oder schneller sein, sieh es ein!!! Aber nein, ATI ist nun Gott. Ich platz gleich!
:tgv:
du kannst mich mal. ich werde doch wohl noch meine eigene meinung sagen dürfen! verdammt!
Doomtrain
2002-11-18, 22:05:26
Und wenn er 3 PCI Plätze brauchen würde, du mußt das Teil ja nicht kaufen.....
Kindchen, es ist doch nur eine Graka und keine Weltrevolution!!
Doomtrain
2002-11-18, 22:06:29
Originally posted by nagus
du kannst mich mal. ich werde doch wohl noch meine eigene meinung sagen dürfen! verdammt!
Aha, das sieht man mal wieder deine Einstellung... Das gibt Ärger!
Was du machst ist bewußtes provozieren und nicht deine Meinung vertreten!
ernesto.che
2002-11-18, 22:08:03
Originally posted by Doomtrain
Kindchen, es ist doch nur eine Graka und keine Weltrevolution!!
David Kirk wollte uns ja aber gerade das klar machen:D
Exxtreme
2002-11-18, 22:08:16
Err, du weisst schon, daß eine GraKa, die 2 Slots belegt, nicht AGP-konform ist, oder?
Originally posted by Doomtrain
Und wenn er 3 PCI Plätze brauchen würde, du mußt das Teil ja nicht kaufen.....
Liquaron
2002-11-18, 22:10:06
@ Nagus
Es ist ja schön und gut das du deine Radeon 9700 pro immer wieder für heilig erklärst aber bitte spiel dich hier nicht so auf . Warten wir einfach ab wie die GeforceFX im Vergleich zu der Radeon 9700 pro abschneidet. Es geht hier doch nicht um Krieg und Frieden also mal ganz ruhig.
ernesto.che
2002-11-18, 22:10:39
Originally posted by Exxtreme
Err, du weisst schon, daß eine GraKa, die 2 Slots belegt, nicht AGP-konform ist, oder?
Das stimmt zwar, es rennen hier aber genügend AMD User rum, deren Kühler nicht den AMD Vorgaben entspricht.
Doomtrain
2002-11-18, 22:10:52
Exxtrem, du siehst doch auch was Nagus macht, oder? Flamen pur!!
Was macht es denn wenn die Karte nicht AGP konforn ist? Nix. Hast du so viele Karten in deinem PC?
Unregistered
2002-11-18, 22:11:27
Naund der R300 übersteigt die zulässige höst spannung der AGP slots
ist also auch nicht AGP konform also who cares egal musst die karte ja nicht kaufen
Unregistered
2002-11-18, 22:12:47
Grafikchip-Preview: GeForce FX von Nvidia
GeForce FX: Nvidias 125-Millionen-Transistor-Chip
Von Daniel Bader und Daniel Wolff
Nvidia hat auf der Comdex in Las Vegas erste Details zum GeForce4-Nachfolger "GeForce FX" vorgestellt. "FX" steht dabei als Kurzform für das englische Wort "effects". Gemeint sind vor allem visuelle 3D-Effekte in Kino-Qualität.
GeForce FX - DirectX-9-Chip mit viel Speed
Kinobilder - High-Precision-Color und Intellisample
Referenzboard - GeForceFX mit DDR-II-Speicher
Überblick - Spezifikationen und mögliche Preise
Fazit: GeForce FX - Gut, aber fast schon zu spät!
Nvidia hat heute auf der Computer-Messe Comdex in Las Vegas die Katze aus dem Sack gelassen: Nicht GeForce5, sondern GeForce FX wird das zukünftige 3D-Flaggschiff von Nvidia heißen. Stolze 125 Millionen Transistoren hält der auf DirectX-9 getrimmte 3D-Chip auf seinem Die (engl. für Chip-Fläche). Das sind summa summarum 20 Millionen mehr elektronische Schalter, als ATI mit seinem Grafikcontroller, dem Radeon 9700 Pro, momentan bietet.
CHIP präsentiert Ihnen im folgenden alle Fakten des neuen Pixelbeschleuniger, plus einem ersten Referenz-Board. Alles natürlich heiß und direkt aus Las Vegas serviert.
-------------------------------------------------------------------
GeForce FX - DirectX-9-Chip mit viel Speed
Der GeForce-FX-Chip ist DirectX-9-kompatibel, AGP-8x-fähig und wird im 0,13-Mikrometer-Prozess hergestellt. Als erster 3D-Chip wird er zusammen mit DDR-II-Speicher von Samsung auf entsprechenden Grafikkarten eingesetzt werden.
GeForceFX: Der DirectX-9-Chip mit Codenamen NV30.
Die extakte Taktrate für den GeForce-FX-Chip bleibt bis jetzt im Dunkeln: In einem Interview mit CHIP gab Andrew Humber, European-PR-Manager von Nvidia, in diesem Zusammenhang zu erkennen, "dass die in 0,15 Mikron gefertigten Chips eine Maximal-Frequenz von etwa 400 Megahertz hätten." Er fügte weiter hinzu, "der GeForce-FX-Chip, (er wird in 0,13 Mikron gefertigt), ist in Taktbereichen von etwa 450 bis 500 MHz anzusiedeln." Zu einer genaueren Angabe wollte oder konnte sich Nvidia zum Zeitpunkt des Verfassen dieses Artikel nicht festlegen.
CineFX - Vertex und Pixel Shader in Version 2.0+
Im Mittelpunkt des GeForce FX stehen seine DirectX-9-Fähigkeiten und dessen CineFX-Shader. So bietet Nvidia seine Beschleunigungs-Einheiten für Geometrie-Berechnungen und Schattier-Effekten in Version 2.0+ an.
Vergleich: DirectX-8 vs. DirectX-9.
Mit dem Namens-Anhängsel "+" schraubt Nvidia die von Microsoft geforderten DirectX-9-Shader-Spezifikationen nochmals ein ganzes Stück höher. So beziffert Nvidia die maximal ausführbaren Instruktionen bei ihren Vertex Shadern auf 65.536, die temporären Register-Buffer, die Programmabläufe erheblich beschleunigen sollen, sind von 12 auf 16 vergrößert worden.
Noch aggressiver prescht Nvidia bei der Implementierung der Pixel Shader vor: Der amerikanische Chip-Spezialist sprcht von über 1.000 ausführbare Instruktionen und verfügbare Konstanten, die für jegliche Art von Schattierungs-Effekten benutzt werden können. Auch hier sind die Register-Speicherplätze von 12 (entsprechend DirectX 9) auf 32 aufgestockt worden.
Flow Control - von Schleifen und Sprüngen
Die DirectX-9-Spezifikation ermöglicht dem Shader Programmabläufe effizient abzuarbeiten. So sind im Programmcode erstmalig Wiederholschleifen und Sprünge erlaubt. Das schafft Übersichtlichkeit und kann den Code erheblich vereinfachen. Vor allem die Sprungmöglichkeit beschleunigt im Vergleich zu DirectX 8, das nur simple Befehlslisten zuließ, den Programmablauf. Ein Beispiel dazu: Ist ersichtlich, dass ab einem Zeitpunkt keine sichtbaren Pixel mehr berechnet werden müssen, kann das Shader-Programm gleich an sein Ende springen - das spart Zeit.
-------------------------------------------------------------------
Grafikchip-Preview: GeForce FX von Nvidia
Kinobilder - High-Precision-Color und Intellisample
Ein weiterer in der GeForce-FX-Engine implementierter Bestandteil der DirectX-9-API ist die Farbraumtiefe von 128 Bit im Floating-Point-Format. Der Standard wird auch in Kino-Produktionen (Beispiele sind Monster AG oder Shrek) eingesetzt.
Elder Scrolls III: Morrowind.
High Precision-Color im Floating Point Format ist fester Bestandteil der CineFX-Engine vom GeForce FX. Das bedeutet, dass sämtliche Vertex und Pixel Shader - sprich die CineFX-Engine - mit einer Farbgenauigkeit von 128 Bit arbeiten. Nvidia lässt dem Entwickler jedoch die Wahl sich auf eine 16-Bit oder 32-Bit-Farbgenauigkeit pro Farbkomponente festzulegen. Bei 16 Bit ergeben sich insgesamt 2^64 darstellbare Farben (jeweils 16 Bit für die R-, G-, B- und Alpha-Komponente), bei einem 128 Bit großen Farbraum verdoppelt sich die Farbgenauigkeit dementsprechend. Das obere Bild, aus dem Spiel Morrowind, veranschaulicht den "Echtheitsgrad" von reflekierendem Wasser.
Intellisample - Jetzt mit 8-fachem Anti-Aliasing
Nvidias GeForce-FX-GPU baut seine Kantenglättungs-Methoden für den Open-GL- und Direct-3D-Bereich weiter aus. Unter Direct-3D gibt's jetzt den 6XS-Modus, was dem 1,5-fachen des bekannten 4XS-Modus entspricht. Dabei ist die Kantenglättung ein Misch-Modus zwischen Multi-Sampling und Super-Sampling. Desweiteren hat Nvidia für beide APIs (Open GL und Direct 3D) ihr bekanntes Supersampling-Verfahren auf einen maximal 8-fachen Wert erhöht. Um die Effizienz weiter zu steigern, stellt der GeForce FX neben einem Z-Kompressionsverfahren (=Tiefeninformation) auch eine verlustfreie 4:1 Farb-Kompression für ihr Anti-Aliasing bereit.
--------------------------------------------------------------------
Grafikchip-Preview: GeForce FX von Nvidia
Referenzboard - GeForceFX mit DDR-II-Speicher
Ein erstes Referenzboard - bestückt mit dem GeForce-FX-Chip und DDR-II-Speicher von Samsung - wurde von Nvidia auf der Comdex in Las Vegas im laufenden Betrieb gezeigt.
Referenz-Board: Mit GeForce-FX und DDR-II-Speicher von Samsung.
Die AGP-8x-Grafikkarte benötigt - wie auch ATIs Radeon-9700- und 9500-Reihe - eine zusätzliche Strominfusion mittels externem Stecker. Der genaue Takt der GeForce-FX-GPU (Graphic Processing Unit) blieb zwar noch geheim, inoffiziell munkelte man jedoch, dass der in 0,13 Mikron gefertigte Chip mit etwa 500 Megahertz lief. Möglich wird ein derartig großer Takt-Sprung gegenüber dem GeForce4 Ti4600, indem der NV30 vollständig mit Kupfer statt Aluminium gefertigt wird. Die einzelnen Transistoren besitzen eine 25 Prozent schnellere Schaltzeit und sind in ihrer Stromaufnahme um 36 Prozent reduziert worden. All das dient der Erhöhung der Taktraten.
DDR-II-Speicher mit über 1 Gigahertz Taktfrequenz
Beim DDR-II-Speicher von Samsung machte bei der Präsentation eine effektive Taktrate von 1 Gigahertz (2 x 500 MHz) die Runde. Durch die dramatisch bessere Zykluszeit des DDR-Speichers der zweiten Generation sind sogar Taktraten von über 1 Gigahertz möglich. In diesem Zusammenhang sei erwähnt, dass die Speicherschnittstelle der GeForce-FX-GPU lediglich 128 Bit breit angelegt ist. Demzufolge ergibt sich ein theoretisches Bandbreiten-Limit von 15,6 Gigabyte pro Sekunde (128 Bit = 16 Byte * 1 Ghz dividiert durch 1.024³ Bytes).
Standard-Ausgänge auf der Stirnseite
Auf der Stirnseite der Grafikkarte zeigten sich mit einem VGA-, S-Video- und DVI-I-Ausgang die "üblichen Verdächtigen", um weitere Bildschirm-Geräte an der Grafikkarte andocken zu lassen.
---------------------------------------------------------------------
Im folgenden gibt Ihnen CHIP einen gesamten Überblick über die 2D- und 3D-Features des neuen Nvidia-Chips und nennt mögliche Preise für den deutschen Grafikkarten-Markt.
GeForce FX: Der neue High-End 3D-Chip.
Der Grafikchip:
Grafikchip: GeForce FX (Codename NV30)
Transistoranzahl: 125 Millionen
Gehäuse: Flip Chip BGA
Herstellungsprozess: Kupfer und 0,13 Mikrometer
Taktrate: 500 Megahertz
Schnittstelle: AGP-8x
Speicheranbindung: 128 Bit
Maximale Verarbeitungsgeschwindigkeit: 8 Pixel pro Taktzyklus, 16 Texturen pro Durchgang
Geometrie-Berechnung: Vertex Shader 2.0+
Schattier-Berechnungen: Pixel Shader 2.0+
Vorne und hinten: GeForce-FX-Chip im Flip-Chip-Design.
Die 3D-Features:
API: DirectX-9-kompatibel, Open GL 1.3
Light Speed Memory Architecture III: Für die Bandbreiten-Optimierung (vor allem Z-Koordinaten-Berechnung) zuständig.
Intellisample: maximal 8-faches Anti-Aliasing, dazu unter Direct-3D eine Mischform aus Multi- und Supersampling (6XS-Kantenglättung), 128 TAP Anisotropisches Filtering
High-Precision-Floating-Point-Color: 64 oder 128 Bit Farbgenauigkeit
Frame Buffer Post-Processing Effects: Automatische Gamma-Korrektur in Spielen und Anwendungen, um für das aktuelle Pixel den korrekten Helligkeitswert zu berechnen.
Weitere Besonderheiten: Vertex- und Geometrie Displacement Mapping, Shadow Buffer, Procedural Shading
Die 2D-Features:
Digital Vibrance Conrol: Für eine exakte Farbtrennung (R,G,B), Intensität und Schärfe, im Treiber integriert
RAMDACs: Zwei à 400 Megahertz
TwinView, Dual Ausgang für zwei unabhängige Bildschirme
MPEG2-Beschleunigung: Motion Compensation und IDCT (invers diskrete Cosinus Transformation)
Referenz-Design: GeForce FX onboard.
Preise für GeForce-FX-Karten:
Über den Endkunden-Preis herrscht noch Ungewissheit. Uns vorliegende Quellen sprechen von amerikanischen Straßenpreisen, die bei etwa 370 US-Dollar liegen. Für den europäischen Markt würde dies einem angepeilten Enkundenpreis von knapp über 400 Euro entsprechen. Damit wäre man zum jetzigen Zeitpunkt sogar etwas günstiger als Grafikkarten auf Basis des ATI Radeon 9700 Pro.
----------------------------------------------------------------------
Fazit: GeForce FX - Gut, aber fast schon zu spät!
Keine Frage, was uns Nvidia mit der neuen GeForce-FX-GPU präsentiert ist à la bonheure. Dennoch, bei allem High-Tech-Aufwand, der in der GPU verbaut ist, gibt's ein paar Variablen, die Nvidia erst noch genau festlegen muss.
Daniel Bader, CHIP Online Redakteur.
Doch der Reihe nach: Mit dem GeForce-FX-Chip präsentiert Nvidia einen Grafikcontroller, der von allen eingefleischten 3D-Zockern sehnlichst erwartet wird: Hochauflösende Bilder sollen nicht nur ruckelfrei über den Bildschirm zischen, vielmehr zielt Nvidia mit dem NV30 auf Kino-Bildqualität. Herz und zugleich Rechenzentrale des 125-Millionen-Transistor-Chips ist seine CineFX-Engine, die die Bilder in Echtzeit und ohne Zeitverlust auf den Monitor zaubern soll. Der Chip wird in der Verkaufsversion mit etwa 500 Megahertz takten und stellt mit den DirectX-9-kompatiblen Vertex und Pixel Shader 2.0+ das momentan stärkste 3D-Kraftwerk der Grafikchip-Liga. Mit der High-Precision-Floating-Point-Color-Engine, die wahlweise einen Farbraum von 64 Bit oder 128 Bit zur Verfügung stellt, bietet der Chip Spieleentwicklern neue Ansätze für detailreichere und realere 3D-Szenen.
GeForce-FX mit DDR-II-Speicher
Auch beim Video-RAM gibt's mit DDR-II-Speicher eine Neuerung. Der DDR-Speicher zweiter Generation zeichnet sich durch extrem kurze Zyklus- und Refresh-Zeiten aus und soll den Chip mit einer effektiven Taktrate von 1 GHz zur Seite stehen.
Unsicherheitsfaktor Zeit: Wo sind die Boards?
Dass dennoch nicht alles glänzt, was den Namen GeForce FX trägt, wurde bereits im Vorfeld deutlich: So soll die GeForce-FX-Ausbeute in den TSMC-Fabriken grottenschlecht sein. Laut unseren Informationen beträgt sie unter 20 Prozent, und ist sicherlich mit ein Grund, weshalb der 0,13-Mikron-Chip so lange auf sich hat warten lassen. Die Folge sind Verzögerungen, die Nvidia aller Wahrscheinlichkeit nach das gesamte Weihnachtsgeschäft kosten werden. Erste Boards werden - zumindest in Deutschland - wohl erst Mitte Januar oder Februar in den Verkaufsregalen der Einzelhändler zu finden sein.
Unsicherheitsfaktor Speicher: DDR-II oder doch noch DDR-I?
So gut sich der GeForce-FX mit DDR-II-Speicher präsentiert, der Chip und die resultierende 3D-Performance ist sehr stark vom schnellen Video-RAM abhängig: DDR-II-Speicher wird momentan lediglich von Samsung hergestellt, und das auch nur mit einer relativ geringen Stückzahl. Käme es hier zu Engpässen, könnte Nvidia gezwungen sein, umzusatteln und ihr neues Flaggschiff mit DDR-I-Speicher anzubieten. Das wäre dann so, als ob man ein Ferrari-Motor mit platten Reifen vom Stapel laufen ließe. Die 3D-Leistung, die von der zur Verfügung stehenden Speicherbandbreite abhängig ist, würde in hohen Auflösungen gegenüber ATIs Radeon 9700 Pro empfindlich einbrechen. Der Grund: ATI setzt zwar "nur" auf DDR-I-Speicher, stattet aber den Radeon-9700-Chip mit einer 256 Bit breiten Speicherschnittstelle aus. Nvidias GeForce FX hat diesbezüglich nur 128 Bit zu bieten.
Fussball-Weisheit - die Hoffnung stirbt zuletzt
Trotz allem, Nvidia ist bereit zu kämpfen, auch wenn die Sterne schon einmal günstiger standen. Bisher hat Nvidia seine Anhänger noch nie im Stich gelassen, und wenn die Massen-Produktion erfolgreich anläuft, hat man mit Asus, MSI, Gainward und PNY auch in Deutschland kräftige Partner im Rücken, die schnell konkurrenzfähige Boards aus dem Ärmel zaubern können. Speziell über PNY sickerte das Gerücht durch, dass man noch vor Weihnachten erste Boards für die eingefleischten Freaks anbieten könnte. Und wenn dazu der Preis für GeForce-FX-Karten stimmt, brennt vielleicht bald der Tannenbaum von ATI wieder lichterloh...
QUELLE:http://www.chip.de/produkte_tests/produkte_tests_8919090.html
------------------------------------------------------------------
Naja. Den ersten Schalgabtausch hat Nvdia wohl für sich entschieden, zumindest auf dem Papier.
Leider werden wir erst sehr spät das Duell zwischen der 9700Pro und der GforceFX verfolgen können.
nagus
2002-11-18, 22:13:02
die features sind geil und das teil ist (vermutlich) ziehmlich schnell.
aber wer bitte steckt sich so ein (600euro teures) teil in den rechner??
nvidia hat IMHO beim design alles (un)mögliche versucht, damit um jeden preis die r300 übertroffen wird. geschafft hats nvidia, aber zu welchem preis? klobige karten zu bauen ist auch nicht der weisheits letzter schluss...
Zum Thema "großes, klobiges Board":
Mir ist es eigentlich bisher immer völlig egal gewesen, wie groß, welche Farbe, welcher Lüfter etc. wenn nur Leistung, Features und Preis stimmten.
Aber als ich dann nach dem Ende von 3dfx recht günstig eine Voodoo 5 5500 gekauft habe, änderte sich meine Meinung bzgl. größe des Boards schlagartig. Die V5 ist so groß, das sie in meinem Gehäuse gerade noch ein paar Millimeter von der HD entfernt ist. Nicht weiter schlimm sollte man denken, aber der Nachschub an kalter Luft vom vorderen Gehäuselüfter gerät durch so ein Monster Board ziemlich ins Stocken... die Case Temperatur stieg auf jedenfall wegen der Voodoo (die ja noch zusätzlich mit den 2 VSA 100 heizte und das nicht zu wenig)
In heutigen, geräumigen Gehäusen ist das ganze natürlich nicht mehr so tragisch, aber ich Kaufe ein Gehäuse i.d.r erst wenns durch neue Spezifikationen unbedingt erforderlich ist. Und seit 1999 war das bisher noch nicht wieder der Fall (trotz P4)
Also: Kompaktes Boardlayout Bitte, *Prollfaktor* gibt es für mich nicht!
Exxtreme
2002-11-18, 22:14:38
Originally posted by Doomtrain
Was macht es denn wenn die Karte nicht AGP konforn ist? Nix. Hast du so viele Karten in deinem PC?
Ja, ich habe viele Karten im System, siehe Sig. Aber den ersten Slot habe ich trotzdem frei gelassen. ;D
Und mich stört das ehrlich gesagt auch nicht, daß diese GraKa 2 Slots belegt nur wenn jeder Hersteller die ganzen Specs brechen würde, wo kämen wir dahin?
nagus
2002-11-18, 22:15:13
Originally posted by Doomtrain
Exxtrem, du siehst doch auch was Nagus macht, oder? Flamen pur!!
Was macht es denn wenn die Karte nicht AGP konforn ist? Nix. Hast du so viele Karten in deinem PC?
sag das bitte den typen, die über die R300 und den externen stomanscluß gelästert haben!
gute nacht
Liquaron
2002-11-18, 22:17:09
Ich habe gerade mal nachgeschaut. Jup habe genau 2 freie Steckplätze unter meiner Graka frei. JUHUUU GEFORCE FX ICH KOMME!!!!!=)
Naja ok warten wir doch mal auf den Preis ab sonst hole ich mir lieber eine Radeon 9700 pro :embara:
robbitop
2002-11-18, 22:17:10
btw zu den Pipes:
8x2??? dafür dass das teil solch mächtige Shader hat (der VS schaut wohl sehr ähnlich dem des P10...haut einen um)wie sollen da 2 vernünftige TMUs pro Pipe rein???? wenn dann nur bi TMUs..was hätte es genutzt?? nix, da hier jeder tri filtert.
dafür haben sie imho recht venünftige TMUs genommen, nämlich genug Samples für Tri+AF bei dem R300 war es imho nur Tri oder BiAF for free (4Samples???) ....das is jetz kein Flame!!
Weiterhin habe ich noch ne Frage: das mit der Color 4:1 lossless compression hat die Radeon auch. Wenn das Teil wirklich schneller sein möchte, muss ausser Füllrate noch was anderes hinterstecken.
positiv überrascht: vom AF schön abgeguckt beim R300 (ATi und NV gucken sich viel ab (in punkto LMA/HyperZ und offensichtlich nun auch das???)..aber schön schnell *daumenhoch*
AA: wenn das stimmt: nur OG ab 4x wäre das extrem shit. 4xS und 6xS sehen sicher blendend aus und dank massiver Füllrate und hochwertigen TMUs müsste das sehr wohl machbar sein. AFAIK könnte man es (lt interview mit so nem NV Fuzzi @Cebit2002 @ www.within3d.ch) auch in OGL implementieren...wäre sehr schön....denn 8xOG is total performancefressend und kaum besser als 4xRG..schade eigendlich, dass nichtmal 4x in RG realisiert wurde...warum zum henker nich???
nunja aber ich sage mal mir gefällt das Layout und der Kühler auch (wenn sowas bei mir reinkommt wirds eh wassergekühlt ;-) ) sehr gut.
Und 500Mhz Chip sind der Hammer...fette Füllrate...naja aber bissi enttäsucht über 128bit DDR bin ich schon...aber offensichtlich is er recht effektiv und ich bin mir sehr sicher dass das ding wie die R300 intern 512bit ist und damit beim Refresh @256bit gestellt werden kann. Ich denke mehr wird aber bis dahin nicht passieren da 0,09µ noch recht weit entfernt ist und scheinbar 0,13µ auch hier ausgeschöpft ist (also wohl kein 8x2 zum Nv35..höchsten LMA4 *gg*).
Imho hat sich bei THG ein Fehler eingeschlichen, bitte um bestätigung:
bei Chiptechnologie in der Tabelle wo NV30 NV25 und R300 drin sind haben alle 3 nur int 256bit...DAS KANN NICHT SEIN, denn mit 256bit DDR benötigt die R300 intern 512bit, oder???
und beim NV30 wäre ich fast selbiger meinung.
was meint ihr?
Exxtreme
2002-11-18, 22:17:33
Err, ich glaube nicht, daß du weisst, wovon du redest. ;)
Es spielt keine Rolle wieviel eine GraKa an Saft insgesamt braucht. Es spielt nur eine Rolle, wieviel sie aus'm AGP-Slot zieht. Und die Radeon9700Pro ist komplett AGP-konform da sie diese Limitierung per Stromstecker umgayt.
Originally posted by Unregistered
Naund der R300 übersteigt die zulässige höst spannung der AGP slots
ist also auch nicht AGP konform also who cares egal musst die karte ja nicht kaufen
Doomtrain
2002-11-18, 22:19:41
Originally posted by nagus
die features sind geil und das teil ist (vermutlich) ziehmlich schnell.
aber wer bitte steckt sich so ein (600euro teures) teil in den rechner??
nvidia hat IMHO beim design alles (un)mögliche versucht, damit um jeden preis die r300 übertroffen wird. geschafft hats nvidia, aber zu welchem preis? klobige karten zu bauen ist auch nicht der weisheits letzter schluss...
Nagus, ich hasse Streit ;)
Wie die Karte im Endeffekt aussieht ist doch egal, oder?
Es werden sich wie immer genug Irre finden die 600€ in eine Graka investieren, wers hat! Was weise ist und was nicht, das sollten die Hersteller für sich selber endscheiden.
So, und nun ist Frieden im 3DCenter-Forum!! *eg*
Thalion
2002-11-18, 22:19:44
Originally posted by Exxtreme
Err, du weisst schon, daß eine GraKa, die 2 Slots belegt, nicht AGP-konform ist, oder?
[krümelsuch]
Die AGP Pro-Spezifikation sieht vor das 2-3 PCI-Steckplätze unter dem AGP-Slot frei bleiben müssen. :D
[/krümelsuch]
StefanV
2002-11-18, 22:20:06
Originally posted by Unregistered
Naund der R300 übersteigt die zulässige höst spannung der AGP slots
ist also auch nicht AGP konform also who cares egal musst die karte ja nicht kaufen
Doch, ist AGP Konform, da sie den Saft ja nicht aus dem AGP zieht.
StefanV
2002-11-18, 22:21:14
Originally posted by Thalion
[krümelsuch]
Die AGP Pro-Spezifikation sieht vor das 2-3 PCI-Steckplätze unter dem AGP-Slot frei bleiben müssen. :D
[/krümelsuch]
Richtig, aber diese Karte ist keine AGP PRO Karte, somit gelten die AGP PRO Spezifikationen (AGP Pro 50-> 2 Slots, AGP 110-> 3 Slots) nicht für die NV30.
Es gilt die AGP Spezi...
Hauwech
2002-11-18, 22:21:59
Originally posted by zeckensack
Vielleicht ist's auch einfach die Notwendigkeit des hohen Taktes, weil man sonst nicht gut genug aussähe ???
Immerhin möglich :eyes:
Nein, es gab nicht sofort ausführliche Tests. Die ersten Benchmarks waren allerdings umfassender und standen auch in Relation zu eindeutig identifizierten Karten der Konkurrenz. Durchgeführt wurden sie von Anand, Onkel Tom und Kyle von [H]ardOCP, die durften jeweils zwei Stunden unter Aufsicht ausgewählte Benchmarks fahren. Wie gesagt, das waren die ersten Benchmarks, immerhin 3DMurx, Q3, RTCW, Aquanox und andere, mit/ohne AA/AF. Recht informativ im Vergleich zu dieser Aktion.
Genau das meine ich. Verklagen kann man da nichts, weil keine Settings angegeben sind und die Vergleichskarte nicht benannt wird. Da steht ja nicht mal 'fps' an den Balken, dieses Diagramm hat juristisch betrachtet Null Substanz.
Hehe kann sein, immerhin muessen sie ja den Preis hier geposteten angeblichen VK irgendwie verlangen koennen, zumindest fuers Topmodell fuer eine Weile bis sie 'kleinere' Karten bringen ;).
Eben, es gab die Tests am Anfang auch nicht, wenns die ersten Karten gibt, wirds auch Tests geben und dann wid man sehen ob er mitm R300 mithalten oder auch ueberfluegeln kann. Genau der gleiche Vorgang wie bei ATI.
Zumindest haben se ne 4600 angegeben, besser als nix...nur welche im Moment auf dem Markt befindliche Karte koennte die 4600 in dieser im Diagramm gezeigten Relation schlagen? Oder glaubst du wirklich die haben mit einer auf 400MHz getakteten 4600 verglichen? Was ist mit den Prozentangaben im Text? 30-50% schneller als 9700?
Imho waere es fuer NV schlecht da irgendwelche %-Angaben zur lange von vielen erwarteten Ankuendigung (Paperlaunch) zu machen die sie nachher sowieso nicht halten koennen. Glaube nicht das Kirk 'dicke oekonomisch gedehnte Wahrheiten' veroeffentlichen laesst, spaetestens beim neachsten Conference Call wuerde sein Kopf rollen wenn der Chip nicht laeuft, sprich sich verkauft, oder?
Immmer dieses Gelaber von Konformität. Wenn ihr nen *konformen* PC wollt kauft euch ein Intel i845g Referenzboard und vielleicht noch ne Matrox G550 dazu, dann seit ihr 100% Konform. Das ist zwar dann nicht schnell und lässt sich auch nicht overclocken, aber ihr seit mit sicherheit im Rahmen der heilligen Spezifikationen.
StefanV
2002-11-18, 22:24:49
Originally posted by Com1
In heutigen, geräumigen Gehäusen ist das ganze natürlich nicht mehr so tragisch, aber ich Kaufe ein Gehäuse i.d.r erst wenns durch neue Spezifikationen unbedingt erforderlich ist. Und seit 1999 war das bisher noch nicht wieder der Fall (trotz P4)
Also: Kompaktes Boardlayout Bitte, *Prollfaktor* gibt es für mich nicht!
Öhm, nur das Fong Kai FK-320 kann man als geräumig bezeichnen, sofern man eine Voodoo5 eingebaut hat.
Allerdings ist es das einzig mir bekannte Gehäuse, bei dem man hinter der Voodoo5 noch Problemlos alle HDDs bestücken kann, beim CS-601 endet das in einer Brechstangen Aktion, hinter der Voodoo dürfen keine Festplatten hängen...
Unregistered
2002-11-18, 22:25:23
http://www.nvidia.com/view.asp?PAGE=geforcefx so hier ein paar videos und zum 1000mal die karte kostet 360$ in USA wie bitte schön kommt ihr auf 600€ in Europa?
Exxtreme
2002-11-18, 22:26:06
Err, ich fürchte, du kennst die Bedeutung des Wortes "Standard" nicht.
Soll ich es dir erklären?
;) <-- Bitte nicht übersehen!!!!11111
Originally posted by Com1
Immmer dieses Gelaber von Konformität. Wenn ihr nen *konformen* PC wollt kauft euch ein Intel i845g Referenzboard und vielleicht noch ne Matrox G550 dazu, dann seit ihr 100% Konform. Das ist zwar dann nicht schnell und lässt sich auch nicht overclocken, aber ihr seit mit sicherheit im Rahmen der heilligen Spezifikationen.
Hauwech
2002-11-18, 22:26:45
Originally posted by Pussycat
Aber es könnte nicht so sein, dass NV um jeden Preis an der Taktschraube drehen musste? Und die grosse Platine ist genauso billig wei ein Heatpipe?
Und dass der 1. PCI standartmaßig blockiert wird ist auch nicht schlimm? AUCH NICHT MIT MINI-BAREBONES AUF LANPARTYS (protzen) DIE NUR 3 PCISLOTS HABEN?
Achso, und die MB's haben ja auch nichts integriert, kein USB, kein Sound, kein LAN, kein gar nichts....
Das einzige was du da rein steckst ist vielleicht ne Soundkarte und halt die Grafikkarte. Wo ist das Problem?
Doomtrain
2002-11-18, 22:27:16
Originally posted by Exxtreme
Err.
Mit Errr... hast du es heute aber....
Exxtreme
2002-11-18, 22:27:58
Err... stimmt. :D
Originally posted by Doomtrain
Mit Errr... hast du es heute aber....
StefanV
2002-11-18, 22:28:17
Originally posted by Hauwech
Achso, und die MB's haben ja auch nichts integriert, kein USB, kein Sound, kein LAN, kein gar nichts....
Das einzige was du da rein steckst ist vielleicht ne Soundkarte und halt die Grafikkarte. Wo ist das Problem?
Mainboards sind wohl kaum in 8Layern und mehr gefertigt, oder?
roman
2002-11-18, 22:29:03
Originally posted by alex_x
so wie es aussieht muss ati sich warm anziehen und sich schleunigst etwas einfallen lassen!
nuja "schleunigst" is ja wohl etwas übertrieben. ;)
immerhin hat ATI ja schon was vorbereitet (siehe DDR/II od. RV350), und schließlich gibts die ersten karten ja erst im februar zu kaufen.
Voodoo3Killer
2002-11-18, 22:32:37
Originally posted by Exxtreme
Err, du weisst schon, daß eine GraKa, die 2 Slots belegt, nicht AGP-konform ist, oder?
Hmm
Und die Vivid! XS?
Da ging auch keine PCI Karte in den 1. Slot...
Soviel zum Thema!
;D
Eben. Ein Gamer PC ist für mich kein Standard-PC, da wird overclocked, ein anderer Lüfter draufgebastelt, Löcher ins Gehäuse gesägt, *gemodded* Fenster reingebaut, BIOS geflasht, Speicher eingebaut den es offiziell gar nicht gibt (ich sag nur PC400) usw usw ;)
Ob man jetzt auch noch diverse AGP Standards verletzt kann bei solchen Kisten ja wohl vernachlässigt werden solangs stabil läuft ;)
Exxtreme
2002-11-18, 22:35:55
Siehste, bei mir njet. Ich habe nichts übertaktet und betreibe meine HW gemäss der Spezifikationen. Dafür habe ich keinen Stress mit Bluescreens, Grafikfehlern etc.
Originally posted by Com1
Eben. Ein Gamer PC ist für mich kein Standard-PC, da wird overclocked, ein anderer Lüfter draufgebastelt, Löcher ins Gehäuse gesägt, *gemodded* Fenster reingebaut, BIOS geflasht, Speicher eingebaut den es offiziell gar nicht gibt (ich sag nur PC400) usw usw ;)
StefanV
2002-11-18, 22:40:19
Originally posted by Voodoo3Killer
Hmm
Und die Vivid! XS?
Da ging auch keine PCI Karte in den 1. Slot...
Soviel zum Thema!
;D
Hö??
Was für 'ne ViVid! XS hattest du denn??
Bei meiner war das kein Problem ;)
Unregistered
2002-11-18, 22:40:21
Das 256 Bit breite Speicherinterface von ATI sorgt schon mit DDR-I für maximale 19,8 GByte Bandbreite, NVIDIA kommt mit 128 Bit Busbreite und DDR-II "nur" auf 16 GByte. Da dürfte dann wohl eher "1 GHz Speicher" auf der Schachtel stehen, was die Bausteine effektiv erreichen, bei 500 MHz physikalischem Takt.
Quelle: Tecchannel
roman
2002-11-18, 22:40:35
anscheinend verstehen hier wirklich einige leute nicht die bedeutung des wörtchens "standard".
encarta professional 2002 meldet grade:
Standard, im Zusammenhang mit Computern eine Sammlung genauer technischer Richtlinien zur Vereinheitlichung eines Bereichs der Hardware- oder Softwareentwicklung. Traditionell existieren zwei Verfahren zur Einrichtung von Computerstandards. Das eine Verfahren ist sehr unformal und tritt auf, wenn eine Firma ein Produkt oder bestimmte Merkmale entwirft, die dann so weit verbreitet werden, dass eine Abweichung von dieser Norm Kompatibilitätsprobleme oder eine eingeschränkte Vermarktung zur Folge hätte. Das zweite Verfahren zur Errichtung von Standards ist ein sehr formaler Prozess, bei dem die Spezifikationen von einer Arbeitsgruppe oder einem Komitee entworfen werden, nachdem verschiedene bestehende Methoden, Verfahren, technologische Trends und Entwicklungen intensiv untersucht wurden. Die vorgeschlagenen Standards werden später durch eine anerkannte Organisation ratifiziert oder genehmigt und auf lange Sicht allgemein angenommen, weil Produkte mit diesem Standard auf dem Markt vorherrschen. Wichtige nationale Normungsgremien sind in Deutschland die DIN (Deutsches Institut für Normung e.V.) und in den USA das ANSI (American National Standard Institute; amerikanisches nationales Standardisierungsinstitut). Internationale Gremien sind die ISO (International Standards Organization) und die ITU (International Telecommunication Union). Zahlreiche Standards sind in diesem Verfahren entstanden, wie beispielsweise der ASCII-Zeichensatz, der RS-232-C-Standard, die SCSI (Small Computer System Interface)-Schnittstelle sowie die ANSI-Standard-Programmiersprachen wie C und FORTRAN (FORmula TRANslator).
-------------------
recht schwer zu verstehen? ;)
Skinner
2002-11-18, 22:43:46
Originally posted by ernesto.che
Das stimmt zwar, es rennen hier aber genügend AMD User rum, deren Kühler nicht den AMD Vorgaben entspricht.
Genau, und wer baut bitte direkt unter Grafikkarte eine PCI karte ein ??? Im bezug auf die Kühlung die dann wohl futsch sein dürfte ;)
Razor
2002-11-18, 22:44:31
Also mal gaaaaanz locker bleiben Leute...
Es gab zwar einiges an Informationen aber sehr wichtige Details fehlen schlicht noch !
(kommt wohl auch Häppchenweise, wie das "Are you ready ?" ;-)
Eines möchte ich vorweg los werden, da es hier wohl einige 'Verwirrung' bezüglich des Preises und auch der Lüftung des neuen nVidia Flagschiffes (und ja, es ist nur eine GraKa ;-) gibt.
Es wird 2 Versionen geben !
So, ich hoffe, das war jetzt deutlich...
:D
Die 'kleine' (5800) wird wohl um die 450-500€ kosten (360 USD) und auch keinen 'Monster-Kühler' haben. Dies wurde in mehreren Previews so bestätigt. Insofern die 'normale' Variante durchaus nur den AGP-Slot belegt und den 1. PCI-Slot nutzbar läßt. Der Takt hierfür ist allerdings noch unbekannt.
Die 'große' (5800 ultra) kann dann tatsächlich schon 600€ kosten und wird dann wohl auch mit dem Dual-Slot 'Monster-Kühler' ala OTES kommen und dann auch den 1. PCI-Slot belegen (soweit voehanden ;-). Allerdings wird dieses Ding dann wohl mit 500MHz takten (im Vergleich zu den 'mageren' 325MHz der R9700pro ;-).
Ich hoffe, hier jetzt ein bissel Klarheit gebracht zu haben, vor allem wenn man bedenkt, dass es noch so gut wie nix über die offiziellen Produktpaletten gibt.
-
Ein kleine Anmerkung von mir:
Ich werde mir wohl das ABit NF7-S (nForce2) zulegen, welches neben dem AGP-Slot 'eh keinen PCI-Slot hat (trotz 5 verfügbarer PCI-Slots !). Insofern auf diesem Board das Problem 'Dual-Slot' auch nicht zum Tragen kommt.
Bin schon mal echt gespannt, wie die ersten 'echten' Benches aussehen werden, die wir wohl spätestens Mitte Dezember begutachten werden können (wie viele Previews bestärigen).
Auch empfehle ich dringend den Artikel von ExtremeTech (http://www.extremetech.com/article2/0,3973,710337,00.asp), der zwar etwas schwere Kost bietet, aber dafür als 'Schmankerl' gleich Kommentare von Kirk und Tamasi bietet (beide von nVidia, i.e. 'Chief Scientist' und 'Senior Director of Desktop Product Management'). Wirklich sehr empfehlenswert, weil durchaus kritisch...
http://www.extremetech.com/article2/0,3973,710337,00.asp
So, werde gleich noch mehr von den von mir 6 oder 7 'konsumierten' Previews posten, aber das hier sollte für's erste reichen, um den Großteil an 'Aufregung' zu lindern...
:D
Bis gleich
Razor
Hauwech
2002-11-18, 22:45:49
Originally posted by Stefan Payne
Mainboards sind wohl kaum in 8Layern und mehr gefertigt, oder?
Nicht boese sein SP, aber hast du gelesen worauf Pussycat anspielte? Auf die 3 PCI Slots. Mini-Barebones SIND so vom MB-Layout her das da mehr oder weniger ALLES drauf ist, insofern stimmt was ich geschrieben habe, oder nicht ????
Oder habe ich da jetzt was in deiner Frage uebersehen?
Originally posted by Romanski
anscheinend verstehen hier wirklich einige leute nicht die bedeutung des wörtchens "standard".
encarta professional 2002 meldet grade:
Standard, im Zusammenhang mit Computern eine Sammlung genauer technischer Richtlinien...
-------------------
recht schwer zu verstehen? ;)
Manche leute wissen auch nicht was es mit Ironie und Smileys auf sich hat, also vorsicht.
roman
2002-11-18, 22:52:13
Originally posted by Com1
Manche leute wissen auch nicht was es mit Ironie und Smileys auf sich hat, also vorsicht.
naja du weisst anscheinend wie es gemeint war ;)
nggalai
2002-11-18, 23:03:37
Der Extremetech-Artikel ist übrigens noch recht interessant. Lohnt sich, zu lesen.
ta,
-Sascha.rb
Radeonator
2002-11-18, 23:12:45
Kurze Zusammenfassung:
Preis von unzmutbarer Höhe
Hitzeentwicklung von enormen ausmaßen
Extrem lang
Kühler der min 1PCI Platz schluckt
Sehr laut wegen großem Kühler
Großer Stromverbrauch (Karte + Kühler+Zusatzconnector)
Viel PR Rummel und nichts handfestes
Was bleibt sind viele Fragen und ein fader Nachgeschmack...:(
Voodoo3Killer
2002-11-18, 23:16:49
Mal ehrlich, dass mit den (AGP) Spezifikationen ist doch Kindergarten-Niveau. Stromstecker hin, PCI-Blockierung her. :zzz:
Der eine meckert bei Ati, der andere bei nvidia. Jeder darf das wie er will, auch wenn ich meine man muss das nicht gleich die ganze Welt wissen lassen...
Die Fälle, in denen die Karte wirklich "nicht passt", werden sich in Grenzen halten.
Nun zu den Preisangaben.
Bis die Karte in zwei bis drei Monaten kommt, kann sich noch soviel tun. Übliche ($-)Kursschwankungen, Preissenkungen, Konkurrenz...
Wenn das Topmodell letztendlich um die 500 bis 600EUR kosten würde, wäre das nicht überraschend, schließlich waren die letzten Topmodelle Anfangs auch nicht viel günstiger.
Für mich schaut's aber so aus als müsste Nvidia diesmal Ati wirklich fürchten. Schon die aktuellen 9700er Pro Leistungen haben mich beeindruckt.
Nvidia muss einiges bieten um mit Ati gleichsetzten zu können.
Wie das am Ende geschieht werden wir ja selbst sehen (Preis, Leistung, o.a.).
Ich bin auf jedenfall auf die ersten richtigen Vergleiche gespannt. (kein wischiwaschi 3DMurks ;) )
MadManniMan
2002-11-18, 23:23:18
Originally posted by Doomtrain
Nagus, hör endlich auf zu flamen!!!!! Ist ja ekelhaft zu lesen was du dauernd von dir gibst.
Der GeForceFX wird min. genauso gut oder schneller sein, sieh es ein!!! Aber nein, ATI ist nun Gott. Ich platz gleich!
:tgv:
merkste was? richtig - du hast angefangen!
Unregistered
2002-11-18, 23:30:05
Ich möchte nochmal drauf hinweisen!!!
Das 256 Bit breite Speicherinterface von ATI sorgt schon mit DDR-I für maximale 19,8 GByte Bandbreite, NVIDIA kommt mit 128 Bit Busbreite und DDR-II "nur" auf 16 GByte. Da dürfte dann wohl eher "1 GHz Speicher" auf der Schachtel stehen, was die Bausteine effektiv erreichen, bei 500 MHz physikalischem Takt.
Quelle:Tecchannel
Nvidia hat doch schon praktisch verloren! Den High-End Markt und den Massenmarkt.
Ati bietet in allen Klassen für angemessenens Geld vernünftige Hardware!
Ich bin schon jetzt von der NV30 entäuscht. Wer kauft sich denn noch in 2 Monaten ne neue Graka?
Bis dahin ist doch eh wieder die R350 draußen,welche mit maximal 256MB, DDR2 und natürlich mit 256 BIT Speicherinterface aufwartet.
Dann mal gute Nacht Nvidea!
Quasar
2002-11-18, 23:36:10
Originally posted by Stefan Payne
Richtig, aber diese Karte ist keine AGP PRO Karte,[...]
Ist das so?
Razor
2002-11-18, 23:41:43
So, nun mal 'meine' Sammlung an Info's zu dem NV30...
(aus - wie schon geschrieben - 6 oder 7 Previews ;-)
AGP 8x (3.0)
125 mio transistors @ 0.13 micron
target GPU-frequency @ 500MHz in a FlipChip package
500MHz DDR2 (i.e. 1GHz effective) with 128-bit CBMC @ 4x32-bit
full 128-bit precision pxel processing with 8 pipelines and maybe 1 TMU per pipeline (not discovered for now)
8 pixels per clock cycle / 16 texels per pixel per pass (without touching the frame buffer)
1 (!) Vertex-Shader with an 32 parallel working processor array
Was sich doch schon mal ganz gut anhört...
;-)
DX9: Vertex-/Pixel-Shader 2.0+
Two FloatingPoint-Modes: FP16/FP32 (64-bit/128-bit)
(dynamic change between this modes within same shader program)
Three ColorModes: 32/64/128-bit (R300 only 32-bit)
DigitalVibranceControl 3.0 (also auch für 2D/GUI !)
Intellisample technology (siehe unten)
Auch nicht schlecht, gell ?
(ist übringes alles frei übersetzt und kann somit von mir eingebrachte Fehler enthalten ;-)
Auch soll der Chip nunmehr Technologie enthalten, die für den Next-Gen Chip von 3dfx vorgesehen war und auf den klangvollen Namen 'Fusion' hört !
Intellisample
(intelligente Samples ?)
color compression 4:1 in hardware
fast color clear in hardware
Z-compression in hardware (R300-like ;-)
fast Z-clear in hardware
dynamic gamma correction
choosable (!) adaptive texture filtering
(dynamic per pixel texel and filter level selection and also traditional filtering)
FSAA-modes: 2x, 2xQ, 4x, 4xS (D3D), 6x, 6xS (D3D), 8x
(no word on sample positions, but 2x modes, maybe 4x, should be 'for free' ;-)
Antialiasing:
Soll in etwa die gleichen Performance-Vorteile, wie das FAA von Matrox haben. Da es aber in Hardware und für die Anwendung 'unsichtbar' arbeitet, wird es so wohl zu keinerlei Kompatibilitätsproblemen kommen, wie bei der Matrox-Lösung. Auch wurde gesagt, dass 'some modes', also 'einige Modi' aufgrund dieser Architektur 'for free', also ohne Perofrmance-Verlust zugeschaltet werden können. 'some' meint schon mal mehr als einen (*binsenweißheit* ;-) und meint dann vermutlich die beiden 2xModes, evtl. aber auch den 4xModus (beim 4xS-Modus glaube ich nicht an ein 'for free' !).
Auch wird darüber geschrieben, dass aufgrund der 4:1 color compression hier eine durchschnittliche (!) Bandbreite von 48GB/s (i.e. ca. 3x reale 16MB/s Bandbreite) erzielt werden kann. Na ja, echte Benchmarks werden das zeigen müssen...
Texture Filtering:
Hier sollen sowohl die traditionelle Filterung (gf3/4-like), als auch eine adaptive Filerung (r300-like) implementiert sein. Allerdings soll die adaptive Filterung im NV30 effizienter arbeiten (?) und dabei auch ein besseres Ergebnis liefern, als die von ATI implementierte 90°-Lösung...
Ist aber noch rein spekulativ, was sowohl die Performance, als auch die Qualität dieser neuen Filter angeht. Sehr gut finde ich, dass man die Wahl hat, auch noch die 'alten', traditionell arbeitenden Filter wählen zu können, die aber wohl Performance-Seitig keinesfalls vergleichbar sein dürften.
-
So, das war's erst einmal (fast ;-) !
Zu erwähnen wäre noch, dass nVidia das 'FX cool' (also den 'Monster-Kühler') nicht bei den beiden andern Firmen lizensiert hat (OTES und den 2. hab' ich vergessen), insofern hier wohl ein eigenes Patent angewendet wird.
Ich persönlich finde diese Art der Kühlung sehr gut, da es
a) die Geräuschkulisse herunter schrauben sollte (was aber schon dementiert wurde, von Personen, die das Ding 'live' in Aktion gesehen, vor allem aber gehört haben) und
(was ich sehr viel wichtiger finde !)
b) endlich die Abwärme der GraKa nicht ins Gehäuse geblasen wird, sondern endlich dahin, wo sie hin gehört, nämlich nach draußen ! Fand ich bei der OTES-Lösung schon unheimlich klasse...
Nun ja, negativ finde ich auf jeden Fall den externen Stromanschluß, was wohl dazu führen dürfte, das ich mir dann wohl mit dem NV30 auch gleich ein neues Netzteil zulegen werden muss. Ich hab' mich ja zu dem Thema schon bei der R300 ausgelassen und kann dies für den NV30 nur wiederholen ! Aber es ist kein KO-Kriterium (was es auch bei der ATI-Karte nicht war), aber ein Wehrmutstropfen. Insofern darf man hier dem NV30 das gleiche Bescheinigen, wie auch dem R300: brutalste Gewalt !
-
Na ja, letztlich zählt was hinten raus kommt (und damit meine ich nicht die heiße Luft aus dem OTES-Kühlsystem ;-) und das werden wir dann ja wohl mitte Dezember sehen dürfen. Viele Previewer haben schon bestätigt von nVidia eine Zusage erhalten zu haben, ein Testsample dann zu diesem Zeitpunkt zu erhalten.
Und ja, der Auslieferungstermin scheint sich auf Februar 2003 zu konkretisieren, wobei wohl erste Modelle schon Januar zu haben sein werden, aber eben nicht in Massen.
Also dann, warten wir auf mitte Dezember !
Und hoffentlich werden wir bis dahin auch etwas mehr über die internen Arbeitsweisen, insbesondere der FSAA-Modi und der Filter erhalten.
Bis denne
Razor
P.S.: viele Preview-Links sind u.a. auf www.3dgpu.com zu finden.
Und zum Abschluß noch ein paar kleine Bildchen:
(ich find' den Kühler einfach 'cool' ;-)
http://mitglied.lycos.de/razor3dc/geforcefx/geforcefxboard_small.jpg
http://mitglied.lycos.de/razor3dc/geforcefx/geforcefxboard0_mod2.png
http://mitglied.lycos.de/razor3dc/geforcefx/geforcefxboard0a1.jpg
Sagt mal, findet Ihr auch den Prozessor-Lüfter (CPU !) so niedlich, wie ich es tue ?
Monster-Kühler für die GraKa, aber ein 'Mini' für die CPU !
:D
warum empfindet man einen externen stromanschluss den nur als schlecht? das ist die beste erfindung seit es grafikkarten gibt , damit ist man auf der sicheren seite was strom stabilität anbelangt das hätte man schon früher einführen sollen.
Quasar
2002-11-19, 00:17:54
Kleines Add-on zu Razor's Mega-Post:
found on: Extreme-Tech:
nVidia declined to provide more details about the actual sample patterns. Tamasi and Kirk would only say that the sample positions and patterns have changed, and that they are non-rectangular.
Soso.....interessant. :D
Iceman346
2002-11-19, 00:20:46
Mein Eindruck bisher:
Der NV30 kann ausser längeren Shaderprogrammen nichts besser als die R9700. Durch den höheren Chiptakt wird sie wohl in nicht Bandbreitenlimitierten Situationen schneller sein, aber wenn das AA tatsächlich nur Ordered Grid ist dann sollte einerseits die Qualität deutlich schlechter als die der R300 sein und andererseits wird die Geschwindigkeit wohl auch nicht so berühmt werden.
Alles in allem keine Karte die ich interessant finden würde. Wäre sie vor der R300 rausgekommen dann würde jetzt vielleicht eine davon in meinem PC stecken denn im Vergleich zur älteren Generation ist sie immer noch extrem beeindruckend. Aber gegen eine R9700 ist der NV30 irgendwie langweilig.
Desti
2002-11-19, 00:27:00
Sieht das nur so aus oder ist bei den Samples der analoge Ausgang noch gar nicht echt, sondern nur mit einer Atrappe versehen. Das Ding ist ja total platt.
Razor
2002-11-19, 00:33:10
Originally posted by Desti
Sieht das nur so aus oder ist bei den Samples der analoge Ausgang noch gar nicht echt, sondern nur mit einer Atrappe versehen. Das Ding ist ja total platt.
Schau Dir mal vor allen das letzte Bildchen an...
;-)
Razor
Razor
2002-11-19, 00:35:07
Originally posted by Iceman346
Mein Eindruck bisher:
Der NV30 kann ausser längeren Shaderprogrammen nichts besser als die R9700. Durch den höheren Chiptakt wird sie wohl in nicht Bandbreitenlimitierten Situationen schneller sein, aber wenn das AA tatsächlich nur Ordered Grid ist dann sollte einerseits die Qualität deutlich schlechter als die der R300 sein und andererseits wird die Geschwindigkeit wohl auch nicht so berühmt werden.
Alles in allem keine Karte die ich interessant finden würde. Wäre sie vor der R300 rausgekommen dann würde jetzt vielleicht eine davon in meinem PC stecken denn im Vergleich zur älteren Generation ist sie immer noch extrem beeindruckend. Aber gegen eine R9700 ist der NV30 irgendwie langweilig.
Und wie bist Du zu diesem Eindruck gekommen ?
Ich will hier nicht nochmal alles aufzählen und offensichtlich hast Du Quasars Quote übersehen, oder ?
Was soll bitte 'ordered grid' mit 'non-rectangular' überein zu bringen sein ?
:D
Razor
P.S.: Hier NICHT klicken ! (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=518880#post518880)
;-)
Iceman346
2002-11-19, 00:39:14
Originally posted by Razor
Und wie bist Du zu diesem Eindruck gekommen ?
Ich will hier nicht nochmal alles aufzählen und offensichtlich hast Du Quasars Quote übersehen, oder ?
Was soll bitte 'ordered grid' mit 'non-rectangular' überein zu bringen sein ?
:D
Razor
P.S.: Hier NICHT klicken ! (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=518880#post518880)
;-)
Guck mal auf die Zeit der Postings ;) Während Quasar postete war ich grad am schreiben.
Nichtsdestotrotz eine langweilige Karte, da es den R300 schon gibt. Ohne diesen wärs eine Revolution. Durch diesen ists ein Sturm im Wasserglas.
Nun denn, ich bin gespannt auf echte Benches, aber das wird ja noch etwas dauern.
Unregistered
2002-11-19, 00:42:19
Nvidia-Geforce-3DFX
Nur wo bleiben die Benchmarks?
Tom Servo
2002-11-19, 00:54:51
Originally posted by tEd
warum empfindet man einen externen stromanschluss den nur als schlecht? das ist die beste erfindung seit es grafikkarten gibt , damit ist man auf der sicheren seite was strom stabilität anbelangt das hätte man schon früher einführen sollen.
Die Kritik richtet sich vmtl. eher gegen den hohen Leistungsverbrauch (= Lärm und Aufheizen des Raums im Sommer) und nicht den Stecker an sich. Der extra Stecker senkt aber den Leistungsverbrauch des gesamten PCs wieder (wenn ich davon ausgehe, dass die Karte normalerweise über 3.3V oder 5V (je nach Mainboard) versorgt würde).
Die Speisung aus 12V anstatt 3.3V ist aufgrund der zur jeder von üblichen PC-Netzteilen gelieferten Spannung in Serie liegenden Gleichrichterdiode mit weniger Verlusten behaftet. Ausserdem nehmen die Verluste an Steckverbindern und Leitungen ab (bzw. können diese dann gleich schwächer ausgelegt werden).
Wobei der Radeon 9700 wohl 5V und 12V gleichzeitig benutzt, wie ein hier mal gepostetes Schaltbild zeigte. War so ein spezieller Spannungswandler mit zwei (auch verschiedenen) Eingangspannungen und nur einer (?) Ausgangspannung. Ich denke, es wäre effizienter gewesen wenn man den 5V Eingang auch mit 12V speist, wenn das NT das hergibt.
Salvee
2002-11-19, 06:17:46
Mein persönlicher Ersteindruck nach dem Studieren der ersten Reviews:
- 8x1 TMU: hier hätte ich mehr erhofft/erwartet
- kein RGAA: für den FSAA-Pionier (3dfx) keine Glanzleistung, ausserdem erinnert mich die Bezeichnug 'Intellisample' zu sehr an die Nager des Feindes ;)
- 15-16GB Roh-Speicherbandbreite: ausreichend, nicht mehr und nicht weniger
- lange Shaderprogramme: für mich unnütz wie ein Kropf
- 500 MHz Takt beim Topmodell: Auf den ersten Blick imposant, allerdings wird das wohl das (teure) Topmodell sein, spricht imo für eine 'schlechte' Pro-MHz-Leistung à la P4
- erst im Februar käuflich zu erwerben: der weitaus grösste Nachteil für mich persönlich
Einzige logische Konsequenz->habe gerade meine Bestellung für die 9700Pro rausgeschickt :biggrin:
Quasar
2002-11-19, 06:56:21
Originally posted by Salvee
- kein RGAA: für den FSAA-Pionier (3dfx) keine Glanzleistung, ausserdem erinnert mich die Bezeichnug 'Intellisample' zu sehr an die Nager des Feindes ;)
G0000t....ist zwar eineutig dementiert worden, aber glaubt mal weiter an die Unwahrheiten, die so verbreitet werden.... *niemanden_anguck*
Originally posted by Quasar
G0000t....ist zwar eineutig dementiert worden, aber glaubt mal weiter an die Unwahrheiten, die so verbreitet werden.... *niemanden_anguck*
das geht auch in die andere richtung , wenn ich mir die previews so anschaue dann sehe ich viele unwahrheiten welche von nvidia über den r300 verbreitet werden...da kann man leider nicht viel machen.
Salvee
2002-11-19, 07:13:01
Originally posted by Quasar
G0000t....ist zwar eineutig dementiert worden, aber glaubt mal weiter an die Unwahrheiten, die so verbreitet werden.... *niemanden_anguck*
Uups, die letzten Posts diese Mega-Threads sind mir dann wohl entgangen. Wenn es denn so sein sollte, shame on me ! ;)
seahawk
2002-11-19, 07:57:59
Ich denke mal abwarten, momentan kann man gar nichts sagen. Die Leistung der Color Compression, der AA und AF Techniken kann man erst in einen richtigen Review feststellen.
Vielleicht wissen wir im Dezember mehr.
Der entscheidene Faktor wird doch die VErfügbarkeit, wenn die Karten erst Ende Februar oder März in Deutschland sind hat NVidia verloren, da dann die meisten wohl schon eine ATI drin haben werden. Wenn NVidia Januar schaffen sollte sieht es besser aus.
Originally posted by zeckensack
Zwei Slots statt einem ist einfach nicht akzeptabel. Dann sollen die Jungs halt 'ne AGP Pro 110-Karte bauen. Es ist mir auch völlig wurscht, wieviele Leute den ersten PCI frei haben, Tatsache ist nunmal daß das Teil offensichtlich als normale AGP-Karte nicht lauffähig ist.
Ich will auch garnicht wissen wie weit 'ne R9700 gehen würde mit einem solchen Aufbau ... in den Rechner käme mir sowas nie :bäh:
Wieviel Boards mit AGP-Pro kennst du denn??
Und als AGP-Pro waeren die 2 Slots akzeptabel? Sorry, aber da kann ich deiner Argumentation gar nicht folgen.
Originally posted by Exxtreme
Err, du weisst schon, daß eine GraKa, die 2 Slots belegt, nicht AGP-konform ist, oder?
Doch, sie ist AGP-Pro konform.
Netterweise hart NV drauf verzichtet, den Steckkontakt als AGP-Pro auszulegen, weil's nur wenige Boards damit gibt.
Unregistered
2002-11-19, 09:27:57
NV wird sich darüber freuen, das genügend alles ignorierendes Trotz-Käufer Potential vorhanden ist ;)
Originally posted by Exxtreme
Err, ich glaube nicht, daß du weisst, wovon du redest. ;)
Es spielt keine Rolle wieviel eine GraKa an Saft insgesamt braucht. Es spielt nur eine Rolle, wieviel sie aus'm AGP-Slot zieht. Und die Radeon9700Pro ist komplett AGP-konform da sie diese Limitierung per Stromstecker umgayt.
Du wohl auch nicht.
Die NV30 ist komplett AGP-Pro konform.
Radeonator
2002-11-19, 09:31:48
Ahh, schön das wir noch einen Hellseher unter uns haben...;)
Ach ja, guten Morgen ;)
Originally posted by Stefan Payne
Richtig, aber diese Karte ist keine AGP PRO Karte, somit gelten die AGP PRO Spezifikationen (AGP Pro 50-> 2 Slots, AGP 110-> 3 Slots) nicht für die NV30.
Es gilt die AGP Spezi...
FALSCH!!
Es IST eine AGP Pro Karte. Und zwar eine, die dank externer Versorgung keinen AGP-Pro Slot braucht.
Frank
2002-11-19, 09:35:36
es geht doch denk ich eh nur um den 2. Slot ow. Und Leute wie zb ich, könnten mit einen MicroATX Tower nich mehr soviel anfangen mit der Karte. Aber letztendlich steht meines erachtens in der Richtung eh noch nichts fest. Also warum aufregen über heise Luft. Warten wir doch noch die 1-4 Monate.
JA, es geht um den 2. Slot.
Laut AGP Spec sind sogar 3 belegte Slots zulaessig (AGP-Pro 110), also alles konform. Wie uebrigens diese GF4 von (?) mit einem derartigen Kuehlsystem (OTES) auch.
Quasar
2002-11-19, 09:42:10
Vielleicht musst du dich dann mit der normalen Version der nV30 begnügen, einer, die durch geringeren Takt nicht soviel Hitze entwickelt und deswegen als AGP-Karte ausgelegt werden kann. Genauso, wie Leute mit 200W-Netzteilen auf eine Radeon9500 hoffen müssen, oder eben aufrüsten. :)
Exxtreme
2002-11-19, 09:45:57
Dann braucht sie aber ein AGP-Pro-konformes Motherboard. Und AFAIK ist in der kleinsten AGP-Pro-Spezifikation kein zweiter Slot vorgesehen.
Originally posted by ow
FALSCH!!
Es IST eine AGP Pro Karte. Und zwar eine, die dank externer Versorgung keinen AGP-Pro Slot braucht.
Originally posted by Exxtreme
Dann braucht sie aber ein AGP-Pro-konformes Motherboard. Und AFAIK ist in der kleinsten AGP-Pro-Spezifikation kein zweiter Slot vorgesehen.
Jetzt zeig mir wal, wo geschrieben stehen soll, dass eine AGP-Pro Karte einen AGP-Pro Slot nutzen muss.
Und doch, AGP-Pro 50 sieht 2 Slots vor.
Exxtreme
2002-11-19, 10:03:39
Daß eine AGP-Pro-GraKa einen zweiten Slot braucht, habe ich niemals behauptet. ;)
Und AFAIK gibt es auch noch etwas Kleineres als AGP-Pro-50. Mein ASUS A7V133 ist AGP-Pro-konform, hat aber keinen zweiten Slot.
Originally posted by ow
Jetzt zeig mir wal, wo geschrieben stehen soll, dass eine AGP-Pro Karte einen AGP-Pro Slot nutzen muss.
Und doch, AGP-Pro 50 sieht 2 Slots vor.
Radeonator
2002-11-19, 10:14:31
Stimmt, da fast alle Profi Karten min 2 Slots belegen und meist auch externe Stromversorgung haben.(Wildcat modelle etc.)
@Exxtreme
Nein, ich meine keinen 2. AGP Slot, sondern den einen AGP- + danebenliegenden PCI-Slot (vielleicht sollte man besser Steckplaetze sagen:D).
Auch bei AGP-Pro (nach AGP2.0) gibt es nur einen AGP-Slot.
2 AGP Slots sind erst ab AGP 3.0 moeglich.
Wie die Slots dann angeordnet sind, ist eine andere Frage, 2 AGP-Pro 110 SLots duerfen immerhin 6(!) Steckplaetze belegen.
Quasar
2002-11-19, 11:18:10
BTW, es gibt auch durchaus AGP-pro Karten, die die "erlaubten" PCI-Slot nutzen, um darüber ihre Stromversorgung sicherzustellen....
StefanV
2002-11-19, 11:20:00
Originally posted by Quasar
Ist das so?
Sieht nicht so aus, als ob es eine wäre, oder?
StefanV
2002-11-19, 11:22:45
Originally posted by Exxtreme
Daß eine AGP-Pro-GraKa einen zweiten Slot braucht, habe ich niemals behauptet. ;)
Und AFAIK gibt es auch noch etwas Kleineres als AGP-Pro-50. Mein ASUS A7V133 ist AGP-Pro-konform, hat aber keinen zweiten Slot.
der 2. Slot wäre der PCI Slot darunter ;)
BTW:
Alle neueren ASUS Boards haben AFAIK einen AGP PRO Slot und auch Gigabyte und Soyo haben die mal zeitweise eingesetzt.
StefanV
2002-11-19, 11:24:55
Originally posted by Quasar
BTW, es gibt auch durchaus AGP-pro Karten, die die "erlaubten" PCI-Slot nutzen, um darüber ihre Stromversorgung sicherzustellen....
Jo, z.B. einige Modelle von 3DLabs, E&S...
Mischler
2002-11-19, 13:35:43
Laut nvidia wird die GeForceFX KEINEN PCI Slot blockieren. Dies war nur bei der Karte die auf der Comdex praesentiert wurde der Fall.Die fertigen Exemplare werden wieder eine flachere Kuehlung haben.
Christian
Also doch alles nur Show?
Ich frage mich, wen die mit dem Kuehler den verschrecken wollten..:|:D
Lost Prophet
2002-11-19, 14:12:33
Originally posted by Razor
So, nun mal 'meine' Sammlung an Info's zu dem NV30...
(aus - wie schon geschrieben - 6 oder 7 Previews ;-)
AGP 8x (3.0)
125 mio transistors @ 0.13 micron
target GPU-frequency @ 500MHz in a FlipChip package
500MHz DDR2 (i.e. 1GHz effective) with 128-bit CBMC @ 4x32-bit
full 128-bit precision pxel processing with 8 pipelines and maybe 1 TMU per pipeline (not discovered for now)
8 pixels per clock cycle / 16 texels per pixel per pass (without touching the frame buffer)
1 (!) Vertex-Shader with an 32 parallel working processor array
Was sich doch schon mal ganz gut anhört...
;-)
DX9: Vertex-/Pixel-Shader 2.0+
Two FloatingPoint-Modes: FP16/FP32 (64-bit/128-bit)
(dynamic change between this modes within same shader program)
Three ColorModes: 32/64/128-bit (R300 only 32-bit)
DigitalVibranceControl 3.0 (also auch für 2D/GUI !)
Intellisample technology (siehe unten)
Auch nicht schlecht, gell ?
(ist übringes alles frei übersetzt und kann somit von mir eingebrachte Fehler enthalten ;-)
Auch soll der Chip nunmehr Technologie enthalten, die für den Next-Gen Chip von 3dfx vorgesehen war und auf den klangvollen Namen 'Fusion' hört !
Intellisample
(intelligente Samples ?)
color compression 4:1 in hardware
fast color clear in hardware
Z-compression in hardware (R300-like ;-)
fast Z-clear in hardware
dynamic gamma correction
choosable (!) adaptive texture filtering
(dynamic per pixel texel and filter level selection and also traditional filtering)
FSAA-modes: 2x, 2xQ, 4x, 4xS (D3D), 6x, 6xS (D3D), 8x
(no word on sample positions, but 2x modes, maybe 4x, should be 'for free' ;-)
Antialiasing:
Soll in etwa die gleichen Performance-Vorteile, wie das FAA von Matrox haben. Da es aber in Hardware und für die Anwendung 'unsichtbar' arbeitet, wird es so wohl zu keinerlei Kompatibilitätsproblemen kommen, wie bei der Matrox-Lösung. Auch wurde gesagt, dass 'some modes', also 'einige Modi' aufgrund dieser Architektur 'for free', also ohne Perofrmance-Verlust zugeschaltet werden können. 'some' meint schon mal mehr als einen (*binsenweißheit* ;-) und meint dann vermutlich die beiden 2xModes, evtl. aber auch den 4xModus (beim 4xS-Modus glaube ich nicht an ein 'for free' !).
Auch wird darüber geschrieben, dass aufgrund der 4:1 color compression hier eine durchschnittliche (!) Bandbreite von 48GB/s (i.e. ca. 3x reale 16MB/s Bandbreite) erzielt werden kann. Na ja, echte Benchmarks werden das zeigen müssen...
Texture Filtering:
Hier sollen sowohl die traditionelle Filterung (gf3/4-like), als auch eine adaptive Filerung (r300-like) implementiert sein. Allerdings soll die adaptive Filterung im NV30 effizienter arbeiten (?) und dabei auch ein besseres Ergebnis liefern, als die von ATI implementierte 90°-Lösung...
Ist aber noch rein spekulativ, was sowohl die Performance, als auch die Qualität dieser neuen Filter angeht. Sehr gut finde ich, dass man die Wahl hat, auch noch die 'alten', traditionell arbeitenden Filter wählen zu können, die aber wohl Performance-Seitig keinesfalls vergleichbar sein dürften.
-
So, das war's erst einmal (fast ;-) !
Zu erwähnen wäre noch, dass nVidia das 'FX cool' (also den 'Monster-Kühler') nicht bei den beiden andern Firmen lizensiert hat (OTES und den 2. hab' ich vergessen), insofern hier wohl ein eigenes Patent angewendet wird.
Ich persönlich finde diese Art der Kühlung sehr gut, da es
a) die Geräuschkulisse herunter schrauben sollte (was aber schon dementiert wurde, von Personen, die das Ding 'live' in Aktion gesehen, vor allem aber gehört haben) und
(was ich sehr viel wichtiger finde !)
b) endlich die Abwärme der GraKa nicht ins Gehäuse geblasen wird, sondern endlich dahin, wo sie hin gehört, nämlich nach draußen ! Fand ich bei der OTES-Lösung schon unheimlich klasse...
Nun ja, negativ finde ich auf jeden Fall den externen Stromanschluß, was wohl dazu führen dürfte, das ich mir dann wohl mit dem NV30 auch gleich ein neues Netzteil zulegen werden muss. Ich hab' mich ja zu dem Thema schon bei der R300 ausgelassen und kann dies für den NV30 nur wiederholen ! Aber es ist kein KO-Kriterium (was es auch bei der ATI-Karte nicht war), aber ein Wehrmutstropfen. Insofern darf man hier dem NV30 das gleiche Bescheinigen, wie auch dem R300: brutalste Gewalt !
-
Na ja, letztlich zählt was hinten raus kommt (und damit meine ich nicht die heiße Luft aus dem OTES-Kühlsystem ;-) und das werden wir dann ja wohl mitte Dezember sehen dürfen. Viele Previewer haben schon bestätigt von nVidia eine Zusage erhalten zu haben, ein Testsample dann zu diesem Zeitpunkt zu erhalten.
Und ja, der Auslieferungstermin scheint sich auf Februar 2003 zu konkretisieren, wobei wohl erste Modelle schon Januar zu haben sein werden, aber eben nicht in Massen.
Also dann, warten wir auf mitte Dezember !
Und hoffentlich werden wir bis dahin auch etwas mehr über die internen Arbeitsweisen, insbesondere der FSAA-Modi und der Filter erhalten.
Bis denne
Razor
P.S.: viele Preview-Links sind u.a. auf www.3dgpu.com zu finden.
Und zum Abschluß noch ein paar kleine Bildchen:
(ich find' den Kühler einfach 'cool' ;-)
http://mitglied.lycos.de/razor3dc/geforcefx/geforcefxboard_small.jpg
http://mitglied.lycos.de/razor3dc/geforcefx/geforcefxboard0_mod2.png
http://mitglied.lycos.de/razor3dc/geforcefx/geforcefxboard0a1.jpg
Sagt mal, findet Ihr auch den Prozessor-Lüfter (CPU !) so niedlich, wie ich es tue ?
Monster-Kühler für die GraKa, aber ein 'Mini' für die CPU !
:D
also dass der r 300 nur 32 bit beherrscht ist eine lüge oder??
hat da wirklich jeder drübergelesen??
oder irre ich mich da irgendwo
AFAIK kann der r300 96 bit Farbtiefe
cya axel
Radeonator
2002-11-19, 14:24:22
eben, soviel dazu ;)
Nur lustig das alles was man an der R300 bemängelte super toll ist, wenns von NV kommt ;D
Originally posted by Radeonator
eben, soviel dazu ;)
Nur lustig das alles was man an der R300 bemängelte super toll ist, wenns von NV kommt ;D
Ist mir auch aufgefallen, also der bisher hier gezeigte Kühler wäre für mich ein KO-Kriterium.
Originally posted by Purple_Stain
also dass der r 300 nur 32 bit beherrscht ist eine lüge oder??
hat da wirklich jeder drübergelesen??
oder irre ich mich da irgendwo
AFAIK kann der r300 96 bit Farbtiefe
cya axel
Ist es das??
Lost Prophet
2002-11-19, 14:48:37
Originally posted by ow
Ist es das??
ich weiß nicht was ich mit dieser netten tabelle anfangen soll ( höchst wahscheinl. von nv, der r300 dezent in rot gehalten, ist ja der feind, der nv30 in grün weil bei dem "geht ja alles", und dx 8 was letzte generation noch sagen wir mal so : " das grünste" gewesen wäre, ist in neutralem weiß, da man ja selbst damit gearbeitet hat)
so imho wieder spricht sich das ganze selbst, bei max precision ( man kann nicht genau sagen ob das eine überschrift ist oder die werte links davon definiert) steht bei r300 96
bei 64 bit aber " - ", meiner meinung nach ist 64 kleiner als 96 aber soviel dazu.
das einzige was ich dazu sagen kann ist
respect @ pr-management von nv
cya axel
Rampage
2002-11-19, 15:04:48
Originally posted by Purple_Stain
ich weiß nicht was ich mit dieser netten tabelle anfangen soll ( höchst wahscheinl. von nv, der r300 dezent in rot gehalten, ist ja der feind, der nv30 in grün weil bei dem "geht ja alles", und dx 8 was letzte generation noch sagen wir mal so : " das grünste" gewesen wäre, ist in neutralem weiß, da man ja selbst damit gearbeitet hat)
Das sind die Firmenfarben
Ati = Rot
nVidia = Grün
DX8 = hat keine Farbe
Nicht aus einer Mücke einen Elefanten machen ;D
Demirug
2002-11-19, 15:05:25
ja die Tabele ist sehr geschickt vom Marketing gemacht und das schöne daran ist das man NVIDIA hier noch nicht mal vorwerfen kann das sie lügen.
Das ganze kommt folgendermassen zustande:
max precision gibt an mit welcher maximalen Genauigkeit der Chip rechnen kann. Die Spalten darunter geben dann an welche Rechenmodies unterstützt werden.
Wenn man es ganz genau nimmt hätte die Tabelle so aussehen sollen:
DX8 R300 CineFX
Max Precision: 32 96 128
32-bit X X X
64-bit - - X
96-bit - X -
128-bit - - X
Format Int FP FP
Es geht also darum welche Rechengenauigkeiten in den PS zur verfügung stehen.
Unregistered
2002-11-19, 15:10:35
Originally posted by Demirug
ja die Tabele ist sehr geschickt vom Marketing gemacht und das schöne daran ist das man NVIDIA hier noch nicht mal vorwerfen kann das sie lügen.
Das ganze kommt folgendermassen zustande:
max precision gibt an mit welcher maximalen Genauigkeit der Chip rechnen kann. Die Spalten darunter geben dann an welche Rechenmodies unterstützt werden.
Wenn man es ganz genau nimmt hätte die Tabelle so aussehen sollen:
DX8 R300 CineFX
Max Precision: 32 96 128
32-bit X X X
64-bit - - X
96-bit - X -
128-bit - - X
Format Int FP FP
Es geht also darum welche Rechengenauigkeiten in den PS zur verfügung stehen.
heißt das das der r300 kein 64 bit beherrscht?? ?? ?? ?? ??
cya axel
Purple_stain
2002-11-19, 15:11:15
keksprobs
Originally posted by Unregistered
heißt das das der r300 kein 64 bit beherrscht?? ?? ?? ?? ??
cya axel
Genau das heisst das wohl.
Radeonator
2002-11-19, 15:13:30
oder disrespect an alle Leute die ein Paar Excel Tabellen und anderes PR Material als Fakt darstellen ;)
Ich kann hier nur zur Geduld mahnen, den entweder die Karte wird der Oberhammer oder "nothing special". Wie immer halt :D so gilt dies auch für NV
Demirug
2002-11-19, 15:16:54
Originally posted by Unregistered
heißt das das der r300 kein 64 bit beherrscht?? ?? ?? ?? ??
cya axel
ja der R300 rechnet intern alles mit 96 bit. Es entspricht der Mindestanforderung für DX9 Karten. Die NV30 hat den kleinen Vorteil das man durch entsprechende Hinweise im Shaderprogramm einzelne Anweisungen mit reduzierter Genauigkeit (64 bit) Rechnen lassen kann und dadurch ein Zugewinn an Geschwindigkeit möglich ist. Der R300 ignoriert diese Hinweise im Shaderprogramm einfach.
Der NV30 kann also 64 und 128Bit Praezision mischen (stand so auf THG).
nggalai
2002-11-19, 15:43:11
Hola,
Wavey hat das Interview mit Geoff Ballew fertig abgetippt:
http://www.beyond3d.com/previews/nvidia/nv30launch
Hat einige interessante Sachen drin, z.B. zu "TMUs", FSAA etc.
ta,
-Sascha.rb
Endorphine
2002-11-19, 16:45:18
<offtopic>
Irgendwie sollte man hier allen Leuten, die eine 9700(/Pro) haben verbieten, hier zu posten. Bei denen kommt nur Müll aus den Fingern. Habe den ganzen Thread mit Interesse durchgelesen, aber bei den dummen Flamepostings mancher scheinbar in der Ehre gekränkter ATI-Freaks ist mir regelmässig der Hut hochgegangen.
Kann mir mal jemand sagen, was das soll`? Ich finde es auch herrlich, schon an der Signatur bzw. am Avatar ablesen zu können, was das Posting denn für einen Inhalt haben wird. Sobald [ATI] und/oder [9700] darin vorkommen, lässt der betreffende Autor nur Flame-Müll los.
Können manche hier nich mal fair und vor allem vorbehalts- und vorurteilsfrei posten? Immer diese überzogenen Emotionalitäten. Es geht hier nicht darum, die Eigner von ATI-Grafikkarten runterzumachen, sondern um die Technik einer neuen Grafikkarten/Grafikchipgeneration zu diskutieren.
Da muss man nicht gleich rot sehen und alles schlecht reden, nur weil man eine andere Firma favorisiert. Hoffentlich liest der Mod das und geht in Zukunft etwas härter mit den Flame-Kollegen um.
</offtopic>
Was ich an der GeForce FX seltsam finde, ist das Kühlsystem. Wer hat sich das nur ausgedacht? Ich verstehe nicht, wieso die Kühlerentwickler immer noch nichts gelernt haben... Auf den GPU-Kern gehören solide Kühlrippen, die die Hitze sofort dort ableiten/verteilen und an die Umgebungsluft abführen. Das ist auch überall sonst in der Elektronik üblich. Wieso sitzt der Radiallüfter nicht rechts neben der GPU und bläst Kühlrippen an, die direkt auf dem GPU-Kern sitzen? Stattdessen wird höchst umständlich und teuer eine Heatpipe hergenommen und die Kühlrippen werden irgendwo oben an den Rand verbannt.
Dabei könnte man das Ansaugen von Külluft durch den Radiallüfter auch durchaus in meiner Version verwirklichen. Luftausstoss ist auch möglich. Und man würde auch noch teures Material sparen, die Heatpipe würde ebenfalls entfallen.
Aber wenigstens ein Schritt in die richtige Richtung. Bis zum R300 mussten ja selbst Grafikchips mit bis zu 50W Verlustleistung mit einem kleinen Kühlblech mit ein paar Zacken am Rand auskommen, auf dem zu allem Unglück auch noch ein winziger Quirl in der Mitte direkt auf dem GPU-Kern sitzt. Vielleicht setzt ja mit der GF-FX endlich ein Umdenken ein.
Das Argument mit der Standardkonformität ist auch an den Haaren herbeigezogen. Auch bei den aktuellen schnellen Grafikkarten muss man den Slot neben der Grafikkarte freilassen, weil der Kühler bis auf 1-2mm an die Platine der nächten Karte heranragt und dort möglicherweise bei Pins ungewollte elektrisch leitende Verbindungen schafft. Und dass damit auch der Lüfter wirkungslos wird, weil der dann weder grossartig Luft ansaugen noch ausstossen kann, ist auch klar...
Standardkonformität ja, aber man muss Standards nun nicht als Mittel nehmen, um krampfhaft mögliche Schwachpunkte einer neuen Grafikkarte an den Haaren herbeizuziehen (siehe offtopic - oben).
Die Spannungsreglerspeisung über den HDD-Stecker halte ich für sehr vorteilhaft. Das ist in jedem Falle im Sinne des Kunden, da dadurch die Kompatibilität zu den Mainboards angehoben wird.
Und zum Preis: es ist nur normal und auch sinnvoll, dass das aktuell leistungsfähigste und aufwendigste auch entsprechendes Geld kostet. Die 9700 Pro ist auch kein Sonderangebot. Die GF4Ti 4600 auch nicht, die GF3 Ti500 war's auch nicht, die 8500 ebenfalls... Und so weiter. Ende nächsten Jahres bekommt man die GF-FX dann wieder für 150 € bei eBay nachgeworfen.
Hat schon jemand genaueres zur AA-Leistung? Ich kann es irgendwie nicht so recht glauben, dass die GF-FX mit geringerer Speicherbandbreite als die 9700 Pro bei AA schneller sein soll. Selbst mit einer möglicherweise effizienteren LMA-3.
Leonidas
2002-11-19, 17:14:00
edit: Meine Frage hat sich erledigt.
zeckensack
2002-11-19, 17:14:36
Originally posted by ow
Wieviel Boards mit AGP-Pro kennst du denn??
Und als AGP-Pro waeren die 2 Slots akzeptabel? Sorry, aber da kann ich deiner Argumentation gar nicht folgen. AGP 'normal' erlaubt 'einfache Bauhöhe' und ~42 Watt.
AGP Pro55 oder wie das heißt erlaubt ausdrücklick 'doppelte Bauhöhe' und 55 Watt *
AGP Pro110 erlaubt 'dreifache Bauhöhe' und 110 Watt *
*über den AGP-Stecker, der dafür auch ein paar Kontakte mehr hat
Gibt's bei Intel als pdf. Ich glaube ehrlich gesagt nicht, daß da was von doppelt hohen AGP-non-Pro-Karten drinsteht, aber werde gern nochmal nachsehen.
frag_evil
2002-11-19, 17:16:47
Originally posted by Endorphine
Können manche hier nich mal fair und vor allem vorbehalts- und vorurteilsfrei posten?
Aber gut, dass du frei von Vorurteilen bist. Z.B. hier:
finde es auch herrlich, schon an der Signatur bzw. am Avatar ablesen zu können, was das Posting denn für einen Inhalt haben wird. Sobald [ATI] und/oder [9700] darin vorkommen, lässt der betreffende Autor nur Flame-Müll los.
(Radeon9700 in der Sig -------> Ati-Fanboy, der nur flamen will)
:bonk:
;)
Endorphine
2002-11-19, 17:34:59
Originally posted by frag_evil
(Radeon9700 in der Sig -------> Ati-Fanboy, der nur flamen will)
:bonk:
;)
Ich wollte mit dem Satz nicht verallgemeinern. Mich haben nur manche Postings aufgeregt, die scheinbar bewusst nur Stunk stiften sollten. Und die Autorenschaft setzte sich zu einem erstaunlich hohen Prozentsatz entweder aus 9700-Besitzern oder ATI-Avatar Trägern zusammen ;)
Zum Glück haben sich die Gemüter wieder etwas beruhigt und der Thread ist wieder zur Technik zurückgekommen :)
Schade, dass niemand Informationen zur AA-Leistung der GF-FX hat. Also auch technische Hintergründe, warum nVidia angibt, dass es AA angeblich praktisch ohne Leistungsverlust geben soll. Das erscheint mir alles andere als logisch, erst recht unter Berücksichtigung der schon theoretisch nicht sonderlich grossen Speicherbandbreite, auch LMA-3 wird da keine Wunder vollbringen IMO, auch der geringere Verschnitt durch die 32-Bit Segmentierung nicht.
Weiss jemand mehr zur AA-Leistung und Hintergründen?
frag_evil
2002-11-19, 17:39:40
Hier nochmal was zum AA des NV30
(kA, ob es was neues ist)
Ist ein Auszug aus dem Interview von beyon3d:
_______________________________________________
The documentation made note of an 8X FSAA mode, how is this achieved and is it it Multi-sampling?
The 6XS and 8X modes are a combination of Super-Sampling and Multi-sampling.
On GeForce4 there was a total of 4 Z units per pipeline, which enabled you to output 4 MSAA samples per pipe per clock, is this still the same for GeForce FX?
Yes it is.
Are they still the sort of ordered grid sampling schemes that we've seen on GeForce4 or does GeForce FX have any jittered / programmable grids?
The 6XS is a skewed grid, the 8X mode is an ordered grid.
Höhnangst
2002-11-19, 18:01:44
Originally posted by frag_evil
The 6XS is a skewed grid, the 8X mode is an ordered grid.
Das lässt hoffen =).
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.