PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 9: 9800GTX und GX2


Seiten : 1 [2] 3 4

Gast
2008-01-03, 15:10:20
IMHO spricht das alles sehr dafür, dass uns G92 doch noch länger erhalten bleibt. Ich tippe weiterhin auf irgendwann im H2 08, wenn dann endlich der neue "Über-Chip" mit 2-3x GTX-Performance kommt (D9E? G200? G100 kommt ja wohl erst 2009-2010 mit DX11).


Ich glaube keiner hat die Spekus von Ailuros gelesen oder nimmt sie ernst. Für Q3-Q4 2008 ist G100 geplant/angedacht. G200 wird vermutlich der DX11 Chip. Es musste einfach eine Generation reingeschoben werden, da MS und die Entwickler sich mit DX11 mehr Zeit lassen, sprich Ende 2009 evtl DX11.

Außerdem ist es nicht 2-3x GTX-Performance sondern "nur" die Arithmetische Leistung die gesteigert wird. Wer glaubt denn bitte das man die brachiale TMU Power einer GTX noch weiter ausbauen muss...

Eine 9800GTX kommt vermutlich zu Ostern, ein wenig schneller in hohen Auflösungen als eine Ultra und hier und da ein paar Bugfixes bzw. ein neuer Videoprozessor.

nomadhunter
2008-01-03, 15:16:12
Meine GTS 512 erreicht schon 746 TFlops. Wenn sich die ALUs auf 2,5 GHz takten lassen, dann hätten wir schon Near-1-TFlop. In diesem Chip steckt IMO noch einiges mehr drinnen.
Wenn man G92 nochmal refresht und etwas an den ALUs arbeitet halte ich das für gut möglich. Der Vergleich mit Übertaktungsergebnisse ist aber nicht gut, immerhin verkauft niemand einen Chip am absoluten Limit. Ein G92, der von NV mit 2,5GHz@default verkauft wird, dürfte sich ja auch noch mal übertakten lassen (mit entsprechender Kühlung wohl knapp 3 GHz), und das traue ich dem jetzigen G92 bei Leibe nicht zu.

Und ich bezweifle, dass sich NV die Mühe eines nochmaligen Refreshes macht (ist ja auch nicht ganz billig). NV hat am G80 über ein Jahr lang nichts gemacht und bringt dann nur einen schnell hingeklatschten Refresh (G92), nicht anders sieht es beim G84 aus, der selber schon keine große Entwicklungsleistung war (man nehme G80 und teile ihn durch 4 bzw. ROPs/SI durch 3), und nach fast einem Jahr ebenso lieblos durch einen abgespeckten G92 ersetzt wird. Nebenbei eröffnet man eine neue Reihe (GF9), die der gegenüber der alten Reihe vermutlich kein einziges neues Feature bieten wird.

Wieso sollte man jetzt plötzlich Entwicklungsarbeit in einen Kurzzeit-Refresh stecken, wenn man es die letzten ~15 Monate nicht für nötig gehalten hat, irgendwas an der G80-Architektur rumzuschrauben? Wegen RV670 wohl kaum. Den hat man doch mit G92 von oben und der 9600 von unten gut im Griff und im High-End ist keine Konkurrenz in Sicht (3870 X2 hat man mit irgendeiner schnell hingeklatschten GX2 locker im Griff). Für mich sieht es momentan so aus, als würde NV einfach so lange es noch geht mit der fast unveränderten G80-Architektur Geld machen und erst im H2 08, wenn G80/G92/D9P/... einfach nicht mehr reichen, wieder einen richtig neuen Chip bringen, der wie G80 damals alles in den Schatten stellt und wieder für >1 Jahr die Performance-Krone innehält. Ob der jetzt D9E, D10E, G100 oder G200 heißt ist eigentlich egal.

Godmode
2008-01-03, 15:56:46
Wenn man G92 nochmal refresht und etwas an den ALUs arbeitet halte ich das für gut möglich. Der Vergleich mit Übertaktungsergebnisse ist aber nicht gut, immerhin verkauft niemand einen Chip am absoluten Limit. Ein G92, der von NV mit 2,5GHz@default verkauft wird, dürfte sich ja auch noch mal übertakten lassen (mit entsprechender Kühlung wohl knapp 3 GHz), und das traue ich dem jetzigen G92 bei Leibe nicht zu.


Da muss ich dir natürlich Recht geben, das habe ich nicht bedacht. Es bleibt also weiterhin spannend.

Gast
2008-01-03, 16:19:38
Das hat doch rein gar nichts mit DX9 vs. DX10 zu tun, sonder man sieht einfach unterschiedliche Einstellungen. Das was angeblich DX10 war kann bestimmt genauso unter DX9 dargestellt werden. Fall doch nicht auf diesen Marketing-Scheiß rein :rolleyes:

natürlich wäre das auch in Dx9 möglich, bloss würde es noch schlechter rennen wie Crysis schon in DX10 rennt ;)

maddawn
2008-01-03, 16:53:46
Hm ich habe echt gehofft das die 9er Serie DX10.1 und vor allem eine Stromsparfunktion mitbringt. Bei den Daten auf Der Folie frage ich mich warum NVidia die G92 8800 GT(S) nicht schon als 9er Serie verkauft hat.

robbitop
2008-01-03, 17:02:13
sry dann musst du dir wohl ne Brille kaufen ;)

http://www.looki.de/video/crysis_dx9_vs_dx10_hunter_video_635.html
Das ist aber nicht DX9 highest sondern maximal high. Vermutlich sogar weniger. Marketing ist was feines.

LovesuckZ
2008-01-03, 17:05:48
Hm ich habe echt gehofft das die 9er Serie DX10.1 und vor allem eine Stromsparfunktion mitbringt. Bei den Daten auf Der Folie frage ich mich warum NVidia die G92 8800 GT(S) nicht schon als 9er Serie verkauft hat.

Die 9600GT wird wohl nicht mehr Strom benötigen wie die 8600GTS und ist somit unter Last stromsparender als die 3850. Und im IDLE Modus wird man keinen Unterschied feststellen, da die Karte mit 500Mhz sogar noch niedriger taktet als die 8600GT.

Grestorn
2008-01-03, 17:10:23
Das ist aber nicht DX9 highest sondern maximal high. Vermutlich sogar weniger. Marketing ist was feines.

Nun, da DX9 die "DX10" Effekte zwar kann, aber nicht in einer spielbaren Performance, kann ich die Entscheidung "Very High" auf DX9 nicht anzubieten schon sehr gut verstehen.

Man sieht ja den Effekt: Überall wird Crysis gebasht, weil es so langsam laufen würde. Hätte es nie eine Einstellung überhalb von "Medium" gegeben (die dann natürlich "High" heißen würde), dann hätte sich auch niemand aufgeregt.

Wie mans macht ist es verkehrt. "Very High" für DX10 ist ein Schmankerl, für das selbst 8800 Ultra SLI Systeme heute noch nicht wirklich geeignet sind. Na und? Ich sehe da nichts verwerfliches.

robbitop
2008-01-03, 17:18:00
Nun, da DX9 die "DX10" Effekte zwar kann, aber nicht in einer spielbaren Performance, kann ich die Entscheidung "Very High" auf DX9 nicht anzubieten schon sehr gut verstehen.

Das war anscheinend beinahe eine pure Marketingentscheidung. Die Effekte werden in diesem Falle mit D3D9 genausoschnell umgesetzt, wie mit D3D10.
Wenn man Effekte wirklich schneller machen möchte mit Hilfe von D3D10, muss die Engine sauber dafür ausgelegt sein und nicht so ein Mischmasch. Dazu fehlt jedoch die HW-Basis.
Bis wir die Vorteile von D3D10 sehen, vergehen noch Jahre und D3D11 Hardware wird dann vermutlich schon am Markt sein.

Grestorn
2008-01-03, 17:21:30
Das war anscheinend beinahe eine pure Marketingentscheidung. Die Effekte werden in diesem Falle mit D3D9 genausoschnell umgesetzt, wie mit D3D10.

Ich weiß nicht. Dazu war es zu einfach, die Einstellungen in DX9 nachzuziehen. CryTek weiß genau, wie schnell alle Einstellungen ihrer Spiele in der Öffentlichkeit herumgehen. Das war bei FarCry ja schon so.

Außerdem ist deren Engine ja geradezu dazu gemacht, alles mögliche zu konfigurieren. Und auch die Tatsache, dass alle "Very High" Shader bei DX9 implementiert sind, spricht gegen eine bewusste Marketingentscheidung. Dann hätte man die Shader auch noch entfernt.

robbitop
2008-01-03, 17:28:57
Es gab eventuell Order von EA. Keine Ahnung. Jedenfalls ist's genauso schnell.
Die Engine ist super, aber wegen der Rückwärtskompatibilität werden Engines, die D3D10 richtig nutzen noch eine ganze Weile dauern. In 2 Jahren vieleicht.

Ailuros
2008-01-03, 18:18:41
Ich glaube keiner hat die Spekus von Ailuros gelesen oder nimmt sie ernst. Für Q3-Q4 2008 ist G100 geplant/angedacht. G200 wird vermutlich der DX11 Chip. Es musste einfach eine Generation reingeschoben werden, da MS und die Entwickler sich mit DX11 mehr Zeit lassen, sprich Ende 2009 evtl DX11.

Die alte roadmap hatte folgendes:

G90 (G8x Refresh)
G200 = D3D10.1
G100 = D3D11

Es kommt in kurzer Zeit ein high end Refresh und irgendwo in H2 dann ein ziemlich fetter chip der eigentlich nur der original geplante G200 sein koennte. Es wuerde mich sehr wundern wenn NVIDIA irgendwo 2 Jahre vor der D3D11 Vorstellung einen komplianten chip veroeffentlicht; ausschliessen werde ich es natuerlich nicht, aber es waere doch klueger die dementsprechenden Transistoren fuer 11 eher in Leistung zu investieren.

Außerdem ist es nicht 2-3x GTX-Performance sondern "nur" die Arithmetische Leistung die gesteigert wird. Wer glaubt denn bitte das man die brachiale TMU Power einer GTX noch weiter ausbauen muss...

8800GTX=
32 TA/64 TF @575
518GFLOPs
6*64

8800GTS 512=
64 TA/64 TF @650
624GFLOPs
4*64


Eine 9800GTX kommt vermutlich zu Ostern, ein wenig schneller in hohen Auflösungen als eine Ultra und hier und da ein paar Bugfixes bzw. ein neuer Videoprozessor.

Tja wenn Du das obrige etwas vorsichtiger ueberdenkst, wirst Du vielleicht sehen dass Du im zweiten Paragraphen ein paar Kleinigkeiten uebersehen hast.

Ailuros
2008-01-03, 19:05:26
http://www.dailytech.com/article.aspx?newsid=10218

LovesuckZ
2008-01-03, 19:09:38
NVIDIA publicly confirmed other details of D9M: DirectX 10.1 support, Shader Model 4.0, OpenGL 2.1 and PCIe 2.0 support just to name a few.


Mal hö, mal hop?

Ailuros
2008-01-03, 19:11:13
http://i189.photobucket.com/albums/z315/CHWREVIEWS/9600GT/9600GT.jpg

AnarchX
2008-01-03, 19:11:47
D9M?(D8M is ja eher eine absolute Low-End-Lösung). :| Naja, diesen ganzen Codenamen sind wohl nur da um Verwirrung zu stiften...

Aber D3D10.1 soll laut DT wohl doch unterstützt werden. edit: Wohl doch nur ein Schreibfehler.

Ailuros
2008-01-03, 19:14:09
D9M? Naja, diesen ganzen Codenamen sind wohl nur da um Verwirrung zu stiften...

Aber D3D10.1 soll laut DT wohl doch unterstützt werden. edit: Wohl doch nur ein Schreibfehler.

Wie kann man gleichzeitig 10.1 und nur SM4.0 unterstuetzen?

GeneralHanno
2008-01-03, 19:15:46
die texfüllrate wüde exakt auf 4 cluster (32 TMU / 32 TAU) passen !

Moralelastix
2008-01-03, 19:16:51
"Further documentation from NVIDIA claims the 9600 GT will also support the Quantum Effects physics processing engine. "

Was zum Henker soll denn das sein?

GPU Physik is doch tot?

Ailuros
2008-01-03, 19:18:08
die texfüllrate wüde exakt auf 4 cluster (32 TMU / 32 TAU) passen !

Hat das jemand bezweifelt? Nur eine weitere Bestaetigung fuer den Gast oben, der zweifelt dass sich die Fuellraten nicht weiterhin steigern werden. Im Vergleich zur Mainstream GPU ist die Fuellrate doppelt so hoch.

GeneralHanno
2008-01-03, 19:27:29
Ich wollte damit nur sagen, dass die gerühte um 4 cluster (in G92 bzw. G84 manier) wohl stimmen.

AnarchX
2008-01-03, 19:48:03
Da ROP-Power/Bandbreite und Speichermenge gleich sind, kann man eigentlich sehr gut von der 8800 GT herunterrechnen: 8800 GT * ~0,62 = 9600GT. Vorrausgesetzt es gab keine größeren Veränderung, z.B. andere SPs, was ich aber bezweifele, wenn nicht mal D3D10.1 unterstützt werden soll.

Also wird wohl im Durchschnitt etwa 3850-Performance herauskommen bzw. leicht darunter, wenn man diverse Benchmarks betrachtet.

Aber warum gerade 9600GT?:|
8700GTS wäre imo passender und eine freie Bezeichnung, aber NV wollte wohl den Kunden auch suggerieren, dass sie eine neue Serie bieten, wie AMD mit der HD3000.
Wobei 9600GT vs 3850 doch etwas seltsam anmutet.

mapel110
2008-01-03, 19:50:54
Aber warum gerade 9600GT?:|
8700GTS wäre imo passender und eine freie Bezeichnung, aber NV wollte wohl den Kunden auch suggerieren, dass sie eine neue Serie bieten, wie AMD mit der HD3000.
Wobei 9600GT vs 3850 doch etwas seltsam anmutet.

Von ATI kommen auch noch kleinere Modelle und gegen diese richtet sich wohl die 9600 GT. Halt Ersatz der 8600 GT.

laser114
2008-01-03, 19:52:02
Von ATI kommen auch noch kleinere Modelle und gegen diese richtet sich wohl die 9600 GT. Halt Ersatz der 8600 GT.

Bei 4 Cluster @ 65 nm eher nicht, dafür dürfte der RV635 viel zu klein sein (aber auch entsprechend leistungsschwächer).

Nakai
2008-01-03, 19:54:17
Von ATI kommen auch noch kleinere Modelle und gegen diese richtet sich wohl die 9600 GT. Halt Ersatz der 8600 GT.

Die 9600GT sollte ohne Probleme die HD3600 übertreffen.

ATI sagte, dass die HD3800-Serie die HD2600-Serie ersetzen wird.


mfg Nakai

AnarchX
2008-01-03, 19:55:36
Es gäbe ja noch die HD3830, welche laut AMD aber OEM-exklusiv sein soll bzw. laut anderen, neueren Infos auf RV635XT basieren soll(da hätte man auf beiden Seiten dämliche Bezeichnungen X-D).

LovesuckZ
2008-01-03, 19:55:53
für eine geshrinkte 2600XT würde auch locker ein G84 reichen, der dann sogar noch kleiner wäre.
nVidia hat es eben dadurch schwer, dass AMD hier den gleichen Weg wie im CPU Markt geht: Preisverfall und somit weniger Margen für alle Marktteilnehmer.

laser114
2008-01-03, 20:18:07
für eine geshrinkte 2600XT würde auch locker ein G84 reichen, der dann sogar noch kleiner wäre.

RV630 ist grade 143 mm² groß; G84 ist da mit 169 mm² schon größer. Leistungsmäßig reicht der aber locker aus; insofern wird Nvidia wohl wahrscheinlich den G84 zum G96 shrinken (so stand es ja auch mal in einem Gerücht), und den dann gegen RV635 antreten lassen.

Es gäbe ja noch die HD3830, welche laut AMD aber OEM-exklusiv sein soll bzw. laut anderen, neueren Infos auf RV635XT basieren soll(da hätte man auf beiden Seiten dämliche Bezeichnungen X-D).

Für mich mach mit dem Namen ein defekter RV670 mehr Sinn.

Hvoralek
2008-01-03, 20:43:59
RV630 ist grade 143 mm² groß; G84 ist da mit 169 mm² schon größer. Leistungsmäßig reicht der aber locker aus; insofern wird Nvidia wohl wahrscheinlich den G84 zum G96 shrinken (so stand es ja auch mal in einem Gerücht), und den dann gegen RV635 antreten lassen.Er meinte wahrscheinlich im gleichen Fertigungsprozess.

laser114
2008-01-03, 20:47:45
Das dürfte wohl stimmen, aber im gleichen Fertigungsprozess werden sich die GPUs wohl nicht gegenüberstehen.

reunion
2008-01-03, 21:20:56
nVidia hat es eben dadurch schwer, dass AMD hier den gleichen Weg wie im CPU Markt geht: Preisverfall und somit weniger Margen für alle Marktteilnehmer.

Wenn ich den Bullshit noch einmal höre, dann platzt mit der Kargen. Das hätte man bei R600 behaupten können, doch mittlerweile muss nur noch nV ein >300mm² Die in den 200€ Preisbereich drücken. :rolleyes:

Wie kann man gleichzeitig 10.1 und nur SM4.0 unterstuetzen?

Na was jetzt? Ja? Nein? Vielleicht? Auf der Folie steht ganz klar DX10 SM4.0.

Da ROP-Power/Bandbreite und Speichermenge gleich sind, kann man eigentlich sehr gut von der 8800 GT herunterrechnen: 8800 GT * ~0,62 = 9600GT. Vorrausgesetzt es gab keine größeren Veränderung, z.B. andere SPs, was ich aber bezweifele, wenn nicht mal D3D10.1 unterstützt werden soll.


Naja, die 8800GT wird schon öfter von der zu geringen Speicherbandbreite ausgebremst. Herunterrechnen könntest du nur, wenn das Verhältnis Bandbreiten/Füllraten identisch wäre. So dürfte die Karte weniger verlieren.

LovesuckZ
2008-01-03, 21:52:58
RV630 ist grade 143 mm² groß; G84 ist da mit 169 mm² schon größer. Leistungsmäßig reicht der aber locker aus; insofern wird Nvidia wohl wahrscheinlich den G84 zum G96 shrinken (so stand es ja auch mal in einem Gerücht), und den dann gegen RV635 antreten lassen.

Der Rv630 ist 153mm² groß. Da der Gewinn von 80nm auf 65nm wesentlich größer ausfällt, wäre man einem einfachen Shrink wirtschaftlich für ein <100€ gut aufgestellt.

Wenn ich den Bullshit noch einmal höre, dann platzt mit der Kargen. Das hätte man bei R600 behaupten können, doch mittlerweile muss nur noch nV ein >300mm² Die in den 200€ Preisbereich drücken. :rolleyes:

nVidia drückt garnichts in den 200€ Preisbereich. Es ist AMD, die über den Preis gehen.

Coda
2008-01-03, 21:56:02
Na was jetzt? Ja? Nein? Vielleicht? Auf der Folie steht ganz klar DX10 SM4.0.
Ailuros meinte das so: Nur SM4.0 => Nix D3D10.1.

Nakai
2008-01-03, 21:56:53
nVidia drückt garnichts in den 200€ Preisbereich. Es ist AMD, die über den Preis gehen.

Nein, das stimmt so nicht.


mfg Nakai

LovesuckZ
2008-01-03, 22:01:26
Nein, das stimmt so nicht.
mfg Nakai

Ich sehe keine 8800GT-512 für unter 200€, du etwa?
Selbst die 8800GT-256 wird nur in kleinen Mengen angeboten, eine 8800GS kommt gar nur von einem Hersteller. Wo nVidia nun also Massen G92 Chips unter 200€ drückt, muss erstmal gezeigt werden.

Nakai
2008-01-03, 22:06:51
Ich sehe keine 8800GT-512 für unter 200€, du etwa?
Selbst die 8800GT-256 wird nur in kleinen Mengen angeboten, eine 8800GS kommt gar nur von einem Hersteller. Wo nVidia nun also Massen G92 Chips unter 200€ drückt, muss erstmal gezeigt werden.

Das meinte ich nicht. Ich meinte eher, dass AMD die HD3870 aufgrund der etwas schlechteren Performance billiger anbietet. Und da kann man nur unter 200€ gehen.

mfg Nakai

reunion
2008-01-03, 22:07:32
Ich sehe keine 8800GT-512 für unter 200€, du etwa?
Selbst die 8800GT-256 wird nur in kleinen Mengen angeboten, eine 8800GS kommt gar nur von einem Hersteller. Wo nVidia nun also Massen G92 Chips unter 200€ drückt, muss erstmal gezeigt werden.

Nv setzt den G92 notgedrungen gegen den deutlich kleineren RV670, genau das, was du AMD vorwirfst. Aber es hat sowieso keinen Sinn, mit dir darüber zu diskutieren.

LovesuckZ
2008-01-03, 22:31:38
Nv setzt den G92 notgedrungen gegen den deutlich kleineren RV670, genau das, was du AMD vorwirfst. Aber es hat sowieso keinen Sinn, mit dir darüber zu diskutieren.

Äh, seit wann kostet eine 8800GT-256 140€ und eine 8800GT-512 210€? :confused:

laser114
2008-01-03, 22:40:55
NVIDIA® GeForce® 8800 GT, the latest in the standard-setting GeForce 8 Series of graphics processing units (GPUs), is hitting store shelves today. Specifically developed to answer enthusiast gamers’ demand for high-performing graphics at the $199 to $259 price point, GeForce 8800 GT offers a hyper-reactive, intensely robust gaming experience for the latest next-generation DirectX 10 games, such as Crysis, Hellgate: London, and Gears of War, as well as full support for current DirectX 9 games.

http://www.nvidia.com/object/io_1193646673731.html

Die Realität sieht natürlich anders aus, aber wenn man das in Euro-Preise umrechnet sind das nach der Zurechnung von 19% Mehrwertsteuer ~ 160€ - 210€.

dargo
2008-01-03, 22:48:06
Meine GTS 512 erreicht schon 746 TFlops. Wenn sich die ALUs auf 2,5 GHz takten lassen, dann hätten wir schon Near-1-TFlop. In diesem Chip steckt IMO noch einiges mehr drinnen.
Das dumme ist nur, dass in diesem Fall nur die arithmetische Leistung gesteigert werden konnte. Diese Leistung ist aber nicht alles wie man sehr schön an der G92GTS vs. G80GTS sieht.

Naja, die 8800GT wird schon öfter von der zu geringen Speicherbandbreite ausgebremst.
Nein.

Godmode
2008-01-03, 23:20:27
Das dumme ist nur, dass in diesem Fall nur die arithmetische Leistung gesteigert werden konnte. Diese Leistung ist aber nicht alles wie man sehr schön an der G92GTS vs. G80GTS sieht.


Nein.

IMO kann bei der G92GTS die brachiale Texturfüllrate sowie Arithmetikleistung durch den Flaschenhals SI und ROPs nicht richtig durchschlagen.

dargo
2008-01-03, 23:26:09
IMO kann bei der G92GTS die brachiale Texturfüllrate sowie Arithmetikleistung durch den Flaschenhals SI und ROPs nicht richtig durchschlagen.
Das sehe ich auch so. Wobei die Reihenfolge bei mir eher so aussieht - ROPs und Bandbreite.

Edit:
Ich warte immer noch auf eine NV Karte mit mindestens 24 ROPs, dann natürlich auch entsprechend mehr Bandbreite und >512MB Vram. ;(

LovesuckZ
2008-01-03, 23:28:55
http://www.nvidia.com/object/io_1193646673731.html

Die Realität sieht natürlich anders aus, aber wenn man das in Euro-Preise umrechnet sind das nach der Zurechnung von 19% Mehrwertsteuer ~ 160€ - 210€.

Dann geh mal mit der Vorstellung seit fast drei Monaten einkaufen.

dargo
2008-01-03, 23:33:06
Dann geh mal mit der Vorstellung seit fast drei Monaten einkaufen.
Ich weiß nicht was dein Problem ist. Eine G8800GT konnte man vereinzelt um die 200€ schon bekommen. Dass NV die Preise künstlich oben hält dürfte wohl jeder mittlerweile mitbekommen haben. Ob das am Weihnachtsgeschäft lag oder Lieferschwierigkeiten durch Mangel an entsprechenden Bauteilen sei mal dahingestellt.

Hvoralek
2008-01-03, 23:36:29
Meine GTS 512 erreicht schon 746 TFlops.Wohl eher nicht, oder? :wink:

Godmode
2008-01-04, 00:09:29
Wohl eher nicht, oder? :wink:

Schön wärs :) sollte natürlich GFlops heißen.

AnarchX
2008-01-04, 00:50:13
9800 GX2 !!!

http://img522.imageshack.us/img522/9936/1199396117rddjtjdk0z12cuo8.jpg (http://imageshack.us)
http://img181.imageshack.us/img181/2002/1199396117rddjtjdk0z11cte9.jpg (http://imageshack.us)
http://enthusiast.hardocp.com/article.html?art=MTQzOSwxLCxoZW50aHVzaWFzdA==

War doch etwas am umfassenden Kühler dran... ;)

GeForce 9800 GX2

1. 1GB Frame Buffer

2. Two PCBs

3. Two 65nm GPUs Total

4. 256 Stream Processors Total
:eek:

Grestorn
2008-01-04, 00:53:22
9800 GX2 !!!

http://img522.imageshack.us/img522/9936/1199396117rddjtjdk0z12cuo8.jpg (http://imageshack.us)
http://img181.imageshack.us/img181/2002/1199396117rddjtjdk0z11cte9.jpg (http://imageshack.us)
http://enthusiast.hardocp.com/article.html?art=MTQzOSwxLCxoZW50aHVzaWFzdA==

War doch etwas am umfassenden Kühler dran... ;)

:eek:

Nur 30% schneller als eine 8800Ultra... Dann lohnt der Umstieg für mich nicht. Schade.

AnarchX
2008-01-04, 00:59:10
Wird wohl ganz aufs Game drauf ankommen und wie dort die Flaschenhälse (VRAM?, Bandbreite, ROP-Leistung) sich auswirken.

Da wird wohl ein Tri-SLI auf Ultra-Basis teilweise schneller als ein 9800GX2 Q-SLI sein.:| (2*130% abzüglich Q-SLI-Effizienz vs 8800 Ultra * 2.6)

Godmode
2008-01-04, 01:00:15
Ich bin mal gespannt wie es bei der GX2 mit den Micro-Rucklern ausieht. Zur Karte selber, ziemlich dick das Teil.

LovesuckZ
2008-01-04, 01:00:36
Was sollen denn dort für Chips verbaut sein? 30% schneller bei einem vollwertigen G92? Das wären ja dann Taktraten, die ca. 50% unter der der 8800Ultra lägen (bei 80% Skalierung von SLI)...

Hvoralek
2008-01-04, 01:01:51
9800 GX2 !!!

http://img522.imageshack.us/img522/9936/1199396117rddjtjdk0z12cuo8.jpg (http://imageshack.us)
http://img181.imageshack.us/img181/2002/1199396117rddjtjdk0z11cte9.jpg (http://imageshack.us)
http://enthusiast.hardocp.com/article.html?art=MTQzOSwxLCxoZW50aHVzaWFzdA==

War doch etwas am umfassenden Kühler dran... ;)


:eek:Das sind dann 2 volle D8Ps? Dann können wir uns wohl auf R600- artigen Stromverbrauch gefasst machen...

robbitop
2008-01-04, 01:02:18
Ist anscheinend nicht viel anderes als 2x 8800GTS-512er. Zumindest sagen die Indizien sowas.

LovesuckZ
2008-01-04, 01:11:28
Das sind dann 2 volle D8Ps? Dann können wir uns wohl auf R600- artigen Stromverbrauch gefasst machen...

30% schließen auf eine sehr starke Untertaktung oder auf 2x9600 Karten mit 4 Cluster und 128SP.

AnarchX
2008-01-04, 01:16:13
Mal was zum Thema 8800 GTS 512MB @ SLI:
http://www.hardtecs4u.com/reviews/2007/msi_8800gts_sli/
... wobei es sich hier um eine OC-Version handelt und der SLI-Verbund auf 1.4TFLOPs kommt.;)

Also extrem stark untertaktet dürfen die GPUs auch wieder nicht sein.

Godmode
2008-01-04, 01:17:56
Mal was zum Thema 8800 GTS 512MB @ SLI:
http://www.hardtecs4u.com/reviews/2007/msi_8800gts_sli/
... wobei es sich hier um eine OC-Version handelt und der SLI-Verbund auf 1.4TFLOPs kommt.;)

Man kann davon ausgehen das die GPUs auf der GX um einiges niedriger getaktet sind. Ansonsten wird das Ding ein wahrer Hitzkopf.

einfach nur krank: das GTS SLI ist in COD2 bis auf 1920 x 1200 (8xQ AA / 16xAF) CPU Limiert, erst mit 16xAA / 16XAF bricht sein ein ^^
http://www.hardtecs4u.com/reviews/2007/msi_8800gts_sli/index7.php

Gast
2008-01-04, 01:20:28
Dann ist die GX2 aber nur in ausgewählten Anwendungen, in denen SLI sehr gut skaliert 30% schneller als eine Ultra.

James Ryan
2008-01-04, 05:51:42
9800 GX2 !!!

http://img522.imageshack.us/img522/9936/1199396117rddjtjdk0z12cuo8.jpg (http://imageshack.us)
http://img181.imageshack.us/img181/2002/1199396117rddjtjdk0z11cte9.jpg (http://imageshack.us)
http://enthusiast.hardocp.com/article.html?art=MTQzOSwxLCxoZW50aHVzaWFzdA==

War doch etwas am umfassenden Kühler dran... ;)


:eek:

:|
Macht irgendwie nicht viel Sinn die Karte! Eigentlich nur, um kurzfristig etwas gegen die HD 3870 X2 in der Hand zu haben.
Soll das Ding aber "länger" die Spitze bleiben frage ich mich, wie NVIDIA dem Kunden wieder Quad-SLI schmackhaft machen möchte.

MfG :cool:

seahawk
2008-01-04, 07:43:46
nVidia hat es eben dadurch schwer, dass AMD hier den gleichen Weg wie im CPU Markt geht: Preisverfall und somit weniger Margen für alle Marktteilnehmer.

Im Gegenteil ATI hat gelernt und produziert nun die effektiveren Chips. Kleiner und leistungsgleich und kann daher den Preis senken. Die ATI-Margen dürften besser als bisher sein, einzig NV wurde auf dem falschen Fuß erwischt und muss G92 wohl kräftig subventionieren.

Für den Kunden ist es auf jeden Fall klasse, da er nun auch bei den GPUs soviel lEistung für so wenig Geld wie nie bekommt.

Gast
2008-01-04, 07:47:06
Was sollen denn dort für Chips verbaut sein? 30% schneller bei einem vollwertigen G92? Das wären ja dann Taktraten, die ca. 50% unter der der 8800Ultra lägen (bei 80% Skalierung von SLI)...

Tja, da es nV nicht gebacken bekommt, die zwei Chips auf eine Platine zu pflanzen, sind eben in punkto Kühllleistung arge Grenzen gesetzt. Logisch, dass das Ding nicht sonderlich hoch takten kann.

reunion

Gast
2008-01-04, 07:53:08
Dann ist die GX2 aber nur in ausgewählten Anwendungen, in denen SLI sehr gut skaliert 30% schneller als eine Ultra.

Das gleiche Problem hat aber die 3870 X2 genauso. Trotzdem wird das Ding, wenn es nur 30% schneller als eine 8800U ist wohl gerade so gegen die 3870 X2 reichen, und da AMD die Karte verdammt billig anbieten will (und kann dank der kleinen Dice), darf sich NV auf einen Preiskampf einstellen.

reunion

Snoopy1978
2008-01-04, 08:16:54
Oh man, die GX2 sieht nich nur groß aus sondern auch noch schwer und massiv dazu.Vor allem immer noch die 2 PCB Bauweise,da wäre mir die Ati-Lösung ja doch lieber.

Gast
2008-01-04, 08:31:53
Oh man, die GX2 sieht nich nur groß aus sondern auch noch schwer und massiv dazu.Vor allem immer noch die 2 PCB Bauweise,da wäre mir die Ati-Lösung ja doch lieber.

Wo wird denn bei dem Ding überhaupt die Lüft hingeblasen? Aus dem Gehäuse wohl kaum, wenn ich mir die anordnung der DVIs ansehe.

Snoopy1978
2008-01-04, 08:53:31
Wer weis vielleicht werden ja hochwarmfeste Materialien aus der Raumfahrt zum Bau verwendet.
;D

AnarchX
2008-01-04, 08:59:22
NVIDIA GPU Roadmap Outline for 1H08 (http://enthusiast.hardocp.com/article.html?art=MTQ0MCwxLCxoZW50aHVzaWFzdA==)
# GeForce 8800 Ultra will be replaced by the GeForce 9800 GX2 in February / March timeframe. More information and pictures are here.

# The GeForce 8800 GTX will be replaced by the GeForce 9800 GTX in February / March timeframe. This card will support Tri-SLI.

# The GeForce 9800 GT should appear in the March / April timeframe. We have limited information on this card currently.

# The recently “released” GeForce 8800 GS will be a limited GPU in terms of production. Do not expect more than 100,000 GPUs to be shipped worldwide, but soon. ASUS will supply Asia, Palit will supply China, EVGA will supply North America, and XFX will supply Europe. The GS is an “inventory solution.” The 8800 GS is 192-bit bus and will ship in 320MB, 512MB, and 640MB versions with a trimmed down number of stream processors as well. Will fall in line below 8800 GT but above the 9600 GT.

# The GeForce 9600 GT will fall in line below the 8800 GT, but give better performance than the GeForce 8600 GTS. The 9600 GT will be a whole new card not based on the 8800 GT PCB. Price point should be at $169 in retail/etail and plans are to carry this GPU throughout 2008.

Was sich hinter diesen beiden SKUs wohl verbirgt? G92?

Botcruscher
2008-01-04, 09:02:13
Wer weis vielleicht werden ja hochwarmfeste Materialien aus der Raumfahrt zum Bau verwendet.
;D

Keramikkacheln?
Damit beim Wiedereintritt ins Hauptmenü nicht das Netzteil verglüht. Dann so in etwa 200W alleine im Idle...:uexplode:

Die_Allianz
2008-01-04, 09:12:13
oh man jetzt drückt sich auch schon nV um die Entwicklung eines anständigen High-End-Chips!

Eine bessere Entscheidung, als letzen Monat eine 8800GT zu kaufen, hätte man nicht treffen können. (gut für mich;D)
Denn das ding ist ja mal sowas von uninteressant für den Käufer; hoffentlich bleiben sie auf dem Gefrickel sitzen!

Gast
2008-01-04, 10:00:40
Was sich hinter diesen beiden SKUs wohl verbirgt? G92?

Da sich offensichtlich bis auf den Marketingnamen bei den neuen Chips nichts ändert, ist davon auszugehen, dass es weiterhin ein G92 ist.

reunion

Henroldus
2008-01-04, 10:01:28
oh man jetzt drückt sich auch schon nV um die Entwicklung eines anständigen High-End-Chips!

Eine bessere Entscheidung, als letzen Monat eine 8800GT zu kaufen, hätte man nicht treffen können. (gut für mich;D)
Denn das ding ist ja mal sowas von uninteressant für den Käufer; hoffentlich bleiben sie auf dem Gefrickel sitzen!
dem kann ich nur zustimmen.
damit verliesse Nvidia wieder den Pfad eines effizienten Designs, den sie mit der 8800GT beschritten haben.
der Markt giert nach solchen halbwegs leistungsfähigen Chips, die bezahlbar und nicht sehr stromhungrig sind(hier ist ATI momentan sogar besser aufgestellt).
so ein GX2 version, die auf Teufel komm raus 10% Mehrleistung mit diversen Nachteilen erkauft kann mir gestohlen bleiben.
3*8-PIN Stromanschluss ahoi (no)

HOT
2008-01-04, 10:07:18
Damit ist quasi besiegelt, dass die D9 Serie mit G80 Technik ausgestattet ist:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1199371247
Dann kommt das mit 2x G92 für D9E (9800GX2) also hin. Der 9600 (D9P) ist ein 65nm Vertreter des G84 mit mehr Bums.

AnarchX
2008-01-04, 10:12:12
Da sich offensichtlich bis auf den Marketingnamen bei den neuen Chips nichts ändert, ist davon auszugehen, dass es weiterhin ein G92 ist.

reunion

Fragt sich nur ob weiterhin Rev. A2, wenn die SKUs länger am Markt sein sollen, wäre ja ein optischer Shrink auf 55nm auch nicht verkehrt, erst recht wenn man bei der 9800GX2 nicht langfristig fast über 600mm² Waferspace verschwenden will.

Um die 8800 GTX zu ersetzen, braucht es aber imo auf jedenfall schnellen Speicher, fragt sich nur ob da 0.83ns GDDR3 ausreicht, GDDR4 ist ja laut Ail für NV ein No-Go. Im Endeffekt sollte ja der Tri-SLI-Verbund der 9800GTX sich auch gegenüber dem einer 8800 GTX behaupten.

Damit ist quasi besiegelt, dass die D9 Serie mit G80 Technik ausgestattet ist:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1199371247
Dann kommt das mit 2x G92 für D9E (9800GX2) also hin. Der 9600 (D9P) ist ein 65nm Vertreter des G86 mit mehr Bums.
Wenn schon G92-Technik, da G80 nicht TA=TFs hatte und bei G92 wohl laut Ail das Culling bei den ROPs etwas optimiert wurde.;) Und D9P ist eher ein doppelter G84 (G86 ist 16SPs 128Bit).

Ist übrigens schon lange in #1 vorhanden.

GeneralHanno
2008-01-04, 10:51:33
was sich hinter der 9800GTX verbirgt?

der G92 kann imo leider nur 4 ROP-part haben. wenn er 6 HÄTTE, warum würde man dann zum abverkauf a la 8800GS nur 3 aktivieren.
=> G92 = 4 native ROP-part

damit wärde eine 9800GTX@G92 sehr unglücklich ...

€dit: nur als anmerkung: der codename G90 ist auch noch frei :D

Nakai
2008-01-04, 11:27:51
GDDR4?

Oder man bringt einen G90 raus, mit 384Bit-SI.


mfg Nakai

James Ryan
2008-01-04, 11:29:54
GDDR4?

Oder man bringt einen G90 raus, mit 384Bit-SI.


mfg Nakai

Würde am meisten Sinn machen, da relativ leicht realisierbar.
So eine Karte würde mich auch zum Aufrüsten bewegen.

MfG :cool:

horn 12
2008-01-04, 11:30:01
The GeForce 8800 GTX will be replaced by the GeForce 9800 GTX in February / March timeframe. This card will support Tri-SLI.


Dann dürfte die 9800GX2 schneller werden als die 9800 GTX und die GTX wird sich zwischen Ultra und GX2 posizionieren.
ENTTÄUSCHEND nach dem G80 im November 2006 !!!:mad::P
Da habt ihr die 2 fache Leistung des G80, da sieht es bei ATI weitaus besser und vor Allem billiger aus.

AnarchX
2008-01-04, 11:33:55
Da habt ihr die 2 fache Leistung des G80, da sieht es bei ATI weitaus besser und vor Allem billiger aus.
Wer sagt, dass die 9800GX2 teuer wird? Bei der möglichen Mehrleistung gegenüber 3870X2 würde ich nicht denken, dass der MSRP höher als $450 liegt.

Und NV sind nicht die jenigen die für die aktuelle Situation verantwortlich sind. ;)

Aber sei berühigt, was in Q1-Q2 08 passiert, ist nur die Ruhe vor dem Sturm... :D

GDDR4?

Oder man bringt einen G90 raus, mit 384Bit-SI.

Und warum baut man dann noch eine 9800GX2, die ein solcher G90 locker schlagen könnte, ganz abgesehen von der höheren Effizienz in einem Tri-SLI-Verbund.

D9E-20, was wohl die 9800GTX ist, wurde ja schon von PHK beschrieben: 180W TDP (also wohl nochmal mehr Takt gegenüber der GTS 512), 512MB ~ 256Bit (wohlmöglich muss man sich hier an GDDR4 wagen).

Gast
2008-01-04, 11:41:44
Wer sagt, dass die 9800GX2 teuer wird? Bei der möglichen Mehrleistung gegenüber 3870X2 würde ich nicht denken, dass der MSRP höher als $450 liegt.

Ja, nur muss nV da zwei >300mm² Dice stellen.


Und NV sind nicht die jenigen die für die aktuelle Situation verantwortlich sind. ;)


Wer ist denn sonst Schuld an der aktuellen Situation?


Aber sei berühigt, was in Q1-Q2 08 passiert, ist nur die Ruhe vor dem Sturm... :D

Das gilt aber für beide.

reunion

AnarchX
2008-01-04, 11:45:49
Ja, nur muss nV da zwei >300mm² Dice stellen.
Wobei diese wohl nicht dem besten entsprechen, was der Wafer hergibt, wie bei der 3870 X2. ;) Und zudem steht ja noch der Weg für ein optischen Shrink offen, wo AMD auf einen neuen Fullnode angewiesen ist, der aber noch nicht wirklich nutzbar sein soll, weswegen der "echte" R700 auch in der Roadmap etwas gerückt ist.


Wer ist denn sonst Schuld an der aktuellen Situation?

ATi mit ihren Entscheidungen vor einigen Jahren, die dazu führten, dass NV momentan ab Performance ein Monopol hat, was sie logischerweise auch entsprechend nutzen.


Das gilt aber für beide.

Natürlich, sonst würde man weiterhin stagnieren.

GeneralHanno
2008-01-04, 11:48:13
Wenn die 9800GTX tatsächlich G92 basierend wäre, dann MÜSSEN sie GDDR4 verbauen (auch wenn nvidia dazu keine Lust hat ...). Man sieht ja schon an der 8800GTS-512/1024 das sie total Bandbreitenlimitiert ist ...
Eine GTX mit NOCH mehr Chippower und stagnierender Bandbreite => NoGo !

AnarchX
2008-01-04, 11:57:22
~800/2000MHz (was wohl fast jede 8800 GTS 512 schafft, und mit mehr Vgpu auch werkmässig lieferbar sein sollte bzw. via A3-Rev.) + 0.83ns GDDR3 @ 1150MHz+ könnnte wohlmöglich reichen um eine GTX zu schlagen.

Aber auf jeden Fall sollte NV ihr Speichermanagment stark verbessern, im Falle eines 98GX2 Q-SLI wären doch schlecht gemanagte 512MB bei ~ 2 TFLOPs und über 100GTex/s doch etwas fatal...

James Ryan
2008-01-04, 12:01:00
Da habt ihr die 2 fache Leistung des G80, da sieht es bei ATI weitaus besser und vor Allem billiger aus.

ATi hat es nach 1 1/2 Jahren nichtmal geschafft, den G80 zu schlagen. :rolleyes:
Sollte die Gf 9800 GTX wirklich so "schwach" sein würde mich das auch nicht wundern, halt typisch NVIDIA: bloß kein Risiko, lieber mehr Reserven.
512 MB VRam wären aber lächerlich für eine Gf 9800 GTX, 1 GB müssten es schon sein!

MfG :cool:

Gast
2008-01-04, 13:12:00
http://www.dailytech.com/article.aspx?newsid=10218
Corporate guidance from NVIDIA lists the initial GeForce 9600 GT shipments come stock with a 650 MHz core clock and a 1625 MHz unified shader clock. Unlike the G84 core found on GeForce 8600 GT, D9M will feature a 256-bit memory bus interface. Coupled with a 900 MHz memory clock, NVIDIA calculates the memory bandwidth at 57.6 GB/s.
Mit diesen Taktangaben wird die 9600GT ein hammerhartes Kärtchen.

http://www.digit-life.com/articles2/video/g80_units.html

Godmode
2008-01-04, 13:22:04
Aber sei berühigt, was in Q1-Q2 08 passiert, ist nur die Ruhe vor dem Sturm... :D


Dieser Satz lässt auf einen würdigen Nachfolger der Geforce 8800 GTX hoffen. Die Geforce 9 Serie lässt mich völlig kalt.

AnarchX
2008-01-04, 13:30:02
Mit diesen Taktangaben wird die 9600GT ein hammerhartes Kärtchen.

http://www.digit-life.com/articles2/video/g80_units.html

Nur stehen der 9600GT aber keine 24ROPs/384Bit zur Seite.;)

nomadhunter
2008-01-04, 13:33:11
~800/2000MHz (was wohl fast jede 8800 GTS 512 schafft, und mit mehr Vgpu auch werkmässig lieferbar sein sollte bzw. via A3-Rev.) + 0.83ns GDDR3 @ 1150MHz+ könnnte wohlmöglich reichen um eine GTX zu schlagen.
Die GTS-512 entspricht leistungsmäßig doch schon etwa der GTX, mit mehr Takt in allen Bereichen sollte also ~Ultra-Leistung drin sein. Nur in hohen Auflösungen mit AA stimmt das nicht mehr, weil der GTS Bandbreite/Pixelfüllrate ausgehen. Viel mehr als 0,83ns GDDR3 ist für eine 98GTX vielleicht auch gar nicht sinnvoll, weil die ROPs weiterhin stark limitieren. Und ist die einzige Möglichkeit der Leistungssteigerung eine Steigerung des Chiptakts, die aber nur in Maßen möglich ist.

Meine Vermutung des neuen Lineups (leistungsmäßige Gegenüberstellung)
98GX2
98GTX <-> 88Ultra
88GTS-512 <-> 88GTX (natürlich nur, wenn man einen Durchschnitt aller Auflösungen/AA-Settings nimmt)
88GT-512 <-> 88GTS-640
88GT-256 <-> 88GTS-320
88GS
96GT

Fragt sich, was man mit der 98GT macht. Vielleicht soll sie die 88GTS-512 oder 88GT-512 ersetzen (oder dazwischen sein und beide ersetzen). Vielleicht ist es auch einfach eine GT/GTS-512 mit neuem Namen, damit sie besser in die neue GF9-Serie passt. Wenn dann recht bald noch die 88GS wegfällt (könnte man evtl. durch eine 96GTS oder so ersetzen, ist ja eh nur einen Übergangssache v.a. für OEMs), hätte man eine komplette GF9-Serie ohne den G92 refreshen zu müssen (High-End: 2xG92, Performance: G92, Mainstream: 9600(D9P/D9M?)).

GeneralHanno
2008-01-04, 13:34:53
Dieser Satz lässt auf einen würdigen Nachfolger der Geforce 8800 GTX hoffen. Die Geforce 9 Serie lässt mich völlig kalt.

Angeblich soll der echte Hammer (G100 vermutlich) im H2/08 kommen (vll. wird der November - 2 jahre nach G80 ...)

Die Karte soll angeblich 2,5x so viele Transistoren wie der G80 haben und 3x so schnell sein :D

AnarchX
2008-01-04, 13:35:49
Dass die 9800 GT erst Anfang Q2 kommt, kann wohlmöglich darauf hindeuten, dass hier vielleicht schon ein optischer Shrink von G92 zum Einsatz kommt, der eine entsprechend bessere Marge hat.

nomadhunter
2008-01-04, 13:36:40
Angeblich soll der echte Hammer (G100 vermutlich) im H2/08 kommen (vll. wird der November - 2 jahre nach G80 ...)
Laut Ailuros G200. G100 soll der DX11-Chip sein und dürfte deswegen frühestens Ende 2009 kommen.

EDIT:
Dass die 9800 GT erst Anfang Q2 kommt, kann wohlmöglich darauf hindeuten, dass hier vielleicht schon ein optischer Shrink von G92 zum Einsatz kommt, der eine entsprechend bessere Marge hat.
Könnte das Ailuros' prognostizierter High-End-Refresh fürs Frühjahr werden? Ein 55nm-G92 (G90?).

AnarchX
2008-01-04, 13:39:53
Könnte das Ailuros' prognostizierter High-End-Refresh fürs Frühjahr werden? Ein 55nm-G92 (G90?).
Wo erwähnte Ailuros diesen?

Wenn es ein optischer Shrink ist, dann wäre es wohl eher ein G92-B..., aber vielleicht ersetzt NV den schnell hingeklatschten G92 durch etwas besseres/effizienteres.

GeneralHanno
2008-01-04, 13:41:25
Der G100 war ursprünglich als DX11 geplant. Aber Nvidia wird doch nicht einen G200 (2008) VOR (!) dem G100(2009/10) bringen ...
Dann haben sie vermutlich wie ATi beim R700 "die Namen getauscht".

Orginal G100 -> G200
Neuer G100 = H2/08

nomadhunter
2008-01-04, 13:52:26
@AnarchX/GeneralHanno:
Die alte roadmap hatte folgendes:

G90 (G8x Refresh)
G200 = D3D10.1
G100 = D3D11

Es kommt in kurzer Zeit ein high end Refresh und irgendwo in H2 dann ein ziemlich fetter chip der eigentlich nur der original geplante G200 sein koennte. Es wuerde mich sehr wundern wenn NVIDIA irgendwo 2 Jahre vor der D3D11 Vorstellung einen komplianten chip veroeffentlicht; ausschliessen werde ich es natuerlich nicht, aber es waere doch klueger die dementsprechenden Transistoren fuer 11 eher in Leistung zu investieren.
Der High-End-Refresh in kurzer Zeit könnte IMHO gut ein G92@55nm sein.
Und G200 soll wohl tatsächlich vor dem G100 kommen. Der G200 wurde wohl aus der Not geboren, ein Zwischending zwischen G9x und G10x finden zu müssen (was hätten sie sonst nehmen sollen? G9.5x?), nachdem sich DX11 und damit G10x verzögert.

Gast
2008-01-04, 13:54:22
Dass die 9800 GT erst Anfang Q2 kommt, kann wohlmöglich darauf hindeuten, dass hier vielleicht schon ein optischer Shrink von G92 zum Einsatz kommt, der eine entsprechend bessere Marge hat.

Würde mich wundern, wenn es von nV einen 55nm Chip vor dem H2 geben würde. Man darf hier auch nicht vergessen, dass RV670 nur deshalb so früh kam, weil bereits der erste Tapeout fehlerfrei war. Das Ding sollte eigentlich auch erst im Q1/2008 kommen. Und da NV AMD bei neuen Prozessen eigentlich schon länger gute sechs Monate hinterherhinkt, würde ich mich eher auf H2 einstellen. Zumal NV bis vor G92 noch nichtmal einen 65nm Chip hatte.

reunion

Gast
2008-01-04, 13:58:11
Und G200 soll wohl tatsächlich vor dem G100 kommen. Der G200 wurde wohl aus der Not geboren, ein Zwischending zwischen G9x und G10x finden zu müssen (was hätten sie sonst nehmen sollen? G9.5x?), nachdem sich DX11 und damit G10x verzögert.

Solche Zwischenschieber gab es schon oft, und immer bekamen sie fortlaufenden Codenamen. G200 kommt sicher nicht vor G100. G100 wird dann eben zu G200 und der neue Refresh zu G100. namen sind Schall und Rauch. Wobei es die Codenamen in der Form bei nV eh schon lange noch mehr gibt, also wohl eher G10E/G11E.

reunion

GeneralHanno
2008-01-04, 14:03:20
Solche Zwischenschieber gab es schon oft, und immer bekamen sie fortlaufenden Codenamen. G200 kommt sicher nicht vor G100. G100 wird dann eben zu G200 und der neue Refresh zu G100. namen sind Schall und Rauch. Wobei es die Codenamen in der Form bei nV eh schon lange noch mehr gibt, also wohl eher G10E/G11E.

reunion

100% Zustimm :up:

LovesuckZ
2008-01-04, 15:25:45
Was sich hinter diesen beiden SKUs wohl verbirgt? G92?

Deutlich bessere Shrinks. Einen G92 wird man für diese Karten nicht mehr verwenden.

/Offtopic: Hat eigentlich jemand die Transistoranzahl des G98?

Hvoralek
2008-01-04, 15:37:38
NVIDIA GPU Roadmap Outline for 1H08 (http://enthusiast.hardocp.com/article.html?art=MTQ0MCwxLCxoZW50aHVzaWFzdA==)Gerade besonders glaubhaft wirkt eine Auflistung mit solchen Angaben nicht: "The 8800 GS is 192-bit bus and will ship in 320MB, 512MB, and 640MB versions [...]." Die haben so ziemlich alle vorkommenden Speichergrößen genannt, aber keine einzige mit einem 192- bit- SI mögliche.

dargo
2008-01-04, 15:43:19
NVIDIA GPU Roadmap Outline for 1H08 (http://enthusiast.hardocp.com/article.html?art=MTQ0MCwxLCxoZW50aHVzaWFzdA==)

# GeForce 8800 Ultra will be replaced by the GeForce 9800 GX2 in February / March timeframe. More information and pictures are here.

# The GeForce 8800 GTX will be replaced by the GeForce 9800 GTX in February / March timeframe. This card will support Tri-SLI.

# The GeForce 9800 GT should appear in the March / April timeframe. We have limited information on this card currently.

# The recently “released” GeForce 8800 GS will be a limited GPU in terms of production. Do not expect more than 100,000 GPUs to be shipped worldwide, but soon. ASUS will supply Asia, Palit will supply China, EVGA will supply North America, and XFX will supply Europe. The GS is an “inventory solution.” The 8800 GS is 192-bit bus and will ship in 320MB, 512MB, and 640MB versions with a trimmed down number of stream processors as well. Will fall in line below 8800 GT but above the 9600 GT.

# The GeForce 9600 GT will fall in line below the 8800 GT, but give better performance than the GeForce 8600 GTS. The 9600 GT will be a whole new card not based on the 8800 GT PCB. Price point should be at $169 in retail/etail and plans are to carry this GPU throughout 2008.

Was sich hinter diesen beiden SKUs wohl verbirgt? G92?
Ah, die G9800GT kommt schon in April 2008. Sehr schön. =)
Hoffentlich ist sie auch doppelt so schnell wie die G80GTS.

LovesuckZ
2008-01-04, 15:46:15
Und somit schneller als die 9800gx2? :rolleyes:

GeneralHanno
2008-01-04, 15:52:56
Wisst ihr welche Frage mir durch den Kopf geistert:
Ist der G92 vll nur eine Art Vorserien Sample und der "echte G92" vll mit 6 ROPs, DX10.1 und effizienterer Packdichte erst im Q1/08 erscheinen sollte. Nvidia hat den "Vorserien-G92" schnell auf den Markt geworfen, da der RV670 doch nicht nur 240SP hatte (und A11 schon fehlerfrei lief). Was sagt ihr zu der theorie?

LovesuckZ
2008-01-04, 16:02:44
Wisst ihr welche Frage mir durch den Kopf geistert:
Ist der G92 vll nur eine Art Vorserien Sample und der "echte G92" vll mit 6 ROPs, DX10.1 und effizienterer Packdichte erst im Q1/08 erscheinen sollte. Nvidia hat den "Vorserien-G92" schnell auf den Markt geworfen, da der RV670 doch nicht nur 240SP hatte (und A11 schon fehlerfrei lief). Was sagt ihr zu der theorie?

Das sie falsch ist.
Der G92 war für den Herbst - vollkommen unabhängig was AMD macht. Niemand weiß, warum 74 Millionen Transistoren dazu gekommen sind - das wäre nämlich fast ein weiterer Cluster. Auch ist die Packdichte gerade mal akzeptabel. Und hätte man AMD unterschätzt, hätte der G92 keine 8 Cluster. Man dachte wohl eher, dass die 38x0 Karten, nicht mehr 2007 erscheinen. Deswegen auch der hingeschluderte G92.

dargo
2008-01-04, 16:03:44
Und somit schneller als die 9800gx2? :rolleyes:
Hä?

G8800GTS@G80 = 346GFLOPs
G9800GT = ?

Für ~doppelte Leistung reichen also bei der G9800GT schon ca. 700GFLOPS, was selbst eine OC G92GTS schon bietet. Wichtig ist nur, dass NV bei der G9800GT die ROPs, die Bandbreite und den Vram entsprechend anpasst und schon hat man 200% der G80GTS. ;)

AnarchX
2008-01-04, 16:04:58
Hä?

G8800GTS@G80 = 346GFLOPs
G9800GT = ?

Für ~doppelte Leistung reichen also bei der G9800GT schon ca. 700GFLOPS, was selbst eine OC G92GTS schon bietet. Wichtig ist nur, dass NV bei der G9800GT die ROPs, die Bandbreite und den Vram entsprechend anpasst und schon hat man 200% der G80GTS. ;)

Wenn man das machen würde, so bräuchte es aber keine GX2, die 30% schneller als G80U sein soll. ;)
Imo wohl nicht mehr als 8800 GTS 512MB mit mehr Takt und 0.83ns GDDR3.

Gast
2008-01-04, 16:05:09
Die GX2 soll laut nVidia nur 30% schneller werden als die Ultra. Und das ist bestimmt schon ein geschönter Wert.

LovesuckZ
2008-01-04, 16:06:36
Wichtig ist, dass du deine Vorstellung nicht als Realität sehen kannst. ;)
Die 9800gx2 soll 30% schneller als die 8800ultra sein. Eine 9800gt mit doppelter GTS640 Gechwindigkeit wäre ca. 25% schneller als die 8800ultra.
Du siehst, irgendwas stimmt hier nicht...

dargo
2008-01-04, 16:10:15
Wenn man das machen würde, so bräuchte es aber keine GX2, die 30% schneller als G80U sein soll. ;)
Imo wohl nicht mehr als 8800 GTS 512MB mit mehr Takt und 0.83ns GDDR3.
Achso, die GX2 soll nur 30% (im Optimalfall) schneller sein als eine G8800U? Lol, was soll dann eine G9800GTX sein? Nur eine in der Herstellung günstigere G8800GTX? :|

Oh man, also noch länger warten... :P

w0mbat
2008-01-04, 16:12:17
8800Ultra <-> 9800GX2
8800GTX <-> 9800GTX
8800GTS 512 <-> 9800GT
8800GT & 8800GS fallen dann weg

LovesuckZ
2008-01-04, 16:12:52
Achso, die GX2 soll nur 30% (im Optimalfall) schneller sein als eine G8800U? Lol, was soll dann eine G9800GTX sein? Nur eine in der Herstellung günstigere G8800GTX? :|

Oh man, also noch länger warten... :P

8600gt -> 9600GT (2x)
8800gt -> 9800gt
8800gts512/GTX -> 9800gtx
8800Ultra -> 9800gx2

|MatMan|
2008-01-04, 16:14:30
vielleicht wirft man die GX2 ja auch nur auf den Markt um endlich den, nach über einem Jahr etwas angestaubten, 90 nm G80 Chip komplett loszuwerden, denn den braucht man ja eigentlich nur noch für die Ultra.

Somit könnte es für eine kurze Zeit bis zur eigentlichen neuen 9800 GTX im H2/08 wirtschaftlich besser sein 2 "mittelmäßige" G92 zu verkaufen, als den G80 wegen der Ultra noch so lange mitzuschleifen.

nVidia braucht keinen G80 mehr, ne GX2 kaufen eh nur wenige fürs Ultra-HighEnd und man gewinnt damit die Benchmarks gegen ATI solange bis der neue HighEnd-Chip da ist.

dargo
2008-01-04, 16:21:08
8600gt -> 9600GT (2x)
8800gt -> 9800gt
8800gts512/GTX -> 9800gtx
8800Ultra -> 9800gx2
Die Sachen ergeben für mich ohne entsprechende Mehrleistung überhaupt keinen Sinn. :|

Edit:
Oder sollen die G9800GT/GTX schon in 55nm kommen?

AnarchX
2008-01-04, 16:33:34
Oder sollen die G9800GT/GTX schon in 55nm kommen?

Wenn die 180W TDP für die GTX stimmen, wohl eher nicht. Wobei ein optischer Shrink auf 55nm natürlich langfristig möglich wäre, Digitimes hat ja soetwas mal berichtet (http://www.digitimes.com/mobos/a20071129PD216.html).

dargo
2008-01-04, 16:46:37
Ich blicke hier immer noch nicht durch. Die G9800GTX soll ja die G8800GTX und womöglich die G92GTS ersetzen. Wenn die G9800GX2 nur lächerliche 30% schneller sein soll als die G8800Ultra (wobei wir hier sogar von SLI mit den ganzen Nachteilen sprechen *lol*), ja wie schnell soll dann max. die G9800GTX sein? 10-15% schneller als die G8800Ultra? Mein Gott, wird höchste Zeit, dass AMD/ATI NV mal wieder kräftig in der Ars.. tritt. :mad:

Eine R300 Wiederholung wäre genau das Richtige!

Hier passt so Einiges nicht - eine G9800GTX soll also 180W TDP haben. Die G8800Ultra in 90nm hat schon 173W TDP. Und dann soll die G9800GTX nur lächerliche 10-15% schneller sein als die G8800Ultra? :|

Ne Leute, also an die mickrigen Mehrleistungsangaben (zumindest bei der G9800GT/GTX) glaube ich nicht. Da muss Einiges mehr bei rumkommen.

AnarchX
2008-01-04, 16:51:04
Hier passt so Einiges nicht - eine G9800GTX soll also 180W TDP haben. Die G8800Ultra in 90nm hat schon 173W TDP. Und dann soll die G9800GTX nur lächerliche 10-15% schneller sein als die G8800Ultra? :|

Ne Leute, also an die mickrigen Mehrleistungsangaben (zumindest bei der G9800GT/GTX) glaube ich nicht. Da muss Einiges mehr bei rumkommen.

Die GPU muss eben entsprechend viel Druck ausüben, damit durch den Flaschenhals ROPs und Bandbreite am Ende noch genügend Leistung herauskommt und das wirkt sich dann eben auf die TDP aus. :ugly:

Wohlmöglich liefert ja der 9800 GTX Tri-SLI-Verbund die tollen Papier-"Near 3 TFLOPs". :D

dildo4u
2008-01-04, 16:55:34
Wenn GDDR4 genutzt wird sehe ich hier viel Potenzial bei der G92 GTS liegt ja schon viel Shaderpower brach weil die Speicherbandbreite nicht reicht.

laser114
2008-01-04, 16:55:36
Joa, wobei ich das gar nicht witzig finde. Der G92 liegt irgendwie so halb zwischen neue High-End-GPU und neue Performance-GPU (letztere für den Einsatz auf dem GX2). Entweder noch 8 ROPs dazu und das volle SI nutzbar machen oder den Die etwas reduzieren. Ich persönlich würde erstere Variante vorziehen.
Was sich Nvidia dabei gedacht hat, verstehe ich immer noch nicht.

dargo
2008-01-04, 16:56:46
Die GPU muss eben entsprechend viel Druck ausüben, damit durch den Flaschenhals ROPs und Bandbreite am Ende noch genügend Leistung herauskommt und das wirkt sich dann eben auf die TDP aus. :ugly:
Genau. ;D :up:

Der G92 ist eine so unausbalancierte GPU, das tut schon weh. Wenn NV die G9800GT/GTX auch so vermurkst dann flippe ich noch aus. :D

LovesuckZ
2008-01-04, 16:57:06
180W ist aber verdammt viel, wenn man die angeblichen 148Watt der 8800GTS in Betracht zieht. Alleine bei gleicher Speicherbestückung müsste man eine wesentlich höhrere Leistung erreichen.

Genau. ;D :up:
Der G92 ist eine so unausbalancierte GPU, das tut schon weh. Wenn NV die G9800GT/GTX auch so vermurkst dann flippe ich noch aus. :D

So ein Quatsch. Wenn dir das Verhältnis nicht passt, kannst die Karte immer noch af 512/1250MHz takten...

AnarchX
2008-01-04, 16:58:45
Wenn GDDR4 genutzt wird sehe ich hier viel Potenzial bei der G92 GTS liegt ja schon viel Shaderpower brach weil die Speicherbandbreite nicht reicht.

Aber GDDR4 wird NV wohl nicht nutzen, da es für sie "GDDR-ATi" ist. Und mit dem teuersten GDDR4 erreicht man zwar 100GB/s, aber es wird weiterhin an den ROPs mangeln, wo für G80U-Niveau bei 16 ROPs über 900MHz benötigt, aber das Niveau sollte ja noch deutlich übertroffen werden.

180W ist aber verdammt viel, wenn man die angeblichen 148Watt der 8800GTS in Betracht zieht. Alleine bei gleicher Speicherbestückung müsste man eine wesentlich höhrere Leistung erreichen.

800/2000MHz bzw. noch leicht darüber um die near 1/3 TFLOPs zu erreichen und man wird wohl nicht sehr weit entfernt von 180W sein.

dargo
2008-01-04, 16:59:56
Wenn GDDR4 genutzt wird sehe ich hier viel Potenzial bei der G92 GTS liegt ja schon viel Shaderpower brach weil die Speicherbandbreite nicht reicht.
Nicht nur das, der G92 braucht deutlich mehr "ROP-Leistung".

GeneralHanno
2008-01-04, 17:01:38
Meint ihr wirklich der G92 ist Pixelfüllraten limitiert? Und an z-fill mangelt es im Vergleich zu ATi auch nicht ;D

dildo4u
2008-01-04, 17:02:52
Nicht nur das, der G92 braucht deutlich mehr "ROP-Leistung".
Kommt auf die Games an würde ich sagen im Augenblick entwicklet NV in Richtung ATIs DX10 Konzept.(Shaderpower vor allem anderen)Es gibt schon Games die extrem drauf reagieren z.B Bioshock und NFS Pro Street.

dargo
2008-01-04, 17:06:18
Meint ihr wirklich der G92 ist Pixelfüllraten limitiert?
Nun, wir haben einige Tests hier im Forum angestellt - G80GTS vs. G92GTS. Die Leistung der G92GTS war im Durchschnitt um 40% höher. Die arithmetische Leistung ist aber auf dem Papier 80% größer. Da die Bandbreite nur im Verhältnis 1:~0,5 skaliert hat bleiben eigendlich nur noch die beschnittenen ROPs übrig. Es ist natürlich eine gewisse Mischung aus ROPs und Bandbreite.

AnarchX
2008-01-04, 17:10:39
Kommt auf die Games an würde ich sagen im Augenblick entwicklet NV in Richtung ATIs DX10 Konzept.(Shaderpower vor allem anderen)Es gibt schon Games die extrem drauf reagieren z.B Bioshock und NFS Pro Street.
Sicher, aber eine 9800 GTX sollte doch auch Setting schaffen können, wo sich der Flaschenhals auf ROPs und Bandbreite verlagert wird, erst recht wenn sie Tri-SLI-Support mitbringt.

Meint ihr wirklich der G92 ist Pixelfüllraten limitiert? Und an z-fill mangelt es im Vergleich zu ATi auch nicht ;D
Wobei die Z-Fill ab 8xAA ja massiv verschwendet wird und hier ATi zum Teil wieder vorne liegt, laut einigen Messungen.

dargo
2008-01-04, 17:13:44
Kommt auf die Games an würde ich sagen im Augenblick entwicklet NV in Richtung ATIs DX10 Konzept.(Shaderpower vor allem anderen)Es gibt schon Games die extrem drauf reagieren z.B Bioshock und NFS Pro Street.
Hast du dafür auch eine Quelle? Selbst Crysis profitiert von zb. 50% mehr Shaderpower nur zu 25%.

Edit:
Ich kenne nur ein Spiel wo die 80% an mehr arithmetischer Leistung voll durchschlagen, nämlich bei CoH:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/10/

Wobei man hier drei Dinge beachten sollte:

1. CB verwendet in diesem Test verschiedene Treiber. Also sind die Ergebnise mit Vorsicht zu genießen.
2. 84% mehr hören sich schon verdammt seltsam an (könnte an den Treibern liegen).
3. Ein R580 soll also hier 22% (1600x1200 4xAA/16xAF) schneller sein als eine G80GTS? :| (könnte auch an den Treibern bzw. an Vista liegen).

Alle anderen Games (ok, Gothic 3 in 2560x1600 16xAF tanzt auch ziemlich aus der Reihe) liegen weit unter den 80%. Falls jemand einen guten Test mit G92GTS vs. G80GTS640 hat (am besten bitte unter Windows XP) nur her damit.

PS: übrigens, bei Bioshock sehe ich keinen besonderen Shaderpower-Bedarf:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/18/

dildo4u
2008-01-04, 17:19:33
Hast du dafür auch eine Quelle? Selbst Crysis profitiert von zb. 50% mehr Shaderpower nur zu 25%.
Crysis ist lange nicht so Shaderlimitiert wie BS und NFS PS.Quelle sind eigentlich alle 3870 Tests die stehen bei BS und NFS PS sher gut da.

Hab auf die schnelle nur Carbon gefunden dort machen sich die G92GTS und halt die 3870 durch die Shaderpower sher gut wenn man es mit dem Rest der Spiele im Test vergleicht.(Ohne AA und AF)

http://www.ht4u.net/reviews/2007/msi_nx8800gts/index34.php

BioShock

http://www.firingsquad.com/hardware/amd_rv670_performance_preview/page13.asp

Wie gesagt mit GDDR4 sehe ich viel Potenzial für die GF9 selbst wenn sie nur mit einem 256Bit Speicherinterface kommt.

dargo
2008-01-04, 17:48:00
Hab auf die schnelle nur Carbon gefunden dort machen sich die G92GTS und halt die 3870 durch die Shaderpower sher gut wenn man es mit dem Rest der Spiele im Test vergleicht.(Ohne AA und AF)

http://www.ht4u.net/reviews/2007/msi_nx8800gts/index34.php

BioShock

http://www.firingsquad.com/hardware/amd_rv670_performance_preview/page13.asp

Und wo siehst du hier jetzt den besonderen Vorteil durch mehr Shaderpower?

Bei Carbon kommen immerhin von den 80% mehr arithmetischen Leistung bei der G92GTS 46% an in 1600x1200 4xAA/16xAF. Also etwas mehr als die Hälfte.

Bei Bioshock:

G8800GT = 508GFLOPs = 51,5fps
G8800GTS(G80) = 346GFLOPs = 42,8fps

20% Vorteil bei 47% mehr arithmetischer Leistung. Also nix mit besonders hoher Shaderpower.

Edit:
Noch klarer wird das ganze wenn man die G8800GTX dazu nimmt.

G8800GTX = 518GLOPs = 61fps

Dh. obwohl die GTX nur 2% mehr arithmetische Leistung hat ist sie 18% schneller.

Man kann es wenden wie man will. Den G80 hat NV perfekt ausbalanciert, im Gegensatz zum G92. Vielleicht auch zu perfekt.

Hvoralek
2008-01-04, 18:01:56
Mein Gott, wird höchste Zeit, dass AMD/ATI NV mal wieder kräftig in der Ars.. tritt. :mad:Schön wäre es. Mit einer langsameren Doppelchipkarte werden sie das aber wohl wieder höchstens über den Preis schaffen ;(

Meint ihr wirklich der G92 ist Pixelfüllraten limitiert? Und an z-fill mangelt es im Vergleich zu ATi auch nicht ;DPixelfüllrate spielt praktisch nie eine Rolle. R6xx scheint mit seiner Z- Füllrate allerdings ziemlich effizient umzugehen. Gerade RV670 verliert mit AA eigentlich erstaunlich wenig Leistung.

dargo
2008-01-04, 18:13:51
Wie gesagt mit GDDR4 sehe ich viel Potenzial für die GF9 selbst wenn sie nur mit einem 256Bit Speicherinterface kommt.
Das wird nicht reichen. Wie AnarchX und ich schon sagten, alleine durch mehr Bandbreite wird ein G92 seinen deutlich höheren Vorteil bei der arithmetischen Leistung nicht 1:1 in Frames umsetzen können. Dafür fehlt einfach die ROP-Leistung. Man wird natürlich das Endergebnis etwas verbessern können. Bei einer Skalierung von 1:~0,5 (hier möchte ich darauf hinweisen, dass diese Skalierung nur auf eine Erhöhung der Bandbreite von 10% zutrifft) wären es bei der G92GTS in Carbon dann mit 1,2Ghz GDDR4 (vielleicht) ca. 55fps, also G8800GTX Niveau. Vielleicht deswegen, weil die Bandbreite dann schon um 24% erhöht wurde. Ob da die Skalierung von 1:~0,5 noch zutrifft ist fraglich. Es könnten genauso nur noch 1:0,3 sein. Irgendwann bringt noch mehr Bandbreite gar nichts mehr wenn der Rest nicht hinterher kommt.

Da die G92GTS 20% mehr arithmetische Leistung hat als die G8800GTX siehst du, dass mehr Bandbreite alleine nicht reicht damit die G92GTS die G8800GTX eben um diese 20% überholen kann.

Pixelfüllrate spielt praktisch nie eine Rolle.
Bist du dir da sicher? :)
Das ist genau das (außer der Bandbreite natürlich) was beim G92 im Verhältnis zum G80 nicht angepasst wurde.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/2/

AnarchX
2008-01-04, 18:31:46
Bist du dir da sicher? :)
Das ist genau das (außer der Bandbreite natürlich) was beim G92 im Verhältnis zum G80 nicht angepasst wurde.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/2/

Die Z-Füllrate, die er eben auch erwähnt, ebenfalls. ;)

http://www.hardware.fr/articles/671-4/ati-radeon-hd-2900-xt.html (-> ROPs)
... bei 8xAA überholt RV670/R600 G92 wegen der effizienteren Nutzung, was sich dann auch in der Performance wiederspiegelt.

dargo
2008-01-04, 18:37:07
Die Z-Füllrate, die er eben auch erwähnt, ebenfalls. ;)

Nur mal zum Verständnis - ist die Z-Füllrate an die/den ROPs/GPU-Takt gebunden?

GeneralHanno
2008-01-04, 18:51:03
Jap. Eine Rop kann pro ROP und ROP-takt 8 "Z" opperationen durchführen.

AnarchX
2008-01-04, 18:53:14
Jap. Eine Rop kann pro ROP und ROP-takt 4 "Z" opperationen durchführen.

Bei G8x/G9x sind es 8 Z-Tests (http://www.beyond3d.com/resources/chip/117) pro ROP, also bei G80 bis zu 192, bei G92 bis zu 128.
Bei ATi momentan 2 pro ROP, also bei RV670 32.

GeneralHanno
2008-01-04, 18:55:12
ich hatte es schon verbessert, aber du bist einfach zu schnell :D

dargo
2008-01-04, 19:06:37
Bei G8x/G9x sind es 8 Z-Tests (http://www.beyond3d.com/resources/chip/117) pro ROP, also bei G80 bis zu 192, bei G92 bis zu 128.
Bei ATi momentan 2 pro ROP, also bei RV670 32.
Huch. :eek:
Kann AMD/ATI zaubern oder warum kommen die mit nur 32 Z-Tests aus? Eine G80GTS hat gleich 160 davon. Von der Leistung her sind beide afaik ungefähr gleich.

reunion
2008-01-04, 19:11:56
Schön wäre es. Mit einer langsameren Doppelchipkarte werden sie das aber wohl wieder höchstens über den Preis schaffen ;(


NV muss auch deutlich schneller sein wenn die Dual-Karte tatsächlich zwei G92 verwendet.

dargo
2008-01-04, 19:20:05
NV muss auch deutlich schneller sein wenn die Dual-Karte tatsächlich zwei G92 verwendet.
Nun, die 2x 128SPs deuten auf 2x GTS hin. Ich kann mir aber kaum vorstellen, dass NV 2x GTS auf der GX2 verbaut. Das wären ja 280W TDP. :eek:
Kann es sein, dass NV hier den GPU-Takt und dementsprechend die Spannungen stark reduziert (500-550Mhz) um auf ~200W TDP zu kommen?

Godmode
2008-01-04, 19:22:01
Nun, die 2x 128SPs deuten auf 2x GTS hin. Ich kann mir aber kaum vorstellen, dass NV 2x GTS auf der GX2 verbaut. Das wären ja 280W TDP. :eek:
Kann es sein, dass NV hier den GPU-Takt und dementsprechend die Spannungen stark reduziert (500-550Mhz) um auf ~200W TDP zu kommen?

Vielleicht haben sie auch einen G92 in 55nm gefertigt?

dildo4u
2008-01-04, 19:25:06
Kann es sein, dass NV hier den GPU-Takt und dementsprechend die Spannungen stark reduziert (500-550Mhz) um auf ~200W TDP zu kommen?
Wahrscheinlich wie bei der 79X0 GX2.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/2/#abschnitt_technische_daten

dargo
2008-01-04, 19:25:37
Vielleicht haben sie auch einen G92 in 55nm gefertigt?
Jetzt schon für Februar? :confused:
Aber selbst die 55nm würden imho kaum was an der TDP reißen können.

AnarchX
2008-01-04, 19:30:03
Wobei 2x128SPs und ein gesenkter Takt für alle Domains an sich ziemlich dumm sind, da hier ja die ROP-Leistung, die ohnehin wohl schon ein Problem ist, weiter gesenkt wird.
Da wäre 2mal 8800 GT imo sinnvoller. Aber NV will wohl mit 256SPs werben... :rolleyes:

Hier simuliert übrigens jemand die 9800GX2 bzw. versucht es:
http://www.xtremesystems.org/forums/showthread.php?t=171932

reunion
2008-01-04, 19:34:01
Wobei 2x128SPs und ein gesenkter Takt für alle Domains an sich ziemlich dumm sind, da hier ja die ROP-Leistung, die ohnehin wohl schon ein Problem ist, weiter gesenkt wird.
Da wäre 2mal 8800 GT imo sinnvoller. Aber NV will wohl mit 256SPs werben... :rolleyes:


Nicht unbedingt, mehr Einheiten bei weniger Takt ist schlicht stromsparender.

dargo
2008-01-04, 19:34:01
Wobei 2x128SPs und ein gesenkter Takt für alle Domains an sich ziemlich dumm sind, da hier ja die ROP-Leistung, die ohnehin wohl schon ein Problem ist, weiter gesenkt wird.
Da wäre 2mal 8800 GT imo sinnvoller.
Stimmt auch wieder. :uponder:
Aber wenn die GX2 wirklich 2 vollwertige G92GTS verwenden sollte müssten da nicht mehr wie 30% als bei der G8800U bei rumkommen?

Nicht unbedingt, mehr Einheiten bei weniger Takt ist schlicht stromsparender.
Das müsste wohl erstmal nachgewiesen werden. Oder hast du dafür irgendwelche Quelle? :)

dildo4u
2008-01-04, 19:37:11
Aber wenn die GX2 wirklich 2 vollwertige G92GTS verwenden sollte müssten da nicht mehr wie 30% als bei der G8800U bei rumkommen?
Der Takt der einzelnen G92GTS wird doch gesenkt.Bis man die finalen Taktraten hat kann man eh nur Raten wie diese 30% zustande kommen.Nicht vergessen selbst NV wird bei diesen Angaben nicht mit 100% SLI Skalierung rechnen.Vieleicht sind die 30% auch schon von NV erbencht worden niedrige Taktraten in Kombination mit den "SLI Verlusten".

seahawk
2008-01-04, 19:40:05
Wobei 2x128SPs und ein gesenkter Takt für alle Domains an sich ziemlich dumm sind, da hier ja die ROP-Leistung, die ohnehin wohl schon ein Problem ist, weiter gesenkt wird.
Da wäre 2mal 8800 GT imo sinnvoller. Aber NV will wohl mit 256SPs werben... :rolleyes:

Hier simuliert übrigens jemand die 9800GX2 bzw. versucht es:
http://www.xtremesystems.org/forums/showthread.php?t=171932

Man wird sehen wie NV mit den Taktdomains spielen kann.

Hvoralek
2008-01-04, 19:40:46
Huch. :eek:
Kann AMD/ATI zaubern oder warum kommen die mit nur 32 Z-Tests aus? Eine G80GTS hat gleich 160 davon. Von der Leistung her sind beide afaik ungefähr gleich.Inzwischen glaube, ich auch, dass die 8z/ ROP Takt nicht so überdimensioniert sind, wie es auf den ersten Blick aussieht. Entweder geht G8x sehr verschwenderisch mit Füllrate um oder R6xx sehr sparsam. Zu einem Teil mag das deren hierarchier Z- Puffer erklären.

NV muss auch deutlich schneller sein wenn die Dual-Karte tatsächlich zwei G92 verwendet.Es wäre nur schön, wenn AMD endlich mal wieder einen Leistungssieg erringt und nicht immer nur über P/L punkten kann. Das wäre psychologisch wichtig und würde dem Marketing helfen. Das werden sie aber dieses Frühjar offenbar nicht schaffen und nach dem, was ich über die High- End- Modelle im Herbst mitbekommen habe, stehen die Chancen da auch nicht gerade gut. Das wären dann schon zwei Jahre + Lebensdauer dieser Modelle, die Nvidia leistungsmäßig nicht ernsthaft in Bedrängnis geraten wäre.

Nun, die 2x 128SPs deuten auf 2x GTS hin. Ich kann mir aber kaum vorstellen, dass NV 2x GTS auf der GX2 verbaut. Das wären ja 280W TDP. :eek:
Kann es sein, dass NV hier den GPU-Takt und dementsprechend die Spannungen stark reduziert (500-550Mhz) um auf ~200W TDP zu kommen?Ist wohl anzunehmen. Einen doppelten GTS- 512- Verbrauch werden sie wohl kaum wegkühlen können. Ich würde vermuten, dass das etwa zwei 8800 GTs sind (eben etwas breiter und etwas niedriger getaktet, aber mit ähnlicher Leistung und ähnlichem Stromverbrauch).

reunion
2008-01-04, 19:42:04
Das müsste wohl erstmal nachgewiesen werden. Oder hast du dafür irgendwelche Quelle? :)

Das ist logisch, da ein höherer Takt auch mehr Spannung erfordert, mehr Einheiten jedoch nicht.

dargo
2008-01-04, 19:51:19
Das ist logisch, da ein höherer Takt auch mehr Spannung erfordert, mehr Einheiten jedoch nicht.
Das kann ich irgendwie nicht glauben. Warum hat dann eine G92GTS mehr Spannung? Nur wegen den 50Mhz mehr GPU-Takt? Interessant wäre hier zu erfahren ob jede OC G8800GT auch mehr Spannung abbekommt als eine normale GT.

AnarchX
2008-01-04, 19:54:50
Dafür schafft man aber mit einer GTS 512 aber auch meist 800/2000MHz bei der GPU und OC-GTs mit ~700MHz haben durchaus mehr Vgpu, nämlich 1.1V anstatt 1.05V, deren BIOS kann man interessanterweise auch auf ein normale GT flashen und so einen relativ ungefährliche VMod durchführen.

mapel110
2008-01-04, 19:58:54
Das ist logisch, da ein höherer Takt auch mehr Spannung erfordert
386er 33 Mhz 5 Volt
Athlon X2 64 2100 Mhz 1.3 Volt
=)
Kommt halt immer auch auf den Fertigungsprozess an. Was "Chip-Breite" angeht, fällt mir gerade kein Vergleich ein.

reunion
2008-01-04, 20:03:03
386er 33 Mhz 5 Volt
Athlon X2 64 2100 Mhz 1.3 Volt
=)
Kommt halt immer auch auf den Fertigungsprozess an. Was "Chip-Breite" angeht, fällt mir gerade kein Vergleich ein.

Das ein unterschiedlicher Fertigungsprozess darauf auch Einfluss hat ist logisch. Ich ging wie bei der GX2 von gleichen Bedingungen aus. Und da sind zB acht Cluster mit 400Mhz sicher stromsparender als vier Cluster mit 800Mhz.

w0mbat
2008-01-04, 20:16:41
Was ist besser, 9800GX2 oder 9800XT? :biggrin:

Grestorn
2008-01-04, 20:31:01
Das ein unterschiedlicher Fertigungsprozess darauf auch Einfluss hat ist logisch. Ich ging wie bei der GX2 von gleichen Bedingungen aus. Und da sind zB acht Cluster mit 400Mhz sicher stromsparender als vier Cluster mit 800Mhz.

Spannung != Leistungsaufnahme. Alleine deswegen ist Deine Aussage, dass zwei Chips die selbe Spannung brauchen zwar korrekt aber auch völlig belanglos.

Nimm zwei Glühbirnen. Beide haben die selbe Spannung. Betreibst Du sie gleichzeitig verdoppelt sich die Leistungsaufnahme.

reunion
2008-01-04, 20:39:04
Spannung != Leistungsaufnahme. Alleine deswegen ist Deine Aussage, dass zwei Chips die selbe Spannung brauchen zwar korrekt aber auch völlig belanglos.

Nimm zwei Glühbirnen. Beide haben die selbe Spannung. Betreibst Du sie gleichzeitig verdoppelt sich die Leistungsaufnahme.

Ich sehe keinen Zusammenhang zu meinen Beitrag. Niemand bestreitet das zwei Chips die doppelte Leistungsaufnahme haben. Es ging nur darum, warum nV zwei 128SPs Chips mit wohl sehr niedrigen Taktraten bringt, und nicht zB zwei 96SP Chips mit hohen Taktraten. Die Leistungsaufnahme steigt linear mit dem Takt, sie steigt linear mit der Anzahl der Funktionseinheiten, aber sie steigt quadratisch mit der Spannung => Höherer Takt plus die erforderliche höhere Spannung bei gleicher Leistung teurer als mehr Funktionseinheiten.

dargo
2008-01-04, 20:51:56
Ich sehe keinen Zusammenhang zu meinen Beitrag. Niemand bestreitet das zwei Chips die doppelte Leistungsaufnahme haben. Es ging nur darum, warum nV zwei 128SPs Chips mit wohl sehr niedrigen Taktraten bringt, und nicht zB zwei 96SP Chips mit hohen Taktraten.
Das könnte auch einfach daran liegen, dass NV mit hohen TFLOPs auf dem Papier glänzen will. ;)

reunion
2008-01-04, 20:54:56
Das könnte auch einfach daran liegen, dass NV mit hohen TFLOPs auf dem Papier glänzen will. ;)

Auch da könnte man einfach mehr Takt anstatt mehr Funktionseinheiten bringen. Wie schon gesagt, es spart Strom, und das ist gerade bei der GX2 von essentieller Bedeutung.

Hvoralek
2008-01-04, 20:55:23
Das könnte auch einfach daran liegen, dass NV mit hohen TFLOPs auf dem Papier glänzen will. ;)Die könnte man auch mit 6C und hohen Taktraten bekommen.

/edit: zu langsam

dargo
2008-01-04, 20:55:46
Auch da könnte man einfach mehr Takt anstatt mehr Funktionseinheiten bringen.
Mehr Shadertakt ja, aber nicht mehr GPU-Takt.

Hvoralek
2008-01-04, 20:57:08
Mehr Shadertakt ja, aber nicht mehr GPU-Takt.Also rechnest Du mit 8C@ 500/ 1800 oder so?

dargo
2008-01-04, 21:00:32
Die könnte man auch mit 6C und hohen Taktraten bekommen.

Also hier sprach reunion von 400 und 800Mhz. Ich dachte diese Angaben beziehen sich auch den GPU-Takt. Und Dieser hat recht wenig mit der arithmetischen Leistung gemeinsam.

Also rechnest Du mit 8C@ 500/ 1800 oder so?
Was meinst du mit 1800? 1800Mhz Shadertakt oder 900Mhz GDDR3? :D

Bei der G9800GX2, wenn sie wirklich nur ~30% schneller sein soll als die G8800U würde ich von 2x 500-550/1000Mhz ausgehen. Die Frage ist nur was NV mit dem Verhältnis GPU-Takt zum Shadertakt macht. Mich würde es nicht wundern wenn der Shadertakt trotzdem relativ hoch bleibt (ca. 1500-1625Mhz). 1,25 TFLOPs sehen sicherlich schmackhaft auf dem Papier für viele aus. ;)

AnarchX
2008-01-04, 21:08:53
Vielleicht verringert ja bei der GX2 das Shader-Ratio: 600-650 ROP-Domain zu 1300-1500MHz ALUs wäre imo doch wohl sinnvoller und sollte vorallem bei der ROP-Leistung helfen. Zudem sollte die TDP wohl unter einer 512MB GTS liegen, da die SPs nicht gerade einen geringen Einfluss auf den Gesamtverbrauch haben sollten.

Beim RAM denke ich doch, dass man sich nicht wirklich zurückhält, da der Mehrverbrauch wohl zu vernachlässig ist bzw. der 0.83ns GDDR3 von Samsung energie-effizienter sein soll als z.B. der 1.0ns und nicht mehr wirklich viel kosten sollte.

dargo
2008-01-04, 21:13:02
Moment mal, war früher nicht das Gerücht im Umlauf von einer ~1TFLOP Karte?

G9800GX2:
2x 500Mhz (real 513Mhz, siehe G80) GPU-Takt
2x 1250Mhz (real 1283Mhz) Shadertakt
2x 128SPs
2x 256Bit SI

985GFLOPs :D

Hvoralek
2008-01-04, 21:18:09
Also hier sprach reunion von 400 und 800Mhz. Ich dachte diese Angaben beziehen sich auch den GPU-Takt. Und Dieser hat recht wenig mit der arithmetischen Leistung gemeinsam.Ich nehme an, dass er von einer Verdopplung auch des Shadertakts ausging.

Was meinst du mit 1800? 1800Mhz Shadertakt oder 900Mhz GDDR3? :DNatürlich die Shaderdomain.

Ich würde wieder von einem Shader/ Rest- Verhältnis von 2,5 ausgehen, also z.B. 500/1250 oder 550/1325. Zwei solche Riesendice mit so niedrigen Taktraten kämen mir zwar wie Verschwendung vor, aber alles nennenswert darüber dürfte den Stromverbrauch endgültig durch die Decke jagen.

AnarchX
2008-01-05, 00:13:53
http://img295.imageshack.us/img295/5028/02geforce9800gx2114a4eebn2.jpg (http://imageshack.us)
http://img168.imageshack.us/img168/4195/03geforce9800gx2114a457vl6.jpg (http://imageshack.us)
http://img185.imageshack.us/img185/4937/05geforce9800gx21149fb5mr2.jpg (http://imageshack.us)
http://img148.imageshack.us/img148/7276/07geforce9800gx21149ed6qq7.jpg (http://imageshack.us)
- 30-50% schneller als 8800 Ultra
- $449 MSRP
- empfohlenes NT: 580W(40A 12V) (Zum Vergleich 8800 Ultra 500W/30A, was ja schonmal 120W mehr bedeutet :uup:)
- möglicherweise eingebaute Hybrid-Power-Stromspartechnologie (Soetwas? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=391632))

mehr:http://www.tomshardware.tw/309,news-309.html

Nightspider
2008-01-05, 01:07:11
Ob die komplette Wärme wohl durch die paar Schlitze unten gequetscht wird ?

laser114
2008-01-05, 01:07:54
Ich bin auf die Quad-SLI-Treiber gespannt ... ist ja Nvidias zweiter Anlauf.

Nightspider
2008-01-05, 01:20:03
Ich bin auf die Quad-SLI-Treiber gespannt ... ist ja Nvidias zweiter Anlauf.

Es kann nur besser werden. (y)


Mich würde ebenfalls interessieren, ob man 3 dieser Karten zusammenschalten kann.

Edit:

Ach nein, die haben ja nur einen SLI-Konnektor

Gast
2008-01-05, 01:20:16
Ist das diesmal wieder so ein 2-fach PCB Design oder sind die Chips nun auf einer Platine untergebracht? Das wär ja schon riesen Fortschritt...

Gast
2008-01-05, 02:33:49
Schau mal genau hin. Anhand der eigenartigen Kühllösung und der Position der Videoausgänge kann man erkennen, dass es sich leider um eine Doppel-PCB Karte handelt.

Dass dies auf einer Multi-GPU karte auch anders geht, sieht man an der HD3870 X2.

Nightspider
2008-01-05, 02:44:34
Nur hat man die Kühler jetzt wohl zusammengepackt und beide Kühler werden von einem großen leisen Radiallüster wie bei der GTX / GTS gekühlt, wenn ich das richtig sehe.
Das ist schonmal ein Fortschritt.

Gast
2008-01-05, 04:01:31
Die Karte ist wie die anderen GX2 Karten nur was für absolute Highend Enthusiasten. Da kratzt doch der läpische Stromverbrauch der GPUs nicht, wenn der übertaktete Quadcore schon soviel zieht wie eine GX2 ^^

Wie man sich nur drüber aufregen kann ist Amüsant, auch der Vgl. zur HD3870 X2. Lasst Benchmarks sprechen und Leute die sich sowas kaufen.

@AnarchX
Für was brauch so ein Monster mehr ROP Leistung? Bei 8xMSAA läuft man eh gegen eine Unoptimierte Wand an Leistungsverschwendung. Da is man mit SLI SSAA Hybriden besser bedient.

Und Leistung 30% über einer Ultra, auch in den richtig hohen Auflösungen ^^?

Ailuros
2008-01-05, 06:14:28
9800GX2= quad SLi (pfui Teufel)
9800GTX= triple SLi (auch nicht besonders besser)

@AnarchX
Für was brauch so ein Monster mehr ROP Leistung? Bei 8xMSAA läuft man eh gegen eine Unoptimierte Wand an Leistungsverschwendung. Da is man mit SLI SSAA Hybriden besser bedient.

Ich dachte SLi-AA beruht seit G8x hauptsaechlich auf duplizierte MSAA+CSAA Kombinationen. In CPU limitierten Faellen oder in Faellen wo AFR nicht besonders viel bringt kann man die Fuellrate dann schon wohl in mehr (wasauchimmer) AA samples investieren.

Und Leistung 30% über einer Ultra, auch in den richtig hohen Auflösungen ^^?

Wenn AFR richtig laeuft schon.

James Ryan
2008-01-05, 09:32:16
http://img295.imageshack.us/img295/5028/02geforce9800gx2114a4eebn2.jpg (http://imageshack.us)
http://img168.imageshack.us/img168/4195/03geforce9800gx2114a457vl6.jpg (http://imageshack.us)
http://img185.imageshack.us/img185/4937/05geforce9800gx21149fb5mr2.jpg (http://imageshack.us)
http://img148.imageshack.us/img148/7276/07geforce9800gx21149ed6qq7.jpg (http://imageshack.us)
- 30-50% schneller als 8800 Ultra
- $449 MSRP
- empfohlenes NT: 580W(40A 12V) (Zum Vergleich 8800 Ultra 500W/30A, was ja schonmal 120W mehr bedeutet :uup:)
- möglicherweise eingebaute Hybrid-Power-Stromspartechnologie (Soetwas? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=391632))

mehr:http://www.tomshardware.tw/309,news-309.html

Das Ding sieht krass aus aber sieht man im ersten Bild genau hin, steht da "1 GB GDDR3"... das heißt pro GPU nur 512 MB!
Das wäre mal richtiger Schrott, in hohen Auflösungen wäre ein Ultra somit wieder schneller! :crazy:

MfG :cool:

reunion
2008-01-05, 10:06:46
Schau mal genau hin. Anhand der eigenartigen Kühllösung und der Position der Videoausgänge kann man erkennen, dass es sich leider um eine Doppel-PCB Karte handelt.

Dass dies auf einer Multi-GPU karte auch anders geht, sieht man an der HD3870 X2.

Und vorallem wenn schon zwei Platinen, dann sollte das Ding wenigstens kürzer sein, aber auch in dieser Disziplin siehts schlecht aus.

Das Ding sieht krass aus aber sieht man im ersten Bild genau hin, steht da "1 GB GDDR3"... das heißt pro GPU nur 512 MB!
Das wäre mal richtiger Schrott, in hohen Auflösungen wäre ein Ultra somit wieder schneller! :crazy:

MfG :cool:

Da darf nV kräftig am VRAM-Management optimieren, sonst dürfte es selbst gegen die 3870 X2 in sehr hohen Auflösungen schlecht aussehen.

AnarchX
2008-01-05, 10:17:25
Das Ding sieht krass aus aber sieht man im ersten Bild genau hin, steht da "1 GB GDDR3"... das heißt pro GPU nur 512 MB!
Das wäre mal richtiger Schrott, in hohen Auflösungen wäre ein Ultra somit wieder schneller! :crazy:

Wirklich sonderbar, vorallem da viele Hersteller schon 1024MBit GDDR3-Chips verbauen, die man mit bis zu 1GHz ab Werk betreiben kann.

4fache 88GTX-GPU-Rohleistung bei 2/3 deren VRAM bei Q-SLI... X-D

Und vorallem wenn schon zwei Platinen, dann sollte das Ding wenigstens kürzer sein, aber auch in dieser Disziplin siehts schlecht aus.

Naja, sie ist nicht länger als die 8800 Ultra/GTX, obwohl sie deutlich mehr verbraucht. An sich kommt mir das Kühlerkonzept durchdachter vor als bei 3870 X2. Die GPUs scheinen sich ja gegenseitig anzuschauen.

reunion
2008-01-05, 10:23:49
Naja, sie ist nicht länger als die 8800 Ultra/GTX, obwohl sie deutlich mehr verbraucht. An sich kommt mir das Kühlerkonzept durchdachter vor als bei 3870 X2. Die GPUs scheinen sich ja gegenseitig anzuschauen.

Du hast damit genau einen Hot-Spot, auf dem sich die gesamte Wärme konzentriert. Wenn schon zwei GPUs, dann sollte man die auftretende Wärme wenigstens gut verteilen, sodass sich die Chips nicht gegenseitig aufheizen. Aber wir werden ja dann eh sehen, was sich besser schlägt. BTW, wo sind eigentlich die Stromanschlüsse? Ich wäre mir gar nicht so sicher, ob das Ding wirklich so viel mehr als eine 8800U benötigt. Bei nur 30% höherer Leistung in 65nm sollte es das jedenfalls nicht.

AnarchX
2008-01-05, 10:30:25
Du hast damit genau einen Hot-Spot, auf dem sich die gesamte Wärme konzentriert.
Und von dort entsprechend schnell abtransportiert werden kann, während bei der 3870X2 die 2. GPU durch die abtransportierte Wärme der 1. GPU aufgwärmt wird.

Aber natürlich müssen unabhängige Tests zeigen, wie es sich dann in der Praxis verhält.

BTW, wo sind eigentlich die Stromanschlüsse?
Neben dem GeForce unter der Abdeckung:
http://img185.imageshack.us/img185/8968/06geforce9800gx2137f191vo9.jpg (http://imageshack.us)

Ich wäre mir gar nicht so sicher, ob das Ding wirklich so viel mehr als eine 8800U benötigt. Bei nur 30% höherer Leistung sollte es das jedenfalls nicht.
Imo müssen die GPUs hier entsprechend viel kompensieren, was sich dann auf den Verbrauch auswirkt. Zudem sind es ja laut [H] mittlerweile "at least 30%" und laut THG 30-50%...

GeneralHanno
2008-01-05, 11:19:25
Wer weis, was THG gebencht hat. Bestimmt Crysis @ 1280x1024 ohne AA/AF

Gast
2008-01-05, 11:23:06
2 PCB´s verbrauchen doch mehr Strom als eins, viel Glück ATI :):):)

AnarchX
2008-01-05, 11:24:55
Wer weis, was THG gebencht hat. Bestimmt Crysis @ 1280x1024 ohne AA/AF

Wenn dann hat NV gebencht und es auf entsprechenden Folien mit den "Idiotenbalken" dargestellt.;)

Aber gewisse Szenarien sollten aber wohl auch deutlich höhere Gewinn als 50% erlauben, imo:
Need for Speed: Carbon SLI 8800 GTS 512 OC 8800 Ultra OC
1600 (4xAA / 16xAF) 95,75 55,7
1600 (8XQ / 16xAF) 80,85 42,5

http://www.hardtecs4u.com/reviews/2007/msi_8800gts_sli/index13.php

reunion
2008-01-05, 11:28:06
Und von dort entsprechend schnell abtransportiert werden kann, während bei der 3870X2 die 2. GPU durch die abtransportierte Wärme der 1. GPU aufgwärmt wird.


Nur muss dazu der Lüfter dann auch einen entsprechenden Luftstrom erzeugen um den Hot-Spot ausreichend zu kühlen. Mehr Kühlfläche und eine bessere Verteilung der auftretenden Wärme habe ich sicher mit der AMD-Lösung. Und aufheizen tuen sich die beiden GPUs bei nV sogar ganz von alleine.

Wenn dann hat NV gebencht und es auf entsprechenden Folien mit den "Idiotenbalken" dargestellt.;)

Aber gewisse Szenarien sollten aber wohl auch deutlich höhere Gewinn als 50% erlauben, imo:
Need for Speed: Carbon SLI 8800 GTS 512 OC 8800 Ultra OC
1600 (4xAA / 16xAF) 95,75 55,7
1600 (8XQ / 16xAF) 80,85 42,5

http://www.hardtecs4u.com/reviews/2007/msi_8800gts_sli/index13.php

Nur wird das Ding niemals mit den Taktraten der 8800GTS laufen, das wäre eine TDP von 280W. Und teilweise wird es eben auch so aussehen, dass die 8800U kaum langsamer ist bzw. in hohen Auflösungen dank der größeren VRAMs und ohne SLI-Problemen sogar vorbeizieht. Und das bei weniger Stromverbrauch trotz 90nm. Von den Microrucklern ganz zu schweigen. Das nicht gerade unbedeutende Crysis ist da schon so ein Kandidat:

http://www.hardtecs4u.com/reviews/2007/msi_8800gts_sli/index10.php

AnarchX
2008-01-05, 11:44:29
Wenn die 40 zu 30A stimmen, würde mich eine TDP von >=250W nicht verwundern, was darauf hindeutet, dass die Taktraten doch nicht so massiv gesenkt wurden.

Aber natürlich muss ich zustimmen, dass die AFR-basierenden Dual-GPU-SKUs bei beiden IHVs alles andere als optimal sind bzw. zum Teil wie ein schlechter Witz daherkommen.

Naja, da wird man wohl aufs H2 warten müssen, dass ATi sich richtig zurückmeldet und NV entsprechend antwortet.

Adam D.
2008-01-05, 11:45:21
Bitte nicht vergessen, dass eine Ultra immer noch 100-200€ mehr kosten wird als die 9800X2. Vielleicht nimmt sich Nvidia mal des SLi-Problems an, wäre ein günstiger Zeitpunkt meiner Meinung nach.

Gast
2008-01-05, 13:50:43
Wenn die 40 zu 30A stimmen, würde mich eine TDP von >=250W nicht verwundern, was darauf hindeutet, dass die Taktraten doch nicht so massiv gesenkt wurden.

Aber natürlich muss ich zustimmen, dass die AFR-basierenden Dual-GPU-SKUs bei beiden IHVs alles andere als optimal sind bzw. zum Teil wie ein schlechter Witz daherkommen.

Naja, da wird man wohl aufs H2 warten müssen, dass ATi sich richtig zurückmeldet und NV entsprechend antwortet.
250 Watt TDP? Das glaube ich nie im Leben. Selbst wenn die Karte dann "nur" durchschnittlich knapp über 200 Watt konsumieren sollte, würde das eine affenartige Abwärme auf kleinem Raum bedeuten. Die Abwärme wird ja, wenn ich das richtig sehe, hauptsächlich an der Seite abgeben.
Eigentlich hirnrissig im normalen Praxisbetrieb mit geschlosssenem Gehäusedeckel. Hitzestau ahoi.
Für Präsentationszwecke mit offenem Aufbau und Luftschlitzen nach oben ist die Konstruktion ideal. Man sollte auch bedenken, was R600 für einen Lüfter und langen Kühlkörper braucht mit nur afaik 225 Watt TDP und wie heiß und laut er trotzdem geworden ist.
Dann wäre diese "Toasterkonstruktion" über 100 °C warm oder sehr sehr laut.
Glaube eher die Angaben des Netzteils beziehen sich auf QSLi oder sind einfach extrem gewählt um auf der sicheren Seite zu sein bzw. die Netzteilhersteller bisschen beim Absatz zu unterstützen. Würde ins Blaue hineintippen, dass die Karte nicht mehr wie eine Ultra braucht, wenn überhaupt, was trotzdem immer noch eine beachtliche Abwärme darstellt.

Gast
2008-01-05, 14:21:52
Stellt sich immer noch die Frage was die echte 9800GTX dann für eine GPU beinhalten wird. Etwa doch ein selektierter hochgetakteter G92 mit GDDR4 Speicher?
Und die Sache mit D3D10.1 ist ja auch noch nicht raus.

Moralelastix
2008-01-05, 14:27:28
DX10.1 Unterstützung is doch eh Banane.

Und spätestens im Herbst müsste doch was wirklich Neues kommen. Nicht sowas "aufgewärmtes".

GX00?

Gast
2008-01-05, 15:06:22
Das wir dieses Jahr noch einen G100 bekommen hoffe ich auch.
Wir bekomen doch nur eine 9800GTX weil die billiger zu produzieren ist als die 8800GTX. Es gibt keine Konkurrenz und keine Software (Crysis kannste bei den bescheidenen Verkaufszahlen als Argument vergessen).

Moralelastix
2008-01-05, 15:10:36
Es ist echt ein Jammer mit Crysis.

Diese Horden von Dumpfbacken da draußen die über dieses Spiel erfallen.
Ich würd sie am liebsten alle :ufinger:.

Das Bessere ist des Guten Feind.

LovesuckZ
2008-01-05, 15:16:38
Imo müssen die GPUs hier entsprechend viel kompensieren, was sich dann auf den Verbrauch auswirkt. Zudem sind es ja laut [H] mittlerweile "at least 30%" und laut THG 30-50%...

Die GPUs müssen eigentlich nichts kompensieren. Für 30% mehr reichen auch locker 2 GTs mit einer TDP von 110Watt.

dargo
2008-01-05, 16:38:09
- 30-50% schneller als 8800 Ultra
- $449 MSRP
- empfohlenes NT: 580W(40A 12V) (Zum Vergleich 8800 Ultra 500W/30A, was ja schonmal 120W mehr bedeutet :uup:)

Hmm, also ca. 370-380€ Straßenpreis in DE. Da könnte man wirklich schwach werden. Verdammt, eine GPU mit dieser Leistung zum gleichen Preis und ich bin glücklich. ;)

nomadhunter
2008-01-05, 16:53:48
Die GPUs müssen eigentlich nichts kompensieren. Für 30% mehr reichen auch locker 2 GTs mit einer TDP von 110Watt.
Die 8800M GTX kommt mit 96SPs @ 1250 MHz auf 35W TDP. Da die Verlustleistung linear zur Chipbreite skalieren sollte, wären das ~47W TDP für einen 128SP-Chip @ 1250 MHz. Wenn man wirklich wollte, könnte man also eine GX2 mit 100W TDP bauen, die trotzdem die geforderten 30-50% mehr als die Ultra leistet. Da im Desktopbereich auch 200W TDP noch unter Kontrolle zu kriegen sind, mach ich mir um die Leistungsaufnahme keine sorgen. Natürlich müsste man dafür die Chips wie beim Notebookmodell selektieren und mit kleinerer Spannung betreiben, aber die 9800GX2 wird eh nur einen Nieschenmarkt bedienen.

Ailuros
2008-01-05, 18:23:44
Ich frage mich eigentlich warum sich einige aufregen; dass es nichts besseres fuer das erste Halbjahr als dieses Gx2 Dingsbums geben wird floss schon so lange in der Luft rum, dass es keinen ueberraschen sollte.

Natuerlich hat so eine Loesung ihre Nachteile und natuerlich ist sie nicht attraktiv fuer 8800GTX oder Ultra Besitzer. Es ist und bleibt ein Zwischenschieber mit hoffentlich genau so kleiner Lebenszeit wie die der G71 GX2.

Was jetzt die Leistung betrifft, es gibt mehr als nur einige Faelle wo das Ding bis zu 50% schneller als eine Ultra ist; schneller als 2*GTX@SLi ist das Dingsbums auf jeden Fall nicht.

Stromverbrauch: hmmmm wenn Euch der Stromverbrauch zu hoch klingt, will ich Eure Gesichter in H2 2008 sehen LOL ;)

Adam D.
2008-01-05, 18:38:38
Stromverbrauch: hmmmm wenn Euch der Stromverbrauch zu hoch klingt, will ich Eure Gesichter in H2 2008 sehen LOL ;)
:( Hatte eigentlich gehofft, dass die Entwicklung nicht wieder in diese Richtung gehen wird.

AnarchX
2008-01-05, 18:43:38
:( Hatte eigentlich gehofft, dass die Entwicklung nicht wieder in diese Richtung gehen wird.

Solange die Pro-Watt-Leistung stimmt und das Teil nicht 100W im Idle verbraucht ist doch alles in Ordnung.
Das 3-fache G80-Leistung im H2 08 gewisse Opfer fordet war ja klar, da rein von der Architektur ja nicht unbedingt viel Potential vorhanden sein sollte.

Adam D.
2008-01-05, 18:45:14
Solange die Pro-Watt-Leistung stimmt und das Teil nicht 120W im Idle verbraucht ist doch alles in Ordnung.
Das 3-fache G80-Leistung im H2 08 gewisse Opfer fordet war ja klar, da rein von der Architektur ja nicht unbedingt viel Potential vorhanden sein sollte.
Ja, sicher. Aber Ails Aussage klingt schon nach heftigem Verbrauch ... So deutlich äußert er sich ja normalerweise nie ;) Vielleicht haben wir ja Glück und Nvidia kriegt endlich einen ordentlichen 2D-Modus für die Desktop-Karten hin, dann würden sich die Peak-Werte im 3D ja wieder zum Teil relativieren.

Ailuros
2008-01-05, 18:50:12
Ja, sicher. Aber Ails Aussage klingt schon nach heftigem Verbrauch ... So deutlich äußert er sich ja normalerweise nie ;) Vielleicht haben wir ja Glück und Nvidia kriegt endlich einen ordentlichen 2D-Modus für die Desktop-Karten hin, dann würden sich die Peak-Werte im 3D ja wieder zum Teil relativieren.

Heftiger Verbrauch fuer eine wirklich heftige Leistungssteigerung.

Adam D.
2008-01-05, 18:58:12
Heftiger Verbrauch fuer eine wirklich heftige Leistungssteigerung.
Na gut, wenn's nicht anders geht, dann muss es wohl sein. Mit dem nächsten Shrink/Refresh wird's vielleicht wieder etwas besser. Aber ich denke, wenn das Ding wirklich so brutal wird, kann man ja mal etwas über den Stromverbrauch hinweg sehen.

Botcruscher
2008-01-05, 18:58:52
Stromverbrauch: hmmmm wenn Euch der Stromverbrauch zu hoch klingt, will ich Eure Gesichter in H2 2008 sehen LOL ;)


Also gehts langsam in die Richtung wo ein klar denkender Normalspieler lieber die Finger davon läst? Alles über 150W können die behalten.

Auf das Performence/Watt gesülze kann ich verzichten. Der Drehstromanschluß im Keller bleibt ungenutzt!

dargo
2008-01-05, 19:39:38
Ich frage mich eigentlich warum sich einige aufregen; dass es nichts besseres fuer das erste Halbjahr als dieses Gx2 Dingsbums geben wird floss schon so lange in der Luft rum, dass es keinen ueberraschen sollte.

Naja, man wird wohl träumen dürfen. ;)


Stromverbrauch: hmmmm wenn Euch der Stromverbrauch zu hoch klingt, will ich Eure Gesichter in H2 2008 sehen LOL ;)
Huch, jetzt sag mir bitte nicht die 300W werden nahezu ausgeschöpft. :eek:

Moralelastix
2008-01-05, 19:57:09
Da bin ich ja jetzt schon gespannt was da für Kühllösungen kommen.

Wakü Anschluss ab Werk. So wie bei dem G80 GTX Muster?

Im Prinzip ist ja bei den Kühlern a la GTX schon alles ausgereizt.

Nakai
2008-01-05, 20:14:53
Im Prinzip ist ja bei den Kühlern a la GTX schon alles ausgereizt.

Größer geht immer.

Ne Vaporchamber und dann noch 3 Slots.;)

Also gehts langsam in die Richtung wo ein klar denkender Normalspieler lieber die Finger davon läst?

Da freut sich Tombman. ;D


mfg Nakai

Gast
2008-01-05, 20:22:49
Naja, man wird wohl träumen dürfen. ;)


Huch, jetzt sag mir bitte nicht die 300W werden nahezu ausgeschöpft. :eek:
300 Watt, ist das als oberstes Limit irgendwo festgesetzt?
Also selbst 250 Watt wär mir schon zu heftig. Vor allem wäre das Monster in 65 oder 55 nm gefertigt. Selbst mit 45 nm würden dann ca. um die 200 Watt Verbrauch bleiben. Und dann soll ja wieder eine Leistungssteigerung kommen.
Wo soll diese endlos Power-Consumption-Spirale enden?
Habe das Gefühl, selbst bei Liebhabern von schöner 3D Grafik wird sich bald die Spreu vom Weizen trennen.
Ist ja schon wie beim Poker, wer kann geht mit, der Rest steigt aus.

dargo
2008-01-05, 20:27:05
300 Watt, ist das als oberstes Limit irgendwo festgesetzt?

Bei PCIe 2.0 schon.


Wo soll diese endlos Power-Consumption-Spirale enden?

Das frage ich mich allerdings auch. PCIe 3.0 mit max. 600W? :|

reunion
2008-01-05, 20:33:44
Bei PCIe 2.0 schon.


Das interessiert aber dann im Fall der Fälle auch niemanden mehr, sonst wäre eine 8800GTX oder eine 2900XT gar nicht möglich gewesen. Denn PCIe1.1 spezifiziert max. 150W.

dargo
2008-01-05, 20:39:09
Das interessiert aber dann im Fall der Fälle auch niemanden mehr, sonst wäre eine 8800GTX oder eine 2900XT gar nicht möglich gewesen. Denn PCIe1.1 spezifiziert max. 150W.
Wenn man es so möchte erfüllen die beiden Karten auch nicht die PCIe 1.x Spezifikation. Ich finde aber, dass die max. Stromverbräuche bei einer PCIe Spezifikation nichts zu suchen haben. Schließlich ist es egal wieviele und welche Stromanschlüße extern, sprich auf der Graka vorhanden sind. Das Mainboard wird ja trotzdem mit max. 75W belastet.

LovesuckZ
2008-01-05, 20:43:12
Wo soll diese endlos Power-Consumption-Spirale enden?


In besseren Stromsparmechanismen. AMD's Powerplay ist nur der Anfang.

dargo
2008-01-05, 20:44:22
In besseren Stromsparmechanismen. AMD's Powerplay ist nur der Anfang.
Das bringt bei Last aber recht wenig.

LovesuckZ
2008-01-05, 20:46:56
Das bringt bei Last aber recht wenig.

Wer mit voller LAST spielen will, muss eben die Konsequenzen tragen.
Es gibt noch soviele Verbesserung für Aktivitäten.

StefanV
2008-01-05, 20:54:22
Interessant ist die Bauweise der beiden Karten!

Da hat man die eine 'umgedreht', wie man sieht, so dass man den Kühler zwischen beiden Karten klatschen kann und mit 1 recht großen Lüfter auskommt...

So spart man sich 'nen Krachmacher a la 7950 GX2...

dargo
2008-01-05, 20:55:54
Wer mit voller LAST spielen will, muss eben die Konsequenzen tragen.

Das ist mir schon bewußt. Nur wo soll das enden? Denke einfach an ein PCIe 3.0 mit max. 600W. Würdest du eine Grafikkarte mit ~500W reale Verlustleistung noch kaufen, auch wenn sie sagen wir mal 6x so schnell ist wie eine G8800GTX? Der Fertigungsprozess kann gar nicht so schnell sinken wie die Leistungssprünge kommen.

Edit:
Vor nicht all zu langer Zeit hat man sich aufgeregt, dass Grafikkarten die 100W real gesprengt haben. 2008 werden wohl die 200W gesprengt. Wie soll das in ca. 5 Jahren aussehen?

Moralelastix
2008-01-05, 21:00:41
Das regelt der Markt. Soll sich NV in erster Linie um die Mehrleistung kümmern.

Wenn sie Ihre Stromfresser nicht mehr loswerden können is das wieder ne Chance für AMD.

LovesuckZ
2008-01-05, 21:01:21
Solche PCs werden einfach zu Spielemaschinen umgestempelt, der direkt neben einen kleinen billigen 500€ Notebook oder 200€ PC steht.
Und bei 500 Watt wäre die Karte wohl 10x so schnell wie eine 8800GTX.

/edit: AMD geht es doch garnicht anders. Abgesehen von Powerplay - das nVidia auch schon unterstützt siehe Notebookmarkt - haben sie den Vorteil der 55nm Fertigung. Stromsparend sind diese Karten unter Last auch nicht und haben ein schlechteres Ratio als die nVidia Karten.

Gmax
2008-01-05, 21:19:00
3-fache G80-Leistung? Mit nur einem Chip, oder doch zwei?

Das glaub ich erst, wenn die Karte da ist.

dargo
2008-01-05, 21:23:03
3-fache G80-Leistung? Mit nur einem Chip, oder doch zwei?

Ist das nach fast 2 Jahren so verwunderlich?

reunion
2008-01-05, 21:49:16
Ist das nach fast 2 Jahren so verwunderlich?

Bis dahin sind es drei Jahre. G80GTX kam November 2005.

dildo4u
2008-01-05, 21:51:28
Bis dahin sind es drei Jahre. G80GTX kam November 2005.
2006.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/

reunion
2008-01-05, 21:53:02
Tatsächlich. Brainfault.

GeneralHanno
2008-01-05, 21:58:10
Angeblich soll der chip ca. 2,5x so viele transistoren haben, wie der G80. Daher kann man auch mit ca. 3x so viel leistung rechnen. Logisch, dass dort der Verbrauch entsprechend sein wird.

dargo
2008-01-05, 22:00:36
Bis dahin sind es drei Jahre. G80GTX kam November 2005.
Schön wärs. :)
Dann hätten wir heute wohl schon =>1TFLOP Grakas drin. :D

Angeblich soll der chip ca. 2,5x so viele transistoren haben, wie der G80. Daher kann man auch mit ca. 3x so viel leistung rechnen. Logisch, dass dort der Verbrauch entsprechend sein wird.
Wobei ich bei den 3x G8800GTX eher "nur" von der arithmetischen Leistung ausgehe, also ~1,5 TFLOPs. Ob das dann 3 fache Spieleleistung bedeutet müssen spätere Games zeigen, sprich ob der Shaderpower-Hunger bei Games Ende 2008 deutlich steigt.

Edit:
Man will eine GPU mit 1,7 Milliarden Transistoren bauen? Ach du sche... :eek:

GeneralHanno
2008-01-05, 22:11:02
Naja, wenigstens wird die karte nicht an zu wenig bandbreite kränkeln (so wie der G92), denn Nvidia kann 512bit und/oder GDDR5 ver bauen ;D

Edit: wayne? Der Transistorencount steigt seit eh und je ... was zählt ist die die-size. das wären dann 480mm² * 2,5 * (55nm/90nm)² = 448 mm²

Damit wäre die Die (55nm halte ich für glaubwürdig), sogar noch GERINGER!!!! als beim G80, solange die Packdichte nicht so kathastrophal wie beim G92 ausfällt (und beim G100 wird nvidia sich sicher mühe geben)

laser114
2008-01-05, 22:49:11
Tja, mal schauen wie die Packdichte aussieht ... davon hängt relativ viel ab Beim G92 kam ja hauptsächlich der Video-Decoder und die TAs dazu, vermutlich also nichts was man leicht dazuquetschen kann.

GeneralHanno
2008-01-05, 23:58:30
Wie war das eigentlich bei Nvidia: Haben die nicht auch 2 Entwicklerteams ? Und die haben doch - anders als bei ATi - immer jeweils eine komplette Generation "durchgezogen" !?

Zum Thema 2,5x G80 Transistoren: Allgemein sieht man, dass der Fortschritt in Fertigungstechnik dies zulässt. Obs jetzt 450, 500 oder 600 mm² die-size sind, nach dem G80 sollte uns bei Nvidia nichts mehr schocken :D

LovesuckZ
2008-01-06, 00:04:56
Der DIE - Size ist das wichtigswte Kriterium. Will man die Produkte noch wirtschaftlich anbieten, darf nicht zu riesig. Ausserdem kommt es bei großen DIEs eben auch zu einer erhöhten Gefahr von Produktionsfehlern.
Bei 400mm² und der Packdichte des rv670 käme man auf 1387 Millionen Transistoren. Das sollte reichen, um mindesten 2,5fache Geschwindigkeit zum G80 zu erreichen.

Coda
2008-01-06, 03:42:14
Die ist keine Abkürzung.

Gast
2008-01-06, 05:38:11
Geforce9 als Name is totaler Dummfang,es ist einfach nur 8800er SLI in einer Karte. Werds sicher nicht kaufen,auch nicht die Einzelkarte,der Umstieg ist bei ner 8800 GT/GTX nicht Wert.

NV will nochmal extra abkasisieren,bevor die nächste echte Generation G100 kommt. Ich empfehle zu warten.

Ailuros
2008-01-06, 09:30:24
Naja, wenigstens wird die karte nicht an zu wenig bandbreite kränkeln (so wie der G92), denn Nvidia kann 512bit und/oder GDDR5 ver bauen ;D

GDDR5 hoechstwahrscheinlich ja; SI aber auf keinen Fall nicht mit 512bit. Bei 2.5GHz@512bit sind es schon 320GB/s Bandbreite. Mit welchem Faktor steigert sich die Bandbreite in den letzten Generationen? Auf jeden Fall ist die arithmetische Steigerung nicht gleich so gross wie die der Bandbreite.

Edit: wayne? Der Transistorencount steigt seit eh und je ... was zählt ist die die-size. das wären dann 480mm² * 2,5 * (55nm/90nm)² = 448 mm²

Netter Performance-chip *kicher*

Ailuros
2008-01-06, 09:32:43
Man will eine GPU mit 1,7 Milliarden Transistoren bauen? Ach du sche... :eek:

Ich schaetze zumindest so viel; es koennten auch locker 2.0 sein.

Moralelastix
2008-01-06, 09:40:15
Wow! 2.000 Mio Transen, woher willst das wissen?

Hat dein Orakel schon offen?


Vielleicht ist's an der Zeit für Anarchx einen Fred aufzumachen.

Adam D.
2008-01-06, 09:44:18
Er hat schon seine Quellen, kann man sich drauf verlassen ;)

Aber bei 2 Milliarden Transistoren klappt sogar meine Kinnlade runter. Ich frag mich, wie man das alles auf ein Board packen will. Nvidia Apocalypse würde wohl eine treffende Produktbezeichnung sein.

GeneralHanno
2008-01-06, 09:46:35
GDDR5 hoechstwahrscheinlich ja; SI aber auf keinen Fall nicht mit 512bit. Bei 2.5GHz@512bit sind es schon 320GB/s Bandbreite. Mit welchem Faktor steigert sich die Bandbreite in den letzten Generationen? Auf jeden Fall ist die arithmetische Steigerung nicht gleich so gross wie die der Bandbreite.

Netter Performance-chip *kicher*

Naja, ob H2/08 schon GDDR5 mit solchen Taktraten verfügbar sein wird? Da halte ich 1,5-2GHz für realistischer ...

Soll ich deine Äußerung so deuten (die These habe ich schonmal geäußert), dass Nvidia die langfristige Strategie verfolgt, sehr große dice zu fertigen und der G80 war erst der Anfang !?
G80 = 480mm²
G100 = 600mm² + ?!

reunion
2008-01-06, 10:07:23
Netter Performance-chip *kicher*

Naja, soetwas wird man dann wohl erst in 45nm oder noch später sehen. Im High-End-Bereich kann man das vielleicht machen, ein solches Die zu fertigen (:D), aber im Midragebereich sind da weiter arge Grenzen gesetzt, wenn man wirtschaftlich fertigen will.

GeneralHanno
2008-01-06, 10:52:35
OT: Was ist eigeentlich der Half-node zwischen 45 und 32 nm ?

=Floi=
2008-01-06, 11:12:32
38nm Das hättest du dir auch selbst ausrechnen können :rolleyes:

GeneralHanno
2008-01-06, 11:17:47
du meinst, weil es die mitte ist?
der half-node zwischen 65nm und 90nm ist 80nm != 0,5(65nm+90nm)
;)

reunion
2008-01-06, 11:25:34
Eben. Das hängt von der Foundry ab und lässt sich aktuell noch gar noch sagen. Infineon verwendete bsw. 75nm als Half-Node zwischen 90nm und 65nm.

Nakai
2008-01-06, 11:29:10
NV will nochmal extra abkasisieren,bevor die nächste echte Generation G100 kommt. Ich empfehle zu warten.

Lol, was denkst du, mach ich jetzt?


mfg Nakai

GeneralHanno
2008-01-06, 11:35:20
Naja wenn das der G100 als NV10k800GTX kommt mit einer UVP von 599$, das ist dann kein "abkassieren" oder wie :rolleyes:

reunion
2008-01-06, 11:39:06
Lol, was denkst du, mach ich jetzt?


mfg Nakai

Das Ding kommt - wenn alles nach Plan läuft - im Herbst. G80 sollte übrigens ursprünglich Anfang 2006 kommen. Viel Spaß beim warten. Warten kann man immer, ob dies sinnig ist, darf allerdings getrost bezweifelt werden.

laser114
2008-01-06, 11:50:15
OT: Was ist eigeentlich der Half-node zwischen 45 und 32 nm ?

In einem Interview von irgendeinem TSMC-Mensch (was ich gerade nicht zur Hand habe) sprach der vom 40nm-Half-Node.

AnarchX
2008-01-06, 12:00:29
Ich schaetze zumindest so viel; es koennten auch locker 2.0 sein.
... und dazu noch >200W Realverbrauch unter 55nm. :crazy:

Bezog sich diese Meldung wohl doch nicht auf ein SLI-Gespann:
http://www.nordichardware.com/news,6911.html
:D

dargo
2008-01-06, 12:08:31
Bezog sich diese Meldung wohl doch nicht auf ein SLI-Gespann:
http://www.nordichardware.com/news,6911.html
:D
Also, ich lese hier was von G9800 die angeblich im Februar/März erscheinen soll. Und nur mit Triple-SLI erreicht man die 3TFLOPs. Also kann man bei einer G9800GTX von 1TFLOP ausgehen. Oder verwechsle ich hier was?

=Floi=
2008-01-06, 12:13:58
65nm zu 55nm = 39,66% kleiner
45nm zu 38nm = 40% kleiner

Nakai
2008-01-06, 12:15:41
45nm zu 38nm = 40% kleiner

Wie kommst du immer auf 38nm?

mfg Nakai

Adam D.
2008-01-06, 12:21:57
Es geht um die selbe prozentuale Abnahme der DIE-Fläche.

AnarchX
2008-01-06, 12:26:44
Also, ich lese hier was von G9800 die angeblich im Februar/März erscheinen soll. Und nur mit Triple-SLI erreicht man die 3TFLOPs. Also kann man bei einer G9800GTX von 1TFLOP ausgehen. Oder verwechsle ich hier was?

Natürlich kann 9800 GTX * 3 auch die ~ 3 TFLOPs bringen, aber bevor dem Update bei NCHW schrieben sie ja noch etwas von einem Schaltkreis (ASIC). Und wenn Ailuros' abenteuerlichen Andeutungen über "G100" stimmen sollten, dann würde ich schon 3 TFLOPs oder gar mehr erwarten und das sich der Faktor 3 gegenüber G80 wohl nur auf "at least 3 times G80" bezieht.


Meine momentane Vorstellung von dem Teil:
- 10 * 8 TMUs (FP16 mit voller Geschwindigkeit) -> 80 TMUs
- 10 * 32SPs MADD+MUL (zwar wohl ineffizienter als 20*16, aber eben auch billiger) -> 320SPs
- 5 * 8 ROPs -> 40 ROPs
- 5 * 64 Bit -> 320 Bit
- D3D10.1
- schnelles DP
- ~1.8Mrd. Transistoren
- ~600mm²

- mögliche High-End-SKU (die GPU-Taktraten wurden AFAIR hier schon irgendwann mal erwähnt als Projektion für eine zukünftige NV-GPU)
- 1GHz ROP/TMUs:
-40GPix/s(~3x G80GTX),
-320 GZix/s((~3x G80GTX wichtig für 8xMSAA Performance)
- 80 GTex/s (~2.1x G80GTX, da Tex-Fill unwichtiger wird und die TMUs hier eh effizienter wären)

- 3GHz SPs
- ~ 2880GFLOPs (5.5x G80GTX)

- 1280MB GDDR5 mit 2-2.5GHz : 160-200GB/s (bis zu 2.2x G80GTX)
- 250-280W TDP
- $699

dargo
2008-01-06, 12:33:47
Natürlich kann 9800 GTX * 3 auch die ~ 3 TFLOPs bringen, aber bevor dem Update bei NCHW schrieben sie ja noch etwas von einem Schaltkreis (ASIC). Und wenn Ailuros' abenteuerlichen Andeutungen über "G100" stimmen sollten, dann würde ich schon 3 TFLOPs oder gar mehr erwarten und das sich der Faktor 3 gegenüber G80 wohl nur auf "at least 3 times G80" bezieht.

3 TFLOPs ja, aber sicherlich nicht mit einer 9800. ;)
Darum gings mir. Und ob so ein G100 Monster planmäßig noch 2008 erscheint ist auch eher fraglich.


Meine momentane Vorstellung von dem Teil:
- 10 * 8 TMUs (FP16 mit voller Geschwindigkeit) -> 80 TMUs
- 10 * 32SPs MADD+MUL (zwar wohl ineffizienter als 20*16, aber eben auch billiger) -> 320SPs
- 5 * 8 ROPs -> 40 ROPs
- 5 * 64 Bit -> 320 Bit
- D3D10.1
- schnelles DP
- ~1.8Mrd. Transistoren
- ~600mm²

- mögliche High-End-SKU (die GPU-Taktraten wurden AFAIR hier schon irgendwann mal erwähnt als Projektion für eine zukünftige NV-GPU)
- 1GHz ROP/TMUs:
-40GPix/s(~3x G80GTX),
-320 GZix/s((~3x G80GTX wichtig für 8xMSAA Performance)
- 80 GTex/s (~2.1x G80GTX, da Tex-Fill unwichtiger wird und die TMUs hier eh effizienter wären)

- 3GHz SPs
- ~ 2880GFLOPs (5.5x G80GTX)

- 1280MB GDDR5 mit 2-2.5GHz : 160-200GB/s (bis zu 2.2x G80GTX)
- 250-280W TDP
- $699

Boah, das wäre echt der Wahnsinn wenn so ein (Crysis)moster noch 2008 erscheinen würde. :D

reunion
2008-01-06, 12:34:02
Sorry, aber man sollte schon zumindest etwas realistisch bleiben. 3 TFLOP ist Faktor 6 ggü. einem G80. Die Transistorenanzahl steigt um Faktor ~2.5. Und die 1Ghz TMU/ROP-Takt und 3Ghz SP-Takt können wohl auch nur ein Scherz sein wenn ich mir die Taktrate des 65nm Chips von NV ansehe.

GeneralHanno
2008-01-06, 12:43:05
Bei den Taktraten würde ich Nvidiatypisch eher auf die Hälfte tippen (500-600 MHz TMU/ROP-takt). Vielleicht wurde der shader-ration aber auch 1:3 oder 1:4 angehoben. Also irgend etwas zischen 1500MHz und 2400MHz ...

AnarchX
2008-01-06, 12:46:59
Sorry, aber man sollte schon zumindest etwas realistisch bleiben. 3 TFLOP ist Faktor 6 ggü einem G80. Die Transistorenanzahl steigt um Faktor ~2.5. Und die 1Ghz TMU/ROP-Takt und 3Ghz SP-Takt können wohl auch nur ein Scherz sein wenn ich mir die Taktrate des 65nm Chips von NV ansehe.

Aber wofür sonst, als soetwas sollte man fast 2 Mrd. Transistoren verballern und dann trotzdem noch >200W Realverbrauch bei 55nm haben?

Bei NV40 auf G71 schaffte NV ja immerhin die 3-fache MADD-Leistung ohne den Verbrauch zu steigern und großartig mehr Transistoren auszugeben.

Zudem wissen wir beide welche Leistung ATi mit dem R700 anzielt und das gilt es nunmal für NV zu toppen...

GeneralHanno
2008-01-06, 12:48:38
Gibt ja auch noch die Theorie von 2*MADD ...

Hvoralek
2008-01-06, 12:54:07
Meine momentane Vorstellung von dem Teil: [...]

- mögliche High-End-SKU (die GPU-Taktraten wurden AFAIR hier schon irgendwann mal erwähnt als Projektion für eine zukünftige NV-GPU)
[INDENT]- 1GHz ROP/TMUs: Du meinst den letzten Absatz von dieser Äußerung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6121733#post6121733)?. Wenn aths sich dabei wirklich auf diesen Oschi bezog und auch der Shadertakt entsprechend hoch ausfällt... :uponder:

Gast
2008-01-06, 13:25:40
Das Ding kommt - wenn alles nach Plan läuft - im Herbst. G80 sollte übrigens ursprünglich Anfang 2006 kommen. Viel Spaß beim warten. Warten kann man immer, ob dies sinnig ist, darf allerdings getrost bezweifelt werden.

Nun AMD hat ja genug Zeit gebraucht, so dass man sich Zeit lassen kann, nicht wahr... Wann sollte R520 kommen, wann sollte R600 kommen, wann sollte! R700 kommen. Rien ne va plus...