PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 9: 9800GTX und GX2


Seiten : 1 2 3 [4]

AnarchX
2008-01-16, 11:31:06
Falsch. Der G200 erscheint frühestens in 1 Jahr und wird dann DirectX 11 Unterstützung bieten. DirectX 10.1 wird jetzt benötigt und kommt mit der Geforce 9 Generation.
Ohne Quellen sind solch gewagten Aussagen leider nicht viel wert.
So z.B. spricht NV selbst nur von DX10 SM4.0 für 9600GT und 9800GX2.

Und G100 ist der D3D11-Chip:
G9x -> G200 -> G100
;)

Ich hoffe du hast Recht... allerdings siehts momentan eher nicht so aus!
D9E = G92 GX2
D9P = G92

Wohl genauer:
D9E-40: 9800 GX2 Februar
D9E-20 ~ 9800 GTX mit Tri-SLI-PCB, 512MB (~1.5GHz), selektierter G92, 180W TDP, Februar

D9P-40: 9800 GT (G92@55nm?) Q2?
D9P-20: 9600 GT Februar
D9P-10 ~ 9600GS (48SPs/192Bit?) (OEM-only?)

...

dargo
2008-01-16, 11:32:23
Und G100 ist der D3D11-Chip:
G9x -> G200 -> G100
;)

Eher:
G9x -> GT200 -> G100
;)

AnarchX
2008-01-16, 11:34:02
Eher:
G9x -> GT200 -> G100
;)

Naja, bisher hat nur Fudo das "T" eingeschleust...

Paul Brain
2008-01-16, 11:55:19
D9E-20 ~ 9800 GTX mit Tri-SLI-PCB, 512MB (~1.5GHz), selektierter G92, 180W TDP, FebruarWTF, 180W TDP?!? Und ich dachte, das wird endlich ein G80-Nachfolger mit geringerem Stromverbrauch... Die G92-GTS taugt ja nicht wirklich für meine Anforderungen (1920x1200)... Na geil. Eigentlich hab ich nur aus Rücksicht auf mein damals schweineteures, wassergekühltes Netzteil noch eine 7900GTX drinnen. Vielleicht schraub ich doch einfach eine GT rein, und bau mir Anfang kommenden Jahres ein komplett neues System mit dem Nehalem...

D9P-40: 9800 GT (G92@55nm?) Q2?Das ist das erste Mal, daß ich von dieser Karte höre... Kann man die leistungstechnisch schon ungefähr einordnen?

Gast
2008-01-16, 12:08:55
Das ist das erste Mal, daß ich von dieser Karte höre... Kann man die leistungstechnisch schon ungefähr einordnen?

Wird wohl nichts anderes als eine umgelabelte 8800GT.

AnarchX
2008-01-16, 12:09:03
WTF, 180W TDP?!? Und ich dachte, das wird endlich ein G80-Nachfolger mit geringerem Stromverbrauch...
Naja, die GTS 512MB hat ja schon eine TDP von 140W, das ist man mit einer Takterhöhung inkl. Spannungserhöhung doch schnell bei 180W.


Das ist das erste Mal, daß ich von dieser Karte höre... Kann man die leistungstechnisch schon ungefähr einordnen?
Siehe in Post #1. Ich würde ehrlich gesagt 88GT - 88GT 512MB Performance erwarten, bei vielleicht etwas niedrigerem Stromverbrauch dank 55nm, was aber nicht ganz so sicher ist. Aber die Infos von Digitimes über einen 55nm D9P im Q2 passen doch mit den Lauchdaten der 9800 GT von [H] etwas überein und wenn G92 noch länger exisitiert, wäre der optische Shrink für diesen wohl angebracht und nicht unbedingt schwierig.

Paul Brain
2008-01-16, 12:21:21
Naja, die GTS 512MB hat ja schon eine TDP von 140W, das ist man mit einer Takterhöhung inkl. Spannungserhöhung doch schnell bei 180W.Ich glaub, ich kauf mir eine GTS und löt mir auf die den Speicher von der kommenden 9800GTX selbst drauf. :uroll:
Da frag ich mich aber, was der neue Prozess wirklich bringt, wenn die neuen Karten in Reichweite einer G80-Ultra stehen und genausoviel verbrauchen... Ich brauch keine Mörder-Shaderpower, die zum SI ned dazupaßt, zumindest nicht bei aktuellen Spielen...

nomadhunter
2008-01-16, 14:43:31
Der neue Prozess bringt in erster Linie eine gigantische Ersparnis für NVIDIA. G80 ist mehr als 1,5x so groß wie G92, das PCB ist wegen dem höheren Speicherinterface beim G80 auch komplizierter. Die 8800GTX könnte bald bei gut 300€ liegen und zu dem Preis ist ein G80 + kompliziertes PCB zu teuer. Ein G92 mit recht einfachem PCB ist dagegen für gut 300€ ein tolles Geschäft für NVIDIA.

Gast
2008-01-16, 15:36:23
Wer weiß, vielleicht besitzt der G92 voll freigeschaltet doch 24 Rops! Damit wäre dann folgende Karte möglich, welche ~50% über GTX und ~33% über Ultra liegen würde:

800Mhz Core/ 2000Mhz Shader/ 1200Mhz @384bit 768MB/1536MB

Das Teil hätte so genau 2-fache Speicherbandbreite einer GT! Da würde dann die Rechenpower eines G92 endlich mal ungebremst freigesetzt. :)

GeneralHanno
2008-01-16, 17:05:41
naja, ich sehe die GS (3 ROP-part, statt 4 bzw (nicht) 6 ) als beweis, dass der G92 nur 4 ROPs-part. hat. warum sollte man von 6 ROPs 3 deaktivieren ;)

Gast
2008-01-16, 19:55:56
naja, ich sehe die GS (3 ROP-part, statt 4 bzw (nicht) 6 ) als beweis, dass der G92 nur 4 ROPs-part. hat. warum sollte man von 6 ROPs 3 deaktivieren ;)

Bei der 6800 LE wurden auch die Hälfte, also 8 von 16 Pipes, deaktiviert.

AnarchX
2008-01-16, 19:57:39
Bei der 6800 LE wurden auch die Hälfte, also 8 von 16 Pipes, deaktiviert.
Ja, Quads, aber nicht das SI. ;)

Im G92-BIOS sollen sich zudem nur Einträge für 4 RPs geben und auch andere Quellen sprechen nur von maximal 256Bit.

LovesuckZ
2008-01-16, 20:00:38
Hat jemand die Transistorenanzahl des G98?

Gast
2008-01-16, 23:32:24
Ja, Quads, aber nicht das SI. ;)

Ja und wo liegt da jetzt das Problem!?! Bei der G80 GTS klappts doch auch mit der Teildeaktivierung der ROPs und des SI!

Gast
2008-01-16, 23:40:58
G80 war noch nicht so entkoppelt wie G9x Serie. Schau dir mal genau den Unterschied zwischen der 8800GTX und der 8800GTS an. Da viel ein kompletter Strang weg. 64Bit-SI+32SPs+8TMU/4ROPs
Und dann schau dir mal die 8800GS mit ihrem 192Bit-SI an, dann kannst spekulieren was man machen kann.

LovesuckZ
2008-01-16, 23:51:16
Die Cluster sind von den ROP-Partitionen entkoppelt - bei G8x wie G9x.

Gast
2008-01-17, 00:00:27
G80 war noch nicht so entkoppelt wie G9x Serie. Schau dir mal genau den Unterschied zwischen der 8800GTX und der 8800GTS an. Da viel ein kompletter Strang weg. 64Bit-SI+32SPs+8TMU/4ROPs
Und dann schau dir mal die 8800GS mit ihrem 192Bit-SI an, dann kannst spekulieren was man machen kann.

Stimmt nicht ganz. Der 8800GTS fehlen gegenüber 8800GTX 64Bit-SI+32SPs+16TMU+4ROPs. Ich würde aber eher schreiben: 64Bit-SI+4ROPs und 16TMUs+32SPs, weil diese beiden Sachen jeweis zusammenhängen (wie die 8800GTS+ und 8800GT mit ihren 56TMU/112SPs zeigen).

Was spricht nun dagegen, bei z.B. festen 64TMUs/128SPs, die ROPs + Speicherinterface zu variieren, also z.B. 24ROPs/384bit oder 20ROPs/320bit oder 16ROPs/256bit oder 12ROPs/192bit?

LovesuckZ
2008-01-17, 00:13:32
Was spricht nun dagegen, bei z.B. festen 64TMUs/128SPs, die ROPs + Speicherinterface zu variieren, also z.B. 24ROPs/384bit oder 20ROPs/320bit oder 16ROPs/256bit oder 12ROPs/192bit?

Nichts.

dargo
2008-01-17, 00:16:31
Nichts.
Hmm, wäre es für NV teuer aus einem G92 einen G9x mit zb. 24 ROPs und 384Bit SI zu zaubern?

LovesuckZ
2008-01-17, 00:18:16
Hmm, wäre es für NV teuer aus einem G92 einen G9x mit zb. 24 ROPs und 384Bit SI zu zaubern?

Wären 6 ROP-Partitionen vorhanden, müsste man ein neues, aufwendigeres PCB verwenden.

dargo
2008-01-17, 00:20:15
Wären 6 ROP-Partitionen vorhanden, müsste man ein neues, aufwendigeres PCB verwenden.
Meinst du das wäre unwahrscheinlich? Schließlich ist der G92 "nur" ein "Zwischenschieber".

LovesuckZ
2008-01-17, 00:23:28
Meinst du das wäre unwahrscheinlich? Schließlich ist der G92 "nur" ein "Zwischenschieber".

Ich habe keine Ahnung. Bei 754 Millionen Transistoren sollte eigentlich ein vollständer G80 drin sein.
Man muss das mal anders sehen: Entweder die ROP-Partitionen sind kaum erwähnenswert von der Transistorenanzahl. Dann sollten 6 vorhanden sein. Oder sie machen einen anständigen Teil aus - nur für was wurden dann die anderen 74 + x Millionen Transistoren verwendet?
Solange wie man nicht die genaue Transistorenanzahl des G98 kennt, ist es schwer deswegen die richtige Anwort zu haben. Ich schätz: Nö, sind nur 4 Partitionen.

Gast
2008-01-17, 00:29:00
Langfristig müssen sie das Speicherinterface wieder verbreitern! Mittelfristig würde wohl GDDR5 @2,5-3Ghz+ auf 256bit noch ausreichen.

Kurzfristig ist die Frage, ob GDDR5 (falls überhaupt verfügbar) mit 256bit billiger ist als GDDR3 @1,2Ghz mit 384bit?

Ailuros
2008-01-17, 07:58:38
Ich habe keine Ahnung. Bei 754 Millionen Transistoren sollte eigentlich ein vollständer G80 drin sein.
Man muss das mal anders sehen: Entweder die ROP-Partitionen sind kaum erwähnenswert von der Transistorenanzahl. Dann sollten 6 vorhanden sein. Oder sie machen einen anständigen Teil aus - nur für was wurden dann die anderen 74 + x Millionen Transistoren verwendet?
Solange wie man nicht die genaue Transistorenanzahl des G98 kennt, ist es schwer deswegen die richtige Anwort zu haben. Ich schätz: Nö, sind nur 4 Partitionen.

Die Transistoren-Anzahl des G98 wird Dir auch nichts sagen, denn das Ding wird nur mit moderaten Frequenzen im Vergleich zu high end G9x Varianten antanzen.

G92 wurde von Grund auf fuer 4*64 und um einiges hoehere Frequenzen als G8x ausgelegt; wenn jetzt die 9800GTX mit =/>700/2GHz Frequenzen ankommt dann steckt womoeglich dann auch in der Frequenz die Antwort fuer Deine Frage wieso man so viele Transistoren fuer G92 brauchte. Das originale Ziel war afaik 800/2.4/1.6(Speicher); ob sie das Ding tatsaechlich so hoch takten koennen und ob sie doch am Ende GDDR4 als Eintagsfliege verwenden werden, steht noch in den Sternen.

Ich schaetze fuer die GX2 irgendwo um die 1.6GHz und fuer die GTX =/>2.0GHz. Ganz nebenbei damit die GX2 so verrueckte Preise erreicht wie Fudo "wissen" will, braeuchte man zumindest 1GB pro GPU.

Ailuros
2008-01-17, 08:11:11
Langfristig müssen sie das Speicherinterface wieder verbreitern! Mittelfristig würde wohl GDDR5 @2,5-3Ghz+ auf 256bit noch ausreichen.

Kurzfristig ist die Frage, ob GDDR5 (falls überhaupt verfügbar) mit 256bit billiger ist als GDDR3 @1,2Ghz mit 384bit?

Speicherverfuegbarkeit ist wohl der wichtigste Faktor; kurz danach kommt dann die Umstaendlichkeit fuers Treiberteam konstant fuer A oder B die Treiber anzupassen. Ich bezweifle dass wenn NV GDDR5 benutzt, dann wohl eher ab GT200.

AFAIK faengt GDDR5 erstmal mit 2.5GHz an; kann aber auch sein dass ich falsch liege.

2.5@256bit = 160GB

Um 160GB durch 384bit zu erreichen braucht man etwa 1670MHz, was wohl erstmal GDDR3 ausschliesst. Faengt jetzt doch GDDR5 bei 2.0GHz an, koennte man auch 320bit benutzen.

Gast
2008-01-17, 09:16:51
We know GeForce 9600GT will launch in Feb. 24, to replace GeForce 8600GT. We also know the frequence is 650MHz/1625MHz/1800MHz DDR(core/shader/memory). The reference card is only 512MB GDDR3 9600GT, do 9600GTS doesn’t exist.

GeForce 9600GT use P545 PCB design, the size of P545 is exactly the same with 8800GT’s P939. Coolers of 8800GT and 8800GTS can be installed on 9600GT because row pitch are also the same. But because cost saving, NVIDIA did not euqip 9600GT with a metal frame like 8800GT. So the core can be smashed easily while installing new coolers, that’s not a good news for after market cooler lovers.

The G94 is a TSMC 65nm core, GPU PCB is about 35mm X 35mm,smaller than G92’s 38mm X38mm. The die is not align center, it is rotated about 40 degrees. The die is about 15.6mm x 14.8mm, smaller than G92’s die(17.5mm X 18.3mm).

In MOD 169.25 WHQL and in the latest nTune, we can not read the frequency or adjust it. The problem is solved in the 171 drivers. But in the Driver 9600GT still did not show its name, in that bar it only shows “G92-100″.

http://en.expreview.com/?p=208

GeneralHanno
2008-01-17, 13:05:00
Das wären dann wieder 230mm² die-size ...

deekey777
2008-01-17, 13:07:53
Wird der G94 nicht bei UMC gefertigt?

LovesuckZ
2008-01-17, 13:09:25
EIn Cluster entspräche in 65nm Fertigung 23,25mm² und eine ROP-Partition minimum 20mm². Vorallem zweitens klingt irgendwie unglaubwürdig.

Die Antwort hast du dir selbst gegeben: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6191996&postcount=713

AnarchX
2008-01-17, 14:03:12
Wird der G94 nicht bei UMC gefertigt?

Dann müsste er aber mit G94-xxx-Ux bezeichnet sein.;)

Gast
2008-01-17, 19:07:24
Um 160GB durch 384bit zu erreichen braucht man etwa 1670MHz, was wohl erstmal GDDR3 ausschliesst. Faengt jetzt doch GDDR5 bei 2.0GHz an, koennte man auch 320bit benutzen.

Naja ein 320bit SI bringt aber auch wieder "nicht übliche" Speichermengen mit sich. Und das verschreckt evtl. einige. Wobei bisher keiner mit einer 8800GTS sich jemals beschwert hat, das der RAM Bug einem die Suppe versalzen hat, denn in den exterm hohen Auflösungen geht der GTS langsam die Puste aus (is ne gute Mischung die Karte).

nomadhunter
2008-01-17, 20:38:51
Für die GT200 sind 640MB aber definitiv zu wenig. Und 1280MB erscheinen mir trotz der abartigen Rohleistung als zu viel. 384bit sind auch problematisch. 768MB dürften etwas knapp werden, 1,5GB sind aber viel zu viel (und teuer!). 1024MB (->256bit) wären IMHO ein guter Kompromiss. Entsprechend tippe ich auf 256bit@GDDR5 mit ~2,5 GHz. Sollte bis dahin (bei den üblichen Verschiebungen wohl nicht vor Ende Q3) machbar sein.

Ailuros
2008-01-18, 05:49:52
Für die GT200 sind 640MB aber definitiv zu wenig. Und 1280MB erscheinen mir trotz der abartigen Rohleistung als zu viel. 384bit sind auch problematisch. 768MB dürften etwas knapp werden, 1,5GB sind aber viel zu viel (und teuer!). 1024MB (->256bit) wären IMHO ein guter Kompromiss. Entsprechend tippe ich auf 256bit@GDDR5 mit ~2,5 GHz. Sollte bis dahin (bei den üblichen Verschiebungen wohl nicht vor Ende Q3) machbar sein.

Der Unterschied zwischen 1024 und 1280 ist auch nicht mehr so gross.

James Ryan
2008-01-19, 08:57:35
Wie (un)wahrscheinlich ist denn ein 512 Bit Speicherinterface für die GT200?

MfG :cool:

GeneralHanno
2008-01-19, 09:22:12
Wenn GDDR5 nicht verfügbar sein sollte, dann sind 512bit sehr wahrscheinlich. Aber eigentlich müssten die spezifikationen des chips schon zu 95% feststehen ;)

James Ryan
2008-01-19, 09:27:58
Nur mal eine Verständnisfrage (wäre vielleicht was für die erste Seite):

D9E = Geforce 9800 GX2 (= zwei G92-GTS Karten mit jeweils 512 MB)
D9P = Geforce 8800 GT/GTS (G92)
D8E = Geforce 8800 GTS/GTX/Ultra (G80)

GT200 = ???
G100 = ???

MfG :cool:

GeneralHanno
2008-01-19, 09:33:58
der G92 wird trotz der "9" der D8 serie zugeordnet. Allerdings weis ich nicht, ob als D8E oder D9P ...
trotzdem wird der G92 auch für verschiedene D9E produkte erscheinen ;)

der D9E (G92)ist die 9800
der D9P (G94)ist die 9600
der D9M (G96)ist die 9500
ob der G98 als D9V bezeichnet wird, bin ich mir nicht so sicher ...

James Ryan
2008-01-19, 09:37:21
der G92 wird trotz der "9" der D8 serie zugeordnet. Allerdings weis ich nicht, ob als D8E oder D9P ...
trotzdem wird der G92 auch für verschiedene D9E produkte erscheinen ;)

der D9E (G92)ist die 9800
der D9P (G94)ist die 9600
der D9M (G96)ist die 9500
ob der G98 als D9V bezeichnet wird, bin ich mir nicht so sicher ...

Aber D9E ist doch nur die Gf 9800 GX2 oder erscheint da noch eine Gf 9800 GTX?
Wenn ja, wie sollte die dann aussehen? Eventuell nur eine Gf 8800 GTS mit 1 GB VRam?

MfG :cool:

GeneralHanno
2008-01-19, 09:38:47
ich denke die 9800GTX und GTS/GT werden auch auf dem G92 basieren und der 8800GT sehr ähnlich sein. als speicher kommt hoffentlich GDDR4 zum einsatzt ...

James Ryan
2008-01-19, 09:48:33
ich denke die 9800GTX und GTS/GT werden auch auf dem G92 basieren und der 8800GT sehr ähnlich sein. als speicher kommt hoffentlich GDDR4 zum einsatzt ...

Gibts überhaupt schon Infos bezüglich Gf 9800 GTX/GTS/GT?
GDDR4 wird wohl auf NVIDIA-Karten nicht kommen... aber lassen wir uns überraschen. ;)

MfG :cool:

AnarchX
2008-01-19, 10:18:52
ich denke die 9800GTX und GTS/GT werden auch auf dem G92 basieren und der 8800GT sehr ähnlich sein. als speicher kommt hoffentlich GDDR4 zum einsatzt ...

GTS scheint es wohl ab GeForce9 nicht mehr zu geben.

GeneralHanno
2008-01-19, 10:30:20
es gab ein paar quellen in denen von einer 9800GTX die rede war. obs nun GT oder GTS heißt ist mit schnuppe - namen sind schall und rauch.
der grund ist recht einfach: die einizigen tripple-sli-karten (88GTX/ULTRA) sind im jan/feb. EOL. Also muss ersatz her.

Die billigste lösung wäre ein hochgetakteter G92. Ail sprach zudem von 1,5GHz speicher, was nur GDDR4 sein kann ...

zwar hat nvidia gesagt, man wolle GDDR4 meiden, doch es gibt schon seit längerem gerüchte, dass die GF9 serie prinzipiell GDDR4 kompatibel sei ...

Ailuros
2008-01-19, 10:32:02
GDDR4 wird wohl auf NVIDIA-Karten nicht kommen... aber lassen wir uns überraschen. ;)

MfG :cool:

Mit dem Gedanken spielen die meisten zur Zeit; das dumme ist eben dass man bei 256bit und nur GDDR3 keine anstaendige Bandbreite erreichen kann, damit das Ding sich dann auch etwas ueber der heutigen 8800GTX absetzen kann.

GeneralHanno
2008-01-19, 10:34:30
nackphoto:
http://www.pcgameshardware.de/?article_id=628832


der 9600GT

AnarchX
2008-01-19, 10:44:30
Mit dem Gedanken spielen die meisten zur Zeit; das dumme ist eben dass man bei 256bit und nur GDDR3 keine anstaendige Bandbreite erreichen kann, damit das Ding sich dann auch etwas ueber der heutigen 8800GTX absetzen kann.
Es hieß doch eher ersetzen, als übertreffen. Was für mich eine gleiche Durchschnittsperformance heißen könnte, aber eben, dass sie die 9800 GTX eher in Tex/ALU-lastigen Szenarien durchsetzt.

Und nahezu alle G80/G92-SKUs, mal die Ultra aussen vor, haben eine Bandbreite die proportional zur ROP-Leistung ist.

Gehen wir als von 16ROPs * ~800MHz bei der 9800 GTX aus, so kann man dies mit 0.83ns GDDR3 abdecken.

Ailuros
2008-01-19, 11:12:24
Es hieß doch eher ersetzen, als übertreffen. Was für mich eine gleiche Durchschnittsperformance heißen könnte, aber eben, dass sie die 9800 GTX eher in Tex/ALU-lastigen Szenarien durchsetzt.

Wie nahe liegt denn die GTS512 an der 8800GTX? Denk mal ein bisschen schaefer nach wofuer die 30% genau sind; GTX oder GX2?

Gehen wir als von 16ROPs * ~800MHz bei der 9800 GTX aus, so kann man dies mit 0.83ns GDDR3 abdecken.

Warum kann sich eine GTS512 nicht von einer 8800GTX absetzen?

AnarchX
2008-01-19, 11:19:20
Wie nahe liegt denn die GTS512 an der 8800GTX? Denk mal ein bisschen schaefer nach wofuer die 30% genau sind; GTX oder GX2?
Also soll die 9800 GTX 30% schneller sein als eine 88 GTX?


Warum kann sich eine GTS512 nicht von einer 8800GTX absetzen?
Bandbreite, Z-Fill, VRAM-Mangel.

Wenn man sich die Ratings bei CB anschaut:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet
(mal die 8xAA Ratings ausgenommen, wo GF8 wegen der Z-Fill-Verschwendung eh untergeht)
... dürften eigentlich ~20% GPU-Leistung und ~20% mehr Bandbreite (~1150MHz) gegenüber der 8800 GTS 512MB ausreichen um die 8800 GTX zu übertreffen und in arithmetiklastigen Konsolen-Ports wohl auch nicht zu knapp.

dargo
2008-01-19, 11:46:55
Den CB Test kann man wirklich vergessen wenn es um den Vergleich zwischen G80 und G92 geht (unterschiedliche Treiber). Bei CB sehe ich oft ca. 40% Unterschied zwischen der G8800GTS@G80 und G8800GTS@G92. Ich habe mir einige Reviews der G8800GTS@G92 angeschaut und immer sehe ich nur ca. 20-30% Vorteil für die neue GTS (manchmal sogar weniger), wohlgemerkt mit gleichen 169-er Treibern. Natürlich gibt es auch Ausnahmen wie zb. CoH wo die neue GTS ihre arithmetische Leistung ausspielen kann.

Da die neue GTS mittlerweile für 250€ zu bekommen ist habe ich schon mit dem Gedanken gespielt mir eine zuzulegen. Da der Aufpreis sich aber bei ca. 60-70€ bewegen würde waren mir diese 20-30% mehr dafür zuwenig.

Gast
2008-01-19, 11:50:05
Noch vor ner Woche hab ich für meine G80 220€ in der Bucht bekommen.
30€. Das würde sich doch lohnen :)

Wobei es bei aber eine 3870 werden wird.

Genug OT:

Weiss man den schon was zur 9800 GT?
Wo sollte sich diese Karte der Logik nach leistungsmäßig wiederfinden?

dargo
2008-01-19, 11:57:05
Noch vor ner Woche hab ich für meine G80 220€ in der Bucht bekommen.
30€. Das würde sich doch lohnen :)

Ja gut, wenn man noch 220€ bekommen würde ginge es noch. Ich beobachte aber schon seit paar Tagen Ebay, und da sehe ich auch oft "nur" 190€. Und für die paar % Mehrleistung ist mir der Umstieg nicht wert. Ich will es mal so sagen:

60€ für 30% Mehrleistung - niet
200€ für 80% Mehrleistung - auf jeden Fall

Zweiteres ist zwar im Verhältnis etwas teurer, dafür merke ich aber auch viel von. :)

GeneralHanno
2008-01-19, 12:31:17
letztlich wird die gesammte 9800 xxxx reihe vermutlich auf dem G92 basieren. unterschiede gibts dann halt in takt, clusterzahl und speicher

letztlich könnte die 9800GT eine 8800GT Rev. 2.0 sein

und die 9800GTX wird eine aufgemöbelte 8800GTS sein (z.b. 1GiB GDDR4 ...)

und zur 9800GX2 kennt ihr ja die daten.

der G98 wird ja schon auf der 8400 Rev. 2.0 verbaut. wird dann vermutlich einfach in 9400 umgenannt :|

nomadhunter
2008-01-19, 13:17:00
Wie (un)wahrscheinlich ist denn ein 512 Bit Speicherinterface für die GT200?

Sehr unwahrscheinlich. Qimoda, Samsung und Hynix sprechen alle davon, im ersten Halbjahr mit der Massenproduktion von GDDR5 zu beginnen. Und auch wenn GDDR5 im H2/08 noch recht teuer ist, dürfte es sich trotzdem im Vergleich zu einem 512bit-Interface (kostet Chipfläche und erfordert ein kompliziertes PCB) lohnen.

Selbst mit dem Maximum, was man aus GDDR3 rausholen kann (~1,25GHz@512bit), kommt man "nur" auf 160GB/s. Das könnte reichen, aber mit GDDR5 (2,5GHz@256bit) sollte man das gleiche günstiger bekommen. Zur Not, wenn die ersten GDDR5-Chips sich schlecht takten lassen, kann man noch auf 2GHz@320bit gehen. 320bit sind immer noch viel günstiger/unproblematischer als 512bit.

GDDR4 wird es bei GT200 kaum geben. Wenn NVIDIA GDDR4 einsetzt, dann vielleicht (zähneknirschend) als Notlösung für die 9800GTX, die eh nicht lange laufen wird. Aber für die neue Über-High-End-Generation wird man alles tun, um das zu vermeiden.

GeneralHanno
2008-01-19, 13:23:35
GDDR3 arbeitet ja mit einem 4-fach prefetch und GDDR5 mit einem achtfachen. welchen prefetch hat GDDR4 ?

Datenblatt einer 9600GT:
http://www.pcgameshardware.de/?menu=browser&article_id=628862&image_id=762098&show=original

Nightspider
2008-01-19, 17:51:59
Gibt es beim Sprung von GDDR3 auf GDDR5 auch sowas wie eine höhere ProMehz Leistung ? :|
Oder wird von Generation zu Generation wirklich nur die Mhz-Zahl erhöhrt ?

mapel110
2008-01-19, 17:55:24
http://de.wikipedia.org/wiki/GDDR
So wie sich das da liest, bleibt es wohl gleich. Aber ich weiß auch nicht, ob Wikipedia da vertrauenswürdig ist bei solchen Themen.

nomadhunter
2008-01-19, 18:00:42
Gibt es beim Sprung von GDDR3 auf GDDR5 auch sowas wie eine höhere ProMehz Leistung ? :|
ProMHz-Leistung bei RAM? Wenn dann können noch die Timings einen kleinen Unterschied machen, ansonsten gibt es sowas nicht. Der RAM ist ja nur ein Speicher in den x mal pro Sekunde (Takt) y bits (Speicherinterface) geschrieben (oder aus dem gelesen) werden.

Gast
2008-01-20, 02:45:53
Gibt es beim Sprung von GDDR3 auf GDDR5 auch sowas wie eine höhere ProMehz Leistung ? :|
Oder wird von Generation zu Generation wirklich nur die Mhz-Zahl erhöhrt ?

Die Pro-Mhz wird sich von GDDR3 auf GDDR5 wohl eher verringern, falls der Prefetch wieder verdoppelt wird und somit die Taktrate der internen Speicherzellen nochmal halbiert wird im Bezug zum nominellen Takt (dadurch enstehen höheren Latenzen die Leistungseinbußen hervorrufen). Sprich GDDR3 wird wohl bei gleicher Busbreite und gleicher Taktrate etwas schneller sein als GDDR5 (ähnlich wie bei DDR2-Ram VS DDR3-Ram bei gleichem Takt).

Nightspider
2008-01-20, 04:13:06
Die Pro-Mhz wird sich von GDDR3 auf GDDR5 wohl eher verringern, falls der Prefetch wieder verdoppelt wird und somit die Taktrate der internen Speicherzellen nochmal halbiert wird im Bezug zum nominellen Takt (dadurch enstehen höheren Latenzen die Leistungseinbußen hervorrufen). Sprich GDDR3 wird wohl bei gleicher Busbreite und gleicher Taktrate etwas schneller sein als GDDR5 (ähnlich wie bei DDR2-Ram VS DDR3-Ram bei gleichem Takt).

Ich dachte die Zugriffszeit sinkt weiter ? Sind wir jetzt nicht bei 0,6 Nanosekunden !? Oder steht die Angabe wieder für etwas anderes ?

James Ryan
2008-01-20, 12:32:39
letztlich wird die gesammte 9800 xxxx reihe vermutlich auf dem G92 basieren. unterschiede gibts dann halt in takt, clusterzahl und speicher

letztlich könnte die 9800GT eine 8800GT Rev. 2.0 sein

und die 9800GTX wird eine aufgemöbelte 8800GTS sein (z.b. 1GiB GDDR4 ...)

und zur 9800GX2 kennt ihr ja die daten.

der G98 wird ja schon auf der 8400 Rev. 2.0 verbaut. wird dann vermutlich einfach in 9400 umgenannt :|

Sorry, aber dann verstehe ich absolut nicht, warum man die G92-Karten nicht gleich "Geforce 9" genannt hat. :confused:
Wie will NVIDIA denn dem Kunden erklären, dass die Gf 9800 GT eigentlich nichts anderes als eine Gf 8800 GT mit anderen Namen ist?

MfG :cool:

GeneralHanno
2008-01-20, 12:35:55
der G92 wurde vorgezogen, um den unerwartet funktionstüchtigen RV670 A11 auszustechen. Und man kann eine generation ja schlecht "aus der mitte her launchen" ;)

letztlich wird der G98 auch schon auf der 8400 verbaut ...

LovesuckZ
2008-01-20, 12:53:51
Nein, das wurde er nicht. Keine Ahnung, wie die Leute darauf kommen. Es war immer von einer neuen Herbst Karte die Rede.

laser114
2008-01-20, 14:07:31
Der G92 war ja das High-End. Wie auch immer - ursprünglich sollte sich die 2x G92 Karte gleichzeitig mit der 1x G92 Karte erscheinen. Nun haben wir es auf beiden Seiten so, dass zu erst die Einfach-Karte kam.

Irgendwas mit der Namensgebung war jedenfalls nicht ursprünglich so geplant.

Moralelastix
2008-01-21, 07:38:17
GeForce 9600GT Benchmarked Out in the Wild
http://www.dailytech.com/GeForce+9600GT+Benchmarked+Out+in+the+Wild/article10397.htm

Dort wird von 64 unified stream processors gesprochen.

Is mir schleierhaft wie die 9600 es damit schafft so nahe an die GT im 3Dmark zu kommen?

Oder wird der G92 so stark durch seine Flaschenhälse ausgebremst?

Dann müssten ja beim einem G92 ohne die Flaschenhälse fast 20000 3Dmurkse rauskommen.

Spasstiger
2008-01-21, 07:55:09
GeForce 9600GT Benchmarked Out in the Wild
http://www.dailytech.com/GeForce+9600GT+Benchmarked+Out+in+the+Wild/article10397.htm

Dort wird von 64 unified stream processors gesprochen.

Is mir schleierhaft wie die 9600 es damit schafft so nahe an die GT im 3Dmark zu kommen?

Oder wird der G92 so stark durch seine Flaschenhälse ausgebremst?

Dann müssten ja beim einem G92 ohne die Flaschenhälse fast 20000 3Dmurkse rauskommen.
Das Gesamtergebnis in 3DMark06 ist stark CPU-abhängig. So kann man mit einer GeForce 8800 GT problemlos auch nur 6000 Punke haben, wenn als CPU noch ein kleiner Athlon 64 Singlecore herhalten muss. Außerdem ist die 9600 GT höher getaktet als die 8800 GT und kann mit derselben Speicherbandbreite aufwarten.

Moralelastix
2008-01-21, 08:00:21
Da is doch fast kein Unterschied bei den Taktraten.

Die 9600 zeigt uns sehr schön wie stark NV den G92 kastriert hat damit er schön in der Reihe tanzt und GTX/Ultra nicht blamiert.

Spasstiger
2008-01-21, 08:11:18
Da is doch fast kein Unterschied bei den Taktraten.

Die 9600 zeigt uns sehr schön wie stark NV den G92 kastriert hat damit er schön in der Reihe tanzt und GTX/Ultra nicht blamiert.
Die 3DMark06-Gesamtpunktzahl sagt einfach nur einen Scheiss aus, das hat nix mit der realen Performance der Karten zu tun. Warte mal ab, bis Ergebnisse der Einzeltests veröffentlicht werden. Ich kann dir auch mit einem Triple-SLI-System aus dreimal 8800 Ultra nur 5000 Punkte in 3DMark06 aus dem Hut zaubern, musst einfach nur einen alten Netburst-Celereon statt einem Core 2 Quad aufs Board stecken.

Moralelastix
2008-01-21, 08:15:51
Na die haben dort halt mit dem Üblichen getestet irgendwas mit Dual oder Quadcore Intel mit ca. 3 ghz usw...
Die werden wohl kaum Bananen mit Walnüssen verglichen haben.

Spasstiger
2008-01-21, 08:21:30
irgendwas mit Dual oder Quadcore Intel mit ca. 3 ghz usw...
Das alleine (Dual vs. Quad) macht schonmal einen großen Unterschied von rund 1500 Punkten. Für solch einen Unterschied müssten sich die Grafikkarten auch schon um 30% in der Leistung unterscheiden.

Miss den 3DMarks einfach nicht soviel Bedeutung bei. Wenn mal Benches von UT3 oder Crysis ans Tageslicht kommen, wirst du schon den zu erwartenden Unterschied sehen.

Moralelastix
2008-01-21, 08:25:54
Was red ich schau selbst:
http://translate.google.com/translate?hl=en&langpair=zh%7Cen&u=http://www.pconline.com.cn/diy/graphics/reviews/0801/1205247_1.html

Spasstiger
2008-01-21, 08:35:13
Was red ich schau selbst:
http://translate.google.com/translate?hl=en&langpair=zh%7Cen&u=http://www.pconline.com.cn/diy/graphics/reviews/0801/1205247_1.html
Wo sind da jetzt die 8800-GT-Vergleichswerte?

Moralelastix
2008-01-21, 08:44:03
Was schafft die 8800GT im 3Dmurks06 10-11000 mit 112 SP?

hab mal schnell geschaut:
http://www.xbitlabs.com/articles/video/display/leadtek-8800gt-extreme_20.html#sect0

Ich glaube da wird auch mit einem Quadcore getestet oder?
"Intel Core 2 Extreme X6800 processor "

Spasstiger
2008-01-21, 08:52:54
Was schafft die 8800GT im 3Dmurks06 10-11000 mit 112 SP?

hab mal schnell geschaut:
http://www.xbitlabs.com/articles/video/display/leadtek-8800gt-extreme_20.html#sect0

Ich glaube da wird auch mit einem Quadcore getestet oder?
"Intel Core 2 Extreme X6800 processor "
Ich hatte mit meiner 130€-Grafikkarte (2900 Pro 256 Bit 512 MiB) schon über 11.000 Punkte in 3DMark06 mit einem Dual-Core-Prozessor (E4300@3,15 GHz).
Die 8800 GT macht hier weniger als 11.000 Punkte. Ich bezweifle aber, dass die 8800 GT in Realworld-Benchmarks langsamer als meine 2900 Pro ist.

Der X6800 ist übrigens ein Dual-Core-Prozessor (2,93 GHz). Während bei PC-Online ein Quadcore zum Einsatz kommt (QX6800).

Moralelastix
2008-01-21, 09:02:07
Das bedeutet also ca. 1000 Punkte Differenz alleine durch den Quadcore.
So oder so kratzt die 9600 dann an 10000 3DMurksen.

Mir kommen die Tränen wenn ich die G92 GTS hier anschau und man sich vorstellt wie schnell die sein könnte.:biggrin:

Anarchy-HWLUXX
2008-01-21, 10:24:53
Wer hat denn bestätigt das die 9600 100%ig auf dem G92 Design basiert ... wär mir neu ;)

dargo
2008-01-21, 15:19:49
Wie sind die Daten nochmal der G9600GT?

650Mhz Coretakt
1625Mhz Shadertakt
64SPs
900Mhz GDDR3
256Bit SI
512MB
ROPs ???

Soweit alles richtig? Sind es immer noch 16 ROPs? Sorry, kann es mir nicht merken. ;(

@AnarchX
Wie wärs wenn du mal die Daten der G9600GT auf der ersten Seite vervollständigen würdest? :)

Gast
2008-01-21, 15:23:25
Ja natürlich 16ROPs, was anderes ist bei einem 256-bit Si auch gar nicht möglich.

dargo
2008-01-21, 15:25:25
Ja natürlich 16ROPs, was anderes ist bei einem 256-bit Si auch gar nicht möglich.
Danke. Dann weiß ich schon mal eins, wenn die G9600GT wirklich fast an die G8800GT im 3DMark06 kommt dann ist dieser überhaupt nicht shaderlastig. Bin schon auf Game-Benches gespannt.

Mir kommen die Tränen wenn ich die G92 GTS hier anschau und man sich vorstellt wie schnell die sein könnte.:biggrin:
Mir auch. ;)
Wie ich schon früher sagte, wie kann man den G92 nur so kastrieren. :usweet:

GeneralHanno
2008-01-21, 15:31:06
zum thema 3dmark und speicherbandbreite vs shader:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=400303

dort erkennt man, dass die 3850 mit halber speicherbandbreite bei SM2/3 auf fast 50% einbricht ...

dargo
2008-01-21, 15:45:15
Ok, ein etwas besserer Vergleich.

G9600GT mit QX6800 (http://translate.google.com/translate?hl=en&langpair=zh%7Cen&u=http://www.pconline.com.cn/diy/graphics/reviews/0801/1205247_1.html)
SM2.0 = 4205P
SM3.0 = 4533P

G8800GT mit X6800 (http://www.xbitlabs.com/articles/video/display/leadtek-8800gt-extreme_20.html#sect0)
SM2.0 = 5179P
SM3.0 = 4979P

Ob Quad- oder Dualcore spielt bei den SM Tests keine Rolle. Zumindest ohne AA(/AF) ist die G8800GT im 3DMark06 nur noch ~10% schneller (SM2.0 dürfte heute keinen mehr interessieren).

AnarchX
2008-01-21, 17:02:24
Dürfte wohl auch daran liegen, dass der 3DM06 in gewissem Maße vertex-limitiert ist und hier die 9600 GT mit 325 MTri/s eben einen Vorteil gegenüber der 8800 GT mit nur 300 MTri/s hat und auch der Grund warum eine GT fast auf dem Niveau der GTX liegt.

Die richtigen Gamebenches sind da schon ein bessere Anhaltspunkt.
Vor allem 8xMSAA-Tests dürften lustig werden.:D

Moralelastix
2008-01-21, 19:01:49
Wann kommt der neue 3Dmurks nochmal?

AnarchX
2008-01-21, 19:07:48
Wann kommt der neue 3Dmurks nochmal?
Im Februar, also passend zum Launch der GF9-Serie.

GeneralHanno
2008-01-21, 19:36:25
Und die Gforce9 wird das selbe schicksal erleiden wie die x800 ;)

Gast
2008-01-21, 20:17:13
Im Februar, also passend zum Launch der GF9-Serie.

Das riecht aber ganz schön nach Schmierung von NV

Moralelastix
2008-01-21, 20:54:02
Und die Gforce9 wird das selbe schicksal erleiden wie die x800 ;)

Was für ein Schicksal soll das sein?

GeneralHanno
2008-01-21, 21:08:20
Der nächste 3DMurks wird Nvidia gar nicht gefallen. So wie die Radeon X800 dank mangelnder SM3.0 unterstützung im 3DMark06 in einigen Tests 0 Punkte erhielt, wird die GF9xxx (dank mangelnder SM4.1 unterstützung) im 3dmurks 08 nicht besonders gut aussehen ...

Moralelastix
2008-01-21, 21:35:09
Fragt sich halt wer da von wem abhängig is.
Wenn man den neuen 3DMurks erst ab der nächsten NV Generation zum Vergleich zu ATI nutzen kann.
Vielleicht werden wir ja noch überrascht.

mapel110
2008-01-21, 21:39:23
Der nächste 3DMurks wird Nvidia gar nicht gefallen. So wie die Radeon X800 dank mangelnder SM3.0 unterstützung im 3DMark06 in einigen Tests 0 Punkte erhielt, wird die GF9xxx (dank mangelnder SM4.1 unterstützung) im 3dmurks 08 nicht besonders gut aussehen ...
Also ich bezweifel stark, dass der 08er bereits SM4.1 irgendwie nutzen wird. Die API ist ja noch nicht verfügbar und ich glaube nicht, dass die Jungs sich einen verbugten Benchmark leisten können, weil es eben noch keinerlei Erfahrungen mit der API bei den Usern auf den Tausenden von Konfigurationen gibt.

Coda
2008-01-21, 21:43:53
Die API ist ja noch nicht verfügbar
Ist sie schon länger.

mapel110
2008-01-21, 21:45:36
Ist sie schon länger.
Seit wann genau?
Jedenfalls Enduser konnten noch keine Erfahrungen damit sammeln und logischerweise M$ kaum Feedback bekommen.

AnarchX
2008-01-21, 21:45:51
Würde auch davon ausgehen, dass 3DMV maximal einen SM4.1 Featuretest bietet, vielleicht irgendetwas auf Basis der neuen AA-Fähigkeiten, was dann aber nicht in den Score einfliesst.

Coda
2008-01-21, 21:50:49
Seit wann genau?
Preview August 2007 und richtig seit November 2007 (SDK). War für Partner von MS aber sicher eher ein fließender Prozess.

Treiber dürfte es schon geben zusammen mit dem SP1-RC. Was soll es denn für große Probleme geben? RV670+Vista ist die einzige Konfiguration ;)

AnarchX
2008-01-21, 21:57:52
Was soll es denn für große Probleme geben? RV670+Vista ist die einzige Konfiguration ;)
Vergiss mal nicht SGX und Destination Films... :D

Coda
2008-01-21, 21:59:01
Die müssen dann schauen das sie's kompatibel bekommen :tongue:

Ailuros
2008-01-22, 05:52:45
Die müssen dann schauen das sie's kompatibel bekommen :tongue:

Wenn IMG jetzt erst damit anfangen wuerde, waere es viel zu spaet.

James Ryan
2008-01-22, 06:31:12
Der nächste 3DMurks wird Nvidia gar nicht gefallen. So wie die Radeon X800 dank mangelnder SM3.0 unterstützung im 3DMark06 in einigen Tests 0 Punkte erhielt, wird die GF9xxx (dank mangelnder SM4.1 unterstützung) im 3dmurks 08 nicht besonders gut aussehen ...

Der 3DMurks08 ist für 90% der Gamer eh uninteressant, da Vista-Zwang. ;)

MfG :cool:

GeneralHanno
2008-01-22, 16:24:43
Die neuen G9x chips (also vermutlich auch die 9600GT) sollen wieder 2D-Stromspar-features haben:

http://www.pcgameshardware.de/?article_id=629209

Adam D.
2008-01-22, 16:43:26
Kommende G9x-Produkte sollen wieder einen 2D-Modus auffahren. Darauf, ob auch die schon käuflichen G92-Boards (Geforce 8800 GT und GTS/512) nachträglich dieses "Downgrade" spendiert bekommen (etwa per Treiber), ließ er sich nicht festlegen. Bezüglich des G8x aber: Bei dieser Serie sei kein Stromsparmodus in Aussicht.
Tja, das war wohl damals 'ne Lüge, welch Wunder ;) Aber freut mich. Bin gespannt, ob der 2D-Verbrauch so effektiv gesenkt werden kann wie es ATi vorgemacht hat.

AnarchX
2008-01-22, 16:57:02
Ist doch schon bekannt:
HybridPower mit passendem Board für GF9 = 2D-Sparmodus. X-D


Wobei es in nTune mal eine verdächtige Spannungsoption gab:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=396188

GeneralHanno
2008-01-22, 18:27:40
ich hoffe mal nicht, dass sie die hybrid geschichte, als die neu 2D-stromspartechnik bezeichnen.

Immerhin bietet gigabyte ja jetzt eine 8800GT an, die dank zusatztteilen eine manuelle anpassung der spannung erlaubt :D

Anarchy-HWLUXX
2008-01-23, 03:08:45
Also wenn ich die wahl hab zwischen zwei Karten zum gleichen preis, eine hat bessere Performance und die andere 2D Stromspar Mode ... nehm ich klar die erstere.

Wenn nV das Hybrid SLI bei allen neuen Chipsätzen und GraKas einbaut ist das strategisch gesehen ein sehr effektiver weg die Mobo+GraKa kombo an den mann zu bringen - jetzt wo Intel und AMD beide Komplettlösungen (CPU,Chipsatz,GraKa -> demnächst Larabee bei Intel) anbieten muss nV zusehen hier seine CPU unabhängige Plattform gescheit zu Positionieren ...

Klar, ganz ohne 2D Mode wird es aber nicht gehen - spätestens nach der 9*** Reihe muss dass kommen.

ESAD
2008-01-23, 03:20:48
so könnte auch nvidia mit seinen chipsätzen im highend notebookbereich fuß fassen

AnarchX
2008-01-23, 09:59:15
9600GT launch date push back (http://en.expreview.com/?p=223)

Probleme mit dem Stromsparmodus? ;)

AnarchX
2008-01-24, 09:05:07
9800 GX2 samples in the wild:
http://forums.vr-zone.com/showthread.php?t=229189
http://forums.vr-zone.com/showthread.php?t=229048

Anarchy-HWLUXX
2008-01-24, 10:10:59
Endgeiles Teil :ujump2:

2B-Maverick
2008-01-24, 10:16:50
Interessante Variante mit dem Lüfter zwischen den beiden Boards.
Allerdings denke ich mir das diese Konstruktion doch extrem laut sein wird.
Abwärme von zwei Karten über einen Lüfter der nur einen kleinen Lufteinlass hat?
hmmmmm........
Kann natürlich auch sein, dass NV hier nur selektierte Chips nimmt, die extrem wenig Spannung benötigen. Auch gibt es ja zwei Lufteinlässe.
Bin gespannt!

CU
Markus

Anarchy-HWLUXX
2008-01-24, 10:41:15
Das Design ist auf jeden fall welten besser als das "konservative" der 7950GX2 wo nV einfach zwei GraKas übereinandergebastelt hat ... nachteile sind ja bekannt - kleine Lüfterchen und einer davon bekommt kaum Luft, na ja bei meiner GX2 drehen diese nur selten hoch (in Games), meistens werden sie vom rest des PCs übertönt.

Das neue Design mit dem Kühler in der mitte und einem sehr großen Lüfter ist nicht weniger als revolutionär :eek:

Gast
2008-01-24, 10:51:05
Das Design ist auf jeden fall welten besser als das "konservative" der 7950GX2 wo nV einfach zwei GraKas übereinandergebastelt hat ... nachteile sind ja bekannt - kleine Lüfterchen und einer davon bekommt kaum Luft, na ja bei meiner GX2 drehen diese nur selten hoch (in Games), meistens werden sie vom rest des PCs übertönt.

Das neue Design mit dem Kühler in der mitte und einem sehr großen Lüfter ist nicht weniger als revolutionär :eek:

Trotzdem ist es den Ati-Design mit einer Platine in allen belangen unterlegen.

Anarchy-HWLUXX
2008-01-24, 10:54:33
Trotzdem ist es den Ati-Design mit einer Platine in allen belangen unterlegen.

Werden mer sehen wenn die Userberichte eintreffen ;)

James Ryan
2008-01-24, 12:28:21
Trotzdem ist es den Ati-Design mit einer Platine in allen belangen unterlegen.

Warum?
Beide Designs brauchen 2 Slots, beide Designs sind gleich lang.

MfG :cool:

2B-Maverick
2008-01-24, 12:32:47
Warum?
Beide Designs brauchen 2 Slots, beide Designs sind gleich lang.

MfG :cool:

Ich denke mal, dass potentiell ATI die besseren Möglichkeiten hat:
- günstiger da nur ein PCB
- bessere Luftzufuhr möglich da der Kühler nicht gekapselt ist zwichen den PCBs.
(siehe Fotos von Hersteller-Kühlern mit zweifach Riesenkühlern....)

Was ATI draus macht steht auf einem anderen Blatt.

CU
Markus

Chris Lux
2008-01-24, 12:35:30
was soll denn der optische ausgang da dran?

AnarchX
2008-01-24, 12:53:21
Natürlich für Sound.

Anarchy-HWLUXX
2008-01-24, 13:14:36
Ich denke mal, dass potentiell ATI die besseren Möglichkeiten hat:
- günstiger da nur ein PCB
- bessere Luftzufuhr möglich da der Kühler nicht gekapselt ist zwichen den PCBs.
(siehe Fotos von Hersteller-Kühlern mit zweifach Riesenkühlern....)

Was ATI draus macht steht auf einem anderen Blatt.

CU
Markus

- Extrem viele Komponenten auf wenig fläche -> 2 GPUs, riesiger Bridge Chip, 2 Spannungsversorgungen etc. == komplexes PCB

- Bei der Referenzkühlung von ATi ist der Kühler auch gekapselt mit der Plastik Hülle und die "Riesen" :lol: Kühler sind einfache Radialkonstruktionen * 2, nix dolles. Negativ ist hierbei das die gesamte abwärme im Gehäuse bleibt ... eine stärkere Gehäusebelüftung ist da pflicht.

Gast
2008-01-24, 13:24:32
Warum?
Beide Designs brauchen 2 Slots, beide Designs sind gleich lang.

MfG :cool:

Beim AMD-Design wandert die warme Luft aus dem Gehäuse, bei nV kaum.
Beim AMD-Design kann ich mir auch problemlos andere Kühler draufschnallen, bei nV nicht.
Beim AMD-Design wird die auftretende Wärme wesentlich besser verteilt als bei NV.
Um nur mal ein paar Punkte zu nennen. Wo liegen die Vorteile bei nVs zwei-Platinen Konstrukt?

Gast
2008-01-24, 13:42:21
- Extrem viele Komponenten auf wenig fläche -> 2 GPUs, riesiger Bridge Chip, 2 Spannungsversorgungen etc. == komplexes PCB


Ein PCB = eine Fertigungsstraße = wesentlich billiger als zwei Platinen.

Chris Lux
2008-01-24, 14:13:04
Natürlich für Sound.
das waere mir aber echt neu bei der karte...

Hakim
2008-01-24, 14:43:48
Da ich nicht den ganzen thread durchlesen will frag ich mal dumm: Wird die 9800GX2 genauso wie die alten 7er GX2 karten auf SLI Profile angewiesen sein? Irgendwo hab ich aufgeschnappt das es diesmal irgendwie intern besser gelöst wurde.

AnarchX
2008-01-24, 14:46:56
Ja, ist weiterhin ein SLI-System mit allen Konsequenzen.
Wirkliche Änderungen in diese Richtung wird es wohl erst 2009 mit R800 geben.

Hakim
2008-01-24, 14:51:28
ok dann mache ich wohl einen bogen um die Karte.

Gast
2008-01-24, 15:29:34
das waere mir aber echt neu bei der karte...

Ist ein Digital-Eingang, um den Ton für HDMI einzuspeisen.

Gruss
Dean

HOT
2008-01-24, 16:21:09
Hmm... D9E = 2x G96?

http://forums.vr-zone.com/showthread.php?t=229048

Das wär nicht gut für NV...

laser114
2008-01-24, 16:22:00
Selbst G94 wäre stark bedenklich, aber G96 kann man getrost als Ente abstempeln.

HOT
2008-01-24, 16:24:48
Ist keine Ente, ist ne Speku von mir ;). Kann sein, dass ich das was verwechsel. Ich machs mal deutlicher: 2x 9600GT = 9800GX2? Die Kühllösung lässt jedenfalls nicht unbedingt den Schluss zu, dass es 2 G92 sind (jedenfalls nicht auf vollem Takt). Und die niedrigen Werte (so die denn stimmen) würden auch auf 2x 9600 rückschließen lassen.

GeneralHanno
2008-01-24, 16:27:12
da die GX2 ja auch HINTER 2 GT im SLI liegen soll, darf vermutet werden, dass der takt sich eher auf 500 - 1250 o.ä. beläuft (Vcore 1V)

AnarchX
2008-01-24, 16:28:28
G96 = 9500 GT ~ 8600 @ 65nm

Und die Theorie ist eher BS, da ja NV von 256SPs für die 9800 GX2 spricht. ;)

HOT
2008-01-24, 16:31:37
Na ja, macht auch keinen Sinn, das stimmt wohl :D.
Dann hätte sie ja 128SP, wie ein G92. Auch 2 PCBs würden keinen Sinn machen. Ist definitiv ne dual G92.

Chris Lux
2008-01-24, 16:52:23
Ist ein Digital-Eingang, um den Ton für HDMI einzuspeisen.
das waere wiederum eine super idee.

Gast
2008-01-24, 17:18:51
ok dann mache ich wohl einen bogen um die Karte.

jop,den SLI Mist tuh ich mir ned an

Ailuros
2008-01-24, 19:28:50
Ist keine Ente, ist ne Speku von mir ;). Kann sein, dass ich das was verwechsel. Ich machs mal deutlicher: 2x 9600GT = 9800GX2? Die Kühllösung lässt jedenfalls nicht unbedingt den Schluss zu, dass es 2 G92 sind (jedenfalls nicht auf vollem Takt). Und die niedrigen Werte (so die denn stimmen) würden auch auf 2x 9600 rückschließen lassen.

9800GX2 = 2*G92@550MHz

dargo
2008-01-24, 19:38:45
9800GX2 = 2*G92@550MHz
Weisst du schon wie stark die VGPU gesenkt wurde? Ich denke mal, um auf ca. 180W zu kommen wären wohl ~1,0V nötig oder?

Edit:
Also 2x 528GLOPS, man könnte also sagen die G9800GX2 ist eher ein G8800GT SLI-Gespann. Jetzt wissen wir auch wie man zu dem UVP von 449$ kommt. ;)

laser114
2008-01-24, 19:52:28
Also 2x 528GLOPS.

Wie kannst du die Arithmetikleistung ausrechnen ohne die Shadertaktraten zu kennen?

dargo
2008-01-24, 19:53:50
Wie kannst du die Arithmetikleistung ausrechnen ohne die Shadertaktraten zu kennen?
550Mhz*2,5 = 1375Mhz Shadertakt. Dies entspricht 528GFLOPS bei 128 SPs. :)

AnarchX
2008-01-24, 19:55:27
320 MADDs @825MHz sind zufälligerweise auch 528GFLOPs.:D

Da könnte ich mir doch vorstellen, dass NV noch das Shaderratio leicht anhebt(2.55?) um halt noch ein paar mehr FLOPs auf dem Papier zu bieten. ;)

dargo
2008-01-24, 19:59:37
Da könnte ich mir doch vorstellen, dass NV noch das Shaderratio leicht anhebt(2.55?) um halt noch ein paar mehr FLOPs auf dem Papier zu bieten. ;)
Lol, das wäre der Hit. ;D

Edit:
Wenn die G9800GX2 also auf insgesamt 1056GFLOPs kommt was meint ihr wo sich die G9800GTX einreiht?

Ich würde auf folgendes spekulieren:

800-840Mhz GPU-Takt
2000-2100Mhz Shadertakt --> 768-806GFLOPs
128SPs
(leider immer noch) 16 ROPs
(hoffentlich) GDDR4 mit 1,6Ghz und 256Bit SI --> 102,4GB/s
512 und 1024MB Vram
UVP ~549-599$ 429$ (512MB) und 499$ (1024MB) Die erste Preisvorstellung war wohl Quatsch wenn die GX2 schneller sein soll.

sklave_gottes
2008-01-24, 20:32:00
320 MADDs @825MHz sind zufälligerweise auch 528GFLOPs.:D

Da könnte ich mir doch vorstellen, dass NV noch das Shaderratio leicht anhebt(2.55?) um halt noch ein paar mehr FLOPs auf dem Papier zu bieten. ;)

Steht nicht schon fest das die x2 auch mit 775mhz kommt ?

mfg martin

Gast
2008-01-24, 20:43:30
Steht nicht schon fest das die x2 auch mit 775mhz kommt ?

mfg martin

Nein, sollen 825Mhz werden. Dafür weniger Speichertakt.

GeneralHanno
2008-01-24, 20:48:16
also bei der 9800GTX würde ich erwarten:
chip: G92 (eventuell neues stepping, ähnlich wie ULTRA=A3)
128SP,64TMUs,16ROPs
chiptakt: max. 800MHz, eher 750 (alles andere wäre übertreiben)
shadertakt: ratio 2,5 (also max. 2000MHz)
Speicher: 1GiB GDDR4@1,4GHz+
und das wichtigste: TriSLI-ready ;)

Gast
2008-01-24, 21:41:47
also bei der 9800GTX würde ich erwarten:
chip: G92 (eventuell neues stepping, ähnlich wie ULTRA=A3)
128SP,64TMUs,16ROPs
chiptakt: max. 800MHz, eher 750 (alles andere wäre übertreiben)
shadertakt: ratio 2,5 (also max. 2000MHz)
Speicher: 1GiB GDDR4@1,4GHz+
und das wichtigste: TriSLI-ready ;)

Keine Ahnung wie stark die 16ROPs da bremsen würden, aber bei dem Vram bräuchte es schon 2,0Ghz+ @256bit um diese GPU-Power ohne Verluste umzusetzen!

Nakai
2008-01-24, 22:10:40
Keine Ahnung wie stark die 16ROPs da bremsen würden, aber bei dem Vram bräuchte es schon 2,0Ghz+ @256bit um diese GPU-Power ohne Verluste umzusetzen!

Wenn die ROPs bremsen sollten, dann wird man eher den Coretakt auf 750Mhz hochjagen und den Shadertakt auf maximal 1800Mhz laufen lassen.
GDDR4 wird man dann wohl mit 1,2 Ghz betreiben.


mfg Nakai

GeneralHanno
2008-01-24, 23:14:14
das "schlechteste" was passieren könnte, wäre 0,83ns GDDR3, der bis 1,2GHz spezifiziert ist ...

nomadhunter
2008-01-24, 23:44:41
Speicher: 1GiB GDDR4@1,4GHz+
GDDR4 vermute ich auch, das Standardmodell wird IMHO aber mit 512MiB kommen. (1GiB eher inoffiziell wie momentan bei der 8800GT) Der Unterschied ist ja jetzt schon eher gering, und evtl. kann NV zum Launch der 9800GX2 noch was am Speichermanagment verbessern. Und mit der 9800GX2 will man ja auch Quad-SLI @ 512MiB anbieten, da kann ich mir durchaus auch vorstellen, dass man T-SLI @ 512MiB anbietet. (Bei T-SLI dürfte es zwar kleine Vorteile für das 1GiB-Modell geben, ich weiß aber nicht ob die den Aufpreis aufwiegen werden.)

Gast
2008-01-25, 01:53:16
das "schlechteste" was passieren könnte, wäre 0,83ns GDDR3, der bis 1,2GHz spezifiziert ist ...

Naja, wenn man dafür 384bit-Speicherinterface + 24 ROPs bekommen würde, wär das gar nicht mal soo verkehrt! Bei 800/2000 GPU-/Shadertakt hätte man gegenüber der 8800Ultra ~33% mehr GPU-Power und ~11% mehr Speicherbandbreite (bzw. gegenüber 8800GTX ~44% mehr GPU-Power und ~33% mehr Speicherbandbreite). Wäre dann insgesamt noch eine recht ausgewogene Karte. :)

Ailuros
2008-01-25, 05:27:45
Keine Ahnung wie stark die 16ROPs da bremsen würden, aber bei dem Vram bräuchte es schon 2,0Ghz+ @256bit um diese GPU-Power ohne Verluste umzusetzen!

G92 ist schon in zwei Varianten erschienen; zu diesen sollte es man relativieren und nicht G80.

GeneralHanno
2008-01-25, 08:43:21
24ROPs/384bi SI wird die karte vermutlich leider nicht haben. Der G92 hat nunmal nativ nur 16ROPs/256bit SI . Und einen "G90" halte ich für unwarscheinlich.

dargo
2008-01-25, 15:24:38
chiptakt: max. 800MHz, eher 750 (alles andere wäre übertreiben)

Sehe ich nicht so. 750Mhz wären viel zu wenig um sich von den 650Mhz der G8800GTS abzusetzen. Und bei der GTS gibts schon OC Versionen (zb. MSI) mit 730Mhz Coretakt.

Nakai
2008-01-25, 15:30:10
Sehe ich nicht so. 750Mhz wären viel zu wenig um sich von den 650Mhz der G8800GTS abzusetzen. Und bei der GTS gibts schon OC Versionen (zb. MSI) mit 730Mhz Coretakt.

Die GTX wäre schneller als die GX2 dann.
Hinzu kommen noch Microruckler.


mfg Nakai

dargo
2008-01-25, 15:47:51
Die GTX wäre schneller als die GX2 dann.

Wie kommst du zu dieser Annahme?

G9800GX2:
935Mhz Coretakt
898GFLOPs

G9800GTX:
800-840Mhz Coretakt
768-806GFLOPs

Bei der G9800GX2 habe ich schon die 85% SLI-Effizienz berücksichtigt (mal etwas anders gerechnet).

Edit:
Auf dem Papier wäre der Unterschied noch größer:
2x 550Mhz Coretakt mit 2x 528GFLOPs der GX2 gegen 800-840Mhz Coretakt mit 768-806GFLOPs einer möglichen GTX.

Nakai
2008-01-25, 17:06:22
Bei der G9800GX2 habe ich schon die 85% SLI-Effizienz berücksichtigt (mal etwas anders gerechnet).

85% zählen nicht immer, ebenso sollte man dann die Microruckler auch noch berücksichtigen.

mfg Nakai

dargo
2008-01-25, 17:08:35
85% zählen nicht immer, ebenso sollte man dann die Microruckler auch noch berücksichtigen.

Als User ja, den Hersteller interessiert das nicht.

nomadhunter
2008-01-25, 17:31:08
Außerdem ist die Lösung des Problems ja wohl nur eine Treiberfrage. Es besteht also eine gewisse Hoffnung, dass ATI und NV das Problem zeitnah zum Launch ihrer X2/GX2 in den Griff bekommen.

GeneralHanno
2008-01-25, 17:33:32
Beziehst du dich auf die mikro-ruckler ?

Nakai
2008-01-25, 17:37:31
Als User ja, den Hersteller interessiert das nicht.

Nicht nur das. Der Hersteller will seine Karten prestigeträchtig verkaufen. Ne 9800GTX wie du sie beschrieben hast, wäre zwar nett, aber nicht notwendig.
Eine 9800GTX hätte einen niedrigeren Stromverbrauch bei ähnlicher Leistung.
85% SLI-Effizienz halte ich auch für abwegig. Die GX2 sollte durch und durch schneller als die 9800GTX sein(obwohl das nicht möglich sein wird).
Ebenso spricht NV von mindestens 30% Vorteil zu der Ultra von der GX2.
Ergo gehe ich davon aus, dass die 9800GTX etwa 10% bis 20% schneller sein wird, als die 8800Ultra.


mfg Nakai

dargo
2008-01-25, 17:44:24
Ebenso spricht NV von mindestens 30% Vorteil zu der Ultra von der GX2.
Ergo gehe ich davon aus, dass die 9800GTX etwa 10% bis 20% schneller sein wird, als die 8800Ultra.

Jetzt sehe dir die G8800GTS (G92) an und überlege was dafür nötig ist. ;)

Edit:
Ich habe immer noch in Erinnerung, dass die GX2 30-50% schneller sein soll als eine Ultra. :)

Edit2:
G8800GTS = 624GFLOPs
G8800Ultra = 580GFLOPs
G9800GTX = 638GFLOPs (10% mehr als die Ultra)

Welchen Sinn soll nochmal die GTX haben?

Nakai
2008-01-25, 18:51:57
Welchen Sinn soll nochmal die GTX haben?

Mit GDDR4 würde sie deutlich schneller sein, als die 8800GTS 512.

mfg Nakai

dargo
2008-01-25, 19:01:42
Mit GDDR4 würde sie deutlich schneller sein, als die 8800GTS 512.

Definiere mal deutlich. :)

Crysis hat eine Skalierung bei der Bandbreite von 1:~0,5 in 1280x1024 4xAA/16xAF mit einer G8800GTS (G92) @780Mhz Coretakt. Das sind 749GFLOPs.
Soll heißen - erhöhst du die Bandbreite um 10% gehen die Frames um ~5% hoch. Mit GDDR4 @~1,6Ghz wäre eine G9800GTX zwar schon etwas schneller, aber imho nur mit 4-8xAA. Ohne AA kaum.

Nakai
2008-01-25, 19:11:42
Definiere mal deutlich. :)

Crysis hat eine Skalierung bei der Bandbreite von 1:~0,5 in 1280x1024 4xAA/16xAF mit einer G8800GTS (G92) @780Mhz Coretakt. Das sind 749GFLOPs.
Soll heißen - erhöhst du die Bandbreite um 10% gehen die Frames um ~5% hoch. Mit GDDR4 @~1,6Ghz wäre eine G9800GTX zwar schon etwas schneller, aber imho nur mit 4-8xAA. Ohne AA kaum.

Das reicht, da das eigentlich Flagschiff etwas schneller sein sollte.
Mit der 9800GTX wird man versuchen die HD3870X2 zu attackieren.
10 bis 20% schneller muss sie nur sein, das reicht.
Im Gegensatz zur CF oder SLT skaliert ein normaler Chip deutlich besser hoch.

750Mhz Coretakt
1,8Ghz Shadertakt

Das reicht aus, ist aber nach meiner Meinung immer noch zuviel.



mfg Nakai

Hvoralek
2008-01-25, 19:12:09
Es geht hier (800/2000/1600 MHz angenommen) um 23% höheren Kern- und 65% höheren Speichertakt. Dabei müssten zumindest 30- 40% Mehrleistung rauskommen, bei viel AA evtl. noch mehr (wenn die Probleme mit 8x AA nicht hpts. von den ROPs herrühren).

GeneralHanno
2008-01-25, 19:15:41
ich möchte nur mal an die diskussion um die ULTRA erinnern. da hie0 es anfangs auch 750mhz, dann 700, dann 650 und schließlich wurden es doch nur 612mhz ;)

daher sollte man die kirche im dorf lassen, wenn man über das potential des G92 redet.

dargo
2008-01-25, 19:18:31
750Mhz Coretakt
1,8Ghz Shadertakt

Das reicht aus, ist aber nach meiner Meinung immer noch zuviel.

Wie kann das zuviel sein wenn es schon sowas für ~300€ gibt?
http://geizhals.at/deutschland/a300126.html

Gast
2008-01-25, 19:21:47
Es geht hier (800/2000/2600 MHz angenommen) um 23% höheren Kern- und 65% höheren Speichertakt. Dabei müssten zumindest 30- 40% Mehrleistung rauskommen, bei viel AA evtl. noch mehr (wenn die Probleme mit 8x AA nicht hpts. von den ROPs herrühren).

Das mit den ROPs ist halt auch noch so ne Sache. Wäre es denn beim G92 vom Design her theoretisch möglich, dass man 24 ROPs mit 256bit-SI kombinieren könnte?

Gast
2008-01-25, 19:24:42
Und wie sieht es beim G92 mit dem Speichercontroller aus, kann der alles, also GDDR3, GDDR4 und GDDR5?

dargo
2008-01-25, 19:25:19
Es geht hier (800/2000/2600 MHz angenommen) um 23% höheren Kern- und 65% höheren Speichertakt. Dabei müssten zumindest 30- 40% Mehrleistung rauskommen, bei viel AA evtl. noch mehr (wenn die Probleme mit 8x AA nicht hpts. von den ROPs herrühren).
Du meinst wohl 1600Mhz Speichertakt. Nun, ich bezweifle stark, dass der G92 so stark bandbreitenlimitiert ist. Wobei, in Verbindung mit dem um 23% höheren Coretakt könnten die 30% hinkommen.

Nakai
2008-01-25, 19:25:20
Wie kann das zuviel sein wenn es schon sowas für ~300€ gibt?
http://geizhals.at/deutschland/a300126.html

Übertaktete Versionen würde ich nicht dazu zählen lassen. Erinnert mich an die 7900GT die auf 7950GT-Niveau hochgetaktet wurden.


mfg Nakai

dargo
2008-01-25, 19:26:07
Das mit den ROPs ist halt auch noch so ne Sache. Wäre es denn beim G92 vom Design her theoretisch möglich, dass man 24 ROPs mit 256bit-SI kombinieren könnte?
Nein, für 24 ROPs ist ein 384Bit SI nötig.

GeneralHanno
2008-01-25, 19:26:48
Bei der gesammten G80 familie sind ROPs mit dem speicherkontroler gekoppelt. 4 ROPs = 64bit

es ist nicht unewöhnlich, dass OC modelle der kleineren modelle, an das höhere modell @ default heran reichen kann ;)

zudem bietet die GTX vermutlich 2 sachen, die die GT(S) nicht bietet:
- TRi-SLI
- schnellen speicher (0.83ns GDDR3 oder GDDR4)

dargo
2008-01-25, 19:31:36
es ist nicht unewöhnlich, dass OC modelle der kleineren modelle, an das höhere modell @ default heran reichen kann ;)

Wenn es 8800GTS --> 8800GTX heißen würde könnte ich es noch einigermaßen verstehen. Aber bei 8800GTS --> 9800GTX?

Nakai
2008-01-25, 19:32:42
Wenn es 8800GTS --> 8800GTX heißen würde könnte ich es noch einigermaßen verstehen. Aber bei 8800GTS --> 9800GTX?

Es wurde auch ein G92 für Geforce 8800-Karten verwendet.


mfg Nakai

Hvoralek
2008-01-25, 19:44:34
Das mit den ROPs ist halt auch noch so ne Sache. Wäre es denn beim G92 vom Design her theoretisch möglich, dass man 24 ROPs mit 256bit-SI kombinieren könnte?Praktisch sicher nicht. Das würde auch nicht viel nützen, Bandbreite bekommt man über schnellen Speicher genug.

Du meinst wohl 1600Mhz Speichertakt. Nun, ich bezweifle stark, dass der G92 so stark bandbreitenlimitiert ist. Wobei, in Verbindung mit dem um 23% höheren Coretakt könnten die 30% hinkommen.2600- MHz- Speicher wäre doch auch schick :ugly:

Du hast doch selbst eine ~50%ige Bandbreitenskalierung bei der GTS gemessen. Für einen einzelnen Faktor ist das eine ganze Menge, zumal mir Crysis nicht gerade als Bandbreitenfresser bekannt ist. Wieso erwartest Du dann an Mehrleistung nur einen Hauch mehr als die reine Chiptaktsteigerung? Ich würde bei den Eckdaten im Durchschnitt eher 40% als 30% schätzen, in jedem Fall mit 4xAA.

Gibt es eigentlich irgendwo umfangreicherer Bandbreitenskalierungstests, möglichst auch mit Karten anderer Modellreihen?

dargo
2008-01-25, 19:54:31
Du hast doch selbst eine ~50%ige Bandbreitenskalierung bei der GTS gemessen. Für einen einzelnen Faktor ist das eine ganze Menge, zumal mir Crysis nicht gerade als Bandbreitenfresser bekannt ist.

Eine GTS@780Mhz Coretakt, bitte nicht vergessen. Bei 650Mhz Coretakt denke ich wäre die Skalierung bei ca. 1:0,3-0,4.
Wenn du die Bandbreite um ~65% erhöhst bezweifle ich aber, dass die Framerate um die Hälfte ansteigt (immer das Verhältnis 1:0,5 im Hinterkopf). Irgendwann bringt die Bandbreite auch nichts mehr wenn die GPU nicht hinterherkommt.


Wieso erwartest Du dann an Mehrleistung nur einen Hauch mehr als die reine Chiptaktsteigerung? Ich würde bei den Eckdaten im Durchschnitt eher 40% als 30% schätzen, in jedem Fall mit 4xAA.

Du hast recht. Durch 23% mehr Coretakt und 65% mehr Speichertakt könnten durchaus auch 40% drin sein.

Gast
2008-01-25, 19:55:20
Praktisch sicher nicht. Das würde auch nicht viel nützen, Bandbreite bekommt man über schnellen Speicher genug.

Ja ist schon klar, dass man mit GDDR4/GDDR5 auf genügend Bandbreite @256bit kommen würde! Aber wie ist das denn nun mit den nur 16 ROPs, bremsen die jetzt oder nicht (wenn die Speicherbanbreite dank hohen Takt (1,6Ghz+) nicht mehr limitieren würde)???

Nakai
2008-01-25, 20:01:54
Die 9800GTX muss mehr Bandbreite bieten, das ist sicher. Den eigentlichen Chiptakt schätz ich nicht so hoch ein.
Auf HD3870X2-Niveau schätz ich die Karte ein.
Verbrauch auf 8800GTX-Niveau.

mfg Nakai

dargo
2008-01-25, 20:03:55
Ja ist schon klar, dass man mit GDDR4/GDDR5 auf genügend Bandbreite @256bit kommen würde! Aber wie ist das denn nun mit den nur 16 ROPs, bremsen die jetzt oder nicht (wenn die Speicherbanbreite dank hohen Takt (1,6Ghz+) nicht mehr limitieren würde)???
Naja, bremsen ist so eine Sache. Irgendwas bremst immer. Mal ist die Graka besser ausgewogen (G80) mal weniger gut (G92). Ich sags mal so - eine G9800GTX mit 700Mhz Coretakt, 1,07Ghz Speichertakt, 24 ROPs und 384Bit SI würde mir besser gefallen als eine mit 800Mhz Coretakt, 1,6Ghz Speichertakt, 16 ROPs und 256Bit SI.

Gast
2008-01-25, 20:18:25
Naja, bremsen ist so eine Sache. Irgendwas bremst immer.

Das stimmt schon. Die Frage ist halt, ob die 16 ROPs gegenüber 24 ROPs die Karte z.B. auf 95% (der "24 ROPs-Kartenleistung") runterbremst oder z.B. auf schon fühlbare 80% (der "24 ROPs-Kartenleistung"). 16 ROPs sind ja verhältnismäßig gegenüber dem sehr gut ausgewogenen G80 nur 67% ROP-Leistung.

dargo
2008-01-25, 20:33:47
Das stimmt schon. Die Frage ist halt, ob die 16 ROPs gegenüber 24 ROPs die Karte z.B. auf 95% (der "24 ROPs-Kartenleistung") runterbremst oder z.B. auf schon fühlbare 80% (der "24 ROPs-Kartenleistung"). 16 ROPs sind ja verhältnismäßig gegenüber dem sehr gut ausgewogenen G80 nur 67% ROP-Leistung.
Puh, diese Frage lässt sich sehr schwer beantworten.

1. Es hängt vom Game ab (zb. obs stark an der Shaderleistung hängt)
2. Von den Settings ab.
3. Vom Rest wie zb. der Bandbreite ab.

Ein Beispiel - Crysis in 1280x1024 4xMSAA/16xAF

G8800GTS640 mit 20 ROPs, 346GFLOPs, 513Mhz Coretakt und 64GB/s Bandbreite = 100%
G8800GTS512 mit 16 ROPs, 624 GFLOPs, 650Mhz Coretakt und 62GB/s Bandbreite = ~140%

Würde man die GPU der G92GTS mit 513Mhz takten würde der Vorteil von ~40% noch um Einiges schrumpfen. Die Erhöhung der Bandbreite bei der G92GTS um 10% ergibt ca. 5% mehr Frames (bei 780Mhz Coretakt, bei 650Mhz Coretakt würde ich von ca. 4% ausgehen).

Also bei ~gleicher Bandbreite (in diesem Fall ~64GB/s) limitiert die ROP-Leistung des G92 imho deutlich.

Nakai
2008-01-25, 21:15:16
Hab gerade von einem Händler erfahren, dass die Preise der meisten Karten hochgegangen sind.
Die Frage stellt sich dann, warum das so ist.

Entweder höhere Nachfrage oder die neuen Karten werden nicht so übermäßig schneller. Oder die Händler versuchen sich auf das Schwache erste Quartal einzustellen.


mfg Nakai

€: Besonders betroffen sind die HD38xx und Geforce88xx...

laser114
2008-01-26, 12:14:11
NVIDIA delays almost all their February products

Almost all NVIDIA's upcoming products will be delay to March, according to our sources.

Delayed new products including 780a, 750a, 790i, 790i Ultra, and 9800 GX2. All these products should be announced in Feb, 2008. Sources did not mention the reason why NV hold the upcoming releases. And we guess that's because of factories are running into Chinese new year holiday.

The delay will push back the war between GeForce 9800GX2 and Radeon HD 3870 X2. And that means HD 3870 X2 will be the absolutely highest product in the market, continue eating NVIDIA's share for one extra month.

And 790i and 790i Ultra's delay will make them directly face Intel's X48. Also, in NVIDIA's February product line up, only GeForce 8200 will still stick on NV's roadmap, to be released in Feb.

http://en.expreview.com/?p=233

GeneralHanno
2008-01-26, 12:57:10
hmmm aber was ist mit der 9600GT ?

Gast
2008-01-26, 13:11:26
Wann kommt eigentlich der Nachfolger der 8800GT (9800 GT???) raus? Gibt es dazu schon genaueres, ungefährer Launchtermin, Informationen über den Takt etc?

GeneralHanno
2008-01-26, 13:19:00
überhaupt nix genaues. es gibt imo nur 1ne quelle die einmal den namen 9800GTX und GT(S?) nenannt hat. sonst gar nix !

wenn die 9800GTX ein G92 mit tri-sli und mehr takt (core+shader+speicher) sein wird, dann wird die 9800 halt etwas abgespeckt sein. mehr oder minder eine 8800GT revision 2.0.

launchtermin: nach der 9800GX2 und 9600GT, also wohl anfang Q2/08 ...

AnarchX
2008-01-26, 13:19:45
hmmm aber was ist mit der 9600GT ?
Die kommt wohl mit dem GF8200-IGP im Februar, wohl genauer am 21.02..
Wann kommt eigentlich der Nachfolger der 8800GT (9800 GT???) raus? Gibt es dazu schon genaueres, ungefährer Launchtermin, Informationen über den Takt etc?
Anfang Q2, Infos gibt es keine, wohlmöglich nur leicht höhere Taktraten und HybridPower. Denkbare wäre auch 55nm.

laser114
2008-01-26, 13:22:50
Die kommt wohl mit dem GF8200-IGP im Februar, wohl genauer am 21.02..

Aber nur mit Paperlaunch der 9800 GX2. ;)

GeneralHanno
2008-01-26, 13:27:19
in welcher revision(en?) wird z.zt. wird eigentlich der G92 gefertigt?

wie schätzt ihr die chance auf eine Bxx (also neues silizium) ein?

dargo
2008-01-26, 15:24:37
Gibt es eigentlich irgendwo umfangreicherer Bandbreitenskalierungstests, möglichst auch mit Karten anderer Modellreihen?
Das wird dich interessieren:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6226300&postcount=837

Sollte also eine mögliche G9800GTX ~94GB/s (+~51% gegenüber der G92G8800GTS) an Bandbreite abbekommen sollten in Crysis nur 10-15% höhere Frameraten rauskommen. Bei 800Mhz Coretakt könnte man irgendwo im Bereich von +~35% gegenüber einer G8800GTS(G92) liegen. Ob das reicht um eine Ultra zu schlagen?

Nakai
2008-01-26, 15:27:59
Die 8800GTS hat jetzt schon mehr Rohleistung als eine 8800Ultra.
Der Speichertakt und die Pixelfüllrate müsste nur etwas erhöht werden.


mfg Nakai

dargo
2008-01-26, 15:31:35
Die 8800GTS hat jetzt schon mehr Rohleistung als eine 8800Ultra.
Der Speichertakt und die Pixelfüllrate müsste nur etwas erhöht werden.

Die Pixelfüllrate zählt bei mir ebenfalls zur Rohleistung. Schließlich ist diese von der GPU abhängig.

Hvoralek
2008-01-26, 15:49:22
Das wird dich interessieren:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6226300&postcount=837

Sollte also eine mögliche G9800GTX ~94GB/s (+~51% gegenüber der G92G8800GTS) an Bandbreite abbekommen sollten in Crysis nur 10-15% höhere Frameraten rauskommen. Bei 800Mhz Coretakt könnte man irgendwo im Bereich von +~35% gegenüber einer G8800GTS(G92) liegen. Ob das reicht um eine Ultra zu schlagen?Interessant, In Crysis braucht es aber noch nicht einmal (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/21/#abschnitt_crysis") so eine Mehrleistung. 35% > GTS512 sollte genügen, um eine Ultra durchgehend zu schlagen, 1 GiB VRAM vorausgesetzt. Die Z- Füllrate wäre zwar immer noch 13% geringer, aber das sollte zumindest unterhalb von 8x MSAA dadurch wenigstens kompensiert werden, dass ein solcher G92 in allen anderen Belangen überlegen wäre.

Ich möchte auch noch einmal darauf hinweisen, dass Crysis wohl nicht gerade ein Bandbreitenfresser ist.

dargo
2008-01-26, 15:52:37
Ich möchte auch noch einmal darauf hinweisen, dass Crysis wohl nicht gerade ein Bandbreitenfresser ist.
Ich hoffe der hilfsbereite Forumuser kann mir noch andere Gamebenches liefern.

Interessant, In Crysis braucht es aber noch nicht einmal (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/21/#abschnitt_crysis") so eine Mehrleistung. 35% > GTS512 sollte genügen, um eine Ultra durchgehend zu schlagen, 1 GiB VRAM vorausgesetzt.

Vergiss die CB-Benches. Der G92 ist gegenüber dem G80 nicht so performant wie CB es verkaufen möchte (unterschiedliche Treiber). Ich habe mir einige andere Benches im Netz mit gleichen Treibern (zumindest ein 169-er) angesehen, der Unterschied ist geringer als bei CB.

Edit:
Einige Ungereimtheiten.

World in Conflict DX10:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/23/
http://www.pcper.com/article.php?aid=494&type=expert&pid=11

Vielleicht liegts daran, dass pcper Vista64 genutzt hat.

Ein anderes Beispiel.

Company of Heroes:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/10/
http://www.ht4u.net/reviews/2007/msi_nx8800gts/index18.php

Man beachte den Unterschied zwischen den beiden G8800GTS in 1600x1200 4xAA/16xAF.

Nakai
2008-01-26, 16:56:23
Die Pixelfüllrate zählt bei mir ebenfalls zur Rohleistung. Schließlich ist diese von der GPU abhängig.

Ja stimmt. Das einzigste was der G92 benötigt ist höhere Pixelfüllrate und bessere Bandbreite. Also schnelleren Speicher und mehr Coretakt.


mfg Nakai

dargo
2008-01-26, 17:07:43
Ja stimmt. Das einzigste was der G92 benötigt ist höhere Pixelfüllrate und bessere Bandbreite. Also schnelleren Speicher und mehr Coretakt.

Jepp, ersteres sehe ich mit GDDR4 als kein Problem an, zweiteres schon. Zumindest wenn man Bereiche von +40-50% sehen will. Für 30% bräuchte man schon 850Mhz Coretakt, was wohl kaum machbar mit dem G92 sein wird.

Nakai
2008-01-26, 17:18:24
Jepp, ersteres sehe ich mit GDDR4 als kein Problem an, zweiteres schon. Zumindest wenn man Bereiche von +40-50% sehen will. Für 30% bräuchte man schon 850Mhz Coretakt, was wohl kaum machbar mit dem G92 sein wird.

Die 8800GTX hat 13800 MPix/s.

Die 9800GTX würde 862,5 MHz benötigen um dies zu erreichen. Man könnte auch etwas Treibercheating anwenden um die Pixelfüllrate bei den neuen Karten zu schonen.

Ohne AA ist die Karte meistens vor der 8800GTX oder Ultra. Mit AA siehts anders aus.


mfg Nakai

dargo
2008-01-26, 17:37:12
Ohne AA ist die Karte meistens vor der 8800GTX oder Ultra. Mit AA siehts anders aus.

Eben nicht. Das Problem ist, dass die Anforderung an die ROP-Leistung bei kleinen Auflösungen ohne AA (zb. 1280) nicht besonders hoch ist. Da muss man schon min. 1920 oder besser 2560 für nehmen. Aber selbst in 1600 ist die GTS nicht schneller (bis auf wenige Ausnahmen) als eine Ultra:
http://www.ht4u.net/reviews/2007/msi_nx8800gts/

Ein weiterer Test wo die GTS (obwohl um ~4% beim Coretakt übertaktet) nicht an eine GTX/Ultra in 1600 rankommt:
http://www.legitreviews.com/article/610/5/

Bei den GTX Werten einfach 8-10% für Ultra Werte draufrechnen. Die getestete Ultra ist nämlich auf 675Mhz Coretakt übertaktet.

Hvoralek
2008-01-26, 18:26:28
Inwiefern hat die Auflösung eine Auswirkung auf die Z- Last? Die steigt steigt grob linear zur Auflösung, aber das die Anforderungen an die Filter- und Arithmetikleistung sowie an die Bandbreite auch.

dargo
2008-01-26, 18:53:45
Steigt die Anforderung der einzelnen Bereiche bei höherer Auflösung immer 1:1 mit? Ich kann mir kaum vorstellen, dass man zb. für 1680x1050 72% mehr Bandbreite braucht als für 1280x800.

Nakai
2008-01-26, 19:15:19
Ein weiterer Test wo die GTS (obwohl um ~4% beim Coretakt übertaktet) nicht an eine GTX/Ultra in 1600 rankommt:

Nur bei Stalker.

Die 9800GTX wird nichts besonderes. Nur etwas schneller als die 8800Ultra und dafür benötigt man nicht soviel mehr.

Der Coretakt sollte vorallem hochgeschraubt werden, ebenso muss die Bandbreite deutlich erhöhen.

Womöglich muss NV die Chips selektieren, was für ein verschieben des Launches spricht.

Ich bleibe dabei, was NV demnächst raushauen will, übertrifft das gebotene in Sachen Performance nicht so sehr.


mfg Nakai

Hvoralek
2008-01-26, 19:21:13
Steigt die Anforderung der einzelnen Bereiche bei höherer Auflösung immer 1:1 mit? Ich kann mir kaum vorstellen, dass man zb. für 1680x1050 72% mehr Bandbreite braucht als für 1280x800.Der einzige Punkt, bei dem ich nicht sicher bin, sind Texturen. Die müssen zwar für jeden Pixel zur Verfügung stehen, ich weiß aber nicht, ob und inwieweit durch Speicher auf dem Chip Übertragungen gespart werden können, wenn mehrere Pixel dieselben Texturdaten brauchen. Zugriffe auf den Framebuffer steigen jedenfalls etwa proportional zur Auflösung. Auch Texturfilterung und Shader müssen für jeden Pixel einzeln berechnet werden. Kleine Ausnahme: Vertex Shader, die sind auflösungsunabhängig. Bei Chips mit dedizierten Shadern ist das egal (abgesehen von 3DMark05 und evtl. Oblivion, bei allem anderen haben die Geometrieleistung im Überfluss), bei USCs führt es dazu, dass die Arithmetikanforderungen etwas langsamer steigen. VS sind aber so ein Kleinkram, dass man das wohl vernachlässigen kann.

Falls die Anforderung an die Texturbandbreite nicht etwa linear steigen sollte, würde die Bandbreitenlast mit höherer Auflösung langsamer steigen als der Rest, sodass Bandbreite sogar an Bedeutung verlieren müsste. Der einzige mir erkennbare Grund, warum sie wichtiger werden sollte, sind VS. Das betrifft aber zum einen nur das Verhältnis zur Arithmetikleistung und nicht zu irgendwelchen Füllraten und zum anderen sind das wie gesagt Peanuts.

dargo
2008-01-26, 19:35:59
Der Coretakt sollte vorallem hochgeschraubt werden, ebenso muss die Bandbreite deutlich erhöhen.

Erhöhen ja, aber deutlich ist imho gar nicht nötig.
Ein weiterer Bandbreitentest.


1280x1024 4AA/16AF Very High

391/972/583 (GPU/SHADER/RAM)
Avg: 24
Min: 14
Max: 37

391/972/879 (GPU/SHADER/RAM)
Avg: 27
Min: 15
Max: 47
Hier bleibt von den ~51% mehr Bandbreite noch weniger als bei Crysis übrig, nämlich 12,5% im Durchschnitt.

Hier ein Kandidat wo die Bandbreite besser durchschlägt.

1280x1020 16AF

391/972/583 = 37FPS
391/972/879 = 47FPS

1600x1200 16AF

391/972/583 = 26FPS
391/972/879 = 33FPS


Ich bleibe dabei, was NV demnächst raushauen will, übertrifft das gebotene in Sachen Performance nicht so sehr.

Das sehe ich genauso solange die G9800GTX auf dem G92 basiert.

Gast
2008-01-26, 20:27:19
Nur bei Stalker.

Die 9800GTX wird nichts besonderes. Nur etwas schneller als die 8800Ultra und dafür benötigt man nicht soviel mehr.

Der Coretakt sollte vorallem hochgeschraubt werden, ebenso muss die Bandbreite deutlich erhöhen.

Womöglich muss NV die Chips selektieren, was für ein verschieben des Launches spricht.

Ich bleibe dabei, was NV demnächst raushauen will, übertrifft das gebotene in Sachen Performance nicht so sehr.


mfg Nakai

jop,leider

fast 1,5 Jahre nach der 8800GTX dreht man den Leuten so einen lahmen Refresh an.Und vielleicht nach 2 Jahren ! bekommt man vielleicht man einen sinnvollen Ersatz :(

Nakai
2008-01-27, 12:25:39
Das sehe ich genauso solange die G9800GTX auf dem G92 basiert.

Man muss Abstand zur 9800GX2 lassen.

Hier bleibt von den ~51% mehr Bandbreite noch weniger als bei Crysis übrig, nämlich 12,5% im Durchschnitt.

Immerhin 12%. Jetzt kann man noch die restlichen Daten anschrauben.
30 bis 40% zur 8800GTS sollten drin sein.


mfg Nakai

James Ryan
2008-01-27, 12:30:36
Für 30% bräuchte man schon 850Mhz Coretakt, was wohl kaum machbar mit dem G92 sein wird.

Mit einer neuen Revision (A3) und mehr Spannung sind 850 MHz durchaus machbar. Heute gibt es schon G92-GTS-Karten, die mit 800/2000 MHz laufen. Man bedenke dabei auch, wie jung der G92 noch ist!

MfG :cool:

reunion
2008-01-27, 12:37:29
Ja stimmt. Das einzigste was der G92 benötigt ist höhere Pixelfüllrate und bessere Bandbreite. Also schnelleren Speicher und mehr Coretakt.


mfg Nakai

Die Pixelfüllrate ist so ziemlich das unwichtigste was es gibt. Heute völlig belanglos.

Mit einer neuen Revision (A3) und mehr Spannung sind 850 MHz durchaus machbar. Heute gibt es schon G92-GTS-Karten, die mit 800/2000 MHz laufen. Man bedenke dabei auch, wie jung der G92 noch ist!

MfG :cool:

Bleib mal an Boden. Nachdem was man bis heute vom G92 gesehen hat würde mich alles über 750Mhz sehr überraschen. Selbst die eVGA Modelle mit Wakü kommen nicht über 740Mhz hinaus.

James Ryan
2008-01-27, 12:45:21
Bleib mal an Boden. Nachdem was man bis heute vom G92 gesehen hat würde mich alles über 750Mhz sehr überraschen. Selbst die eVGA Modelle mit Wakü kommen nicht über 740Mhz hinaus.

Lies dir mal die OC-Listen durch!

Mein Post bezog sich übrigens auf die Aussage, dass 850 Mhz mit dem G92 nicht möglich seien.

MfG :cool:

dargo
2008-01-27, 12:52:49
Die Pixelfüllrate ist so ziemlich das unwichtigste was es gibt. Heute völlig belanglos.

Dann verrate mir warum der G92 solche Probleme hat sich von dem G80 stark abzusetzen wenn die Bandbreite nicht/kaum der limitierende Faktor ist.

Mit einer neuen Revision (A3) und mehr Spannung sind 850 MHz durchaus machbar. Heute gibt es schon G92-GTS-Karten, die mit 800/2000 MHz laufen. Man bedenke dabei auch, wie jung der G92 noch ist!

Bedenke bitte, dass OC nicht gleich Auslieferungszustand ist. Wenn die GPU @standard 850Mhz haben soll muss diese ca. 950Mhz schaffen. Ein gewisser Puffer muss immer vorhanden sein. Aber 800Mhz bei einer neuen Revision mit höherer VGPU als bei der GTS halte ich durchaus für realistisch.

Nakai
2008-01-27, 13:32:46
Die Pixelfüllrate ist so ziemlich das unwichtigste was es gibt. Heute völlig belanglos.

Mit der Pixelfüllrate steigt auch die Z-Füllrate an.


mfg Nakai

LovesuckZ
2008-01-27, 13:43:24
Dann verrate mir warum der G92 solche Probleme hat sich von dem G80 stark abzusetzen wenn die Bandbreite nicht/kaum der limitierende Faktor ist.


Natürlich ist die Bandbreite ein limtierender Faktor - oder wer sendet sonst die Daten in den Speicher und liest sie? Die 8800GT kann sich sehr gut von der 8800GTS absetzen, trotz geringerer Bandbreite und Pixelleistung.

dargo
2008-01-27, 13:53:38
Natürlich ist die Bandbreite ein limtierender Faktor - oder wer sendet sonst die Daten in den Speicher und liest sie?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6227166&postcount=947
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6226300&postcount=837


Die 8800GT kann sich sehr gut von der 8800GTS absetzen, trotz geringerer Bandbreite und Pixelleistung.
Die GT hat auch 17% mehr Coretakt und arithmetische Leistung. Und durch die angebliche Daten-Kompression beim G92 kommt halt der leichte Vorsprung der GT hin.

LovesuckZ
2008-01-27, 15:45:32
Die 8800GT hat eine geringere Pixelleistung als die 8800GTS-640. Sie dürfte daher nicht schneller sein als diese Karte sein - außer die Pixelleistung limitiert nicht.

dargo
2008-01-27, 15:50:34
Limitiert heißt nicht automatisch 100%. ;) Irgendwas limitiert immer etwas.

Gast
2008-01-27, 15:59:51
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6227166&postcount=947
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6226300&postcount=837


Die GT hat auch 17% mehr Coretakt und arithmetische Leistung. Und durch die angebliche Daten-Kompression beim G92 kommt halt der leichte Vorsprung der GT hin.

Man kanns bald nicht mehr hören. Die Leistung einer GPU ist nicht so ohne weiteres über 3 bis 4 Kenngrößen zu bestimmen bzw davon abzuleiten. Der Aufbau ist viel zu komplex als dass hier so nen paar Möchtegernspezialisten ne genaue Einschätzung treffen könnten.

dargo
2008-01-27, 16:04:30
Man kanns bald nicht mehr hören. Die Leistung einer GPU ist nicht so ohne weiteres über 3 bis 4 Kenngrößen zu bestimmen bzw davon abzuleiten. Der Aufbau ist viel zu komplex als dass hier so nen paar Möchtegernspezialisten ne genaue Einschätzung treffen könnten.
Wenn du was besseres liefern kannst nur zu. Ich möchte endlich wissen was beim G92 limitiert. Die Bandbreite ist es zwar zu kleinen Teil. Das kann aber nicht der Hauptgrund sein.

reunion
2008-01-27, 16:07:48
Die Pixelfüllrate ist irrelevant. In Zeiten, in denen ein Pixel hunderte Takte braucht, bis es ausgegeben wird, sind 16Pixels/clock mehr als ausreichend. Das sind bei 600Mhz Coretakt wie bei der 8800GT 9600MPixel/s. Welche Auflösung mit welcher Framerate wollen denn mancher hier fahren um das auch nur annähernd auszulasten?

reunion
2008-01-27, 16:11:09
Dann verrate mir warum der G92 solche Probleme hat sich von dem G80 stark abzusetzen wenn die Bandbreite nicht/kaum der limitierende Faktor ist.


Bandbreite, Z-Füllrate, ev. VRAM-Größe.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6227166&postcount=947
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6226300&postcount=837


Ich sehe hier zum Teil nette Gewinne. Ein G80 hat eben durch das um 50% breitere SI diese 50% mehr Bandbreite, die sich wie du zeigst in bis zu 30% mehr Leistung niederspiegeln. Natürlich ist das anwendungsabhängig und natürlich schlägt das nicht eins zu eins durch, aber das kann man auch nicht erwarten.

Gast
2008-01-27, 16:15:26
Die Pixelfüllrate ist irrelevant. In Zeiten, in denen ein Pixel hunderte Takte braucht, bis es ausgegeben wird, sind 16Pixels/clock mehr als ausreichend. Das sind bei 600Mhz Coretakt wie bei der 8800GT 9600MPixel/s. Welche Auflösung mit welcher Framerate wollen denn mancher hier fahren um das auch nur annähernd auszulasten?
Manche Pixel müssen mehrmals durch die ROP. Außerdem besteht die Möglichkeit, dass bei zuwenigen ROPs Einheiten dahinter blockiert werden, wenn die FiFos voll sind.

Zu guter Letzt: Z-First-Pass. Da kannst du gar nicht genug ROPs haben.

Gast
2008-01-27, 16:15:55
Manche Pixel müssen mehrmals durch die ROP. Außerdem besteht die Möglichkeit, dass bei zuwenigen ROPs Einheiten dahinter blockiert werden, wenn die FiFos voll sind.

Zu guter Letzt: Z-First-Pass. Da kannst du gar nicht genug ROPs haben.
Blödsinn: Nicht Einheiten "DAHINTER" sondern "DAVOR".

Gast
2008-01-27, 16:18:26
Wenn du was besseres liefern kannst nur zu. Ich möchte endlich wissen was beim G92 limitiert. Die Bandbreite ist es zwar zu kleinen Teil. Das kann aber nicht der Hauptgrund sein.
Für welche Limitierung genau möchtest du eine Erklärung?

dargo
2008-01-27, 16:23:36
Bandbreite, Z-Füllrate, ev. VRAM-Größe.

Den Vram kannst du ausschließen. Da haben wir schon drauf geachtet, dass die 512MB nicht ausgeschöpft werden. Zur Bandbreite hatte ich schon einiges geschrieben, was bleibt ist die Z-Füllrate. Und afaik ist letzteres an die Pixelfüllrate angebunden bzw. steigt 1:1 mit.

Für welche Limitierung genau möchtest du eine Erklärung?
G92G8800GTS hat eine um 80% höhere arithmetische Leistung auf dem Papier gegenüber einer G80G8800GTS. Ich möchte wissen was hauptsächlich limitiert da die 80% praktisch nie umgesetzt werden. Nicht selten sieht man sogar nur ~35% Vorteil. Und ich spreche hier sogar von Settings wo die Bandbreite weniger eine Rolle spielt, nämlich 1xAA.

nomadhunter
2008-01-27, 16:32:31
Nur weil die Bandbreite nicht 1:1 mit der Framerate skaliert, heißt das noch lange nicht, dass sie nicht limitiert. Würde sie nicht limitieren, dürfte eine Bandbreitenerhöhung kein einziges fps mehr bringen. Auch 50% mehr ROPs würden in normalen Spielen nicht annährend zu 50% mehr fps führen. Ich würde aus den meisten Benchmarks/Tests schließen, dass die größte Limitation des G92 Bandbreite und die ROPs sind (ob Pixel- oder Z-Füllrate ist eigentlich egal, beide sind proportional zueinander und zu ROP-Anzahl und -Takt), während Shaderleistung und Tex-Füllrate in den meisten Situationen nur leicht limitieren dürften und die Speichermenge in normalen Situationen garnicht limitiert.

dargo
2008-01-27, 16:55:37
Nur weil die Bandbreite nicht 1:1 mit der Framerate skaliert, heißt das noch lange nicht, dass sie nicht limitiert. Würde sie nicht limitieren, dürfte eine Bandbreitenerhöhung kein einziges fps mehr bringen.

Das ist schon klar. Hätte aber eine GPU soviel Bandbreite, dass eine Erhöhung dieser kein einziges % an Leistung mehr bringt dann wäre die Graka zu 100% gpu-limitiert. Sowas würde kein IHV machen. Das wäre wirtschaftlicher Unsinn. Eine GPU muss mit der Bandbreite gut ausbalanciert sein. Und das ist imho bei dem G92 der Fall. Wenn bei mir was 1:0,5 skaliert dann nenne ich das eine gute Balance, nämlich 50:50. Und wie ich in den drei Games gezeigt habe wird dieses 1:0,5 noch nicht mal in zwei Games erreicht. NV hat beim G92 die Bandbreite einfach an die "beschnittenen" ROPs angepasst.


Auch 50% mehr ROPs würden in normalen Spielen nicht annährend zu 50% mehr fps führen. Ich würde aus den meisten Benchmarks/Tests schließen, dass die größte Limitation des G92 Bandbreite und die ROPs sind (ob Pixel- oder Z-Füllrate ist eigentlich egal, beide sind proportional zueinander und zu ROP-Anzahl und -Takt), während Shaderleistung und Tex-Füllrate in den meisten Situationen nur leicht limitieren dürften und die Speichermenge in normalen Situationen garnicht limitiert.
Auch das ist richtig. Hätte der G92 aber 24 ROPs und entsprechende Bandbreite hätten wir bei der G92GTS die +80-100% gegenüber der G80GTS gesehen. :)

Hvoralek
2008-01-27, 17:08:33
Man kanns bald nicht mehr hören. Die Leistung einer GPU ist nicht so ohne weiteres über 3 bis 4 Kenngrößen zu bestimmen bzw davon abzuleiten. Der Aufbau ist viel zu komplex als dass hier so nen paar Möchtegernspezialisten ne genaue Einschätzung treffen könnten.Bei der gleichen Architektur kann man natürlich die Leistung anhand der Eckdaten grob abschätzen. Über verschiedene Architekturen ist das Schwachsinn, klar.

Die Pixelfüllrate ist irrelevant. In Zeiten, in denen ein Pixel hunderte Takte braucht, bis es ausgegeben wird, sind 16Pixels/clock mehr als ausreichend. Das sind bei 600Mhz Coretakt wie bei der 8800GT 9600MPixel/s. Welche Auflösung mit welcher Framerate wollen denn mancher hier fahren um das auch nur annähernd auszulasten?Es wurde doch schon einmal darauf hingewiesen, dass mit "Pixelfüllrate" wohl die z/St- Füllrate gemeint ist :rolleyes:

Auch das ist richtig. Hätte der G92 aber 24 ROPs und entsprechende Bandbreite hätten wir bei der G92GTS die +80-100% gegenüber der G80GTS gesehen. :)Das wäre selbst theoretisch nur dann möglich, wenn die Umbauten in der Architektur (sprich mehr TAs) sich nennenswert auswirken. Was kaum je der Fall sein wird :|

reunion
2008-01-27, 17:12:46
Es wurde doch schon einmal darauf hingewiesen, dass mit "Pixelfüllrate" wohl die z/St- Füllrate gemeint ist :rolleyes:


Dann soll man das doch bitte auch so sagen, kann ja nicht so schwer sein. Nicht jeder ließ immer überall alles mit.

dargo
2008-01-27, 17:29:57
Ich gebs auf. Bei dem G92 verstehe ich gar nichts mehr. Wir waren doch bei der Z-Füllrate.

G92GTS:

http://666kb.com/i/avls9i9tmgi6kj3k1.jpg

G80GTS:

http://666kb.com/i/avlsabbg3ujy56d35.png

G92GTS@513/1240/972Mhz

http://666kb.com/i/avlsb12ufvvawcjb5.jpg

Gast
2008-01-27, 17:36:07
G92G8800GTS hat eine um 80% höhere arithmetische Leistung auf dem Papier gegenüber einer G80G8800GTS. Ich möchte wissen was hauptsächlich limitiert da die 80% praktisch nie umgesetzt werden. Nicht selten sieht man sogar nur ~35% Vorteil. Und ich spreche hier sogar von Settings wo die Bandbreite weniger eine Rolle spielt, nämlich 1xAA.
Nun, daraus kannst du wunderschön ablesen, was kaum limitiert: Die arithmetische Leistung, da sie nur zur Hälfte durchschlägt.

Gast
2008-01-27, 17:40:06
Ich gebs auf. Bei dem G92 verstehe ich gar nichts mehr. Wir waren doch bei der Z-Füllrate.

G92GTS:

http://666kb.com/i/avls9i9tmgi6kj3k1.jpg

G80GTS:

http://666kb.com/i/avlsabbg3ujy56d35.png

G92GTS@513/1240/972Mhz

http://666kb.com/i/avlsb12ufvvawcjb5.jpg

Und? Das KEIN G8x/G9x auch nur annähernd die Bandbreite hat, um seine theoretische Z-Leistung voll auszuschöpfen, ist doch längst bekannt.

20*4*2*513 = 82 GZixel/sek.
16*4*2*650 = 83,2 GZixel/sek.

Passt doch einigermaßen.

Hvoralek
2008-01-27, 17:47:48
Dann soll man das doch bitte auch so sagen, kann ja nicht so schwer sein. Nicht jeder ließ immer überall alles mit.Der Hinweis kam fast sofort, nachdem Du das letzte Mal auf die Bedeutungslosigkeit der Pixelfüllrate hingewiesen hattest.

Ich gebs auf. Bei dem G92 verstehe ich gar nichts mehr. Wir waren doch bei der Z-Füllrate.Das ist allerdings seltsam. Beziehen sich die Werte für Z- Fill auf normale Durchläufe oder auf Z- only- Passes? Im ersten Fall wäre die Füllrate bei D8P höher als rechnerisch möglich (650*16*4), im zweiten wäre sie in allen Fällen deutlich niedriger als sie eigentlich sein sollte (Dann 8 Samples pro ROP- Takt).

Könnte die Bandbreite da eine Rolle spielen? Die ist zwar beim runtergetakteten D8P nicht höher als bei der G80-GTS, allerdings nutzt D8P die ja effizienter.

dargo
2008-01-27, 17:51:41
Und? Das KEIN G8x/G9x auch nur annähernd die Bandbreite hat, um seine theoretische Z-Leistung voll auszuschöpfen, ist doch längst bekannt.

20*4*2*513 = 82 GZixel/sek.
16*4*2*650 = 83,2 GZixel/sek.

Passt doch einigermaßen.
Das schon. Ich dachte nur, bei dem G92 würde die Z-Füllrate ebenfalls limitieren was ja nicht der Fall ist. Die G92GTS hat eine um ~29% höhere Z-Füllrate.

Gast
2008-01-27, 17:52:00
Steht doch da: Einmal Z-only, einmal Z+Color.

Gast
2008-01-27, 17:53:12
Das schon. Ich dachte nur, bei dem G92 würde die Z-Füllrate ebenfalls limitieren was ja nicht der Fall ist. Die G92GTS hat eine um ~29% höhere Z-Füllrate.
Du siehst ja, wieviel davon praktisch nutzbar ist. ~10% Prozent kommen manchmal an, wenn sonst keine Bandbreite verbraucht wird.

Spiele brauchen aber auch so Bandbreite: Texturen, Vertexdaten etc.pp.

deekey777
2008-01-27, 19:17:52
Etwas zu der ROP-Diskussion: http://www.digit-life.com/articles2/video/g80_units2-page1.html
Schaut mal auf rop_busy.

Hvoralek
2008-01-27, 19:40:44
Steht doch da: Einmal Z-only, einmal Z+Color."Color + Z Fill" misst offensichtlich nicht die Z- Füllrate bei einem normalen Durchlauf (die wäre höher), sondern die Pixelfüllrate. Deswegen die Frage, ob "Z Fill" die normale Z- Füllrate (also die bei Z +Color) ist oder die Z- only. Wird wie gesagt letzteres sein, weil D8P sonst knapp über den rechnerischen Füllraten läge.

Etwas zu der ROP-Diskussion: http://www.digit-life.com/articles2/video/g80_units2-page1.html
Schaut mal auf rop_busy.Auch wenn die ROPs insgesamt nur schwach ausgelastet sind, könnten sie durchaus einen nennenswerten Einfluss auf die Gesamtleistung haben, z.B. durch Z- only- Passes.

Gast
2008-01-27, 19:44:05
"Color + Z Fill" misst offensichtlich nicht die Z- Füllrate bei einem normalen Durchlauf (die wäre höher), sondern die Pixelfüllrate. Deswegen die Frage, ob "Z Fill" die normale Z- Füllrate (also die bei Z +Color) ist oder die Z- only. Wird wie gesagt letzteres sein, weil D8P sonst knapp über den rechnerischen Füllraten läge.
Color Fill
Z-Fill
Color+Z-Fill

^^^lässt nicht viel Raum für Interpretationen. Keine Ahnung, warum du da so lange hin und herdiskutieren musst.

Gast
2008-01-27, 20:06:00
Etwas zu der ROP-Diskussion: http://www.digit-life.com/articles2/video/g80_units2-page1.html
Schaut mal auf rop_busy.

Von dem Test ausgehend würden der 8800 GTX ja rechnerisch sogar 4 ROPs ausreichen! Da kann doch irgendwas nicht stimmen! :|

deekey777
2008-01-27, 20:14:15
Von dem Test ausgehend würden der 8800 GTX ja rechnerisch sogar 4 ROPs ausreichen! Da kann doch irgendwas nicht stimmen! :|
Was soll da nicht stimmen? ROPs sind die Einheiten, die am wenigsten zu tun haben.

Gast
2008-01-27, 20:14:30
Von dem Test ausgehend würden der 8800 GTX ja rechnerisch sogar 4 ROPs ausreichen! Da kann doch irgendwas nicht stimmen! :|

Warum nicht? Die Beanspruchung kann doch abhängig von einander sein. Wenn nur bei ca. ein 1/15 aller zur Verfügung stehenden Takte die Rops gebraucht werden, dann aber bitte schnell, warum nicht.

Gast
2008-01-27, 20:18:10
Das ist schon klar. Hätte aber eine GPU soviel Bandbreite, dass eine Erhöhung dieser kein einziges % an Leistung mehr bringt dann wäre die Graka zu 100% gpu-limitiert.

Totaler Quatsch die Denke. In solch einem Fall würde die GPU keine Zugriffe auf den Speicher brauchen.

nomadhunter
2008-01-27, 20:34:50
Was soll da nicht stimmen? ROPs sind die Einheiten, die am wenigsten zu tun haben.
NVIDIA verbaut nicht freiwillig 6 mal so viele ROPs wie eigentlich notwendig wären. Selbst wenn sie meistens kaum ausgelastet haben, müssen die vielen ROPs schon einen Sinn haben.

mapel110
2008-01-27, 20:43:41
NVIDIA verbaut nicht freiwillig 6 mal so viele ROPs wie eigentlich notwendig wären.
nvidia hat auch schon mal die ROPs stark reduziert. von 16 auf 4, 6800 GT/ultra auf 6600 GT

Wenn etwas nicht viele Transistoren kostet, dann kann es durchaus mal Sinn machen, so viel davon zu verbauen, dass der Rest des Chips nie auf diesen Teil warten muss.

Hvoralek
2008-01-27, 21:27:42
Color Fill
Z-Fill
Color+Z-Fill

^^^lässt nicht viel Raum für Interpretationen. Keine Ahnung, warum du da so lange hin und herdiskutieren musst.Color ist klar. Bei Color + Z müssten eigentlich zwei Werte stehen, eben Farb- und Z/St- Füllraten. Dort wird aber nur einer angegeben, nämlich die Farb-. Anhand der Bezeichnungen ist nicht zweifelsfrei klar, ob die angegebene Z- Füllrate nun dieser fehlende Wert von Color + Z ist oder die Z- only- Füllrate.

Gast
2008-01-27, 21:34:17
Color ist klar. Bei Color + Z müssten eigentlich zwei Werte stehen, eben Farb- und Z/St- Füllraten. Dort wird aber nur einer angegeben, nämlich die Farb-. Anhand der Bezeichnungen ist nicht zweifelsfrei klar, ob die angegebene Z- Füllrate nun dieser fehlende Wert von Color + Z ist oder die Z- only- Füllrate.
Nee, eine Zahl reicht: Im ersten Test wird nur Farbe gelesen/geschrieben, im zweiten nur Z, im dritten das, was eigentlich "normal" ist, nämlich ein Farbwert, der auch einen Tiefenwert hat.

Hvoralek
2008-01-27, 21:45:15
Nee, eine Zahl reicht: Im ersten Test wird nur Farbe gelesen/geschrieben, im zweiten nur Z, im dritten das, was eigentlich "normal" ist, nämlich ein Farbwert, der auch einen Tiefenwert hat.G8x kann aber neben einem Farbwert 4 Z/St schreiben. Das erkennt man so nirgends. Hier kommt hinzu, dass durch die Bandbreitenbegrenzung die reine Z/St- Füllrate ungefähr auf dem Niveau liegt, die sie beim Schreiben von Farbwerten hat, was auch nicht gerade für Klarheit auf den ersten Blick sorgt.

Gast
2008-01-27, 22:06:18
G8x kann aber neben einem Farbwert 4 Z/St schreiben. Das erkennt man so nirgends. Hier kommt hinzu, dass durch die Bandbreitenbegrenzung die reine Z/St- Füllrate ungefähr auf dem Niveau liegt, die sie beim Schreiben von Farbwerten hat, was auch nicht gerade für Klarheit auf den ersten Blick sorgt.
Nein, kann er eben nicht. Er kann Color+Z oder 4*4Z/ROP/clk - letzteres eben nur im Z-Only-Modus. Ich vermute da eine Co-Nutzung der vier Farbkanäle (warum sollte man die auch nicht als Z Nutzen können wenn man genug Platz in den Datenpfaden hat - braucht nur alles schön skalar zu bleiben

Hvoralek
2008-01-27, 22:49:59
Nein, kann er eben nicht. Er kann Color+Z oder 4*4Z/ROP/clk - letzteres eben nur im Z-Only-Modus. Ich vermute da eine Co-Nutzung der vier Farbkanäle (warum sollte man die auch nicht als Z Nutzen können wenn man genug Platz in den Datenpfaden hat - braucht nur alles schön skalar zu bleiben16 Z/St im Z- only- Pass? Ich habe bisher immer 4 Z mit Farbe oder 8 Z ohne Farbe gehört. Aths z.B. schreibt (http://www.3dcenter.org/artikel/2006/12-28_b.php) von 32 Z- Testen pro ROP- Block (also 8 pro ROP), von denen sich zusammen mit Farbwerten noch 16 (bzw. 4) nutzen lassen.

Ich hoffe, Du fühlst Dich nicht diskrimiert (als Gast), wenn ich Dir das ohne Quellen nicht einfach glaube.

Gast
2008-01-27, 22:57:33
16 Z/St im Z- only- Pass? Ich habe bisher immer 4 Z mit Farbe oder 8 Z ohne Farbe gehört. Aths z.B. schreibt (http://www.3dcenter.org/artikel/2006/12-28_b.php) von 32 Z- Testen pro ROP- Block (also 8 pro ROP), von denen sich zusammen mit Farbwerten noch 16 (bzw. 4) nutzen lassen.

Ich hoffe, Du fühlst Dich nicht diskrimiert (als Gast), wenn ich Dir das ohne Quellen nicht einfach glaube.
Kein Problem - ich glaube, ich habe mich mißverständlich ausgedrückt. Mit ROP meinte ich eine ROP-Partition, eine Quad-ROP, wenn du so willst.

GF8800GTX kommt so insgesamt auf 192 Z/St./clk, GF8800GTS auf 160 und G92 auf 128. Alternativ eben 24 C+Z/20C+Z und 16C+Z.

Hvoralek
2008-01-27, 23:03:18
Kein Problem - ich glaube, ich habe mich mißverständlich ausgedrückt. Mit ROP meinte ich eine ROP-Partition, eine Quad-ROP, wenn du so willst.Mit 4 Z/St pro ROP- Block wärst Du aber nur bei 96 bzw. 64 Z/St pro Takt.

GF8800GTX kommt so insgesamt auf 192 Z/St./clk, GF8800GTS auf 160 und G92 auf 128.Genau.

Alternativ eben 24 C+Z/20C+Z und 16C+Z.M.W. sind es 24/20/16C + 96/80/64Z.

Ailuros
2008-01-28, 06:10:55
Die Pixelfüllrate ist so ziemlich das unwichtigste was es gibt. Heute völlig belanglos.

Ich befuerchte dass die gesamte Debatte der paar vorigen Seiten sowieso auf dem falschen Pfad liegt, aber das obrige stimmt auch nicht unbedingt.

Heutige Spiele sind eher den Faehigkeiten der heutigen GPUs mehr oder weniger angepasst; nur weil D3D10 so und so viel Pixels pro Takt vorraussetzt, heisst es nicht unbedingt dass die Leistung dann auch so skaliert wie man erwarten wuerde wenn man ueber die bisherige benutzte "Norm" steigt. Overdraw wird natuerlich auch zusaetzlich in Grenzen gehalten, damit die jeweiligen front2back Optimierungen auch Sinn machen.

Ich hab zwar nicht die geringste Ahnung ob order independent transparency es doch noch in D3D11 geschafft hat (normalerweise wuerde ich erwarten dass die meisten IHVs dagegen gestimmt haben), aber falls ja wuerde ich etwas mehr Gedanken persoenlich fuer solche Aussagen opfern.

Die hoechstmoegliche effektive Fuellraten bekommst Du von einem reinem TBDR; je mehr aus floating point Power von GPUs angefragt wird (auch in absehbarer Zukunft fuer double-precision), desto mehr werden entweder Frequenzen oder die Anzahl von fixed function HW weiterhin skalieren, damit man nicht bei sehr komplizierten Berechnungen nicht im Nachteil steht.

AnarchX
2008-01-28, 09:57:39
9800 GX2 nackt bzw. auseinandergenommen:
http://forums.vr-zone.com/showthread.php?t=230836

http://img186.imageshack.us/img186/2314/11089d26304tg7.jpg (http://imageshack.us)

Die 8800 GTS hat einen G92-400, 450 müsste eigentlich darauf hindeuten, dass die 9800 GX2 wohl noch schnellere GPUs hat. ;)

8800 GS (G92-150) < 8800 GT (G92-270) < 8800 GTS (G92-400) < ? 9800 GX2 (G92-450) ?



Wobei Ailuros von 2x550MHz sprach. :uponder:

GeneralHanno
2008-01-28, 13:04:28
ich denke die "450" soll darauf hindeuten dass es sich um eine dual-vga graka handelt. nach dem motto 2* G92-225 (also ~550mhz @ v-core-selectet chips) => G92-450 ;)

AnarchX
2008-01-28, 13:50:39
Nein, das eher nicht.

Aber was möglich sein könnte, dass der 450er auch für die 9800 GTX genutzt wird und ein besonders selektierter G92 ist, der eben hohe Taktraten oder eine sehr niedrige Spannung schafft.

Die Ultra war ja auch damals der G80-450. ;)

Anarchy-HWLUXX
2008-01-28, 14:01:57
Das PCB ist soooo hübsch schwarz ;D und die 1GHz RAMs sind auch fein :ucatch:

seahawk
2008-01-28, 14:03:27
Naja, das Ding kommt als 9er Series und was sagte NV nochmal über 2D Taktraten und gesenkten Stromverrbauch....

=Floi=
2008-01-28, 14:14:28
die 7950GX2 hatte auch eine andere G71 version und das waren ja auch laptop chips. Ich würde da zumindest nicht auf mehr leistung hoffen.