PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVIDIA: sieben weitere D3D10-Produkte in Arbeit


Seiten : 1 [2] 3 4 5

AnarchX
2007-01-13, 20:24:23
G84 und G86 zuerst im Notebook
But laptop users may enjoy DX10 will be the first player in the DIY mainstream chip. nVidia intended as the first mobile version of the chip -- G86/G84 launched early last year 7300/7600 Go G72/G73 core desktop chip is first published in the mid-80nm core of G73-B1 (Go 7700 chip ) is the first landing notebook.
According to manufacturers, which the GeForce 8600 series-frequency version its DX9 games may meet or surpass the performance of the ATI Radeon X1950XT. and cost control was very good.
http://img444.imageshack.us/img444/7551/000401542kx5.jpg
http://img116.imageshack.us/img116/7105/000401541no2.jpg
256MB -> 128/256Bit SI...;)



http://www.pcpop.com/doc/0/172/172784.shtml

Der Notebookmarkt scheint wohl mittlerweile einen sehr hohen Stellenwert eingenommen zu haben, dass man eine solche Entscheidung trifft

misterh
2007-01-13, 21:11:39
hier könnt ihr sehen was 64 US bringt

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5116421&postcount=17

=Floi=
2007-01-13, 21:55:55
naja uu ist beim G80 noch etwas sicherheit miteingebaut und deshalb die 680 mio transistoren
warscheinlich werden es aber doch um die 400mio transistoren sein...

Spasstiger
2007-01-14, 02:11:04
hier könnt ihr sehen was 64 US bringt

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5116421&postcount=17
Könntest du nochmal testen mit 64 Shaderunits und einem Speichertakt von nur 560 MHz? Das würde dann einer GeForce 8600 Ultra entsprechen (bis auf den Unterschied in der Speichermenge).

dargo
2007-01-14, 10:48:04
Könntest du nochmal testen mit 64 Shaderunits und einem Speichertakt von nur 560 MHz? Das würde dann einer GeForce 8600 Ultra entsprechen (bis auf den Unterschied in der Speichermenge).
Soll die G8600U auch 20 ROPs haben :confused:

Gast
2007-01-14, 11:29:01
[SIZE="3"]http://img444.imageshack.us/img444/7551/000401542kx5.jpg
http://img116.imageshack.us/img116/7105/000401541no2.jpg
[B]256MB -> 128/256Bit SI...;) ASmobile? Ist das die Laptop-Marke von Asrock?
Soll die G8600U auch 20 ROPs haben :confused:Nein, das auf keinen Fall. Den hier geposteten Gerüchten zufolge sollen es 3 ROP-Partitionen (also 12 ROPs) sein, was aber nicht zu einem 128/256-bit-SI passt.

seahawk
2007-01-14, 14:27:17
Ja ich weiß. Deswegen frage ich mich ob NV die UVP für die G8800GTS 640MB eventuell mit dem Erscheinen der G8800GTS 320MB auf 399$ korrigiert.
Die 150$ Unterschied erscheinen mir nämlich etwas zu viel.

Am Ende des Lebenszykluses werden zumindest die Strassenpreise fallen.

dargo
2007-01-14, 14:53:43
Am Ende des Lebenszykluses werden zumindest die Strassenpreise fallen.
Was meinst du denn damit? Ich wüsste nicht, dass die G8800GTS 640MB bald eingestellt werden soll.

AnarchX
2007-01-14, 17:26:37
http://img299.imageshack.us/img299/8774/nvfkf9.jpg
http://news.mydrivers.com/pages/20070114230323_31391.htm (>Google-Übersetzung<) (http://translate.google.com/translate?u=http%3A%2F%2Fnews.mydrivers.com%2Fpages%2F20070114230323_31391.htm&langpair=zh-CN%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
129$ passen imo doch für die 8600GT um einiges besser im Verhältnis zur 8600Ultra.

seahawk
2007-01-14, 17:37:37
Was meinst du denn damit? Ich wüsste nicht, dass die G8800GTS 640MB bald eingestellt werden soll.

Anfang März dürfte sie 2/3 ihres Lebensz<kluses hinter sich haben. - auf G80 Basis

LovesuckZ
2007-01-14, 18:13:55
Anfang März dürfte sie 2/3 ihres Lebensz<kluses hinter sich haben. - auf G80 Basis

Die GTS wird jedoch nur im Zuge des Refresh eingestellt werden.

dargo
2007-01-14, 18:28:53
http://img299.imageshack.us/img299/8774/nvfkf9.jpg
Ist das eine neue Preisliste oder waren die 399$ schon immer da bei der G8800GTS 640MB? Ich dachte immer die UVP würde 449$ betragen.

AnarchX
2007-01-14, 18:31:53
Ist das eine neue Preisliste oder waren die 399$ schon immer da bei der G8800GTS 640MB? Ich dachte immer die UVP würde 449$ betragen.

Scheint so, dass der UVP(MSRP) der 8800GTS wohl bald um 50$ fallen wird oder wurde er vielleicht gar schon gesenkt.

Gast
2007-01-14, 19:00:48
http://img299.imageshack.us/img299/8774/nvfkf9.jpg
Das Loch zwischen 179 und 299 ist doch etwas zu groß...

reunion
2007-01-14, 19:04:40
Das Loch zwischen 179 und 299 ist doch etwas zu groß...

Sehe ich auch so. Ich glaube kaum, dass das Topmodell eines neuen Midragechips mit einem 256-bit Speicherinterfance plus 512MB RAM und ca. 400mio Transistoren bei 179$ starten wird. Von den 129$ der 8600GT gar nicht zu sprechen. Selbst für eine 7600GT verlangte nV zu beginn 249$ AFAIK. Und auch der Preis der 8800GTS mit 320MB RAM erscheint mir zu niedrig. Da ist immerhin ein verdammt teurer High-End-Chip verbaut, und die 320MB weniger VRAM rechtfertigen niemals 100$ Preisdifferenz.

AnarchX
2007-01-14, 19:04:59
Das Loch zwischen 179 und 299 ist doch etwas zu groß...
Beide Karten kommen ja auch nicht zum gleichen Zeitpunkt auf den Markt:
8800GTS 320MB -> Mitte Februar
8600Ultra -> April/Mai

Bis dahin ist zudem auch schon R600 auf dem Markt und ich denke doch dass der Preis der 8800GTS 320MB dann wohl nochmal gesenkt wird, sodass es wieder passt.

saddevil
2007-01-14, 22:29:29
mich interessiert so die 8600ultra ...

denke das sie so bei 200€ starten wird wie ehemals die 7600GT

Ailuros
2007-01-14, 22:34:07
Sehe ich auch so. Ich glaube kaum, dass das Topmodell eines neuen Midragechips mit einem 256-bit Speicherinterfance plus 512MB RAM und ca. 400mio Transistoren bei 179$ starten wird. Von den 129$ der 8600GT gar nicht zu sprechen. Selbst für eine 7600GT verlangte nV zu beginn 249$ AFAIK. Und auch der Preis der 8800GTS mit 320MB RAM erscheint mir zu niedrig. Da ist immerhin ein verdammt teurer High-End-Chip verbaut, und die 320MB weniger VRAM rechtfertigen niemals 100$ Preisdifferenz.

Hab ich was verpasst? Wo genau steht was von 400M Transistoren? Uebrigens steht in dem Bildchen oben <512MB ram fuer die angebliche 8600Ultra, wobei 256MB wohl mehr Sinn macht fuer den Anfang als alles andere.

Was jetzt den Speicher betrifft, dieser ist stets die teuerste Komponente auf jeder GPU. Wie schon oben korrekt erwaehnt wurde ist der MSRP der 8800GTS/640MB bei $449 und fuer 8800GTX bei $599. Das sind auch schon knapp $150 Unterschied fuer 1/6 deaktivierte Einheiten und nur 128MB weniger Speicher. $180 fuer die angebliche 8600Ultra klingen zwar zugegeben etwas wenig, aber wieso der ~$150 Unterschied zwischen einer 8800GTS/640 und einer 8800GTS/320MB so grossen Eindruck macht ist mir schleierhaft.

reunion
2007-01-14, 23:47:16
Hab ich was verpasst? Wo genau steht was von 400M Transistoren?


Nirgends. Das ist meine persönliche Schätzung.


Wie schon oben korrekt erwaehnt wurde ist der MSRP der 8800GTS/640MB bei $449 und fuer 8800GTX bei $599. Das sind auch schon knapp $150 Unterschied fuer 1/6 deaktivierte Einheiten und nur 128MB weniger Speicher.


Der Vergleich hinkt ja wohl gewaltig. Erstens sind es ja wohl eher 1/4 deaktivierte Einheiten (24 statt 32 TMUs, 96 statt 128ALUs), nur bei den ROPs wurde 1/6 gekürzt, nämlich fünf statt sechs ROP-Cluster. Zweitens ist das auch einen Frage des P/L-Verhältnisses. Dass ich einen Chip, der nurnoch 75% der Leistung einer GTX bietet nicht um fast denselben Preis verkaufen kann, sollte einleuchten. Und drittens werden hier faktisch kaputte G80-Chips verkauft, bei denen nV durch die Möglichkeit der deaktivierung verschiedener Einheiten trotzdem noch Geld verdienen kann. Was den Preis natürlich entsprechend drückt.


$180 fuer die angebliche 8600Ultra klingen zwar zugegeben etwas wenig, aber wieso der ~$150 Unterschied zwischen einer 8800GTS/640 und einer 8800GTS/320MB so grossen Eindruck macht ist mir schleierhaft.

Ich bitte dich. Diese 320MB weniger VRAM rechtfertigen niemals eine Preisdifferenz von 150$. Daraus könnte man schließen, dass nV bei der 8800GTX alleine 360$ für die 768MB Speicher abdrücken muss, was ja wohl mehr als unrealistisch ist.

Ailuros
2007-01-15, 01:52:49
Nirgends. Das ist meine persönliche Schätzung.

Dann geh aber bloss keine Wetten ein ;)

Der Vergleich hinkt ja wohl gewaltig. Erstens sind es ja wohl eher 1/4 deaktivierte Einheiten (24 statt 32 TMUs, 96 statt 128ALUs), nur bei den ROPs wurde 1/6 gekürzt, nämlich fünf statt sechs ROP-Cluster.

Ob es jetzt 1/4 oder 1/6 insgesamt sind aendert kein bisschen etwas daran dass die Einheiten nur deaktiviert sind.

Zweitens ist das auch einen Frage des P/L-Verhältnisses. Dass ich einen Chip, der nurnoch 75% der Leistung einer GTX bietet nicht um fast denselben Preis verkaufen kann, sollte einleuchten.

Es gibt trotzdem mehr Speicher auf der GTX.

Und drittens werden hier faktisch kaputte G80-Chips verkauft, bei denen nV durch die Möglichkeit der deaktivierung verschiedener Einheiten trotzdem noch Geld verdienen kann. Was den Preis natürlich entsprechend drückt.

Was soll daran neu sein? Schon seit 2002/R300 ist es so.

Ich bitte dich. Diese 320MB weniger VRAM rechtfertigen niemals eine Preisdifferenz von 150$. Daraus könnte man schließen, dass nV bei der 8800GTX alleine 360$ für die 768MB Speicher abdrücken muss, was ja wohl mehr als unrealistisch ist.

$360 fuer den Speicher sind es wohl nicht, aber er kostet auch nicht insgesamt so wenig wie Du Dir gerade einreden willst. Ganz nebenbei hatte die X1900XT/512MB (wenn mich mein Gedaechtnis nicht betruegt) einen Launch MSRP von $549, wobei beim Launch der X1950XTX eine 256MB/X1900XT mit einem MSRP von $279 nachgeschoben wurde. Hier wurden natuerlich die yields um einiges besser, aber derartige Unterschiede bei halber Speichermenge sind normal und das nicht nur in diesem einen Fall. Tu mir bloss nicht so als ob Du so was zum ersten Mal siehst.

seahawk
2007-01-15, 07:29:42
Naja die Abstufung paßt ja nur solange der high-End-bereich noch nur G80 basierend ist. Manm beachte die sechzehner Schritte im Mid-Range-Bereich.

8900GTX 128
8900GT 112
8800GTS 96
8800 ??? 80

Es soll ja angeblich ein 6/5 Cluster Chip und ein 8/7 Clusterchip kommen die den heutigen G80 ablösen, wobei der 6er wohl die M-Lösung wird.

James Ryan
2007-01-15, 09:21:00
http://img299.imageshack.us/img299/8774/nvfkf9.jpg

Interessant, die Gf 8800 GTS mit 320 MB heißt demnach 8600 GTS! ;D

MfG :cool:

Gast
2007-01-15, 18:11:23
haha wie lustig
hat der kleine einen tippfehler gefunden :rolleyes

Gast
2007-01-15, 19:11:29
[No GeForce Go 8800 Series For Notebooks]

http://vr-zone.com/index.php?i=4477

Hmm... Wir wäre die Leistung der Mainstream-Version G84M einzuschätzen im Vergleich zu Desktop-Grafikkarten? Glaubt ihr es könnte später 8800 Go Karten für 15.4"-Books geben, oder kommen die dann sowieso nur für 17"+?

AnarchX
2007-01-15, 19:16:10
Hmm... Wir wäre die Leistung der Mainstream-Version G84M einzuschätzen im Vergleich zu Desktop-Grafikkarten?

Wenn du etwas im Thread gelesen hättest, dann wärst du auf die Andeutung einiger Hersteller (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5157446#post5157446) gestossen.

Die 8600M soll in DX9-Games etwa die Performance einer X1950XT erreichen und teilweise diese sogar übertrumpfen, was doch durchaus realistisch sein könnte, wenn sie entsprechend taktet.

Glaubt ihr es könnte später 8800 Go Karten für 15.4"-Books geben, oder kommen die dann sowieso nur für 17"+?
Die Go 8900 wird wohl eher nur in größeren Geräten verbaut werden, die Go 7900er findet man ja auch eher nicht in den 15.4" Geräten.

MGeee
2007-01-15, 20:41:01
Soeben bei Wave (Alternate für Händler) gesehen:
Asus EN8800GTS 640 MByte
für 317.10 € zzgl. MwSt. (also 377,35€ inkl. 19% MwSt.).

Dann ist die Karte ja innerhalb eines Monats um ca. 100€ im Preis gefallen!!
Wenn ich mir die NVidia-Roadmap anschaue, wird die 8800GTS mit 640MB wohl auf längere Sicht die zweitschnellste Graka bleiben und dass der Preis nochmal um 50-100€ fällt, ist die kommenden Monate ehern unwahrscheinlich. Demnach wäre die Graka zum aktuell eine gute Investition ohne dass man Angst haben muss, dass der Preis die kommenden Monate zu stark fällt.

Was meint Ihr?

dargo
2007-01-15, 22:38:22
Nichts besonderes:
http://www.compuland.de/product_info.php?products_id=139682&pid=geizhals
Verstehe nicht was an einer ASUS so besonders sein soll.


Dann ist die Karte ja innerhalb eines Monats um ca. 100€ im Preis gefallen!!

Die Karte ist nicht um 100€ gefallen. Die Shops haben ganz einfach total überhöhte Preise aufgrund von schlechter Verfügbarkeit (wie eigendlich immer nach dem Launch) verlangt. Jetzt sieht man endlich die entgültigen Preise langsam. Wobei NV die GTS 640MB auf 399$ korrigiert hat. Ich würde mich nicht wundern wenn wir im Februar eine GTS 640MB für 320-340€ sehen würden.

MGeee
2007-01-16, 08:07:08
Nichts besonderes:
http://www.compuland.de/product_info.php?products_id=139682&pid=geizhals
Verstehe nicht was an einer ASUS so besonders sein soll.


Die Karte ist nicht um 100€ gefallen. Die Shops haben ganz einfach total überhöhte Preise aufgrund von schlechter Verfügbarkeit (wie eigendlich immer nach dem Launch) verlangt. Jetzt sieht man endlich die entgültigen Preise langsam. Wobei NV die GTS 640MB auf 399$ korrigiert hat. Ich würde mich nicht wundern wenn wir im Februar eine GTS 640MB für 320-340€ sehen würden.

.. also dann lieber noch 1-2 Monate warten und hoffen, dass der Preis noch weiter sinkt.

AnarchX
2007-01-16, 20:45:41
Nvidia places 'urgent orders' for more G80 chips
Rising demand for GeForce 8800 graphics card has forced Nvidia to place "urgent orders" for more G80 chips, according to a Commercial Times report quoted by DigiTimes. Nvidia placed the orders with TSMC, its usual supplier, and shipments are scheduled to begin in March. Interestingly, the report suggests that those shipments will contain die-shrunk 80nm G80 chips—not the 90nm ones that have been out in the market since November.[...]
http://techreport.com/onearticle.x/11643

Wobei sich das wohl eher auf G84/G86 beziehen wird.

dargo
2007-01-17, 00:11:50
.. also dann lieber noch 1-2 Monate warten und hoffen, dass der Preis noch weiter sinkt.
Hier gibts die erste für 355€:
http://many-electronics.shops4ecommerce.de/shop/index.php?artnr=13139

Gast
2007-01-17, 00:33:02
Nvidia places 'urgent orders' for more G80 chips

http://techreport.com/onearticle.x/11643

Wobei sich das wohl eher auf G84/G86 beziehen wird. Ja was denn nun? Wenn die G84/G86 ab März bei NV einschweben wird NV die Chips ja sicher nicht rumgammeln lassen, sondern an die AIB-Hersteller (Asus, MSI, Palit etc.) weiterreichen. Alles andere wäre ja Unsinn: totes Kapital, und das in so nem schnellebigem Markt wie bei GPUs.

Also kann man wohl damit rechnen, dass G84/G86 nun doch im März kommen werden und nicht im Juni? Das ist immerhin ein ganzes Quartal Unterschied.

seahawk
2007-01-17, 07:18:05
Nvidia places 'urgent orders' for more G80 chips

http://techreport.com/onearticle.x/11643

Wobei sich das wohl eher auf G84/G86 beziehen wird.

Nicht unbedingt.

AnarchX
2007-01-17, 08:51:23
Also kann man wohl damit rechnen, dass G84/G86 nun doch im März kommen werden und nicht im Juni? Das ist immerhin ein ganzes Quartal Unterschied.

Ich denke schon, dass G84/G86 im März auf den Markt kommen werden, aber nicht als Desktop-GraKa (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5157446#post5157446)s.;)

AnarchX
2007-01-17, 11:06:47
NVIDIA Preps 320MB GeForce 8800 GTS
The GeForce 8800 GTS is designed to reduce the cost of enthusiast-level DirectX 10. Samsung K4J55323QG-BC12 (800MHz GDDR3 memory) has a spot market price of about $50 for 640MB. We can reasonably expect a $25 reduction in the bill of materials for the 320MB version of the card.
http://www.dailytech.com/NVIDIA+Preps+320MB+GeForce+8800+GTS/article5737.htm

Wie kommt man dann nun auf 100$? :|

Gast
2007-01-17, 11:35:03
Die Rechnung mit 25$ ist auch falsch, weil man ja nicht die Anzahl Speicherchips um die Hälfte reduzieren kann, sondern genauso viele Speicherchips halber Kapazität braucht.

dargo
2007-01-17, 11:44:44
NVIDIA Preps 320MB GeForce 8800 GTS

http://www.dailytech.com/NVIDIA+Preps+320MB+GeForce+8800+GTS/article5737.htm

Wie kommt man dann nun auf 100$? :|
Das frage ich mich auch. Kampfansage im mittleren Preissegment gegen AMD/ATI?
Ich hätte nicht gedacht, dass zehn 64MB GDDR3 Chips so billig mittlerweile sind. Hier kann man wieder schön sehen wie überteuert eine neue Generation angeboten wird. Naja, die Entwicklungskosten muss man halt erstmal einfahren.
Die Rechnung mit 25$ ist auch falsch, weil man ja nicht die Anzahl Speicherchips um die Hälfte reduzieren kann, sondern genauso viele Speicherchips halber Kapazität braucht.
Das ist richtig, die Zahl der Speicherchips bleibt gleich. Aber gerade deswegen müsste theoretisch die 320MB Version dann nur 12,5$ günstiger sein (wenn man davon ausgehen kann, dass die 32MB Chips die Hälfte der 64MB Chips kosten) und keine 100$.

Hmm, ich würde die G8800GTS 320MB erstmal abwarten. Nicht, dass die dann doch noch etwas "beschnitten" ist.

Gast
2007-01-17, 14:24:27
Die G8800GTS 320MB erinnert mich an die V9999GT/TD 128 von Asus, also ein 6800Gt mit 128Vram.

Neupreis war glaube ich mal 300E, während die "volle" Gt zur selben zeit so rund 350-380E gekostet hat, also soviel wie etwa ne 8800GTS heute.
Damals gabs aber den signifikanten Speicherunterschied von DDR3 zu DDR1(welchen die "kleine" GT von damals hatte), was den Preis ja erheblich gedrückt hat nebem dem eigentlichten Größe des Vram, deswegen geh ich mal nicht von so einer Preissituation wie damals aus.

Wäre zwar ne tolle Graka für Spiele die wenig Vram benötigen, bzw für Leute die in kleineren Auflösungen /low AA und AF spielen, da stellt sich aber die Frage warum dann direkt so ein volles G80 Geschütz kaufen, wenns mit "kleineren", billigeren Karten in den Situation nicht viel schlechter läuft ;)

deekey777
2007-01-17, 14:37:53
Ja was denn nun? Wenn die G84/G86 ab März bei NV einschweben wird NV die Chips ja sicher nicht rumgammeln lassen, sondern an die AIB-Hersteller (Asus, MSI, Palit etc.) weiterreichen. Alles andere wäre ja Unsinn: totes Kapital, und das in so nem schnellebigem Markt wie bei GPUs.

Also kann man wohl damit rechnen, dass G84/G86 nun doch im März kommen werden und nicht im Juni? Das ist immerhin ein ganzes Quartal Unterschied.
Other DirectX 10 GeForce cards such as G84-300 and G86-300 are expected to ship before the AMD R600 graphics card. R600 is currently scheduled to launch at Cebit 2007 in late Q1'07.
Das mit Juni wäre mir zwar neu, aber irgendwo war mal zu lesen, dass die "kleinen" G80er irgendwann im April kommen sollen.

Gast
2007-01-17, 15:31:32
[B][SIZE="3"]
Wie kommt man dann nun auf 100$? :|
seit wann haben marktpreise was mit den herstellungskosten zu tun?
man möchte ne billigere graka auf den markt bringen und muss diese etwas beschneiden um sie von der teureren abzugrenzen

misterh
2007-01-17, 20:54:08
Damit ihr 8600 Ultra besser einschätzen könnt, hab ich mal 3DMark05 getestet

8800GTS 96 Unified Shader, 20 ROP, 48 TMUs @ 64 US, 20ROP (leider fix), 32 TMU

GPU : 513Mhz @ 500Mhz
Mem : 800mhz, 320bit @ 560mhz 320bit

Da hab ich bei 3DMark2005 mit C2D @ 3,4Ghz 13.078 Pkt bekommen.

Gast
2007-01-17, 21:26:58
Damit ihr 8600 Ultra besser einschätzen könnt, hab ich mal 3DMark05 getestet

8800GTS 96 Unified Shader, 20 ROP, 48 TMUs @ 64 US, 20ROP (leider fix), 32 TMU

GPU : 513Mhz @ 500Mhz
Mem : 800mhz, 320bit @ 560mhz 320bit

Da hab ich bei 3DMark2005 mit C2D @ 3,4Ghz 13.078 Pkt bekommen. Vergleichswerte wären interessant. Die Zahl an sich sagt ja wenig aus. Wie sieht es denn bei Standard GTS-Takt und US-Breite aus?

Dann könnte man Schätzungen wie "G84 Ultra könnte evtl. xx% langsamer als eine G80 GTS sein in Auflösung xyz und Qualitäts-Settings abc" aufstellen.

Hvoralek
2007-01-17, 21:32:34
Vergleichswerte wären interessant. Die Zahl an sich sagt ja wenig aus. Wie sieht es denn bei Standard GTS-Takt und US-Breite aus?

Dann könnte man Schätzungen wie "G84 Ultra könnte evtl. xx% langsamer als eine G80 GTS sein in Auflösung xyz und Qualitäts-Settings abc" aufstellen.Das Verhältnis kann man anhand der Eckdaten bereits grob abschätzen. 1/3 weniger Arithmetikleistung und Texelfüllrate, 30% geringere Bandbreite und 20% weniger (kaum wesentliche) z/Stencil- Füllrate. Die GPU sollte also bei reiner GraKa- Limiterung rund 1/3 langsamer sein als die einer 8800 GTS. Ich tippe auf Versionen mit 256 und 512 MiB, also kommt das vom Speicher her ganz gut hin im Verhältnis zu den 320 bzw. 640 MiB der 8800 GTS.

Gast
2007-01-17, 21:36:01
vll noch die speicherbandbreite über den takt anpassen
die 8600 hat ja nur ein 256bit si

Gast
2007-01-17, 21:37:04
ok passt schon hatt mich da vertan ;)

misterh
2007-01-17, 22:02:30
Das Verhältnis kann man anhand der Eckdaten bereits grob abschätzen. 1/3 weniger Arithmetikleistung und Texelfüllrate, 30% geringere Bandbreite und 20% weniger (kaum wesentliche) z/Stencil- Füllrate. Die GPU sollte also bei reiner GraKa- Limiterung rund 1/3 langsamer sein als die einer 8800 GTS. Ich tippe auf Versionen mit 256 und 512 MiB, also kommt das vom Speicher her ganz gut hin im Verhältnis zu den 320 bzw. 640 MiB der 8800 GTS.

ich hab schon alles angepasst, ausser ROP und 640mb.
wie auch wie ein 8600U laufen sollte.

dargo
2007-01-17, 22:55:53
Wäre zwar ne tolle Graka für Spiele die wenig Vram benötigen, bzw für Leute die in kleineren Auflösungen /low AA und AF spielen ...
Wobei man hier sagen muss, dass die AF Stufe keinen Einfluss auf die Vram Größe hat. :)

Gast
2007-01-17, 23:55:25
Wobei man hier sagen muss, dass die AF Stufe keinen Einfluss auf die Vram Größe hat. :) Naja. Wenn die Texturen nicht vom lokalen VRAM kommen, sondern aus dem Hauptspeicher (GART), dann wird es mit steigender Filterqualität noch langsamer als bei rein isotroper Filterung, BF oder gar point sampling. Es müssen ja bei besserer Filterung immer mehr Texel gelesen werden. Und wenn die Texel nicht lokal liegen wird's dann noch langsamer als ohnehin...

dargo
2007-01-18, 00:00:12
Naja. Wenn die Texturen nicht vom lokalen VRAM kommen, sondern aus dem Hauptspeicher (GART), dann wird es mit steigender Filterqualität noch langsamer als bei rein isotroper Filterung, BF oder gar point sampling.
Sobald zuviel ausgelagert wird ist eh alles zu spät - sprich extreme Framedrops.

Gast
2007-01-18, 00:04:26
Sobald zuviel ausgelagert wird ist eh alles zu spät - sprich extreme Framedrops. Es kann aber sein, dass bei GART-Auslagerung und höherwertiger Texturfilterung die Frameraten unter die Spielbarkeitsgrenze rutschen, und es mit einfachem isotropen TF oder gar BF noch reicht. Deshalb würde ich sagen, dass mehr Speicher potenziell auch hochwertiger Texturfilterung hilft.

dargo
2007-01-18, 00:11:07
Es kann aber sein, dass bei GART-Auslagerung und höherwertiger Texturfilterung die Frameraten unter die Spielbarkeitsgrenze rutschen, und es mit einfachem isotropen TF oder gar BF noch reicht.
Das würde aber bedeuten, dass der Texturfilter Einfluss auf den Vram Verbrauch hat, was afaik nicht der Fall ist.

Gast
2007-01-18, 01:29:56
Das würde aber bedeuten, dass der Texturfilter Einfluss auf den Vram Verbrauch hat, was afaik nicht der Fall ist. Das habe ich ja auch nicht geschrieben. Der Zusammenhang ist der: bessere Texturfilterung benötigt mehr Texel pro Pixel, die ja aus dem Texturspeicher gelesen werden müssen. Je mehr Texel gelesen werden müssen, desto höher der I/O-Leistungsbedarf an den Texturspeicher (der Texturcache kann nicht alles kaschieren). Und wenn Texturen eben ausgelagert werden geht das über den PCI-Express Switch in den Hauptspeicher. Und der ist um Größenordnungen viel langsamer und nicht für die GPU allein da. Mit isotropem BF oder TF mag die Leistung noch ausreichen für gute Frameraten. Wenn man tri-AF mit 16:1 hinzuschaltet (Extrembeispiel) steigt der Bandbreitenbedarf aus dem Texturspeicher aber stark an, was dann zu sehr viel niedrigeren Frameraten führen kann als wenn die Texturen im lokalen VRAM liegen würden.

Also trägt viel VRAM indirekt über die höhere Geschwindigkeit also auch dazu bei, dass hochwertige Texturfilter benutzbar werden. Und ein guter Texturfilter wird ja erst sinnvoll, wenn man möglichst hochauflösende (sprich Speicher-fressende) Texturen verwendet. Auf low-res Pixelmatsch Texturen 16x AF anzuwenden bringt wenig. Also auch hier wieder ein Grund, eine G84 Ultra mit 512 statt 256 MB zu kaufen. Auch für AF. :-)

Kam jetzt rüber, was ich meine?

Gast
2007-01-18, 09:00:21
Kam jetzt rüber, was ich meine?


Ja, aber du hast den Texturcache in den GPUs vergessen, es macht also praktisch keinen Unterschied ob nur bilinear oder tri-AF 16x gefiltert wird.

robbitop
2007-01-18, 09:42:00
Es werden sowieso immer ganze Teile der Textur in den Texturcache gelesen. Die Samples für's AF liegen also im Texturcache.

Gast
2007-01-18, 10:08:35
Es steht doch da: "(der Texturcache kann nicht alles kaschieren)".

Gast
2007-01-18, 10:18:13
Es werden sowieso immer ganze Teile der Textur in den Texturcache gelesen. Die Samples für's AF liegen also im Texturcache. Das was du schreibst würde ja bedeuten, dass der Texturcache groß genug ist, um sämtliche Texturdaten vorzuhalten. Das ist nicht ansatzweise der Fall.

AnarchX
2007-01-18, 12:30:49
[GeForce 8600 Has 128-bit Memory Interface]
The recent rumors regarding the GeForce 8600 (G84) of having a 256-bit memory interface is incorrect. We are able to confirm at this point of time that GeForce 8600 series will be 128-bit and has 256MB GDDR3 memories onboard. Onto the rumours, We heard there are 2 versions; 8600GT and 8600GS clocked at 650/1800MHz and 550/1400MHz respectively for core and memories. Both come with 64 shader processors.
http://vr-zone.com/index.php?i=4498

Da waren, die anderen Specs wohl reine Phantasie...
Hmm.. ob 28,8GB/s einer D3D10-Midrange-Karte ausreichen werden? :|

dargo
2007-01-18, 12:44:06
Und was ist aus der G8600Ultra geworden? Immerhin stand sie in der Preisliste.

robbitop
2007-01-18, 12:52:01
Das was du schreibst würde ja bedeuten, dass der Texturcache groß genug ist, um sämtliche Texturdaten vorzuhalten. Das ist nicht ansatzweise der Fall.
Nein nicht die ganze Textur. Aber einen gewissen Teil davon. Da sind dann die Samples fürs AF auch drin. Die Texturcaches halten aktuell um die >16 kiB. Da passt schon ein gewisser Teil rein.

Anarchy-HWLUXX
2007-01-18, 12:54:35
[GeForce 8600 Has 128-bit Memory Interface]

http://vr-zone.com/index.php?i=4498

Da waren, die anderen Specs wohl reine Phantasie...
Hmm.. ob 28,8GB/s einer D3D10-Midrange-Karte ausreichen werden? :|

Hört sich arg mau an ... die 7600GT hat sich ja zwischen 6800GT und 6800U gesetzt leistungstechnisch - die 8600U sollt folglich auch ca. 7900GT(+) niveau erreichen :hmm:

Gast
2007-01-18, 12:54:55
Wenn das stimmt entsteht dann aber eine gewaltige Performance-Lücke zwischen der 8800 GTS mit 320 MB und der 8600 GT mit 256 MB. Dann wird es wohl wieder ultra-low-end G80 geben müssen, die so viel Strom verheizen wie die großen Karten, aber nur ein Leistungsniveau zwischen 8800 GTS und 8600 GT erreichen. Und natürlich mit ebenso ultra-billigen Kühlern. :(

Eine 8600 Ultra mit 256-Bit SI wäre die ideale Abrundung nach unten hin. Eine 8600 GT als Maximalversion des Performance-Mainstream mit 900 MHz Speicher und 128-Bit ist dagegen sinnlos.

Gast
2007-01-18, 12:59:02
Nein nicht die ganze Textur. Aber einen gewissen Teil davon. Da sind dann die Samples fürs AF auch drin. Die Texturcaches halten aktuell um die >16 kiB. Da passt schon ein gewisser Teil rein. Das ändert doch aber nichts an der Aussage. Die Speicherbandbreite ist bei Texturauslagerung eben sehr begrenzt. Was das mit den Caches zu tun haben soll musst du mir mal im Detail erklären. Auch der Cache bekommt seine Daten nur aus dem Speicher. Er wirkt nur, wenn mehrmals auf das selbe Datum zugegriffen wird (beim lesen). Und je besser die Texturfilterung, desto mehr Texel müssen für ein Pixel aus dem Speicher gelesen werden. Was hat das jetzt mit dem Cache zu tun, der doch nur wirkt, wenn mehrfach auf das selbe Datum zugegriffen wird?

Coda
2007-01-18, 12:59:42
Nein nicht die ganze Textur. Aber einen gewissen Teil davon. Da sind dann die Samples fürs AF auch drin.

Nicht unbedingt (aber sehr sehr wahrscheinlich).

dargo
2007-01-18, 13:00:09
Naja, vielleicht ist diese Information auch falsch und es wird ein 192Bit SI.

Gast
2007-01-18, 13:04:41
Naja, vielleicht ist diese Information auch falsch und es wird ein 192Bit SI. Problem dabei sind die möglichen RAM-Größen:
* 192 MB: zu viel, um wirklich billig zu sein (man denke an eine 8600 GS)
* 384 MB: zu wenig, um wirklich performant zu sein

Optimal wären 256 und 512 MB für die 8600er Serie.

robbitop
2007-01-18, 13:14:44
Das ändert doch aber nichts an der Aussage. Die Speicherbandbreite ist bei Texturauslagerung eben sehr begrenzt. Was das mit den Caches zu tun haben soll musst du mir mal im Detail erklären. Auch der Cache bekommt seine Daten nur aus dem Speicher. Er wirkt nur, wenn mehrmals auf das selbe Datum zugegriffen wird (beim lesen). Und je besser die Texturfilterung, desto mehr Texel müssen für ein Pixel aus dem Speicher gelesen werden. Was hat das jetzt mit dem Cache zu tun, der doch nur wirkt, wenn mehrfach auf das selbe Datum zugegriffen wird?
Der Cache holt idR sowieso genug Daten der Textur hinein, da man ja nicht für jeden gefilterten Pixel nachladen will. Wie gesagt: meist sind die Samples die man braucht eh schon im Cache.

Gast
2007-01-18, 13:20:23
Der Cache holt idR sowieso genug Daten der Textur hinein, da man ja nicht für jeden gefilterten Pixel nachladen will. Wie gesagt: meist sind die Samples die man braucht eh schon im Cache. Nochmal: was ändert der (immer bei jeder VRAM-Größe vorhandene) Cache an der Tatsache, dass bei zu wenig VRAM Texturen ausgelagert werden und dann bei höherwertiger Texturfilterung die Texturdaten-Speicherbandbreite dramatisch sinkt und gleichzeitig aber viel mehr Texel bei der Texturfilterung gelesen werden müssen?

Das hat doch mit dem Cache ÜBERHAUPT nichts zu tun. Es liegen nunmal nicht alle Daten immer im Cache, dazu ist der zu klein. Und die Daten für den Cache kommen sowieso immer aus dem Speicher.

Ergo: viel VRAM unterstützt potenziell auch die Nutzung von hochwertiger Texturfilterung.

Gast
2007-01-18, 13:38:40
Ergo: viel VRAM unterstützt potenziell auch die Nutzung von hochwertiger Texturfilterung.


Nein, und warum das so ist wurde schon mehrfach hier erklärt. Wenn du das nicht verstehen willst, ist das dein Problem.

Gast
2007-01-18, 13:43:08
Nein, und warum das so ist wurde schon mehrfach hier erklärt. Wenn du das nicht verstehen willst, ist das dein Problem. Flame nicht rum, geh in die Details. Wenn du nichts weisst: poste nicht.

Ailuros
2007-01-18, 14:06:57
[GeForce 8600 Has 128-bit Memory Interface]

http://vr-zone.com/index.php?i=4498

Da waren, die anderen Specs wohl reine Phantasie...
Hmm.. ob 28,8GB/s einer D3D10-Midrange-Karte ausreichen werden? :|

Vorruebergehend wohl schon. Erst mit 65nm kommen dann die fetteren Busse im Mainstream ;)

seahawk
2007-01-18, 14:13:29
Der Überschneidungszeit von G80 und der 8600 Serie ist gering. Und ich denke, dass die KArte durchaus gut gegen eine X1650 oder 7600GT aussieht.

Sie ist nicht die Ablösung einer 1950Pro / 7950GT.

reunion
2007-01-18, 14:27:02
Der Überschneidungszeit von G80 und der 8600 Serie ist gering. Und ich denke, dass die KArte durchaus gut gegen eine X1650 oder 7600GT aussieht.

Sie ist nicht die Ablösung einer 1950Pro / 7950GT.

Aber sie wird schon zu beginn im Preisbereich einer X1950pro wildern, und nur das zählt letztendlich. Denn diese bekommt man aktuell selbst mit 512MB VRAM unter 200€, mit 256MB VRAM ab ~165€. Und der ATi D3D10 Mainstream-Chip soll auch nicht mehr weit weg sein, und kommt wohl sicher mit einem 256-bit SI nach 512-bit im High-End.

[GeForce 8600 Has 128-bit Memory Interface]

http://vr-zone.com/index.php?i=4498

Da waren, die anderen Specs wohl reine Phantasie...
Hmm.. ob 28,8GB/s einer D3D10-Midrange-Karte ausreichen werden? :|

Für mich unverständlich, warum nV auch hier auf GDDR4 verzichtet. So könnte man den schmalen Bus wenigstens etwas kaschieren.

robbitop
2007-01-18, 14:45:09
Nochmal: was ändert der (immer bei jeder VRAM-Größe vorhandene) Cache an der Tatsache, dass bei zu wenig VRAM Texturen ausgelagert werden und dann bei höherwertiger Texturfilterung die Texturdaten-Speicherbandbreite dramatisch sinkt und gleichzeitig aber viel mehr Texel bei der Texturfilterung gelesen werden müssen?

Das hat doch mit dem Cache ÜBERHAUPT nichts zu tun. Es liegen nunmal nicht alle Daten immer im Cache, dazu ist der zu klein. Und die Daten für den Cache kommen sowieso immer aus dem Speicher.

Ergo: viel VRAM unterstützt potenziell auch die Nutzung von hochwertiger Texturfilterung.

Der Grund für den Texturcache ist ja, dass du nicht bei jedem zu filternden Pixel neu laden willst. Lieber burstet man gleich einen gewissen Teil der Textur, um immer wieder darauf zugreifen zu können. In den Texture Cache passt bei 16 kiB immerhin ein Texturteil von 85 pixeln (mit Kompression das 4 fache). Natürlich läd man einen zusammenhängenden Teil einer Textur.

Die Samples für die Texturfilterung holst du ja aus den umliegenden Texeln im texturespace und interpolierst diese.

Nochmal: du brauchst die Textur so oder so. Du willst mit dem Texturcacheinhalt ja gleich ein paar Quads filtern. Beim AF werden ja samples von jeweiligen nebenliegenden Texeln im Texturespace gelesen. Die bräuchtest du sowieso für den nächsten Texel. Ab und an kann es mal vorkommen, dass die Samples dann nicht auf diesem Texturstück liegen, da das betrachtete Pixel gerade am Rand der Textur liegt. Dann muss neu nachgeladen werden.

Wenn es noch immer nicht klar sein sollte: es gibt empfehlenswerte Artikel zur Texturfilterung (einen Dreiteiler in der PCGH und einen veralteten hier auf 3dc)

Anarchy-HWLUXX
2007-01-18, 15:30:52
Der Überschneidungszeit von G80 und der 8600 Serie ist gering. Und ich denke, dass die KArte durchaus gut gegen eine X1650 oder 7600GT aussieht.

Sie ist nicht die Ablösung einer 1950Pro / 7950GT.

Das macht irgendwie kein sinn ...

AnarchX
2007-01-18, 15:31:55
Ich denke man sollte die 8600GT nicht unterschätzen, die Speicherbandbreite hört sich zwar im ersten Augenblick etwas gering an.
Dafür hat aber die GPU einiges an Leistung:
8ROPs /16TAs(32TMUs)(?) @650MHz
64ALUs @ 1300-1500MHz

Dadurch könnte sie durchaus in neueren, arithemtiklastigen D3D9-Titeln wie z.B. Oblivion eine X1950XT erreichen, wie es hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5157446&postcount=251)berichtet wurde, wenn man nicht unbedingt sehr hohe Auflösungen fährt, für welche die Midrange-Karten bisher nie konzipiert wurden.

Übrigens B3D schreibt auch (http://www.beyond3d.com/forum/showthread.php?p=912037#post912037) über das 128Bit-SI, also wird wohl etwas dran sein.

Für mich unverständlich, warum nV auch hier auf GDDR4 verzichtet. So könnte man den schmalen Bus wenigstens etwas kaschieren.
Vielleicht sieht es mit Preis und Verfügbarkeit von GDDR4 doch schlechter aus, als man denkt.

seahawk
2007-01-18, 16:16:05
Ihr betrachtet Einführungspreise. Die Karte ist ruckzug auf 140 Euro runter und dafür wird sie einen soliden Gegenwert bieten.

Wobei das Mainstrema-Rennen dieses mal gegen NV laufen könnte.

AnarchX
2007-01-18, 17:10:05
Wobei das Mainstrema-Rennen dieses mal gegen NV laufen könnte.

Wie kommst du zu dieser Annahme?
Bisher gibt es nicht mehr als einen Namen -> X2600... .;)
Zudem steht der RV630 auch nicht unter dem besten Stern, wenn man sich die bisherigen Spekukationen zu R600 anschaut(Taktrate, SI, Hitzentwicklung).

Aber ein (mehr als) konkurrenzfähiges Midrange-Produkt wäre durchaus wünschenswert, die Situation 7600GT vs X1600XT/X800.. und 8 Monate später X1650XT war ja eher suboptimal für den Kunden.

reunion
2007-01-18, 17:45:26
Ich denke man sollte die 8600GT nicht unterschätzen, die Speicherbandbreite hört sich zwar im ersten Augenblick etwas gering an.
Dafür hat aber die GPU einiges an Leistung:
8ROPs /16TAs(32TMUs)(?) @650MHz
64ALUs @ 1300-1500MHz

Dadurch könnte sie durchaus in neueren, arithemtiklastigen D3D9-Titeln wie z.B. Oblivion eine X1950XT erreichen, wie es hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5157446&postcount=251)berichtet wurde, wenn man nicht unbedingt sehr hohe Auflösungen fährt, für welche die Midrange-Karten bisher nie konzipiert wurden.


Das wird sie auch müssen, denn mit dem erscheinen der D3D10-GPUs bei ATi werden die Preise einen X1950XT mit Sicherheit nich steigen.

Ihr betrachtet Einführungspreise. Die Karte ist ruckzug auf 140 Euro runter und dafür wird sie einen soliden Gegenwert bieten.


Das glaubst du doch selbst nicht. Selbst eine 7600GT kostet heute noch deutlich über 100€. Außerdem hätte nV dann ein riesiges Loch zwischen der 8800- und der 8600-Serie. Und da auch das 256-bit SI offensichtlich rein erfunden war, gebe ich auch nicht viel auf die 179$ Einführungspreis. Ein neuer Midragechip startete in der Vergangenheit eigentlich immer zwischen 199$ und 249$.

Zudem steht der RV630 auch nicht unter dem besten Stern, wenn man sich die bisherigen Spekukationen zu R600 anschaut(Taktrate, SI, Hitzentwicklung).


Also die ersten beiden Punkte würde ich eher positiv sehen. :|

AnarchX
2007-01-18, 17:56:02
Also die ersten beiden Punkte würde ich eher positiv sehen. :|

Im Bezug auf die Leistung schon, aber im Bezug auf Ausbeute und Preis sieht es dann nicht so positiv aus.

Ailuros
2007-01-18, 18:52:02
Aber sie wird schon zu beginn im Preisbereich einer X1950pro wildern, und nur das zählt letztendlich. Denn diese bekommt man aktuell selbst mit 512MB VRAM unter 200€, mit 256MB VRAM ab ~165€. Und der ATi D3D10 Mainstream-Chip soll auch nicht mehr weit weg sein, und kommt wohl sicher mit einem 256-bit SI nach 512-bit im High-End.

Der Preis alleine zaehlt eben nicht nur, denn die Marketing-Abteilung wird mit der D3D10 Fahne wedeln. Dabei ist es gleichgueltig ob dieses ein nennenswerter Punkt ist oder nicht, wie die breite Masse stets reagiert ist bekannt.

Natuerlich kannst Du versuchen mich zu ueberzeugen wieso die 6600GT massenhaft verkauft wurde, obwohl es fast gleich teure 9800-wasauchimmer gab, mit doppelt so viel Speicher und eine Unmenge mehr Bandbreite.

Es ist ja schoen hoffnungslos romantisch zu sein aber der Endkunde wird auf die eine oder andere Weise schon ueberredet (oder wenn es Dir besser passt - reingelegt) werden. Haette ich ein aehnliches Dilemma und der Leistungsunterschied ist nicht besonders gross, wuerde ich wohl selber zur neueren Generation greifen, egal von welchem IHV sie jetzt kommt.

seahawk
2007-01-18, 19:12:28
Das glaubst du doch selbst nicht. Selbst eine 7600GT kostet heute noch deutlich über 100€. Außerdem hätte nV dann ein riesiges Loch zwischen der 8800- und der 8600-Serie. Und da auch das 256-bit SI offensichtlich rein erfunden war, gebe ich auch nicht viel auf die 179$ Einführungspreis. Ein neuer Midragechip startete in der Vergangenheit eigentlich immer zwischen 199$ und 249$. :|

Ich denke, dass dieses Loch nur relativ kurz existieren wird. Es gibt Platz für einen zusätzlich G8X zwischen G80-Refresh und G86.

LovesuckZ
2007-01-18, 19:21:50
Also die ersten beiden Punkte würde ich eher positiv sehen. :|

Für den Kunden schon, für AMD weniger.

Armaq
2007-01-18, 19:23:05
Natuerlich kannst Du versuchen mich zu ueberzeugen wieso die 6600GT massenhaft verkauft wurde, obwohl es fast gleich teure 9800-wasauchimmer gab, mit doppelt so viel Speicher und eine Unmenge mehr Bandbreite.


Wenn ich mich recht erinnere war eine 6600GT einer 9800 fast immer überlegen.

Raff
2007-01-18, 19:24:37
Wenn ich mich recht erinnere war eine 6600GT einer 9800 fast immer überlegen.

AFAIK nur mit Quality und "Optimierungen". HQ zieht idR übel auf NV4x.

MfG,
Raff

Armaq
2007-01-18, 20:04:38
AFAIK nur mit Quality und "Optimierungen". HQ zieht idR übel auf NV4x.

MfG,
Raff
Ick wees. Als stolzer NV40 Besitzer geht das nicht spurlos an einem vorbei...
Trotzdem halte ich bei einem Neukauf nichts von der HighEndGen des Vorläufers.

Gast
2007-01-18, 20:07:36
AFAIK nur mit Quality und "Optimierungen". HQ zieht idR übel auf NV4x.

MfG,
Raff

AFAIK irrst du da, die GT ist auch bei bester Bildqualität immer noch schneller als die 9800.

reunion
2007-01-18, 20:08:53
Für den Kunden schon, für AMD weniger.

Dank 65nm Strukturbreite wird sich das schnell relativieren.

/Edit: Ergänzend möchte ich noch anmerken, dass ich es schon etwas seltsam finde, dass hier auf einmal so auf die Margen der Hersteller geachtet wird. Als Kunde kann einem das herzlich egal sein.

AnarchX
2007-01-18, 20:12:54
Dank 65nm Strukturbreite wird sich das schnell relativieren.
Hmm... ATi und neue Prozesse bei Midrange-Karten...
Nach RV360 hatte man da nicht unbedingt ein glückliches Händchen. ;)
Wenn der RV630 wirklich auf 65nm setzt, wird man wohl nicht mehr mit ihm im H1 2007 rechnen können.

reunion
2007-01-18, 20:37:45
Hmm... ATi und neue Prozesse bei Midrange-Karten...
Seit RV360 hatte man da nicht unbedingt ein glückliches Händchen. ;)
Wenn der RV630 wirklich auf 65nm setzt, wird man wohl nicht mehr mit ihm im H1 2007 rechnen können.

Wo hatte man "kein glückliches Händchen"?
Bei RV360 gabs AFAIK überhaupt keine Probleme. Bei RV410 hatte man vielleicht nicht so hohe Taktraten wie nV erreicht, aber das war auch nicht das Ziel. ATi übersprang 110nm wegen der fehlenden lowk Unterstützung bewusst so gut wie möglich, und investierte kaum Ressourcen in dieser Hinsicht.
Bei der R5xx-Serie lag das Problem ja eher am High-End-Chip, bzw. dass RV570 etwas sehr spät kam.

Ich gehe jedenfalls von 65nm bei den kleineren R600-Chips aus. Immerhin gab dies Dave Orton höchstpersönlich vor längerer Zeit bei einem Interview auf B3D an AFAIK. Und nur weil nV hier sehr konservativ unterwegs ist, heißt das noch lange nicht, dass 65nm noch nicht bereit ist. Aber wir werden ja sehen, MSI zeigte jedenfall schon ein Notebook mit X2600-Grafik.

Ailuros
2007-01-18, 20:39:23
AFAIK nur mit Quality und "Optimierungen". HQ zieht idR übel auf NV4x.

MfG,
Raff

Und eine R3x0 hat keinerlei Optimierungen die stoeren koennen oder die beim ausschalten automatisch mit Leistungsbussen kommen?

Nebenbei ist die 6600GT sowieso nicht schneller; im besten Fall Gleichstand und das wenn man auch schoen brav die Spiele zu Gunsten der 6600GT auswaehlt.

reunion
2007-01-18, 20:46:18
Und eine R3x0 hat keinerlei Optimierungen die stoeren koennen oder die beim ausschalten automatisch mit Leistungsbussen kommen?


R3x0 war zumindest der letzte Chip, welcher noch keine bri-Filterung unterstützte.


Nebenbei ist die 6600GT sowieso nicht schneller; im besten Fall Gleichstand und das wenn man auch schoen brav die Spiele zu Gunsten der 6600GT auswaehlt.

Heute - ja. Damals war allerdings eine 6600GT fast immer schneller.

AnarchX
2007-01-18, 20:47:04
Bei RV410 hatte man vielleicht nicht so hohe Taktraten wie nV erreicht, aber das war auch nicht das Ziel. ATi übersprang 110nm wegen der fehlenden lowk Unterstützung bewusst so gut wie möglich, und investierte kaum Ressourcen in dieser Hinsicht.
Und was war dann die X700XT? :|


Bei der R5xx-Serie lag das Problem ja eher am High-End-Chip, bzw. dass RV570 etwas spät sehr kam.
Nur sieht die Situation zwischen R600 und seinen Midrang-Ablegern nicht wirklich viel anders aus.


Ich gehe jedenfalls von 65nm bei den kleineren R600-Chips aus. [...]
Aber wir werden ja sehen, MSI zeigte jedenfall schon ein Notebook mit X2600-Grafik.
Ich denke, auch dass auch das man auf 65nm setzen wird.

Aber ich hege doch gewisse Zweifel, dass ATi uns noch dieses Halbjahr einen halben R600 mit Taktraten von 700MHz+ in 65nm präsentieren kann.
(Ein Schild auf dem "Incredible Radeon X2600" steht ist imo eine sehr fragwürdiger Beweis für die Existenz von RV630, da wäre doch etwas handfesteres wie eine Gerätemanagershot etwas glaubhafter.)

reunion
2007-01-18, 20:52:56
Und was war dann die X700XT? :|


Okay, stimmt, die hatte ich nicht mehr in Erinnerung.
Hier hat man sich wirklich etwas verschätzt.


Nur sieht die Situation zwischen R600 und seinen Midrang-Ablegern nicht wirklich viel anders aus.


Als ob man das jetzt schon beurteilen könnte.

Aber ich hege doch gewisse Zweifel, dass ATi uns noch dieses Halbjahr einen halben R600 mit Taktraten von 700MHz+ in 65nm präsentieren kann.


Möglich, dass es etwas später wird.

(Ein Schild auf dem "Incredible Radeon X2600" steht ist imo eine sehr fragwürdiger Beweis für die Existenz von RV630, da wäre doch etwas handfesteres wie eine Gerätemanagershot etwas glaubhafter.)

Es war auch noch das Notebook dazu vorhanden. :rolleyes:

Ailuros
2007-01-18, 21:09:16
Wo hatte man "kein glückliches Händchen"?
Bei RV410 hatte man vielleicht nicht so hohe Taktraten wie nV erreicht, aber das war auch nicht das Ziel.

Muss der Grund sein warum man das hoechste Modell der mainstream Reihe streichen musste, weil die Voltage ueber der PCI-sig Komplianz lag.

ATi übersprang 110nm wegen der fehlenden lowk Unterstützung bewusst so gut wie möglich, und investierte kaum Ressourcen in dieser Hinsicht.
Bei der R5xx-Serie lag das Problem ja eher am High-End-Chip, bzw. dass RV570 etwas spät sehr kam.

Etwas ist gut; in der Zwischenzeit hat NV die NV43-er mit der Tonne verkauft.

Das eigentliche Problem bei RV530 ist dass der chip zu gross ist, sonst haetten auch mehr TMUs reingepasst.

Ich gehe jedenfalls von 65nm bei den kleineren R600-Chips aus. Immerhin gab dies Dave Orton höchstpersönlich vor längerer Zeit bei einem Interview auf B3D an AFAIK. Und nur weil nV hier sehr konservativ unterwegs ist, heißt das noch lange nicht, dass 65nm noch nicht bereits ist. Aber wir werden ja sehen, MSI zeigte jedenfall schon ein Notebook mit X2600-Grafik.

ATI wird hoffentlich endlich gelernt haben anstaendige mainstream GPUs zu planen; wenn das fehlt rettet Dir der Herstellungsprozess erstmal gar nichts.

Wehe wenn sie nicht schon Notebook GPUs fertig haetten; sagt mir aber auch absolut nichts momentan, siehe RV515.

dargo
2007-01-18, 22:53:41
Problem dabei sind die möglichen RAM-Größen:
* 192 MB: zu viel, um wirklich billig zu sein (man denke an eine 8600 GS)

Am Preis dürfte es nicht scheitern. Wenn zehn 64MB GDDR3 Speicherchips mit 800Mhz 50$ kosten was kosten dann sechs 32MB Chips? Wohl kaum mehr als 20-25$. Bei der G8600GS sollen afaik sogar nur 500Mhz Chips verwendet werden, wird also noch günstiger.

Ich denke man sollte die 8600GT nicht unterschätzen, die Speicherbandbreite hört sich zwar im ersten Augenblick etwas gering an.
Dafür hat aber die GPU einiges an Leistung:
8ROPs /16TAs(32TMUs)(?) @650MHz
64ALUs @ 1300-1500MHz

Wie kommst du eigendlich zu diesem hohen Shadertakt? Ist es schon sicher, dass die Mainstreamkarten den gleichen Teiler wie der G80 verwenden werden?

Natuerlich kannst Du versuchen mich zu ueberzeugen wieso die 6600GT massenhaft verkauft wurde, obwohl es fast gleich teure 9800-wasauchimmer gab, mit doppelt so viel Speicher und eine Unmenge mehr Bandbreite.

Das lässt sich relativ einfach beantworten. SM3.0 gegen SM2.0, auch wenn es nicht wichtig war, ist es ein schönes Marketinggeblubber gewesen.
Die Mainstreamprodukte bei den D3D10 GPUs werden sich aber bei den Features kaum unterscheiden.

Für den Kunden schon, für AMD weniger.
Was ist das denn für ne Logik?
Wenn der Kunde mit dem "besseren" Produkt überzeugt wird profitiert AMD/ATI durchaus mit höheren Umsätzen und dementsprechend höheren Gewinn.

Ailuros
2007-01-18, 23:41:49
Das lässt sich relativ einfach beantworten. SM3.0 gegen SM2.0, auch wenn es nicht wichtig war, ist es ein schönes Marketinggeblubber gewesen.

Nur steckt diesmal ein neues OS dahinter und D3D10 in winXP ist unmoeglich.

Die Mainstreamprodukte bei den D3D10 GPUs werden sich aber bei den Features kaum unterscheiden.

Wie meinen?

dargo
2007-01-18, 23:49:09
Nur steckt diesmal ein neues OS dahinter und D3D10 in winXP ist unmoeglich.
Das macht nichts. Komplett-PCs werden sich mit Vista auch schnell verkaufen. Und Vista wird sich mal wieder schneller durchsetzen als es einigen hier lieb ist.


Wie meinen?
Ich meine damit, dass NV bei den D3D10 Grafikkarten kein besseres Verkaufsargument für irgendwelche Features haben wird wie zu Zeiten von R3x0 und NV4x.

Ailuros
2007-01-19, 00:09:53
Ich meine damit, dass NV bei den D3D10 Grafikkarten kein besseres Verkaufsargument für irgendwelche Features haben wird wie zu Zeiten von R3x0 und NV4x.

Die Liste koennte um einiges laenger werden, egal ob der Normalverbraucher mehr als die Haelfte nicht versteht.

dargo
2007-01-19, 00:12:46
Die Liste koennte um einiges laenger werden, egal ob der Normalverbraucher mehr als die Haelfte nicht versteht.
Erzähle mal ... :)

Ailuros
2007-01-19, 00:19:56
Ein Blick auf alle Seiten eines 8800 Kartons duerfte reichen. Oder einfach mal die sites eines jeglichen Herstellers besuchen.

dargo
2007-01-19, 00:26:12
Ein Blick auf alle Seiten eines 8800 Kartons duerfte reichen. Oder einfach mal die sites eines jeglichen Herstellers besuchen.
Ich meinte damit eigendlich Features des G80 die ein R600 nicht beherscht. Also einen direkten Vergleich.
Oder bezog sich deine Aussage "Die Liste koennte um einiges laenger werden ..." auf den R3x0 gegen NV4.x?

aths
2007-01-19, 01:17:21
Nochmal: was ändert der (immer bei jeder VRAM-Größe vorhandene) Cache an der Tatsache, dass bei zu wenig VRAM Texturen ausgelagert werden und dann bei höherwertiger Texturfilterung die Texturdaten-Speicherbandbreite dramatisch sinkt und gleichzeitig aber viel mehr Texel bei der Texturfilterung gelesen werden müssen?

Das hat doch mit dem Cache ÜBERHAUPT nichts zu tun. Es liegen nunmal nicht alle Daten immer im Cache, dazu ist der zu klein. Und die Daten für den Cache kommen sowieso immer aus dem Speicher.

Ergo: viel VRAM unterstützt potenziell auch die Nutzung von hochwertiger Texturfilterung.
Viel VRAM bietet (bei schneller Speicheranbindung) hohe Geschwindigkeit bei Nutzung hochaufgelöster Texturen. Die Filterung wird durch viel VRAM nicht beschleunigt, da der Texturcache dafür sorgt, dass bereits gelesene Texel wiederverwendet werden.

Ailuros
2007-01-19, 06:17:41
Ich meinte damit eigendlich Features des G80 die ein R600 nicht beherscht. Also einen direkten Vergleich.
Oder bezog sich deine Aussage "Die Liste koennte um einiges laenger werden ..." auf den R3x0 gegen NV4.x?

R3x0 und NV4x gehoeren aber nicht zur gleichen "Generation"; direkte Konkurrenz fuer NV4x war R4x0, egal welche Komplianz jeder hatte. So gesehen ist es wohl verstaendlich dass ich eher an G8x gegen R5x0 Vergleiche denke, anstatt G8x vs. R6x0. Weiter oben ging es ja um beispielsweise 6600GT vs. 9800.

Im letzten Fall sind die Unterschiede wohl begrenzt; bei den Anforderungen von D3D10, gab es sowieso nicht viel Platz fuer zusaetzliche Spielereien.

AnarchX
2007-01-19, 08:31:12
[ATi & NVIDIA Increase Demand For 80nm & 65nm @ TSMC]
Nvidia is expected to start volume shipments of its forthcoming G84 and G86 graphics chips, respectively targeting entry-level and mainstream markets, from June, after rolling out them in April.
http://www.vr-zone.com/index.php?i=4505

Gast
2007-01-19, 11:57:10
Mit gerade mal ~29% mehr Speicherbandbreite wäre die 8600 GT nur ein kleiner Refresh mit D3D10-Goodies der 7600 GT. Rund 60% der Kosten einer 8800 GTS mit 320 MB, aber nur 45% der Speicherbandbreite.

Ein 192-Bit SI wäre endlich mal ein Schritt vorwärts gewesen. So ist es nur ein langweiliger 7600 GT Refresh mit besserem AA und AF.

Gast
2007-01-19, 12:01:15
Erwarten könnte man vom Topmodell der GF 8600 eigentlich eine halbierte 8800 GTX. Von der Leistung und vom Speicher her. Pustekuchen, nicht mal eine halbierte 8800 GTS kann man bekommen. Wenn sich das bewahrheitet hat nVidia mit der 8600er Serie nicht mal ansatzweise so einen großen Wurf gemacht wie mit der 8800er.

Irgendwie enttäuschend.

Raff
2007-01-19, 12:04:37
Der "langweilige Refresh" wird immerhin 64 Shaderprozessoren haben, das ist eine wichtige Hälfte der 8800 GTX ... und damit Welten vor der 7600 GT.

MfG,
Raff

Gast
2007-01-19, 12:08:36
Der "langweilige Refresh" wird immerhin 64 Skalar-ALUs haben, das ist eine wichtige Hälfte der 8800 GTX ... und damit Welten vor der 7600 GT.

MfG,
Raff Was bringt das alles bei einer mickrigen Speicherbandbreite von nur 28,8 GB/s? Das sind nur 29% mehr als bei einer 7600 GT. Da wird man aber ganz schön Gehirnschmalz bei den Grafikeinstellungen brauchen, damit die GPU nicht permanent an fehlender Speicherbandbreite verhungert.

Eine einer 1950 XTX ähnliche GPU bringt nichts, wenn der Speicher nicht ähnlich schnell ist. Und maximal 256 MB sind für die Klasse und heutige Spiele auch nicht so viel.

Das ist wie ein Porsche Cayman Turbo (kleiner 911), der aber nur auf holprigen Feldwegen fahren darf...

Gast
2007-01-19, 12:10:57
das ist grade mal die speicherbandbreite einer 6800 GTO

AnarchX
2007-01-19, 12:13:13
Man schaue sich einfach mal Obivion an:
8800GTS vs X1950XTX, beide haben die gleiche Speicherbandbreite, doch kann sich die GTS um gut 70-80% (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/17/#abschnitt_oblivion) in Situationen absetzen, welche das Einsatzgebiet einer Midrange-Karte wie der 8600GT sind -> relativ niedrige Auflösungen mit wenig AA.

nVidia wird sich dabei schon etwas gedacht haben und die Anforderungen der kommenden Games kennen.

Zudem sollte man nicht vergessen, dass Effizienz der Bandbreitennutzung zwischen G7x und G8x, wohl sich unterscheidet. ;)

Raff
2007-01-19, 12:14:53
Natürlich ist das nicht optimal, aber immerhin reden wir hier von Mainstream. Beispiel 7600 GT. Die wurde anfangs auch unterschätzt, kann aber jeden NV4x überfahren. Und bei G7x hängt es noch an ganz anderen Dingen, die eine USA wie der G8x nicht mehr hat. Die 8600-Serie könnte für entsprechende Preise schon ganz nett werden. ;)

MfG,
Raff

Gast
2007-01-19, 12:21:05
Man schaue sich einfach mal Obivion an:
8800GTS vs X1950XTX, beide haben die gleiche Speicherbandbreite, doch kann sich die GTS um gut 70-80% (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/17/#abschnitt_oblivion) in Situationen absetzen, welche das Einsatzgebiet einer Midrange-Karte wie der 8600GT sind -> relativ niedrige Auflösungen mit wenig AA. Was ist mit denen, die nicht die Zeit haben, Spiele zum Lebensinhalt zu machen, einen großen Monitor mit 1600x1200 haben und nicht mehr 300+ EUR für eine Grafikkarte ausgeben wollen, die sie 1x pro Woche im 3D-Betrieb laufen lassen?

Das Argument "die wird eh nur in niedrigen Auflösungen laufen" hört man von vielen Seiten. Meiner Meinung nach kann man nicht vom Preis der Grafikkarte auf die damit gefahrenen Auflösungen schließen.

Zudem gibt kaum jemand 200 EUR für eine Grafikkarte aus. Bei den meisten ist es schon viel, wenn sie für einen ganzen Rechner heutzutage mal 800 EUR ausgeben.

Ich behaupte eher mal, dass doch recht viele, die ganze 200 EUR für eine Grafikkarte ausgeben auch einen größeren Monitor haben und gerne auch in Auflösungen >1280x1024 laufen lassen möchten.

Und dann kann man ja auch den Effekt beobachten, dass viele der Hardcore-Spieler sehr schnelle (OC-) PCs haben, aber für den Monitor eher selten viel Geld anlegen (bringt ja für sich erstmal keine fps beim zocken).

Mit dem Argument "die Karten werden nicht für hohe Auflösungen verwendet" llegt man sich die Dinge auch ein bischen so zurecht, wie man sie haben möchte.

AnarchX
2007-01-19, 12:33:04
Pech gehabt, einen 200PS Sportwagen bekommt man halt auch nicht neu für 10k €, obwohl man dessen Leistung unter der Woche im Stadtverkehr nicht ausnutzen kann.

Wer halt hohe Auflösungen fahren möchte, muss eben zu einer Last-Gen-Karte mit ähnlichem Preis greifen, die dank höhere Bandbreite hier etwas mehr Reserven hat, eine Midrange-GraKa, bei der das Featureset eins der wichtigsten Verkaufsargumente ist, wäre halt die falsche Wahl.

btw.
5700Ultra 450MHz Speichertakt vs 6600GT 500MHz Speichertakt... ;)

reunion
2007-01-19, 12:35:04
nVidia wird sich dabei schon etwas gedacht haben und die Anforderungen der kommenden Games kennen.


Was soll man sich dabei schon gedacht haben? Dass ein 256-bit SI bei einem 80nm-Chip zu teuer ist um im anvisierten Preissegment gewinnbringend verkauft werden zu können - recht viel mehr wird da nicht gewesen sein. Denn das 256-bit SI kommt sicherlich auch bei nV, nur eben erst mit 65nm. G80 ist einfach verdammt "dick", und das bekommt man jetzt eben in den anderen Segmenten trotz keinerem Fertigungsprozess zu spüren.

btw.
5700Ultra 450MHz Speichertakt vs 6600GT 500MHz Speichertakt... ;)

Der Vergleich hinkt, da nV bei der FX-Serie versucht hat mit dem Speichertakt noch möglichst viel zu retten.
9600XT: 300Mhz Speichertakt und zum Teil deutlich schneller.

Gast
2007-01-19, 12:39:30
Was soll man sich dabei schon gedacht haben? Dass ein 256-bit SI bei einem 80nm-Chip zu teuer ist um im anvisierten Preissegment gewinnbringend verkauft werden zu können- recht viel mehr wird da nicht gwesen sein. Denn das 256-bit SI kommt sicherlich auch bei nV, nur eben erst mit 65nm. Man hätte ja auch ein 192-Bit SI bauen können analog zur G80. :(

AnarchX
2007-01-19, 12:45:24
Der Vergleich hinkt, da nV bei der FX-Serie versucht hat mit dem Speichertakt noch möglichst viel zu retten.


Hier hinkt gar nichts, es ist sogar sehr passend im Bezug auf G73 vs G84.
Sowohl NV43 und G84 sind ihren direkten Vorgängern in GPU-Leistung(und Architektureffizienz) deutlich überlegen und dies wird dann eben auch in den Games zeigen bzw. zeigte sich, obwohl die Bandbreite nicht in dem gleichen Maß wie die GPU-Leistung bei beiden gestiegen ist.

Man hätte ja auch ein 192-Bit SI bauen können analog zur G80.
192MB/384MB beides sehr unglücklich...

reunion
2007-01-19, 12:52:27
Hier hinkt gar nichts, es ist sogar sehr passend im Bezug auf G73 vs G84.
Sowohl NV43 und G84 sind ihren direkten Vorgängern in GPU-Leistung(und Architektureffizienz) deutlich überlegen und dies wird sich auch dann eben auch in den Games zeigen bzw. zeigte sich, obwohl die Bandbreite nicht in dem gleichen Maß wie die GPU-Leistung bei beiden gestiegen ist.


Eine 5700U hatte Bandbreite im überflüss, was man bei einer 7600GT nicht behaupten kann. Hier einfach stur mit Vorgängermodellen zu vergleichen bringt gar nichts.


192MB/384MB beides sehr unglücklich...

Was ist der Unterschied zu 768/384?
Und immernoch besser 384MB als 256MB VRAM.

Natürlich ist das nicht optimal, aber immerhin reden wir hier von Mainstream. Beispiel 7600 GT. Die wurde anfangs auch unterschätzt, kann aber jeden NV4x überfahren. Und bei G7x hängt es noch an ganz anderen Dingen, die eine USA wie der G8x nicht mehr hat. Die 8600-Serie könnte für entsprechende Preise schon ganz nett werden. ;)

MfG,
Raff

Natürlich ist das keinen Katastrophe. Und sofern es sonst wirklich ein vollwertiger, halber G80 ist, dürfte die Leistung sicher auf R580-Niveau liegen, solange man auf hohe Auflösungen plus AA verzichten kann. Aber wie schon gesagt, optimal ist das sicherlich nicht.

robbitop
2007-01-19, 13:02:25
Im Midrangemarkt gab es bisher nie so wahnsinnige Bandbreitensprünge und dennoch haben sie die HighEndkarten der Vorgängergeneration meist knapp überflügelt. Die Auflösung hat übrigens nichts mit Bandbreitenbedarf zu tun, da analog auch die Füllraten und aritmetischen Anforderungen gleichzeitig mitsteigen.
Ich denke der Umstand, dass pro Texel tendenziell mehr Arbeit anfällt, lässt die Bandbreite von Jahr zu Jahr unwichtiger werden.

Früher war die NV15 mit 4 byte pro Texel übel bandbreitenlimitiert (was aber auch mit den Datenpfaden und Texturcaches zusammengehangen hat. Heute sind 4 byte pro Texel mehr als genug. Schließlich betreiben wir ja heute sehr aufwändige Berechnungen pro Texel.

reunion
2007-01-19, 13:12:42
Im Midrangemarkt gab es bisher nie so wahnsinnige Bandbreitensprünge und dennoch haben sie die HighEndkarten der Vorgängergeneration meist knapp überflügelt. Die Auflösung hat übrigens nichts mit Bandbreitenbedarf zu tun, da analog auch die Füllraten und aritmetischen Anforderungen gleichzeitig mitsteigen.
Ich denke der Umstand, dass pro Texel tendenziell mehr Arbeit anfällt, lässt die Bandbreite von Jahr zu Jahr unwichtiger werden.

Früher war die NV15 mit 4 byte pro Texel übel bandbreitenlimitiert (was aber auch mit den Datenpfaden und Texturcaches zusammengehangen hat. Heute sind 4 byte pro Texel mehr als genug. Schließlich betreiben wir ja heute sehr aufwändige Berechnungen pro Texel.

Das ist zwar richtig, allerdings war es in der Vergangenheit zumindest üblich, dass Chips einer Serie ungefair dasselbe Füllraten/Bandbreiten-Verhältnis hatten. nV hat ja auch beim G80 nicht ohne Grund auf 384-bit aufgestockt. Deshalb finde ich es etwas seltsam, dass man nicht zumindest auf GDDR4 setzt, aber vielleicht braucht es hier einen neue Revision, ähnlich wie bei R580+.

Raff
2007-01-19, 13:19:02
Im Midrangemarkt gab es bisher nie so wahnsinnige Bandbreitensprünge und dennoch haben sie die HighEndkarten der Vorgängergeneration meist knapp überflügelt. Die Auflösung hat übrigens nichts mit Bandbreitenbedarf zu tun, da analog auch die Füllraten und aritmetischen Anforderungen gleichzeitig mitsteigen.
Ich denke der Umstand, dass pro Texel tendenziell mehr Arbeit anfällt, lässt die Bandbreite von Jahr zu Jahr unwichtiger werden.

Früher war die NV15 mit 4 byte pro Texel übel bandbreitenlimitiert (was aber auch mit den Datenpfaden und Texturcaches zusammengehangen hat. Heute sind 4 byte pro Texel mehr als genug. Schließlich betreiben wir ja heute sehr aufwändige Berechnungen pro Texel.

Natürlich, aber für MSAA braucht es nun mal primär Bandbreite. Dass 8x und 16x CS auf einer 8600 eher nicht sinnvoll nutzbar sind (Geiz-ist-geil-Bandbreite und -Speichermenge), ist abzusehen.

MfG,
Raff

Gast
2007-01-19, 13:27:17
192MB/384MB beides sehr unglücklich... Man hätte es ja wie beim G80 machen können. Also umgerechnet auf die 8600er dann eben die Wahl zwischen 384 MB "GT" Luxusversion, 192 MB "GS" Midrange Version und als besonderes Zuckerl könnte man noch teilweise defekte G84 mit 128-Bit verkaufen (wie 8800 GTS) und mit 128 MB ergäbe das dann eine schöne 8600 LE.

Nvidia hat was davon in dem sie auch kaputte G84 verkaufen könnten. Die Kunden haben etwas davon, in dem mit einem hypothetischen G84 mit 192-Bit SI und 384 MB eine wirklich passende Ergänzung zur 8800 GTS kaufbar wäre.

Was hätte denn da dagegen gesprochen? Ich wette, dass es für nV profitabler wäre, das Mainstream-Performance Segment so besser abzudecken und nicht alle kaputten G84 (die sind auch nicht gerade klein, auch in 80 nm) wegwerfen zu müssen.

Und der Speicher wird auch überproportional teurer mit steigender Taktfrequenz. Und die G84 GT soll ja ultrateuren 900 MHz GDDR-3 SDRAM einsetzen. Mit 192-Bit SI wäre so ein Extrem nicht nötig.

Ich bin auch gespannt, ob dieser Hochleistungsspeicher gekühlt werden muss. Wenn das der Fall ist haben wir schon das nächste Argument pro 192-Bit. Der Speicher ist teuer, frisst viel Strom und wird heiß. Alles Kosten, die einen 192-Bit SI gegenüberstehen.

Irgendwie kommt mir die Entscheidung für 128-Bit nicht besonders sinnvoll vor beim G84. Die Lücke zum G80 ist groß, mehr als (schnelle) 256 MB wird's wohl nicht geben, teil-defekte G84 müssen weggeworfen werden (wenn sie nicht als G86 enden können), die Speicherbandbreite ist arg gering für die hohe Rechenleistung und die Lücke zwischen G80 und G86 ist nicht besonders gut gefüllt.

Wenn ATI schlau wäre und sich mehr auf die wichtigeren Segmente Performance-Mainstream, Mainstream und low-cost konzentrieren würde könnten sie dort sehr gut an nV vorbeiziehen *spekulier*.

Ailuros
2007-01-19, 13:33:29
Ich denke der Umstand, dass pro Texel tendenziell mehr Arbeit anfällt, lässt die Bandbreite von Jahr zu Jahr unwichtiger werden.

Die Ansicht scheint aber selbst NV in ihren Schaetzungen nicht zu teilen:

http://users.otenet.gr/~ailuros/estimate.jpg

Wenn man 2006/7 einschaetzt, liegen sie bisher nicht besonders viel daneben. Der Graph ist auch schon ziemlich alt und stammt vor dem NV40 Release. Ich sehe auf jeden Fall dass Bandbreite so wie frueher genauso skaliert. In ca. 2.5 Jahren seit dem NV40 ist die Bandbreite auf GPUs um ~2.5x gestiegen und es wird wohl noch radikaler nach der Veroeffentlichung von R600 aussehen.

-----------------------------------------------------------

Was jetzt die kommenden Mainstream GPUs betrifft, sowohl NV43 als auch G73 haben bewiesen dass fuer ihre Kategorie weder die Busbreite noch die gelieferte Bandbreite eine besondere Rolle spielt. Mit einer G86 muesste man schon auch so 2*G73 Leistung erreichen koennen. Und ja natuerlich sind solche mainstream GPUs nicht geeignet fuer sehr hohe Aufloesungen oder extravaganter AA sample Anzahl. Je nach Fall muss man sich eben mit 2x oder 4xAA dann zufriedenstellen. Man braucht etwas mehr als "nur" Bandbreite und/oder viel Speicher fuer AA in sehr hohen Aufloesungen. Eine GPU mit zu wenig Bandbreite ist uebrigens genau so unbalanciert als eine GPU mit zu viel Bandbreite.

PCGH_Carsten
2007-01-19, 13:43:36
Deshalb finde ich es etwas seltsam, dass man nicht zumindest auf GDDR4 setzt, aber vielleicht braucht es hier einen neue Revision, ähnlich wie bei R580+.
Ich finde es nachvollziehbar. Zumindest zwischen MC und Speicher müssten Teile der GPU ja mit dem höheren Takt laufen, was wiederum den Wärmehaushalt verändert hätte und auch so ist der G80 ja schon ein heißes Eisen. Der R580 brauchte die neue Revision auch nur, weil der MC nicht zuverlässig mit den hohen Takten von GDDR4 gefahren werden konnte. Anstelle des hohen Taktes hat Nvidia sich für mehr Breite entscheiden - wie schon früher innerhalb der GPU. Ati eben für den hohen Takt. Beide werden ihre Gründe gehabt und das sicherlich mehrfach durchsimuliert haben.

Und sonderlich bandbreitelimitiert wirkt der G80 eigentlich nicht. Warum sollte dann ein halb so breiter 8600 "verdursten", zumal in dem Bereich kaum 8x-FSAA und mehr gefahren wird.

Gast
2007-01-19, 13:48:01
Und sonderlich bandbreitelimitiert wirkt der G80 eigentlich nicht. Warum sollte dann ein halb so breiter 8600 "verdursten", Der G84 GT ist ein halbierter G80 GTX, aber nur mit einem Drittel der Speicherbandbreite eines G80 GTX. Jetzt klar?

robbitop
2007-01-19, 13:48:17
Das ist zwar richtig, allerdings war es in der Vergangenheit zumindest üblich, dass Chips einer Serie ungefair dasselbe Füllraten/Bandbreiten-Verhältnis hatten. nV hat ja auch beim G80 nicht ohne Grund auf 384-bit aufgestockt. Deshalb finde ich es etwas seltsam, dass man nicht zumindest auf GDDR4 setzt, aber vielleicht braucht es hier einen neue Revision, ähnlich wie bei R580+.

Die 6800Ultra hatte 5 byte pro Texel. Die 7600GT hatte 3,3 byte pro Texel.
Trotzdem hat sie die Ultra verhauen. (Verschiebung des Verhältnis Faktor 1,4)

Die G80 hat 2,3 byte pro Texel (wenn ich mit 64 bi samples rechne), die G84 hätte 1,4 byte pro Texel. (Verschiebug des Verhältnis auf Faktor 1,6)

Kommt beides ungefähr auf einen Faktor 1,5 hin mit leichter Tendenz zugute der Rohleistung (was ja auch verständlich beim jetzigen Trend der teuer werdenden Texeln ist).

edit: @AiL
Das Diagramm ist alt und wer weiß, wer das erstellt hat.
Außerdem ist dort kein Indikator zur Rohleistung zu finden. Wenn 2014 tatsächlich nur 380 GB/sek zur Verfügung ständen und sich jedes Jahr die Grafikleistung in etwa verdoppelt, dann stimmt deine Aussage nicht mehr.
2007 haben wir eine verfügbare Bandbreite von 150 GB/sek. 2014 erst 380. Das wäre Faktor 2,6. Sagen wir mal Faktor 3. Faktor 3 an Performance werden wird spätestens 2010 haben. 2014 wäre das dann Faktor irgendwas um Faktor 10 zu heutigen GPUs.
Der Verlauf der Bandbreite pro Texel zeigt jedenfalls seit Jahren einen eindeutigen Weg, was auch technisch völlig nachvollziehbar ist.

Gast
2007-01-19, 13:49:37
Zudem sind es sogar etwas mehr als die Hälfte mit 650 MHz vs. 575 MHz. Also ist das Rechenleistungs-Bandbreitenverhältnis noch schlechter als eben überschlagen...

reunion
2007-01-19, 13:52:46
Die 6800Ultra hatte 5 byte pro Texel. Die 7600GT hatte 3,3 byte pro Texel.
Trotzdem hat sie die Ultra verhauen. (Verschiebung des Verhältnis Faktor 1,4)

Die G80 hat 2,3 byte pro Texel (wenn ich mit 64 bi samples rechne), die G84 hätte 1,4 byte pro Texel. (Verschiebug des Verhältnis auf Faktor 1,6)

Kommt beides [i]ungefähr[/b] auf einen Faktor 1,5 hin mit leichter Tendenz zugute der Rohleistung (was ja auch verständlich beim jetzigen Trend der teuer werdenden Texeln ist).

Warum rechnest du im ersten Beispiel nicht mit einem G70/71?
6800U könnte man höchstens mit 6600GT vergleichen.

Eine GPU mit zu wenig Bandbreite ist uebrigens genau so unbalanciert als eine GPU mit zu viel Bandbreite.

Nur das zuviel Bandbreite niemanden stört. Ich halte es für eine Verschwendung, wenn eine schnelle GPU durch zu wenig Bandbreite/VRAM künstlich ausgebremst wird.

Ailuros
2007-01-19, 13:56:14
Natürlich, aber für MSAA braucht es nun mal primär Bandbreite. Dass 8x und 16x CS auf einer 8600 eher nicht sinnvoll nutzbar sind (Geiz-ist-geil-Bandbreite und -Speichermenge), ist abzusehen.

MfG,
Raff

Es reicht ein einziger Flaschenhals woanders und dann nutzt die Bandbreite gleich gar nichts mehr.

1: http://www.beyond3d.com/forum/showpost.php?p=323045&postcount=9

2: http://www.beyond3d.com/forum/showpost.php?p=323369&postcount=18

Das Konzept einer "balancierten pipeline" wird ja wohl nicht so schwer zu verstehen sein.

Ailuros
2007-01-19, 14:06:59
edit: @AiL
Das Diagramm ist alt und wer weiß, wer das erstellt hat.

NV engineer in GPUgems2.

Außerdem ist dort kein Indikator zur Rohleistung zu finden. Wenn 2014 tatsächlich nur 380 GB/sek zur Verfügung ständen und sich jedes Jahr die Grafikleistung in etwa verdoppelt, dann stimmt deine Aussage nicht mehr.
2007 haben wir eine verfügbare Bandbreite von 150 GB/sek. 2014 erst 380. Das wäre Faktor 2,6. Sagen wir mal Faktor 3. Faktor 3 an Performance werden wird spätestens 2010 haben. 2014 wäre das dann Faktor irgendwas um Faktor 10 zu heutigen GPUs.

Es steht 322 im Graph ;) Wir sind nicht allzu weit von der "Mitte" der Zeitspanne entfernt. Ueber 5 Jahre einzuschaetzen ist sowieso zu gefaehrlich. Ich meinte eher von 2004 bis heute. Auf viel mehr hab ich mich gar nicht bezogen.

Der Verlauf der Bandbreite pro Texel zeigt jedenfalls seit Jahren einen eindeutigen Weg, was auch technisch völlig nachvollziehbar ist.

Ja ich bin mir absolut sicher dass der konstant steigende Grad von MRTs und/oder HDR den Bandbreiten-bedarf in der Zukunft reduzieren wird.

Ailuros
2007-01-19, 14:16:11
Nur das zuviel Bandbreite niemanden stört. Ich halte es für eine Verschwendung, wenn eine schnelle GPU durch zu wenig Bandbreite/VRAM künstlich ausgebremst wird.

Ob und wo eine kommende GPU durch fehlende Bandbreite/Speicher angeblich "kuenstlich" ausgebremst wird, steht erstmal noch in den Sternen.

Zu viel Bandbreite ist einfach Geldverschwendung und es spiegelt sich dann auch im finalen Strassenpreis wieder.

Es kommt nicht darauf an wieviel Bandbreite eine GPU hat sondern wie diese benutzt wird. Weder Busbreite bzw. Bandbreite und Speichermenge definieren die Leistung einer GPU und ich kann noch lange auf dem 6600GT/128bit/128MB vs. 9800PRO/256bit/256MB Beispiel herumkauen, aber einsehen wirst Du es sowieso nicht. Nochmal IHV schnallen auf ihre GPUs in etwa so viel Bandbreite wie die GPU insgesamt braucht und es gibt sehr grosse Unterschiede von Generation zu Generation um das zu erreichen was eine wirklich balancierte pipeline darstellen koennte.

LovesuckZ
2007-01-19, 14:18:31
Natürlich, aber für MSAA braucht es nun mal primär Bandbreite.

Die ROPs spielen auch eine Rolle.

Ailuros
2007-01-19, 14:21:11
Die ROPs spielen auch eine Rolle.

Bis zu einem Grad die Pixel-Fuellrate ebenso.

Gaestle
2007-01-19, 14:24:10
Folgende Fragen:

Wie gesichert sind die Informationen über die Breite des SI für die gesamte Mainstream-Palette?
Ist es denkbar, dass die kolportierten 128bit die Ablösung für den bislang noch verwendeten 64bit im Lowest End sind und im höheren Mainstream doch noch ein anderes SI verbaut wird?

Ailuros
2007-01-19, 14:31:09
Wenn man ueber Busbreiten bzw. Bandbreite spekuliert, sollte man zuerst ueber die Anzahl und/oder Faehigkeiten der jeweiligen ROPs fragen.

robbitop
2007-01-19, 15:36:59
Ja ich bin mir absolut sicher dass der konstant steigende Grad von MRTs und/oder HDR den Bandbreiten-bedarf in der Zukunft reduzieren wird.
Setze wenigstens ein Ironie Tag. ;)
Dagegen spricht die stetig höher werdende Zahl an Takten für die Shader. Inzwischen sind wir bei einem Tex:Aritmetik Verhältnis von 10:1 wo es vor 2 Jahren gerade mal bei 3-4:1 war. Tendenz steigend. HDR 8du meinst vermutlich in diesem Zusammenhang einen FP16/32 Framebuffer?) und MRTs belasten die Framebufferbandbreite ein wenig ja.
Wie auch immer: bei NV (habe ich oben belegt) sinkt die Bandbreite pro Texel stetig.

@reunion
brainfart X-D
ich wollte die nextgen Midrange mit der oldgen HiEnd vergleichen. Da es zum G80 ja noch kein nextgen Midrange gibt, kannst du die 8600GT aus dem Vergleich dir rausdenken. Die Tendenz zur niedrigeren Bandbreite pro Texel bleibt allerdings erkennbar. Die von dir genenannte 6600GT hatte allerdings immerhin 4 bytes pro Texel.


Wenn man ueber Busbreiten bzw. Bandbreite spekuliert, sollte man zuerst ueber die Anzahl und/oder Faehigkeiten der jeweiligen ROPs fragen.
Wenn NVIDIA nichts am G8x Design ändert, wird das SI ja über die ROP Partitionen skaliert. Bei 128 Bit wären das 2x ROP Partitionen. Die können dann immerhin noch 64xZ Tests pro Takt bzw 16 Z Tests bei 4xMSAA schaffen. Das sollte ausreichen.

reunion
2007-01-19, 15:45:31
Wenn NVIDIA nichts am G8x Design ändert, wird das SI ja über die ROP Partitionen skaliert. Bei 128 Bit wären das 2x ROP Partitionen. Die können dann immerhin noch 64xZ Tests pro Takt bzw 16 Z Tests bei 4xMSAA schaffen. Das sollte ausreichen.

Für was sollte das ausreichen?
Die ROPs bremsen nicht, aber das war ja auch nicht zu erwarten, da nV die SC direkt mit den ROPs verbunden hat. Bei >20000MTexel/s Füllrate sollte man sich allerdings schon fragen, ob eine Bandbreite von unter 30GB/s ausreichend ist.

robbitop
2007-01-19, 15:52:29
Für was sollte das ausreichen?
Um nicht zum Flaschenhals zu werden (was bei ROPs ja sowieso ausser in NFS3 mit Singletexturing nicht so schnell der Fall ist).

Bei >20000MTexel/s Füllrate sollte man sich allerdings schon fragen, ob eine Bandbreite von unter 30GB/s ausreichend ist.
Klar reicht die Bandbreite nicht, um 16 Pixel pro Takt in den Framebuffer zu schreiben. Auch für >4xMSAA sollte das viel zu wenig sein. Bei längeren Shadern und schöner Texturfilterung sollte sich die hohe Füllrate und die Shaderleistung aber gut bemerkbar machen.

deekey777
2007-01-19, 18:31:13
[ATi & NVIDIA Increase Demand For 80nm & 65nm @ TSMC]

http://www.vr-zone.com/index.php?i=4505

http://www.beyond3d.com/forum/showthread.php?p=912770#post912770
According to <a href="http://www.digitimes.com/bits_chips/a20070119PB201.html" target=_b3dout>Digitimes</a>, AMD and NVIDIA are about to increase their orders at TSMC for 65nm and 80nm, as they prepare to introduce RV610/RV630 (65nm) and G84/G86 (80nm). We can confirm that those are indeed the process nodes to be used for these products, but we have not yet been able to verify the timeframes mentioned by Digitimes.

Nvidia is expected to start volume shipments of its forthcoming G84 and G86 graphics chips, respectively targeting entry-level and mainstream markets, from June, after rolling out them in April. ATI will likely ramp up orders for its 80nm R600 at TSMC from February-March, and 65nm RV610 and RV630 are expected to follow in June-July, the paper added.

aths
2007-01-19, 18:50:44
Folgende Fragen:

Wie gesichert sind die Informationen über die Breite des SI für die gesamte Mainstream-Palette?
Ist es denkbar, dass die kolportierten 128bit die Ablösung für den bislang noch verwendeten 64bit im Lowest End sind und im höheren Mainstream doch noch ein anderes SI verbaut wird?
Ein 128-Bit-Interface dürfte im "Lowest End" nach wie vor zu teuer sein. Dort geht es schließlich nicht um 3D-Performance.

w0mbat
2007-01-19, 19:46:28
(NV G80系列产品规格及价格)
名称 核心/显存频率 显存类型 显存位宽 显存容量 流处理器数量 工艺 价格(美元)
8950GX2 550/2000 GD4 256 512*2 96 80 599
(双核心)
8900GTX 700/2200 GD4 384 768 128 80 549
8900GTS 600/2000 GD4 320 640 128 80 499
8800GTX 575/1800 GD3 384 768 128 90 449
8900GT 600/1800 GD3 256 512 96 80 399
8800GTS 500/1600 GD3 320 640 96 90 399
8900GS 550/1600 GD3 256 256/512 96 80 249/299
8600GT 650/1800 GD3 128 256 64 80 199
8600GS 550/1400 GD3 128 256 64 80 149
8300GT 600/1600 GD3 128 256 32 80 99
8300GS 500/1400 GD3 128 128/256 32 80 69/79
8300LE 500/800 GD2 128 128 32 80 59
8100GS 450/800 GD2 64 128 32 80 49

http://itbbs.pconline.com.cn/topic.jsp?tid=6513392&topicPage=2

Gast
2007-01-20, 02:04:14
sehr glaubwürdig :rolleyes

Gast
2007-01-20, 02:09:33
ja die bringen bestimmt jetzt noch 5 89XX modelle raus..

Ailuros
2007-01-20, 06:50:52
Für was sollte das ausreichen?
Die ROPs bremsen nicht, aber das war ja auch nicht zu erwarten, da nV die SC direkt mit den ROPs verbunden hat. Bei >20000MTexel/s Füllrate sollte man sich allerdings schon fragen, ob eine Bandbreite von unter 30GB/s ausreichend ist.

Es sind ~>10GTexels/s; koenntest Du gefaelligerweise die bilerp Rate nicht mitzaehlen? Wieviel Bandbreite frisst AF genau?

Uebrigens schau Dir mal die Liste oben von SKUs genauer an. Es gibt einen kleinen Unterschied zwischen $250-300 und $150-200 SKUs.

***edit: damit ich nicht konstant das gleiche Zeug verlinke und da es beide IHVs betrifft:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5176244&postcount=145

robbitop
2007-01-20, 10:51:04
Wieso sollte er die nicht mitzählen? Die "doppel-TMUs" erledigen ihre Aufgaben (ab tri) in der halben Zeit, schaffen also bis zur doppelten Menge gefilterter Texel in der gleichen Zeit und das braucht mehr Bandbreite.

AnarchX
2007-01-20, 13:15:26
***edit: damit ich nicht konstant das gleiche Zeug verlinke und da es beide IHVs betrifft:

http://www.forum-3dcenter.org/vbulle...&postcount=145
nV will launch the 8600GTS (G84) one month earlier in March as a replacement of the 7900GS and 7950GT. A few weeks later, mid-April, nV will release the 8600GT with/without HDMI / with HDCP, as a replacement of the 7600GT.
:|

Ist die 8600GTS, das was von VR-Zone als 8600GT betitelt wurde und die 8600GT die 8600GS von VR-Zone oder bleibt 8600GT 8600GT und die GTS ist vielleicht doch eine Variante mit größerem SI(192Bit/256Bit)?
Verwirrend...

Ailuros
2007-01-20, 16:41:02
Wieso sollte er die nicht mitzählen? Die "doppel-TMUs" erledigen ihre Aufgaben (ab tri) in der halben Zeit, schaffen also bis zur doppelten Menge gefilterter Texel in der gleichen Zeit und das braucht mehr Bandbreite.

Ich will wetten dass wenn Du auf einer 7900GTX nur den Speicher uebertaktest, dass die 8800GTS immer noch weniger von 1x auf 16xAF verliert als G71 (Oblivion als Beispiel):

http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/index23.php

Noch besser kannst Du ja versuchen die folgenden Tests auf einer G71 zu wiederholen:

http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/index8.php

reunion
2007-01-20, 16:44:52
Ich will wetten dass wenn Du auf einer 7900GTX nur den Speicher uebertaktest, dass die 8800GTS immer noch weniger von 1x auf 16xAF verliert als G71 (Oblivion als Beispiel):

http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/index23.php

Noch besser kannst Du ja versuchen die folgenden Tests auf einer G71 zu wiederholen:

http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/index8.php

Was ist der Unterschied zu 32 TMUs, solange ich mindestens tri filtere? Darum gehts. Diese 16 "fetten" TMUs verhalten sich im Alltagsbetrieb wie 32 "normale" TMUs, deshab sollte man diese IMHO auch so zählen. Das AF kaum Bandbreite kostet ist klar, aber das gilt auch für Chips mit normalen TMUs, wodurch die einzelnen Texel auf einem G8x-Chip billiger werden, also schneller abgearbeitet werden können, was den Bandbreiteverbrauch erhöht.

Ailuros
2007-01-20, 17:05:26
Was ist der Unterschied zu 32 TMUs, solange ich mindestens tri filtere? Darum gehts. Diese 16 "fetten" TMUs verhalten sich im Alltagsbetrieb wie 32 "normale" TMUs, deshab sollte man diese IMHO auch so zählen. Das AF kaum Bandbreite kostet ist klar, aber das gilt auch für Chips mit normalen TMUs, wodurch die einzelnen Texel auf einem G8x-Chip billiger werden, also schneller abgearbeitet werden können, was den Bandbreiteverbrauch erhöht.

Leider ist der Test oben nur in 1600*1200. Haetten sie das Ganze auch in 2048 oder hoeher wiederholt waeren die Unterschiede noch deutlicher im Vergleich zur G71. Im obrigen Fall verliert als Beispiel in Oblivion die G71 ~29% von 1x auf 16xAF und die 8800GTS ~15%.

Das Oxymoron der ganzen Affaere ist dass mainstream GPUs im Grund sowieso nicht fuer solche Aufloesungen entwickelt werden.

Endorphine
2007-01-20, 18:37:53
Das Oxymoron der ganzen Affaere ist dass mainstream GPUs im Grund sowieso nicht fuer solche Aufloesungen entwickelt werden. Das halte ich für nicht richtig.

GPUs werden grundsätzlich nicht für eine bestimmte Auflösung entwickelt. Die werden entwickelt, um Geld damit zu machen. Es soll ein Marktsegment bedient werden, was bei GPUs beispielsweise für möglichst lange Balken in Vergleichstests für hohe Nachfrage und damit gute Verkäufe und viel Gewinn sorgt. Und dieses Marktsegment definiert sich nicht durch Auflösungen, sondern durch den Preis.

Es kann als unerwünschter Nebeneffekt abfallen, dass bei der vorgegebenen Sparsamkeit bei der Entwicklung beschnittener Mainstream-Varianten der aktuellen High-End Generation für hohe Auflösungen die Performance fehlt.

Du vertauschst Ursache und Wirkung. Die Ursache ist die Knausrigkeit bei der Entwicklung mit dem Ziel, möglichst viel $$$ zu machen bei Mainstream-GPUs. Dafür müssen die GPUs möglichst billig zu fertigen sein. Eine Auswirkung davon kann dann sein, dass für hohe Auflösungen Performance fehlt. Das ist aber keine Absicht, da die Kunden auch in dem Segment möglichst viel Leistung haben wollen für ihr Geld.

Es geht bei Mainstream-GPUs immerhin noch um Beträge von 100-200 US-$ allein für eine Grafikkarte. Du weißt sicher, wie hoch der Marktanteil der IGPs von Intel ist. Und du weißt sicher ebenso, warum das so ist. Die Bezeichnungen "Mainstream" und "Performance Mainstream" sind eigentlich nur Metaphern, genauer genommen Dysphemismem. Der "Mainstream" ist eigentlich ein IGP mit einer 3D-Leistung, die momentan unterhalb einer 7300 LE liegt. Daher gelten für so etwas teures wie eine Performance-Mainstream GPU die gleichen Marktgesetze wie für das, was in Grafikkarten-Enthusiastenkreisen als "High-End" bezeichnet wird behaupte ich mal.

Ailuros
2007-01-20, 19:14:59
Du vertauschst Ursache und Wirkung. Die Ursache ist die Knausrigkeit bei der Entwicklung mit dem Ziel, möglichst viel $$$ zu machen bei Mainstream-GPUs. Dafür müssen die GPUs möglichst billig zu fertigen sein. Eine Auswirkung davon kann dann sein, dass für hohe Auflösungen Performance fehlt. Das ist aber keine Absicht, da die Kunden auch in dem Segment möglichst viel Leistung haben wollen für ihr Geld.

Damit man erstmal eine mainstream GPU aufs Regal bekommt, darf sie nicht mehr als hoechstens $250 kosten und daher sind so viele Einheiten wie im high end, groessere Busbreite und ergo mehr Bandbreite und auch so viel Speicher wie im high end ausser Frage.

Der Kunde wird ja wohl nicht so naiv sein dass er mit =/<$250 jetzt erwartet dass er damit mit 4xAA in 1920, 2048 oder hoeher spielen koennte.

Du kannst ja gerne mal versuchen mir eine theoretische Rechnung zu machen wie es moeglich waere eine mainstream GPU zu entwickeln mit der man Leistung und hoehere Aufloesungen erreichen koennte. IHVs entwickeln tatsaechlich mainstream GPUs mit dem Hintergedanken dass sie in etwa die Haelfte der Leistung einer high end GPU erreichen werden und ja man testet die jeweiligen Resultate auch dementsprechend auf einem Simulator aus bis man das erwuenschte Resultat hinbekommt.

Es geht bei Mainstream-GPUs immerhin noch um Beträge von 100-200 US-$ allein für eine Grafikkarte. Du weißt sicher, wie hoch der Marktanteil der IGPs von Intel ist. Und du weißt sicher ebenso, warum das so ist. Die Bezeichnungen "Mainstream" und "Performance Mainstream" sind eigentlich nur Metaphern, genauer genommen Dysphemismem. Der "Mainstream" ist eigentlich ein IGP mit einer 3D-Leistung, die momentan unterhalb einer 7300 LE liegt. Daher gelten für so etwas teures wie eine Performance-Mainstream GPU die gleichen Marktgesetze wie für das, was in Grafikkarten-Enthusiastenkreisen als "High-End" bezeichnet wird behaupte ich mal.

Wobei ich persoenlich IGPs nichtmal mit einer low-end standalone GPU vergleichen wuerde; viel anstellen was 3D betrifft kann man mit beiden sowieso nicht, nur sind eben IGPs eher das was ich als "fancy word processors" nennen wuerde.

Die Marktaufteilung ist wie folgend IMO:

Low-end oder budget
Mainstream
Performance
High-end
Ultra high-end

Wenn ich ueberhaupt IGPs kategorisieren muesste, wuerde ich ueber low-end nochmal eine Kategorie namens "dog-slow low-end" einordnen ;)

StefanV
2007-01-20, 19:46:41
Wobei ich persoenlich IGPs nichtmal mit einer low-end standalone GPU vergleichen wuerde; viel anstellen was 3D betrifft kann man mit beiden sowieso nicht, nur sind eben IGPs eher das was ich als "fancy word processors" nennen wuerde.

Die Marktaufteilung ist wie folgend IMO:

Low-end oder budget
Mainstream
Performance
High-end
Ultra high-end

Wenn ich ueberhaupt IGPs kategorisieren muesste, wuerde ich ueber low-end nochmal eine Kategorie namens "dog-slow low-end" einordnen ;)
Du meinst wohl die 'Useless-for-annything-else-than-picture-on-screen' Klasse? ;)
Und eben genau darum gehts ja, das man 'nen Bild aufm Schirm hat und ansonsten es möglichst preisgünstig ist.


BTW:
Warum gibts eigentlich nicht wirklich IGPs im Server Bereich?! :|
Da wird ja bekanntlich der größte Schrott an 'Grafikprozessoren' verbaut wo gibt (Volari, AMD Rage Pro Ableger bzw ES1000)...

Ailuros
2007-01-20, 20:53:29
Oder eben nutzlos fuer alles was ich bewegt (na ja video/DVD Wiedergabe ist dann eine andere Geschichte, wenn nicht alles oder das meiste auf die CPU verfrachtet wird....) :biggrin:

***edit:

BTW:
Warum gibts eigentlich nicht wirklich IGPs im Server Bereich?!
Da wird ja bekanntlich der größte Schrott an 'Grafikprozessoren' verbaut wo gibt (Volari, AMD Rage Pro Ableger bzw ES1000)...

Intel koennte in der absehbaren Zukunft Interesse an diesem Markt finden ;)

robbitop
2007-01-20, 21:03:54
Ich will wetten dass wenn Du auf einer 7900GTX nur den Speicher uebertaktest, dass die 8800GTS immer noch weniger von 1x auf 16xAF verliert als G71 (Oblivion als Beispiel):

http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/index23.php

Noch besser kannst Du ja versuchen die folgenden Tests auf einer G71 zu wiederholen:

http://www.hardtecs4u.com/reviews/2007/nvidia_g80_roundup/index8.php
Ja natürlich, sie hat auch eine brachiale Füllrate. Dein Szenario ist zu vielschichtig um es einfach so auf den Punkt zu bringen.

Ailuros
2007-01-20, 21:09:37
Ja natürlich, sie hat auch eine brachiale Füllrate. Dein Szenario ist zu vielschichtig um es einfach so auf den Punkt zu bringen.

Gut dann finde Du mir einfach ein spielbares Szenario wo einer G86 die Bandbreite unter der bilerp Fuellrate deutlich leiden wuerde.

Das einzige was ich mir vorstellen kann ist dass G86 etwas mehr Leistung verlieren koennten zwischen high quality und quality, aber das hat auch nichts mit der Bandbreite zu tun.

Nightspider
2007-01-20, 21:47:23
Mal eine Frage:

Der R600 wird ja allem Anschein nach ein 512 Bit SI und DDR3/DDR4 nutzen.

Womit wird Nvidia in Zukunft kontern ?
Vor allem Spiele, mit HDR_und_AA gehen bei den FPS ins Bodenlose.

8800 GTX: Serius Sam 2:2048*1536 HDR: ~ 100 FPS + AA ~30-40 fps !

Wird DDR4 Speicher reichen um dort zu helfen ?

Oder wird Nvidia das SI weiter verbreitern ?


Nvidia ist an sich ja viel größer. Intel ist durch seine größe ja auch schneller bei kleineren Fertigungsprozessen und verbaut viel größeren Cache, welcher die Kosten hochtreibt ? ? ?

Nvidia ist doch viel größer als AMD/ATI. Nvidia könnte doch 2*384 SI verwenden oder ? Also 256 + 512 ?!?

Dann wären AA und HDR wirklich kein Problem mehr ?

Ich kenne die Rechnung nicht aber wie groß wäre die Bandbreit mit 384 SI+900 Mhz und 384 SI + GDDR4_1400 bzw. 1600 Speicher ?

Raff
2007-01-20, 21:52:37
(Reale MHz * 2 (DDR)* SI-Bit)/8 = GByte/s

Mit 900 MHz hat man somit 86,4 GB/s, mit 1.600 MHz wären es immerhin stattliche 153,6 GB/s ... also das Niveau, das das R600-Spitzenmodell haben soll.

MfG,
Raff

Gast
2007-01-20, 21:58:45
(Reale MHz * 2 (DDR)* SI-Bit)/8 = GByte/s

(Speichertakt in GHz * 2 (DDR)* SI-Bit)/8 = GByte/s

Bei deiner Rechnung erhält man nämlich sonst Byte/s.

Raff
2007-01-20, 22:00:45
Mist, wieder schneller getippt als gedacht. Richtig. :)

MfG,
Raff

AnarchX
2007-01-20, 22:07:23
Mal eine Frage:

Der R600 wird ja allem Anschein nach ein 512 Bit SI und DDR3/DDR4 nutzen.

Womit wird Nvidia in Zukunft kontern ?
Vor allem Spiele, mit HDR_und_AA gehen bei den FPS ins Bodenlose.

8800 GTX: Serius Sam 2:2048*1536 HDR: ~ 100 FPS + AA ~30-40 fps !

Dieser Einbruch soll eher nicht von Hardwareseite kommen, also kommende Treiber abwarten.


Nvidia ist an sich ja viel größer. Intel ist durch seine größe ja auch schneller bei kleineren Fertigungsprozessen und verbaut viel größeren Cache, welcher die Kosten hochtreibt ? ? ?

Das nV größer als ATi+AMD ist mag ich doch sehr bezweifeln.
Zudem ist der Vergleich mit Intel unpassend, Intel fertigt in eigenen Fabs, während nV und ATi bei TSCM und Konsorten fertigen lassen und ihnen somit eigentlich immer die gleichen Prozesse zur Verfügung stehen.



Nvidia ist doch viel größer als AMD/ATI. Nvidia könnte doch 2*384 SI verwenden oder ? Also 256 + 512 ?!?

768Bit wird man so schnell wohl nicht sehen.

Momentan sieht es danach aus, dass der G81 wohl weiterhin mit einem 384Bit SI daherkommt, aber auf GDDR4 setzt bei den höchsten Modellen, wodurch man die Bandbreite auch nochmal erheblich erhöhen kann, ohne die Nachteile eines 512Bit SIs auch sich zu nehmen -> mehr Transistoren, komplexeres PCB.

Erst bei der nächsten Evolution der G80-Architektur wird man wohl das 512Bit SI sehen.

Die 150GB/s der X2800XTX sehen zwar nett auf dem Papier aus, aber ausser in Extremsitutationen wie 2048x... + mit 8xMSAA +AAA wird er daraus nicht viel praktischen Nutzen ziehen können (als Gamer).

Winter[Raven]
2007-01-20, 22:12:22
Irgendjemand bei mir im ICQ spekulierte auf 512 SI + höhere Taktraten...

Gast
2007-01-20, 22:38:35
;5178470']Irgendjemand bei mir im ICQ spekulierte auf 512 SI + höhere Taktraten...


Na dann.. *g*

robbitop
2007-01-20, 23:10:41
Gut dann finde Du mir einfach ein spielbares Szenario wo einer G86 die Bandbreite unter der bilerp Fuellrate deutlich leiden wuerde.

Das einzige was ich mir vorstellen kann ist dass G86 etwas mehr Leistung verlieren koennten zwischen high quality und quality, aber das hat auch nichts mit der Bandbreite zu tun.
pro Texel braucht es mindestens 32 Bit Farbe, 8 Bit Z und 32 Bit Texturdaten. Das variiert mit der Anzahl der Zugriffe auf den Framebuffer und der Anzahl von Texturlayer. Wie auch immer: ein Texel kostet Bandbreite.
Schaffst du in der gleichen Zeit doppelt so viele Texel zu filtern, brauchst du auch die doppelte Bandbreite. Das ist ein Fakt, darüber bauchen wir auch gar nicht zu diskutieren. (Und schon gar nicht mit irgendwelchen vielschichtigen Spielebenchmarks und unterschiedlichen Architekturen.)

Was meinst du eigentlich mit bilerp Füllrate? Bi LERP bedeutet bilineare Interpolation.

Black-Scorpion
2007-01-21, 11:17:04
Nvidia ist doch viel größer als AMD/ATI.
nVidia war schon nicht so viel größer wie ATI.
Wie sollen sie da größer wie AMD/ATI sein.
Entweder hast du eine völlig falsche Vorstellung wie groß ATI wirklich ist/war, oder du überschätzt die Größe von nVidia.

aths
2007-01-21, 13:23:16
pro Texel braucht es mindestens 32 Bit Farbe, 8 Bit Z und 32 Bit Texturdaten. Mit DXT1 sind es nur 4 Bit pro Texel.

robbitop
2007-01-21, 14:37:15
Ein Texel braucht aber mindestens 4 Samples.

Raff
2007-01-21, 14:43:54
nVidia war schon nicht so viel größer wie ATI.
Wie sollen sie da größer wie AMD/ATI sein.
Entweder hast du eine völlig falsche Vorstellung wie groß ATI wirklich ist/war, oder du überschätzt die Größe von nVidia.

Oder er verwechselt das Verhältnis Intel - AMD. Letztere sind durch Ati natürlich etwas gewachsen.

MfG,
Raff

Coda
2007-01-21, 14:44:50
Das nV größer als ATi+AMD ist mag ich doch sehr bezweifeln.

Was die Grafiksparte angeht: Sehr deutlich sogar.

Godmode
2007-01-21, 14:46:45
Eigentlich wollte ich eine 8800 GTS kaufen, aber ich hab nun überlegt ob es nicht besser wäre auf den Refresh zu warten. Der Grund dafür ist folgender:
Bei nVidia kommt es immer wieder vor das irgendwelche Features nicht funktionieren. Seit dem NV40 gibt es immer wieder solche Missgeschicke. Beim G80 soll ja der Verbrauch im Idlemodus relativ hoch sein! Dem G80 würde ein Shrink auf 80nm sicherlich gut tun, was die Leistungsaufnahme hoffentlich um einiges veringern würde. Was denkt ihr, wird die große 8600 schneller sein als meine aktuelle (siehe Sig)? Meiner Meinung nach schon, und ich könnte mir gut vorstellen, dass sich diese dank 80nm Fertigung schön übertakten lassen!

reunion
2007-01-21, 14:58:56
Was die Grafiksparte angeht: Sehr deutlich sogar.

An was machst du die "Größe" fest?

Konami
2007-01-21, 15:07:23
Gibt es eigentlich schon Gerüchte, wann Nvidia ihre ersten 65nm-GPUs rausbringt? Angeblich werden RV610 und RV630 ja schon in 65nm gefertigt, aber ich frage mich, wie bald nV darauf kontern wird (falls überhaupt noch unter G8x).

Godmode
2007-01-21, 15:10:28
Gibt es eigentlich schon Gerüchte, wann Nvidia ihre ersten 65nm-GPUs rausbringt? Angeblich werden RV610 und RV630 ja schon in 65nm gefertigt, aber ich frage mich, wie bald nV darauf kontern wird (falls überhaupt noch unter G8x).

Also was man momentan so hört, wird G86, 84 und 81 in 80nm gefertigt, und 65nm soll erst zum Jahresende kommen!

Winter[Raven]
2007-01-21, 15:23:35
Also was man momentan so hört, wird G86, 84 und 81 in 80nm gefertigt, und 65nm soll erst zum Jahresende kommen!

Nvidia muss selbst wissen was für das Unternehmen an Profit bringt. Wenn die Yelds und Margens mit 80µ im positiven Bereich liegen, warum nicht?

seahawk
2007-01-21, 17:06:58
Was juckt den Kunden der Fertigunsprozess, wenn die Chips ansonsten up-to-date sind und in Leistung / Stromverbrauch konkurrrenzfähig ?

Gast
2007-01-21, 17:14:28
Was juckt den Kunden der Fertigunsprozess, wenn die Chips ansonsten up-to-date sind und in Leistung / Stromverbrauch konkurrrenzfähig ?
Geringere Kosten bei der Fertigung können dazu führen, dass entweder eine bestimmte 3D-Leistung billiger wird in dem die ICs gleich groß bleiben und mehr Schaltungen für höhere Performance verbaut werden. Oder die ICs werden kleiner und billiger.

Insofern ist das auch aus Kundensicht interessant. Oder freust du dich auch darüber, dass man bei AMD für Prozessoren mit 2 MB L2-Cache mindestens 150 EUR auf den Tisch legen muss, während man bei Intel schon 70 EUR reichen? Das ist kein Zufall und direkt in der Wirtschaftlichkeit der Fertigungstechnik begründet.

reunion
2007-01-21, 17:19:25
Was juckt den Kunden der Fertigunsprozess, wenn die Chips ansonsten up-to-date sind und in Leistung / Stromverbrauch konkurrrenzfähig ?

Du sagst es: Wenn. Nur gibt der Hersteller die Fertigungskosten entweder direkt durch den Preis, oder indirekt in Form eines abgespecktem Produktes letztendlich direkt an den Kunden weiter.

Gast
2007-01-21, 17:36:43
Du sagst es: Wenn. Nur gibt der Hersteller die Fertigungskosten entweder direkt durch den Preis, oder indirekt in Form eines abgespecktem Produktes letztendlich direkt an den Kunden weiter.Nicht unbedingt. Der G80 ist mehr als doppelt so groß wie der G71 und trotzdem kostet die 8800GTX nicht bedeutend mehr als eine 7900GTX beim Launch gekostet hat.

Gast
2007-01-21, 18:11:14
Nicht unbedingt. Der G80 ist mehr als doppelt so groß wie der G71 und trotzdem kostet die 8800GTX nicht bedeutend mehr als eine 7900GTX beim Launch gekostet hat.

Aber bitte vergiss nicht, das in der Zeit zwischen 7900 GTX und 8800 GTX auch die Kosten für die Herstellung weiter gesunken ist.

Vor nicht mal allzu langer Zeit war eine "Massenproduktion" noch was ganz anderes als heute. Da hat man vielleicht nur 10000 Stück produziert und das wars. Heute sind es womöglich mehrere Millionen, was natürlich den Preis einzelner Produkte drücken können.

Denn je mehr ich auf einen Schlag einkaufe, desto bessere Konditionen lassen sich aushandeln etc.

AnarchX
2007-01-21, 19:53:38
Nicht unbedingt. Der G80 ist mehr als doppelt so groß wie der G71 und trotzdem kostet die 8800GTX nicht bedeutend mehr als eine 7900GTX beim Launch gekostet hat.

Nur hat man bei letzerer einen bedeutend höheren Gewinn eingestrichen, G71 war imo sicherlich eine der wirtschaftlichsten HighEnd-GPUs die es je gab.

Gast
2007-01-21, 20:25:58
Nur hat man bei letzerer einen bedeutend höheren Gewinn eingestrichen, G71 war imo sicherlich eine der wirtschaftlichsten HighEnd-GPUs die es je gab.

Leider gibts da auch ein Haken.Die 7900 Serie ist bei vielen neuen Spielen sehr langsam,das ist dann der verbraucher nachteil wegen denn transiatoren sparen...
Im endeffekt haben die Verbraucher nicht viel von einer wirtschaftlichsten Karte.;)

The_Invisible
2007-01-21, 22:40:19
Leider gibts da auch ein Haken.Die 7900 Serie ist bei vielen neuen Spielen sehr langsam,das ist dann der verbraucher nachteil wegen denn transiatoren sparen...
Im endeffekt haben die Verbraucher nicht viel von einer wirtschaftlichsten Karte.;)

doch, sie ist kühl, leise und stromsparend und auch für aktuelle spiele noch schnell genug. solche aussagen kommen meist von leuten die noch nie ne 7x00 karte in den händen gehalten haben.

ansonsten hat deine antwort nichts mit AnarchX' aussage zu tun

mfg

StefanV
2007-01-21, 22:44:50
Eine FX5900 reichte auch für damals aktuelle Spiele, sie ist nicht leise und nicht kühl (mit Referenzkühler), aber für (damals) aktuelle Spiele ist sie schnell genug.
Solche Aussagen kamen meist von Leuten die noch nie 'Ne 5900 in Händen gehalten haben.

Der Vergleich ist der gleiche, die SItuation ähnlich, wenn nicht ganz so schlimm...
Nur damals wie heute kann man sagen, das die AMD Karten die wesentlich sinnigere Wahl ist...
Und vorallendingen: was glaubst du, warum nV die G8x Derivate pusht?!

Ailuros
2007-01-21, 23:12:39
Und vorallendingen: was glaubst du, warum nV die G8x Derivate pusht?!

Aus dem genau gleichen Grund nach dem auch ATI ihre R6x0 Derivate intensiv vermarkten wird.

Fetza
2007-01-22, 00:55:53
Eine FX5900 reichte auch für damals aktuelle Spiele, sie ist nicht leise und nicht kühl (mit Referenzkühler), aber für (damals) aktuelle Spiele ist sie schnell genug.
Solche Aussagen kamen meist von Leuten die noch nie 'Ne 5900 in Händen gehalten haben.

Der Vergleich ist der gleiche, die SItuation ähnlich, wenn nicht ganz so schlimm...
Nur damals wie heute kann man sagen, das die AMD Karten die wesentlich sinnigere Wahl ist...
Und vorallendingen: was glaubst du, warum nV die G8x Derivate pusht?!

ich hätte mir damals ne x1900xt gekauft, kostete damals knappe 400 euro. Zeitgleich kam aber von palit die 7900gt mit 512 mb raus, für 300 euro. Und als ich bei alternate das angebot von 299 euro sah, war die wahl klar. Man darf also auch den preis nicht ganz aussen vor lassen. Wenn man es preis/leistungsmäßig sieht hinkt der vergleich also doch schon gewaltig, denn die 5900 war nie so ein schnäppchen.

greetz

Fetza

seahawk
2007-01-22, 07:17:08
Du sagst es: Wenn. Nur gibt der Hersteller die Fertigungskosten entweder direkt durch den Preis, oder indirekt in Form eines abgespecktem Produktes letztendlich direkt an den Kunden weiter.

Wobei aber der kleiner Prozess nicht immer der billigere oder bessere sein muss. Und sowohl AMD/ATI als auch NV haben bewiesen, dass sie mit vermeintlich älteren Fertigungsprozessen absolut konkurrenzfähige Produkte fertigen können. Oder war der R300 schelchter als NV30 ? :D

Gerade bei der Neueinführung eines Prozesses, sind die Unterscheide zwischen dem bewährten Prozess und dem neuen, nach allen mir vorliegenden Informationen, äußerst gering.

Gast
2007-01-22, 11:02:20
Nur damals wie heute kann man sagen, das die AMD Karten die wesentlich sinnigere Wahl ist...Nein, das kann man nicht sagen, solange die Anforderungen des Käufer nicht bekannt sind.

tokugawa
2007-01-22, 11:09:28
Eine FX5900 reichte auch für damals aktuelle Spiele, sie ist nicht leise und nicht kühl (mit Referenzkühler), aber für (damals) aktuelle Spiele ist sie schnell genug.
Solche Aussagen kamen meist von Leuten die noch nie 'Ne 5900 in Händen gehalten haben.


Ich war mit meiner FX 5900 XT recht zufrieden. Hatte damals im anderen Rechner aber auch eine Radeon 9500 Pro.

Die FX war übrigens leiser (eine Gigabyte).



Der Vergleich ist der gleiche, die SItuation ähnlich, wenn nicht ganz so schlimm...
Nur damals wie heute kann man sagen, das die AMD Karten die wesentlich sinnigere Wahl ist...


Das ist eine schwachsinnige Aussage, wenn man nicht dazusagt, für welche Aufgabengebiete.

Auf jeden Fall kann man das nicht so allgemein sagen, denn die ATIs haben eben auch ihre Nachteile (kein Vertex-Texture-Fetch, kein "HDR-Filtering"/FP-Filtering, kein automatisches PCF). Da muß man drauf schauen was einem persönlich wichtig ist.

Ich würd dich bitten solche pauschalierende und somit in sich falsche (da unvollständige) Aussagen zu unterlassen. Deine Aussage ist richtig für manche, falsch für andere - da du sie so allgemein formulierst, wird sie allerdings falsch.

Ich geb dir zu denken: von NV30 bis jetzt zum G7x und G80 war NVIDIA in einigen Kreisen durchaus erste Wahl, eben aufgrund dieser "kleinen" Unterschiede, die es - je nach persönlicher Präferenz - dann doch ausmachten.

Odal
2007-01-22, 11:45:25
da solltest du aber auch dazu sagen welche kreise das waren ;) in den hier im Forum vorrangig (mit grossem Abstand) vertretenen Kreisen sollte NV seit dem NV30 nicht mehr erste Wahl sein ausser es gibt Preisleistungskracher wie die 6600GT bzw. zeitweise auch die 7600GT

wo wir wieder beim Thema wären...die Mittelklasse...

hier erwarte ich vom G80 eigentlich ein 6600GT derivat aber verwundern tun mich die Preisrutsche beim G80 obwohl der R600 ja noch lang nicht auf dem Markt ist....

das lässt irgendwie wieder dein Eindruck aufkommen als will NV unbedingt noch den Markt sättigen bevor es den R600 und Abkömmlinge gibt weil sie sich vor irgendwas fürchten ^^

Man sollte jedenfalls nicht mehr so blauäugig sein und sofort irgendwo zuschlagen sondern man sollte erst einmal abwarten was die Konkurenz so bietet....und akribisch genau auf Schwächen achten

Gast
2007-01-22, 12:01:46
[QUOTE=Odal;5182510]das lässt irgendwie wieder dein Eindruck aufkommen als will NV unbedingt noch den Markt sättigen bevor es den R600 und Abkömmlinge gibt weil sie sich vor irgendwas fürchten ^^./QUOTE]Ich sehe nichts wovor sich NV fürchten sollte. Imho ist es für NV nicht sonderlich tragisch, wenn R600 ein Stück schneller als G80 wird.

Gast
2007-01-22, 12:02:24
das lässt irgendwie wieder dein Eindruck aufkommen als will NV unbedingt noch den Markt sättigen bevor es den R600 und Abkömmlinge gibt weil sie sich vor irgendwas fürchten ^^.Ich sehe nichts wovor sich NV fürchten sollte. Imho ist es für NV nicht sonderlich tragisch, wenn R600 ein Stück schneller als G80 wird.

@mods: Bitte den Post darüber löschen, hab mich vertan. ;)

Raff
2007-01-22, 12:17:54
http://www.pcgameshardware.de/?article_id=548000

Quad-SLI mit vier G80-ern? Ich frage mich, wer so eine brachiale Leistung zum noch brachialeren Preis überhaupt brauchen soll. Man zeige mir Fälle, wo G80-SLI nur annähernd unspielbar wird.

MfG,
Raff

seahawk
2007-01-22, 12:18:25
das lässt irgendwie wieder dein Eindruck aufkommen als will NV unbedingt noch den Markt sättigen bevor es den R600 und Abkömmlinge gibt weil sie sich vor irgendwas fürchten ^^




Entweder das, oder G80 nähert sich einfach dem Ende seines Lebenszykluses und man will die Dinger raushaben bevor G81 (oder wie auch immer) erscheint.

reunion
2007-01-22, 12:25:06
http://www.pcgameshardware.de/?article_id=548000

Quad-SLI mit vier G80-ern? Ich frage mich, wer so eine brachiale Leistung zum noch brachialeren Preis überhaupt brauchen soll. Man zeige mir Fälle, wo G80-SLI nur annähernd unspielbar wird.

MfG,
Raff

Vorallem ist die Leistung mit Quad-SLi aktuell sehr bescheiden, und solange AFR unter D3D nicht funktioniert, wird das auch so bleiben. Von anderen Probleme, die beim Rendering mit vier GPUs auftreten ganz zu schweigen. IMHO ist SLi mit mehr als zwei GPUs aus verschiedensten Gründen nicht sinnvoll.

AnarchX
2007-01-22, 12:26:58
Quad-SLI mit vier G80-ern? Ich frage mich, wer so eine brachiale Leistung zum noch brachialeren Preis überhaupt brauchen soll. Man zeige mir Fälle, wo G80-SLI nur annähernd unspielbar wird.


2560x1600 + TSAA in einigen Games, wäre sicherlich ein Gebiet, wo sich mancher Hardwarefreak, dem der Preis egal, sich über G80-QSLI freuen würde.;)

Vorallem ist die Leistung mit Quad-SLi aktuell sehr bescheiden, und solange AFR unter D3D nicht funktioniert, wird das auch so bleiben.
D3D10... ;)

LovesuckZ
2007-01-22, 12:54:00
Vorallem ist die Leistung mit Quad-SLi aktuell sehr bescheiden, und solange AFR unter D3D nicht funktioniert,

Wie sieht es mit SFR aus?

Anarchy-HWLUXX
2007-01-22, 13:06:57
http://www.pcgameshardware.de/?article_id=548000

Quad-SLI mit vier G80-ern? Ich frage mich, wer so eine brachiale Leistung zum noch brachialeren Preis überhaupt brauchen soll. Man zeige mir Fälle, wo G80-SLI nur annähernd unspielbar wird.

MfG,
Raff

Gigabyte bringt doch non-stop solch wahnwitzige sachen ... se haben scho vor langer zeit nen Brett mit 4 PEG Slots gebracht ...

reunion
2007-01-22, 13:09:21
Wie sieht es mit SFR aus?

4-Way-SFR versagt leistungsmäßig komplett, es gibt allerdings auch noch einen AFR-to-SFR-Kompatiblitätsmodus, welcher funktioniert, aber wie schon gesagt, die Leistung ist auch hier bescheiden. Es kommt nicht selten vor, dass eine 7950GX2 Quad-SLi System von einem 7900GTX SLi System distanziert wird.

D3D10... ;)

Was soll mir dieser Wortfetzen jetzt sagen?

AnarchX
2007-01-22, 13:11:53
Was soll mir dieser Wortfetzen jetzt sagen?
4Way-AFR ist bei diesem erlaubt.

The_Invisible
2007-01-22, 13:26:29
http://www.pcgameshardware.de/?article_id=548000

Quad-SLI mit vier G80-ern? Ich frage mich, wer so eine brachiale Leistung zum noch brachialeren Preis überhaupt brauchen soll. Man zeige mir Fälle, wo G80-SLI nur annähernd unspielbar wird.

MfG,
Raff

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/9/#abschnitt_oblivion

ist schon ziemlich knapp am limit

mfg

AnarchX
2007-01-22, 15:43:23
Vor allem die theoretischen Eckdaten eines möglichen 8900GX2-QSLI sind schon ziemlich heftig:

128TAs(256TMUs)@575MHz 73.6GTex/s (147.2GTex/s)
~2 TFLOPs
345.6 GB/s

:eek:
Wer bereit ist hier den Preis dafür zu zahlen, bekommt eine Leistung die man auf einer Einzelkarte, wohl frühestens in 2 Jahren sieht.
Einziges Manko, der Lag durch 4Way-AFR, aber nichts ist halt perfekt...

reunion
2007-01-22, 15:49:42
:eek:
Wer bereit ist hier den Preis dafür zu zahlen, bekommt eine Leistung die man auf einer Einzelkarte, wohl frühestens in 2 Jahren sieht.


Sieht man ja heute schon an 7950GX2 Quad-SLi. Eine 8800GTX flasht das weg wie nichts, und ist noch dazu featuremäßig haushoch überlegen. Theoretische Daten sind nicht alles, Effizienz ist gefragt. Spätestens mit G90 wäre so ein System überholt, vom enormen Stromhungern, den Lagproblem, Kompatiblitätsproblemen, etc. ganz zu schweigen.

AnarchX
2007-01-22, 16:09:58
Sieht man ja heute schon an 7950GX2 Quad-SLi. Eine 8800GTX flasht das weg wie nichts, und ist noch dazu featuremäßig haushoch überlegen.

In den Situationen wo 4Way-AFR läuft sind beide meist gleich auf bzw. das 795GX2-QSLI liegt vorn(siehe CB <1> (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/22/#abschnitt_quake_4)<2> (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/30/#abschnitt_quake_4_crossfire))

Effizienz ist gefragt. Spätestens mit G90 wäre so ein System überholt, vom enormen Stromhungern, den Lagproblem, Kompatiblitätsproblemen, etc. ganz zu schweigen.

Das G90, der wohl noch architektonisch mit G80 verwand sein, ein solches G81-QSLI bei 4Way-AFR überholte bezweifele ich eher, maximal wird es wohl zu einem Gleichstand kommen.

Zudem was stört dich so daran, dass man die Möglichkeit QSLI anbietet?
In meinen Augen ist es ein sehr gutes Angebot an die jenigen, die bereit sind den Preis dafür zu zahlen und mit den kleineren Problemen zu leben.
Zudem ist es für den Hersteller doch ein gutes Prestige-Objekt, weshalb man bei ATi wohl auch bald Q-CF sehen wird.

btw.
War da nicht etwas im Bezug auf Multi-GPU bei D3D10.x?

reunion
2007-01-22, 16:17:26
In den Situationen wo 4Way-AFR läuft sind beide meist gleich auf bzw. das 795GX2-QSLI liegt vorn(siehe CB <1> (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/22/#abschnitt_quake_4)<2> (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/30/#abschnitt_quake_4_crossfire))


Bei deinen ersten Link ist eine 8800GTX klar schneller, beim zweiten Link kommt eine 8800GTX nicht mal vor. :|

Oh, jetzt verstehe ich. Ja, bei einem Spiel wie Quake 4, dass hauptsächlich auf Füllrate angewiesen ist, ist ein 7950GX2 Q-SLi-System knapp schneller, man braucht allerdings kein Prophet sein, um zu wissen, dass es bei shaderlastigeren Spielen anders aussehen wird. Eine 8800GTX ist den Anforderungen der Zukunft einfach wesentlich besser angepasst, und genauso wird es auch bei G80 Q-SLi vs. G90 sein.



Das G90, der wohl noch architektonisch mit G80 verwand sein, ein solches G81-QSLI bei 4Way-AFR überholte bezweifele ich eher, maximal wird es wohl zu einem Gleichstand kommen.


Es wird Bildqualitätsverbesserungen geben, neuen Feature, etc. - und man erspart sich die ganzen Probleme mit vier GPUs.


Zudem was stört dich so daran, dass man die Möglichkeit QSLI anbietet?
In meinen Augen ist es ein sehr gutes Angebot an die jenigen, die bereit sind den Preis dafür zu zahlen und mit den kleineren Problemen zu leben.
Zudem ist es für den Hersteller doch ein gutes Prestige-Objekt, weshalb man bei ATi wohl auch bald Q-CF sehen wird.


Stören tut mich gar nichts daran, wir leben schließlich in einer freien Marktwirtschaft, ich finde es einfach nur unsinnig.

AnarchX
2007-01-22, 16:23:24
Bei deinen ersten Link ist eine 8800GTX klar schneller, beim zweiten Link kommt eine 8800GTX nicht mal vor. :|
Man nehme die QSLI-Werte aus dem einen Link und vergleiche sie mit den 88GTX Werten. ;)

Es wird Bildqualitätsverbesserungen geben, neuen Feature, etc. - und man erspart sich die ganzen Probleme mit vier GPUs.
Deshalb kauft sich derjenige, der sich jetzt ein 8900GX2 QSLI kauft, auch dann eben ein 9800GTX SLI bzw. 9900GX2 QSLI bzw. hat zwischendurch schon auf eine andere schnellere Lösung gewechselt... ;)


ich finde es einfach nur unsinnig.
Naja, es gibt noch viel unsinnigere Hobbys in die mancher noch mehr Geld steckt(von unten lackiertete Autos usw. X-D).

Ailuros
2007-01-22, 22:39:03
Es wird Bildqualitätsverbesserungen geben, neuen Feature, etc. - und man erspart sich die ganzen Probleme mit vier GPUs.

Ich will ja nicht wieder zu viel andeuten, aber "G90" steht IMO nicht fuer eine neue Generation ;)

Uebrigens ganz so nebenbei zu der quad-SLi Debatte, was genau fuer eine CPU soll so ein Monster-System heutzutage ausreichend fuettern?

Raff
2007-01-22, 23:57:13
Uebrigens ganz so nebenbei zu der quad-SLi Debatte, was genau fuer eine CPU soll so ein Monster-System heutzutage ausreichend fuettern?

Ein Core 2 Quad mit 4 GHz?

Ich frage mich eher: Mit welchen neuen AA-Modi könnte NV Quad-SLI schmackhaft machen? :naughty: Wenn sie da kein dickes SSAA auspacken, dann weiß ich auch nicht ...

MfG,
Raff

Gast
2007-01-23, 00:04:35
Ich will ja nicht wieder zu viel andeuten, aber "G90" steht IMO nicht fuer eine neue Generation ;)

Uebrigens ganz so nebenbei zu der quad-SLi Debatte, was genau fuer eine CPU soll so ein Monster-System heutzutage ausreichend fuettern?

Wird wie NV40 zu G70 oder ?

:)

Anarchy-HWLUXX
2007-01-23, 08:30:13
nV hat ja 4 jahre dran gewerkelt wie se gesagt haben, da wird nicht mal eben so nach einem jahr scho nen fundamental neues Design kommen ...

Ich seh hier die chancen in der Optimirung der Shader richtung weniger Transistoren bei besserer Leistung (nV hat das schon mal demonstriert) sowie eine aufstockung der Shadereiheiten beim High-End Chip.

LovesuckZ
2007-01-23, 11:25:11
Ich seh hier die chancen in der Optimirung der Shader richtung weniger Transistoren bei besserer Leistung (nV hat das schon mal demonstriert) sowie eine aufstockung der Shadereiheiten beim High-End Chip.

So wird es wohl aussehen. Der Refresh vom G80 wird wohl auf 80nm geshrinkt. Höhere Taktraten, höher getakteten Speicher.
Der G90 wird dann mehr Cluster und ROPs - Partionen erhalten und in 65nm kommen.
So rein ins blaue gesagt: 12 Cluster, 8 ROPs - Partionen, höhere Taktraten etc.

Gast
2007-01-24, 00:39:40
Ein größeres SI brauch nicht unbedingt mehr an allen Einheiten. Es wird keine 192Bit SI Grafikkarten seitens NV geben, auch wenn das viele rein von der logic her sehen wollen. Standart wird 256Bit SI, die Architektur ist voll auf Skalierbarkeit ausgelegt, da kann man sicher mehr erhöhren/veringern ohne das andere Einheiten des Chips mit geändert werden müssen. Wir werden sehen wie ein 512Bit SI G8X aussehen wird, vorallem dessen abgespeckte Version.

saddevil
2007-01-24, 00:48:33
das SI hängt ja am cluster ...
je nach dem wieviel cluster drin sind ... fällt auch das Si dementsprechend aus
ein cluster ohne SI funzt nicht


es sei denn NV führt wieder eine SI Crossbar ein

Coda
2007-01-24, 01:10:46
das SI hängt ja am cluster ...
je nach dem wieviel cluster drin sind ... fällt auch das Si dementsprechend aus
ein cluster ohne SI funzt nicht

Nein hängt es nicht. Es hängt davon ab wieviele ROPs verbaut sind. Es ist eine Crossbar zwischen Clustern und ROPs vorhanden, d.h. es können theoretisch n Cluster mit m ROPs kombiniert werden, wobei n und m natürliche Zahlen sein müssen ;)

Ich höre auch immer wieder von 256 Bit im Mainstream. Wir werden sehen. Eigentlich würde ich auch eher auf 192 bit tippen. Aber evtl. gefällt das den Marketing-Leuten wegen den krummen RAM-Zahlen ja nicht. Wer weiß...

saddevil
2007-01-24, 01:45:55
hmm ... dann abwarten tee rauchen

LovesuckZ
2007-01-24, 11:39:46
Ein größeres SI brauch nicht unbedingt mehr an allen Einheiten.

Das stimmt natürlich.
Aber ich glaube, dass wir keinen G80 mit 8 Cluster und 8 ROPs Partionen sehen werden.

saddevil
2007-01-24, 11:45:56
am anfang stand doch mal das ein cluster ein 64bit SI hat .. oder??
und die ROPs da mit dranhängen , aber keinen direktzugriff über den SI haben ..oder?



also 512bitSI wären ja 8 cluster ...
bei der jetzigen chipgröße mit 6 clustern ..
wäre das ganz schön heftig


im mainstream würden die 3- 4cluster ( 192-256bit ) passen
low-end wären dann 2 cluster --( 128bit )

reunion
2007-01-24, 11:51:47
am anfang stand doch mal das ein cluster ein 64bit SI hat .. oder??
und die ROPs da mit dranhängen , aber keinen direktzugriff über den SI haben ..oder?



also 512bitSI wären ja 8 cluster ...
bei der jetzigen chipgröße mit 6 clustern ..
wäre das ganz schön heftig


im mainstream würden die 3- 4cluster ( 192-256bit ) passen
low-end wären dann 2 cluster --( 128bit )

Wie Coda schon sagte sind die ROP- und die Shadercluster durch eine Crossbar getrennt. Hier kann also beliebig skaliert werden. Was stimmt, ist, dass jeder ROP-Cluster zwangsläufig ein 64-bit SI hat, da hier auf die Crossbar verzichtet wurde.

saddevil
2007-01-24, 11:55:49
NV wird dort aber sicherlich ein gewisses "gleichgewicht" finden
die werden nicht 128 shader mit 2ROPs verbinden

mal sehen was wir sehen werden ..

Ailuros
2007-01-24, 13:29:11
Um eine moegliche Verwirrung zu entgehen, schlage ich vor dass man clusters, clusters nennt und die ROP-Dingsbumse dann eben partitions. Sonst klingt das Ganze am Ende zu ver-clustered ;)

Neben dem ueblichen INQ Schwachsinn, gibt es schon ein paar wertvolle Infos die man hier herausfischen kann: http://www.theinquirer.net/default.aspx?article=37163

Gast
2007-01-24, 18:44:29
Hoffe das wurde hier noch nicht erwähnt:
Bei dem Gerät soll die Grafikdarstellung von einem neuen Nvidia Grafikchip übernommen werden. Dabei handelt es sich nach Angaben des Herstellers um das Modell GeForce Go 8600, das in diesem Fall mit 512 Megabyte dediziertem GDDR3-Speicher ausgestattet wird.

Während der Chiptakt weiterhin unklar bleibt, ist bekannt, dass der neue Grafikprozessor für Notebooks mit 12 Pixelpipelines arbeitet und der Speicher über ein 256-Bit-Interface angesprochen wird.

http://www.winfuture.de/news,29629.html

nordic_pegasus
2007-01-24, 19:17:51
Hoffe das wurde hier noch nicht erwähnt:

genau das habe ich auch gerade auf winfuture gelesen und mich stark gewundert. Auf der verlinkten Herstellerseite finde ich nichts zu dem genannten Notebook, und 12 Pipelines kommen mir spanisch vor. Das 256bit SI wäre natürlich topp.

AnarchX
2007-01-24, 19:30:30
Sehr sonderbare Specs die da winfuture bekannt gibt, ich frag mich woher sie diese haben. :|

Da 256Bit SI würde ich persönlich mittlerweile bei G84 ausschliessen.

Gast
2007-01-24, 19:35:13
Die Informationsquelle steht in den News:

nach Angaben des Herstellers

Das wäre in diesem Fall Zepto, wahrscheinlich per Pressemitteilung?

deekey777
2007-01-24, 19:39:21
"G8x" Design Kit Analysis (http://www.dailytech.com/article.aspx?newsid=5768)
The G86 and G84 GPUs are expected to launch before Cebit 2007 this March.
Wenn das Teil mit den Vorgängern pinkompatibel ist, dann... Äh, keine Ahnung. Was wären denn die möglichen Folgen?

Endorphine
2007-01-24, 19:49:26
"G8x" Design Kit Analysis (http://www.dailytech.com/article.aspx?newsid=5768)

Wenn das Teil mit den Vorgängern pinkompatibel ist, dann... Äh, keine Ahnung. Was wären denn die möglichen Folgen? Nicht mehr als 128-Bit SI meiner Meinung nach.

AnarchX
2007-01-24, 19:51:37
Wenn das Teil mit den Vorgängern pinkompatibel ist, dann... Äh, keine Ahnung. Was wären denn die möglichen Folgen?

Na was wohl, man könnte G84 auf ein 7600er-PCB setzen, wobei das etwas fraglich ist, da ja dieses nur über den PCIe-Slot versorgt wird.

Aber da passt doch momentan einiges nicht zusammen:
G84 pinkompatibel zu G73, was aber dann nicht zu einem G84 mit 256Bit SI passen würde, der von Zepot versprochen wurde.

Wobei ich auch eher 128Bit + pinkompatibel Variante tendieren würde.

Aber viel würde ich wiederrum auf die news von Dailytech nicht geben, da sie ja von Beareyes recyclen, welche von einem 256Bit G84 erzählen und aber ein 128Bit PCB zeigen.

mapel110
2007-01-24, 20:01:21
Also im Mainstreambereich würd ich auch eher 128bit SI und hochgetakteten GDDR4-Ram tippen. Zumindest nvidia hat das ja immer wieder gemacht. Geforce 6600 und so. Das dürfte die preiswerteren Gesamtkarten bringen. PCB-Kosten sollten gegenüber den Ram-Kosten die größere Rolle spielen.

deekey777
2007-01-24, 20:12:10
Als erstes, was mir in den Kopf kam: Die Mittelklasse aus Kalifornien war eigentlich immer ein halber Highendchip. Beim G84 wären das 192 bit beim SI, 3 ROP-Cluster usw.
128 bit bedeuten aber zwei ROP-Cluster (2*64 bit). 256 MiB VRAM sind bei der Mittelklasse normal, 512 MB wären der nächste Schritt, also müssten Speicherchips auf der Rückseite verbaut werden (oder gibt es schon Speicherchips > 512 Mbit?), was die Platine unnnötig teurer machen würde.
Zwei ROP-Cluster bedeutet 8 ROPs a la G80. Was bei einem 128-bitigen SI ausreichend ist (besser gesagt 2*64).
Was gegen 256 bit spricht, sind die dafür benötigten vier ROP-Cluster.

reunion
2007-01-24, 20:23:18
Aber viel würde ich wiederrum auf die news von Dailytech nicht geben, da sie ja von Beareyes recyclen, welche von einem 256Bit G84 erzählen und aber ein 128Bit PCB zeigen.

ACK. Kann mir kaum vorstellen, dass G84 pinkompatibel mit dem Vorgänger sein soll. Hier handelt es sich doch um eine völlig neue Generation, und nicht nur um einen kleinen Refresh. G84 dürfte eine wesentlich aufwändigere Stromversorgung, womöglich ein breiteres SI, zwei SLi-Stecker wie bei G80, zusätzliche Anschlüsse für den externen 2D-Teil, etc. und damit auch mehr Pins benötigen.

Coda
2007-01-24, 20:26:38
Zwei SLI-Stecker? Das hat ja nichtmal die 8800 GTS ;)

Ich bin viel mehr mal gespannt ob wir NVIO auch bei den kleinen G8x-Karten sehen werden :)

reunion
2007-01-24, 20:28:18
Zwei SLI-Stecker? Das hat ja nichtmal die 8800 GTS ;)


Sorry, ich dachte das sei jetzt auch bei nV üblich. Für was verwendet die GTX dann den zweiten Anschluss?

Ich bin viel mehr mal gespannt ob wir NVIO auch bei den kleinen G8x-Karten sehen werden :)

Sofern man die Taktraten der ALUs in ähnliche Regionen hieven will, sollte das fast Pflicht sein, oder nicht?

Coda
2007-01-24, 20:29:19
Bisher braucht man den gar nicht. Ist wohl für Tripple-SLI oder sonstige Späße vorgesehen.

Headman
2007-01-24, 22:07:56
Der G84 wird wahrscheinlich in die gleiche Kerbe schlagen wie 7600 und 6600 vor ihm: 40-50 W Stromverbrauch und 128 bit Speicherinterface. Mehr als 128 Bit wären für einen Mainstream Notebookchip sowieso zuviel, schließlich soll das Teil auch noch in ein 14" Notebook passen (wie die 7600 jetzt).

Ailuros
2007-01-24, 22:52:14
Als erstes, was mir in den Kopf kam: Die Mittelklasse aus Kalifornien war eigentlich immer ein halber Highendchip. Beim G84 wären das 192 bit beim SI, 3 ROP-Cluster usw.
128 bit bedeuten aber zwei ROP-Cluster (2*64 bit). 256 MiB VRAM sind bei der Mittelklasse normal, 512 MB wären der nächste Schritt, also müssten Speicherchips auf der Rückseite verbaut werden (oder gibt es schon Speicherchips > 512 Mbit?), was die Platine unnnötig teurer machen würde.
Zwei ROP-Cluster bedeutet 8 ROPs a la G80. Was bei einem 128-bitigen SI ausreichend ist (besser gesagt 2*64).
Was gegen 256 bit spricht, sind die dafür benötigten vier ROP-Cluster.


Abgesehen davon dass es mir gleichgueltig ist ob es jetzt insgesamt 128 oder 256bit sind, 3 ROP partitions entsprechen rein "zufaellig" 12 pixel pipelines. Wenn es noch irgend ein Element in heutigen GPUs gibt dass man "pixel pipeline" nennen koennte sind es ROPs.

robbitop
2007-01-25, 11:58:02
Abgesehen davon dass es mir gleichgueltig ist ob es jetzt insgesamt 128 oder 256bit sind, 3 ROP partitions entsprechen rein "zufaellig" 12 pixel pipelines. Wenn es noch irgend ein Element in heutigen GPUs gibt dass man "pixel pipeline" nennen koennte sind es ROPs.
Da hast du IMO falsch gezählt. Pro ROP Partition sind nämlich 32 Z Test Units enthalten und 8 Blender. Eine Pixelpipeline im klassischen Sinne muss pro Takt einen Framebufferzugriff (Color + Z oder Blending) schaffen. Somit würden die ROPs die Zählweise auf 24 Pipes (was Blender angeht) oder auf 48 Pipelines (Color+Z) limitieren. Tatsächlich kann der G84 vermutlich nur 16 Farbwerte aufgrund seiner TAs gleichzeitig bearbeiten. Das wären also im klassichen sinne letztendlich 16 Pipelines. Wie sinnfrei die Zählerei ist, merkt man allerspätestens ab G8x.

Anarchy-HWLUXX
2007-01-25, 14:48:27
Es geht heiss her beim Inq ...

Nvidia's Geforce G86 gets its specs

http://uk.theinquirer.net/?article=37203

-> 256bit SI wär sehr viel logischer als 128bit wo die Ultra ja auf 7900GT niveau kommen soll




Next Nvidia high end chip will be the G81

http://uk.theinquirer.net/?article=37199

Gerüchte um 65nm.




Beide meldungen stammen von Beareyes ab ...

mapel110
2007-01-25, 14:55:11
-> 256bit SI wär sehr viel logischer als 128bit wo die Ultra ja auf 7900GT niveau kommen soll


Höherer Ramtakt bringts auch und sollte dann billiger sein. Vorallem weil ja der Preis für den Ram durch höhere Stückzahlen bei Bestellungen auch sinkt. Mid Range wird häufiger gekauft und daher lässt sich dann der Rampreis gut drücken.

Anarchy-HWLUXX
2007-01-25, 15:02:12
Nur ist nicht klar ob so schneller RAM in entsprechenden Stückzahlen überhaupt lieferbar ist ... bei einem Mainstream Produkt muss da einiges mehr eingekauft werden als bei High-End.

AnarchX
2007-01-25, 15:44:02
-> 256bit SI wär sehr viel logischer als 128bit wo die Ultra ja auf 7900GT niveau kommen soll


Nur wurde das 128Bit SI von VR-Zone, die doch seit G80 eine sehr zuverlässige Quelle im Bezug auf nV sind, "bestätigt" und auch B3D fasste dies auf, was meist auch nur passiert, wenn dies sich mit den eigenen Quellen deckt.

dargo
2007-01-25, 16:08:24
Höherer Ramtakt bringts auch und sollte dann billiger sein.
Nicht unbedingt. Für eine Bandbreite von 44,8GB/s (256Bit, 700Mhz) bräuchte man bei einem 128Bit SI schon die doppelte Taktfrequenz, nämlich 1400Mhz. Und diese sind nur mit GDDR4 zu realisieren. Günstig dürfte diese Lösung mit Sicherheit auch nicht sein.

reunion
2007-01-25, 16:08:51
FUAD hat auch einiges beizutragen:
http://www.the-inquirer.net/default.aspx?article=37203
http://www.the-inquirer.net/default.aspx?article=37205
http://www.the-inquirer.net/default.aspx?article=37199

Anarchy-HWLUXX
2007-01-25, 16:12:29
FUAD hat auch einiges beizutragen:
http://www.the-inquirer.net/default.aspx?article=37203
http://www.the-inquirer.net/default.aspx?article=37205
http://www.the-inquirer.net/default.aspx?article=37199

Zwei heirvon hab ich scho gepostet - und das sind nur Übersetzungen der infos von Beareyes ...

seahawk
2007-01-25, 17:33:01
Andere Quellen sagen, dass das nächste Angebot von NV ein 80nm Shrink des G80 ist und schon praktisch fertifg sein soll. Angeblich hat er gar keine eigenen Nummer G8X bekommen.

Gast
2007-01-25, 19:25:22
Andere, schon gar nicht belegte/zitierte/auf sie verwiesene Quellen zählen aber nicht ^^

LovesuckZ
2007-01-25, 19:44:40
The slower card, the Geforce 8300 GS, is again 80 nanometre card with 24 stream processors.
http://www.theinquirer.net/default.aspx?article=37205

Sollte das so eintreffen, dann kan Nvidia anscheinend nicht nur die Cluster sondern auch die 8 Skalaren - Einheiten (Cluster hat 2x8 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5193999&postcount=495) Skalare - Einheiten) deaktivieren.

seahawk
2007-01-25, 19:55:57
Andere, schon gar nicht belegte/zitierte/auf sie verwiesene Quellen zählen aber nicht ^^

z.B. Uttar aus Beyond3D

robbitop
2007-01-25, 20:16:53
http://www.theinquirer.net/default.aspx?article=37205

Sollte das so eintreffen, dann kan Nvidia anscheinend nicht nur die Cluster sondern auch die 8 Skalaren - Einheiten (Cluster hat 8x2 Skalare - Einheiten) deaktivieren.
Ein Cluster hat eine SIMD 16 ALU. Die Info wird wohl falsch sein (oder sie haben den Cluster umgearbeitet, was ich aufgrund der customn design transistoren nicht für sehr wahrscheinlich halte).

Coda
2007-01-25, 20:17:26
Es sind 2x8...

LovesuckZ
2007-01-25, 20:47:15
Es sind 2x8...

Ja, das meinte ich.

Ailuros
2007-01-26, 05:59:08
Da hast du IMO falsch gezählt. Pro ROP Partition sind nämlich 32 Z Test Units enthalten und 8 Blender. Eine Pixelpipeline im klassischen Sinne muss pro Takt einen Framebufferzugriff (Color + Z oder Blending) schaffen. Somit würden die ROPs die Zählweise auf 24 Pipes (was Blender angeht) oder auf 48 Pipelines (Color+Z) limitieren. Tatsächlich kann der G84 vermutlich nur 16 Farbwerte aufgrund seiner TAs gleichzeitig bearbeiten. Das wären also im klassichen sinne letztendlich 16 Pipelines. Wie sinnfrei die Zählerei ist, merkt man allerspätestens ab G8x.

http://www.beyond3d.com/reviews/nvidia/g80-arch/images/g80-diag-full.png

http://www.beyond3d.com/reviews/nvidia/g80-arch/index.php?p=05

robbitop
2007-01-26, 09:58:29
Das widerlegt meine Aussage nicht im Geringsten. Eher stärkt es sie.
Pro ROP Partition gibt's 4x (8c+z) und 4x 2 Blender. Und das ganze dann nochmal bei drei ROP Partitionen. sind dann 3x4x8 imd 3x4x2. So what?

Ailuros
2007-01-26, 13:25:47
G80 = 24 ROPs, 6 partitions / 2 = 12 ROPs, 3 partitions.

deekey777
2007-01-26, 16:21:16
Andere Quellen sagen, dass das nächste Angebot von NV ein 80nm Shrink des G80 ist und schon praktisch fertig sein soll. Angeblich hat er gar keinen eigenen Nummer G8X bekommen.
Vielleicht so was wie G80-B1 wie beim Shrink des G73 auf 80 nm.=)