PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF104 - Q2/2010 - und andere GF10x


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11

Dural
2010-09-20, 20:49:09
Wenn sie sich gut fertigen lassen, warum werden die GF104 und GF106 nur teildeaktivert verbaut? A1 sagt eher, dass Nvidia keine andere Wahl hatte, als teildeaktivierte GPUs fertigen zu lassen.

GF106 gibt es schon jetzt voll!!! ;)

http://www.nvidia.com/object/product-geforce-gtx-460m-us.html

Die GTS450 zählt für mich da nicht, da fehlen nur 8ROPs die weder beim GF100 noch beim GF104 ein problem darstellen, da beide GPUs auch mit vollen ROP ausgeliefert werden!

Gast
2010-09-20, 20:59:08
Dagegen spricht aber, dass die GTS 450 Karten alle ein 192-Bit PCB haben und auch der Die wohl als KA, KB, KC-Version vorliegt, je nach deaktivierter ROP-Partition.

Wäre da kein Problem bzw. Nvidia wöllte nicht die Ausbeute maximieren, dann wäre immer nur eine Partition beim GTS 450 Chip deaktiviert und die Hersteller könnten auf etwas kostengünstigere 128-Bit PCBs setzen.

OgrEGT
2010-09-20, 21:15:27
Ich glaube aufgrund der derzeitig kaum gesicherten Informationen über die nächsten NV Chips, macht es wenig Sinn darüber zu streiten, was denn der Grund ist, warum NV im Destopbereich auf teildeaktiveirte Chips setzt. Da ist von 0 (teildeaktiviert aufgrund von Design/Fertigungsproblemen) bis 100 (Vollausbauvarianten werden aussreichend selektiert um ATI's NI zu kontern) alles denkbar.

Shaft
2010-09-20, 22:31:18
475 GTX kommt sie oder nicht?

Und wann wäre mit ihr zu rechnen?


Ansonsten habe ich die 460 GTX im Auge, wenn auch nur als Zwischenlösung, OC ab Werk von Gigabyte oder MSI sollte mir vorübergehend genügen.

Spasstiger
2010-09-20, 22:37:59
Eine GTX 475 (oder GTX 468 oder wie auch immer) auf Basis des GF104 kommt bestimmt. 384 SPs, 64 TMUs, 256 Bit SI, ~750 MHz Chiptakt und ~1000 MHz Speichertakt. Und OC-Varianten davon mit bis zu 850 MHz Chiptakt.

aylano
2010-09-20, 22:46:48
Dafür ist der Markt nicht groß genug.
Ich rede ja nur z.B. von einem Geforce-High-End mit 576 Shader auf GF104-Basis.
Der Markt ist sicher groß genug, da man sich jetzt so den ganzen High-End-Markt zusammengehaut hat, sowie sein gutes Image geschrumpft hat.


und wie so es kein voller GF104 derzeit gibt dürfte mitlerweilen JEDER begriffen haben, das würde mit einem schlag die GTX470 EOL machen... und eine GTX475 müsste her, die aber der GTX480 gefährlich nahe kommen müsste was nichts anderes bedeutet das NV einen GF100 512SP und 700MHz + benötigen würde was derzeit wohl gar nicht möglich wäre (verbrauch) und zurfolge einen GF100b braucht (den es noch nicht gibt!) der da abhilfe schafft....

entlich geschnallt? ;)
1) Wenn laut dir eine GTX470 aufgrund eines Vollen GF104 passiert wären, dann wäre ein GTX465 heute auch EOL. Aber dem ist nicht so.
Man soll generell den GTX465 nicht ignorieren.

2) hätte man genausogut einen verbesserten GF104 mit GTX465 benennen und schneller&teurer machen können und den GTX465 in GTX460 benennen können.
Denn GTX465 und GTX460 sind ja recht kurz hintereinander gekommen;-)

3) GTX460 hat eben deswegen ein so gutes Preisleistungsverhältnis weil der Preis dementsprechned niedirig ist. Man hätte den Preis auch höher ansetzten können.

Die Sache ist die. Genau als GTX460 eingeführt wurde, sind die Preise von GTX470 und vorallem die GTX465 ordentlich gefallen.

Kurz gesagt:
So klar ist das nicht, wie sich das manche Vorstellen.
Interessant ist auch zu lesen, wie stark manche die Meinung über die Wirtschaftlichkeit des GF100 geändert haben als GTX460 eingeführt wurden.

Ailuros
2010-09-21, 08:51:00
Ich sehe kein Problem einen GF100 bzw. Nachfolger für den Profi-Markt und einen für GF zu entwickeln.

Nur müsste Nvidia neben dem Spitzen-Modell auch ein Masse-Modell (niedriger Takt und eventuell höherer Spannung) und ein Drittes Modell (defekte einheiten werden Teildeaktiviert) anzubieten.

Zuest halt nur das Spitzen-Modell (GF 100 & Nachfolger), was sowohl im Tesla als auch im Quadro-Markt verwendet werden kann.
Immerhin macht Nvidia da jetzt 200 Mio. $ Umsatz. Das ist fast so viel wie AMD zu schlechten Zeiten, wo sie die vollständige R&D-Kosten sowie 3-4 Die-Designs auf den Gesamten Umsatz-Umlegen mussten.

Nach 2008 wo die GF10x@40G road-map so gut wie in Stein gemetzelt war, war es wohl schwer fuer NV die eigentlichen Probleme von 40G generell und auch teilweise die vom GF100 vorhersehen zu koennen. Ich bin immer noch die Meinung dass sie die ehemalige GT212@40G irgendwo in 08' storniert haben und dessen Resourcen ins GF104 Team investiert.

Wie dem auch sei nach NV selber irgendwo zu diesem Zeitpunkt lautete ihre Projektion fuer R&D Kosten fuer die gesamte GF10x Familie knapp unter $1 Mrd. Diese Summe streckt sich zwar offensichtlich ueber mehr als eine Produkt-"Generation" aber es ist trotz allem eine Mordssumme die irgendwie wieder reinfliessen muss.

Quadro haelt sich insgesamt ausgezeichnet bis jetzt ohne dass irgendwelche Fermi basierenden SKUs da schon mitgezaehlt wurden, Tesla ist immer noch ein relativ winziger Markt, GeForce hat zwar einen guten Schwung mit 104 gesehen aber insgesamt den Verlust durch die GF100 Verspaetung und eher lauwarmen Verkaufsvolumen des letzteren auch nicht so leicht decken, IGP ist am aussterben und Tegra viel bei ihren eigenen Projektionen um genau die Haelfte auf vorhersehbarem Umsatz und dabei ist es nichtmal die einzige Stelle wo forecasts reduziert wurden mit einigen inventory write-offs und was noch an der Seite.

NVIDIA schmeisst (und darf es auch nicht) wild mit Geld herumschmeissen wo es ihnen gerade so passt. Kann sein dass Du kein "Problem" siehst einen ganzen chip extra zu entwickeln aber so ein Ding kostet aber auch nicht weniger als etliche $Mio. Nur ein einziges tape out kostet schon ueber $5Mio und ein chip geht nie durch eins bis zum finalen "tape out".

Im Vergleich zu all dem sind $200Mio Umsatz (aber eben nicht "Gewinn") nicht unbedingt viel. Bei NV (wie wohl auch bei der GDP von AMD) laufen stets 3 verschiedene Generationen gleichzeitig unter Entwicklung.


Kurz gesagt:
So klar ist das nicht, wie sich das manche Vorstellen.
Interessant ist auch zu lesen, wie stark manche die Meinung über die Wirtschaftlichkeit des GF100 geändert haben als GTX460 eingeführt wurden.

Wenn Du GF100 und GF104 relativierst (von mir aus einer Kombination aus die area, Anzahl an Transistoren, Endleistung, Stromverbrauch) ist die letztere nicht unbedingt das achte Wunder der Welt. Wie man es auch verdrehen mag es bleibt dabei dass fuer den ersten 40G Schub ein GF104 ein klein bisschen unter dem realistischen Rand fuer 40G liegt und GF100 eben ein zu grosses Stueck darueber.

Dural
2010-09-21, 10:13:34
ich denke nicht das wir sobald einen vollen GF104 sehen werden, wohl erst wenn GF100b bereit ist oder NV auf 6xxx reagieren muss!


Interessant ist auch zu lesen, wie stark manche die Meinung über die Wirtschaftlichkeit des GF100 geändert haben als GTX460 eingeführt wurden.

Die GTX465 wird nie rentabel sein, das dürfte höchstens ein +/- geschäft sein! OK man könnte jetzt auch sagen gäbe es die 465 nicht würden diese GPU in den müll landen... und somit sind sie "kostenlos" ;) jede verkaufte GPU von einem Wafer trägt die kosten halt auch mit, egal wie teuer die GPU verkauft wird! so gesehen dürfte sogar die GTX465 für NV "rentabel" sein...

an den GTX470 und 480 karten wird sicher was verdient, je nach ausbeute des GF100...

aylano
2010-09-21, 10:24:03
@Ailuros
Was willst damit sagen?
Du willst sagen, ein GF102 mit 576 Shader auf Basis von GF104 hätte 250 Mio. $ ?!
Kommt mir ein bischen viel vor .

Nicht zu Vergessen ist, dass der Umsatz 200 Mio. Euro + High-End-Geforce pro Monat ist.

Wenn man deinen Text liest, dann kommt einem die GF10x-Architektur als schönwetter-Architektur, die absolut unflexbil und Problemanfällig wäre, wenn man sie mit der AMDs R6x0/7x0/8x0-Architektur vergleicht.
Wobei wenn man die GT200-Verspätungen sowie GT21x-Verspätungen & Cancels ansieht, dann war die Architektur schon vorher sehr anfällig
In der heutigen Wirtschaft ist Flexibilität ein Wichtiges Element, um am Markt zu bestehen.


NVIDIA schmeisst (und darf es auch nicht) wild mit Geld herumschmeissen wo es ihnen gerade so passt. Kann sein dass Du kein "Problem" siehst einen ganzen chip extra zu entwickeln aber so ein Ding kostet aber auch nicht weniger als etliche $Mio. Nur ein einziges tape out kostet schon ueber $5Mio und ein chip geht nie durch eins bis zum finalen "tape out".
Ich sehe, viele Mio. $ durch ein viele Stepping, dazu viele verlorene Mio. durch die Verspätete Einführung, dazu einen geringeren Marken-Namen bzw. Image-Wert, sowie viele verlorene Mio. weil Nvidia im High-End-Markt schlecht darstell.
Dazu viele Mio. $ jetzt extra noch ein B-Stepping zu machen.

Auch wenn es viele Shrinks sind, ist Nvidia jene Firma, die die meisten Dies rausbringt. Also, so ein Die-Notstand herscht ja bei Nvidia ja auch nicht.

Wenn Du GF100 und GF104 relativierst (von mir aus einer Kombination aus die area, Anzahl an Transistoren, Endleistung, Stromverbrauch) ist die letztere nicht unbedingt das achte Wunder der Welt. Wie man es auch verdrehen mag es bleibt dabei dass fuer den ersten 40G Schub ein GF104 ein klein bisschen unter dem realistischen Rand fuer 40G liegt und GF100 eben ein zu grosses Stueck darueber.
Verstehe ich nicht ganz.
Das Hauptproblem ist fast "nur" bzw. hauptsächlich der 40G-Prozess?
Wenn das so ist, dann bräuchte Nvidia doch im Herbst keine B-Stepping mehr und die aktuellen Dies müssten doch im Herbst auch deutlich besser sein.

Und falls ich die Fermi-Architektur doch mehr eine unflexible schönwetter-Architektur ist, als ich jetzt annehme, dann wird der Wechseln auf 28nm erst recht wieder interessant für Nvidia. Eben weil es bei TMSC momentan nicht perfekt lief, da 32nm gestrichen wurde.

ich denke nicht das wir sobald einen vollen GF104 sehen werden, wohl erst wenn GF100b bereit ist oder NV auf 6xxx reagieren muss!
Es wäre mal interessant, wie Nvidia reagieren könnte. Mit etwas mehr Takt auf Kosten von Stromverbrauch oder Yieds oder will Nvidia gar mit Teildeaktivierungen reagieren oder mit Verspätungen-wegen-Anpassungen?

Nicht zu vergessen, wir haben bald Oktober.
Anscheinend wird das nichts, nachdem GF106 & GF108 auch nicht in Juni sondern in Sept/Okt kamen.


Die GTX465 wird nie rentabel sein, das dürfte höchstens ein +/- geschäft sein! OK man könnte jetzt auch sagen gäbe es die 465 nicht würden diese GPU in den müll landen... und somit sind sie "kostenlos" ;) jede verkaufte GPU von einem Wafer trägt die kosten halt auch mit, egal wie teuer die GPU verkauft wird! so gesehen dürfte sogar die GTX465 für NV "rentabel" sein...

an den GTX470 und 480 karten wird sicher was verdient, je nach ausbeute des GF100...
Kostenlos ist nur etwas, wenn GTX470 und GTX480 die Wafer-Kosten abdecken und das ist stark zu bezeifeln.
Somit ist die GTX465 sehr wichtig für GF100, da ja nicht nur die Produktionskosten sondern auch die R&D-Kosten hereingeholt werden müssen.
Nicht einmal beim GT200 gabs eine 3. GT200-Karte mit Ramsch-GT200s.

Wer das Geschäftsbericht-Call vom 1Q 2011 hörte bzw. las, konnte eine ziemliche Unsicherheit herauslesen. Nähmlich, ob dei vielen Produzierten GF100-GPUs auch am Ende des nächsten Quartals auch wirklich wie progrnostiziert bzw. wie Nvidia erhoffte/träumte verkauft werden, wo rein Zufällig 465 GTX kam.

Gast
2010-09-21, 10:59:50
Noch ein paar Gerüchte aus dem XSF:
According to my source NV's next high-end GPU will be GF110 which will be based on GF104's Streaming Multiprocessor module structure (48 CUDA cores in SM) and has the same CUDA cores and ROP ratio (12:1). Rest in the news is just speculation in theory. According to same source GTX 490 with two GF104 is canned. I trust my source but roadmaps and plans change all the time so we can't be sure until NVIDIA announces something officially

Finally someone brings that on the sun! Whats i know, this GF102 (old project name) is designed on GF104 philosophy, this is GPU only with modules for Gamers, not HPC servers. Lot of transistors belongs to HPC was removed and replaced more Gamers friendly ones. From this point NVIDIA will have TWO GPUs lines, one smaller Gaming GPU and one Big HPC GPU, not only ONE like today.

I know most important thing, when will be first TWO VGAs on GF110 launched, date will be for EVERYONE great surprise, but i cannot to tell you, sorry.

http://www.xtremesystems.org/forums/showpost.php?p=4559346&postcount=62

Die große Überraschung vielleicht gar noch ein Launch in 2010?

Dural
2010-09-21, 11:16:11
wie so grosse überraschung? das wäre ein jahr nach dem geplanten GF100 termin!

solche Chips werden immer parallel entwickelt und ein überarbeiteter 12x48SP Chip ist jetzt nicht weltbewegentes wa man nicht in der Zeit auf die beine stellen könnte da die architektur schon da ist...

Gast
2010-09-21, 11:45:33
Momentan läuft ja auch die GTC: http://www.nvidia.com/object/gpu_technology_conference.html
Vielleicht zeigt Jensen heute Abend in der Eröffnungskonferenz wieder ein neues "puppy"? ;D

Gast
2010-09-21, 17:38:10
Ein GF100 könnte alleine nie und nimmer die kosten rein holen!



Das ist immer so, die Kosten werden immer auf die ganze Chipfamilie aufgeteilt und ein einzelner Chip davon könnte niemals die Entwicklungskosten verdienen.

lilgefo~
2010-09-21, 17:43:23
Das ist immer so, die Kosten werden immer auf die ganze Chipfamilie aufgeteilt und ein einzelner Chip davon könnte niemals die Entwicklungskosten verdienen.

Zumindest beim nv11 und nv25 duerfte das funktioniert haben.

davidzo
2010-09-21, 21:04:22
und wie so es kein voller GF104 derzeit gibt dürfte mitlerweilen JEDER begriffen haben, das würde mit einem schlag die GTX470 EOL machen...

nvidia hat auch zugelassen dass die 8800GT die 8800GTS320 und 640 kannibalisiert. kurz darauf kam die 8800GTS die mit der GTX kurzen prozess machte dass man mit dem G80 nurnoch die Ultra verkaufen konnte. Und die war lange im Handel, also keine Ahnung wo in dem Fall die Müllchips blieben...
Vermutlich ging das mit tweaks in der Fertigung einher und man hatte schon lange im vorraus chips selektiert.
Bei der 465 und 470 könnte es genauso gehen. Man sortiert schon gute GTX485 und 480 chips aus und bunkert die. Die 465 geht EOL und die 470 wird rabbatiert dass man mehr verkauft als 480er. Sobald die yields stimmen geht die 470 EOL und man verkauft nurnoch GF104 sowie ein paar 480er und 485er.

igg
2010-09-21, 22:26:29
nvidia hat auch zugelassen dass die 8800GT die 8800GTS320 und 640 kannibalisiert. kurz darauf kam die 8800GTS die mit der GTX kurzen prozess machte dass man mit dem G80 nurnoch die Ultra verkaufen konnte.
Die 8800 GTS war schon lange vor der 8800 GT im Handel und hat die GTX bei weitem nicht kannibalisiert. Die 8800 GT (welche deutlich nach der GTS kam) hat das mit der GTS und GTX dagegen gemacht.
Finally someone brings that on the sun! Whats i know, this GF102 (old project name) is designed on GF104 philosophy, this is GPU only with modules for Gamers, not HPC servers. Lot of transistors belongs to HPC was removed and replaced more Gamers friendly ones. From this point NVIDIA will have TWO GPUs lines, one smaller Gaming GPU and one Big HPC GPU, not only ONE like today.

I know most important thing, when will be first TWO VGAs on GF110 launched, date will be for EVERYONE great surprise, but i cannot to tell you, sorry.
Ich glaube AMD bezahlt Leute, dass die hohe Erwartungen stecken, die dann nur noch zu enttäuschen sind ;)

Hugo78
2010-09-22, 06:54:28
Die 8800 GTS war schon lange vor der 8800 GT

G80 basiert ja, G92 basiert kam erst einen Monat nach der 8800 GT.

Ailuros
2010-09-22, 08:57:36
Ich glaube AMD bezahlt Leute, dass die hohe Erwartungen stecken, die dann nur noch zu enttäuschen sind ;)

Pre-launch silly season. Die AMD Spekulationen sind auch nicht besser.

Gast
2010-09-22, 09:18:29
Ich glaube AMD bezahlt Leute, dass die hohe Erwartungen stecken, die dann nur noch zu enttäuschen sind ;)

Das ist ja mal ne neue Variante.

Du glaubst also, das Lovesuckz, Bucklew und Dural für AMD arbeiten um Nvidia schlecht zu machen. :freak:

Dural
2010-09-22, 13:55:38
Ich hab nie hohe erwartungen, ganz im gegenteil... nur als erinnerung ich habe GF100 leistungs mässig ziemlich genau eingeschätzt wo doch die bekannten AMDboys von 50% ausgingen nur weil es AMD mit ihren RV870 nicht besser geschaft hat, so viel zum thema!

nvidia hat auch zugelassen dass die 8800GT die 8800GTS320 und 640 kannibalisiert. kurz darauf kam die 8800GTS die mit der GTX kurzen prozess machte dass man mit dem G80 nurnoch die Ultra verkaufen konnte..


erzähl nicht so ein müll! G80 ging EOL und wurde durch G92 komplett ersetzt! Das hat gerade mal rein gar nichts mit der aktuellen situation zutun und falls du das nicht einsiehst kann man da wohl nicht mehr gross weiter helfen...

NV kann mit dem GF104 den GF100 gar nicht in allen bereichen ersetzten...

Ailuros
2010-09-22, 14:52:41
erzähl nicht so ein müll! G80 ging EOL und wurde durch G92 komplett ersetzt!

Langfristig wohl schon. Aber es gab eine gute Zeit lang parallel G80/G92(a) basierende Quadros die man hauptsaechlich auf Anhieb von den Speichermengen unterscheiden konnte. Damals gab es aber auch kein DP.

Das hat gerade mal rein gar nichts mit der aktuellen situation zutun und falls du das nicht einsiehst kann man da wohl nicht mehr gross weiter helfen...

NV kann mit dem GF104 den GF100 gar nicht in allen bereichen ersetzten...

GF104 hat schon jetzt den 465 ersetzt und der naechste Schub wird wohl dann auch die GTX470 ersetzen. Unter diesem Sinn und hauptsaechlich fuer desktop GPUs sehe ich nichts in seinem Post dass ausserhalb jeglicher Moeglichkeit liegt. Er sagt ja dass es weiterhin GTX48x SKUs geben wird.

Die eigentliche Frage ist ob und wann sie GF104 chips fuer Quadros benutzen werden. Je besser sie mit der Zeit die Produktion von GF100 chips in Griff bekommen desto unwirtschaftlicher wird es werden hier 8SM/GF100 chips zu benutzen.

Bucklew
2010-09-22, 16:01:54
Aber es gab eine gute Zeit lang parallel G80/G92(a) basierende Quadros die man hauptsaechlich auf Anhieb von den Speichermengen unterscheiden konnte. Damals gab es aber auch kein DP.
Bitte? Welche Quadro soll das denn gewesen sein?

Es gab die großen FX5600/4600, die waren G80 basierend. Dann gab es eine FX3700 und eine 4700X2, die jeweils G92 basierend waren. Aber Quadros mit identischem Namen und unterschiedlichen Chips gab es nie.

davidzo
2010-09-22, 16:07:59
erzähl nicht so ein müll! G80 ging EOL und wurde durch G92 komplett ersetzt!

schwachsinn, die Ultra hat man im April, die GT im Oktober 2007 vorgestellt.
Erst im April 2008 bekam die Ultra dann G92konkurrenz in Form der 9800GTX, so richtig abgelöst wurde sie mangels überzeugender Leistung letzterer dann aber erst von der GT2xx serie.
Die Ultra wurde praktisch sogar über einen längeren zeitraum neben G92 basierten performancekarten nebenherverkauft als neben G80 basierten mainstreamkarten.

Dasselbe kann man auch mit der GTX480 machen. Dass der Gf104 die unteren SKUs von GF100 kannibalisiert wird einem schon in der konzeptionellen phase bekannt gewesen sein, nicht erst kurz vor dem launch als man die einheitenzahlen und taktraten festlegte. GF104 ist eben so konstruiert, dass er alle Bereiche von Gf100 bis auf die höchsten SKUs abdecken kann und das ist bestimmt kein Zufall.

Dural
2010-09-22, 18:39:28
du verstehst es einfach nicht... die Herstellung von G80 wurde eingestellt! G80 hatte keine Ausbeutungs Probleme! G80 hatte mit G92 einen Quasi 1:1 nachfolger! Das es da zu überschneidungen kam ist nur logisch und wird es so auch immer geben, hat abe rnichts mit dem Thema zutun!

Was das um alles in der welt jetzt mit GF100 vs GF104 zutun hat ins mir ein rästel! ein GF104 wird den GF100 nie ersetzten können Punkt aus Schluss!

und was wollt ihr eigentlich, die fakten liegen ja auf der hand und die zeigen bis jetzt kein voller GF104, darüber muss man gar nicht mehr diskutieren! früher oder später wird er sicher kommen, aber erst wenn es so weit ist!



Aber mal was anders, NV hat den "GF110" ja schon bestätigt:

Für die zeitliche Lücken zwischen jetzt und Kepler erwähnt Jen-Hsun noch einen "mid life kicker", über den man aber sonst nichts weiter verraten wollte.

http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=16609 &catid=60&Itemid=203

also dürfte es spätestens bis Q2 2011 einen neuen Chip geben, wie der auch immer aussehen mag...

igg
2010-09-22, 19:27:36
Aber mal was anders, NV hat den "GF110" ja schon bestätigt:
http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=16609 &catid=60&Itemid=203
also dürfte es spätestens bis Q2 2011 einen neuen Chip geben, wie der auch immer aussehen mag...
Oder GF102?
Ich erwarte den aber früher als Q2 2011. Wenn die neuen AMD GPUs in wenigen Wochen kommen sollte Nvidia nicht zu lange warten...

Iruwen
2010-09-22, 23:01:30
Die können auch nicht zaubern, besser als ein Schnellschuss. Sowas wie GF100 können die sich nicht gleich nochmal erlauben.

Gast
2010-09-24, 17:42:50
PCGH spekuliert bezüglich Geforce 100b. Das würde dann der Kontrahent zur HD 6000 werden.

Details hier http://www.pcgameshardware.de/aid,775793/GF110-alias-Geforce-GTX-485-oder-GTX-490-macht-die-Runde/Grafikkarte/News/

=Floi=
2010-09-24, 23:46:32
Quasi 1:1 nachfolger!

das will ich überhört haben. der g80 war weit besser und "breiter" wie der g92. der g92 war nur billig für nv und eher ein performance chip. Auf dem papier hat der G92 schöne werte stehen und in der praxis bricht die karte dann weg, weil man sie überfordert!
Beim G92 fehlt es an ROPs, am speicherinterface und am vram.
Die vielen TMUs und die hohe shaderleistung bringt die karte nicht auf den boben.

y33H@
2010-09-25, 00:00:19
Ich erinnere mich an Leute, die ihre 8800 Ultra gegen eine 8800 GT getauscht haben ... dabei hält die Ultra heute teils noch mit einer HD 5750 mit :ulol:

Gast
2010-09-25, 01:04:35
Mit ner HD6870 in deinen Augen

LovesuckZ
2010-09-25, 01:28:31
PCGH spekuliert bezüglich Geforce 100b. Das würde dann der Kontrahent zur HD 6000 werden.

Details hier http://www.pcgameshardware.de/aid,775793/GF110-alias-Geforce-GTX-485-oder-GTX-490-macht-die-Runde/Grafikkarte/News/

Wenn nVidia auf 40nm noch etwas bringen werde, dann ist es ein GF104*1,5 mit 256bit Speicherinterface. Das sollte alles in <=450mm^2 passen und mit ca. 725Mhz wäre man ca. 20-30% schneller als eine GTX480 bei einem maximalen Verbrauch <225 Watt.

12SM reichen dann auch aus, um die Setup-Engines mit Tessellation zu 100% ausnutzen zu können.

Nightspider
2010-09-25, 03:11:56
das will ich überhört haben. der g80 war weit besser und "breiter" wie der g92. der g92 war nur billig für nv und eher ein performance chip. Auf dem papier hat der G92 schöne werte stehen und in der praxis bricht die karte dann weg, weil man sie überfordert!
Beim G92 fehlt es an ROPs, am speicherinterface und am vram.
Die vielen TMUs und die hohe shaderleistung bringt die karte nicht auf den boben.

Vom Mangel hat man nicht viel gemerkt. Die 8800gt war ne super Karte.

Ich erinnere mich an Leute, die ihre 8800 Ultra gegen eine 8800 GT getauscht haben ... dabei hält die Ultra heute teils noch mit einer HD 5750 mit :ulol:

Ich habe meine 8800 GTX auch gegen ne 8800GT getauscht. Hab ca. 150-200 Euro gut gemacht und hatte nen stromsparenderen PC.

Leistungstechnisch habe ich damals fast keinen Unterschied gemerkt, außer in Settings die ey nicht flüssig liefen und von daher irrelevant waren.

Spasstiger
2010-09-25, 04:36:57
Die schnellste G92-Karte ist durchweg schneller als die schnellste G80-Karte. GeForce GTS 250 1024 MiB vs. GeForce 8800 Ultra.

Leonidas
2010-09-25, 06:54:35
PCGH spekuliert bezüglich Geforce 100b. Das würde dann der Kontrahent zur HD 6000 werden.

Details hier http://www.pcgameshardware.de/aid,775793/GF110-alias-Geforce-GTX-485-oder-GTX-490-macht-die-Runde/Grafikkarte/News/


Jein. Die schreiben mehr oder weniger das, was wir auch schon zum Thema GF110/GF100b notiert hatten:
http://www.3dcenter.org/news/2010-09-16

Gast
2010-09-25, 09:39:57
Die schnellste G92-Karte ist durchweg schneller als die schnellste G80-Karte. GeForce GTS 250 1024 MiB vs. GeForce 8800 Ultra.

Toll, wieviele Jahre und Shrinks später? G80 in 55 nm mit entsprechend Taktraten, Ram genauso auf dann 1,5 GB verdoppelt und gg für GTS 250 .....

G92 war ein guter Performancechip und letzendlich sehr langlebig für NV aber doch niemals ein G80 ersatz in From von 88 GT und 88GTS; vor allem nicht in den Enthusiasten Bereich mit SLI oder damals grad aufkommenden T-SLI. 9800 GX2 - wirklich tolle Karte :freak:

Die echten "immer schnelleren" Nachfolger waren die GTX 200er.

OT: Ich kann mich sogar noch errinern das die 88GTS 640 96 Shader die 88GT in DX 9 mit AA manchmal ganz knapp schlagen oder zumindest ein unentschieden erkämpfen konnte. Die extrem seltene (und kurzlebige) Spezies 88 GTS 640 112 Shader hat dann gereicht um mit einer 88 GT durchweg den Boden zu wischen ....

Dural
2010-09-25, 11:24:01
die meisten gts250 sind sogar langsamer als die 9800gtx+

und langsamer war der G92 auch nur in bereichen wo die damals üblichen 512mb speicher nicht ausreichten und der g80 mit seinen 768mb vorteile hatte.

edit:

9800gtx+ test mit 8800
http://www.computerbase.de/artikel/grafikkarten/2008/test-ati-radeon-hd-4850-cf-und-hd-4870/26/#abschnitt_performancerating

GTS250 test mit 9800GTX+ aber ohne 8800
http://www.computerbase.de/artikel/grafikkarten/2009/test-nvidia-geforce-gts-250/20/#abschnitt_performancerating_qualitaet

Gast
2010-09-25, 11:47:02
die meisten gts250 sind sogar langsamer als die 9800gtx+

Genau, leider hat NV für GTS 250 keinen festen Daten vergeben, sodass man diverse Green Edition mit weniger als 1,5GHz Shadertakt und nur 900MHz Speichertakt bekommt. :down:

Spasstiger
2010-09-25, 14:04:20
Ich rede natürlich von der vollwertigen GTS 250 1024 MiB mit 738 MHz Chiptakt, 1836 MHz Shadertakt und 1100 MHz Speichertakt. Eben so wie von NV beworben: http://www.nvidia.com/object/product_geforce_gts_250_us.html (soviel zu "keine festen Daten" :rolleyes:).
Hier kann man sie (GTS 250 'Fast') mit einer 8800 GTX vergleichen, der Vorsprung ist meist komfortabel:
http://www.pcgameshardware.de/aid,677473/Test-Geforce-GTS-250-Drei-neue-Grafikkarten-auf-dem-Pruefstand/Grafikkarte/Test/
Teilweise scheint der 8800 GTX sogar der Grafikspeicher auszugehen im Vergleich zur GTS 250 1024 MiB.

davidzo
2010-09-25, 16:14:36
Ich rede natürlich von der vollwertigen GTS 250 1024 MiB mit 738 MHz Chiptakt, 1836 MHz Shadertakt und 1100 MHz Speichertakt. Eben so wie von NV beworben: http://www.nvidia.com/object/product_geforce_gts_250_us.html (soviel zu "keine festen Daten" :rolleyes:).
Hier kann man sie (GTS 250 'Fast') mit einer 8800 GTX vergleichen, der Vorsprung ist meist komfortabel:
http://www.pcgameshardware.de/aid,677473/Test-Geforce-GTS-250-Drei-neue-Grafikkarten-auf-dem-Pruefstand/Grafikkarte/Test/
Teilweise scheint der 8800 GTX sogar der Grafikspeicher auszugehen im Vergleich zur GTS 250 1024 MiB.

hier werden nun wirklich äpfel mit birnen verglichen. die Frage war eher ob der erste G92 den G80 abgelöst hat und das ist zeitlich auf den rahmen 2007-8 zu beschränken wofür man ein klares "Nein" als antwort geben kann.

Eine GTS250 gab es zu zeiten der 8800GT gar nicht. es gab sowieso als highendSKUs nur die GTX und Ultra, bis dann mittendrin die GTS512 dazukam. Selbst dann hat die 8800Ultra das highend der 8000er Serie dargestellt, eben bis die 9000er Serie vorgestellt wurde.

Erst ab da kann von einem auslaufen des G80 die Rede sein, obwohl die Ultra pratisch noch die Spitzenpositon inne hatte. Was die Lieferbarkeit angeht, war sie zu zeiten der 9800GTX+ dann aber spätestens verschwunden.

Trotzdem hat der G80 lange gehalten, fast solange wie ur-G92 selber (ich zähle den refresh g92b nicht mehr dazu, der fällt eher in richtung gt200 zeitlich). Man kann also durchaus sagen dass beide chips parallel liefen (ein ganzes jahr zu unterschlagen ist einfach falsch).

Es hat eben funktioniert mit dem g80 eine zeitlang nur noch highend SKUs zu beliefern! Fertigungsprobleme hatte man hier also nicht mehr, der trend wird auch schon klar unterstrichen durch die frühe einstellung der abgespeckten G80 modelle 8800GTS 320 und 640 mit dem erscheinen der G92 GT. Die Resteverwertung beim G80 war also relativ früh beendet worden, wenn man die yieldverbesserungen dann weiter interpoliert, ist der Umstieg auf zuerst zwei (GTX&Ultra) und später nur noch eine SKU (Ultra) durchaus plausibel und möglich.

Sollte man bei GF100 einen ähnlichen hasen aus dem Hut ziehen, so kann man sehr wohl die GTX470 gegenüber einer GF104 GTX475 streichen. Erscheint dann noch eine vollausgebaute gtx485 512sp, neben der normalen 480, dann haben wir die klassiche GT, GTS, GTX, Ultra Konstellation, die zu den besten Zeiten der Geforce 8000er Serie bestand.
Man kann jetzt streiten dass der Abstand zwischen 475 und 480 größer ist als der zwischen GTS und GTX, aber jeder vergleich ist nunmal nicht mehr als das - ein vergleich eben, keine kopie derselben situation. Und da nvidia die gtx460 selbst als neue 8800gt beschrieben hat, ist dieser vergleich gar nicht so abwegig.


Trotzdem halte ich die Wahrscheinlichkeit für einen GF110 aka 1,5*GF104 für sehr hoch.
Allerdings bestimmt nicht mit 256bit wie lovesuckz das glaubt. Das wären nicht 1.5*GF104 und bestimmt auch nicht 3* GF106. Würde also in die aktuelle Architektur überhaupt nicht passen und der chip würde völlig absaufen ohne speicherbandbreite. es ist eher unwahrscheinlich dass nvidia nun plötzlich die speichertakte von 1800mhz auf weit über 2,2ghz erhöht, das hätte man bereits bei GF106 gemacht damit der nicht so riesig werden. 384bit ist schon für GF100 sinnvoll und für GF110 der potentiell stärker ist daher auch das minimum.

Dural
2010-09-25, 16:43:19
Klar hat der G92 den G80 abgelöst, es sind ja schlisslich auch eigentlich identische chips / eine weiter entwicklung des G80! Die Herstellung des G80 wurde als der G92 da war eingestellt! Der Lager bestand was aber noch gross... und angeblich hatte NV sogar mühe die restlichen G80 los zu werden weil alles G92 wollte...

8800GTX und 8800GTS 640MB wurde Offiziell im Januar 2008 eingestellt und NV nahm keine Bestellungen mehr an!

Der G92 hat leichte verbesserungen wie volle 64 TAUs anstelle der 32 des G80 und die ROPs wurden etwas überarbeitet so das NV nur noch mit 16 / 256Bit auskam und der G92 ist sogar auch etwas grösser als der G80 usw. aber im grossen und ganzen ist es der selbe chip!

von der 8800GTS G92 gab es auch 1024MB versionen! (nicht offiziell)

Eine GTS250 1GB mit vollem takt wird immer schneller als ein G80 sein, da deutlich mehr Takt + ROP veränderungen

NV hat einfach sinnloserweise noch die 98xx serie nachgeschoben, wie so auch immer... nur 2 monate nach 9800GTX kam der GT200 auf den Markt... die beweggründe seitens NV sind für mich bis heute nicht ganz klar...

NV war wenigstens noch so fair und hat den G92 am anfang in der 8800 serie verkauft, was AMD mit ihrem RV670 von anfang an nicht getan hat und eine neue "Generation" gestartet hat... Vileicht war das einer der bewegründe für NV doch noch die 9000 serie zustarten...

Iruwen
2010-09-25, 19:18:08
Und was hat das alles mit GF10x zu tun?

davidzo
2010-09-25, 20:06:36
er wollte doch nur mal ein bisschen zeigen wie schlau er ist und was für ein gutes gedächtnis ganz bis 2007 er hat. sicher, spekulation über bereits vorhandenes ist eine spannende sache, schließlich weiß man ja viel mehr drüber als über noch nicht offiziell bestätigte produkte.

bezüglich GF104 vs GF100 denke ich allerdings, das früher oder später die GF100 SKUs zusammengestrichen werden. Die Frage ist nur ob GF100 dann überhaupt noch lange zu leben hat.
Entweder man macht mit einem vollen Gf104 mehr kohle im Stückzahlenmäßig enorm wichtigen Performancesegment oder man setzt stattdessen teildeaktivierte teure highendchips ein - was macht mehr Sinn?
Ich erwarte den vollen GF104 jeden Augenblick (vermutlich wartet man noch auf barts) und dann werden auch die Tage von GF100 im performancesegment (GTX465&470) endgültig gezählt sein.
Die GTX480 und ggf. 485 machen wohl etwas länger, aber auch nur noch solange bis GF110 auch dieses Segment übernimmt.
Mit GF110 stellt sich das Problem der zu starken Überschneidung gegenüber GF104 dann gar nicht mehr. Das lineup wird klarer und logischer - und nicht zuletzt auch konkurrenzfähig.

Fetza
2010-09-25, 21:06:28
er wollte doch nur mal ein bisschen zeigen wie schlau er ist und was für ein gutes gedächtnis ganz bis 2007 er hat. sicher, spekulation über bereits vorhandenes ist eine spannende sache, schließlich weiß man ja viel mehr drüber als über noch nicht offiziell bestätigte produkte.

bezüglich GF104 vs GF100 denke ich allerdings, das früher oder später die GF100 SKUs zusammengestrichen werden. Die Frage ist nur ob GF100 dann überhaupt noch lange zu leben hat.
Entweder man macht mit einem vollen Gf104 mehr kohle im Stückzahlenmäßig enorm wichtigen Performancesegment oder man setzt stattdessen teildeaktivierte teure highendchips ein - was macht mehr Sinn?
Ich erwarte den vollen GF104 jeden Augenblick (vermutlich wartet man noch auf barts) und dann werden auch die Tage von GF100 im performancesegment (GTX465&470) endgültig gezählt sein.
Die GTX480 und ggf. 485 machen wohl etwas länger, aber auch nur noch solange bis GF110 auch dieses Segment übernimmt.
Mit GF110 stellt sich das Problem der zu starken Überschneidung gegenüber GF104 dann gar nicht mehr. Das lineup wird klarer und logischer - und nicht zuletzt auch konkurrenzfähig.

Die frage ist auch, was bringt taktbereinigt die beste performacne? Ein gf104 im vollausbau oder ein teildeaktivierter gf100 aka gtx 470?

=Floi=
2010-09-25, 22:09:48
nv braucht den GF100 noch für den professionellen markt und dort kann man diesen chip auch sehr gut verkaufen.
man kann sich auch nicht 2 so große chips leisten!

@dural
das ist einfach nicht richtig!
der G92 hatte mehr transistoren, weil der IO chip integriert wurde und deswegen musste man bei anderen sachen sparen. der chip hatte auch nur 16 ROPs, damit man am SI und am PCB sparen konnte. Die 64 Taus bringen auch nichts.
Das war auch keine "weiterentwicklung". Es ist schon irgendwo klar, dass man irgendwann mal bei 30+% taktzuwachs den vorgänger schalgen kann. :rolleyes:
Die 9800 serie unterstützte die hybridpower funktion und wurde deshalb eingeführt.
bevor du nochmal mit dem gesülze ankommst:
der G80 war <400€ und der G92 ging in richtung 150-250€ (dort zählte jeder ct, um ati paroli bieten zu können, weil deren karten auch sehr günstig verkauft wurden und es damals die preisschlacht gab, wo alles verramscht wurde.)

Dural
2010-09-26, 15:50:25
was soll den der G92 sein, eine paralell entwicklung des G80 lol

9000 serie wurde mit den 9600GT und 9400GT eingeführt, beide haben KEIN hybridpower, also kann das der grund schon mal gar nicht sein... erst ca. 3monate später kam die erste hybridpower karte in form der 9800GX2

hybridpower ging so wie so nur mit 9800GX2, 9800GTX, GTX260(alt), GTX280

Der G92 dürfte etwas grösser wegen dem videokontroller sein den der G80 gar nicht hatte... G92 hatte die zweite version, die erste version wurde nur in den G84 und G86 verwendet.

das alles hat aber immer noch nichts mit dem thema zu tun...

Ailuros
2010-09-27, 08:22:41
Bitte? Welche Quadro soll das denn gewesen sein?

Es gab die großen FX5600/4600, die waren G80 basierend. Dann gab es eine FX3700 und eine 4700X2, die jeweils G92 basierend waren. Aber Quadros mit identischem Namen und unterschiedlichen Chips gab es nie.

Ich hab auch nichts von identischen Namen erwaehnt, wenn Du es Dir vorsichtiger durchgelesen haettest. Ich hab lediglich gesagt dass es parallel fuer eine gewissen Zeitspanne Quadros mit verschiedenen chips im Angebot gab.

Wenn nVidia auf 40nm noch etwas bringen werde, dann ist es ein GF104*1,5 mit 256bit Speicherinterface. Das sollte alles in <=450mm^2 passen und mit ca. 725Mhz wäre man ca. 20-30% schneller als eine GTX480 bei einem maximalen Verbrauch <225 Watt.

12SM reichen dann auch aus, um die Setup-Engines mit Tessellation zu 100% ausnutzen zu können.

Ein 2*GF104/GX2 wuerde keinen getrennten Codenamen tragen. Der GF110 Codename existiert tatsaechlich und es handelt sich um einen GF100 Ersatz der gerade vor sehr kurzer Zeit erst seinen finalen tape-out hatte.

Unter GF100-Ersatz verstehe ich persoenlich einen chip der auch im Profi eingesetzt werden kann, ergo bleibt abzusehen wie jeglicher SM genau aussieht und ob dieser ueber DP faehig ist.

Insgesamt wenn Deine obrige Prognose stimmt scheint es nichts besonderes insgesamt zu aendern, da NV's top dog nur um ein relativ bescheidenes Prozentual vor AMD's single chip performance chip liegen koennte.

Hugo78
2010-09-27, 08:51:53
Das Gesamtpaket wäre bei einem 1.5x GF104, sicherlich attaktiver als es noch beim GF100 war.
Ob dieser neue Chip nur 5% schneller ist als die Konkurrenz oder nicht, spielt weniger eine Rolle.
Wenn denn der Preis stimmt und Verbesserungen in Sachen Lautheit und Verbrauch zusehen sind,
wiegt das für das allgemeine Ansehen der High End Fermis sichlich stärker als 5-10% Vorsprung vor den AMD Karten.

Wunder erwartet ja keiner, aber wenn man zb. sieht, dass selbst ein GF100 mit einem 0,5-1V weniger Spannung bis zu 70W unter Vollast weniger verbraucht,
dann sollte auch in 40nm noch Potential vorhanden sein, ohne dabei auf Performance zu verzichten.

Ailuros
2010-09-27, 09:02:50
Darum geht es ja wohl auch nicht, sondern eher dass NV in der Zukunft jeglichen "neuen Versuch" auf einem neuem Herstellungs-prozess hinbekommt.

NV hat uns ja selber vor kurzem vermittelt wie ihre road-map mehr oder weniger aussehen wird und obwohl nichts sicher ist kann man schon auf 28nm fuer Kepler bzw. 22nm fuer Maxwell schliessen. NV's Ziel muss jetzt also sein dass sich die GF100-Saga eben nicht wiederholt.

Bucklew
2010-09-27, 10:13:27
Ich hab auch nichts von identischen Namen erwaehnt, wenn Du es Dir vorsichtiger durchgelesen haettest. Ich hab lediglich gesagt dass es parallel fuer eine gewissen Zeitspanne Quadros mit verschiedenen chips im Angebot gab.
Also G80/G92?

Dural
2010-09-27, 10:41:18
naja das der GF110 nicht einfach ein GF104 @ 12x48 ist dürfte ja klar sein, sonst würde man das teil wohl kaum GF110 nennen sondern GF102 oder so...

GF110 dürfte einfach eine (kleine) weiterentwicklung des GF100 sein, wie auch immer das aussehen mag...

Ailuros
2010-09-27, 11:12:17
naja das der GF110 nicht einfach ein GF104 @ 12x48 ist dürfte ja klar sein, sonst würde man das teil wohl kaum GF110 nennen sondern GF102 oder so...

GF110 dürfte einfach eine (kleine) weiterentwicklung des GF100 sein, wie auch immer das aussehen mag...

Falls es irgend etwas in der 4*16 Richtung sein sollte (worueber ich mir gar nicht sicher bin dass es Sinn macht) ist der Entwicklungs-aufwand in etwa analog IMO zur moeglichen 5D->4D Aenderung bei AMD.

Gast
2010-09-27, 11:21:23
So könnte ein GF11x-Cluster aussehen:
- 4x 16 SPs
- 2x 4 TMUs
- DP-fähig
- durchsatz-optimierter Tessellator
- 4 Pixel pro Takt

Wenn dieser wiederum ~ 20% größer als ein GF10x-Cluster ist, dürften davon 10 Stück auf einen ~ GF100-großen Chip passen.

640SPs, 80 TMUs, 40 Pixel, 48 ROPs, 384-Bit. Jetzt noch 700-800MHz GPU-Takt und man hat eine vernünftige Lösung bis Kepler zum Jahreswechsel 11/12.

GF119 besitzt dann eben nur eine Cluster und eine ROP-Partiton.

Ailuros
2010-09-27, 11:29:01
So könnte ein GF11x-Cluster aussehen:
- 4x 16 SPs
- 2x 4 TMUs
- DP-fähig
- durchsatz-optimierter Tessellator
- 4 Pixel pro Takt

(Ehrliche Frage : ) sind es 1*8 oder 2*4 TMUs im GF104? Ist eigentlich auch ziemlich wurscht so lange die TMUs so oder so im SM "integriert" sind.

Wieso 4 Pixel/Takt?

Wenn dieser wiederum ~ 20% größer als ein GF10x-Cluster ist, dürften davon 10 Stück auf einen ~ GF100-großen Chip passen.

640SPs, 80 TMUs, 40 Pixel, 48 ROPs, 384-Bit. Jetzt noch 700-800MHz GPU-Takt und man hat eine vernünftige Lösung bis Kepler zum Jahreswechsel 11/12.

GF119 besitzt dann eben nur eine Cluster und eine ROP-Partiton.

So absurd ist LS' These mit dem 256bit Bus gar nicht unter der Vorraussetzung dass die Speicher-frequenz auch dementsprechend hoch ist.

Gast
2010-09-27, 11:36:58
(Ehrliche Frage : ) sind es 1*8 oder 2*4 TMUs im GF104? Ist eigentlich auch ziemlich wurscht so lange die TMUs so oder so im SM "integriert" sind.
TMUs sollten doch Quad-basierend sein, auch bei GT200/G92 bezeichnete NVidia die 8 TMUs pro TPC als zwei Quad-TMUs.


Wieso 4 Pixel/Takt?
Je fetter die SMs/Cluster werden, umso mehr werden die aktuellen 2 Pixel/SM zum Flaschenhals.


So absurd ist LS' These mit dem 256bit Bus gar nicht unter der Vorraussetzung dass die Speicher-frequenz auch dementsprechend hoch ist.
Ich denke es ist eher unglaubwürdig, dass Nvidia von der konservativeren Speicherstrategie abweichen wird. Und ob das Management ein so hohes Vertrauen in die Ingenieure, die für das SI verantwortlich sind, würde ich nach den Ergebnissen der nahen Vergangenheit bezweifeln.

Ailuros
2010-09-27, 12:02:48
TMUs sollten doch Quad-basierend sein, auch bei GT200/G92 bezeichnete NVidia die 8 TMUs pro TPC als zwei Quad-TMUs.

Nur waren die TMUs bei vorigen Architekturen nicht im SM "eingebaut" welches die 2*4 Segmentierung pro SM ueberfluessig machen koennte. Unter einem vollem SM werden wohl zukuenftige low end Produkte schwer skalieren.

Je fetter die SMs/Cluster werden, umso mehr werden die aktuellen 2 Pixel/SM zum Flaschenhals.

Du hast auf GF100 4 GPCs mit jeweils einer raster Einheit die bis zu 8 pixels/clock bearbeiten kann. Dass dann als Resultat jedem SM 2 pixel/clock zustehen ist normal.

Wenn ich wuesste dass das Ding 10SMs hat dann ja natuerlich wuerde ich auch auf 4 GPCs tippen. Bei 12SMs aber machen wohl eher 3 mehr Sinn. ***edit: und nein ich bestehe auf gar nichts, aber maximal und in Echtzeit bekommt selbst NV nicht mehr als 3.2 Tris/clock aus einem GF100 raus; deshalb frage ich mich auch ob sie auch mit einer leichten Effizienz-steigerung pro GPC selbst mit 3 auskommen koennten.

Ich denke es ist eher unglaubwürdig, dass Nvidia von der konservativeren Speicherstrategie abweichen wird. Und ob das Management ein so hohes Vertrauen in die Ingenieure, die für das SI verantwortlich sind, würde ich nach den Ergebnissen der nahen Vergangenheit bezweifeln.

Ich bezweifle zwar immer noch dass es beim GF100 beim Speichercontroller hapert, aber ich bezweifle genauso dass GF100 je mit so konservativen Speicher-frequenzen geplant war. Demzufolge war die leichte Reduzierung der Frequenz eine weitere Massnahme den Stromverbrauch noch um einen Schnitt weiter zu reduzieren.

Wenn aber ein zukuenftiger chip nicht die Probleme vom GF100 mit sich traegt, bezweifle ich dass sie weiterhin mit Speicherfrequenzen so konservativ umgehen werden.

Bei einem 384-bit Bus nutzt GF100 nicht mal die eigentlichen Speicher-spezifikationen aus (anders man bezahlt fuer X Speicher nutz ihn aber nur als X-N), man aergert die Treiber-engineers mit zusaetzlicher Arbeit fuer krumme Speichermengen und man verplempert auch einen guten Batzen an zusaetzlichen Transistoren bzw. die area fuer die zusaetzliche ROP partitions. Im hypothetischen Vergleich von sagen wir mal 1000MHz@384bit vs. 1500MHz@256bit ist die zweite Loesung wohl billiger.

Die Frage ist eher ob sie fuer >4xMSAA Schnickschnack immer noch zusaetzliche ROPs (ueber den raster Faehigkeiten) brauchen. Wenn ja dann ist wohl ein 384-bit der einzige Ausweg.

***edit Nr.2: ich haette bei meinen originalen GF100-next Daten bleiben sollen. So wie es aussieht ist das angebliche 110-Dingsda bei weitem keine so extravagante Aenderung wie hier besprochen wird.

Gast
2010-09-27, 17:55:58
und nein ich bestehe auf gar nichts, aber maximal und in Echtzeit bekommt selbst NV nicht mehr als 3.2 Tris/clock aus einem GF100 raus; deshalb frage ich mich auch ob sie auch mit einer leichten Effizienz-steigerung pro GPC selbst mit 3 auskommen koennten.


Gab es nicht mal wo eine Meldung dass Geforce-GF100 beim Geometriedurchsatz irgendwie künstlich gebremst wird und nur die Quadros den vollen Durchsatz liefern können?

Ailuros
2010-09-28, 09:26:13
Gab es nicht mal wo eine Meldung dass Geforce-GF100 beim Geometriedurchsatz irgendwie künstlich gebremst wird und nur die Quadros den vollen Durchsatz liefern können?

Die 3.2 Tris/clock maximum kommen von NV engineering direkt und es ist die maximalste Rate die sie treffen konnten. Es wurde auch irgendwo glaube ich in einem review von techreport (?) erwaehnt.

Fuer die groessten Fermi Quadros (6xxx) gibt NV selber folgendes an:

Featuring new Scalable Geometry Engine™ technology, Quadro can deliver an unheard of 1.3 billion triangles per second, shattering previous 3D graphics limitations².

² Raw throughput number calculated by graphics processing clusters, GPU clock rate, and triangle throughput.

http://www.nvidia.com/object/product-quadro-6000-us.html

Die 6000-er Quadros haben 448SPs wie auch die Teslas. Eine Frequenz wird nicht angegeben nur die Bandbreite welche gleich wie auf Tesla 2050 ist (750MHz GDDR5 @384bit).

Ein voller Fermi (16SMs) ist theoretisch ueber 4 Tris/clock * 700MHz = 2.8 Mrd Tris/s faehig. Auf den Quadros sollte man logischerweise alle 4 GPCs operativ haben.

Wenn ich jetzt herunterrechne dann wohl 1300 MTris / 575MHz = 2.26 Tris/clock.

Ailuros
2010-09-28, 14:30:38
Ich bin zu faul aeltere Prognosen wieder aufzusuchen aber wie schon oben erwaehnt haette ich bei diesen bleiben sollen. Ein Doppeldecker kommt knapp zwei Wochen nach Antilles und wenn sie es schaffen 110 noch dieses Jahr. Obwohl es zunehmend wieder nach Anfang 2011 aussieht. Auf den AIB roadmaps steht vom letzteren bis jetzt auf jeden Fall noch nichts.

Lawmachine79
2010-09-28, 17:59:38
Ich bin zu faul aeltere Prognosen wieder aufzusuchen aber wie schon oben erwaehnt haette ich bei diesen bleiben sollen. Ein Doppeldecker kommt knapp zwei Wochen nach Antilles und wenn sie es schaffen 110 noch dieses Jahr. Obwohl es zunehmend wieder nach Anfang 2011 aussieht. Auf den AIB roadmaps steht vom letzteren bis jetzt auf jeden Fall noch nichts.
Was ist denn aktueller Sachstand für den GF104 im Vollausbau? Dieses Jahr noch?

Bucklew
2010-09-28, 18:10:09
Was ist denn aktueller Sachstand für den GF104 im Vollausbau? Dieses Jahr noch?
Zumindest Fudzilla schreibt was von Q4/2010:

http://www.fudzilla.com/graphics/item/20312-fermi-mid-life-kicker-comes-in-40nm

Leonidas
2010-09-28, 18:33:09
Damit ist aber der GF110 gemeint, auch wenn Fudzilla den nicht beim Namen nennt.

Hugo78
2010-09-28, 19:53:48
Naja, selbst wenn nur 5-10% der bisher produzierten GF104 Chip es zur vollen Güte bringen sollten,
so hätte man doch *vermutlich* bis jetzt ausreichend gesammelt für ein, wie auch immer benanntes Produkt mit GF104 im Vollausbau.

GF110 und full GF104 schließen sich ja nicht aus, ausser der GF110 eignet sich noch ne Ecke besser als Grundgerüst für kleinere Ableger, ala GF114, 116, 118 ...

Ailuros
2010-09-29, 08:55:25
Damit ist aber der GF110 gemeint, auch wenn Fudzilla den nicht beim Namen nennt.

Eher GTX4xx=104/GX2 wenn es um Q4 2010 geht. GF110 (aka "GT5xx" ist fuer Q1 projeziert).

Hugo
2010-09-29, 10:58:33
Eher GTX4xx=104/GX2 wenn es um Q4 2010 geht. GF110 (aka "GT5xx" ist fuer Q1 projeziert).

gf110 soll als GTX5xx laufen?

MadManniMan
2010-09-29, 11:24:39
Eher GTX4xx=104/GX2 wenn es um Q4 2010 geht. GF110 (aka "GT5xx" ist fuer Q1 projeziert).

Entweder, Du versteckst die Info bewusst, oder es gibt von Dir keine definitive Aussage zu einem GF104 in Vollausbau ;)

Aber gut zu wissen, dass wir grob in einem Vierteljahr mit dem GF110 rechnen können.

Ailuros
2010-09-29, 11:36:05
Entweder, Du versteckst die Info bewusst, oder es gibt von Dir keine definitive Aussage zu einem GF104 in Vollausbau ;)

Ich hatte nichts anderes als high end der kommenden Zeit im Hinterkopf deshalb. Ich erwarte so oder so dass die GX2 mit 8SMs pro chip ankommt und es wuerde mich sehr wundern wenn es keine 8SM/104 single chip Loesung geben wuerde.

Aber gut zu wissen, dass wir grob in einem Vierteljahr mit dem GF110 rechnen können.

Wenn der tape out des chips erst vor ein paar Wochen stattgefunden hat, machen die road-maps der AIBs auch absolut Sinn. Worueber ich mir nicht im klaren bin ist wofuer 110 genau steht, denn die diversen Einzelheiten ueber das Ding widersprechen sich brutal in mehreren Stellen. Es kann z.B. nicht einen 384bit bus haben und auf vendor road-maps mit 2GB auftauchen.

MadManniMan
2010-09-29, 11:42:22
Ich hatte nichts anderes als high end der kommenden Zeit im Hinterkopf deshalb. Ich erwarte so oder so dass die GX2 mit 8SMs pro chip ankommt und es wuerde mich sehr wundern wenn es keine 8SM/104 single chip Loesung geben wuerde.

Hast Du irgendwelche Zeiträume im Kopf? Wird NVIDIA direkt auf den AMD-Launch im Oktober (oder November ;) ) reagieren?


Wenn der tape out des chips erst vor ein paar Wochen stattgefunden hat, machen die road-maps der AIBs auch absolut Sinn. Worueber ich mir nicht im klaren bin ist wofuer 110 genau steht, denn die diversen Einzelheiten ueber das Ding widersprechen sich brutal in mehreren Stellen. Es kann z.B. nicht einen 384bit bus haben und auf vendor road-maps mit 2GB auftauchen.

Du glaubst eigentlich an die zweite Variante derer, die Leonidas hier aufgeführt hat (http://www.3dcenter.org/news/nvidia-fermi#2010-09-16a), richtig? Und da die 2 GB selbstverständlich nicht passen, gehst Du von einer Fehlinfo diesbezüglich aus? ;)

Ailuros
2010-09-29, 11:57:08
Hast Du irgendwelche Zeiträume im Kopf? Wird NVIDIA direkt auf den AMD-Launch im Oktober (oder November ;) ) reagieren?

Die GX2 steht 2 Wochen spaeter nach Antilles' original geplanter Veroeffentlichung an.

Du glaubst eigentlich an die zweite Variante derer, die Leonidas hier aufgeführt hat (http://www.3dcenter.org/news/nvidia-fermi#2010-09-16a), richtig? Und da die 2 GB selbstverständlich nicht passen, gehst Du von einer Fehlinfo diesbezüglich aus? ;)

Mir wurde vor einiger Zeit vermittelt dass NV zuerst eine 104/GX2 plant und spaeter einen echten single chip high end Nachfolger fuer GF100. Ob sie das erste gestrichen haben kann ich nicht wissen, da sich auf den vendor road-maps nichts geaendert hat anscheinend. Jedoch gibt es stets Fehler in vendor roadmaps ueberhaupt mit Speichermengen, wofuer ich aber auch keine Garantie habe dass es sich um einen solchen handeln kann momemtan.

Es gibt noch viel mehr Einzelheiten die sich selber in Konflikt kommen und es koennte durchaus sein dass NV mit Absicht falsche Infos verstreut.

AffenJack
2010-09-29, 12:06:08
Gf110 oder wie das dingen nun heißt ist nun sogar offiziell bestätigt. Aber selbst Huang spricht von Launch im nächsten Jahr. Da sind die paar Leute die meinen er kommt noch dieses Jahr etwas zu optimistisch gewesen.

http://www.xtremesystems.org/forums/showthread.php?t=259969

V2.0
2010-09-29, 12:12:26
GF110 ist nicht GF104X2 ist nicht GF100b...

Ailuros
2010-09-29, 12:20:39
Gf110 oder wie das dingen nun heißt ist nun sogar offiziell bestätigt. Aber selbst Huang spricht von Launch im nächsten Jahr. Da sind die paar Leute die meinen er kommt noch dieses Jahr etwas zu optimistisch gewesen.

http://www.xtremesystems.org/forums/showthread.php?t=259969

Wenn es stimmt dass 110 seinen tape out erst vor ein paar Wochen hatte, dann ist es mehr oder weniger der gleiche Zeitraum wo GF100 seinen tape out in 2009 hatte. Das sie ein so kompliziertes Tier unter A1 in die Produktion schicken will ich bezweifeln, ergo liegen wohl noch einige Wochen fuer A2 an und wenn dann alles stimmt geht es damit dann zur Produktion.

Die Frage ist ob NV's einzige Massnahme gegen SI nur die 460 Preisreduktion sein wird. Mir faellt es etwas schwer zu glauben, ergo macht hier noch ein Zwischenschieber mit relativ kurzer "Lebenszeit" in der Form einer 104/GX2 auch Sinn.

AffenJack
2010-09-29, 12:41:21
Naja, soviel sinn seh ich innem Zwischenschieber nicht wirklich. Das Ding käme Ende November/Dezember aufn Markt und Februar sollte schon Gf110 kommen. Die GX2 hätte so oder so gegen Antilles keine Chance. Sowas macht wenn überhaupt nur Sinn wenn man dann wirklich die Krone kriegt.

Wichtiger fänd ich endlich den Gf104 Vollausbau mit etwas höheren Taktraten. Wenn Barts 5850 Leistung bringt könnte man diesen damit wenigstens übertrumpfen, wenn auch der Stromverbrauch höher wird. Aber wäre trotzdem noch deutlich besser als die GTX470 als Bartsgegner.

Ailuros
2010-09-29, 12:58:37
Naja, soviel sinn seh ich innem Zwischenschieber nicht wirklich. Das Ding käme Ende November/Dezember aufn Markt und Februar sollte schon Gf110 kommen.

Ich sehe aber auch nichts in den angeblichen Daten vom 110 der auf mehr Leistung gegenueber einer 104/GX2 deuten wuerde. Der GF110 duerfte so oder so mehr als Profi-GPU Nachfolger dienen als alles andere.

Die GX2 hätte so oder so gegen Antilles keine Chance. Sowas macht wenn überhaupt nur Sinn wenn man dann wirklich die Krone kriegt.

Ebenso wenig GF110 IMHO. Eine GX2 waere aber die schnellste und billigste Antwort gegen Cayman. Was willst Du gegen Cayman genau stellen? Eine GTX480? Au weia....

Hypothetische 104/GX2 bei 725MHz:

768SPs * 2 * 1.45GHz = 2227 GFLOPs
128 TMUs * 725MHz = 92.8 GTexels/s
64 * 725 = 46.4 GPixels/s
1000MHz@256bit *2 = 256 GB/s

Wie erreicht man genau unter 40G vergleichbare Daten (stets minus mGPU AFR Effizienz) fuer einen GF110 wenn der GF100 ohnehin schon ~530mm2 wiegt?

Wichtiger fänd ich endlich den Gf104 Vollausbau mit etwas höheren Taktraten. Wenn Barts 5850 Leistung bringt könnte man diesen damit wenigstens übertrumpfen, wenn auch der Stromverbrauch höher wird. Aber wäre trotzdem noch deutlich besser als die GTX470 als Bartsgegner.

Wenn man schon eine 104 im Vollausbau ins Rennen schickt, kostet es genau wie viel daraus noch eine GX2 ins Rennen zu schicken? Oder noch besser was genau soll ueber der "GTX475" (8SM/104) fuer eine Zeit lang genau liegen?

Dural
2010-09-29, 13:11:37
mit 2x ca. 480mm2 DIE

2x576 / 1152SP x 1,2GHz = 2765 GFLOPs
2x96 / 192TMUs x 600MHz = 115,2 GTexels/s
2x384Bit / 768Bit x 1600MHz = 307,2 GB/s

:wink:

und das mit ca. selben verbrauch wie deine GX2

AffenJack
2010-09-29, 13:39:27
Ich sehe aber auch nichts in den angeblichen Daten vom 110 der auf mehr Leistung gegenueber einer 104/GX2 deuten wuerde. Der GF110 duerfte so oder so mehr als Profi-GPU Nachfolger dienen als alles andere.

Mehr Leistung nicht, aber vll gerademal 10% langsamer wo sich Multigpu dann nicht wirklich lohnt.
20% schneller als GTX480 sollte möglich sein, sonst wäre nen neuer Chip in meinen Augen unsinnig. 10% schneller als GTX480 sollten nämlich eigentlich mitn B Stepping mit vollen Shadereinheiten möglich sein.



Ebenso wenig GF110 IMHO. Eine GX2 waere aber die schnellste und billigste Antwort gegen Cayman. Was willst Du gegen Cayman genau stellen? Eine GTX480? Au weia....


Gut, dass ist halt Nvs Problem, man hat praktisch gar nix was wirklich konkurieren kann, ne GX2 wäre wenigstens nochn gutes stück über Cayman, ok. Aber sind natürlich ma wieder 2 fast genauso große Dies gegen 1 bei einer kurzen Lebensdauer und riesen TDP.


Hypothetische 104/GX2 bei 725MHz:

768SPs * 2 * 1.45GHz = 2227 GFLOPs
128 TMUs * 725MHz = 92.8 GTexels/s
64 * 725 = 46.4 GPixels/s
1000MHz@256bit *2 = 256 GB/s


Wie erreicht man genau unter 40G vergleichbare Daten (stets minus mGPU AFR Effizienz) fuer einen GF110 wenn der GF100 ohnehin schon ~530mm2 wiegt?
Falls man die Taktraten bei ner GX2 erreicht, man nutzt immo ja schon 160W TDP und dann noch Vollausbau. Aber sonst erreicht man solche Rohdaten in der tat nicht.


Wenn man schon eine 104 im Vollausbau ins Rennen schickt, kostet es genau wie viel daraus noch eine GX2 ins Rennen zu schicken? Oder noch besser was genau soll ueber der "GTX475" (8SM/104) fuer eine Zeit lang genau liegen?

Naja, man muss das GX2 ding auch noch entwickeln, 104 Vollausbau sollte oft genug vorhanden sein, wenn man nicht irgendnen Designfehler hat. Aber hast ja recht, nen GX2 Board hat man oft genug gemacht, sollte kein Problem sein, dass mitt kleinen entwicklungskosten zu entwickeln.

Ailuros
2010-09-29, 14:29:58
Mehr Leistung nicht, aber vll gerademal 10% langsamer wo sich Multigpu dann nicht wirklich lohnt.
20% schneller als GTX480 sollte möglich sein, sonst wäre nen neuer Chip in meinen Augen unsinnig. 10% schneller als GTX480 sollten nämlich eigentlich mitn B Stepping mit vollen Shadereinheiten möglich sein.

Nur sehe ich leider nichts von einem B stepping oder anders vollem re-spin. Wieso sollten sie ueberhaupt durch einen verdammt teuren re-spin gehen der auch ziemlich viel Zeit kostet und parallel GF110 entwickeln?

Ein heutiges 2*GTX460@SLi setup ist im Schnitt um die 20% schneller als eine GTX480 und rein hypothetisch wuerden 2*(8SM/104 chips) bei hoeherer Frequenz nochmal +/-10% dazulegen.

Nur 16SMs auf einem vollem GF100 wuerden nie von sich alleine 10% Leistung dazulegen; dafuer braeuchten sie auch eine Frequenz-steigerung von ca. 5%.


Gut, dass ist halt Nvs Problem, man hat praktisch gar nix was wirklich konkurieren kann, ne GX2 wäre wenigstens nochn gutes stück über Cayman, ok. Aber sind natürlich ma wieder 2 fast genauso große Dies gegen 1 bei einer kurzen Lebensdauer und riesen TDP.

Wenn es die GX2 wirklich geben wird dann ist sie immer noch besser als gar nichts. Wenn sie sich jetzt tatsaechlich zwischen Cayman und Antilles positionieren koennte dann wuerde wohl auch logischerweise der Preis zwischen-drin liegen.

Und was heisst ueberhaupt "riesen-TDP"? Die von NV angebebene TDP von 250W fuer die GTX480 glaubt wohl nur NV selber. Eine 7SM/460 hat einen TDP von 160W. Bei theoretischen 725MHz wuerde der TDP auf was steigen? 180W? Ich schlag Dir nochmal 40% dazu fuer mGPU und es koennte irgendwo bei 250-260W (echtem *hust*) TDP liegen.

Wenn NV nie bis jetzt eine mGPU veroeffentlicht haette wuerde ich auch zustimmen. Das mit den Kosten und 2 chips ist kompletter bullshit da es sich bei der GTX295 um zwei GT200b dies handelt wobei jeder ueber 470mm2 wiegt. Dagegen im Vergleich sind >360mm2 eher laecherlich.

Falls man die Taktraten bei ner GX2 erreicht, man nutzt immo ja schon 160W TDP und dann noch Vollausbau. Aber sonst erreicht man solche Rohdaten in der tat nicht.

Die Deaktivierung von Einheiten auf einem chip beinflussen den Stromverbrauch minimal bis gar nicht. Schon gar nicht bei SMs bzw. clusters.

=Floi=
2010-09-29, 15:00:17
der volle GF104 könnte auch erst noch ein neues stepping bekommen. bisher war es ja auch immer (?) so und je mehr geht, desto besser.

was soll denn dann beim GF110 kommen? eine highend single-core gpu könnte aber schon etwas reißen. warum ist eigentlich ein GF100@ 1,5 facher breite so unrealistisch? Es muß ja nicht alles verbreitert werden und das teure zeug ist schon vorhanden, bzw. muß nicht mehr erweitert werden.
Es scheitert imho doch nur an den TMUs und am takt. wenn man jetzt noch die SPs auf 768 anhebt wäre es sicherlich auch möglich mit einem wenig größeren chip die leistung (in 40nm) noch einmal ergeblich zu stigern.

Gast
2010-09-29, 15:17:02
Erhebliche Mehrleistung bei gleicher Architektur und gleichem Prozess = Erheblicher Mehrverbrauch.

=Floi=
2010-09-29, 16:04:06
man sieht ja an der 460er, dass das nicht stimmt!

MadManniMan
2010-09-29, 16:12:34
man sieht ja an der 460er, dass das nicht stimmt!

Wie meinst Du das? Im Vergleich zum GF100, oder wie? Das wäre jedenfalls ein Vergleich verschiedener Architekturen.

Gasti
2010-09-29, 16:28:55
man sieht ja an der 460er, dass das nicht stimmt!

Du schreibst was von 1.5x GF100.
Was hat der mit GF104 zu tun?

Fetza
2010-09-29, 16:31:37
mit 2x ca. 480mm2 DIE

2x576 / 1152SP x 1,2GHz = 2765 GFLOPs
2x96 / 192TMUs x 600MHz = 115,2 GTexels/s
2x384Bit / 768Bit x 1600MHz = 307,2 GB/s

:wink:

und das mit ca. selben verbrauch wie deine GX2

Sicher und das ganze natürlich auch auf einem single pcb nech? Träum weiter. ;)

Gast
2010-09-29, 16:36:47
Sicher und das ganze natürlich auch auf einem single pcb nech? Träum weiter. ;)
2x 448-Bit gab es schon auf einem Single-PCB offiziell von Nvidia und Partner haben schon 2x 512-Bit auf einem Single-PCB verbaut.

Gasti
2010-09-29, 16:37:27
Sicher und das ganze natürlich auch auf einem single pcb nech? Träum weiter. ;)

Es wird Zeit die 4870X2 und 5970 2GB in der Alltagstauglichkeit zu unterbieten.;)

Gasti
2010-09-29, 16:38:45
2x 448-Bit gab es schon auf einem Single-PCB offiziell von Nvidia und Partner haben schon 2x 512-Bit auf einem Single-PCB verbaut.

Ja vor allem die ASUS MARS war ein hervorragendes Produkt.

Gast
2010-09-29, 16:43:13
Ja vor allem die ASUS MARS war ein hervorragendes Produkt.
Die war eben kein Single-PCB.

Gasti
2010-09-29, 16:47:10
Die war eben kein Single-PCB.
Also auf dem Single-PCB sitzen die Kühlböcke der GPUs hintereinander.
Da bezweifle ich einfach mal, dass man die Temperaturprobleme besser im Griff gehabt hätte.

Ailuros
2010-09-29, 17:04:47
was soll denn dann beim GF110 kommen? eine highend single-core gpu könnte aber schon etwas reißen. warum ist eigentlich ein GF100@ 1,5 facher breite so unrealistisch? Es muß ja nicht alles verbreitert werden und das teure zeug ist schon vorhanden, bzw. muß nicht mehr erweitert werden.
Es scheitert imho doch nur an den TMUs und am takt. wenn man jetzt noch die SPs auf 768 anhebt wäre es sicherlich auch möglich mit einem wenig größeren chip die leistung (in 40nm) noch einmal ergeblich zu stigern.

GF100 ist mit 16SMs ca. 526mm2 gross (mit der Verpackung dann halt 550mm2). Du willst also ein quasi 24SM Dingsbums wenn ich es nicht falsch verstehe und der 384bit Bus duerfte bleiben; nicht dass es momentan irgendwelchen Sinn macht aber Mahlzeit weit ueber 600mm2 die area anzuschlagen und verheerend grossen Stromvebrauch. Unter 40G ist so ein Bolide ohne jeglichen Zweifel unmanufacturable wie Charlie so gerne sagt; aber real diesmal.

Falls es immer noch nicht richtig sitzt bis jetzt: GF100 so wie er ist ist mit seinen >3Mrd Transistoren und >520mm2 zu nahe am Rand der 40G Toleranz dass wenn sie nicht grosse Portionen vom non-3D Zeug nicht entfernen jeglicher Zusatz auf dem heutigen Zeug eine Schnappsidee ist.

Sei froh wenn der naechste chip ueberhaupt erstmal voll operative 16 SMs hat falls es wirklich ein GF100 Nachfolger werden soll.

=Floi=
2010-09-29, 19:42:44
würden die restlichen 32TMUs und 256SPs nicht unter 500mio transistoren kosten? (schätzung!)
ich gehe es eher von dem standpunkt an, dass ROPS, das SI und auch die caches ausreichen dürften und man hier eben nichts mehr anbauen müsste. Mittlerweile sollte man den 40nm prozess auch im griff haben und lieber einen größeren chip beim einem guten prozess, als wieder den gleichen mist bei 28nm!
zur not könnte nv auch so manches wieder in einen IO-Chip auslagern.

also so unrealistisch erscheint mir das jetzt nicht.

Gasti
2010-09-29, 20:04:42
Nur weil man einen Prozess "Im Griff hat" kann man noch lange keine 600+ qmm Chips wirtschaftlich herstellen.
Was soll man da jetzt auch "nicht im Griff" haben?
Von 55nm auf 40nm ist halt nur ein half node. Wenn man dann meint die Transistorenzahl um mehr als 100% erhöhen zu müssen, muss man halt mit dem Mehrverbrauch und Platzbedarf auf dem Wafer klar kommen.

Spasstiger
2010-09-29, 21:04:55
Die Ausrüstung von TSMC sieht afaik gar keine Dice vor, die größer als 600 mm² sind. D.h. die würden so einen Auftrag gar nicht erst annehmen.

Ailuros
2010-09-30, 08:15:48
würden die restlichen 32TMUs und 256SPs nicht unter 500mio transistoren kosten? (schätzung!)
ich gehe es eher von dem standpunkt an, dass ROPS, das SI und auch die caches ausreichen dürften und man hier eben nichts mehr anbauen müsste. Mittlerweile sollte man den 40nm prozess auch im griff haben und lieber einen größeren chip beim einem guten prozess, als wieder den gleichen mist bei 28nm!
zur not könnte nv auch so manches wieder in einen IO-Chip auslagern.

also so unrealistisch erscheint mir das jetzt nicht.

Wenn Du nach all den Problemen die GF100 hatte immer noch nicht verstehen kannst dass jeglicher Versuch auf mehr Transistoren bzw. die area zu steigen 40G ein riesiges Risiko fuer NV waere, dann kann man wohl nicht weiterhelfen. GF100 liegt schon heute nahezu am Rand; Punkt.

Was Du Dir vorstellst ist quasi ein GF100 + GF104 ohne die zusaetzlichen SPs/SM im zweiten (die sowieso relativ wenig kosten), weniger insgesamt ROPs (anstatt 48+32) und womoeglich 96 TMUs insgesamt. Wenn Du immer noch glaubst dass dieser Spass weit weniger als 100mm2 kosten wuerde dann gute Nacht. Wohl eher um die 200mm2 und selbst das ist ziemlich grosszuegig.

Nebenbei koennte es sein dass dieses Ding den Vorteil der zusaetzlichen ROPs vom GF100 und 104 ueber der rasterizing Faehigkeiten verlieren koennte. Um es zu erhalten muesste man die Architektur dementsprechend umgekrempelt haben dass dieses nicht mehr notwendig ist (welches aber wohl einiges an Zeit kosten wuerde) oder man steckt eben nochmal 16 ROPs dazu.

24SMs = 6 GPCs = 6 raster + 6 trisetups; 8 pixels/clock/raster * 6 raster = 48 pixels/clock + 16 ROPs (Zusatz) = 64 ROPs.....

Hoppla jetzt hab ich auch das "Problemchen" dass 64 ROPs sich schlecht ueber 6*64bit Partitions verteilen lassen. Ergo schnell zu einem 512bit bus, wobei 8*64bit man eben 8 ROPs pro partition haben kann. Und irgendwie so hast Du dann auch wirklich einen echten GF100*1.5. Nur laesst sich das Monster eben NICHT unter 40G herstellen und ja eben NUR unter 28nm.

Andere Thesen die beispielsweise von 12SM ala GF104 mit einem 256bit sprechen bei einer eingeschaetzten die area von ca. 480mm2@40G sind da um einige Lichtjahre realistischer als der obrige Krampf.

V2.0
2010-09-30, 08:21:11
Sehe ich auch so. 256Bit reicht durch den schnelleren Speicher heute meist aus. NV muss versuchen nahe an 450 mm² zu bleiben.

Ailuros
2010-09-30, 08:26:29
Sehe ich auch so. 256Bit reicht durch den schnelleren Speicher heute meist aus. NV muss versuchen nahe an 450 mm² zu bleiben.

GF110 sieht auch verdammt danach aus; nur kann es eben schwer ein wahrer Ersatz fuer GF100 sein. Nach den neuesten Geruechten sind sie gerade dabei die finalen Frequenzen festzulegen, wobei ich mich frage wo zum Henker all die froehlichen leaks in der Zwischenzeit sind.

V2.0
2010-09-30, 08:38:57
Kommt darauf an als Ersatz für was und im welchen Markt. Als Tesla - eher nicht als GF480 eher schon.

Dural
2010-09-30, 09:00:59
es gibt aber immer noch probleme mit dem Speicherkontroller, ohne eine lösung für dieses auch kein 256Bit!

und 256Bit als GF100 ersatz ist mächtig ungklug, man will mehr Leistung! zudem die zusätzlichen 128Bit kaum noch was ausmachen dürfte bei einem so grossem Chip...

zudem 384Bit genial für eine mGPU Karte wäre: 2x1,5GB=3GB man spart 1GB gegenüber 256Bit / 2x2GB=4GB bei wohl faktisch selber Leistung!

wenn man 256Bit haben möchte kann man sich auch gleich bei einem GF104 bedienen.

V2.0
2010-09-30, 09:07:38
256Bit macht den Chip größer und wenn man sieht dass GF100 den Speicher unterhalb der Spezifikation betreibt, dann erscheint das breitere Interface sinnlos. Und wenn man schon einen neuen Chip baut, dann auch mit gefixten Fehlern - sollte man hoffen.

Gast
2010-09-30, 09:23:17
es gibt aber immer noch probleme mit dem Speicherkontroller, ohne eine lösung für dieses auch kein 256Bit!

und 256Bit als GF100 ersatz ist mächtig ungklug, man will mehr Leistung! zudem die zusätzlichen 128Bit kaum noch was ausmachen dürfte bei einem so grossem Chip...

zudem 384Bit genial für eine mGPU Karte wäre: 2x1,5GB=3GB man spart 1GB gegenüber 256Bit / 2x2GB=4GB bei wohl faktisch selber Leistung!

wenn man 256Bit haben möchte kann man sich auch gleich bei einem GF104 bedienen.

Sehe ich auch so. Wenn das dann wieder so ein G92 wird der nur mehr viel Takt gerade so den Vorgänger erreicht dann können sie sich den Schrott behalten. Ich will richtiges High-End.

V2.0
2010-09-30, 09:54:29
Was erwartet ihr von einem Refresh im gleichen Prozess?

Ailuros
2010-09-30, 10:05:31
Ach jetzt wird auch schon zugegeben dass es Probleme mit dem Speichercontroller geben soll? Was man alles so lernt....:rolleyes:

Gast
2010-09-30, 10:06:59
Was erwartet ihr von einem Refresh im gleichen Prozess?
Einen RV790-CockDecap-Ring mit dem man in Richtung 1GHz kommt?

Spasstiger
2010-09-30, 10:09:01
Einen RV790-CockDecap-Ring mit dem man in Richtung 1GHz kommt?
Und 400 Watt TDP? :freak:

Dural
2010-09-30, 12:57:01
Was erwartet ihr von einem Refresh im gleichen Prozess?

Ein 12x48SP Chip wäre schon kleiner (ca. 2,8Miliarden Trans.) als GF100 und dürfte sogar weniger Verbrauchen = Mehr Takt abbekommen, mit ca. 30% +/- mehr Leistung als GTX480 da stehen

Ach jetzt wird auch schon zugegeben dass es Probleme mit dem Speichercontroller geben soll? Was man alles so lernt....:rolleyes:

Das weis man seit GF100 da ist, GF10x sind da besser aber noch nicht "Perfekt"

Ailuros
2010-09-30, 13:42:11
Das weis man seit GF100 da ist, GF10x sind da besser aber noch nicht "Perfekt"

Und woher kommt dieses "Wissen" genau? Charlie's These gilt wohl schwer als Quelle. Wenn man NUR den Speicher auf einer GF100 innerhalb der eigentlichen maximalen Speicher-spezifikationen taktet und der Stromvebrauch der GPU steigt nicht unerwartet hoch an, dann sehe ich nichtmal eine Indizie fuer die These. Die meisten Uebertaktungs-uebungen die ich bis jetzt sehen konnte betreffen core/shader/memory, von einem ausgekapselten Speichertest mit Verbrauchs-vergleichen hab ich bis jetzt nichts sehen koennen.

Dural
2010-10-01, 14:12:57
naja man weis ja das beim Fermi die vGPU auch entscheidend für den Speichertakt ist, das bedeutet ja nichts anders das zuerst der Speicherkontroller schlapp macht als der Speicher selber!

Die GF10x sind da aber etwas besser dran, ich weis nicht ob es da veränderungen gab oder es einfach daran liegt das die Chips "kleiner" sind.

Wuge
2010-10-01, 18:18:35
Ist der L2-Takt möglicherweise an den Speichertakt gebunden?

Ailuros
2010-10-02, 07:28:24
Die GF10x sind da aber etwas besser dran, ich weis nicht ob es da veränderungen gab oder es einfach daran liegt das die Chips "kleiner" sind.

Oder einfach dass jeglicher andere GF10x chip nicht die gleichen Probleme mit GF100 teilen welche auch immer diese sind.

-------------------------------------------------------

Zeit zum rausspucken und wenn's nicht stimmt wurde ich halt mal wieder falsch informiert:

GF110 soll um die 430 rangieren und es ist angeblich ein 512SP/128TMU chip. Damit das Ganze hinhaut kann der chip nichts mit Tesla zu tun haben ergo flog wohl u.a. DP raus und ich hab auch ernsthafte Zweifel ob der 384bit Bus noch da ist.

Wenn NV sich nicht mal wieder den Hintern abluegt dann liegt der chip momentan in einem sehr fortschrittlichem Stadium ergo kann man einen 2010 release noch nicht ausschliessen.

Bei einer relativ satten Reduktion duerfte das Ding vielleicht dann einen Doppeldecker ausmachen aber wohl nicht mehr dieses Jahr.

Ich drehe das Zeug schon seit Tagen links und rechts rum um Sinn daraus zu machen, ergo wenn's BS sein sollte bitte nicht hauen. GF104/GX2 womoeglich RIP.

mapel110
2010-10-02, 07:37:05
Klingt sehr unwahrscheinlich mit den 128 TMUs unter 40nm.

Ailuros
2010-10-02, 08:09:40
Klingt sehr unwahrscheinlich mit den 128 TMUs unter 40nm.

Wenn ich wuesste was sie genau entfernt haben koennen und wieviel das Zeug in Transistoren ausmacht koennte ich es auch vielleicht beantworten. Im Vergleich zu GF104 (aber kein 3*16) koennte es vielleicht hinhauen unter der Vorraussetzung dass sie ein bisschen Redundanz aus dem originalen GF100 Design noch entfernt haben.

Ein klein bisschen ist stets moeglich unter dem gleichen Prozess und so wie es aussieht hat es AMD auch mit ihren neuesten Zeug angestellt sonst ist die angegebene die area fuer Cayman um einen Schnitt zu moderat.

Gast
2010-10-02, 10:21:16
128 TMUs oder selbst 128 TFs bei 64 TAs sind für 512SPs einfach absolut unglaubwürdig, erst recht wenn dann noch die verbesserten Fähigkeiten von GF10x dazu kommen.

Vielleicht ist der Hintergrund des Gerüchts eben auch gerade dieser, dass es eben 64 GF10x-TMUs sind, die bei bestimmten Formaten, wie 128 GF100-TMUs filtern. ;)

Vielleicht hat NV bei GF11x noch bei FP32 nachgebessert, sodass die Füllrate noch in mehr Fällen 128 GF100-TMUs entspricht: http://www.behardware.com/articles/795-4/report-nvidia-geforce-gtx-460.html

Ailuros
2010-10-02, 10:50:43
128 TMUs oder selbst 128 TFs bei 64 TAs sind für 512SPs einfach absolut unglaubwürdig, erst recht wenn dann noch die verbesserten Fähigkeiten von GF10x dazu kommen.

Sieht aber nicht danach aus. Eher ein GPGPU nackter GF100 mit doppelt so viel TMUs. Der hypothetische "Trick" waere dann eben so viel "Redundanz" zu entfernen ohne die eigentliche Leistung zu beinflussen. Das entgueltige Resultat duerfte dann auch nicht mehr als maximal 2.3-2.4 Mrd. Transistoren wiegen (bei leicht hoeherer die area dann eben 2.5-2.6Mrd.).

Vielleicht ist der Hintergrund des Gerüchts eben auch gerade dieser, dass es eben 64 GF10x-TMUs sind, die bei bestimmten Formaten, wie 128 GF100-TMUs filtern. ;)

Vielleicht hat NV bei GF11x noch bei FP32 nachgebessert, sodass die Füllrate noch in mehr Fällen 128 GF100-TMUs entspricht: http://www.behardware.com/articles/795-4/report-nvidia-geforce-gtx-460.html

Es gibt Grund fuer meine Vorbehalte der letzten Tage. Irgend etwas sitzt nicht so ganz deshalb verzoegerte ich auch ein bisschen was mir vermittelt wurde. Ueber die 512/128 bin ich mir so sicher wie ich mir momentan sein kann und ich konnte es erst herausquetschen als ich ziemlich heftig ueber die Ueberlegenheit von Cayman laesterte ;)

Gast
2010-10-02, 11:00:53
Sieht aber nicht danach aus. Eher ein GPGPU nackter GF100 mit doppelt so viel TMUs. Der hypothetische "Trick" waere dann eben so viel "Redundanz" zu entfernen ohne die eigentliche Leistung zu beinflussen. Das entgueltige Resultat duerfte dann auch nicht mehr als maximal 2.3-2.4 Mrd. Transistoren wiegen (bei leicht hoeherer die area dann eben 2.5-2.6Mrd.).
Und was für Frequenzen soll ein so stark flächen- und massetransitoren-mäßig abgespeckter Chip noch erreichen? ~500MHz?

Bevor man 128 TMUs einbaut, ist es wohl deutlich sinnvoller einfach den GF104 noch weiter skalieren. 3 GPC und irgendetwas über 10 SMs, den GPCs ist wohl reichlich egal ob sie eine gleiche Zahl an SMs besitzen.

Alternativ wären die Transistoren und/oder Fläche der 128 TMUs auch besser in Taktpotential investiert. Wie man es momentan auch an den GF10x-GPUs mit ihrer verringerten Packdichte und dem gleichzeitig deutlich erhöhtem Taktpotential sieht.

Alles andere als 64 GF10x-TMUs, die wie 128 GF100-TMUs filtern, wäre einfach nur sehr großer Unsinn

LovesuckZ
2010-10-02, 11:06:39
512/128 machen auch deswegen keinen Sinn, weil man dann wieder auf 2xVec16 zurückgeht und mindesten 16 SM benötigt.
Ein GF104 mit 12 SM und 2GPCs wäre vollkommen ausreichend, um mit AMD mitzuhalten, die GPCs bei Tessellation voll auszulasten und unter 450mm^2 und 225 Watt zu bleiben.

Gast
2010-10-02, 11:20:13
Ein GF10x SM liegt wohl um die 20mm² (GF100 ~16mm², laut Anandtech* haben die Veränderungen bei GF10x 25% mehr Fläche erzeugt), fügt man da schon allein 4 Stück hinzu ist man ohne den zusätzlichen Aufwand schon bei fast 450mm².

Da muss bei GF11x wirklich nochmal eine ganz Menge passiert sein, wenn Nvidia GF100 mit einem 430mm² Chip ersetzen will.


*http://www.anandtech.com/show/3809/nvidias-geforce-gtx-460-the-200-king/3

Dural
2010-10-02, 11:48:07
angenommen die 20mm2 pro SM stimmen:

GF108 2x20mm2 / 40mm2

GF106 4x20mm2 / 80mm2

GF104 8x20mm2 / 160mm2

GF11x 12x20mm2 / 240mm2

GF11x 16x20mm2 / 320mm2


GF100 16x16mm2 / 256mm2


Man wäre bei einem 12x48SP/8TMUs Chip schon unter dem GF100 mit 16x16SP/4TMUs aber mit deutlich mehr Einheiten von 576 zu 512SP und 96 zu 64TMUs bei einer DIE fläche von ca. 440mm2 (32ROPs) zu 520mm2

Ist der L2-Takt möglicherweise an den Speichertakt gebunden?

dasselbe hab ich mich auch schon gefragt und es würde perfekt zu den Speicher Symptomen des Fermi passen mit den Auswirklungen von mehr VGPU / Temperatur / Verbrauch auf den Speichertakt!

davidzo
2010-10-03, 02:13:51
dasselbe hab ich mich auch schon gefragt und es würde perfekt zu den Speicher Symptomen des Fermi passen mit den Auswirklungen von mehr VGPU / Temperatur / Verbrauch auf den Speichertakt!

das klingt für gf 100 logisch, aber die symptome ziehen sich ja durch die ganze gf10x serie.
- und die kleinen chips haben doch gar keine l2 caches, oder nicht?

Coda
2010-10-03, 07:06:43
Vielleicht hat NV bei GF11x noch bei FP32 nachgebessert, sodass die Füllrate noch in mehr Fällen 128 GF100-TMUs entspricht: http://www.behardware.com/articles/795-4/report-nvidia-geforce-gtx-460.html
Ganz bestimmt nicht. Das ist ja schon für FP16 praktisch komplett sinnlos.

Hugo
2010-10-03, 12:03:58
512SP's klingen mir nach zu wenig um mit Cayman mithalten zu können

Gast
2010-10-03, 12:10:18
512SP's klingen mir nach zu wenig um mit Cayman mithalten zu können
Wieso?

Die GTX 480 liegt momentan wohl um die 15-20% im Durchschnitt vor der HD 5870. Mit 512SPs ist man bei 22-30%. Jetzt vielleicht noch 10% mehr Takt und man hat einen guten Vorsprung von 34-40%. Dass muss Cayman erstmal erreichen.

Und wenn GF110 auf GF10x aufbaut, könnten es auch 576SPs sein

Hugo
2010-10-03, 12:15:33
wenn ich Ail richtig verstanden habe ordnet GF110 seine SP's wie GF100 und nicht wie GF104.

Wenn ich den SI Thread verfolge soll Barts so schnell wie 5870 sein und Cayman mindestens 30% mehr leisen.
Da muß GF110 sich ganz schön strecken

Dural
2010-10-03, 12:24:23
das klingt für gf 100 logisch, aber die symptome ziehen sich ja durch die ganze gf10x serie.
- und die kleinen chips haben doch gar keine l2 caches, oder nicht?


nein:

GF100 = 768KB
GF104 = 512KB
GF106 = 384KB
GF108 = 256KB

Ailuros
2010-10-03, 17:30:53
wenn ich Ail richtig verstanden habe ordnet GF110 seine SP's wie GF100 und nicht wie GF104.

Ja so ist es. Ob es aber stimmt keine Ahnung.

Wenn ich den SI Thread verfolge soll Barts so schnell wie 5870 sein und Cayman mindestens 30% mehr leisen.
Da muß GF110 sich ganz schön strecken

25-30% aber das ist erstmal nebenwichtig. Die pro SM die area die eingeschaetzt wird duerfte uebrigens ohne TMUs sein.

Kann sein dass NV nach einer Kombination suchte die mit der kleinstmoeglichen die area die groesste Leistungs-steigerung liefern kann. Haben sie jetzt sagen wir mal 10% an core/ALU Frequenz zugelegt dann ist es erstmal auf Papier (bei 128TMUs) nur "schaebige" 110% Texel-fuellrate mehr, ~5% vom 16en SM und nochmal 10% von der Frequenz koennte Dir fuer eine GF110 eine Leistungssteigerung von ueber 25% geben was dann das Resultat eben mehr oder weniger auf das gleiche Nivaeu platziert wie 480 vs. 5870 (mehr oder weniger).

Das dumme ist dann eben halt dass diese These so absurd klingt weil es manchen zu schwer zum verdauen faellt dass GF100 doch ein paar TMUs haette haben koennen und dass die 64 TMUs auf GF104 wohl doch nicht rein dekorativ sind und doch etwas bringen.

Wenn die Botschaft krumm sein solltet schmeisst mir nichts an den Kopf; im Gegenfall sollten erstmal diverse Herren auf finale Echtzeit-leistung zukuenftiger Produkte warten denn sie werden auch sowieso an der Front hocken und das Resultat fast mit ihrem Leben verteidigen LOL.

Du liebe Zeit sind SPs bzw. ALUs dass A und O einer GPU und der Grund warum sich GF100 nicht anstaendiger distanzieren sicher nur seine 1.4 TFLOPs.

Stimmt jetzt doch alles und wir haben einen ~430mm2 core dann geht das Ganze wohl nach ein oder 2 metal spins locker auf eine GX2.

***edit: in ca. 3 Wochen werd ich vielleicht die ersten sicheren Infos haben.

Gast
2010-10-04, 16:47:58
GF10x erreicht wohl wirklich nur maximal 1/12 SP bei DP und nicht wie teilweise vermutet 1/3(ohne künstliche Drosselung für GeForce): http://www.anandtech.com/show/3961/nvidia-launches-quadro-2000-600

Gast
2010-10-04, 16:51:17
Wenn die Tabelle bei Anand stimmt, dann hat GF108 wohl nur ROP-Partitionen mit 4 ROPs je 64-Bit SI.

MadManniMan
2010-10-04, 17:02:40
Wenn die Tabelle bei Anand stimmt, dann muss mir jemand dabei helfen, die Benutzung bzw. Nichtbenutzung der Chips seitens Nvidia für die Quadros bzw. Geforces zu erklären.

Vom GF100 werden also Quadro 6000 = Geforce GTX 470, Quadro 5000 = Geforce GTX 465 und Quadro 4000 benutzt - letzterer stellt eine glatte Halbierung(!) vom Fermi dar. Sowas hatten wir zuletzt mit der Radeon 9500 mit 64 MB!
Der GF104 wird hingegen gar nicht als Quadro angeboten.

Benötigt Nvidia die "besseren" GF100 für die GTX 480? Oder hält Nvidia bewusst seit einer ganzen Weile für Vollausbauten in einem Gewaltlaunch zurück?

Gast
2010-10-04, 17:14:07
Wenn die Tabelle bei Anand stimmt, dann muss mir jemand dabei helfen, die Benutzung bzw. Nichtbenutzung der Chips seitens Nvidia für die Quadros bzw. Geforces zu erklären.

Vom GF100 werden also Quadro 6000 = Geforce GTX 470, Quadro 5000 = Geforce GTX 465 und Quadro 4000 benutzt - letzterer stellt eine glatte Halbierung(!) vom Fermi dar. Sowas hatten wir zuletzt mit der Radeon 9500 mit 64 MB!
Der GF104 wird hingegen gar nicht als Quadro angeboten.

Benötigt Nvidia die "besseren" GF100 für die GTX 480? Oder hält Nvidia bewusst seit einer ganzen Weile für Vollausbauten in einem Gewaltlaunch zurück?

Liegt wahrscheinlich daran dass der GF100 in 480er Ausführung nicht mehr den Ansprüchen eines 24h Betriebs genügt.
Generell sind diese Karten im Normalfall etwas niedriger getaktet und haben eine niedrigere Vcore.

Dural
2010-10-04, 18:22:53
ja sieht so aus...

interessant wäre noch der takt, die Quadro 2000 entspricht ja der GTS450 aber mit satten 40% weniger TDP als diese!

Gast
2010-10-04, 18:30:08
Benötigt Nvidia die "besseren" GF100 für die GTX 480? Oder hält Nvidia bewusst seit einer ganzen Weile für Vollausbauten in einem Gewaltlaunch zurück?

Eher benötigt man GF104 für den Geforce-Markt, der Chip ist jetzt nicht so klein und die Nachfrage durch das gute P/L-Verhältnis groß.

Gasti
2010-10-04, 18:52:51
Eher benötigt man GF104 für den Geforce-Markt, der Chip ist jetzt nicht so klein und die Nachfrage durch das gute P/L-Verhältnis groß.

Was würde man auch mit GF104 wollen?
Er hat kein DP, kein ECC, kleinere Caches und eine ungünstigere Anordnung der SPs.
Produktionskosten sind bei den Preisen auf vollkommen irrelevant.

Hugo
2010-10-04, 20:30:48
Stimmt jetzt doch alles und wir haben einen ~430mm2 core dann geht das Ganze wohl nach ein oder 2 metal spins locker auf eine GX2.


verstehe ich dich richtig, dass dieser Chip (GF110) so wenig Strom verbraucht um auf ner GX2 verbaut werden zu können? Trotz 512SP's und 128TMU's?

=Floi=
2010-10-04, 20:38:24
die caches sind bezogen auf eine einheit bei allen G1XX modellen gleich!
das hat mich auch ein wenig gewundert, ist aber ein logischer schritt und ganz gut.

edit
du kannst auch 2 GF100 auf einer karte verbauen. takt und deaktivierte einheiten sind das andere!

Ailuros
2010-10-05, 11:47:03
verstehe ich dich richtig, dass dieser Chip (GF110) so wenig Strom verbraucht um auf ner GX2 verbaut werden zu können? Trotz 512SP's und 128TMU's?

Unter der Vorraussetzung dass es sich um einiges kleinere die area wie beim GF100 handelt warum nicht? GT200b (B3) war auch 470mm@55nm. Obwohl es eigentlich von den Volts/chip abhaengt mal ganz grob vereinfacht ein chip mit einem +/-170W TDP kann sehr wohl Material fuer eine GX2 sein nur dann wohl eben auch nicht gleich vom ersten Schub.

Hugo
2010-10-05, 16:52:52
kleinere DIE area heißt ja nicht zwangsläufig weniger Energieverbrauch.
Ich frag mich was NV da alles abgespeckt im Vergleich zum GF100.....
170W TDP klingt sehr interessant für die Konfiguration des Chips.

Dural
2010-10-05, 20:26:06
interessant wäre noch der takt, die Quadro 2000 entspricht ja der GTS450 aber mit satten 40% weniger TDP als diese!

625MHz

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/oktober/fermi-profikarten-auf-basis-neuer-grafikchips/

Ailuros
2010-10-06, 10:02:53
kleinere DIE area heißt ja nicht zwangsläufig weniger Energieverbrauch.

Zwangslaeufig nicht, aber innerhalb der gleichen chip Familie und dem gleichem Herstellungsprozess und natuerlich ausser chip X ist problematisch gilt es in der Regel schon. Anders GTX470 (526mm2/>3Mrd. xtors) = 215W TDP und GTX460 (364mm2/<2Mrd. xtors) = 160W TDP.

Ich frag mich was NV da alles abgespeckt im Vergleich zum GF100.....
170W TDP klingt sehr interessant für die Konfiguration des Chips.

170W TDP ist mehr oder weniger eine obere Schwelle fuer einen chip wenn man mGPU gehen will und immer noch innerhalb 300W bleiben will. Damit man auf ~170W faellt muss man die Volts bzw. Frequenz des chips dann auch wohl ziemlich heftig reduzieren.

Bucklew
2010-10-06, 11:04:17
Müsste man den Thread nicht eigentlich in GF1xx umbennen? ;)

Ailuros
2010-10-06, 14:08:28
512SPs fuer GF110 so gut wie gesichert IMO. Wenn's eben nicht von NV selber kommt und...wo ist Gipsel's Unterschrift nochmal genau? :cool:

AwesomeSauce
2010-10-06, 14:52:08
Die 512 SPs kommen also von AMD;) Soll das ein 4-GPC Design werden? Was Neues zu den anscheinend 128 TMUs/TFUs/TAUs? 512 SPs u. 128TMUs bei einer TDP von ca. 170-190W klingt fast schon zu schön...

Ich frage mich aber, warum man als Midlife-Kicker und Cayman/Barts-Konkurrenz einen GF100-Aufguss anbieten will, und nicht einen aufgebohrten GF104.

Ailuros
2010-10-06, 15:03:58
Die 512 SPs kommen also von AMD;) Soll das ein 4-GPC Design werden? Was Neues zu den anscheinend 128 TMUs/TFUs/TAUs? 512 SPs u. 128TMUs bei einer TDP von ca. 170-190W klingt fast schon zu schön...

Ich hab die 170W in ganz einem anderem Zusammenhang erwaehnt. Ich sagte wenn der chip so gross ist wie behauptet, dann koennte es moeglich sein dass sie nach einem weiterem spin und stark reduzierten Frequenzen auf irgendwo 170W TDP pro chip landen koennte damit man das Ding auch eventuell als Material fuer mGPU benutzen koennte.

Im allerbesten Fall koennte GF110 2*6pin werden, obwohl ich eher auf 6pin+8pin tippen wuerde.

Ich frage mich aber, warum man als Midlife-Kicker und Cayman/Barts-Konkurrenz einen GF100-Aufguss anbieten will, und nicht einen aufgebohrten GF104.


These A:
3 GPC ala 104
576SPs * 2 FLOPs * 1.4 GHz = 1613 GFLOPs
96 TMUs * 750MHz = 72 GTexels/s

These B:
512SPs/128 TMUs
512SPs * 2 FLOPs * 1.4GHz = 1434 GFLOPs (-12%)
128 TMUs * 750MHz = 96 GTexels/s (+33%)

Ist zwar nur eine ziemlich bloede Milchmaedchen-rechnung da noch einige andere Faktoren fehlen, aber These B ist weder ein reiner GF100 noch ein reiner GF104 Aufguss wenn alles andere stimmt. Eher vielleicht eine 3D only Kreuzung der beiden mit dem kleinstmoeglichem Aufwand und der groesstmoeglichen Leistungssteigerung.

***edit: benutzte Frequenzen sollen gar nicht heissen; ich hab lediglich die GTX480 Frequenzen fuer's Beispiel ausgeliehen. Wenn diesmal nichts schief gelaufen ist dann irgendwo um die 725-750MHz?

davidzo
2010-10-06, 16:14:14
ich denke these A ist sowohl was den diespace, time to market, als auch TDP angeht (12 vs 16SMs) die eindeutig bessere wahl.

Leistungsmäßig glaube ich nicht dass die tmus derzeit limitieren, viel weniger noch die in jedem SM enthaltenen polymorph engines. Eher glaube ich würde sich die mehrleistung der shader von these A positiv bemerkbar machen.

Wir wissen dass nvidia bei GF100 recht verschwenderisch mit dreiecksleistung umgeht, dort kann man einiges kürzen ohne das es eng wird, erreicht doch die GTX460 mit weniger als der hälfte der einheiten (7 vs 15 polymprh engines) eine ähnliche effizienz und merkwürdigerweise eine viel niedrigere TDP.

Auch aus dem Vergleich GF100 vs GF104 sehen wir dass tmus eventuell doch nicht so unwichtig sind. Allerdings sieht man auch wie gut sich die GTX465 gegen die 460 schlägt, die anzahl tmus, deren fähigkeiten und anzahlen sollten also auch nicht überbewertet werden. eine moderate steigerung hier wäre am logischten.

Am meisten hinter ATI herhinken tut man immernoch bei der Rechenleistung. Mehr Alus sollten also der überlegenen dreiecksleistung, tesselation und bandbreite erst richtig dampf machen.

Ich denke nicht dass man das GF104 konzept jetzt über haufen wirft um etwas neues auszuprobieren. Die Antwortzeiten gegenüber AMD wären mit einem 576sp chip bedeutend geringer, da der designaufwand viel kleiner ist als wenn man schon wieder die architektur umbaut...

AwesomeSauce
2010-10-06, 17:21:54
@davidzo
Sehe ich genauso. Mehr Shader-Power schadet bestimmt nicht, hier hat man den grössten Abstand zur Konkurrenz. Geometrie-Durchsatz hat man genug, auch 96 TMUs würden bei gleicher Effizienz bestimmt reichen.

Die 512 SP Variante soll ja aber bereits in Stein gemeisselt sein, soweit das überhaupt möglich ist.;(

Gast
2010-10-06, 18:37:23
Aber warum immer mehr SPs... Warum nicht die SPs höher takten, irgendwo ist der Ansatz der 1D Einheiten doch falsch wenn man massivst Diesize benötigt, weil sich die Taktfrequenz nicht mit dem erhöhten Mehrverbrauch oder Hitzeentwicklung durchsetzen lässt.

Dural
2010-10-06, 18:38:29
Die Rechung stimmt ja so auch gar nicht, entweder 700/1400 oder 750/1500MHz was anderes wird wohl nicht gehen ;)

Für den Gamer Markt wäre ein 576SP sicher die bessere Wahl... mit ca. 750MHz könnte man immer noch unter den 300Watt TDP bleiben und somit eine deutliche mehrleistung von ca. 30% gegenüber GTX480 raus holen... zudem wäre die DIE sehr wahrscheinlich sogar etwas kleiner als GF100 jetzt...

das dumme ist nur das NV nicht mehr nur noch den Gamer Markt beliefern will... das heist wir werden den 512SP Chip mit 128TMUs inkl. den ganzen Vorteilen die GF100 gegenüber GF104 hat sehen ;)

master_blaster
2010-10-06, 18:47:25
Ist dieser 512SP-Chip mit 128TMUs denn nicht einfach nur ein GF100 im Vollausbau, also kein neuer Chip? Macht ja keinen Sinn, Hardware die man schon hat extra neu zu entwickeln ...

Dural
2010-10-06, 18:51:10
GF100 hat nur 64TMUs, aber ja man könnte das teil auch GF100b nennen

AwesomeSauce
2010-10-06, 18:51:40
GF100 hat keine 128 TMUs...

Edit: Zu langsam...

master_blaster
2010-10-06, 19:17:14
GF100 hat nur 64TMUs, aber ja man könnte das teil auch GF100b nennen
Oh, ok. Ich hätte schwören können, das Verhältnis sei 4:1 gewesen. Danke für die Aufklärung.

Ailuros
2010-10-07, 11:21:48
ich denke these A ist sowohl was den diespace, time to market, als auch TDP angeht (12 vs 16SMs) die eindeutig bessere wahl.

IMHO weder noch. Nach Anand soll eine GF104 SM (3*16, 1 davon DP faehig, superscalar, 8 TMUs) ca. 25% groesser sein als ein GF100 SM (2*16, DP, 4 TMUs).

Wass passiert wenn ich im zweiten Fall DP nur im einen SIMD lasse und 4 TMUs hinzufuege (ehrliche Frage)?

TDP ist eine komplizierte Kombination von Transistoren-Anzahl, die area, Frequenzen, voltage usw.

Time to market....tja wenn NV die 104/GX2 fuer Q4 2010 tatsaechlich storniert hat und es kommt stattdessen ein GF110, dann hab ich erstmal Grund zu glauben dass vielleicht die 110 Entwicklung besser gelaufen ist als sie selber erwarteten.

Leistungsmäßig glaube ich nicht dass die tmus derzeit limitieren, viel weniger noch die in jedem SM enthaltenen polymorph engines. Eher glaube ich würde sich die mehrleistung der shader von these A positiv bemerkbar machen.

Dann haette GF104 auch nicht wirklich 64TMUs gebraucht oder? Und dass soll jetzt auch nicht heissen dass 104 die Mehrzahl seiner Effizienz nur aus den TMUs saugt. Es ist stets eine Kombination von mehreren Faktoren. Meine Milchmaedchen-rechnung zeigt bei gleicher Frequenz 12% mehr FLOPs fuer die erste These was sich eigentlich durch maessige Uebertaktung leicht reinholen laesst. Waere der GF100 nicht so abgekackt und der Stromverbrauch so miserabel hatten sie eigentlich beim top dog eine 725MHz core Frequenz geplant und via leichtem overvolting eine ALU Frequenz von ca. 1.6GHz (bei pre-launch Einschaetzungen von ca. 1.0-1.05V).

Die zusaetzlichen 33% die aber 128 gegen 96 TMUs liefern koennen, koennen wohl nicht so leicht hereingeholt werden durch Frequenz-steigerungen IMO.

Wir wissen dass nvidia bei GF100 recht verschwenderisch mit dreiecksleistung umgeht, dort kann man einiges kürzen ohne das es eng wird, erreicht doch die GTX460 mit weniger als der hälfte der einheiten (7 vs 15 polymprh engines) eine ähnliche effizienz und merkwürdigerweise eine viel niedrigere TDP.

Dreiecks-leistung bei was genau? Wenn's um stinknormale Geometrie geht ist es eher selten dass sich selbst Fermi gegenueber GT200 ausser in sehr bestimmten Faellen absetzt. Wenn es aber zu Tessellation kommt, welches momentan zwar immer noch in eher theoretischen/synthetischen Ebenen bleibt sind die Unterschiede zwischen den beiden schon gross. GF110 sieht nach einem mainstream high end chip aus und da kann wohl NV schwer einen Rueckschritt in Sachen Tessellation zeigen. Und ja natuerlich wuerde ich sagen dass es bei 16SMs des 110 dann auch 4 GPCs sind.

Auch aus dem Vergleich GF100 vs GF104 sehen wir dass tmus eventuell doch nicht so unwichtig sind. Allerdings sieht man auch wie gut sich die GTX465 gegen die 460 schlägt, die anzahl tmus, deren fähigkeiten und anzahlen sollten also auch nicht überbewertet werden. eine moderate steigerung hier wäre am logischten.

Da kann ich Dir genauso mit dem Gegenargument kommen dass eine GF104 im Vollausbau den Hintern ziemlich schoen versohlen koennte. Ganz nebenbei bei der 465 rastert der chip theoretisch bis zu 22 pixels/clock (2 pro SM) und die 460 bis zu 14 pixels/clock.

Zwischen These A & B oben sind es 24 vs. 32 pixels/clock rasterizing (wobei auch GT200 bis zu 32 pixels/clock rastert...)

Am meisten hinter ATI herhinken tut man immernoch bei der Rechenleistung. Mehr Alus sollten also der überlegenen dreiecksleistung, tesselation und bandbreite erst richtig dampf machen.

SP != ALU. These A = 12 SMs, These B = 16 SMs. Wie sieht es denn eigentlich bei rein arithmetischen synthetischen Tests zwischen 460 und 465 oder 470 genau aus?

Ich denke nicht dass man das GF104 konzept jetzt über haufen wirft um etwas neues auszuprobieren.

NV hat oefters in der Vergangenheit neue Aspekte in mainstream chips praesentiert, von denen auch nur Bruchteile zuerst zum kommenden high end chip adoptiert wurden und das ganze Paket dann mit noch hoeherer Effizienz spaeter nachgeladen wuerde. Ergo es ist wohl nicht das erste Mal.

Ausserdem sieht der gesamte 104 Aufbau eher ideal fuer einen mainstream chip aus; ich hab aber so meine eigene Vorbehalte dass man das gesamte Konzept ohne jegliche Aenderungen so kurzfristig im high end Bereich benutzen kann.

Und das mit dem ganzen TDP Krampf ist auch fuer die Tonne. Wenn man GF100 gegen GF104 vergleicht (Chipkomplexitaet, Anzahl der Transistoren usw.) dann ist 104 nicht wirklich das Weltwunder das jeder sehen will. Die Skalierung nach unten ist stinknormal fuer einen chip wie GF104 und AMD wird bald zeigen dass es unter 40G sogar noch besser geht.


Die Antwortzeiten gegenüber AMD wären mit einem 576sp chip bedeutend geringer, da der designaufwand viel kleiner ist als wenn man schon wieder die architektur umbaut...

Und Du weisst woher genau wie die interne Entwicklungs-planung verlaufen ist? Kurz bevor GF100 in die Startloecher ging, hiess es dass NV parallel noch an zwei weiteren zuekuenftigen high end chips arbeitet. Einer der beiden ist wohl Kepler, aber es weiss wohl keiner wann jegliches Projekt genau an die Startloecher ging und was ihre interne Simulationen in der Zwischenzeit gezeigt haben.

Der ganze GF104 Weihrauch ist zwar schoen und gut aber ich hab das Gefuehl dass wir das gesamte Konzept mit noch hoeherer Effizienz wohl erst bei der 28nm Generation sehen koennten, eben u.a. weil sie mehr Zeit dafuer hatten.

Waere GF100 nicht so problematisch als chip gewesen haetten wir wohl einen top dog mit 16 SMs gesehen und etwas hoeheren Frequenzen und die Ableger haetten sich auch um einiges besser platzieren koennen gegenueber der 16SM top dog Variante und auch im Vergleich zu GF104.

Hugo
2010-10-07, 15:04:04
IMHO weder noch. Nach Anand soll eine GF104 SM (3*16, 1 davon DP faehig, superscalar, 8 TMUs) ca. 25% groesser sein als ein GF100 SM (2*16, DP, 4 TMUs).

Wass passiert wenn ich im zweiten Fall DP nur im einen SIMD lasse und 4 TMUs hinzufuege (ehrliche Frage)?


ich vermute 25%-33% kleiner als der SM des GF100. richtig?


Und Du weisst woher genau wie die interne Entwicklungs-planung verlaufen ist? Kurz bevor GF100 in die Startloecher ging, hiess es dass NV parallel noch an zwei weiteren zuekuenftigen high end chips arbeitet. Einer der beiden ist wohl Kepler, aber es weiss wohl keiner wann jegliches Projekt genau an die Startloecher ging und was ihre interne Simulationen in der Zwischenzeit gezeigt haben.


was is denn der 2te HighEnd Chip neben Kepler?

Gast
2010-10-07, 15:10:52
Nochmal zur 128-TMU-These:

Eine GTX 480 ist gute 40-50% schneller als eine GTX 460 und das bei nur 11% reiner TMU-Mehrleistung (bei FP16 ist sie gar langsamer) bzw. braucht man 56 GF104 TMUs @ 800MHz um bei der Durchschnittsleitung 56 GF100-TMUs @ 600MHz zu erreichen.
Wo sollen da bitte die doppelte Zahl der TMUs noch ein sinnvolle Skalierung bringen?

Höchstens wie reden über 64x/128x AF auf GF11x? ;D

huch
2010-10-07, 16:08:26
wie wär's mit 12SM (4x16SP 1DP 8TMU)?

damit wäre die arithmetische Dichte nochmal höher so daß diese 768SP gerade noch in ein DIE passen - und die 96TMU würden auch ziemlich gut passen.

und eventuell noch halber Cache pro SM - dann wäre so ein hypothetischer GF110 wohl kaum größer als GF100, bei viel höherer Potenz in 3D - um den Preis daß TESLA damit keinen Sinn mehr macht. Aber diesen Markt könnten sie ja bis Kepler mit GF100 bedienen...

@AIL: arg unrealistisch?

Gast
2010-10-07, 16:15:22
Damit kommt man wohl schon über die ~260mm² SM-Fläche, die beim 530mm² GF100 vorhanden ist.
Und mit dem ebenfalls spekulierten 256-Bit SI kann man einen solchen Chip wohl kaum noch füttern.

davidzo
2010-10-07, 18:19:28
256bit steht doch gar nicht mehr zur diskussion, ich denke 384bit für den nächsten highendchip sind klar?!
das 256bit SI kam von lopvesucks. niemand anders redet hier sonst von 256bit zumal wir die schwächen vin gf10x s speichercontroller ja gerade diskutiert haben. am wahrscheinlichsten ist weiterhin 384bit!

Gast
2010-10-07, 18:23:00
Wenn der tape out des chips erst vor ein paar Wochen stattgefunden hat, machen die road-maps der AIBs auch absolut Sinn. Worueber ich mir nicht im klaren bin ist wofuer 110 genau steht, denn die diversen Einzelheiten ueber das Ding widersprechen sich brutal in mehreren Stellen. Es kann z.B. nicht einen 384bit bus haben und auf vendor road-maps mit 2GB auftauchen.
Bei <500mm² und >=512SPs sind 512-Bit nicht sehr realistisch

Ailuros
2010-10-08, 09:03:29
Bei <500mm² und >=512SPs sind 512-Bit nicht sehr realistisch

Vendor roadmaps sind mehr als oefters anfaellig auf Fehler; falls nicht dann ist es im besten Fall ein 256bit Bus.


was is denn der 2te HighEnd Chip neben Kepler?

Fermi/Kepler mid life kicker?

256bit steht doch gar nicht mehr zur diskussion, ich denke 384bit für den nächsten highendchip sind klar?!
das 256bit SI kam von lopvesucks. niemand anders redet hier sonst von 256bit zumal wir die schwächen vin gf10x s speichercontroller ja gerade diskutiert haben. am wahrscheinlichsten ist weiterhin 384bit!

Nochmal auch fuer Dich auf vendor roadmaps (die in Zwischenzeit schon nicht mehr gueltig sein koennten) stand eine 104/GX2 unter GT4xx fuer Q4 2010 an und fuer Q1 2011 eine GT5xx mit 2GB Speicher.

Und ja wie oben erwaehnt koennten die 2GB durchaus ein typo oder Missverstaendnis sein, ist ja auch wurscht fuer vendor roadmaps. Falls nicht dann ist eben wohl doch ein 256bit Bus. Wenn's sonst keine Probleme gibt kann man heute von einem 256bit Bus locker =/>200GB/s Bandbreite bekommen. Lange Geschichte kurz: es handelt sich eben im gegebenen Fall NICHT um irgend eine Erfindung von irgend jemand sondern basiert auf echten Indizien.

Ich bestehe aber auf noch nichts bis ich mir sicher bin; sicher sind momentan fuer GF110 die 512SPs.

igg
2010-10-08, 10:00:34
Nochmal auch fuer Dich auf vendor roadmaps (die in Zwischenzeit schon nicht mehr gueltig sein koennten) stand eine 104/GX2 unter GT4xx fuer Q4 2010 an und fuer Q1 2011 eine GT5xx mit 2GB Speicher.
...
sicher sind momentan fuer GF110 die 512SPs.
Das ist doch mal eine Ansage :). Hoffentlich heißt Q1 2011 nicht wieder April/Mai...

Iruwen
2010-10-08, 10:13:17
Naja, dann sagt man halt das Geschäftsjahr war gemeint :D

LovesuckZ
2010-10-08, 10:46:09
Und das mit dem ganzen TDP Krampf ist auch fuer die Tonne. Wenn man GF100 gegen GF104 vergleicht (Chipkomplexitaet, Anzahl der Transistoren usw.) dann ist 104 nicht wirklich das Weltwunder das jeder sehen will. Die Skalierung nach unten ist stinknormal fuer einen chip wie GF104 und AMD wird bald zeigen dass es unter 40G sogar noch besser geht.


Das perf/watt Verhältnis ist bei GF104 wesentlich besser als bei GF100. Es gibt nur seltene Fälle, wo eine GTX480 auch mal ihren doppelt so hohem Stromverbrauch in doppelt soviele Frames ummünzen kann. Eine GTX470 wird dagegen komplett weggeeffizient. So benötigt die Zotac AMP! Version knapp 50-60 Watt weniger bei ähnlicher Leistung in 95% der Fälle.

Gast
2010-10-08, 10:52:58
Das perf/watt Verhältnis ist bei GF104 wesentlich besser als bei GF100. Es gibt nur seltene Fälle, wo eine GTX480 auch mal ihren doppelt so hohem Stromverbrauch in doppelt soviele Frames ummünzen kann. Eine GTX470 wird dagegen komplett weggeeffizient. So benötigt die Zotac AMP! Version knapp 50-60 Watt weniger bei ähnlicher Leistung in 95% der Fälle.

Perf/Watt ist hier auch eine unzulässige Größe. Ailuros hat schon Recht, Gf100 hat eben viel Ballast der auch Strom frisst. Die Leistung/Transistor ist sehr gut vergleichbar.

LovesuckZ
2010-10-08, 11:00:56
Perf/Watt ist hier auch eine unzulässige Größe. Ailuros hat schon Recht, Gf100 hat eben viel Ballast der auch Strom frisst. Die Leistung/Transistor ist sehr gut vergleichbar.

Und spielt für einen Leistung/Watt Vergleich welche Rolle?
GF100 hat 55% mehr Transistoren, ist in Form einer GTX480 nur ca. 55% schneller als die GTX460 und verbraucht dabei 100% mehr Strom.
Egal wie man es dreht und wendet, den Leistung/Watt Vergleich gewinnt die GTX460 überdeutlich.

/edit:
Und dabei ist der Vergleich nichtmal ganz fair, hat die GTX480 doch mehr aktive Einheiten zum Vollausbau als die GTX460. Man müsste also eine 448SP GF100 Karte mit vollem Speicherinterface gegen eine GTX460 stellen. Und dann wäre man auch nicht mehr 55% schneller...

Gast
2010-10-08, 11:43:50
Wow - was für ein Vergleich.

Wenn du eine x86-CPU einen DVD-Film wiedergeben lässt, wird das auch wesentlich mehr Watt pro Bild kosten, als wenn es ein spezialisierterer ASIC macht. In einer GPU geht das schon besser, ein Mobile-Chip kann's noch besser usw.

Du weißt sicher, worauf ich hinaus will, oder?

Ailuros
2010-10-08, 16:28:17
Das perf/watt Verhältnis ist bei GF104 wesentlich besser als bei GF100. Es gibt nur seltene Fälle, wo eine GTX480 auch mal ihren doppelt so hohem Stromverbrauch in doppelt soviele Frames ummünzen kann. Eine GTX470 wird dagegen komplett weggeeffizient. So benötigt die Zotac AMP! Version knapp 50-60 Watt weniger bei ähnlicher Leistung in 95% der Fälle.

Dann rede ich wohl nur mit besoffenen enginners im Hintergrund oder? Die wortwoertliche Beschreibung hier ist "somewhat" und nicht "wesentlich".

Nochmal so lange GF100 problematisch ist mit dem Stromverbrauch ist jeglicher Vergleich fragwuerdig. Ich hab zwar nicht die blasseste Ahnung was sie mit GF110 angestellt haben koennten, aber falls so ein Ding um sagen wir mal 20% schneller sein sollte als eine GTX480 und mit einem um einiges geringeren Stromverbrauch (und natuerlich nicht das alberne 250W TDP als Massstab fuer 480) ankommen sollte, dann aendert sich wohl schon einiges. Die eigentliche Frage ist ob sie genug Zeit hatten jegliche Probleme zu beseitigen.

Und spielt für einen Leistung/Watt Vergleich welche Rolle?

Nimm die ganzen non 3D Transistoren eines GF100 und investiere diese in 3D Transistoren und wir reden nochmal darueber. Gell ist es nett wenn man Fakten gerade so hinschraubt wie es gerade passt oder?

GF100 hat 55% mehr Transistoren, ist in Form einer GTX480 nur ca. 55% schneller als die GTX460 und verbraucht dabei 100% mehr Strom.
Egal wie man es dreht und wendet, den Leistung/Watt Vergleich gewinnt die GTX460 überdeutlich.

Da sieht man mal wieder was fuer 3 Mrd xtors schweren Schrott NV entwickelt oder? LOL Offensichtlicher Sarkasmus, aber es ist eben stets schoen zu sehen wie man manches so verdrehen kann dass es auch schoen hinhaut.

Es gibt keine "aber" hier; GF100 hat dank hw Problemen einen zu hohen Stromverbrauch der erstmal keine 16 SMs zugelassen hat und auch nicht die original projezierten Frequenzen.

Nightspider
2010-10-09, 03:46:21
Bin mal gespannt wo sich ein voller GF100b preislich einordnen würde.

Die GTX480 hatte jetzt innerhalb eines Monats einen Preisverfall von 50-100 Euro.

http://geizhals.at/deutschland/?phist=519524

360 Euro für die günstigsten und 371 Euro für eine EVGA Superclock sind schon ne Hausnummer.

Hoffentlich macht AMD mit der 6870 genug Druck damit die Preise weiter fallen.

Ailuros
2010-10-09, 08:13:25
Es ist kein re-spin afaik.

=Floi=
2010-10-09, 22:28:49
beides klingt schon mal gut.

AnarchX
2010-10-11, 14:38:15
GT 430 (GF108):

http://img2.zol.com.cn/product/53/566/ceW7eeYk5FUk.jpg
http://img2.zol.com.cn/product/53/568/ceoV99GolNGbU.jpg
http://we.pcinlife.com/thread-1529234-1-1.html

LuXon
2010-10-11, 19:02:48
Hat jemand von euch schon die aktuelle ct gelesen? Darin sagt Huang, was an GF100 so falsch gelaufen ist. Z.B. soll die kommunikation der SM's so richtig sch*isse gewesen sein. Darum und wegen noch viel mehr hat das solange gedauert.

Ausserdem sollen bei den nächsten Generationen alle Karten innerhalb von 3 Monaten rauskommen.

ist jetzt natürlich nur noch nebensächlich

Ailuros
2010-10-11, 19:08:07
Hat jemand von euch schon die aktuelle ct gelesen? Darin sagt Huang, was an GF100 so falsch gelaufen ist. Z.B. soll die kommunikation der SM's so richtig sch*isse gewesen sein. Darum und wegen noch viel mehr hat das solange gedauert.

Ausserdem sollen bei den nächsten Generationen alle Karten innerhalb von 3 Monaten rauskommen.

ist jetzt natürlich nur noch nebensächlich

Es ist immer so dass wenn man halbwegs oder ganz ueber den Berg ist zu einigen Zugestaendnissen kommt. Gott sei Dank entbehrt er sich auch nicht seinen eigenen Verantwortungen.

Dass es hoechstwahrscheinlich ein Problem mit den SMs gab ist ja auch nichts Neues. Bei 14 SMs auf einem GF100 sieht der Stromverbrauch noch ziemlich tolerabel aus; alles ueber diesen und es haut radikal auf die Pauke und das ist wohl auch der Grund warum keine einzige Profi-GPU (Quadro oder Tesla) mehr als 14 SMs am Ende hat.

Da er auch irgendwo ueber "tools" blubbert, naehert sich das ganze Fiasko eher einer Blamage. Bei einem so komplizierten chip geht man einfach nicht so schlampig vor.

Hugo78
2010-10-11, 20:20:21
Bei einem so komplizierten chip geht man einfach nicht so schlampig vor.

An der Stelle, muss ich doch mal anfragen, welche anderen Hersteller bis jetzt 3Mrd. in 40nm und komplexer fertigen.

Ich hätte nämlich gerne irgendeinen Anhaltspunkt, dass Fehler grundsätzlich Schlamperei sind,
und nicht einfach passieren weil man Neuland betritt, wo auch mal theoretische Modelle,
in der Praxis versagen, bzw. man erst in der Praxis erkennt, was im theoretischen Modell gefehlt hat.

LovesuckZ
2010-10-11, 21:22:40
An der Stelle, muss ich doch mal anfragen, welche anderen Hersteller bis jetzt 3Mrd. in 40nm und komplexer fertigen.

Ich hätte nämlich gerne irgendeinen Anhaltspunkt, dass Fehler grundsätzlich Schlamperei sind,
und nicht einfach passieren weil man Neuland betritt, wo auch mal theoretische Modelle,
in der Praxis versagen, bzw. man erst in der Praxis erkennt, was im theoretischen Modell gefehlt hat.

Na, es ist nVidia. Da ist es perse schlamperei. :rolleyes:
Das sie mit GF100 Techniken implementiert haben, die vorher nicht vorhanden waren, wird dabei immer ignoriert. Sie sind mit Tessellation 8x schneller als die Konkurrenz aufgrund der parallelen Abarbeit von Geometrieberechnungen. Das ist mehr als r300 gegenüber nv30 bei FP-Berechnung erreichte. Eine komplette Cache-Hierachy abseits vom Texture-Cache sowie ein vereinter L2 Cache und damit die Möglichkeit C++ ähnlich die GPU ansprechen zu können.
Das gab es vorher nicht.

Coda
2010-10-11, 21:36:58
Das kann ich so nicht stehen lassen. AMD verwendet schon seit R600 eine assoziative Cache-Hierarchie.

Gast
2010-10-11, 21:40:26
Trotzdem darf sowas nicht passieren nach all den Jahren und der geballten Erfahrung die nV hat. Muss man doch im Simulator sehen, wenn 14SM ohne Probleme laufen und 2SM mehr auf einmal das Design auseinander nehmen.

LovesuckZ
2010-10-11, 21:43:19
Huang überhaupt zugehört? Laut der Simulation gab es keine Probleme. Sie konnten es also überhaupt nicht wissen.

Hugo78
2010-10-11, 22:32:11
Trotzdem darf sowas nicht passieren nach all den Jahren und der geballten Erfahrung die nV hat.

Sag das mal Intel oder AMD die beide seit 1969 Chips fertigen.
Wenns danach geht, hätte es nie einen "Thoroughbred A", "Agena" oder "Willamette" geben dürfen.

Und wie LZ schon sagt, es gab laut Jen-Hsun Huang einen Unterschied zwischen ihren eigenen theoretischen Modellen und der Praxis.

=Floi=
2010-10-11, 22:49:32
Es müsste aber relativ früh schon testchips gegeben haben und das design müsste auch erheblich breiter noch skalieren. ich will hier nichts zu den devs schreiben, sondern der fehler an sich ist schon sehr kurios. So etwas gibt es wohl auch nur alle 10 jahre...

LovesuckZ
2010-10-11, 22:53:05
Testchips? Hä? Nach der Simulation geht es zum Tape-Out. Da kommt A1 heraus. Das wird auf Funktionalität und Bugs überprüft.
Es gibt keine Testchips. Wie man jedoch sieht, scheint es nur ein GF100 spezifisches Problem gewesen zu sein, da danach alle anderen Chips als A1 auf dem Markt gekommen sind. Und selbst AMD benötigt weiterhin einen Respin, wenn man den Gerüchten glaubt, dass Barts und Cayman ihren Tape-Out im März/April hatten.

Gast
2010-10-11, 23:02:00
Die Gerüchte um Schlamperei bei nV sind letztes Jahr immer wieder aufgetaucht und da GF100 nie mit 16SMs gesichtet wurde, geht man doch davon aus, das der 16. SM nie funktioniert hat. Oder das die ersten 6 Monate nie eine vollständige GF100 GPU hergestellt wurde.
AMD hat Lehren gezogen und bringt Highend+Mainstream GPU sehr nahe beieinander heraus, nV lässt sich gerne 4-5 Monate Zeit. Oder cancelt den Mainstream Teil ganz, wie bei G2x0 geschehen.

AwesomeSauce
2010-10-11, 23:20:55
Die Gerüchte um Schlamperei bei nV sind letztes Jahr immer wieder aufgetaucht und da GF100 nie mit 16SMs gesichtet wurde, geht man doch davon aus, das der 16. SM nie funktioniert hat. Oder das die ersten 6 Monate nie eine vollständige GF100 GPU hergestellt wurde.
AMD hat Lehren gezogen und bringt Highend+Mainstream GPU sehr nahe beieinander heraus, nV lässt sich gerne 4-5 Monate Zeit. Oder cancelt den Mainstream Teil ganz, wie bei G2x0 geschehen.
Und was soll dieser Post genau aussagen? Wenn das Ziel war, möglichst viel oberflächliches Geblubber zu schreiben: Mission accomplished...

Fetza
2010-10-12, 02:25:57
@Ailuros:

Kann man eigentlich davon ausgehen, das es der gf110 (falls er nicht nur ein gerücht ist) noch bis zum weihnachtsgeschäft in die läden schafft, oder ist das eher unrealistisch?

Gast
2010-10-12, 05:48:11
Natürlich nicht, ebenso wenig wie die neuen AMD Highendcards wage ich mal zu behaupten.

aths
2010-10-12, 09:40:58
Bei Nvidia ist es immer so, dass wenn die neue Generation später kommt als erwartet, der Refresh früher kommt als erwartet.

AnarchX
2010-10-12, 09:42:50
Trotz allem wäre bei einem vor kurzem erfolgten Tape-Out für GF110 ein Launch in 2010 doch mehr als optimistisch.

Dural
2010-10-12, 09:55:52
Die Gerüchte um Schlamperei bei nV sind letztes Jahr immer wieder aufgetaucht und da GF100 nie mit 16SMs gesichtet wurde, geht man doch davon aus, das der 16. SM nie funktioniert hat. Oder das die ersten 6 Monate nie eine vollständige GF100 GPU hergestellt wurde.
AMD hat Lehren gezogen und bringt Highend+Mainstream GPU sehr nahe beieinander heraus, nV lässt sich gerne 4-5 Monate Zeit. Oder cancelt den Mainstream Teil ganz, wie bei G2x0 geschehen.

lol ein grösserer widerspruch gibt es ja wohl nicht!

wenn man alle chips auf den selben zeit punkt bringen würde hätten sehr wahrscheinlich alle chips dieser familie auch die selben probleme...

GF104 und co kammen auch nur so viel später weil sie deutlich überarbeitet wurden, sehr wahrscheinlich wegen den ganzen GF100 probleme! und so viel zeit liegen zwisschen GF100 und GF104 nicht einmal wenn man bedenkt das da der halbe chip überarbeitet wurde... NV hat also schon recht früh drauf reagiert.

übrigens gab es 512SP karten, nur nicht im handel...

für den GF110 rechne ich mit min. 20-30% mehr Leistung als GTX480 bei weniger verbrauch als diese Karte! und das liegt durchaus im bereich des möglichen mit einem 512SP / 128TMU Chip.

Iruwen
2010-10-12, 11:08:29
Müssten die mit dem GF104 Design nicht schon angefangen haben bevor es die ersten GF100 Samples gab und die Praxisprobleme offensichtlich wurden? Oder geht das so schnell?

AnarchX
2010-10-12, 11:17:38
Etwa 3 Monate lagen zwischen Produktionsstart von GF100-A3 und GF104-A1.
Sicherlich wird das Grunddesign 2009 schon gestanden haben, aber die Sache mit den Fabrics wurde wohl gleichzeitig an beiden Chips optimiert und bei GF104 hatte man noch etwas mehr Zeit bzw. konnte hier etwas mehr Die-Size zur Problemlösung opfern.

Black-Scorpion
2010-10-12, 11:19:44
Geht natürlich nicht so schnell. Du kannst davon ausgehen das der Chip in Arbeit war als sie noch daran gebastelt haben den GF100 einigermaßen auf den Markt bringen zu können.
Übrigens hat Ail mal etwas zur Schlamperei geschrieben. Da ging es darum das ATI auf die Vorgaben zum Prozess reagiert hat und Nvidia nicht so. Dann braucht man sich auch hinterher nicht zu wundern wenn so was wie der GF100 dabei herauskommt.

AnarchX
2010-10-12, 11:25:10
Ob da so bewusst verletzt wurde, kann hier wohl keiner sagen. Laut Jensen fehlten wo die Leute mit passendem Know-How bei NV. Vielleicht hatten da einige Verantwortliche im entsprechenden Resort die Klappe gehalten und gehofft das Teil kommt heil von TSMC zurück, was aber bekanntlich nicht funktionierte.

Aber diese Top-Down-Strategie sollte NV imo langsam mal ablegen, bei Intel kommt ja auch nicht gleich zu Anfang das EX-Flagschiff der jeweiligen Architektur auf den Markt.
Mit einem etwas größeren GF104 mit vielleicht 320-Bit SI hätte man doch auch die D3D11-Familie eröffnen können, GF100 als Profi-GPU hätte man auf dem Papier launchen können.

Dural
2010-10-12, 11:29:24
Intel bringt doch immer zuerst die EX high end modelle oder hab ich was verpasst?!?



Zwischen GF100 und GF104 liegen wohl min. 6monate, kammen jetzt natürlich auch nur so "zeitnah" zusamen auf den markt da der GF100 im A3 kam und GF104 schon im A1

AnarchX
2010-10-12, 11:35:53
Intel bringt doch immer zuerst die EX high end modelle oder hab ich was verpasst?!?

Mit EX meine ich nicht Extreme-Editions für den Enkunden, sondern Nehalem-EX, Westmere-EX,... . Das sind Multi-Socket-Server-CPUs mit doppelt soviel Kernen, einem gigantischen L3-Cache und einer Die-Size >500mm². Die kommen immer erst dann, wenn schon die nächste Architektur für Enkunden und 2-Sockel-Server am Markt ist.
In so einem ähnliche Bereich würde ich Nvidias "Monster" sehen bzw. wird man sich da hinbewegen, wenn GPGPU einen solchen Wachstum erfahren soll, wie es auf der GTC suggeriert wurde.

Ailuros
2010-10-12, 11:54:11
Na, es ist nVidia. Da ist es perse schlamperei. :rolleyes:
Das sie mit GF100 Techniken implementiert haben, die vorher nicht vorhanden waren, wird dabei immer ignoriert. Sie sind mit Tessellation 8x schneller als die Konkurrenz aufgrund der parallelen Abarbeit von Geometrieberechnungen. Das ist mehr als r300 gegenüber nv30 bei FP-Berechnung erreichte. Eine komplette Cache-Hierachy abseits vom Texture-Cache sowie ein vereinter L2 Cache und damit die Möglichkeit C++ ähnlich die GPU ansprechen zu können.
Das gab es vorher nicht.

Ein jeglicher Herstellungsprozess ist in dem Fall "blind" was jegliche Transistoren bzw. Funktions-Einheiten auf einem chip anrichten.

Testchips? Hä? Nach der Simulation geht es zum Tape-Out. Da kommt A1 heraus. Das wird auf Funktionalität und Bugs überprüft.
Es gibt keine Testchips. Wie man jedoch sieht, scheint es nur ein GF100 spezifisches Problem gewesen zu sein, da danach alle anderen Chips als A1 auf dem Markt gekommen sind. Und selbst AMD benötigt weiterhin einen Respin, wenn man den Gerüchten glaubt, dass Barts und Cayman ihren Tape-Out im März/April hatten.

Es gab sehr wohl Test-dummies fuer GF100, aber das hat hier nichts mit dem Thema zu tun.

Huang überhaupt zugehört? Laut der Simulation gab es keine Probleme. Sie konnten es also überhaupt nicht wissen.

Einen cell library oder noise issue kann man als Beispiel auch nicht vor der Produktion identifizieren und es laesst sich auch nur durch einen kompletten re-spin wieder gut machen.

Ob da so bewusst verletzt wurde, kann hier wohl keiner sagen. Laut Jensen fehlten wo die Leute mit passendem Know-How bei NV. Vielleicht hatten da einige Verantwortliche im entsprechenden Resort die Klappe gehalten und gehofft das Teil kommt heil von TSMC zurück, was aber bekanntlich nicht funktionierte.

Das fettgedruckte ist der eigentliche Punkt hier. Wieso hat der groesste GPU IHV der Welt nicht vorgesorgt dass man sich zeitgemaess das entsprechende know-how einkauft? Nachdem man seit NV30 den kleinsten und neuesten Prozess gemeidet hat geht man zum ersten Mal nach Jahren auf 40G und liegt auf allen Vieren betend dass ja nichts schief geht? Und der ganze bumgate Krampf geht dazu noch auf welche Rechnung? Wenn die Bezeichnung "Schlamperei" manchen zu hart oder uebertrieben vorkommt, nenne ich es eben "vorbildliches engineering" dass aber verdammt auf die Rechnung paukt und wohl schon ziemlich weh tut wenn man zur Kasse als NVIDIA kommt...

@Ailuros:

Kann man eigentlich davon ausgehen, das es der gf110 (falls er nicht nur ein gerücht ist) noch bis zum weihnachtsgeschäft in die läden schafft, oder ist das eher unrealistisch?

GF110 hat schon seine finale Frequenzen.

lol ein grösserer widerspruch gibt es ja wohl nicht!

wenn man alle chips auf den selben zeit punkt bringen würde hätten sehr wahrscheinlich alle chips dieser familie auch die selben probleme...

Also doch keine "parallele Entwicklung" am Ende hm? :biggrin:

GF104 und co kammen auch nur so viel später weil sie deutlich überarbeitet wurden, sehr wahrscheinlich wegen den ganzen GF100 probleme! und so viel zeit liegen zwisschen GF100 und GF104 nicht einmal wenn man bedenkt das da der halbe chip überarbeitet wurde... NV hat also schon recht früh drauf reagiert.

Zwischen deren beiden tape-outs liegen 7 Monate. Wieso sollte ueberhaupt ein 8SM das GF100 (16SMs) Problem haben? AMD sagte mir Oktober 2009 dass GF104 ein quasi 25*15mm/8SM chip sein wird (es kam damals gerade jemand zurueck aus Taiwan). Wann haben sie denn genau was geaendert?

übrigens gab es 512SP karten, nur nicht im handel...

Es sind und waren stets 1 oder 2 16SM chips pro wafer. Daran hat sich schon immer nichts geaendert. Dass die Dinger aber auch einen brutalen Stromverbrauch erreichen hat niemand bei NV zugestanden oder?

Fetza
2010-10-12, 12:27:05
GF110 hat schon seine finale Frequenzen.

Im ersten moment dachte ich: "wtf, lies doch noch mal meine frage!". Aber irgendwie könnte das auch ein "ja" gewesen sein, oder? :D

Ailuros
2010-10-12, 12:33:49
Im ersten moment dachte ich: "wtf, lies doch noch mal meine frage!". Aber irgendwie könnte das auch ein "ja" gewesen sein, oder? :D

Es ist alles was ich momentan weiss. Wenn ein IHV sagt dass ein chip seine finale Frequenzen hat dann ist man auch logischerweise schon bei der Produktion. Von da ab kommt es darauf an wie sich der chip nach dem Produktionsstart verhaelt und NV ist wohl mit Absicht so still darueber weil sie nach dem GF100 Fiasko wohl kein weiteres erleben wollen. Man weiss ja auch nicht wie es genau mit den 40G Kapazitaeten momentan genau aussieht. So wie es aussieht kommt TSMC zweites fab erst im November in die Startschiene (ergo wohl nichts mit der Q3 Versprechung- typische beschissene Projektion seitens TSMC).

Einfacher: best case scenario irgendwo Anfang Dezember IMHO, worst case scenario Q1 2011. Die Zwischenzeit ist eben genau die Zeitspanne zwischen es ist alles nach Plan gelaufen und wir hatten schon wieder Pech.

Dural
2010-10-12, 12:52:44
na dann können wir noch 2010 damit rechnen?!? auch gut, wird dann gekauft! mit der GTX480 kann ich nicht wirklich was anfangen...

Ailuros
2010-10-12, 13:05:15
na dann können wir noch 2010 damit rechnen?!? auch gut, wird dann gekauft! mit der GTX480 kann ich nicht wirklich was anfangen...

Hoerst Du selbst den kleinsten Pieps von NVIDIA diesbezueglich? Wenn NV solche Sicherheits-massnahmen zieht waere es angebrachter momentan noch auf gar nichts zu wetten. Ich bin selber vorsichtig denn GT5xx war bis vor kurzem fuer Q1 2011 angesagt.

AnarchX
2010-10-12, 14:00:55
PHK zu GF110: http://translate.google.de/translate?u=http%3A%2F%2Fbbs.expreview.com%2Fthread-37155-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

GTX 580, 2GiB @ 512-Bit, 8+6Pin und eine TDP ähnlich der GTX 480. Und TMUs sollen laut ihm auch erhöht werden.
Als unwichtiges Detail gibt er an, dass die Öffnung für den Radiallüfter im PCB entfernt wurde.

igg
2010-10-12, 14:04:15
PHK zu GF110: GTX 580, 2GiB @ 512-Bit, 8+6Pin und eine TDP ähnlich der GTX 480. Und TMUs sollen laut ihm auch erhöht werden.
Hatte PHK seit G80 mal Unrecht? Ich glaube nicht. 8+6 Pin klingt ok.

Ailuros
2010-10-12, 14:32:06
PHK zu GF110: http://translate.google.de/translate?u=http%3A%2F%2Fbbs.expreview.com%2Fthread-37155-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

GTX 580, 2GiB @ 512-Bit, 8+6Pin und eine TDP ähnlich der GTX 480. Und TMUs sollen laut ihm auch erhöht werden.
Als unwichtiges Detail gibt er an, dass die Öffnung für den Radiallüfter im PCB entfernt wurde.

Echte 250W TDP oder ala GTX480? :biggrin:

Die 2GB machen mir keinen besonderen Eindruck; wie gesagt ich hatte den hint schon. Was ich jetzt mit dem 512bit Bus genau machen soll weiss ich selber nicht. 64 ROPs und 128TMUs und der ganze Spass nur unter 430mm2?

Das dumme ist dass wenn 512bit stimmen wohl doch etwas mit dem MC nicht stimmt; das tolle ist dann eben dass man selbst mit 900MHz schon 230GB/s Bandbreite erreicht. Irgend was stimmt hier nicht.

MadManniMan
2010-10-12, 14:33:22
Eine 104/GX2 stand 2 Wochen nach Antilles auf vendor road-maps. Es sieht danach aus dass sie es storniert haben. Ob jetzt zeitgleich etwas anderes kommt oder spaeter kann ich nicht wissen.

Vielleicht hatte man eine GX2 auf GF104-Basis gegen Antilles angesetzt, bekam dann aber Wind davon, dass man zuerst etwas gegen Barts haben sollte und hat sich dann voll auf einen vollen GF104 gestürzt?

LovesuckZ
2010-10-12, 14:37:28
512bit klingen im absurden Sinne nach GF104x2. Dann hätte man auch die 128TMUs. Und wenn man die dritte, halb im Raume umherirrende Recheneinheit wieder löscht, käme man auch wieder auf 512 SPs...

Ailuros
2010-10-12, 14:38:58
Vielleicht hatte man eine GX2 auf GF104-Basis gegen Antilles angesetzt, bekam dann aber Wind davon, dass man zuerst etwas gegen Barts haben sollte und hat sich dann voll auf einen vollen GF104 gestürzt?

Es gibt einen GF104 Thread uebrigens. Ergo naechste relevante Antwort dann bitte in diesem ;)

104/GX2 waere bestensfalls ein kleines Stueck ueber Cayman gelegen. Gegen Antilles haetten sie das Ding nie gestellt. So besoffen sind sie nun auch wieder nicht.

Eine 104/GX2 haette sowieso volle 104 chips gehabt afaik. Wieso sollte NV die Dinger nur in der Form einer mGPU veroeffentlichen, wenn die Verkaufszahlen fuer einen einzelnen 8SM/104 diametrisch hoeher waeren?

Fetza
2010-10-12, 14:45:46
PHK zu GF110: http://translate.google.de/translate?u=http%3A%2F%2Fbbs.expreview.com%2Fthread-37155-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

GTX 580, 2GiB @ 512-Bit, 8+6Pin und eine TDP ähnlich der GTX 480. Und TMUs sollen laut ihm auch erhöht werden.
Als unwichtiges Detail gibt er an, dass die Öffnung für den Radiallüfter im PCB entfernt wurde.

Das ist zwar ot aber: Was um himmels willen hauen diese asiaten da für smilies in ihre postings? :eek:

Ailuros
2010-10-12, 14:47:16
512bit klingen im absurden Sinne nach GF104x2. Dann hätte man auch die 128TMUs. Und wenn man die dritte, halb im Raume umherirrende Recheneinheit wieder löscht, käme man auch wieder auf 512 SPs...

Nein. Nochmal auf vendor roadmaps steht momentan fuer Q4 2010 eine 104/GX2 (GT4xx) und eine GT5xx 2GB fuer Q1 2011. Nach Geruechten soll die 104/GX2 aber storniert worden sein.

Wenn Du irgendwo 2GB stehen hast Du folgende Moeglichkeiten:

1. Typo
2. 256bit Bus
3. 512bit Bus

These (3) hab ich bis jetzt ausgeschlossen weil sie zu absurd klang. Da aber in der Geruechtekueche 2GB zunehmend erscheinen, kann ich so langsame These (1) ausschliessen.

Ergo bleibt mir (2) und (3) uebrig. Wenn GF110 sagen wir mal =/>230GB/s Bandbreite brauchen sollte kannst Du tatsaechlich (2) gleich vergessen. 1800MHz GDDR5 fuer einen 256bit Bus errrr.......:rolleyes:

***edit: uebrigens zur Erinnerung....

G80= 384bit
G92= 256bit
GT200= 512bit

LovesuckZ
2010-10-12, 14:49:53
256bit + High-Speed GDDR5 nacht jedoch mehr Sinn, da man so nicht unnötigt Platz verwendet für die Memorycontroller.

AnarchX
2010-10-12, 14:56:45
Momentan hat Nvidia wohl noch nicht mal 0,4ns GDDR5 unter Kontrolle. Außerdem dürfte AMD für Cayman auch größere Mengen an ~6Gbps GDDR5 benötigen.

Ailuros
2010-10-12, 14:59:26
256bit + High-Speed GDDR5 nacht jedoch mehr Sinn, da man so nicht unnötigt Platz verwendet für die Memorycontroller.

Bis zu 1500MHz GDDR5 kann ich mir bei logischen Quantitaeten und Preisen noch vorstellen. Alles darueber klingt mir utopisch.

1500MHz @256bit liefert ungefaehr eine Bandbreiten-Steigerung gegen GTX480 von 8%. Um wie viel sollte GF110 genau schneller sein?

***edit: dumme Frage wuerden eigentlich 6 ROPs pro partition (6*8) Sinn machen? Ich wuerde zwar selber nein sagen aber fragen kostet ja nichts.

AnarchX
2010-10-12, 15:10:42
ROPs arbeiten doch ebenso wie TMUs auf Quad-Basis.

Ailuros
2010-10-12, 15:16:30
ROPs arbeiten doch ebenso wie TMUs auf Quad-Basis.

Es sind dann halt "Ueber-ROPs" die mehr als einen quad bearbeiten koennen :freak: (bitte nicht ernst nehmen).

Ergo wohl doch 64 ROPs wenn der angebliche 512bit Bus kein uebler Scherz sein sollte. Die angebliche die area kann so aber nicht stimmen.

AnarchX
2010-10-12, 15:17:57
Ich bin ja immernoch für die Beyond-AFR-These mit zwei GF104-artigen Chips (vielleicht ist das 430mm2 Teil der Masterchip) auf einem Package, die ohne AFR arbeiten. ;D

Ailuros
2010-10-12, 15:26:56
Ich bin ja immernoch für die Beyond-AFR-These mit zwei GF104-artigen Chips (vielleicht ist das 430mm2 Teil der Masterchip) auf einem Package, die ohne AFR arbeiten. ;D

Wenn die zusaetzliche Logik auf die Du schaetzt irgendwo um die 70mm2 betragen sollte dann waere es aber eine ziemlich beschissene Loesung ;)

AnarchX
2010-10-12, 15:43:29
Vielleicht ist es ja ein 384-Bit SI, was man auf einer Single-Karte entsprechend nutzen könnte, z.B. GTX 560: 384SPs 320-Bit.
Auf dem MCM-Teil werden beide GPUs über diese 128-Bit Verbindung miteinander gekoppelt.


GTX 580: 768SPs (~700SPs Single-GPU), 512-Bit
GTX 570: 672SPs (~600SPs Single-GPU), 384-Bit
GTX 560: 384SPs (=384SPs Single-GPU), 320-Bit


Naja, wahrscheinlicher ist wohl eine falsche Die-Size, dass die Specs nicht stimmen oder gar das Nvidia hier noch ein RV770-artiges Wunder vollbracht hat.

Ailuros
2010-10-12, 15:47:47
Wie ich schon sagte bin ich mir ueber die 512SPs schon sicher.


Naja, wahrscheinlicher ist wohl eine falsche Die-Size, dass die Specs nicht stimmen oder gar das Nvidia hier noch ein RV770-artiges Wunder vollbracht hat.

Wohl eher das erste. NV muss mich fuer jegliche "Wunder" erstmal wieder von Grund auf ueberzeugen.

AnarchX
2010-10-12, 15:49:24
Bei GF104 hattest du auch 33% der SPs unterschlagen. ;)

Ailuros
2010-10-12, 15:53:43
Bei GF104 hattest du auch 33% der SPs unterschlagen. ;)

Bei 104 war die originale Info ueber 8SMs die die area und die Busbreite. Haettest Du so leicht in dem Fall auf 48SPs/SM getippt?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7922686&postcount=1

Wenn man Dir aber jetzt 512SPs/128TMUs sagt (und eben nicht 16SMs) dann interpretier es gerne anders.

AnarchX
2010-10-12, 16:05:45
Also keine Infos zu 16 SMs?
Das lässt wieder Interpretationsspielraum für SMs mit 64SPs, die dann in ungünstigen Fällen natürlich noch etwas weniger Auslastung haben, als die SMs eines GF104.
Die 128 TMUs wären aber immer noch ein Fragezeichen.

GF100 SM: 16mm²
GF104 SM: 20mm² laut Anandtech
GF110 SM: 25mm² Schätzung auf Basis der Veränderung von GF100 zu GF104

GF100: 16 * 16mm² = 256mm²
GF110: 8 *25mm² = 200mm²

Wobei man bei dem Durchsatz der Tessellatoren wohl etwas tun müsste.

Ailuros
2010-10-12, 16:09:59
Sind es immer noch 25mm2 theoretisch bei Deiner GF110 SM Rechnung wenn nur einer der beiden SIMDs ueber DP faehig sind?

AnarchX
2010-10-12, 16:13:52
Soll denn GF110 GF100 auch im Quadro und Tesla-Markt ersetzen?

Wenn man DP ähnlich wie bei GF100 umsetzt kommt da wohl nur 1/4 SP heraus, wie sich das auf die Größe auswirkt lässt sich schwer sagen.

Gast
2010-10-12, 17:06:38
Soll denn GF110 GF100 auch im Quadro und Tesla-Markt ersetzen?


Wie soll das gehen? GF100 ist am Ende, noch breiter geht nicht. Die einzige Chance die NV hat ist aus GF110 eine reine Gamer-GPU zu basteln und so mehr Einheiten bei einer besseren perf/Watt unterzubringen.

AnarchX
2010-10-12, 17:15:03
Wie soll das gehen? GF100 ist am Ende, noch breiter geht nicht. Die einzige Chance die NV hat ist aus GF110 eine reine Gamer-GPU zu basteln und so mehr Einheiten bei einer besseren perf/Watt unterzubringen.
Ähnlich dachte ich auch über GF110.
GF100 ist für Tesla und Quadro doch alles andere als schlecht positioniert. Höchstens einen Respin um den Verbrauch noch etwas zu optimieren, könnte man sich vielleicht leisten, wenn Kepler erst 2012 für diese Märkte erhältlich ist.

Dural
2010-10-12, 17:53:59
eine GF104 GX2 würde für Antilles wohl nicht reichen und deswegen wurde die karte gestrichen... jetzt bastelt man halt was mit zwei GF110 zusammen ;)

aber grundsätzlich gilt doch, alle mGPU karten sind müll von dem her komplett uninteressant wie ich finde.

Gast
2010-10-12, 17:55:20
eine GF104 GX2 würde für Antilles wohl nicht reichen und deswegen wurde die karte gestrichen... jetzt bastelt man halt was mit zwei GF110 zusammen ;)

aber grundsätzlich gilt doch, alle mGPU karten sind müll von dem her komplett uninteressant wie ich finde.

Eine GF104 GX2 reicht nicht mal für eine 5970, genau das ist ja das Problem. Antilles kommt irgendwann Ende des Jahres wenn überhaupt, da hätte man mehr als genug Zeit.

Dural
2010-10-12, 17:59:04
träum weiter!

schon zwei GTX460 reichen für eine 5970 (es gibt genügend test die das beweisen) aus...

und falls du es nicht weist, wo von ich bei deinem posting ausgehe, die GTX460 GF104 haben nur 336SP anstelle der möglichen 384SP (+15% / GX2 +2x15%)

Gast
2010-10-12, 18:03:51
träum weiter!

schon zwei GTX460 reichen für eine 5970 (es gibt genügend test die das beweisen) aus...

und falls du es nicht weist, wo von ich bei deinem posting ausgehe, die GTX460 GF104 haben nur 336SP anstelle der möglichen 384SP (+15% / GX2 +2x15%)

Genau deshalb bringt man die Karte ja auch nicht weil sie reicht. :lol:
Bei einem Board mit 2x 8 PCIe-Lanes (=brauchbarer Vergleich) sieht es da schon anders aus. Zumal man dabei deutlich mehr Strom schluckt.

Gast
2010-10-12, 18:05:05
(+15% / GX2 +2x15%)

Achja, lerne rechnen. :lol:
Bei einer GX2 sind es natürlich auch nur 15%.

Gast
2010-10-12, 18:06:54
2 Volle GF104 in einer GX2 sind sicher machbar mit reduzierte Taktrate.
Die Frage, ob man das brauch, muss man abwarten, erstmal soll AMD 2x GTX480 versenken, dann sehen wir weiter.

Dural
2010-10-12, 18:08:58
nö könnte man mit ca. 700MHz bringen, GTX460 hat gemessen ja nur 130Watt

Genau deshalb bringt man die Karte ja auch nicht weil sie reicht. :lol:
Bei einem Board mit 2x 8 PCIe-Lanes (=brauchbarer Vergleich) sieht es da schon anders aus. Zumal man dabei deutlich mehr Strom schluckt.

deine begründung ist lächerlich... bring mal fakten und nicht irgend welchen fanboy müll!

Achja, lerne rechnen. :lol:
Bei einer GX2 sind es natürlich auch nur 15%.

SLI skaliert nicht zu 100% und genau deswegen hab ich 2x15% geschriben, und von einem GF104 336SP zu 2x GF104 384SP sind es sehr wohl 2x15%... am ende wären es wohl um die + 10% von GX2 zu GX2

Gast
2010-10-12, 18:09:50
deine begründung ist lächerlich... bring mal fakten und nicht irgend welchen fanboy müll!

Meine Begründungen sind Fakten, DU fabrizierst Fanboy-Mull und merkst es offenbar nicht mal. :lol:

Dural
2010-10-12, 18:16:16
nö, du kannst keine beweiss bringen, weil es den auch nicht gibt.

Fakt ist 2x GTX460 = 5970 und du kannst noch so jämmerlich jammer und blödsinn schreiben, ändern wird sich das nicht ;)

und wenn man bedenkt das SLI im durchschnitt so wie so 10% besser skaliert aus CF... egal hat eh keinen sinn und hier geht es um ein anderes thema!

Leonidas
2010-10-12, 21:07:01
Wenn man Dir aber jetzt 512SPs/128TMUs sagt (und eben nicht 16SMs) dann interpretier es gerne anders.


Wie soll dann das gehen? Shader-Cluster mit 32 SE und 8 TMUs? Sprich nicht mehr Rechenleistung als GF100, aber verdoppelte Texturierpower? Erscheint mir sehr zweifelhaft.

V2.0
2010-10-13, 07:08:14
Würde davon abhängen wie man die Shader-Cluster takten kann.

Ailuros
2010-10-13, 07:09:59
Ähnlich dachte ich auch über GF110.
GF100 ist für Tesla und Quadro doch alles andere als schlecht positioniert. Höchstens einen Respin um den Verbrauch noch etwas zu optimieren, könnte man sich vielleicht leisten, wenn Kepler erst 2012 für diese Märkte erhältlich ist.

Ein respin ist sauteuer was Resourcen generell betrifft (Zeit und Kosten). Wenn sie von Anfang an nicht darauf gegangen sind, sieht es nicht danach aus als ob sie es nachtraeglich noch anstellen werden. Es ist zwar nicht optimal GF100 sehr begrenzt weiterzuproduzieren aber bei den Wucherpreisen die Profi-GPUs kosten waere es auch kein Untergang.

Eine GF104 GX2 reicht nicht mal für eine 5970, genau das ist ja das Problem. Antilles kommt irgendwann Ende des Jahres wenn überhaupt, da hätte man mehr als genug Zeit.

http://www.behardware.com/articles/796-9/test-geforce-gtx-460-sli.html

2*GTX460@675MHz (1GB)@SLi

2 Volle GF104 in einer GX2 sind sicher machbar mit reduzierte Taktrate.

Weil die Aktivierung bzw. De-Aktivierung eines einzigen SMs den Stromverbrauch ueber irgend einen nennenswerten Wert beinflusst oder was? Jeglicher chip auf der GTX295 hat einen TDP von 170W und der finale 289W ist eben nicht das doppelte vom ersten.

http://en.wikipedia.org/wiki/GeForce_200_Series

Die Tabelle hier sollte erstmal helfen. Dabei handelt es sich beim GT200b (B3) um einen 470mm2 chip. Die "guten" chips kamen auf GTX285 und GTX295 und der "Abfall" auf GTX275.

Die Frage, ob man das brauch, muss man abwarten, erstmal soll AMD 2x GTX480 versenken, dann sehen wir weiter.

Der Stromverbrauch von dem albernen Gestell ist wohl verdammt schwer zu versenken. Dazu brauechte man wohl eher einen hochgetakten Larabee ;D

Wie soll dann das gehen? Shader-Cluster mit 32 SE und 8 TMUs? Sprich nicht mehr Rechenleistung als GF100, aber verdoppelte Texturierpower? Erscheint mir sehr zweifelhaft.

Mehr per PM. Das zweifelhafte an der Geschichte sind alles andere als die 512SPs die zu oft von mehreren Seiten in der Zwischenzeit auftauchen. Jetzt kam noch das Geruecht von einem 512bit Bus dazu und das wirklich zweifelhafte ist die angebliche 430mm2 die area fuer den ganzen Spass.

Ausserhalb von jeglichem non 3D Schnickschnack die sie vielleicht entfernt haben koennen, kann man zwar etwas an Redundanz rausschmeissen aber das Prozentual in dem Fall ist stets im bestem Fall gering afaik (2-3% an Transistoren im besten Fall). Eine Reduzierung von ca. 100mm2 mit all dem hypothetischen Zusatz bewegt sich IMO im sci-fi Bereich.

Troestend klingt das Geruecht dass der Stromverbrauch in etwa auf GTX480 Nivaeu liegen soll; obwohl hier auch nach wie vor meine Frage bleibt ob es sich um diesmal um "echte" 250W TDP handelt.

Leonidas
2010-10-13, 10:26:50
Ich hab es mir nochmals überlegt .. so falsch sind 512 SP zu 128 TMU auf 512 Bit SI gar nicht. Denn schaue man sich mal den GT200 ab: 240 SP zu 80 TMU auf 512 Bit SI .... eigentlich wäre bei einer Verdopplung der SPs eine nahezu Verdopplung der TMUs nicht so verkehrt, die allermeisten NV-CPUs seit dem G80 sind ähnlich voluminös bei TMUs und SI aufgebaut

AnarchX
2010-10-13, 10:32:19
Aber wo genau soll bei GF100 TMU-Leistung fehlen, dass es eine Verdopplung der TMUs rechtfertigen soll?

Hier gibt es AF-Skalierungstests von GF100 und GT200: http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/5/#abschnitt_skalierungstests
Da sehe ich kaum Potential für deutlich mehr TMU-Leistung

Mit GF104 und Co. darf man hier einfach nicht argumentieren, dass sind GPUs in niedriger Leistungsklasse, wo Nvidia traditionell mehr relative TMU-Leistung verbaut und außerdem hat man hier die ALUs pro SM um 50% erhöht.

Ein respin ist sauteuer was Resourcen generell betrifft (Zeit und Kosten). Wenn sie von Anfang an nicht darauf gegangen sind, sieht es nicht danach aus als ob sie es nachtraeglich noch anstellen werden. Es ist zwar nicht optimal GF100 sehr begrenzt weiterzuproduzieren aber bei den Wucherpreisen die Profi-GPUs kosten waere es auch kein Untergang.


Bei G80 hat man sich ja auch noch einen nachträglichen A3 geleistet. Wenn man GF100 @ Quadro/Tesla bis Ende 2011 verkauft, sollte da noch etwas passieren.

boxleitnerb
2010-10-13, 10:45:49
Also bis zu 25% Verlust ist doch schon ne Hausnummer oder nicht? So langsam könnte 16x HQ AF doch mal kostenlos sein...

AnarchX
2010-10-13, 10:55:26
Was nützt das, wenn AA nicht kostenlos ist?

World in Conflict: SA - 1920x1200

1xAA/1xAF: 150,3 FPS 100% (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/19/#abschnitt_world_in_conflict_soviet_assault)
1xAA/16xAF HQ: 113, 9 FPS 75,8% (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/5/#abschnitt_skalierungstests)
4xAA/16xAF: 84,2 FPS 56% (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/19/#abschnitt_world_in_conflict_soviet_assault)

boxleitnerb
2010-10-13, 11:00:34
Gibt es da eine Überlappung bei der Einheitenauslastung? Soweit ich weiß, sind hauptsächlich die ROPs für AA und die TMUs für AF verantwortlich.

Würde eine Erhöhung der AF-Performance überhaupt keinen Schub bringen oder im Vergleich zu dem massiven Verlust durch AA eben nur einen so kleinen, der sich auch nicht lohnt? Ich meine, irgendwo muss man anfangen, wenn man beides nicht gleichzeitig kostenlos machen kann.

AnarchX
2010-10-13, 11:03:29
Hier und da würden 512SPs mit mehr als 64 TMUs sicherlich einen Vorteil erfahren, aber die Frage bleibt, ob man wirklich gleich eine Verdopplung braucht.
Das TMU zu ALU-Verhältnis wie bei GF104 wäre imo sinnvoller. Aber vielleicht hat Nvidia noch ein paar Tricks gerlernt mit denen sie nun 128 TMUs platzsparend unterbringen.

boxleitnerb
2010-10-13, 11:07:05
Ich könnte mir vorstellen, dass es sinnvoll wäre, wenn man dieses MLAA irgendwann als MSAA-Ersatz ansieht (möglich, Sinn, ja/nein?) und damit hier entsprechend Performance spart, so dass sich die Last wieder mehr zu den TMUs hin verschiebt.

MadManniMan
2010-10-13, 11:22:59
Puh, MLAA kostet aber eben auch so wenig, weil der Qualigewinn so gering ist - es ist ja nur ein Vermatschen™ der Kantenpixel, während MSAA quasi Kantenpixel-Supersampling darstellt. In einem Bild mit einem hohen Kantenanteil (bei hoher Tesselation steigt dieser natürlich beträchtlich!) ist der Anteil an verrechneten Informationen dementsprechend hoch, mit MLAA würde einfach nur viel weichgematscht :(

Gast
2010-10-13, 19:44:43
Jeglicher chip auf der GTX295 hat einen TDP von 170W und der finale 289W ist eben nicht das doppelte vom ersten.


Nicht jeder Chip einer GTX295 hat eine TDP von 170W, ein gesamtes PCB mit einem Chip der GTX295 hätte diese TDP.

Dural
2010-10-13, 19:50:21
512SP / 128TMUs / 64ROPs bei 4xxmm2 hören sich doch eigentlich super an, schon fast zu gut! Das ganze vileicht noch mit 750MHz und man hätte sicher schon 30%+

dürfte unter AA/AF einen deutlichen leistungschub zur GTX480 geben!

Gast
2010-10-13, 19:54:33
Hier gibt es AF-Skalierungstests von GF100 und GT200: http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/5/#abschnitt_skalierungstests
Da sehe ich kaum Potential für deutlich mehr TMU-Leistung


GT200 verliert hier gerade mal 10% in der maximalen Qualitätseinstellung, GF100 knapp 25%, das ist mehr als das Doppelte.

Eine TMU-Erhöhung würde schon einiges bringen, ich denke auch dass GF100 ursprünglich auch mit 128TMUs geplant wurde, aber man hat früh bemerkt, dass dafür einfach nicht genug Platz ist und auf 64 reduziert. Es würde mich nicht überraschen wenn man eine um GPGPU-erleichterte Version mit den 128TMUs bringen würde.

Bucklew
2010-10-13, 19:58:06
Ich hab es mir nochmals überlegt .. so falsch sind 512 SP zu 128 TMU auf 512 Bit SI gar nicht.
Wofür so ein breites SI? Das ist für den nicht wirklich großen Leistungssprung unnötig.

Dural
2010-10-13, 20:51:03
ganz einfach mehr ROPs und mehr bandbreite bei sparsamen und vorallem auch möglichem GDDR5 takt. Die entscheidung ist jetzt nicht mal die dümmste wie ich finde.

vorallem hatte ich heute eine idee, im normalen Fermi fall hätte der chip dann 1MB Cache... wäre die reduktion auf die hälfte also 512kB für ein gamer chip nicht sinnvoll und vorallem möglich??? das würde auch wider etwas platz sparen und keine leistung kosten!?!

Hugo78
2010-10-13, 20:56:13
Der Cache ist nur für HPC wichtig, für Zocker würde ein Bruchteil reichen.
Einfach weil Shaderanweisungen nie so komplex ausfallen, wie CPU ähnliche HPC Geschichten.

LovesuckZ
2010-10-13, 21:14:03
Der Cache ist nur für HPC wichtig, für Zocker würde ein Bruchteil reichen.
Einfach weil Shaderanweisungen nie so komplex ausfallen, wie CPU ähnliche HPC Geschichten.

Jede GPU hat Cache. Und ein Bruchteil reicht mitnichten. GT200 hatte 256kib allein als L2 Texture-Cache. GF100 hat nur noch einen 768kib großen L2 Cache, der jede Art von vorigen Caches (Register, Texture etc.) ersetzen muss.
Dazu kommt, dass durch den L2 Cache die einzelnen SM besser Daten austauschen können. Hilft bei Tessellation.

Hugo78
2010-10-13, 21:16:41
Hmm ok, dass beim Fermi der L2 alles andere auch bedient hab ich so noch garnicht betrachtet.

Ailuros
2010-10-13, 22:20:39
Ich hab es mir nochmals überlegt .. so falsch sind 512 SP zu 128 TMU auf 512 Bit SI gar nicht. Denn schaue man sich mal den GT200 ab: 240 SP zu 80 TMU auf 512 Bit SI .... eigentlich wäre bei einer Verdopplung der SPs eine nahezu Verdopplung der TMUs nicht so verkehrt, die allermeisten NV-CPUs seit dem G80 sind ähnlich voluminös bei TMUs und SI aufgebaut

Eben. Ich hatte genau die gleiche Vorbehalt wie Du am Anfang und ich hab auch an GT200 zurueckgedacht. NV hat eben wohl leider den Tick stets zu "brute-force" zu entwickeln.

Was nützt das, wenn AA nicht kostenlos ist?

World in Conflict: SA - 1920x1200

1xAA/1xAF: 150,3 FPS 100% (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/19/#abschnitt_world_in_conflict_soviet_assault)
1xAA/16xAF HQ: 113, 9 FPS 75,8% (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/5/#abschnitt_skalierungstests)
4xAA/16xAF: 84,2 FPS 56% (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/19/#abschnitt_world_in_conflict_soviet_assault)

Also bei hypothetischen 64 ROPs (oder anders 32 ROPs im "Ueberfluss") kann ich mir so manche extravagantere Turnerei mit AA gegenueber GTX480 vorstellen ueberhaupt wenn die Bandbreite auf 230GB/s noch dazu steigt.

Nicht jeder Chip einer GTX295 hat eine TDP von 170W, ein gesamtes PCB mit einem Chip der GTX295 hätte diese TDP.

Falsch ausgedrueckt sorry; jeglicher GTX295 chip auf seinem eigenem PCB hat einen TDP von 170W, waehrend das dual chip PCB einer 295 einen TDP von 289W hat.


Bei G80 hat man sich ja auch noch einen nachträglichen A3 geleistet. Wenn man GF100 @ Quadro/Tesla bis Ende 2011 verkauft, sollte da noch etwas passieren.

A3 kam fuer G80 fuer die Ultra@1.5GHz. Bei GF100 laesst sich leider nichts mehr aendern ohne einen Bx (re-spin).

Hier und da würden 512SPs mit mehr als 64 TMUs sicherlich einen Vorteil erfahren, aber die Frage bleibt, ob man wirklich gleich eine Verdopplung braucht.

Du selber hast mich vor einigen Seiten daran erinnert dass TMUs und ROPs auf quad Basis arbeiten. Wenn's mehr als 4 TMUs/SM sein sollen, dann ist welche Anzahl unter 8 genau moeglich? LOL

Das TMU zu ALU-Verhältnis wie bei GF104 wäre imo sinnvoller. Aber vielleicht hat Nvidia noch ein paar Tricks gerlernt mit denen sie nun 128 TMUs platzsparend unterbringen.

Hat eigentlich jemand irgendwelche synthetische Shadertests eines GTX460 im Vergleich zu GF100 bisher ausgraben koennen? Irgendwie hab ich das Gefuehl dass jegliche GF104/3GPC These wohl doch nicht das gelbe vom Ei sein koennte von vielen Aspekten wenn es zu high end kommt.

Hmmm....

http://ixbtlabs.com/articles3/video/gf104-p6.html

Fuer einen mainstream chip verhaelt sich der 460 hier zwar gut, aber nach high end Material sieht mir dieses nicht aus. Dass theoretisch ueber 900GFLOPs aus den 7 SMs einer 460 schiessen sagt mir persoenlich auch nicht viel. In der Mehrzahl der Faelle ist die 480 um gute 2x Mal so schnell hier. Aber eben 512 vs. 336SPs oder 1300+ vs. 900+GFLOPs.....

http://ixbtlabs.com/articles3/video/gf104-p5.html

Sieht leicht besser aus bis zu SM2.0 Tests. Wen genau scheren aber heutzutage noch SM2.0?

Compared with ATI cards, NVIDIA performs quite well. Both PS 3.0 tests are very complex. They don't depend on bandwidth or texturing, they are pure math, but with lots of transitions and branches. And it seems GF104 does a fine job in this case.

GTX 460 outperforms HD 5770 and performs on a par with HD 5830. Unfortunately, it loses to GTX 465 in the Steep Parallax Mapping test. The reason is not quite clear. It's either the lack of bandwidth or the increased number of ALUs per Stream Multiprocessor.

Damien's Geometrie-Tests:

http://www.behardware.com/articles/795-5/report-nvidia-geforce-gtx-460.html

Bei 3GPCs ist man dann wo genau hypothetisch? Etwas ueber der GTX465? Na gute Nacht fuer jegliche Tessellation-Benchmarks gegen die Konkurrenz. AMD macht einen kleinen Schritt vorwaerts was Tessellation betrifft und NV mit dem stark vermarkteten Tessellations-Zeug einen netten Schritt rueckwaerts?

deekey777
2010-10-13, 22:32:13
Jede GPU hat Cache. Und ein Bruchteil reicht mitnichten. GT200 hatte 256kib allein als L2 Texture-Cache. GF100 hat nur noch einen 768kib großen L2 Cache, der jede Art von vorigen Caches (Register, Texture etc.) ersetzen muss.
Dazu kommt, dass durch den L2 Cache die einzelnen SM besser Daten austauschen können. Hilft bei Tessellation.
Natürlich hat der GF100 weiterhin L1/SM, Register Files und Texture-Caches. Das Register File und L1/SM haben eine Bandbreite von 1,4 TB/s, wenn mich nicht alles täuscht. Da kann der L2-Cache nicht mithalten.

=Floi=
2010-10-14, 00:00:19
man wird sich keine zwei highend chips leisten können! Das geht einfach (noch) nicht.

GF110 (warum nicht 112? ^^) scheint aber schon genau da anzuseten wo es beim GF100 fehlte und mal abwarten was dann wirklich dabei rauskommt. durch die 128tmus und gesteigerte ROP leistung könnte aber diese architektur aber schon richtig aufblühen.


ich halte einen highend chip einfach für sinnvoller, weil hier resourcen geschont und kompetenzen bei der entwicklung gebündelt werden. Der performanceschub durch direct compute (oder war es ocl?) zeigt dies ja überdeutlich. Es gibt auch noch die quadro sparte und hier schaden die TMUs und ROPs ebenfalls nicht.

Ailuros
2010-10-14, 09:04:16
Wenn der 512bit bus stimmen sollte, dann ist wohl doch nicht ganz die eleganteste Loesung. Ihre Idee erstmal anstaendigere 8xMSAA Leistung aus einer zusaetzlichen Menge von ROPs zu schoepfen ist alles andere als ideal und wenn man X Bandbreite erreichen will auf GF110 waere ein 384bit mit schnellerem Speicher rundum besser gewesen.

Wie gesagt wenn es stimmt dann ist es eben NV's typische verschwenderische brute force Masche. Ganz nebenbei bei hypothetischen 2GB framebuffer koennen sie in extremen Faellen mit den 25% mehr Speicher auch noch ein bisschen dazupunkten.

man wird sich keine zwei highend chips leisten können! Das geht einfach (noch) nicht.

Tja das dumme ist dass GF100 schon 526mm2 gross ist. Was passiert genau wenn man auf diese nochmal 64TMUs, 16 ROPs und einen 512bit Bus drauflegt?