Archiv verlassen und diese Seite im Standarddesign anzeigen : G80 hat 160 Stream-Prozessoren ??
Benny12345
2007-04-03, 15:11:50
http://www.fudzilla.com/index.php?option=com_content&task=view&id=334&Itemid=34
Ist das nur n vorgezogener Aprilscherz oder ist da was dran ??
Scheint ja jetzt Mode zu sein die Aprilscherze auf 4 Tage zu verteilen nur weil der 1. n Sonntag war. Dann sollte mans besser lassen.....
MfG Benny
deekey777
2007-04-03, 15:16:49
http://www.fudzilla.com/index.php?option=com_content&task=view&id=334&Itemid=34
Ist das nur n vorgezogener Aprilscherz oder ist da was dran ??
Scheint ja jetzt Mode zu sein die Aprilscherze auf 4 Tage zu verteilen nur weil der 1. n Sonntag war. Dann sollte mans besser lassen.....
MfG Benny
Kein Scherz: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5364642#post5364642
Warum auch nicht?
Allerdings glaube ich nicht, dass sich die 'restlichen' 32 Prozessoren "einfach so" frei schalten lassen, wie dies noch bei den NV4x der Fall war. Die Stream-Prozessoren werden hardwareseitig in 32'er Blöcke unterteilt sein, die per Lasercut stückweie deaktiviert werden können. Und da Fertigungen mit der Zeit auch besser werden, ist es sogar vernünftig "zu Beginn" Segmente zu deaktivieren.
Insofern darf erwartet werden, dass - sobald AMD/ATI den Kopf über die Deckung erhebt - nVidia ganz gehörig drauf hauen wird. Am Takt läßt sich evtl. noch was machen und mal eben 25% mehr Shader-Power dürften ihren Teil dazu tun... von der konsequenten Nutzung der vorhandenen MUL-Einheiten ganz zu schweigen.
Könnte gut sein, dass sich AMD/ATI hier demnächst mächtig verschlucken wird.
Razor
P.S.: planungsseitig wäre diese Vorgehensweise sogar schlichtweg 'genial'....
(vor allem, wenn man so etwas, wie seinerzeit mit M$/ATI und DX9 SM2 passiert, 'vermeiden' möchte)
Benny12345
2007-04-03, 17:16:49
Hmm weiss nicht was ich davon halten soll:
"All this can be done in the driver, as you can enable as much stream processors as you like and you can enable the rest when the time is right..."
Wenn da doch echt 160 Stream-Prozis drinwären hätte das doch schon längst einer gemerkt.....
Wenn da doch echt 160 Stream-Prozis drinwären hätte das doch schon längst einer gemerkt.....
Wie denn? Über die nötigen Mittel verfügt keiner der Käufer. :)
und als nächstes hat der G80 eigentlich schon ein 512bit-interface? (wobei ich das noch für wahrscheinlicher halte ;) )
Kann sein, dass der G80 160 Stream-Prozessoren hat, aber ich halte es für gänzlich unwahrscheinlich, dass diese per Treiber irgendwann von nV vollständig freigeschaltet werden. Könnte höchstens sein, dass eine mögliche Ultra Variante 160 aktivierte Stream-Prozessoren hat. Aber eine Leistungssteigerung für G80-User für lau in der heutigen Zeit --> Lol
Razor
2007-04-03, 17:53:04
Ack!
Leistungssteigerung lediglich über vollständige Nutzung der MUL-Einheiten und effektivere Nutzung der Architektur.
Ja, auch ich vermute in den demnächst erscheinenden "Ultra"-Varianten einen G80 mit 5 vollständig aktivierten Stream-Einheiten.
(die schon 'auf Halde' liegen dürften, um so einen sehr schnellen RushOut zu ermöglichen ;-)
Razor
Der G80 hat keine 10 CLuster!
Das wäre vollkommen utopisch anzunehmen, dass nVidia einfach 1/4 ihrer Hardware deaktiviert.
10 Cluster würden 40TAU, 80TFU, 10*(2x8) Shaderblöcke bedeuten und das soll man einfach brachliegen lassen? Abgesehen davon, dass die Einheiten immernoch Strom fressen?!
Nana.
Quatsch, das Gerücht hält sich schon solange... Wieviele Cluster sollten bei NV40 oder G70 deaktiviert sein... oder der R580 mit 24TMUs *g
Das das sicher möglich wäre bezweifle ich nicht, aber kein G80 wird 32 brachliegende Einheiten haben...
Von festen Verhältnissen zwischen den Skalarunits, den TMUs, den ROPs und dem SI würde ich auch mal gaanz schnell abrücken. Der G84/G86 Launch wird uns zeigen was die Architektur zulässt, bei einem 128Bit SI und trotzdem 64Skalarunits stimmt das Verhältnis im Vergleich zum G80 ja nicht mehr ;) Da darf man in Ruhe vom G90 Träumen.
Es gibt nur ein festes Verhältnis bei Shadereinheiten und Filtereinheiten sowie
ROPs und Speicherinterface.
Also ich glaube schon, dass das mit den 160 SPs stimmt, da werden auch eine Menge davon einfach nicht funktionieren. Man fertigt also absichtlich grösser um den Ausschuss zu minimieren. Bei einem 600+ Transistor Chip eine logische Vorgehensweise.
Heh? 20% der Einheiten gehen nicht, aber die TMUs die weit komplexer sind und vieleicht nur in 1facher Redundanz da sind, bei denen is alles Roger? Was hat man beim R580 dann an ALUs verbaut... oder ist der gar nur ein R520 bei dem mal alle Einheiten funktionieren *g
Unrealistisch und ist SPEKU
Razor
2007-04-03, 19:22:43
Das das sicher möglich wäre bezweifle ich nicht, aber kein G80 wird 32 brachliegende Einheiten haben...Bei der 8800GTS ist dem so...
Warum nicht auch bei der GTX?
:confused:
Hinsichtlich der Unsicherheit, bezogen auf das "Gegenstück" von ATI und der effizienten Ausbeute an sehr komplexen Chips wurde das sogar sehr viel Sinn machen.
Und...
Selbstverständlich 'schlummern' keine 32 Einheiten einfach nur so herum... wenn 2 Einheiten defekt sind, dann wird es eine GTS, wenn nur eine defekt ist, dann wird es eine GTX und die Chips mit 5 'heilen' Einheiten hält man zurück... wobei letztere bei der Masse an Transistoren zumindest am Anfang ziemlich selten sein dürften.
Nach 6-8 Monaten dürfte schon eine stattliche Anzahl an komplett 'heilen' Chips zusammen gekommen sein, so dass man diese dann als eigenständige Serie vermarkten kann... und schon ist die "Ultra" geboren. Und ist der Preis entsprechend hoch, kann man auch davon ausgehen, dass man keine große Auflage benötigt, um die vermutlich sehr geringe Nachfrage zu decken.
Razor
LovesuckZ
2007-04-03, 19:42:31
Selbstverständlich 'schlummern' keine 32 Einheiten einfach nur so herum... wenn 2 Einheiten defekt sind, dann wird es eine GTS, wenn nur eine defekt ist, dann wird es eine GTX und die Chips mit 5 'heilen' Einheiten hält man zurück... wobei letztere bei der Masse an Transistoren zumindest am Anfang ziemlich selten sein dürften.
Hä?
Schauen wir uns erstmal das Schaubild an: http://www.beyond3d.com/images/reviews/g80-arch/g80-diag-big.png
Dann werden wir erkennen, dass der G80, in deiner Sprache, 8 Einheiten hat. Darin befinden sich die TMUs und die Vector-Einheiten.
Und wo sollen die zusätzlichen 32 Skalare versteckt sein?
Und es ist wirtschaftlich selten dämlich die zusätzlichen Cluster zu deaktivieren. Entweder alles oder nichts.
Die gelbe Eule
2007-04-03, 19:49:33
Razors Gedankengang ist gut und plausibel. Habe schon vor einiger Zeit angedacht das hier noch was "versteckt" ist. Mehr Shader, zweite aktivierte MUL, das wird schon einiges ausmachen.
Moralelastix
2007-04-03, 20:05:36
Omg, hoffentlich bekommt Tombman das nicht mit der will ja mit verkrüppelter Hardware nix am Hut haben!:biggrin:
Bei der 8800GTS ist dem so...
Warum nicht auch bei der GTX?
:confused:
Hinsichtlich der Unsicherheit, bezogen auf das "Gegenstück" von ATI und der effizienten Ausbeute an sehr komplexen Chips wurde das sogar sehr viel Sinn machen.
Und...
Selbstverständlich 'schlummern' keine 32 Einheiten einfach nur so herum... wenn 2 Einheiten defekt sind, dann wird es eine GTS, wenn nur eine defekt ist, dann wird es eine GTX und die Chips mit 5 'heilen' Einheiten hält man zurück... wobei letztere bei der Masse an Transistoren zumindest am Anfang ziemlich selten sein dürften.
Nach 6-8 Monaten dürfte schon eine stattliche Anzahl an komplett 'heilen' Chips zusammen gekommen sein, so dass man diese dann als eigenständige Serie vermarkten kann... und schon ist die "Ultra" geboren. Und ist der Preis entsprechend hoch, kann man auch davon ausgehen, dass man keine große Auflage benötigt, um die vermutlich sehr geringe Nachfrage zu decken.
Razor
Annehmbar. Zumindest glaube ich nicht daran, dass man bei einer 8800 GTX noch irgendetwas freischalten können wird. Eine 8800 GTX mit zusätzlichen 32 Shadereinheiten, die sich einfach mal so per Treiber freischalten lassen sollen, würde einer 8800 Ultra die Daseinsberechtigung nehmen, da diese ja NOCH leistungsfähiger sein müsste. So eine Karte dürfte nVidia aber momentan noch nicht im Peto haben.
AnarchX
2007-04-03, 20:11:30
Natürlich hat der G80 bzw. die 8800GTX 160 Streamprozessoren, nämlich genau dann wenn man die SFUs mitzählt;) :
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5369337#post5369337
Aber es sind und bleiben 8 Cluster.
Übrigens beim G90 würde ich mich nicht wundern, wenn es bei den 8 Clustern bleiben könnte. ;)
Es gibt nur ein festes Verhältnis bei Shadereinheiten und Filtereinheiten sowie
ROPs und Speicherinterface.
wobei ich mir bei zweiterem auch nicht so sicher wäre.
naja, das liese sich ja recht einfach überprüfen.
gesetz dem fall dass nvidia hätte zur redundanz zusätzliche cluster verbaut ist eigentlich anzunehmen dass nicht in jeder GPU die gleichen cluster defekt/deaktiviert sind.
wie wir wissen nützt nvidia ja 32bit zur steuerung ihrer GPUs, wobei beim G80 die ersten 8bits für einzelnen cluster zuständig sind.
hätte der G80 nun 10 statt 8 cluster, müssten 8800GTX-karten existieren die einen oder zwei der ersten 8 cluster deaktiviert haben (es sei denn die ersten 8 cluster funktionieren immer, wobei dann die idee mit der redundanz allerdings absurd wird).
mir ist allerdings keine 8800GTX bekannt, die einen der ersten 8 cluster deaktiviert hat.
reunion
2007-04-03, 20:50:27
Razors Gedankengang ist gut und plausibel. Habe schon vor einiger Zeit angedacht das hier noch was "versteckt" ist. Mehr Shader, zweite aktivierte MUL, das wird schon einiges ausmachen.
Bleibt die Frage ob deine Gedanken aus fundierten Quellen oder aus Wunschdenken entspringen. Diese "Gerüchte" gab es jetzt fast bei jedem neuen Chip, und jedesmal blieben es Gerüchte. Trotzdem gibt es immer wieder Leute, die das auch beim zehnten mal noch glauben.
Natürlich hat der G80 bzw. die 8800GTX 160 Streamprozessoren, nämlich genau dann wenn man die SFUs mitzählt;) :
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5369337#post5369337
Aber es sind und bleiben 8 Cluster.
Übrigens beim G90 würde ich mich nicht wundern, wenn es bei den 8 Clustern bleiben könnte. ;)
Analogie zum G70/G71 :) Taktrate auf eine bestehen Architektur geben, groß ist das DIE ja, lässt sich die Wärme gut abführen und wenn man aus einem G90 750-800MHz rausholt, dann kanns ja bei 8 Clustern bleiben. Hohe GDDR4 Taktrate sollte mit dem 384Bit SI ja dafür auch langen, im Balancen ist nV ja sehr gut, wie die Chips bisher zeigen.
Tjell
2007-04-03, 21:58:27
Sollte es sich mit den 160-Stream-Prozessoren herausstellen, dass dieses Gerücht sich bewahrheitet, stünde eine wahrhaft unglaubliche Leistungssteigerung an:
-> 32 Stream-Prozessoren mehr
-> Aktivierung der 2. MUL-Einheit durch Treiber
-> Taktsteigerung bei 80 nm-Prozess
Alles in allem ca. 50 % bis 80 & höhere Leistung mit ein und derselben Architektur!? Zu schön, um wahr zu werden.
Sollten die Treiber der 8800 an sich noch Optimierungspotential besitzen, sind die G80 die Rundum-glücklich-Grakas, denn der R600 wird ziemlich sicher ein schlechteres Leistung/Watt-Verhältnis besitzen.
Die Zusammenfassung zeigt ja ansich schon das das Gerücht Humbug ist ;)
Gast@Speku.
2007-04-03, 22:54:37
Meine Herleitung:
Nvidia hat eine G8x in der Hinterhand, die über ein 512bittiges Speicherinterface, 1GB (GDDR3/GDDR4) RAM und mehr Stream-Prozessoren verfügt. Ich glaube, dass diese GPU relativ zeitgleich mit dem R600 erscheinen wird. Ich glaube ausserdem, dass dies die Startup-Strategie von Nvidia war um ATI unter Druck zu setzen. Man wusste wohl schon aus ziemlich sicherer Quelle, dass man bei der Entwicklung der G80 einen deutlichen Vorsprung hat und der R600 min. zwei Monate später erscheinen würde. So hat man wohl den ursprünglichen G80 verändert, um auf ein besseres Preis/Leistungsverhältnis und natürlich eine höhere Gewinnspanne zu kommen. Logisch: Keine Konkurrenz, kein Vergleich. Um aber später wieder auf die ursprünglichen G80 aufbauen zu können, hat man nicht nur das Speicherinterface, sondern auch den Speicher und die Leistung gekürzt. Was wir hier jetzt sehen, sind wohl die Spuren der Kastration. An eine softwareseitige Aktivierung glaube ich jedoch nicht.
Die krummen Zahlen der G80-Karten irritierten mich ehrlich gesagt schon seit der Einführung.
Razor
2007-04-04, 06:14:45
Hä?Nix "Hä?"...
Annehmbar. Zumindest glaube ich nicht daran, dass man bei einer 8800 GTX noch irgendetwas freischalten können wird. Eine 8800 GTX mit zusätzlichen 32 Shadereinheiten, die sich einfach mal so per Treiber freischalten lassen sollen, würde einer 8800 Ultra die Daseinsberechtigung nehmen, da diese ja NOCH leistungsfähiger sein müsste. So eine Karte dürfte nVidia aber momentan noch nicht im Peto haben.Nee... da haben die Leutz wohl einiges durcheinander bekommen.
Freischalt- bzw. Nutzbar sind die noch relativ ungenutzten MUL-Einheiten.
nVidia wird ganz sicher nie wieder den "Fehler" machen, Leistungskomponenten via Bios/Treiber ab- und anzuschalten. Macht ja eigentlich auch keinen Sinn... (OK, ist ein wenig 'billiger' in der Herstellung ;-).
Ansonsten ist die Architeketur und damit die Funktionsweise einzelner Komponenten im G80 programmierbar. Das in Kombination mit bisher weitestgehend ungenutzten (MUL-) Einheiten und die gleichzeitige Info mit dem maximal 160 nutzbaren Stream-Prozessoren im G80 scheint die Leute etwas 'verwirrt' zu haben, woraufhin sie beides in einen Topf geworfen haben.
Aber es sind und bleiben 8 Cluster.Und warum 'dürfen' es keine 10 sein?
:confused:
Razor
master_blaster
2007-04-04, 18:48:33
Übrigens beim G90 würde ich mich nicht wundern, wenn es bei den 8 Clustern bleiben könnte.
Es wäre auch verwunderlich, wenn dem nicht so sein wird. Bis jetzt waren Refreshchips nämlich (fastt?) immer ein geshrinktes und/oder höhergetaktetes Diverat des gleichen Chips.
Nvidia hat eine G8x in der Hinterhand, die über ein 512bittiges Speicherinterface, 1GB (GDDR3/GDDR4) RAM und mehr Stream-Prozessoren verfügt.
Das ist nicht anzunehmen! es wäre allerdings möglich, dass eine kommende Ultra mit 1536MB ausgestattet sein könnte; denn ein 512 Bit Speicherinterface kann man an Hand der auf den Boards vorhanedenen Leiterbahnen ausschließen.
Nachtrag: Wenn für eine Ultra-Karte ein neues Platinenlayout entworfen werden würde, relativierte sich der letzte Gedanke wieder!
Ph0b0ss
2007-04-05, 00:22:06
Könnte man nicht einfach einen Defekte 8800er auseinander nehmen und unter ein gutes Mikroskop legen?:biggrin:
Das müsste doch ausreichen, um die einzelnen Cluster zumindest schemenhaft erkennen und zählen zu können?
Razor
2007-04-05, 06:38:16
Redundanz gibt es immer, um Produktionsfehlern entgegen zu wirken. Die Frage ist doch aber:
"Wie viele Einheiten/Cluster/Blöcke sind gleichzeitig maximal operabel?"
Das wiederum hängt ja mit der Architektur zusammen, den Möglichkeiten des Speicherinterfaces etcpp....
Razor
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.