PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

Hugo78
2011-12-28, 08:45:11
Darueber wuerde ich sicher nicht die Klappe halten. Ich will auch auf Nummer Sicher gehen und Informationen von mehreren zuverlaessigen Quellen sammeln. Wenn alles stimmen sollte und es handelt sich nicht um Rauch und Qualm, sind es 3 Ueberraschungen fuer micht was Kepler betrifft.


Zwar nur eine aus der Luft gegriffene Schaetzung, aber ich koennte mir sogar 40% vorstellen zwischen Tahiti und GK104. Es klingt natuerlich auf Anhieb viel, aber wenn man den moeglichen Taktunterschied fuer den letzten mitberechnet auch nicht mehr so hoch. Die einzige brennende Frage waere ob GK104 besser mit seiner begrenzteren Bandbreite umgehen kann oder ob er irgendwo doch dank fehlender Bandbreite wuergt.

Also GK104 kommt mit 3,1Mrd. Transitoren, 1536 ALUs @ 600 - 700Mhz ?
Oder in welche Richtung geht deine Infolage?

Captain Future
2011-12-28, 08:49:25
Schau dir RV770 und GT200b an, dann siehst du es.
Doppelt soviel nur für Hotclocks? :eek:

fondness
2011-12-28, 10:02:10
Doppelt soviel nur für Hotclocks? :eek:

Also wenn man davon ausgeht das ein GF110 Shrink auf 28nm ungefähr die 365mm² eines Tahiti hätte, würde AMD exakt vier mal so viele ALUs verbauen.

Da die Transistordichte bei TSMCs 28nm HKMG Prozess offiziell um 81% steigt und externen Interfaces gar nicht schrumpfen plus ein optimaler Shrink selten machbar ist, wäre man davon glaube ich nicht weit weg.

Captain Future
2011-12-28, 10:31:29
Ich wiederhole die Frage: "Nur für Hotclocks"?

OgrEGT
2011-12-28, 11:02:20
Es ist immer ruhig vor einem Sturm....wenn's jetzt nur ein albernes Windchen sein sollte bin ich natuerlich nicht daran schuld ;)

Heißt für mich im Klartext, dass Du zwar von Veränderungen weißt, aber noch nicht ob sich diese wirklich auszahlen werden.

Interessant finde ich schon, dass falls die Spekulationen eintreffen werden, dass GK104 nun ohne Hotclock kommt, dafür mit mehr Recheneinheiten mit moderateren Taktraten, die Architekturen von AMD und NV immer mehr zueinanderfinden. Scheint wohl ein iterativer Prozess an das Optimum zu sein.

AMD hat Probleme mit der Auslastung der Eineiten -> Wechselt von VLIW5 auf VLIW4 und nun auf 1D Einheiten. Die Grundlage für bessere Auslastung ist gelegt.

NV hat Probleme mit der Leistungsaufnahme durch die doppelte Taktung der Recheneinheiten. -> Wechslen (wahrscheinlich) hin zu mehr Einheiten, bei geringerer Taktung. Frage: Wird die Auslastung nun auch sinken?

Edit:
Deshalb spekuliere ich jetzt einfach mal, dass keine Riesensprünge zu erwarten sind, zumal der gleiche Fertigungsprozess zum Einsatz kommt. Architekturbedingt kann es sicherlich Unterschiede geben, wie gut welcher IHV sein Design auf den Prozess abstimmen kann. AMD jendenfalls hat nicht so schlecht vorgelegt (Perf/W), wenn man die Unreife des Prozesses bedenkt.

Coda
2011-12-28, 11:06:46
Doppelt soviel nur für Hotclocks? :eek:
Halte ich durchaus für möglich - wenn nicht mehr. Du brauchst wesentlich mehr Pipeline-Stufen (d.h. mehr Buffer, Interconnects, Steuerleitungen etc.) und mit High-Density-Logik ist dann wahrscheinlich auch vorbei.

Gipsel
2011-12-28, 11:13:36
Außerdem ist Fermis System des Zugriffs auf die Registerfiles ziemlich aufwendig. Die haben ein zentrales RegFile für alle Einheiten zusammen, da läuft in jedem SM ein 8192 bit (!) Bus vom Regfile über die Einheiten, um die mit den Operanden zu versorgen. Das kostet auch erheblich (auch Strom). AMD setzt auf ein verteiltes RegFile, jede Lane der Vektor-ALUs hat ein eigenes. Die Vec-ALUs müssen also nur an den LDS und die TMUs/L1 angeschlossen werden, wozu bei GCN 2048bit reichen dürften (wahrscheinlich in 2x1024Bit partitioniert). Auch die VLIW-Architekturen hatten bereits verteilte Regfiles (allerdings etwas anders organisiert, jede VLIW-Einheit hatte eins mit 4 Bänken).

Coda
2011-12-28, 11:18:36
Was ist der Vorteil des zentralen Files?

Hugo
2011-12-28, 11:35:36
Halte ich durchaus für möglich - wenn nicht mehr. Du brauchst wesentlich mehr Pipeline-Stufen (d.h. mehr Buffer, Interconnects, Steuerleitungen etc.) und mit High-Density-Logik ist dann wahrscheinlich auch vorbei.


Irgendwo habe ich mal gelesen, dass NV abwägt ob es sinnvoll ist mit Hotclock zu arbeiten oder mehr Einheiten zu verbauen.
deswegen denke ich, dass der hotcolock nicht doppelt soviele Transistoren braucht.

Gipsel
2011-12-28, 11:35:37
Was ist der Vorteil des zentralen Files?
Load-Balancing über die Vektor-ALUs möglich, man kann spezialisierte SFUs benutzen (was es vielleicht minimal günstiger in der Implementation macht, als das von den normalen ALUs miterledigen zu lassen). Das war es aber auch schon.

Mit einem RegFile-Cache direkt in den ALUs (hat nV doch mal in einem Paper beschrieben) könnte man die negativen Effekte so ein wenig auffangen, man baut gewissermaßen ein verteiltes Mini-Regfile zusätzlich ein. AMD packt einfach das komplette Registerfile verteilt in die ALUs. Der Regfile-Cache von nVidia funktioniert sowieso nur ordentlich, wenn man auf den Vorteil des Load-Balancings zwischen den Vec-ALUs in einem SM verzichtet (zumindest auf das "fine grained" balancing, d.h. der Verteilung auf die vALUs mit jeden Takt), also man ein Registerfile pro Vec-ALU hat (und nicht eins für alle zusammen). Dann ist man praktisch gesehen eigentlich schon bei der AMD-Lösung (ohne Regfile-Cache).

Edit:
Aus meiner Sicht gibt es mehr Vorteile für verteilte RegFiles, zumindest solange man keine Permute-Einheit zwischen RegFile und vALU klemmt (wie Intel bei Larrabee), was einen Großteil der Funktion des shared Memory mit extrem geringer Latenz (effektiv gar keine) übernehmen könnte (aber eigentlich auch ordentlich Strom kosten sollte). Aber bisher glaube ich bald, daß außer Intel das keiner vernünftig hinbekommt (und selbst die hängen nur eine vALU an ein RegFile, mit mehreren vALUs an einem RegFile würde das wohl auch nicht mehr funktionieren).
Insbesondere bei eventueller Abschaffung der Hotclock werden meiner Meinung verteilte Rgisterfiles deutlich attraktiver (geringere Latenz => weniger Threads nötig [kann die Verbreiterung kompensieren], einfaches Result Forwarding, Energieersparnis).

Spasstiger
2011-12-28, 11:44:19
Sicher? CB hat ein 256bit Interface simuliert und das kostet bis zu 15% Performance.
Jo, mit einem 256-Bit-SI wäre in FullHD mit MSAA kaum noch ein Vorteil gegenüber der GTX 580 gegeben, die Karte wäre zerissen worden. Jetzt ist die HD 7970 eigentlich nur zu teuer, schlecht ist sie jedoch nicht.

robbitop
2011-12-28, 12:00:26
Wobei ich mich immer fragen muss, ob eine Auslastungssteigerung, die Steigerung der Transistorzahlen überhaupt rechtfertigt.
RV870 : 2,15
Caymen: 2,64
Tahiti: 4,31

Von RV870 zu Caymen brauchte es 23 % mehr Transistoren. Mehr Performance (wenn VRAM bei RV870 nicht zur Neige gingen) ca. 16 %:
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/26/#abschnitt_performancerating_mit_aaaf

Von RV870 zu Tahiti:
Faktor 2 mehr Transitoren. Nur 1/3 mehr Einheiten. 56 % mehr Leistung.
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index49.php


Natürlich kann ich jetzt nichts darüber sagen, wieviel für Front-End, SI und Tesselation draufging.
Wenn man jetzt aber bei den ALUs und deren Leistung und Kosten bleibt - ich denke der beste Deal für Punch pro Transistor waren die VLIW5 ALUs.
Davon hätte man für 4 Mrd Transistoren sicher eine ganze Menge mehr einbauen können. Natürlich hätte man auch dann die restlichen Verbesserungen von Tahiti einbauen müssen, damit er die Leistung auf die Straße bringen kann.
Ich vermute, dass das Endergebnis mehr Leistung gehabt hätte.

Allerdings wäre das dann die gleiche Architektur ohne Zukunftsperspektive geblieben. Aber für Spieler sicher das bessere Produkt.

Coda
2011-12-28, 12:38:24
Du darfst nicht vergessen, dass GCN auch viele andere Verbesserungen für GPGPU gebracht hat, das auch in zukünftigen Spielen verwendet werden dürfte.

Langfristig hat man eigentlich kaum eine Wahl.

MadManniMan
2011-12-28, 13:41:18
Im Grunde bin ich ja doch ganz dankbar, dass es immer wieder Karten gab, die zwar vordergründig mit ihrer Leistung enttäuschten (ich saß beinahe traurig an meinem Rechner, als die 7970 gelauncht wurde ;( ), aber doch die Weichen für tolle neue Ansätze™ gestellt haben.

Crysis in 4k und in Stereo-3D mit jedem Notebook-Grafikchip? Gern, aber nicht um den Preis des sonstigen Stillstandes.

LovesuckZ
2011-12-28, 13:44:02
Allerdings wäre das dann die gleiche Architektur ohne Zukunftsperspektive geblieben. Aber für Spieler sicher das bessere Produkt.

Das bedeutet eigentlich genau was? Eigentlich nichts weiteres wie kein Fortschritt. Spieler wollen, dass vor allem die alten Anwendungen schneller laufen. Aber das wiederrum heißt, dass man eben nicht Transistoren in Bereiche verwenden dürfte, die heute keinen Einsatz finden. Das ist nichtmal ein Henne-Ei Problem, da ohne Hardware es auch keine entsprechende Software geben wird.

robbitop
2011-12-28, 13:57:54
Naja ob das jetzt vor dem Hintergrund der Verlangsamung durch Konsolen noch so relevant ist? Zumal DX11.1 keine wirklich großen Neuerungen bringt. Tahiti brachte weniger DX relevante Features als eher eine Architektur die für GPGPU Vorteile bringen wird.
Ich bezweifle, dass der Spieler jetzt so viel mehr davon haben wird. Bis DX12 draußen ist, scheint es ja laut Ail noch zu dauern und bis dahin gibt es wieder andere Karten.

LovesuckZ
2011-12-28, 14:01:36
Naja ob das jetzt vor dem Hintergrund der Verlangsamung durch Konsolen noch so relevant ist? Zumal DX11.1 keine wirklich großen Neuerungen bringt. Tahiti brachte weniger DX relevante Features als eher eine Architektur die für GPGPU Vorteile bringen wird.

Das ist jedoch ein Architekturproblem. Abgesehen von GPGPU muss man auch Transistoren in ein Front-End investieren, dass für Tessellation geeignet ist und nicht gleichzeitig eine Limitierung beim Einsatz von Tessellation darstellt. Im Gegensatz zu Fermi kann nVidia mit Kepler ihre Ressourcen in die Verbesserung der Leistung investieren, da die Grundlage vorhanden ist. Im Grunde machen sie damit das, was der Spieler eigentlich will: Das selbe nur in doppelter Größe. :D

boxleitnerb
2011-12-28, 15:00:52
Ich glaube fast, Nvidia kann AMD diese Runde mit perf/W nicht nur ein- sondern überholen. Milchmädchenrechnung:

GK104 vs. Tahiti Pro
<= 3Mrd vs. 4,3Mrd
<360mm2 vs 389mm2
GTX580+(0-10%) vs. GTX580+? (wohl ähnlich)

Vor allem Punkt eins könnte die Vermutung nahelegen, dass GK104 (deutlich?) sparsamer als die 7970 wird, also zumindest mit der 7950 beim Verbrauch konkurriert. Alternativ kann man das Ding vielleicht hochtakten bis zum St. Nimmerleinstag und auch Tahiti XT vernichten.

V2.0
2011-12-28, 16:11:02
Und wer sagt, dass GK104 überhaupt an die Leistung von Tahiti ran kommt?

boxleitnerb
2011-12-28, 16:14:14
Es wurde doch hier schonmal gesagt, dass GK104 sich etwa auf dem Niveau von GTX580 einpendelt, evtl. ein bisschen darüber. Und das ist Tahiti Pro in etwa. Das wäre "nur" eine Steigerung von 50-60% zu GF114 - für 28nm durchaus realistisch.

OgrEGT
2011-12-28, 16:21:46
Es wurde doch hier schonmal gesagt, dass GK104 sich etwa auf dem Niveau von GTX580 einpendelt, evtl. ein bisschen darüber. Und das ist Tahiti Pro in etwa. Das wäre "nur" eine Steigerung von 50-60% zu GF114 - für 28nm durchaus realistisch.

GF114 hat 2Mrd Transistoren und 384 Cuda Cores die bei 1600MHz laufen.

GK104 soll(!) 3 Mrd Transistoren haben, wieviele Cuda Cores weiß noch niemand, die aber wohl (da kein Hotclock mehr) nur noch halb so schnell laufen.
Wenn GK104 am Ende 1024 Cores haben sollte, erscheinen mir 50-60% wie Du sie Dir wünscht ein wenig hoch gegriffen.

Soul
2011-12-28, 16:26:02
GK104 soll(!) 3 Mrd Transistoren haben, wieviele Cuda Cores weiß noch niemand, die aber wohl (da kein Hotclock mehr) nur noch halb so schnell laufen.
Wenn GK104 am Ende 1024 Cores haben sollte, erscheinen mir 50-60% wie Du sie Dir wünscht ein wenig hoch gegriffen.

Waren die Spekulationen nicht bei 640 - 768 Cores für den GK104?

AwesomeSauce
2011-12-28, 16:26:35
Waren die Spekulationen nicht bei 640 - 768 Cores für den GK104?
Bestimmt nicht, falls der Hotclock wegfällt.

boxleitnerb
2011-12-28, 16:28:14
GK104 soll deutlich über 2TF kommen. GF114 schafft schon 1,25TF, 60% mehr wären genau 2TF. Also sind wir schonmal bei mehr als 60% bei der reinen Rechenleistung. Wie genau die jetzt erreicht wird, ist erstmal wurscht. Wenn der Chip entsprechend weiterskaliert (mehr Takt, mehr TMUs, mehr ROPs), sollte man die 580 ohne größere Probleme schlagen können - und das sind ausgehend von der 560 Ti 50% und von der 560 non-Ti ca. 60%.

OgrEGT
2011-12-28, 16:28:27
Waren die Spekulationen nicht bei 640 - 768 Cores für den GK104?
Weiß nicht mehr. Igrendjemand hat auch schon mal was von 1536 Cores geschrieben. Es gibt noch keine Informationen wieviele es am Ende sein werden, und noch zu viel Wunschdenken mMn.

LovesuckZ
2011-12-28, 16:28:40
GF114 hat 2Mrd Transistoren und 384 Cuda Cores die bei 1600MHz laufen.

GK104 soll(!) 3 Mrd Transistoren haben, wieviele Cuda Cores weiß noch niemand, die aber wohl (da kein Hotclock mehr) nur noch halb so schnell laufen.
Wenn GK104 am Ende 1024 Cores haben sollte, erscheinen mir 50-60% wie Du sie Dir wünscht ein wenig hoch gegriffen.

GTX580 hat 3,1 Mrd. Transistoren. Und der Vorsprung der GTX580 beträgt gerade mal zwischen 30-44%. Mehr Einheiten + Mehr Takt + verbesserte Effizienz = Tahiti.

AwesomeSauce
2011-12-28, 16:30:22
Ailuros' "Spekulativer Scheiss" (:D)
24 SMs (3*16) = 1152 SPs @1.1GHz = 2,534 TFLOPs
4 GPCs (6 SMs/GPC), 4 raster/trisetup units (8 pixels/raster)
96 TMUs * 1.1GHz = 105.6 GTexels/s
32 ROPs * 1.1GHz = 35.2 GPixels/s
5.5Gbps @256bit = 176 GB/s

Klingt gar nicht so abwegig. Kommen die 2.5+ TF direkt aus der Höhle des Löwen?

OgrEGT
2011-12-28, 16:34:16
Ailuros' "Spekulativer Scheiss" (:D)


Klingt gar nicht so abwegig. Kommen die 2.5+ TF direkt aus der Höhle des Löwen?

OK. Man wird sehen. Ich würde vermuten, dass die stark angestiegene Anzahl an Cores auch zu niedrigerer Auslastung führen wird. Wie dem seitens NV entgegengesteuert werden wird, bleibt abzuwarten.

Hugo
2011-12-28, 17:30:46
Ne GTX580 hat 1,58 TFlops, da sollte der GK104 mit seinen 2,5 TFlops, auch bei niedriger Effizienz, die GTX 580 doch locker erreichen oder etwa nicht?

boxleitnerb
2011-12-28, 17:33:09
Eigentlich schon. GK104 dürfte durchgehend mehr Rohleistung haben als GF110, in manchen Bereichen deutlich mehr (Texelleistung und eben Rechenleistung). Ich denke, das ist ein No-Brainer.

Hugo
2011-12-28, 17:34:42
eben drum, daher sehe ich GK104 eher vor der GTX580 die Frage ist nur wieviel

boxleitnerb
2011-12-28, 17:38:29
Ich hoffe bloß, dass es auch einen GK100 gibt und dieser in etwa so effizient (bzw. entsprechend seiner TDP flott) wie der GK104 ist.

Wäre es denkbar, dass Nvidia einen noch weiter auf GPGPU getrimmten GK100 bringt, der Spieler eher enttäuscht, es beim GK104 aber genau umgekehrt ist - nur eben nicht auf Enthusiastenniveau?

LovesuckZ
2011-12-28, 17:40:44
Nein, das ganze ist nicht bezahlbar.

Ailuros
2011-12-28, 19:00:36
Und wer sagt, dass GK104 überhaupt an die Leistung von Tahiti ran kommt?

Die gewagte und vorzeitige Verantwortung dafuer trage ich gerne.

Es wurde doch hier schonmal gesagt, dass GK104 sich etwa auf dem Niveau von GTX580 einpendelt, evtl. ein bisschen darüber. Und das ist Tahiti Pro in etwa. Das wäre "nur" eine Steigerung von 50-60% zu GF114 - für 28nm durchaus realistisch.

Heute mehr.

AwesomeSauce
2011-12-28, 19:01:08
Die Frage ist natürlich, welcher Tahiti? ;)

Ailuros
2011-12-28, 19:04:43
Ailuros' "Spekulativer Scheiss" (:D)


Klingt gar nicht so abwegig. Kommen die 2.5+ TF direkt aus der Höhle des Löwen?

Wenn ich zwei Mal im originalen Post davor warne dass es nur frei erfundene Zahlen sind dann ist es auch so. Es war meine erste Milchmaedchenrechnung und heute (wo noch ein paar Einzelheiten dazu gekommen sind) moeglicherweise noch mehr SPs und weniger TMUs.

Die Frage ist natürlich, welcher Tahiti? ;)

Sei grosszuegig ;)

Duplex
2011-12-28, 19:04:57
Tahiti ist doch nur 20% schneller als GF110 geworden, einfach abwarten...Nvidia wird schon das richtige zaubern ;)

AwesomeSauce
2011-12-28, 19:09:52
Wenn ich zwei Mal im originalen Post davor warne dass es nur frei erfundene Zahlen sind dann ist es auch so. Es war meine erste Milchmaedchenrechnung und heute (wo noch ein paar Einzelheiten dazu gekommen sind) moeglicherweise noch mehr SPs und weniger TMUs.
Genau deswegen habe ich es auch eindeutig als "spekulativen Scheiss" gequoted;) Es dürfte aber immer noch näher an der Realität sein als die knapp 800 SPs, die in den Raum geworfen wurden.

Ailuros
2011-12-28, 19:13:54
Genau deswegen habe ich es auch eindeutig als "spekulativen Scheiss" gequoted;) Es dürfte aber immer noch näher an der Realität sein als die knapp 800 SPs, die in den Raum geworfen wurden.

Ich wuenschte ich wuesste zumindest wieviel GPCs 104 haben wird; es wuerde auf jeden Fall einiges helfen. SPs koennten irgendwo zwischen 1200+ und 1500+ liegen.

Duplex
2011-12-28, 19:16:03
Wieviel Fläche spart Nvidia geschätzt wenn die Hotclocks gestrichen werden?

Man From Atlantis
2011-12-28, 19:25:17
well, 96SP per SM seems fit to me.. They are already at same ratio with GF104 48&hotclocked.. 4SM per GPC and 4 GPC, 1536SP, 32 ROP, 64 TMU, 256bit..

boxleitnerb
2011-12-28, 19:26:58
1500 SP? Holla die Waldfee. Weniger TMUs als 96...hm Nvidia kommt ja noch ganz gut mit dafür, dass sie weniger als 50% der Texelfüllrate von Tahiti haben. Ich hoffe, Nvidia vernachlässigt das nicht wieder, damit endlich mal ordentlich Bumms für hohe Auflösungen wie 1600p und Surround da ist. Es ist stark anzunehmen, dass das diesmal schon mit einer Karte geht.

Kann man die TMUs noch besser füttern bzw. mächtiger machen oder sieht da jemand (wieder?) einen Flaschenhals?

Ailuros
2011-12-28, 19:28:13
Wieviel Fläche spart Nvidia geschätzt wenn die Hotclocks gestrichen werden?

Darum ging es gar nicht IMHO. NV brauchte eine ziemlich grosse Steigerung fuer DP FLOPs fuer den HPC Markt um im Vergleich zu AMD und Intel in dem Bereich konkurrenzfaehig zu sein. Intel's Knights Corner wird hoechstwahrscheinlich fuer ~1.2 TFLOPs DP gut sein und AMD GCN (falls die HPC Varianten ein 2:1 Verhaeltnis haben werden) bis zu 1.8 TFLOPs theoretisch.

Wenn Du theoretisch 500SPs@1GHz vs. 1000SPs@0.5GHz hast als Beispiel heisst es bei weitem nicht dass die 500SPs@hotclock die Haelfte an die area einnehmen wie im zweiten Fall sondern um einiges mehr. Gespart wird natuerlich schon aber umsonst ist hotclock nun auch wieder nicht.

Ein klare Antwort zu Deiner Frage gibt es nicht, denn NV wird auch nicht auf konservative core Frequenzen setzen.

AwesomeSauce
2011-12-28, 19:30:04
Vielleicht setzen sie ihre patentierten Mulltipurpose ALUs ein, die dann auch Aufgaben wie Texturefiltering übernehmen...

Ailuros
2011-12-28, 19:31:54
1500 SP? Holla die Waldfee. Weniger TMUs als 96...hm Nvidia kommt ja noch ganz gut mit dafür, dass sie weniger als 50% der Texelfüllrate von Tahiti haben.

GF110 hat auch "nur" 64 gegen 96 bei Cayman; GK104 taktet auch um einiges hoeher.

Ich hoffe, Nvidia vernachlässigt das nicht wieder, damit endlich mal ordentlich Bumms für hohe Auflösungen wie 1600p und Surround da ist. Es ist stark anzunehmen, dass das diesmal schon mit einer Karte geht.

Einen Gleichstand wird es nicht geben sondern wenn AMD nicht mit Treibern nachladet irgendwo in der Mitte. Da ich jetzt aber auch schon den MSRP habe wird die Konkurrenz vielleicht nur Wochen nach ihrem Launch ziemlich bloed dastehen mit den $549.

Raff
2011-12-28, 19:34:05
Dann sag AMD bitte mal, dass sie den Preis sofort auf 399 korrigieren, damit ich mir eine kaufen kann. :D

MfG,
Raff

boxleitnerb
2011-12-28, 19:38:16
GF110 hat auch "nur" 64 gegen 96 bei Cayman; GK104 taktet auch um einiges hoeher.

Einen Gleichstand wird es nicht geben sondern wenn AMD nicht mit Treibern nachladet irgendwo in der Mitte. Da ich jetzt aber auch schon den MSRP habe wird die Konkurrenz vielleicht nur Wochen nach ihrem Launch ziemlich bloed dastehen mit den $549.

Irgendwie riecht das nach Verschwendung bei AMD. Oder sind deren TMUs kleiner, sparsamer etc? GK104 taktet höher als GF110 oder als Tahiti?

Den zweiten Teil hab ich jetzt nicht so ganz verstanden. Gleichstand in der absoluten Performance, bei der Texelfüllrate, ...? Mitte zwischen 7950 und 7970 meinst du, schätze ich.
Zum letzten Satz: GK104 muss ja auch erhältlich sein. AMD verspricht (hust) genug Karten am 9. Januar, auch 7950er.

horn 12
2011-12-28, 19:50:13
HD7970 gibt es ja bereist um die 495-510 Euro in Spanien und Italien zu ordern!

Der Preis wird Tag für Tag nach dem 9 Jänner 2012 fallen,- und wohl um 450bis 470 Euro zu liegen kommen.
Die HD7950 wohl nochmals 100+ Euro drunter, denn dort wird das Geld lockerer sitzen!

Da muss NV schon mal den GK104 launchen und dies ist vor Anfang März wohl recht unwahrscheinlich...
Wichtig ist dass AMD in 10 Tagen LIEFERN KANN, jedoch dies mit dem 22. Dezember Launch ziemlich lächerlich war,- dies muss auch mal gesagt werden!

Ailuros
2011-12-28, 19:52:55
HD7970 gibt es ja bereist um die 495-510 Euro in Spanien und Italien zu ordern!

Na wenn das nicht billig ist; muss ich wohl gleich 2 vorbestellen.

Da muss NV schon mal den GK104 launchen und dies ist vor Anfang März wohl recht unwahrscheinlich...

:P

Wichtig ist dass AMD in 10 Tagen LIEFERN KANN, jedoch dies mit dem 22. Dezember Launch ziemlich lächerlich war,- dies muss auch mal gesagt werden!

Du hoffst sowieso stets mehr als Du selber verdauen kannst.

Hübie
2011-12-28, 19:56:21
Wieso nun wieder weniger ROPs? Ich weiß das die beim Fermi nicht ausgelastet werden. Dann lieber gleiche Menge und zusehen das die endlich genutzt werden. GF110 hat 48 und nun soll es auf 32 runtergehen? Fänd ich unlogisch.

@Horn12: ftw:confused::eek:

Ailuros
2011-12-28, 19:56:28
Irgendwie riecht das nach Verschwendung bei AMD. Oder sind deren TMUs kleiner, sparsamer etc? GK104 taktet höher als GF110 oder als Tahiti?

Frequenz >7970.

Zum letzten Satz: GK104 muss ja auch erhältlich sein. AMD verspricht (hust) genug Karten am 9. Januar, auch 7950er.

Sagen eigentlich die vendors auch; nur fuegen sie meistens auch noch dazu dass es von der Nachfrage abhaengen wird. Wenn nur wenige an solchen Preisen interessiert sein sollten, dann ja natuerlich kann man es als "genug" ansehen.

Ich moechte mal liebend gern den Spinner in AMD's Marketing-abteilung kennenlernen der fuer den hohen MSRP gesorgt hat. Bei dem eigentlichen Grund der dahinter steckt, kann man nur einen ernsthaften Dachschaden haben.

horn 12
2011-12-28, 20:00:01
Dies sag mal NV welche für GTX 580 1,5GB ebenso stolze 480-500 Euro verlangte und ähnlich schneller war als jetzt HD7970 zu GTX 580.
PS: Halte mich nun dieser Diskussion fern, habe genügend mit dem KONKURENZPRODUKT zu tun.

Hübie
2011-12-28, 20:01:59
Der eigentliche Grund wird sein, das man ne miese nicht so gute Ausbeute hat und so auch nie Nachfrage nicht in die Höhe schnellt ;D Denn dann stünde man ja dumm da.

Ailuros
2011-12-28, 20:08:57
Dies sag mal NV welche für GTX 580 1,5GB ebenso stolze 480-500 Euro verlangte und ähnlich schneller war als jetzt HD7970 zu GTX 580.

GF110 war fuer seine Zeit ein high end chip und lag 15-20% vor Cayman was die Leistung betrifft. Tahiti ist kein high end chip sondern nach wie vor ein performance chip.

Der GK104 MSRP wird um einiges niedriger sein welches man auch von einem performance chip heutzutage erwartet. Als Endverbraucher bin ich eben NICHT so bloed die Logik hinter hohen Preisen zu unterstuetzen weil ich eben dummerweise die bloede Angewohnheit habe dass bezahlen zu wollen was jegliches Produkt auch wirklich wert sein wird.

Von mir aus kann jeder eine 7970 bei 500 oder mehr Euros heute kaufen und sogar auf die "Investition" stolz sein. Nichts dagegen.

Der eigentliche Grund wird sein, das man ne miese nicht so gute Ausbeute hat und so auch nie Nachfrage nicht in die Höhe schnellt ;D Denn dann stünde man ja dumm da.

GCN braucht ein gewisses "high end halo" fuer andere Maerkte wo GCN eingesetzt wird und in absehbarer Zukunft eine Menge Titel darauf entwickelt werden und dann fuer den PC portiert werden. Es ist sogar wurscht ob das lediglich nur ein paar Wochen dauern wird.

Captain Future
2011-12-28, 20:09:04
Aus einem Porsche wird auch keine Familienkutsche, nur weil er vier Sitze hat.

High-End ist durch die Leistung definiert. Wer den schnellsten Single-CHip hat, kann sich das eben bezahlen lassen.

HarryHirsch
2011-12-28, 20:10:17
GF110 hat auch "nur" 64 gegen 96 bei Cayman; GK104 taktet auch um einiges hoeher.



Einen Gleichstand wird es nicht geben sondern wenn AMD nicht mit Treibern nachladet irgendwo in der Mitte. Da ich jetzt aber auch schon den MSRP habe wird die Konkurrenz vielleicht nur Wochen nach ihrem Launch ziemlich bloed dastehen mit den $549.

von wie vielen wochen sprichst du denn da so ca.?

robbitop
2011-12-28, 20:10:51
Noch nie Volkswirtschaftslehre gehabt? Angebot und Nachfrage bestimmen den Preis.
Tahiti ist aktuell -egal in welches Segment sie später eintreten wird- die schnellste Karte. Die zweitschnellste Karte wird heute (im Gegensatz zu RV870 Launch die GT200) nicht verkloppt. Ergo darf sie auch ein gutes Stück teurer sein. AMD wäre dumm, das nicht zu machen. Erst der Markt wird den Preis drücken.
AMD hat sowieso schon lange ein Problem mit den Gewinnmargen (im Gegensatz zu NV) - aus wirtschaftlicher Sicht machen sie alles richtig.

Ailuros
2011-12-28, 20:12:56
Aus einem Porsche wird auch keine Familienkutsche, nur weil er vier Sitze hat.

High-End ist durch die Leistung definiert. Wer den schnellsten Single-CHip hat, kann sich das eben bezahlen lassen.

Wenn's ein Halbjahr dauern wuerde bis die direkt konkurrierende Loesung ankommt, dann haette es auch irgendwelchen Sinn. Innerhalb Wochen grenzt es an absolute Laecherlichkeit.

Aus einem Kaefer wird auch keine Porsche wenn ich den Hintersitz rausreisse und einen Porsche Motor installiere ;)

von wie vielen wochen sprichst du denn da so ca.?

Ich spreche auf jeden Fall nicht von etlichen Monaten oder? Sonst werden heutige 40nm chips von NV nicht mehr weiter hergestellt.

HarryHirsch
2011-12-28, 20:18:04
das hört sich echt gut an, danke.

mapel110
2011-12-28, 20:18:25
Noch nie Volkswirtschaftslehre gehabt?
Man kann auch viele Käufer für die Zukunft verprellen, wenn man sie quasi innerhalb von 1-2 Monaten um 150-200 € erleichtert.

Hübie
2011-12-28, 20:20:54
GCN braucht ein gewisses "high end halo" fuer andere Maerkte wo GCN eingesetzt wird und in absehbarer Zukunft eine Menge Titel darauf entwickelt werden und dann fuer den PC portiert werden. Es ist sogar wurscht ob das lediglich nur ein paar Wochen dauern wird.

Ich verstehe nicht ganz. Spielst du auf upcoming consoles an oder wie? Man kann ja nicht großartig für GCN entwickeln, da nix wirklich neues drin steckt.

Aus einem Porsche wird auch keine Familienkutsche, nur weil er vier Sitze hat.

Öh. Doch. Panamera. Ist eine Familienkutsche von Porsche ;D Also war das ein schlechtes Beispiel.

High-End ist durch die Leistung definiert. Wer den schnellsten Single-CHip hat, kann sich das eben bezahlen lassen.

Und da hast du Recht. So lang die den längsten Paynix haben dürfen die verlangen was se wollen, es sei denn die Lager füllen sich ;D

Ailuros
2011-12-28, 20:25:11
Man kann auch viele Käufer für die Zukunft verprellen, wenn man sie quasi innerhalb von 1-2 Monaten um 150-200 € erleichtert.

Viele werden es nicht sein dank begrenzter Verfuegbarkeit. Ich find solche marketing-technischen Schachzuege (stets unter den projezierten Einzelheiten wie oben illustriert) einfach als totalen Schwachsinn. Wenn es GAR nichts von der Konkurrenz bis Anfang Sommer als Beispiel geben sollte dann ja durchaus gerechtfertigt.

Nun ja AMD kann sich ja immer entschuldigen und einen "Fehler" in den MSRPs behaupten. Nach dem Bulldozer Transistoren blond moment keine besondere Ueberraschung. Von der einen Seite solcher Schwachsinn und von der anderen wood screw moments...ein klein bisschen ernster koennte es nach all den Jahren werden.

Ich verstehe nicht ganz. Spielst du auf upcoming consoles an oder wie? Man kann ja nicht großartig für GCN entwickeln, da nix wirklich neues drin steckt.

Wo soll denn GCN nicht drinstecken ausser Nintendo's Konsole?

boxleitnerb
2011-12-28, 20:25:30
Frequenz >7970.

Bei mehr als 925 MHz wären das mit 32 ROPs, 64 TMUs und ein paar Tweaks hier und da schonmal 20% mehr Performance als bei der GTX580...wenn die Bandbreite reicht. Das sollte doch eigentlich ausreichen, um der 7970 gefährlich nahezukommen. Ich tippe auf einen MRSP von 249-299$, definitiv nicht mehr. Kommt GK104 zeitig (Februar) und ist auch verfügbar, werden sich die Tahitikäufer so dermaßen in den Hintern beißen wie man es in Jahren nicht mehr gesehen hat. Da wird die Preissenkung von GT200 damals ein Scheiß dagegen sein.

Ailuros
2011-12-28, 20:27:36
Bei mehr als 925 MHz wären das mit 32 ROPs, 64 TMUs und ein paar Tweaks hier und da schonmal 20% mehr Performance als bei der GTX580...wenn die Bandbreite reicht. Das sollte doch eigentlich ausreichen, um der 7970 gefährlich nahezukommen. Ich tippe auf einen MRSP von 249-299$, definitiv nicht mehr. Kommt GK104 zeitig (Februar) und ist auch verfügbar, werden sich die Tahitikäufer so dermaßen in den Hintern beißen wie man es in Jahren nicht mehr gesehen hat. Da wird die Preissenkung von GT200 damals ein Scheiß dagegen sein.

580+10% war es bei den ersten beta Treibern. Und ja um dieses ich will mir in den Hintern beissen geht es mir die ganze Zeit mit meiner Tahiti MSRP Laier.

boxleitnerb
2011-12-28, 20:29:18
580+10% war es bei den ersten beta Treibern. Und ja um dieses ich will mir in den Hintern beissen geht es mir die ganze Zeit mit meiner Tahiti MSRP Laier.

Nur 10%? Beta hin oder her, aber bei so deutlich mehr Rohleistung wäre das etwas schwach. An Wundertreiber glaub ich halt nicht so wirklich, wäre aber positiv überrascht, wenn man da nochmal 10-15% rausholen sollte.

AnarchX
2011-12-28, 20:31:32
Irgendwann limitiert hier wohl auch die Bandbreite und Kepler wird wohl etwas verschwenderischer mit der Rohleistung umgehen, als noch GF100/110. Bei GF104/114 beobachtet man ja ähnliches.

boxleitnerb
2011-12-28, 20:38:58
Dann hoffen wir mal, dass man den Speicher gut übertakten kann. Was da für Potential schlummert, wäre interessant zu wissen. Nvidia reitet diesmal ja so auf Perf/W rum - bei einem angenommenen Verbrauch von 160W (GTX580=250W) würde man bei GTX580+10% "nur" +70% Perf/W erreichen. Ich kann mir jetzt nicht vorstellen, dass der langsame Speicher da 30% Performance zurückhält. Von daher kann ich diese Steigerung um Faktor 3 nicht so ganz nachvollziehen - es sei denn, die Effizienz gilt allein für DP, wie es eben schon auf der Folie zu sehen war und wäre in keinster Weise übertragbar auf Spieleperformance.

Die ganze Geschichte mit GK104 ist ja schön und gut, aber wenn das alles wäre, was Nvidia im ersten Halbjahr 2012 zu bieten hat, wäre ich nicht so glücklich. Die große Frage lautet: Wo bleibt GK100? Von dem hört man ja nu gar nichts.

Hugo78
2011-12-28, 21:03:29
Wo bleibt GK100?

Mein Tip:
Kommt in etwa zeitgleich mit Tegra 3+.
Irgendwann zwischen Mai und Juli. :biggrin:

Dude ernsthaft, wenn AMD paperlaunchiert und die gemunkelte, breite Verfügbarkeit erst ab Februar - März gegeben sein soll
und auch dann erst NVidia mit dem kleineren GK104 kommt, dann ist es doch logisch, dass GK100/ GK110 ein Quartel später kommt.

Die Yield muss einfach besser werden.
Aus dem selben Grund hat man Tegra3 ja auch noch nicht in 28nm.

OgrEGT
2011-12-29, 10:47:02
580+10% war es bei den ersten beta Treibern. Und ja um dieses ich will mir in den Hintern beissen geht es mir die ganze Zeit mit meiner Tahiti MSRP Laeier.

Dann werden sich aber auch alle die sich noch vor kurzem ne GTX580 (vor allem 3GB) gekauft haben ebenfalls aber sowas von in den Allerwertesten beißen müssen.

Wenn GK104 so wie von Dir prognostiziert am Ende für 300$ verscheuert werden soll (wie NV bei dem Preis die Hammernachfrage bedienen will würde mich aber dann interessieren, der TSMC Prozess ist doch angeblich noch zu schlecht...), dann ist auf der gesamten Grafikkartenfront eine massive Neuausrichtung aller Preise die Folge. Die Schuld für das Beißen liegt aber dann nicht beim Tahiti Preis, sondern beim GK104 Preis.

Warten wirs ab, ob im Februar was und zu welchem Preis kommt.

Edit:
Nur dass wir uns nicht falsch verstehen. Bei GK104 mit GTX580+20% bei 150W und $300 könnte ich auch zu den Käufern gehören...

Dural
2011-12-29, 11:34:34
Edit:
Nur dass wir uns nicht falsch verstehen. Bei GK104 mit GTX580+20% bei 150W und $300 könnte ich auch zu den Käufern gehören...


ihr glaubt alle noch an den weihnachtsmann oder? :rolleyes:


ich hoffe einfach auf min. 60% + beim GK100 auf die GTX580, wird bei selben verbrauch schwirieg... aber so ein "flopp" wie die 7970 muss ich nicht noch mal haben, da warte ich lieber auf die nächste generation! gerade mal 10% retten die karte vor dem 2900XT flopp... wie man da nur irgend was gutes zu der karte sagen kann ist mir ein rätsel... gerade wenn GK104 wirklich wie oben beschrieben kommt dann gute nacht, da fallen die 7970 über nacht um die 200-300.- ;) abwarten und Tee drinken, hab zur überbrückung mal eine 7970 bestellt :rolleyes:

Ailuros
2011-12-29, 11:40:26
Dann hoffen wir mal, dass man den Speicher gut übertakten kann. Was da für Potential schlummert, wäre interessant zu wissen. Nvidia reitet diesmal ja so auf Perf/W rum - bei einem angenommenen Verbrauch von 160W (GTX580=250W) würde man bei GTX580+10% "nur" +70% Perf/W erreichen. Ich kann mir jetzt nicht vorstellen, dass der langsame Speicher da 30% Performance zurückhält. Von daher kann ich diese Steigerung um Faktor 3 nicht so ganz nachvollziehen - es sei denn, die Effizienz gilt allein für DP, wie es eben schon auf der Folie zu sehen war und wäre in keinster Weise übertragbar auf Spieleperformance.

Kein IHV hat einen Wunderstab egal um wieviel besser eine neue Architektur sein wird. Wenn man aber ca. 20% unter dem eigentlichen Leistungsziel mit dem allerersten run mit beta Treibern bekommt, dann ist es ziemlich gut.

Die ganze Geschichte mit GK104 ist ja schön und gut, aber wenn das alles wäre, was Nvidia im ersten Halbjahr 2012 zu bieten hat, wäre ich nicht so glücklich. Die große Frage lautet: Wo bleibt GK100? Von dem hört man ja nu gar nichts.

Oh Schande es hat noch niemand darueber berichtet? Vielleicht kommt bald ein SA Artikel der beschreibt wie viel tote Hose alles Kepler ist und sein wird und wieso man zweistellige shrinks pro chip genau braucht....:rolleyes:

Was genau willst Du ueber GK110 hoeren? Weil Du sonst schon was handfestes ueber Kepler gehoert hast oder was? Ich hab ein paar Fetzen rausgelassen bis jetzt und da es schon zuviel des Guten wurde ich hoeflich gebremst von jetzt ab still zu halten. Kein Grund zur Unruhe bis jetzt.

OgrEGT
2011-12-29, 11:46:30
ihr glaubt alle noch an den weihnachtsmann oder? :rolleyes:


ich hoffe einfach auf min. 60% + beim GK100 auf die GTX580, wird bei selben verbrauch schwirieg... aber so ein "flopp" wie die 7970 muss ich nicht noch mal haben, da warte ich lieber auf die nächste generation! gerade mal 10% retten die karte vor dem 2900XT flopp... wie man da nur irgend was gutes zu der karte sagen kann ist mir ein rätsel... gerade wenn GK104 wirklich wie oben beschrieben kommt dann gute nacht, da fallen die 7970 über nacht um die 200-300.- ;) abwarten und Tee drinken, hab zur überbrückung mal eine 7970 bestellt :rolleyes:

Ergibt das Sinn?

Ailuros
2011-12-29, 11:50:28
Dann werden sich aber auch alle die sich noch vor kurzem ne GTX580 (vor allem 3GB) gekauft haben ebenfalls aber sowas von in den Allerwertesten beißen müssen.

Wir sind kein Kaufsberatungs-forum hier. Aber wenn's schon sein muss, ja natuerlich und gleiches gilt fuer jegliches Produkt auf jeglichem Markt dass dank einer neuen Generation kurzfristig EOL geht.

Wenn GK104 so wie von Dir prognostiziert am Ende für 300$ verscheuert werden soll (wie NV bei dem Preis die Hammernachfrage bedienen will würde mich aber dann interessieren, der TSMC Prozess ist doch angeblich noch zu schlecht...), dann ist auf der gesamten Grafikkartenfront eine massive Neuausrichtung aller Preise die Folge. Die Schuld für das Beißen liegt aber dann nicht beim Tahiti Preis, sondern beim GK104 Preis.

Mein Verdacht ist dass NV dank niedriger yields ihre ersten 28nm Kapazitaeten GK107/6 dediziert haben um u.a. auch chips zu stocken fuer den Ivy bridge launch (wenn natuerlich die grosse Anzahl an design wins auch stimmt).

NV wird wohl nicht vorhaben zum Zeitpunkt X eine GK104 mit einem MSRP von >$450 zu veroeffentlichen weil dieses ein moechtegern high end single chip sein soll und dann innerhalb ein paar Monaten den Preis zu reduzieren weil "oooops tschuldigung unser eigentlicher high end chip ist GK110".

GK104 ist etwas kleiner und einfacher als Tahiti als chip.

AffenJack
2011-12-29, 12:23:20
@Ailuros

GK107 müsste ja schon langsam in Produktion gehen, meinst du der wird schon früh vorgestellt als erster Chip oder werden wir von dem erst mehr zum Ivi-Bridge und den Designs dann erfahren?
Es ist ja prinzipiell eher ungewöhnlich die Architektur mit dem kleinsten Chip vorzustellen, deshalb würde ich vorm GK107 Launch nen Architektur Event erwarten. Sowas schon im Januar wäre top.

LovesuckZ
2011-12-29, 12:58:46
@Ailuros

GK107 müsste ja schon langsam in Produktion gehen, meinst du der wird schon früh vorgestellt als erster Chip oder werden wir von dem erst mehr zum Ivi-Bridge und den Designs dann erfahren?
Es ist ja prinzipiell eher ungewöhnlich die Architektur mit dem kleinsten Chip vorzustellen, deshalb würde ich vorm GK107 Launch nen Architektur Event erwarten. Sowas schon im Januar wäre top.

Huang hat doch im letzten Jahr angekündigt, dass in Zukunft die komplette Familie innerhalb von 3 Monaten erscheint.

M4xw0lf
2011-12-29, 13:19:48
Huang hat doch im letzten Jahr angekündigt, dass in Zukunft die komplette Familie innerhalb von 3 Monaten erscheint.

*pfeif* .... "This baby here is Fermi" :freak:

Gipsel
2011-12-29, 14:14:24
*pfeif* .... "This baby puppy here is Fermi" :freak:Habe mal den Wortlaut berichtigt. ;)

M4xw0lf
2011-12-29, 14:15:36
Habe mal den Wortlaut berichtigt. ;)

Ah verdammt, I failed! -Dankeschön :wink:

Bucklew
2011-12-29, 17:11:04
Vielleicht kommt bald ein SA Artikel der beschreibt wie viel tote Hose alles Kepler ist und sein wird und wieso man zweistellige shrinks pro chip genau braucht....:rolleyes:
Charlie hat doch nichtmal was zur neuen AMD gesagt. Scheint also nicht so gut auszusehen ;)

AwesomeSauce
2011-12-29, 17:18:58
Charlie hat doch nichtmal was zur neuen AMD gesagt. Scheint also nicht so gut auszusehen ;)
Von Kepler hat C.D nicht den geringsten Plan. Er hat sogar den Tapeout von GK104 verpasst.

Ich frage mich, ob es für Kepler auch einen Techday geben wird. Signifikante Neuerungen hätten sie ja anscheinend genug.

Ailuros
2011-12-29, 17:31:17
@Ailuros

GK107 müsste ja schon langsam in Produktion gehen, meinst du der wird schon früh vorgestellt als erster Chip oder werden wir von dem erst mehr zum Ivi-Bridge und den Designs dann erfahren?

Nicht gehen, ist....

Es ist ja prinzipiell eher ungewöhnlich die Architektur mit dem kleinsten Chip vorzustellen, deshalb würde ich vorm GK107 Launch nen Architektur Event erwarten. Sowas schon im Januar wäre top.

Als erste duerfte tatsaechlich die Papier Architektur Vorstellung kommen. Aber aus solchem Material (wie auch bei GCN) kann man nicht unbedingt sichere Effizienz-Schlussvolgerungen ziehen.

Charlie hat doch nichtmal was zur neuen AMD gesagt. Scheint also nicht so gut auszusehen ;)

Was aber nicht heisst dass er nicht seine uebliche Meinung hat.

Von Kepler hat C.D nicht den geringsten Plan. Er hat sogar den Tapeout von GK104 verpasst.


Mehr als einen tape out ;)

Huang hat doch im letzten Jahr angekündigt, dass in Zukunft die komplette Familie innerhalb von 3 Monaten erscheint.

Das ist tatsaechlich das originale Ziel; gilt aber auch nur wenn wirklich alles nach Plan laeuft. Bis jetzt gibt es noch keinen Grund zur Unruhe, weil angeblich alle Karren in der Garage schon geparkt sind. Ich warte aber lieber noch etwas ab, bis ich alles als "gesichert" abstemple. Mist kann immer passieren.

Bucklew
2011-12-29, 18:04:43
Von Kepler hat C.D nicht den geringsten Plan. Er hat sogar den Tapeout von GK104 verpasst.
Das hat ihn doch bisher auch nicht gestört seine "Meinung" zu verbreiten ;D

Wie war das doch noch mit dem Tessellation über die Shader beim Fermi?

Was aber nicht heisst dass er nicht seine uebliche Meinung hat.
Wes' Brot ich ess, des' Lied ich sing.

Das gilt bei Charlie wie bei keinem anderen. Und damit schafft er es halt eine nicht gerade kleine Horde an Anhängern um sich zu scharren.

DarknessFalls
2011-12-29, 18:22:31
Mahlzeit zusammen... ich weiß nicht, ob das so schon hier zur Sprache gekommen ist, aber ich habe mir folgende wirre Gedanken zusammengesponnen:

Es ist unbestritten unüblich, zuerst den Performance-Chip einer Generation vorzustellen, ich kann mich nicht erinnern, wann ich soetwas schonmal erlebt habe, zudem der High-End-Chip in Form von GK100 angeblich erst im Sommer folgen soll.

Besteht die Möglichkeit, daß GK104 eigentlich GK100 ist? Die Folgerung zum jetzigen GK100 wäre nämlich daraus, daß das dann GK110 unter anderem Namen ist. Wie ich darauf komme? Also: Wenn nVidia nun wieder Probleme mit dem neuen Design und der neuen Fertigung hat, wie es bei Fermi der Fall war, könnte man so eine Karte rausbringen, die GTX580 nicht beeindruckend schlägt und vielleicht auch hinter HD7970 bleibt, aber dann sagen: "Hey, das ist ja auch nur unser Performance-Chip, wartet mal ab, der Hammer kommt erst noch."

Das hieße, man verliert erstmal nicht das Gesicht UND lässt die Konkurrenz dusselig dastehen. Bis zum angekündigten GK100 kann man dann an der Fertigung feilen und eventuelle Designprobleme (ich will jetzt nicht -fehler sagen) ausmerzen oder soweit bereinigen, daß ein Vollausbau möglich ist. Ein solcher GK110, wie es GF110 zu GF100 war, würde als GK100 vermarktet und man würde sich das GTX480-Desaster ersparen.

Logische Schlussfolgerungen? :confused:

Nightspider
2011-12-29, 18:28:52
Hoffentlich kommt NV auch mit neuen Features AA, DS bzw. AF betreffend damit man die Leistung sinnvoll in ältere Games investieren kann.

Ich hoffe auch, das die GTX460/560 Nachfolge-Karten wieder min. Pre-HighEnd Niveau haben, also mindestens so schnell sind wie die GTX580.

Selbst die GTX460 war ja ohne OC schneller als ne GTX285 und mit OC bis zu 30% schneller ohne DX11. Mit DX11 gar gegen 50% in Einzelfällen.

Die Fermi Karten brechen auch noch stark ein, selbst bei nur 4*AA bei Battlefield 3, auch wenn es wohl über SSAA gelöst sein soll und die hohen Leistungseinbrüche erklären soll.
Da lohnt sich ja Downsampling mehr bei BF3 aber das frisst auch massiv viel Leistung und müsste wenigstens mit 2*AA kombiniert werden.

Hugo78
2011-12-29, 18:31:19
@DarknessFalls

Dieses Kartenhaus würde dann aber spätestens zusammenfallen, wenn jemand den Chip vermessen täte.

DarknessFalls
2011-12-29, 18:37:40
@Hugo: Stimmt, das wäre ein Punkt. Aber ansonsten? Die Möglichkeit, daß mit dem aktuellen Stepping in der neuen Fertigung einfach noch nix geht, halte ich zumindest für sehr wahrscheinlich. Ansonsten würde nV den "dicken Brummer" doch sicherlich sofort raushauen, es ist halt einfach entgegen jeglicher gängiger Praxis bei Grafikkartenreleases.

Ich kann mir jedenfalls vorstellen, daß wir einen GK100 nie sehen werden, sondern direkt den GK110 - sei es aufgrund des Stromverbrauches oder anderer Probleme.

Hübie
2011-12-29, 18:46:51
Hoffentlich kommt NV auch mit neuen Features AA, DS bzw. AF betreffend damit man die Leistung sinnvoll in ältere Games investieren kann.

Ich hoffe auch, das die GTX460/560 Nachfolge-Karten wieder min. Pre-HighEnd Niveau haben, also mindestens so schnell sind wie die GTX580.

Selbst die GTX460 war ja ohne OC schneller als ne GTX285 und mit OC bis zu 30% schneller ohne DX11. Mit DX11 gar gegen 50% in Einzelfällen.

Die Fermi Karten brechen auch noch stark ein, selbst bei nur 4*AA bei Battlefield 3, auch wenn es wohl über SSAA gelöst sein soll und die hohen Leistungseinbrüche erklären soll.
Da lohnt sich ja Downsampling mehr bei BF3 aber das frisst auch massiv viel Leistung und müsste wenigstens mit 2*AA kombiniert werden.

Die GTX 285 beherrscht doch gar kein DX 11, wie kann die dann 50% langsamer sein? Des weiteren weiß ich gerade nicht was du mit AA in BF3 meinst. Das ist MSAA pur. Afaik werden Alpha-Texturen mit geglättet, aber das weiß ich gerade nicht. Da brauchen wir einen BF3-Experten hier der das bestätigt. Was ich so beobachten konnte war vielleicht ein Einbruch von 10-15% mit 4xMSAA@FullHD. Die Reviews die noch online sind wurden fast alle mit einem alten Treiber gemacht. Korrigiere mich wenn ich irre - dann aber mit Quelle/Screenshots.

Hugo78
2011-12-29, 18:59:40
Ansonsten würde nV den "dicken Brummer" doch sicherlich sofort raushauen, es ist halt einfach entgegen jeglicher gängiger Praxis bei Grafikkartenreleases.

Kannst du mir sagen, was ein ~365mm^2 Thaiti aktuell kostet?
Also was nutzt es einen dicken Brummer (> 500mm^2) rauszuhauen, wenn der zu dem Zeitpunkt nur zum Selbstkostenpreis verkauft werden kann, weil die Yield noch nicht da ist, wie man hinwill.
NV will Geld verdienen und es ist ja nich so als ob sie Druck hätten, nachdem der Paperlaunch der 7970 gezeigt hat, dass Thaiti gradmal 20-30% mehr bringt.
Wenn GK104 tatsächlich in ca. 2 Monaten zeigt, dass Kepler mit weniger Fläche und Verbauch ähnlich viel Speed bringt, dann wird das die Erwartung der Leute die tatsächlich 500€ für ne High End hinlegen wollen,
schon noch lange genug hochhalten bis der Chip und der Preispunkt, die benötigte Marge abwerfen.

edit:
AMD hatte seine HD6k auch mit Barts gestartet, und hat nicht geschadet, soweit ich weiß.

Nightspider
2011-12-29, 19:03:20
Die GTX 285 beherrscht doch gar kein DX 11, wie kann die dann 50% langsamer sein? Des weiteren weiß ich gerade nicht was du mit AA in BF3 meinst. Das ist MSAA pur. Afaik werden Alpha-Texturen mit geglättet, aber das weiß ich gerade nicht. Da brauchen wir einen BF3-Experten hier der das bestätigt. Was ich so beobachten konnte war vielleicht ein Einbruch von 10-15% mit 4xMSAA@FullHD. Die Reviews die noch online sind wurden fast alle mit einem alten Treiber gemacht. Korrigiere mich wenn ich irre - dann aber mit Quelle/Screenshots.

Die GTX460 ist regulär, wenn ich mich nicht irre, ~10% schneller als ne GTX285. Dazu kommen leicht zu erreichende 20% oc und nochmal 30% bessere Leistung in DX11 bei gleicher Grafik bei manchen DX11 Spielen, wo DX11 hauptsächlich zur Leistungssteigerung genutzt wird. Ich glaube in Total War (oder wie das Strategiespiel hieß) war dies der Fall. Das macht zusammen > 50% mehr Leistung. Bei DX9 Titeln immernoch rund 30%.

Du hast 10-15% Einbruch? Glaub ich kaum. Irgendein Experte hat das mit SSAA in BF3 mal erklärt. Da normales MSAA wohl immernoch nicht richtig bei der Frostbite Engine funktioniert, wie bei BC2. Da wird wohl eine Art SSAA auf die Kanten angewendet, wenn ich es richtig im Kopf habe.

Mit 1,5fachem DS auf beide Achsen habe ich alleine mit 2xAA in BF3 schon bis zu 25% Einbruch, grob geschätzt. Mit 4xAA gehts Richtung 50%. Wie es ohne DS skalierte weiß ich jetzt nicht genau aber es waren auch recht große Einbrüche.
Vielleicht reagieren die GTX460 Karten da empfindlicher. Liefen jedenfalls beide bei mir auf 100%.

mapel110
2011-12-29, 19:05:02
edit:
AMD hatte seine HD6k auch mit Barts gestartet, und hat nicht geschadet, soweit ich weiß.
Barts war ja auch besser als Cayman.

Über den Preis der 7970 haben wir auf den letzten Seiten genug diskutiert. Vielleicht solltest du nochmal lesen, was Ailuros dazu sagte.
Die GTX460 ist regulär, wenn ich mich nicht irre, ~10% schneller als ne GTX285.
ca. 30%
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_460_768mb_1024_mb/
/edit
Komisches Review, ich hatte vor ein paar Wochen mit jemandem von HT4U eine Diskussion zur Performance der 460er und da sind wir zum Schluss auf 30% gekommen. :|
Bei aktuellen Spielen sollte das auf jeden Fall stimmen.

DarknessFalls
2011-12-29, 19:09:43
Barts und Cayman sind tatsächlich wohl die Ausnahme, wobei ich die beiden schon fast als "Notlösung" betrachte, weil 28nm für GCN einfach noch nicht möglich war - aber geplant. Barts ist ein Refresh des VLIW-5 Designs, Cayman ein Versuch, aus 40nm noch was mit stärker modifizierter Architektur herauszureißen.

Das wäre jetzt aber wirklich der einzige Release der mir einfällt, wo der Performance-Chip vor dem High-End-Chip kam...

Hugo78
2011-12-29, 19:19:44
Über den Preis der 7970 haben wir auf den letzten Seiten genug diskutiert. Vielleicht solltest du nochmal lesen, was Ailuros dazu sagte.

Ja hab ich, nur ich glaube nicht dass AMD aktuell viel günster verkaufen kann,
dafür müssten sie schon ein paar echte Retailkarten zeigen.
In 2-3 Monaten kann sich die Lage an der Yieldfront sicher entschärt haben.

Hübie
2011-12-29, 20:06:11
@Nightspider: Habs gerade nachgemessen: nicht ganz 30% Leistungseinbruch bei 4xMSAA+FXAA@Ultra ohne Motionblur in FullHD. Systemspecs findest du ja hier. Und dem Geflacker der Alphatexturen nach zu urteilen wird auch kein SSAA darauf angewandt. Finde das ist für die gebotene Optik in der Tat zuviel.

http://www.abload.de/img/bf3_aa_nonaae00tx.png (http://www.abload.de/image.php?img=bf3_aa_nonaae00tx.png)

Ich vermute mal das du etwas falsch verstanden hast oder verdrehst, aber das ist sicher kein SSAA.

Coda
2011-12-29, 20:31:34
Nein, es ist schon Multisampling, allerdings ist das mit deferred rendering teurer.

Hübie
2011-12-29, 20:33:58
Ach so. Also nur der EdgeFilter. Das kann durchaus sein, aber ansonsten ist das AA recht mies für ein verwöhntes Auge. Bezieht der EdgeFilter die Daten aus den MSAA samples? Bin gerade etwas überfragt :confused:

Coda
2011-12-29, 20:58:16
EdgeFilter?

Ailuros
2011-12-29, 21:04:03
Das hat ihn doch bisher auch nicht gestört seine "Meinung" zu verbreiten ;D

Wie war das doch noch mit dem Tessellation über die Shader beim Fermi?

FYI der interconnect ist laut ihm immer noch kaputt.

Wes' Brot ich ess, des' Lied ich sing.

Das gilt bei Charlie wie bei keinem anderen. Und damit schafft er es halt eine nicht gerade kleine Horde an Anhängern um sich zu scharren.

Wir wollen aber trotzdem im Glashaus nicht von Steinen reden oder? :wink:

Ich plauder gern mit sehr vielen Leuten privat und es gibt eben auch Leute die ueberzeugt werden koennen dass es zu gefaehrlich sein kann konstant auf die Nase zu fallen.

Hübie
2011-12-29, 21:07:57
Hö? Hast du dein post editiert oder hab ich gerade 2 threads verwechselt? Du hat doch geschrieben das die edge-detection mit supersampling gelättet wird. Glaub ich muss ins Bett *gähn* =)

Bucklew
2011-12-29, 21:20:00
FYI der interconnect ist laut ihm immer noch kaputt.
Wann hat er denn den Bullshit geschrieben? :eek:

Wir wollen aber trotzdem im Glashaus nicht von Steinen reden oder? :wink:
Bin inzwischen neutral was das angeht ;)

Ailuros
2011-12-29, 21:22:12
Bin inzwischen neutral was das angeht ;)

Ich hab bis jetzt noch niemand getroffen der wirklich neutral ist mit seiner Meinung generell.

Bucklew
2011-12-29, 21:26:19
Ich hab bis jetzt noch niemand getroffen der wirklich neutral ist mit seiner Meinung generell.
Bezogen auf das Brot :)

Coda
2011-12-29, 21:43:20
Hö? Hast du dein post editiert oder hab ich gerade 2 threads verwechselt? Du hat doch geschrieben das die edge-detection mit supersampling gelättet wird. Glaub ich muss ins Bett *gähn* =)
Jain, für die Kanten wird tatsächlich Supersampling gemacht. Das ist bei normalem Multisampling effektiv aber auch zum Teil so.

Das ganze ist halt mal wieder relativ komplex.

john carmack
2011-12-29, 22:19:43
Glaubt ihr wirklich das Kepler 70-80% Leistung draufelgen kann?

Ich meine, - das würde AMD vernichten!

Hübie
2011-12-29, 22:21:34
Kannst du es mir (rein aus Neugier) trotzdem erklären. Gerne auch per PN da es langsam OT wird =)

AwesomeSauce
2011-12-29, 22:55:31
Wann hat er denn den Bullshit geschrieben? :eek:
Als Artikel glaube ich gar nicht. Aber im Forum lässt er sich darüber aus (Architektur immer noch "broken" und "unfixable"). Nach ihm erreicht GK104 keine 1.5x DP-Flop/Watt von Fermi... Aber Ail hat ihn schon gut bearbeitet;)
Glaubt ihr wirklich das Kepler 70-80% Leistung draufelgen kann?

Ich meine, - das würde AMD vernichten!
1. gegenüber welchem Chip?
2. GK104 oder GK110?

Edit: Morgen solls anscheinend was von Mister C.D. geben bezüglich Kepler. **Filter-Brille herauskram**

robbitop
2011-12-29, 23:14:48
GK100 ist auch gar kein Vergleich zu Tahiti. Mit einer 5xx - 6xx sqmm großem Chip einen 35x sqmm großen Chip zu schlagen sollte kein Problem sein. Tahiti ist eher Konkurrent von GK104.
Für GK100 steht ja NewZealand bereit. AMD baut seit R600 keine Enthusiast Singlechipkarten mehr.
Sie konnten eigentlich bis dato nur häufig durch "Glück" mit ihren Performancechips mithalten, weil die Leistung pro sqmm bei NV bei GT200 und GF100 nicht so doll war.

Hugo78
2011-12-29, 23:23:51
Ich meine, - das würde AMD vernichten!

Wenn AMD mal paar Balkenteile hinterher hinkt kommt immer wer mit der Mitleidsnummer,
andersrum wird draufgehauen als ob Nvidia übermächtig wäre mit ihrer 1/3 Mannschaft im Vergleich zu AMD.

Schon komisch diese Welt.

Captain Future
2011-12-29, 23:25:20
FYI der interconnect ist laut ihm immer noch kaputt.

Dafür performt Fermi aber gar nicht schlecht. Auch die Software-Tessellation funktioniert einigermaßen.

Eigentlich braucht Nv dann für Kepler ja nur den INterconnect fixen...

AwesomeSauce
2011-12-29, 23:29:09
Eigentlich braucht Nv dann für Kepler ja nur den INterconnect fixen...
Laut Charlie sind sie bei NV dazu unfähig (das Übliche halt) und es ist eben bei Kepler immer noch kaputt:rolleyes:

Coda
2011-12-29, 23:36:05
Auch wenn das sicher Sarkasmus war von Captain Future: Der Interconnect kann gar nicht kaputt sein, der ist zentral für die Load-Distribution der Tesselationseinheiten, etc.

Gipsel
2011-12-30, 01:04:55
Bin inzwischen neutral was das angeht ;)Arbeitest Du inzwischen nicht mehr beim Quadro-Support?

LovesuckZ
2011-12-30, 10:01:19
Als Artikel glaube ich gar nicht. Aber im Forum lässt er sich darüber aus (Architektur immer noch "broken" und "unfixable"). Nach ihm erreicht GK104 keine 1.5x DP-Flop/Watt von Fermi... Aber Ail hat ihn schon gut bearbeitet;)


1.5? Huh, das wäre ja besser als Tahiti. :freak:

Ailuros
2011-12-30, 11:12:31
Auch wenn das sicher Sarkasmus war von Captain Future: Der Interconnect kann gar nicht kaputt sein, der ist zentral für die Load-Distribution der Tesselationseinheiten, etc.

Es "soll" eben nie richtig gefixt worden sein und es gab lediglich "Pflaster" dafuer. Er glaubte sogar dass sie den interconnect bei Kepler losgeworden sind was ich persoenlich erstmal bezweifle.

Glauben will ich es natuerlich nicht, aber im unwahrscheinlichen Fall wo Kepler in diesem Bereich um einiges zulegen sollte ohne dass es eine anstaendige Erklaerung dafuer gibt waere es in dem Fall eine These.

Es ist uebrigens mein Verstaendnis dass der interconnect nicht per se in allen Faellen wirklich "kaputt" war; irgend etwas war problematisch daran dass man sobald man alle SMs eingeschaltet hatte der Stromverbrauch durch die Decke knallte. GF100 mit 16SM war ein no go, 15SM etwas hohen Stromverbrauch, 14SMs = IMHO so wie man es von solch einem chip erwarten wuerde.

Wuerde an solchen Bums-thesen etwas liegen, dann muesste auch wie er behauptet GF110 "kaputt" sein; ich sehe 16SMs im Tesla M2090 mit weniger Stromverbrauch und mehr FLOPs (225W/665 GFLOPs) als bei den GF100 Teslas (238W/515 GFLOPs).

1.5? Huh, das wäre ja besser als Tahiti. :freak:

DP FLOPs/W auf GK104 wird wohl eher eine Angelegenheit sein ob und wie stark der SM layout begrenzt und danach jeglicher moegliche sw cap.

Wenn ich wuesste wie die Unterschiede per SM zwischen 104 und 110 genau aussehen, haette ich schon so manches Puzzle betreffend Kepler geloest.

Wie dem auch sei zumindest SP FLOPs duerften diesmal zwischen AMD und NV's performance GPUs keine so grossen Abstaende haben wie bisher. Wenn NV jetzt 104 nicht fuer Tesla einsetzen will (welches ich auch zugegeben erwarten wuerde) dann besteht auch kein besonderer Grund irgendwelche hohe DP FLOP Anzahl zu unterstuetzen bzw. freizuschalten.

In synthetischem Zeug (mit einer wichtigen Marketing-Ausnahme) wird IMO sowieso 104 um einiges hinter Tahiti liegen.

Gipsel
2011-12-30, 12:12:09
In synthetischem Zeug (mit einer wichtigen Marketing-Ausnahme) wird IMO sowieso 104 um einiges hinter Tahiti liegen.3DMark? :rolleyes:

AffenJack
2011-12-30, 12:15:58
Ich tippe da eher auf die Tesselationleistung. GK104 könnte 4 GPCs haben und damit dank hohem Takt über GF110 liegen.

Coda
2011-12-30, 12:31:47
Es "soll" eben nie richtig gefixt worden sein und es gab lediglich "Pflaster" dafuer. Er glaubte sogar dass sie den interconnect bei Kepler losgeworden sind was ich persoenlich erstmal bezweifle.
Loswerden im eigentlichen Sinne werden sie ihn sicher nicht, man könnte sich aber beispielsweise stattdessen einen Ringbus vorstellen.

Den Brauchen sie um weiter skalieren zu können vermutlich eh. Eine Crossbar ist halt recht groß.

Skysnake
2011-12-30, 12:59:47
Ein Ringbus skaliert aber auch nur begrenzt. Du musst bedenken, dass du da bei Fermi allein schon 16+ Hops gehabt hättest. Wahrscheinlich für jeden RAM-Controller einen. Das wären dann also wahrscheinlich 22 Hops. Das ist ne ganze Menge. Da sollte man dann schon über Subringe nachdenken.

n-D-Ringe lassen sich aber schlecht auf 2D Struckturen, die man ja hat, übertragen.

Mir ist da im Moment eher ein mehrstufiges Netzwerk, was wie ein Crossbar funktioniert realistisch. Man braucht ja möglichst große Bandbreiten, und da kann man beim Ring eben auch ziemlich abstürzen.

Coda
2011-12-30, 13:23:47
Latenzen sind eher unwichtig bei der Fragment-Crossbar. Da hat's eh genügend große Reorder-Buffer.

Ich rede nicht von der Crossbar vor dem Speicher-Controller.

Skysnake
2011-12-30, 13:49:40
Den würdeste aber wohl mit rein nehmen, wenn du die SMs mit einem Ringbus anbindest.

Naja, schaumer mal was kommt.

Auf lange Sicht mit den stacked Chips wirds wohl eh auf ein 3D-Tori raus laufen bei den CPUs, und bei den GPUs wird man schauen müssen, ob man nicht mit "langsamen mehrstufigen" Crossbars weiter kommt, einfach weil man die hohen Bandbreiten braucht, und ich da mit nem Ringbus Probleme sehe. Das müsste einfach viel viel viel zu fett werden.

Da lieber dann nochmals clustern wie bei GCN und dann eben unterschiedliche Netzwerke für die Anbindung innerhalb einer CU und zwischen den CUs nutzen.

Naja, wir werden sehen was nVidia da fabriziert, und wie Sie ihre Versprechen bzgl der Effizienz halten wollen. Ich bin da noch immer etwas skeptisch.

AwesomeSauce
2011-12-30, 14:12:25
http://semiaccurate.com/2011/12/30/nvidia-gpu-roadmap-slips-a-year-too/
;D :crazy:

Das sollen die grossen Kepler News sein? Das sind noch nicht mal News! :facepalm:

Coda
2011-12-30, 14:16:35
Den würdeste aber wohl mit rein nehmen, wenn du die SMs mit einem Ringbus anbindest.
Wieso das denn? Das ist doch ein völlig anderer Teil der Pipeline.

LovesuckZ
2011-12-30, 14:21:51
http://semiaccurate.com/2011/12/30/nvidia-gpu-roadmap-slips-a-year-too/
;D :crazy:

Das sollen die grossen Kepler News sein? Das sind noch nicht mal News! :facepalm:

Und er hat immer noch nicht begriffen, was Denver ist. :freak:

Skysnake
2011-12-30, 14:25:55
Wieso das denn? Das ist doch ein völlig anderer Teil der Pipeline.
Wieso? Ob ich jetzt aus dem L2 lese, der sicherlich über die SMs aufgeteilt wird, oder eben ausm RAM macht doch keinen Unterschied :confused:

Oder wo brauchst du sonst ein Interconnect zwischen den SMs?

Eben gar nicht. Alles andere ist ja nur noch SM intern, und kann man komplett vom restlichen Interconnect abkoppeln. (Sollte man zumindest können)

Coda
2011-12-30, 14:51:40
Wieso? Ob ich jetzt aus dem L2 lese, der sicherlich über die SMs aufgeteilt wird, oder eben ausm RAM macht doch keinen Unterschied :confused:

Oder wo brauchst du sonst ein Interconnect zwischen den SMs?
Ich rede von der Fragment Primitive-Crossbar (Primitive trifft es genauer, sorry). Fermi macht Load-Balancing zwischen den Rasterizern und Tesselatoren. Soll heißen: Was von einem SM in einem GPC tesseliert wird, wird evtl. von einem ganz anderen GPC-Rasterizer gerastert. Und dabei muss auch die API-Primitive-Order eingehalten werden!

Ich glaube nicht, dass die Speicher-Crossbar die Probleme bei GF100 verursacht hat. Viel eher das Zeug.

Schau dir da mal Slide 12 an: http://www.highperformancegraphics.org/previous/www_2010/media/Hot3D/HPG2010_Hot3D_NVIDIA.pdf

Ailuros
2011-12-30, 16:30:35
Und er hat immer noch nicht begriffen, was Denver ist. :freak:

Denver hat nichts mit T50 oder jeglichem Tx0 etwas zu tun. Sonst hat er so oder so "recht" was die neue Maxwell bzw. Denver Projektion betrifft, aber es ist trotz allem eher TSMC 20HP Angelegenheit als alles andere. Heutzutage kann man mit neuen Herstellungsprozessen einfach nicht mehr optimistich sein.

Ich rede von der Fragment Primitive-Crossbar (Primitive trifft es genauer, sorry). Fermi macht Load-Balancing zwischen den Rasterizern und Tesselatoren. Soll heißen: Was von einem SM in einem GPC tesseliert wird, wird evtl. von einem ganz anderen GPC-Rasterizer gerastert. Und dabei muss auch die API-Primitive-Order eingehalten werden!

Ich glaube nicht, dass die Speicher-Crossbar die Probleme bei GF100 verursacht hat. Viel eher das Zeug.

Schau dir da mal Slide 12 an: http://www.highperformancegraphics.org/previous/www_2010/media/Hot3D/HPG2010_Hot3D_NVIDIA.pdf

Die Work Distribution Crossbar (WDX) die Du meinst ist relativ aehnlich zu dem Zeug hier: http://graphics.stanford.edu/papers/pomegranate/

Captain Future
2011-12-30, 17:01:20
Ich rede von der Fragment Primitive-Crossbar (Primitive trifft es genauer, sorry). Fermi macht Load-Balancing zwischen den Rasterizern und Tesselatoren. Soll heißen: Was von einem SM in einem GPC tesseliert wird, wird evtl. von einem ganz anderen GPC-Rasterizer gerastert. Und dabei muss auch die API-Primitive-Order eingehalten werden!
Wie war das noch? Data Movement kostet n-fach mehr energy als compute? ;)

(Und ja, das weiter oben war natürlich Sarkasmus)

Coda
2011-12-30, 17:38:54
Wenn dein Chip nicht mehr skaliert, bringt einem die eingesparte Energie aber auch nichts.

Ich finde es bei Tahiti erschreckend, wie wenig von der Rechenleistung rum kommt.

Captain Future
2011-12-30, 17:55:27
Ich meint ja nur weil Fermi so ein Stromschlucker ist. Bei den vielen Crossbars, bzw. wie oft die Daten durch das INterconnect geschickt werden, ist's ja kein Wunder, dass der ein bissle was mehr braucht als wie die Radeons.

robbitop
2011-12-30, 18:00:09
Wenn dein Chip nicht mehr skaliert, bringt einem die eingesparte Energie aber auch nichts.

Ich finde es bei Tahiti erschreckend, wie wenig von der Rechenleistung rum kommt.
Es kommt anscheinend pro Einheit mehr herum als bei Cypress und Cayman.
Immerhin sinds ggü beiden nur 1/3 mehr Einheiten.

Nakai
2011-12-30, 18:15:14
Ich finde es bei Tahiti erschreckend, wie wenig von der Rechenleistung rum kommt.

Irgendwas muss da was ziemlich heftig limitieren. Das FrontEnd? Das BackEnd?

Der Witz an der Sache ist, dass Tahiti kaum mit der Rohleistung zum Vorgänger skaliert. Im Schnitt ist man nur 40% schneller, als Cayman.
Eigentlich sollte GCN effektiver sein, aber davon sieht man nix.

Von Kepler erwarte ich 80% Mehrperformance als GF110, ergo RV670 vs G80(G92) nur nicht ganz so drastisch.

Bucklew
2011-12-31, 02:30:56
Arbeitest Du inzwischen nicht mehr beim Quadro-Support?
Nope, schon länger nimmer und auch das letzte halbe Jahr war ich woanders ;)

Es ist uebrigens mein Verstaendnis dass der interconnect nicht per se in allen Faellen wirklich "kaputt" war; irgend etwas war problematisch daran dass man sobald man alle SMs eingeschaltet hatte der Stromverbrauch durch die Decke knallte. GF100 mit 16SM war ein no go, 15SM etwas hohen Stromverbrauch, 14SMs = IMHO so wie man es von solch einem chip erwarten wuerde.
Das doch Quatsch...also mal ehrlich. Warum sollte ein System, das quasi 90% Copy&Paste ist mit 14 Einheiten funktionieren, mit 15 nur halb und mit 16 gar nimmer? Das macht doch nun wirklich keinen Sinn.

Das sollen die grossen Kepler News sein? Das sind noch nicht mal News! :facepalm:
Huch, da scheint Charlie aber nimmer so gut in die Zukunft zu sehen für seine Meinung und natürlich für AMD. Wo sind die "Fakten" über das unfixable Design? Über den viel zu großen und nicht herstellbaren Chip? Über die eklatanten Designfehler von Nvidia? Und natürlich über die Mangementfehler, allen vorran Huang? Also wirklich, wird Charlie noch weich auf seine alten Tage?

Hades11
2011-12-31, 02:45:58
Von Kepler erwarte ich 80% Mehrperformance als GF110, ergo RV670 vs G80(G92) nur nicht ganz so drastisch.
so optimistisch bin ich bei weitem nicht.
wenn ich mich nicht irre ist die leistungssteigerung von (Fertigungs)generation zu Generation bisher immer zum teil durch eine erhöhung des verbrauchs realisiert worden und nach dem GF110 kann ich mir schwer vorstellen dass die leistung weiterhin einfach durch höheren verbrauch erkauft wird. Wozu auch, wo doch ein großteil der potenziellen kunden genau auf den verbrauch achtet und sich ja schon über Fermi wegen zu hohem verbrauch beschwerte.
Deswegen glaube ich, dass mit der kommenden 28nm Generation keine derart hohen Leistungssteigerungen erzielt werden (auch wenn ich es mir wünschen würde)

für Nvidias erste 28nm Kepler schätze ich bis zu 40% mehrleistung, für den Kepler refresh 60% mehrleistung als GF110. (im idealfall)
ps: ich bin kein Profi aus der Branche, nur eine interessierte leseratte die sich durch einige online-Magaziene ließt

Coda
2011-12-31, 03:00:32
Das doch Quatsch...also mal ehrlich. Warum sollte ein System, das quasi 90% Copy&Paste ist mit 14 Einheiten funktionieren, mit 15 nur halb und mit 16 gar nimmer? Das macht doch nun wirklich keinen Sinn.
Da könnte ich mir schon Gründe vorstellen. Huang hat ja auch selbst gesagt, dass es der Fabric war, nicht die einzelnen Einheiten.

Vermutlich hätte man, damit der für alle 16 Endpunkte funktioniert einfach zu viel Spannung geben müssen.

Skysnake
2011-12-31, 10:18:01
Oder man hat halt einen richtig richtig richtig blöden Fehler gemacht und eben die Schaltungen vertauscht bei einem oder zwei SMs.

Das Ding war dann nicht mehr verklemmungsfrei im Maximalausbau und katschau, man kanns wegwerfen. Zumindest im Vollausbau.

Kann mir zwar kaum vorstellen, dass das passiert, aber man soll niemals nie sagen. Es arbeiten da halt auch noch immer Menschen.

Ailuros
2011-12-31, 11:40:13
Das doch Quatsch...also mal ehrlich. Warum sollte ein System, das quasi 90% Copy&Paste ist mit 14 Einheiten funktionieren, mit 15 nur halb und mit 16 gar nimmer? Das macht doch nun wirklich keinen Sinn.

Wieso sollte es Quatsch sein? Siehe Thesen von Coda oder Skysnake oben. GF100 Tesla gab es nur mit 14SMs und dazu mit einem bruellenden 238W Stromverbrauch trotz eher laecherlich niedrigen Frequenzen, es gab nie einen komerziell erhaeltlichen 16SM GF100 weder noch einen 8SM GF104 und der angebliche Test eines 16SM GF100 der irgendwo im Netz herumschwirrte hatte brutal hohen Stromverbrauch. Gut ich nehme an dass sie sich vielleicht irgendwo vermessen haben denn so schlimm kann es nicht gewesen sein, aber die Gruende die nach dem Produktionsstart von NV engineering fuer GF100 bekam waren zu hoher Stromverbrauch bei 16 SM und beschissene binning yields. Das es zu brutal beim binning abkackt ist fuer mich erstmal eine Indizie dass der Stromverbrauch ausserhalb jeglicher Toleranz lag. Nach diesen Herren bekamen sie in der Mehrzahl der Faelle nur 1 chip pro wafer der ueber 16SMs faehig war (mit hohem Stromverbrauch) und in Aussnahmen mal 2 chips/wafer.

GF110 in Tesla bekam alle 16 SMs eingeschaltet, hoehere Frequenzen und
niedrigeren Stromverbrauch als GF100 Teslas; irgendwas wichtiges wird wohl schon daran schiefgelaufen sein und es ist eben nicht so dass Jensen nicht eingestanden hat dass der interconnect nicht eins der Problemkinder war.

Da könnte ich mir schon Gründe vorstellen. Huang hat ja auch selbst gesagt, dass es der Fabric war, nicht die einzelnen Einheiten.

Vermutlich hätte man, damit der für alle 16 Endpunkte funktioniert einfach zu viel Spannung geben müssen.

Bin zwar nur ein Laie, aber mein Instikt sagt mir dass was immer daran Schuld war es nichts allzu besonderes war sonst haette man es so kurzfristig fuer GF110 nicht korrigieren koennen.

Dural
2011-12-31, 12:15:28
lief die 16SM version nicht mit 800MHz und war noch mit einem A2 :confused:

und das GF104 auch betroffen war halte ich für ein Gerücht, NV konnte gar keine 8SM Version davon bringen, sie hätten damit GF100 quasi untergraben und die 470 hätte keiner mehr gekauft. Nicht umsonst war der takt der GTX460 so tief, OC modelle gingen ja bis 850MHz (oder sogar noch mehr) hätte die Karte alle 8SM gehabt wäre sie deutlich schneller als eine 470 gewesen...

Coda
2011-12-31, 12:59:19
Oder man hat halt einen richtig richtig richtig blöden Fehler gemacht und eben die Schaltungen vertauscht bei einem oder zwei SMs.

Das Ding war dann nicht mehr verklemmungsfrei im Maximalausbau und katschau, man kanns wegwerfen. Zumindest im Vollausbau.

Kann mir zwar kaum vorstellen, dass das passiert, aber man soll niemals nie sagen. Es arbeiten da halt auch noch immer Menschen.
Dann hätte ein Metal-Respin mit großer Sicherheit geholfen.

Man From Atlantis
2011-12-31, 13:08:47
GTX 485M is full GF104 384CC.. it's never gone as desktop because of low performance of GTX 470..

Ailuros
2011-12-31, 13:22:26
lief die 16SM version nicht mit 800MHz und war noch mit einem A2 :confused:

http://gpudesign.bafree.net/original-gtx-480-512sp-benchmarked

Und was hat ein metal spin wie A3 genau fundamentales anrichten koennen?

und das GF104 auch betroffen war halte ich für ein Gerücht, NV konnte gar keine 8SM Version davon bringen, sie hätten damit GF100 quasi untergraben und die 470 hätte keiner mehr gekauft. Nicht umsonst war der takt der GTX460 so tief, OC modelle gingen ja bis 850MHz (oder sogar noch mehr) hätte die Karte alle 8SM gehabt wäre sie deutlich schneller als eine 470 gewesen...

Glaubte ich damals auch, aber ich glaubte auch ebenfalls dass sie vielleicht spaeter eine 8SM Variante nachgeladen haetten. Stattdessen kam GF114 mit einem leicht kleinerem die, alle 8 SMs, hoeheren Takt und niedrigerem Stromverbrauch an. Warum macht sich ueberhaupt ein IHV die Muehe einen chip beim dem "alles" zu 100% funktioniert nochmal relativ "neu" aufzulegen? GF114 ist kein 104 kompletter re-spin, sondern ein anders aufgelegter chip ebenso wie GF110 zu GF100.

Man haette auf GF104 auch alle 8 SMs operativ haben koennen und die Frequenzen auf 600MHz reduziert wie bei der 465. Tolle Uebertakter gibt es immer; das beste heutige Beispiel sind Intel CPUs.

GTX 485M is full GF104 384CC.. it's never gone as desktop because of low performance of GTX 470..

Gutes Gegenargument, aber man braucht auch keine besonders grosse binning yields fuer high end mobile SKUs. Und schon gar nicht besonders hohe Frequenzen, da die Dinger lediglich auf 575MHz takten.

Dural
2011-12-31, 13:26:41
wie schon hier erwähnt gab es später ja eine volle version im mobile bereich ;)

übrigens gab es auch vom GF106 eine GF116 version, jedoch lief der GF106 immer mit allen SM, wie so da ein neuer chip?!? ;)



zudem wäre es brutal komisch wenn NV ein chip raus bringen würde der die selben probleme hat wie ein chip der ca. 6monat älter ist und nicht mal die genau gleiche architektur besitz ;) und wie so sollte ein 8SM chip probleme machen wenn eine 16SM version davon ohne Probleme mit 14 oder 15 läuft? Ich gehe sogar so weit und behaupte das GF100 A3 die probleme wie A1/A2 so wie so gar nicht mehr hatte, NV aber auf das letzte SM verzichten musste wegen der missen Ausbeute und dem (noch) höherem verbrauch. jensen hat ja auch ganz klar gesagt das A1 gar nicht lief!

Ailuros
2011-12-31, 13:52:53
wie schon hier erwähnt gab es später ja eine volle version im mobile bereich ;)

übrigens gab es auch vom GF106 eine GF116 version, jedoch lief der GF106 immer mit allen SM, wie so da ein neuer chip?!? ;)

Beide Thesen kann man so lange querbiegen bis sie logisch erscheinen. Nochmal high end mobile sind nur kleine bins und der Takt im gegebenen Fall war lediglich bei 575MHz, falls Du lesen kannst oder willst.

zudem wäre es brutal komisch wenn NV ein chip raus bringen würde der die selben probleme hat wie ein chip der ca. 6monat älter ist und nicht mal die genau gleiche architektur besitz ;) und wie so sollte ein 8SM chip probleme machen wenn eine 16SM version davon ohne Probleme mit 14 oder 15 läuft?

Ein GF104 ist offensichtlich kein GF100/2, schon vom Aufbau her. Wenn es ein fibre Problem im interconnect war, dann ist es wahrscheinlicher dass es ab gewisser Anzahl von interconnecting dies Probleme macht und ab gewisser Frequenz.


Ich gehe sogar so weit und behaupte das GF100 A3 die probleme wie A1/A2 so wie so gar nicht mehr hatte, NV aber auf das letzte SM verzichten musste wegen der missen Ausbeute und dem (noch) höherem verbrauch. jensen hat ja auch ganz klar gesagt das A1 gar nicht lief!

Welche Probleme hatte denn A1 bzw. A2 genau nach Dir? "Ich hab keine Ahnung" waere wohl die moeglichste Antwort oder?

Aber wenn Du schon weiterhin off topic bleiben willst und unnoetig Bandbreite verschwenden kannst Du mir ja gerne erklaeren warum die bin yields ueberhaupt so miserabel waren. Reiner Zufall ist es nie. Der eigentliche Grund ergo das interconnect Problem wurde von Jensen selber zugestanden in aller Oeffentlichkeit.

A1 ist gelaufen nur bei sehr moderater Frequenz. Von dem abgesehen es gibt zich Resourcen im internet fuer metal spins und was man damit anrichten kann. Serioese hw bugs wie das interconnect Zeug eben nicht.

Bucklew
2011-12-31, 14:10:05
Da könnte ich mir schon Gründe vorstellen. Huang hat ja auch selbst gesagt, dass es der Fabric war, nicht die einzelnen Einheiten.
Ich glaube das wirfst du durcheinander. Was Huang ansprach waren Bugs in der Fabric im ersten Silicon, die erstmal gefixt werden mussten. Das hatte aber nichts mit dem Stromverbrauch zu tun.

Vermutlich hätte man, damit der für alle 16 Endpunkte funktioniert einfach zu viel Spannung geben müssen.
Es macht aber imho keinen Sinn, dass die Fabric, die ja nunmal in ihren Einzelteilen identisch, also gespiegelt ist, bei 14 von 16 Verbindungen gut funktioniert, bei 15 von 16 nicht mehr so gut und bei 16 von 16 gar nicht mehr.

Da ist doch ein generelles Problem des GF100 realistischer, dass eben die Leistungsaufnahme zu hoch war. Und daher eben 15SMs mit höherem Takt besser was als 16SMs dann weniger Takt.

Zwischen GF100 und GF110 wurden ja an vielen Stellen andere Transistorlayouts benutzt.

Die Antwort gilt auch für Ailuros, den zitieren spare ich mir mal, sagt ja defakto das Gleiche ;)

Coda
2011-12-31, 14:11:16
Ich glaube das wirfst du durcheinander. Was Huang ansprach waren Bugs in der Fabric im ersten Silicon, die erstmal gefixt werden mussten. Das hatte aber nichts mit dem Stromverbrauch zu tun.
Nö, tu ich wahrscheinlich eben nicht.

Es macht aber imho keinen Sinn, dass die Fabric, die ja nunmal in ihren Einzelteilen identisch, also gespiegelt ist, bei 14 von 16 Verbindungen gut funktioniert, bei 15 von 16 nicht mehr so gut und bei 16 von 16 gar nicht mehr.
Das kann schon gut sein, dass da dann die Schaltzeiten einfach nicht mehr gereicht haben, bzw. der Crosstalk zu groß wurde.

Deshalb sage ich ja: Vermutlich hätte man die Spannung hochdrehen müssen für die Crossbar, und damit für den ganzen Chip. Das wiederrum hätte zum untragbaren Stromverbrauch geführt.

Bucklew
2011-12-31, 14:17:06
@Coda:

Ich denke schon. Du meinst wohl diese Aussage:

http://www.heise.de/newsticker/meldung/GTC-Nvidia-Boss-offenbart-Gruende-fuer-Fermi-Verspaetung-1094698.html

So funktionierte bei den ersten Prototypen die Kommunikation zwischen den einzelnen Streaming-Multiprozessoren und dem Speicher nicht. Elektrische Interferenzen zwischen den extrem eng aneinanderliegenden Verdrahtungen (Fabric) traten auf, mit denen man beim Inhouse-Design in dieser drastischen Form nicht gerechnet habe. Somit musste man das Fabric komplett neu entwickeln. Das hat den Zeitplan durcheinandergewirbelt und schließlich dazu geführt, dass man erst Chips im A3-Stepping ausliefern konnte.

Die Probleme der Fabric waren in A3 also gefixt.

Hugo78
2011-12-31, 14:32:54
Ihr macht euch hier die Köppe heiß, wegen oller Kamelen.
Was auch immer das Problem beim A3 Fabric war, das keinen 16. SM zuließ, es wird bei Kepler Geschichte sein.

Skysnake
2011-12-31, 16:26:07
oder auch wiederkommen, wenn es an übersprechen lag, zu kleinen/schwachen kondis on Chip zur Spannungsstabilisierung etc etc etc. Da gibt's halt ne Million Gründe, was schief gelaufen ist. So genau werden wir es aber wohl nie wissen.

Hugo78
2011-12-31, 16:40:05
Nö wird nicht wieder kommen, weil alle anderen Fermis im Vollausbau kamen seit GF100 A3.
Auch GF104 gibts im Vollausbau als GTX 485M.
http://www.notebookcheck.com/NVIDIA-GeForce-GTX-485M.42881.0.html

Warum man das im Desktop nie gesehen hat, war wohl tatsächlich ne Kombi aus anfänglich nicht optimaler Yield und wie Dual schon schrieb, man musste den Abstand zur 470 wahren.
Ansonst hätte die 460 1G nicht nur die 465 überflüssig gemacht, sondern auch gleich die 470 und mit OC auf 850Mhz wohl auch die 480 in Frage gestellt.

OgrEGT
2012-01-01, 19:18:39
Sofern GK104 erst im Februar/März 2012 kommt, und es gerade einmal mit Tahito Pro aufnehmen kann, dann hat AMD bis GK100 im Juni kommt, fast ein halbes Jahr die schnellste Single GPU Karte am Start. Das gab es schon länger nicht mehr.
http://www.3dcenter.org/news/2011-12-30

Ich glaube irgendwie nicht so recht dran, dass dies allein dem Umstand geschuldet ist, dass man alle Kapazitäten für GK106/107 benötigt. Wenn GK104 und GK100 präsentationsreif wären, dann könnte man die immerhin auch schon mal paperlaunchen, damit die Community weiß, ob sich das Warten lohnen wird.

robbitop
2012-01-01, 19:42:41
Das gab es doch beim letzten Prozesswechel schon. Also Cypress und Fermi. Bei einem neuen Prozess sind große ASICs nunmal schwieriger als kleinere.

OgrEGT
2012-01-01, 19:54:23
OK. Beim letzten Prozesswechsel. HD6K und GF110 waren innerhalb des gleichen Prozess. Abwarten, ob es bei den 6 Monaten bleibt. 6 Monate hatten wir bei Cypress/Fermi1 bereits. Könnte gut sein, dass immer größere "Fermis" immer länger brauchen, bis sie auf einem neuen Prozess laufen.

Skysnake
2012-01-01, 20:30:36
Größer was DIE-size betrifft wird Kepler wohl sehr sehr sehr wahrscheinlich nicht. Mit GF1x0 war man ja schon am Limit.

Hugo78
2012-01-01, 20:56:24
Wenn GK104 und GK100 präsentationsreif wären,

Es geht um die Produktionskosten.

Thunder99
2012-01-01, 22:37:53
Größer was DIE-size betrifft wird Kepler wohl sehr sehr sehr wahrscheinlich nicht. Mit GF1x0 war man ja schon am Limit.
GT200 (65nm): 606,9 mm² (Quelle PCGameshardware)

GF100 (40nm): 549,9 mm² (Quelle (http://www.gpu-tech.org/content.php/136-Hardware-porn-The-naked-Die-of-GF100-exposed))

Also wäre es durchaus möglich das nvidia wieder an das Maximum ran wagt ;) Nur ob das wirtschaftlich ist bleibt abzuwarten...

y33H@
2012-01-01, 22:54:58
GT200 hatte auch das extrem fette 512-Bit-SI, wer weiß ob der GK100 nicht mit 384 Bit auskommt ;-)

Bucklew
2012-01-01, 23:02:18
GT200 war auch noch im alten Verfahren gefertigt und GF100 direkt im Neuen.

V2.0
2012-01-02, 10:22:38
Es geht um die Produktionskosten.

Wirklich? Bei GF100 lag es angeblich auch an TSMC und erst später wurde klar, dass es ein Designfail war. Wer sagt, dass NV nicht auch bei Keppler mal wieder böse in die Failkiste gegriffen hat?

mapel110
2012-01-02, 10:26:28
Wirklich? Bei GF100 lag es angeblich auch an TSMC und erst später wurde klar, dass es ein Designfail war. Wer sagt, dass NV nicht auch bei Keppler mal wieder böse in die Failkiste gegriffen hat?
Dann hätte es Charlie schon längst breitgetreten. Es gibt keinen neuen Techlevel. Von daher kann kaum was schief gehen.

Dural
2012-01-02, 11:02:18
Wirklich? Bei GF100 lag es angeblich auch an TSMC und erst später wurde klar, dass es ein Designfail war.


Erzähl nicht so ein Blödsinn, NV hat TSMC nie die Schuld für irgendwas gegeben, sogar im Gegenteil Jensen hat von TSMC immer nur gutes berichtet, obwohl der 40nm Start von allen 40nm Chips recht bescheiden war, dank mieser Ausbeute. (da kam man wohl Preislich ziemlich entgegen...)


Das 28nm wieder nicht wirklich gut startet sieht man ja bereits an Tahiti, die Samples weissen sehr grosse Differenzen aus und die Spannung ist im Vergleich zu 40nm AMD GPUs kein stück gesunken (deswegen kommt bei Tahiti auch das schlechte Watt/Leistungs Verhältnis her) Die hohen Preise und schlechte Verfügbarkeit tragen ihr übrigens noch dazu bei. Das sind alles deutliche Anzeichen für eine schlechte Ausbeute.

Ailuros
2012-01-02, 11:20:20
Es macht aber imho keinen Sinn, dass die Fabric, die ja nunmal in ihren Einzelteilen identisch, also gespiegelt ist, bei 14 von 16 Verbindungen gut funktioniert, bei 15 von 16 nicht mehr so gut und bei 16 von 16 gar nicht mehr.

So war es auch nie gemeint. Es geht in allen vorerwaehnten configs aber IMHO eben mit N hoeheren Stromverbrauch fuer alles ueber 14.


Zwischen GF100 und GF110 wurden ja an vielen Stellen andere Transistorlayouts benutzt.

Ja es wurden stellenweise high performance Transistors ausgetauscht. Aber schau her mit all dem drum und dran konnte NV bei leicht kleinerem Stromverbrauch alle SMs einschalten und sogar mit 10% hoeheren Frequenzen.

Wenn A3 wirklich alles "gefixt" haette dann bleibt immer noch die Frage warum Tesla nur mit 448SP cores bei laecherlicher Frequenz und bruellenden 238W bedient wurde.

Skysnake
2012-01-02, 11:28:11
Also ich glaub ja noch immer, dass das Problem schlicht Crosstalk war.

Die haben so ein absolut abartig fetten Interconnect auf dem Chip, wo Leiterbahnen noch und nöcher hin und her gepackt werden. Da wurde bestimmt zu viel zu parallel bei zu geringem Abstand oder whot ever verlegt.

Wenn man da nämlich eine CU raus nimmt, dann reduziert sich das Problem ziemlich schnell. Man hat ja mehr Platz für die vorhandenen Leitungen, bzw. hat weniger Crosstalk etc. etc.

Ein "schneller" fix ist da auch schnell gemacht, wenn man einfach die Leitungen weg lässt für eine CU, bzw. eben diese deaktiviert.

Für einen echten Fix braucht man aber wirklich wirklich lange, weil man wohl große Teile des Layouts über den Haufen werfen kann. Man fängt halt an an den Leiterbahnen zu drehen und das zieht einen Rattenschwanz hinter sich her, der nicht mehr feierlich ist.

Ailuros
2012-01-02, 11:35:19
Wirklich? Bei GF100 lag es angeblich auch an TSMC und erst später wurde klar, dass es ein Designfail war. Wer sagt, dass NV nicht auch bei Keppler mal wieder böse in die Failkiste gegriffen hat?

Nach wem lag es bei TSMC? Ist aber auch wurscht. Als ich im September 2009 AMD off the record fragte was sie von Fermi erwarten, war die Antwort eindeutig dass wenn sie ihre Zielfrequenzen mit GF100 erreichen werden, wird dieses auch um einiges schneller sein als Cypress.

Den fehlenden SM weg und die leicht reduzierte desktop Frequenz und sie haben vielleicht irgendwo =/<10% von ihrem originalen GF100 Ziel verpasst.

Sonst was wirklich war ist, ist dass in Q3/4 2009 ein GF100 NICHT herstellbar war zumindest mit halbwegs logischen Herstellungskosten und es ist auch heute mit GK110 wohl auch nicht anders. Wenn man in der Sicherheitszone von <380mm2 wie Tahiti bzw. GK104 trottelt ist es selbstverstaendlich ein ganz anderes Kapitel.

Tut mir aber einen Gefallen: entweder Ihr habt irgend etwas handfestes ein irgendwelches Problem fuer Kepler's Herstellung auf den Tisch zu legen oder Ihr lasst mir alle irgendwelche moechtegern Interessen a la SA gefaelligst weg. Das gesamte SA team hat nicht die blasseste Ahnung wie es bei NV momentan aussieht, hat nicht einen sondern gleich 3 volle tape outs von diversen chips verpasst, will aber von angeblichem doom & gloom Bescheid wissen. Ich denke wir koennen zumindest Abstand von solchem Unsinn nehmen.

Und nein es sind keine Geruechte dass NV eine Unmenge von Resourcen zu GF110 und Kepler umgeschaufelt hat damit alles so gut wie moeglich laeuft. Erster realer Beweiss ist erstmal GF110 bzw. GF11x an denen gar nichts krummes lag und die Mehrzahl dieser wenn nicht alle gingen in A1- tape out Silizium auf's Laufband. Es wurde zuerst ein GF110 als direkter shrink in 28nm hergestellt (wird wohl nie kommerziell erscheinen), eine lange Reihe an testchips und natuerlich dann die eigentlichen finalen chips. U.a. wurden so viele Resourcen umgeschaufelt dass Abteilungen wie Tegra, Denver etc um einiges darunter leiden mussten in letzter Zeit.

Wie dem auch sei ich hab ein tape out Datum fuer GK104 und ausser ich werden bodenlos angelogen brauchte das Ding auch keinen metal spin. Ergo wer irgendwelche Indizien fuer jeglichen Fehlschlag oder ernsthafte Probleme wirklich hat will ich erstmal darueber hoeren, wie z.B. der interconnect ist immer noch kaputt, der Speichercontroller hat Darmbeschwerden oder sonst noch jenige absurde a la SA These.

Skysnake
2012-01-02, 11:49:04
Bleibt nur noch die Frage im Raum, warum nVidia mit dem GK10x nicht hinterm Baum vor kommt.

Nach allem was wir sagen könne wird er ja wohl kleiner als Tahiti.

Warum bringen die dann nicht ihren Chip, wenn es AMD tut. Ganz soooo schlecht kann die Fertigung ja nicht laufen, wenn man bei AMD Chips vom Band bekommt, die deutlich über den 925MHz laufen. Die sind ja sicherlich "nur" so gewählt, damit man möglicht hohe Yield-Raten bekommt. Das sollte sich aber sicherlich in absehbarer Zeit dann auch verbessern.

Warum braucht man dann also noch für einen kleineren Chip 1-2 Monate länger, und für den richtig fetten Chip noch gut ein halbes Jahr, wenn man den Gerüchten glauben schenken darf?

Das ergibt nicht so wirklich sinn. Sooooo beschissen kann die Fertigung eigentlich nicht laufen. Ansonsten würde AMD nämlich auch nicht launchen können. Die 100 (?) 7970 in dem einen Laden sprechen ja auch eher dafür, dass die Fertigung schon ein paar Tage läuft. >1 Monat oder?

Oder baut nVidia doch wieder auf Hot-Clock und hat damit größere Probleme als AMD, die darauf verzichten???

Im Moment ist es für mich auf jeden Fall nicht transparent, was da zu Zeit abgeht. Mal wird es kurzzeitig klarer, um dann doch wieder von einer Aussage (einer von dir :P) zunichte gemacht zu werden. Kurz um, wir stochern noch immer im Nebel rum und schlagen auf alles ein, was sich bewegt, in der Hoffnung irgendwas zu treffen, was aufschreit und uns neue Infos bietet....

PS: Ist jetzt eigentlich raus, welche Fertigung AMD nutzt? also 28 HP/HPL und was es da noch alles gibt.

Hades11
2012-01-02, 12:04:47
Das ergibt nicht so wirklich sinn. Sooooo beschissen kann die Fertigung eigentlich nicht laufen. Ansonsten würde AMD nämlich auch nicht launchen können. Die 100 (?) 7970 in dem einen Laden sprechen ja auch eher dafür, dass die Fertigung schon ein paar Tage läuft. >1 Monat oder?

Oder baut nVidia doch wieder auf Hot-Clock und hat damit größere Probleme als AMD, die darauf verzichten???
also zumindest ich meine mehrfach gelesen zu haben dass NV diesesmal keine hotclocks einsetzen wird und würde mich doch sehr schwer wundern wenn sie dass kurz vor knapp nochmal ändern würden.
die 7970 ist ja momanten (fast) nicht erhältlich, und weißt du wie viele Chips die weggeworfen haben bis sie die handvoll Funktionstüchtigen raushatten? Also ich würde mich da mal nicht so voreilig festlegen dass die Produktion einwandfrei funktioniert. Erstmal abwarten wenn es am 9.1. wirklich richtig große mengen von denen gibt dann kann man schon eher etwas sinnvolles daraus herleiten.

edit: bei AMD läuft wohl auch etwas schief http://www.computerbase.de/news/2012-01/amd-radeon-hd-7950-auf-februar-verschoben/

Hugo78
2012-01-02, 12:09:33
Warum bringen die dann nicht ihren Chip, wenn es AMD tut.


Wozu wenn AMD nicht liefern kann und so NV auch keine Marktanteile abnimmt?
Eine nicht lieferbare 7970 für 600€ (http://geizhals.at/eu/?cat=gra16_512&asd=on&asuch=7970) in der gesamten EU, ist nicht der hebel der bei NV irgendwo Druck ausübt.

edit:
Und btw Skysnake, eventuell will sich NV auch nur professioneller aufstellen.
FormatC von TomsHW klingt verärgert über die Art und Weise, wie AMD (schon wieder) mit den Testern umging.

Wenn AMD fast die ganze Marketingabteilung rasiert und sich dann über Unstimmigkeiten wundert, ist es kaum zu begründen, warum das dann die Tester ausbaden sollen. Jeder wundert sich, warum die Ergebnisse der einzelnen Seiten so unterschiedlich ausfallen - bei verschiedenen Treiberversionen und derart vermurksten Samples eigentlich kein Rätsel. Hier ist eigentlich so ziemlich alles schief gelaufen, was nur schief laufen konnte. Das war unterm Strich einfach nur höchst unprofessionell.
- http://www.computerbase.de/forum/showpost.php?p=11269326&postcount=14

Skysnake
2012-01-02, 12:44:05
also zumindest ich meine mehrfach gelesen zu haben dass NV diesesmal keine hotclocks einsetzen wird und würde mich doch sehr schwer wundern wenn sie dass kurz vor knapp nochmal ändern würden.
die 7970 ist ja momanten (fast) nicht erhältlich, und weißt du wie viele Chips die weggeworfen haben bis sie die handvoll Funktionstüchtigen raushatten? Also ich würde mich da mal nicht so voreilig festlegen dass die Produktion einwandfrei funktioniert. Erstmal abwarten wenn es am 9.1. wirklich richtig große mengen von denen gibt dann kann man schon eher etwas sinnvolles daraus herleiten.

edit: bei AMD läuft wohl auch etwas schief http://www.computerbase.de/news/2012-01/amd-radeon-hd-7950-auf-februar-verschoben/

Ja, aber das sind bis jetzt eben nur "Gerüchte". Keiner wird dir zu 100% sicher sagen, dass das Hotclock-Design weg ist.

Das die Fertigung noch nicht wirklich pralle läuft, sieht man ja daran, das der Chip teils extreme Reserven hat. Genau wie daran, dass die 7950 erst später kommt.

Der Chip ist aber offenkundig fertigbar, ansonsten würde AMD nicht die Karte launchen. Niemand produziert einen Chip, wo man drauf legt.

Zudem sollen der GK10x ja kleiner sein als Tahiti, ergo sollte man dort etwas früher anfangen können zu produzieren, ohne drauf zu legen.

Aber selbst wenn nicht, und nV lieber einen Monat länger warten für bessere Yealds, was mir insbesondere fehlt ist so ein "This is Fermi!" PR-Dreck (diesmal natürlich mit nem echten Chip bitte ;)). nV ist mir einfach zu ruhig. Das kann gutes aber auch schlechtes bedeuten.

Ich will einfach irgendeine Wasserstandsmeldung haben. So ein "This is Fermi" blablub würde mir schon absolut reichen. Ob dann die Karten 4 Wochen früher oder später kommen geht mir am allerwertesten Vorbei. Das sind betriebswirtschafliche Überlegungen. Ich will aber wissen, ob der Chip ok ist oder nicht...

Und natürlich etwas über die Architektur erfahren :biggrin:

Wozu wenn AMD nicht liefern kann und so NV auch keine Marktanteile abnimmt?
Eine nicht lieferbare 7970 für 600€ (http://geizhals.at/eu/?cat=gra16_512&asd=on&asuch=7970) in der gesamten EU, ist nicht der hebel der bei NV irgendwo Druck ausübt.

edit:
Und btw Skysnake, eventuell will sich NV auch nur professioneller aufstellen.
FormatC von TomsHW klingt verärgert über die Art und Weise, wie AMD (schon wieder) mit den Testern umging.


- http://www.computerbase.de/forum/showpost.php?p=11269326&postcount=14
Du vergisst dabei, dass der Marktstart erst am 9. Januar erfolgt. Die meisten shop, sprich die seriösen/großen müssen sich daran halten, egal ob die jetzt keine oder drölf millionen Karten bei sich bereits im Lager stehen haben.

Eine echte Aussage bzgl. der Verfügbarkeit kann man frühestens am 9. Januar treffen. Eher sogar erst ne Woche später, wo man dann abschätzen kann, ob die Nachfrage größer ist als das Angebot oder nicht.

Über die Art und Weise wie AMD mit dem Reviewern umgesprungen ist, kann man diskutieren. Fand ich jetzt auch nicht sonderlich knalle, das betrifft aber nicht den Endkunden, worüber wir ja grad reden.

Für den ist es ziemlich Jacke wie Hose, ob AMD den Reviewern 24h oder 14 Tage zum testen gibt. Ebenso, ob die Karten VOR dem offiziellen Verkaufsstart irgendwo zu haben sind, oder nicht. Für den zählt der 9. Januar und mehr nicht, wobei man sagen muss, die 7950 deutlich wichtiger ist, und die kommt ja wohl leider erst im Februar...

Hugo78
2012-01-02, 13:04:36
Du vergisst dabei, dass der Marktstart erst am 9. Januar erfolgt.
Das klang bei dir ebend aber noch anders, eher so, als ob AMD schon in Massen liefert und NV irgendwo unter Druck wäre.


Über die Art und Weise wie AMD mit dem Reviewern umgesprungen ist, kann man diskutieren. Fand ich jetzt auch nicht sonderlich knalle, das betrifft aber nicht den Endkunden, worüber wir ja grad reden.
Für den ist es ziemlich Jacke wie Hose, ob AMD den Reviewern 24h oder 14 Tage zum testen gibt.

Klar AMD ist es scheiß egal, ob die Leute die möglichsts positiv über dein Produkt schreiben sollen,
ob diese Leute in der Woche vor Weihnachten noch einen dicken Happen Streß schlucken müssen, obwohl der Marktstart erst 3 Wochen später ist und man in der Woche nach Neujahr noch genug Zeit gehabt hätte die 7970 ausgiebig und in Ruhe zutesten.

Bucklew
2012-01-02, 13:11:20
So war es auch nie gemeint. Es geht in allen vorerwaehnten configs aber IMHO eben mit N hoeheren Stromverbrauch fuer alles ueber 14.
Macht für mich trotzdem keinen Sinn, vom Grundlagen Standpunkt ;)

Ja es wurden stellenweise high performance Transistors ausgetauscht. Aber schau her mit all dem drum und dran konnte NV bei leicht kleinerem Stromverbrauch alle SMs einschalten und sogar mit 10% hoeheren Frequenzen.
Ja, warum auch nicht? Wenn man über den ganzen Chip Transistoren austauscht und damit über den ganzen Chip Strom einspart, klingt das deutlich logischer, als irgendeine Fabric, die a) beim finalen Chip gefixt war und b) deren Einfluß schlichtweg unlogisch ist. Zumindest in diesen krassen exponentiellen Einflüssen.

Wenn A3 wirklich alles "gefixt" haette dann bleibt immer noch die Frage warum Tesla nur mit 448SP cores bei laecherlicher Frequenz und bruellenden 238W bedient wurde.
Weil das Problem nicht die Fabric, sondern das restliche Design war? Genau so, wie ichs die ganze Zeit meine? :freak:

Über die Art und Weise wie AMD mit dem Reviewern umgesprungen ist, kann man diskutieren. Fand ich jetzt auch nicht sonderlich knalle, das betrifft aber nicht den Endkunden, worüber wir ja grad reden.
Der Endkunde kauft die Karten ja auch primär aufgrund der Reviews und natürlich ist es da entscheidend, wie gut (oder schlecht) die Reviews sind und da ist Druck und fehlende Koordination natürlich nicht gut. Und wenn man sich mal die Reviews anschaut, dann wird offensichtlich, dass da einiges schief gegangen ist.

Wobei eh für jeden mit einer Highendkarte der letzten Generation klar ist, dass man noch bequem auf Kepler warten kann ;)

Skysnake
2012-01-02, 13:11:35
Naja, "größere" Mengen sind wohl bei einzelnen Händlern eingetroffen.

Wie hoch die Massen sind, wird sich natürlich erst noch zeigen müssen. Ich vermute aber mal ausreichend, da der Preis doch recht gesalzen ist, und man auch durch das hohe OC-Potenzial wohl noch starke OC-Karten erwarten darf. Die 0815 wird sicherlich spätestens mit GK104 stark fallen. So 300-350€ halte ich für realistisch.

@Hugo78:
Kleine Randnotiz. Mit dem bringen war nicht zwingend der Marktstart gemeint, sondern eher die Vorstellung der Architektur+Zeitplan für die Einführung, welcher auch noch gern 1-2 Monate in der Zukunft liegen kann. Also nicht mal zwingend Testsamples für die Reviewer, wobei dies natürlich nett wäre. Vielleicht ist es jetzt klarer.

EDIT:
@Bucklew:
Das mag sein, aber bei AMD sollen noch GANZ andere Dinge drunter und drüber gehen. Da ist das gelinde gesagt noch ein Schönheitsfehler, mehr nicht. Mehr sag ich dazu aber nicht.

Lyka
2012-01-02, 13:14:09
Kleine Randnotiz. Mit dem bringen war nicht zwingend der Marktstart gemeint, sondern eher die Vorstellung der Architektur+Zeitplan für die Einführung, welcher auch noch gern 1-2 Monate in der Zukunft liegen kann. Also nicht mal zwingend Testsamples für die Reviewer, wobei dies natürlich nett wäre. Vielleicht ist es jetzt klarer.

damit wäre auch ich sehr sehr sehr zufrieden :redface:

Bucklew
2012-01-02, 13:16:43
@Bucklew:
Das mag sein, aber bei AMD sollen noch GANZ andere Dinge drunter und drüber gehen. Da ist das gelinde gesagt noch ein Schönheitsfehler, mehr nicht. Mehr sag ich dazu aber nicht.
Nur weil es RELATIV noch ganz gut da steht ändert es nichts daran, dass es ABSOLUT fürn Arsch war und ist.

V2.0
2012-01-02, 13:18:15
Um etwas vorstellen zu können, sollte man mehr haben als ein Fake-PCB mit Holzschrauben. Da aber selbst das bisher für NV ausreichte um einen Launch zu machen, kann man klar erkennen wie weit Keppler wirklich sein muss.

Bucklew
2012-01-02, 13:21:39
Um etwas vorstellen zu können, sollte man mehr haben als ein Fake-PCB mit Holzschrauben. Da aber selbst das bisher für NV ausreichte um einen Launch zu machen, kann man klar erkennen wie weit Keppler wirklich sein muss.
Erzähl doch nicht so einen Quatsch, das Fake-PCB war kein Launch.

Hugo78
2012-01-02, 13:21:42
Um etwas vorstellen zu können, sollte man mehr haben als ein Fake-PCB mit Holzschrauben. Da aber selbst das bisher für NV ausreichte um einen Launch zu machen, kann man klar erkennen wie weit Keppler wirklich sein muss.

nochmal für dich:


Wie dem auch sei ich hab ein tape out Datum fuer GK104 und ausser ich werden bodenlos angelogen brauchte das Ding auch keinen metal spin. Ergo wer irgendwelche Indizien fuer jeglichen Fehlschlag oder ernsthafte Probleme wirklich hat will ich erstmal darueber hoeren, wie z.B. der interconnect ist immer noch kaputt, der Speichercontroller hat Darmbeschwerden oder sonst noch jenige absurde a la SA These.

AffenJack
2012-01-02, 13:35:03
@Hugo78:
Kleine Randnotiz. Mit dem bringen war nicht zwingend der Marktstart gemeint, sondern eher die Vorstellung der Architektur+Zeitplan für die Einführung, welcher auch noch gern 1-2 Monate in der Zukunft liegen kann. Also nicht mal zwingend Testsamples für die Reviewer, wobei dies natürlich nett wäre. Vielleicht ist es jetzt klarer.


Wieso sollte man dies jetzt schon machen, wenn Amd noch nichtmal den Verkauf gestartet hat? Am 9 hamwa erst Verkaufsstart und ab da kann man dann überlegen ne Architektur Vorstellung zu machen um dem Gegner die Show zu stehlen. Da die CES direkt im Anschluss ist, würde es mich nicht wundern wenn wir da etwas zu Kepler hören oder zumindest inoffiziel einiges nach außen kommt. Vll gibts da auch nen termin für die Architekturvorstellung.
Am besten wäre diese so in 2 Wochen nach CES, dann 2-3 Wochen danach vll GK104 Paperlaunch im Februar um auch der 7950 die Show zu stehlen und gute Verfügbarkeit danach Ende Februar/März und schon haste dafür gesorgt, dass Kepler bei jedem Käufer als alternative im Hinterkopf rumschwirrt, weil du immer in den Medien präsent bist. Allerdings würde das bei vielen auch wieder Kritik hervorrufen, wenn mans so auseinanderzieht. Mal schauen, ich erwarte mir was von der CES.

AwesomeSauce
2012-01-02, 15:12:15
Also ich glaub ja noch immer, dass das Problem schlicht Crosstalk war.

Die haben so ein absolut abartig fetten Interconnect auf dem Chip, wo Leiterbahnen noch und nöcher hin und her gepackt werden. Da wurde bestimmt zu viel zu parallel bei zu geringem Abstand oder whot ever verlegt.

Wenn man da nämlich eine CU raus nimmt, dann reduziert sich das Problem ziemlich schnell. Man hat ja mehr Platz für die vorhandenen Leitungen, bzw. hat weniger Crosstalk etc. etc.

Ein "schneller" fix ist da auch schnell gemacht, wenn man einfach die Leitungen weg lässt für eine CU, bzw. eben diese deaktiviert.

Für einen echten Fix braucht man aber wirklich wirklich lange, weil man wohl große Teile des Layouts über den Haufen werfen kann. Man fängt halt an an den Leiterbahnen zu drehen und das zieht einen Rattenschwanz hinter sich her, der nicht mehr feierlich ist.
Ich denke, die NV-Ingenieure sind um einiges kompetenter, als du sie hier darstellen willst.

Skysnake
2012-01-02, 15:21:58
Das hat nichts mit Kompetenz zu tun.

Da muss man sich nur um ein paar % bei den Parametern bzgl. Fertigungsstreuung etc. vertan haben und das wars dann.

Genau so ein nicht 100% ausgereiftes Simulationstool, oder eine der anderen 10.000 möglichen kleinen Fehlerquellen, die dann bei so einem komplexen Chip dann zum Totalversagen führen.

Ich denke auch nicht, das es zwingend etwas mit den Leuten selbst zu tun hat, so lange es kein Schusseligkeitsfehler (was IMMER! passieren kann) war, dann lags an den Tools/Parametern. Spielt aber auch keine Rolle, woran es genau lag. So etwas kannst du nie 100% ausschließen, denn wenn du das willst, dann rechne mal 1-2 Jahre späteren launch drauf, minimum.

LovesuckZ
2012-01-02, 15:32:50
Fermi hat ein komplett neues Front-End und benötigt auch eine andere Kommunikationsstruktur. Es ist nur natürlich, dass im ersten Anlauf Fehler passieren. Fakt ist jedoch, dass der einzige Konkurent selbst 20 Monate nach Fermi immmer noch generationen zurück liegt. Da muss man dann auch einfach anerkennen, dass solch eine revolution nicht spurlos ohne Probleme von statten geht.

Skysnake
2012-01-02, 16:31:48
LZ, das ist völlig unqualifiziertes gelaber.

AMD und nVidia haben zwei unterschiedliche Architekturen mit unterschiedlichen Schwächen und unterschiedlichen Stärken. Da von einem Rückstand von mehreren Generationen zu sprechen ist einfach bullshit, oder wollen wir mal die nVidia und AMD/ATI Architekturen bei Bitcoining miteinander vergleichen?

Ich glaube nicht Tim...

Beide haben ihre Stärken und Schwächen wie gesagt. Das muss man akzeptieren, oder halt lassen, dann muss man sich aber auch nicht wundern, nicht für voll genommen zu werden.

LovesuckZ
2012-01-02, 16:42:42
LZ, das ist völlig unqualifiziertes gelaber.

AMD und nVidia haben zwei unterschiedliche Architekturen mit unterschiedlichen Schwächen und unterschiedlichen Stärken. Da von einem Rückstand von mehreren Generationen zu sprechen ist einfach bullshit, oder wollen wir mal die nVidia und AMD/ATI Architekturen bei Bitcoining miteinander vergleichen?

Ich glaube nicht Tim...

Beide haben ihre Stärken und Schwächen wie gesagt. Das muss man akzeptieren, oder halt lassen, dann muss man sich aber auch nicht wundern, nicht für voll genommen zu werden.

Es macht natürlich Sinn bei der Problematik fehlendem Schnees in Skigebieten über die Fazination vom Surfen im Dezember in Australien zureden.

Das Problem bei Fermi begründete sich im neuen Front-End Aufbau. Wir reden hier von der Synchronisation von 16 unabhängigen, untereinander kommunizierenden Geometrie-Pipelines und 4 Rasterizer. Von einem Aufbau, der selbst 20 Monate vor Tahiti der Konkurrenz überlegen ist:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=41488&stc=1&d=1324553864

Es ist ein so großer Schritt gewesen, dass es ein Wunder gewesen wäre, wenn dies alles "geräuschlos" von statten gegangen wäre.

Skysnake
2012-01-02, 17:10:56
Tesselation ist ja auch DAS non plus ultra Feature, das alles andere überflüssig macht... :facepalm:

Die Tesselationleistung von Fermi ist wahrlich gut, aber in Fermi stecken GANZ andere Werte, als die schöde Tes-Leistung.

nVidia hat die Flexibilität von GPUs recht deutlich gesteigert, und echte Caches eingebaut, sowie allgemein die Leistungsfähigkeit bei mehr Problemen vergrößert, das waren alles große und wichtige Schritte, deswegen sind Sie aber nicht x Monate voraus, denn an anderen Stellen sind Sie einfach so was von unterlegen, das ist mindestens genau so vernichtend, wie die Tesselation-Vergleiche.

Das so etwas von dir kommt war aber klar, und das du den Unterschied nicht erkennst zwischen dem, was durch eine neue Architektur kommt, also das man nicht ganz die Ziele erreicht, die man sich gesteckt hat, aus den unterschiedlichsten Gründen, dann aber später ausbügeln kann, und einem Totalausfall, ist offensichtlich.

Also LZ, lass es einfach, du stellst mal wieder genau das unter Beweis, was ich gerade gesagt hatte. Du rennst grad mit Anlauf vor ne Wand und merkst es nicht mal. Lass einfach stecken und akzeptiere, das es nicht DEN Hersteller gibt, sondern der eine das besser kann und der andere jenes, und man sich eben den aus sucht, der das leisten kann, was man für X bugs erwartet.

Bucklew
2012-01-02, 17:15:15
Tesselation ist ja auch DAS non plus ultra Feature, das alles andere überflüssig macht...
Tessellation zeigt nur, was die Architektur wirklich leisten kann: Nämlich eine massive Steigerung der möglichen Geometrieleistung. Kannst ja mal die CAD-Nutzer fragen, ob die das so unwichtig finden, wie du...

LovesuckZ
2012-01-02, 17:19:46
Tesselation ist ja auch DAS non plus ultra Feature, das alles andere überflüssig macht... :facepalm:

Die Tesselationleistung von Fermi ist wahrlich gut, aber in Fermi stecken GANZ andere Werte, als die schöde Tes-Leistung.

nVidia hat die Flexibilität von GPUs recht deutlich gesteigert, und echte Caches eingebaut, sowie allgemein die Leistungsfähigkeit bei mehr Problemen vergrößert, das waren alles große und wichtige Schritte, deswegen sind Sie aber nicht x Monate voraus, denn an anderen Stellen sind Sie einfach so was von unterlegen, das ist mindestens genau so vernichtend, wie die Tesselation-Vergleiche.

Das so etwas von dir kommt war aber klar, und das du den Unterschied nicht erkennst zwischen dem, was durch eine neue Architektur kommt, also das man nicht ganz die Ziele erreicht, die man sich gesteckt hat, aus den unterschiedlichsten Gründen, dann aber später ausbügeln kann, und einem Totalausfall, ist offensichtlich.

Also LZ, lass es einfach, du stellst mal wieder genau das unter Beweis, was ich gerade gesagt hatte. Du rennst grad mit Anlauf vor ne Wand und merkst es nicht mal. Lass einfach stecken und akzeptiere, das es nicht DEN Hersteller gibt, sondern der eine das besser kann und der andere jenes, und man sich eben den aus sucht, der das leisten kann, was man für X bugs erwartet.

Der einzige, der anscheinend etwas nicht checkt, bist du. Entweder du redest über das Front-End und die entstandene Problematik bei Fermi oder über die generelle Architektur, die keine Probleme hatte, weil man AMD damit einfach mal abgezogen hat.

Denn die Compute-Einheiten funktionierten auch schon mit A1 prächtig, wie es Huang zugegeben hat.

M4xw0lf
2012-01-02, 17:20:27
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=41488&stc=1&d=1324553864

Wirklich beeindruckend, wie gut Nvidia-Karten in einer Nvidia-Techdemo abschneiden. Das beweist was, genau? :freak:

AwesomeSauce
2012-01-02, 17:27:15
Wirklich beeindruckend, wie gut Nvidia-Karten in einer Nvidia-Techdemo abschneiden. Das beweist was, genau? :freak:
Das Ergebnis lässt sich auch mit D3D SDK Demos reproduzieren, trolliere bitte woanders.

Skysnake
2012-01-02, 17:31:27
Es trifft aber schon einen wunden Punkt. Die Techdemo von einem Hersteller zu verwenden ist schon immer ähm.... ja ungünstig. Da wird nämlich auf eine Architektur optimiert, und da kannste schnell sehr sehr sehr viele Prozent für die eine Karte gewinnen, oder die andere nach hinten fallen lassen. Du musst einfach nur "geschickte" Parameter nehmen.

Hätte LZ wenigstens den StoneGiant genommen, hätte man das nicht sagen können, aber da wäre es eben nicht so beeindruckend gewesen.

Ändert aber nichts an der Sache an sich, die ich ja angesprochen habe. Es sind 2 UNTERSCHIEDLICHE Hersteller mit UNTERSCHIEDLICHEN Architekturen. Da ist es normal, das hier mal die einen und dort mal die anderen vorne sind. Sag ich ja schon die ganze Zeit, dann aber wegen solchen Einzelwerten zu sagen Hersteller A liegt Monate/Jahre/Generationen zurück ist einfach bullshit.

LZ sagt Tesselation ich sag Bitcoin.

Hat LZ jetzt recht, das AMD Generationen zurückliegt?

Hugo78
2012-01-02, 17:32:33
@Skysnake
Bitcoin ist jetzt nicht dein Ernst oder?
Oder kann Bitcoin jetzt technisch einen Beitrag für zb. beschleunigte Krebsforschung leisten?

Wirklich beeindruckend, wie gut Nvidia-Karten in einer Nvidia-Techdemo abschneiden. Das beweist was, genau? :freak:

Es zeigt, dass auch Thaiti immernoch nicht gleichwertig bei extremen Tess ist, und so das Front-End von Fermi ebend ein großer Schritt war.

http://www7.pic-upload.de/02.01.12/k5t9og7lcpql.gif (http://www.pic-upload.de/view-12493482/IMG0034573.gif.html)
- http://www.hardware.fr/articles/848-13/performances-theoriques-geometrie.html

http://www8.pic-upload.de/02.01.12/ttc9cbkni5u.jpg (http://www.pic-upload.de/view-12493512/cb-tess.jpg.html)
- http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/23/#abschnitt_tessellation

y33H@
2012-01-02, 17:38:41
[QUOTE=M4xw0lf;9105746]Wirklich beeindruckend, wie gut Nvidia-Karten in einer Nvidia-Techdemo abschneiden. Das beweist was, genau? [QUOTE]Guck genauer hin: Seit jeher ist AMD bei kleinen Faktoren in Front und bei großen gehen die Radeons in die Knie; siehe auch das angesprochene SDK *klick mich* (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/)

41602

Skysnake
2012-01-02, 17:41:47
@Skysnake
Bitcoin ist jetzt dein Ernst oder?
Oder kann Bitcoin jetzt technisch einen Beitrag für zb. beschleunigte Krebsforschung leisten?

Ach und Tesselation kann technisch einen Beitrag leisten um ein Heilmittel für HIV zu finden? :facepalm:

Also manchmal.....

Bitcoin ist eine Beispielanwendung. Nimm das knacken von Passwörtern, oder andere Dinge, wo man Hashtables durchgehen muss, etc. etc.

Es war nur ein Beispiel, und da ist das eine so gut wie das andere....

Aber man sieht schon genau, das nicht sein kann was nicht sein darf....:rolleyes:

Hades11
2012-01-02, 17:42:42
LZ sagt Tesselation ich sag Bitcoin.

Hat LZ jetzt recht, das AMD Generationen zurückliegt?
was willst du jetzt mit bitcoining? das ist doch für den Normalanwender völlig uninteressant, weil man damit (3DCenter bericht vor ein paar Monaten) realistisch gesehen kaum gewinn bis hin zu verlusten macht und sich die situation in zukunft noch verschlimmert. tesselation hingegen ist in fast jedem Spiel mit sehr guter (ja ich weis sehr gut ist eben definitionssache) Grafik vorhanden.
Von einer Höheren tessellationsleistung hat man also als normalanwender etwas, vom Bitcoining nicht.
ich möchte trotzdem nicht sagen AMD liegt um X Jahre zurück, besser um X% leistung das ist aussagekräftiger.

AwesomeSauce
2012-01-02, 17:43:25
LZ sagt Tesselation ich sag Bitcoin.

Hat LZ jetzt recht, das AMD Generationen zurückliegt?
Was für ein Kindergarten.

Du weisst doch noch gar nichts über die Computepower von Kepler. Wie willst du da bitte sehr vergleichen? Dass AMD mehr Computepower hatte (aufgrund offensichtlicher Designunterschiede), ist wohl offensichtlich.

Alles deutet mittlerweile darauf hin, dass Nvidia sich AMD bezüglich der Computepower annähert.

HarryHirsch
2012-01-02, 17:45:44
welcher tess-level ist denn bei aktuellen spielen standard z.z.?

Blediator16
2012-01-02, 17:45:49
Ach und Tesselation kann technisch einen Beitrag leisten um ein Heilmittel für HIV zu finden? :facepalm:

Also manchmal.....

Bitcoin ist eine Beispielanwendung. Nimm das knacken von Passwörtern, oder andere Dinge, wo man Hashtables durchgehen muss, etc. etc.

Es war nur ein Beispiel, und da ist das eine so gut wie das andere....

Aber man sieht schon genau, das nicht sein kann was nicht sein darf....:rolleyes:

Kennst du etwa nicht die Masse an Spielen, die uns mit "tesslatorischem Hochgenuss" ertränkt haben? :freak:

welcher tess-level ist denn bei aktuellen spielen standard z.z.?

Laut LZ ist Crysis 2 das Maß aller Dinge :freak:

AwesomeSauce
2012-01-02, 17:46:31
welcher tess-level ist denn bei aktuellen spielen standard z.z.?
Das ist die falsche Frage. Tesselation richtig implementiert ist durch und durch dynamisch. Deshalb ist es wichtig, dass gerade auch hohe Faktoren noch ausreichend performant sind.

HarryHirsch
2012-01-02, 17:47:56
Das ist die falsche Frage. Tesselation richtig implementiert ist durch und durch dynamisch.

wie jetzt? das kann sich von scene zu scene ändern?

Bucklew
2012-01-02, 17:49:27
Ach und Tesselation kann technisch einen Beitrag leisten um ein Heilmittel für HIV zu finden?
Wir reden ja immer noch von einer GRAFIKkarte, da sollte die GRAFIK doch einen gewissen Stellenwert haben, oder?

Als ob Bitcoining jetzt das Hauptanwendungsgebiet für Grafikkarten wäre...

btw: Wo gibts eigentlich Bitcoin Benchmarks von der 7970, hab jetzt keine auf die Schnelle gefunden?!

Skysnake
2012-01-02, 17:50:29
was willst du jetzt mit bitcoining? das ist doch für den Normalanwender völlig uninteressant, weil man damit (3DCenter bericht vor ein paar Monaten) realistisch gesehen kaum gewinn bis hin zu verlusten macht und sich die situation in zukunft noch verschlimmert. tesselation hingegen ist in fast jedem Spiel mit sehr guter (ja ich weis sehr gut ist eben definitionssache) Grafik vorhanden.
Von einer Höheren tessellationsleistung hat man also als normalanwender etwas, vom Bitcoining nicht.
ich möchte trotzdem nicht sagen AMD liegt um X Jahre zurück, besser um X% leistung das ist aussagekräftiger.
In welchem Game beschränkt denn die Tess-Leistung einer 7970, oder auch die einer 6970 so, das man deswegen nicht zocken kann? Und in wievielen Games wird das denn so ausgiebig genutzt, dass das so ist? Und bei wievielen dieser Games steht TWIMTBP drauf?


Was für ein Kindergarten.

Du weisst doch noch gar nichts über die Computepower von Kepler. Wie willst du da bitte sehr vergleichen? Dass AMD mehr Computepower hatte (aufgrund offensichtlicher Designunterschiede), ist wohl offensichtlich.

Alles deutet mittlerweile darauf hin, dass Nvidia sich AMD bezüglich der Computepower annähert.
Und nVidia soll sich in gewissen Sachen auch dem Architekturkomzept von AMD annähern mit den verteilten Registerfiles. Das sagt jetzt also was?

Und wo sag ich etwas über die Computepower von Kepler aus???

Lesen bitte. Ich hab nur gegen LZ stumpfsinnigen A>>>B und B ist eh der letzte Rotz und wer das kauft ist nen LoOser gelaber geschossen. Vertausch AMD und nVidia, such dir nen anderen Grund und du wirst von mir die gleiche Aussage wiederfinden.

Ich hasse einfach wie die Pest so unqualifiziertes rumgeblubber.

AwesomeSauce
2012-01-02, 17:50:51
wie jetzt? das kann sich von scene zu scene ändern?
Natürlich, optimal ist sogar ein tiefenabhängiger Tessfaktor. Bei nahen Objekten sind dann eben sehr hohe Faktoren nötig.

LovesuckZ
2012-01-02, 17:52:18
wie jetzt? das kann sich von scene zu scene ändern?

Logo. Das ist der Sinn dahinter. Dank Hull- und Domain-Shader ist es voll dynamisch. Deswegen muss das Front-End auch so ausgerichtert werden, dass es annährend mit den Faktoren mitskaliert.

Skysnake
2012-01-02, 17:52:59
Wir reden ja immer noch von einer GRAFIKkarte, da sollte die GRAFIK doch einen gewissen Stellenwert haben, oder?

Das hat wer bestimmt? Ich lese da nur folgendes:


Next-Gen-Architekturen: Kepler und Maxwell


Also ich kann da nichts von GRAFIKkarte lesen. ;)


EDIT:
Logo. Das ist der Sinn dahinter. Dank Hull- und Domain-Shader ist es voll dynamisch. Deswegen muss das Front-End auch so ausgerichtert werden, dass es annährend mit den Faktoren mitskaliert.
Wenn man nah dran ist, hat man aber auch einen kleineren Bildausschnitt, ergo weniger Polygone, als wenn man den gleichen Tes-lvl bei einer größeren Distanz hat.

Ich hab keine Ahnung, ob AMD da zu schnell abfällt, oder nicht, aber so Pauschal wie du das (mal wieder) machst, kann man das nicht sagen.

HarryHirsch
2012-01-02, 17:55:10
Natürlich, optimal ist sogar ein tiefenabhängiger Tessfaktor. Bei nahen Objekten sind dann eben sehr hohe Faktoren nötig.

Logo. Das ist der Sinn dahinter. Dank Hull- und Domain-Shader ist es voll dynamisch. Deswegen muss das Front-End auch so ausgerichtert werden, dass es annährend mit den Faktoren mitskaliert.

ach so ist das. ich dachte bis eben das der tess-level (z.b. 16) immer gleich bleibt.
thx!

V2.0
2012-01-02, 17:56:19
Wirklich beeindruckend, wie gut Nvidia-Karten in einer Nvidia-Techdemo abschneiden. Das beweist was, genau? :freak:

In praxisrelevanten Stufen liegt AMD doch vorne.

Bucklew
2012-01-02, 17:58:23
Das hat wer bestimmt? Ich lese da nur folgendes:

Also ich kann da nichts von GRAFIKkarte lesen. ;)
Aha und diese "Architekturen" werden also zu 90% zum Bitcoining benutzt und zu 10% für Grafik? Na dann....

Stimmt, da ist die höhere Leistung natürlich für Bitcoining viel wichtiger, als endlich der (erfolgreiche) Versuch die Geometrieleistung endlich mit der immen steigenden Shaderleistung mithalten zu lassen.

Gibts jetzt eigentlich Bitcoining Benchmarks der AMD-Papierkarte?

LovesuckZ
2012-01-02, 17:59:29
In welchem Game beschränkt denn die Tess-Leistung einer 7970, oder auch die einer 6970 so, das man deswegen nicht zocken kann? Und in wievielen Games wird das denn so ausgiebig genutzt, dass das so ist? Und bei wievielen dieser Games steht TWIMTBP drauf?


Crysis 2, anyone? Da liegt eine 7970 gerademal minmal vorne, wenn Controlpoints erzeugt werden.
Und das bei diesen Spielen "TWIMTBP" draufsteht, könnte vielleicht damit zusammen, dass AMD's Geometrieleistung so dermaßen schlecht ist, dass sie liebers POM statt Tessellation und DM forcieren... :rolleyes:

Ich hasse einfach wie die Pest so unqualifiziertes rumgeblubber.

Du hast es nicht verstanden, oder? Du redest mit anderen über ein Problem, dass durch das Front-End resultierte. Also ist das Front-End auch der Bezugspunkt zu anderen Architekturen. Ansonsten rede über die komplette Architektur. Und die hat nunmal dazubeigetragen, dass nVidia's Finanzen in die Höhe schießen.

Skysnake
2012-01-02, 18:00:07
Wohl nicht, und da wird man wahrscheinlich auch keine signifikante Leistungssteigerung sehen. Das Problem hat einfach zu perfekt auf die Architektur gepasst.

Und Bucklew, nur weils dir nicht in den Kram passt, kann das für andere ein sehr wichtiger Punkt sein, wobei du dich nicht an Bitcoin an sich aufhängen darfst. Das steht nur als Synnonym für eine ganz Klasse von Problemen. Nur so btw.

EDIT: LZ
Und wir unterschlagen mal, das es kein Konkurrenzprdukt gegeben hat :rolleyes: Was so btw. dieses Jahr komplett anders aussieht. Man wird 2013 erst sagen können, was nVidia wirklich geleistet hat. Da müssen Sie sich nämlich erstmals echter Konkurrenz stellen.

Und LZ, Tesselationleistung ist nur ein Punkt von vielen. AMD setzt halt die Schwerpunkte anders. Ist das deswegen schlechter? Wenn ja warum? Weil du es sagst?

Bucklew
2012-01-02, 18:02:05
Und Bucklew, nur weils dir nicht in den Kram passt, kann das für andere ein sehr wichtiger Punkt sein, wobei du dich nicht an Bitcoin an sich aufhängen darfst. Das steht nur als Synnonym für eine ganz Klasse von Problemen. Nur so btw.
Also gibt es keine Benchmarks?

Ich denke nur nicht, dass man einen Pluspunkt, der vielleicht 0,1% der Nutzer betrifft (wenn überhaupt, Bitcoining ist nun wirklich nichts, was der Normalanwender tut) über einen Kamm scheren kann mit einem Pluspunkt, der >90% der Nutzer betrifft. Auch wenns dir nicht passt, Grafikkarten werden immer noch zu >90% gekauft um damit GRAFIK darzustellen und nicht irgendwelche Bitcoins zu erzeugen.

AwesomeSauce
2012-01-02, 18:03:21
In praxisrelevanten Stufen liegt AMD doch vorne.
Was für ein Trollpost. Es gibt keine "praxisrelevanten" Stufen. Die Gründe dafür wurden schon mehrfach genannt.:rolleyes:

@Skysnake
Versteh doch, GPGPU ist sehr spannend und sicher wichtig für viele Anwendungsgebiete. Dass hier im 3DCenter Grafik nun mal einen eher höheren Stellenwert hat, sollte einleuchten. LZ deutet doch nur darauf hin, dass Tahiti die ganze Rohpower (die zweifellos beeindruckend ist) eben nicht immer in Frames ummünzen kann, eventuell eben gerade durch das veraltete Frontend.

LovesuckZ
2012-01-02, 18:19:06
@Skysnake
Versteh doch, GPGPU ist sehr spannend und sicher wichtig für viele Anwendungsgebiete. Dass hier im 3DCenter Grafik nun mal einen eher höheren Stellenwert hat, sollte einleuchten. LZ deutet doch nur darauf hin, dass Tahiti die ganze Rohpower (die zweifellos beeindruckend ist) eben nicht immer in Frames ummünzen kann, eventuell eben gerade durch das veraltete Frontend.

Na, GPGPU gehört mittlerweile dazu. Siehe DC oder Cuda (Just Cause 2, PhysX).
Das lustige an Bitcoining und co ist, dass dort auch GCN nicht viel schneller ist als AMD's alte Rechenarchitektur:

http://media.bestofmicro.com/2/Q/320210/original/OpenCL%20Bitmining.png
http://www.tomshardware.de/AMD-GCN-Tahiti-Graphics_Core_Next-HD_7970,testberichte-240931-14.html

Außerdem wird hier dauernd noch mit nVidia's veralterter Architektur auf einem alten Prozess verglichen. Wenn dann solche Ergebnisse:
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index39.php

dabei herauskommen, dann weiß man, wo die Fahrt mit Kepler hingehen wird.

Das Front-End von nVidia wird ihnen helfen, dass jegliche Leistungssteigerung sich annährend gut umsetzen wird. Für Compute brauchen sie einfach nur mehr Rechenleistung. Und das haben sie schon angekündigt massiv zu steigern.

AwesomeSauce
2012-01-02, 18:26:22
Na, GPGPU gehört mittlerweile dazu. Siehe DC oder Cuda (Just Cause 2, PhysX).
Was auch wiederum eine spielerelevante Andwendung von GPGPU ist. Dafür interessiert sich Skysnake aber offensichtlich nicht. Ihr redet aneinander vorbei!

Hades11
2012-01-02, 18:56:56
In welchem Game beschränkt denn die Tess-Leistung einer 7970, oder auch die einer 6970 so, das man deswegen nicht zocken kann? Und in wievielen Games wird das denn so ausgiebig genutzt, dass das so ist?
wer eine higend Karte wie eine 7970 oder 6970 hat hat weit größere anspüche als ein nur Flüssiges Bild.
Performance kann man in Bildqualität umwandeln (downsampling, ect). Und wenn dass den Unterschied zwischen genügend leistung für 8X oder 4X SSAA bzw. downsampling ausmacht dann ist das ein ausgewachsener nachteil.

LovesuckZ
2012-01-02, 18:58:42
Was auch wiederum eine spielerelevante Andwendung von GPGPU ist. Dafür interessiert sich Skysnake aber offensichtlich nicht. Ihr redet aneinander vorbei!

Nein, wir reden nicht aneinander vorbei. Was du von ihm siehst, sind Nebelkerzen - das Ablenken von offensichtlichen Schwächen.

Wir vergleichen hier immer noch eine neue Architektur mit einer, die seit bald 20 Monaten auf dem Markt ist. Erwartet man da nicht, dass die neue überall deutlich schneller wäre? Und das macht GCN auch so - nunja - ernüchtern:
Das Front-End ist immer noch das selbe, limitierende Design. Einzig das Cache-System hilft nun. Dadurch kann man sich im "Graphics"-Bereich nur in Ausnahmefällen richtig absetzen.
Für Hash-Berechungen und Co. liegt man auf dem Niveau von Cypress/Cayman.
Und für Compute ist man nun schneller, aber das sollte man anhand des Rechenleistungsüberschusses auch.

Nur muss man sehen: Fermi ist nicht der Konkurrent zu GCN. Gleichzeitig wissen wir, dass nVidia mit Kepler auf jedenfall die Rechenleistung massiv erhöhen wird. Mindesten Faktor 2, wie von GT200b auf Fermi. Fermi hat ein Front-End, dass dabei so ausgelegt ist, dass es mit skaliert. Spiele, die massiv auf Rechenleistung setzen, werden also brav mit skalieren. Und Spiele, die massiv auf Geometrie setzen, ebenfalls. Und im Compute-Bereich zieht man mit der Rechenleistung gleichmal auf das Niveau von AMD.

Das klingt fast schon nach der eierlegenden Wollmilchsau. ;D

M4xw0lf
2012-01-02, 19:05:43
Das klingt fast schon nach der eierlegenden Wollmilchsau. ;D

Leicht zu begeistern, scheint mir. Auf dem Papier klingt das ja alles sehr gut und überzeugend, aber die Geschichte der Papiertiger ist lang - ich erwähne nur mal R600 und GF100.
Bevor die eierlegende Wollmilchsau durch die Benchmarks gejagt wurde, gilt wie immer: abwarten und Tee trinken, und Nvidia kocht auch nur mit Wasser.

LovesuckZ
2012-01-02, 19:12:35
Leicht zu begeistern, scheint mir. Auf dem Papier klingt das ja alles sehr gut und überzeugend, aber die Geschichte der Papiertiger ist lang - ich erwähne nur mal R600 und GF100.
Bevor die eierlegende Wollmilchsau durch die Benchmarks gejagt wurde, gilt wie immer: abwarten und Tee trinken, und Nvidia kocht auch nur mit Wasser.

GF100? Klar, schneller als die Konkurrenz, bessere Bildqualität und mehr Features. Ist natürlich ein r600. :freak:

Das Problem der ersten Karten war der Kühlkörper. Da dies mit den GTX5xx ausgemerzt wurde, steht nichts mehr im Weg. Und wer jetzt mit dem Stromverbrauch kommt: Spielen ist reine Umweltvernichtung, da Strom für nichts verwendet wird. Wer also wirklich öko sein will, sollte mit dem Spielen aufhören. :P

OgrEGT
2012-01-02, 19:17:55
Nein, wir reden nicht aneinander vorbei. Was du von ihm siehst, sind Nebelkerzen - das Ablenken von offensichtlichen Schwächen.

Wir vergleichen hier immer noch eine neue Architektur mit einer, die seit bald 20 Monaten auf dem Markt ist. Erwartet man da nicht, dass die neue überall deutlich schneller wäre? Und das macht GCN auch so - nunja - ernüchtern:
Das Front-End ist immer noch das selbe, limitierende Design. Einzig das Cache-System hilft nun. Dadurch kann man sich im "Graphics"-Bereich nur in Ausnahmefällen richtig absetzen.

Und Du stelltst Tesselation als Ergebnis des perfekt skalierenden Fontends als das einzig Wahre dar, und wer in sinnlos hohen, meist praxis-unrelevanten Tesselationlevels weniger (nicht unbedingt nicht-spielbare) FPS erzeugt in Deinen Augen nicht würdig ist und Generationen (!) hinterherhinkt.

Skysnkae hat nur versucht zu sagen, dass Tesselation nicht alles ist. Und das ist es auch nicht.

Für Hash-Berechungen und Co. liegt man auf dem Niveau von Cypress/Cayman.
Und für Compute ist man nun schneller, aber das sollte man anhand des Rechenleistungsüberschusses auch.

Man könnte hier auch sagen, was um Himmels Willen macht NV hier falsch, die sind ja 4mal so langsam. Da wir auch eine 2-fache Steigerung der Compute Leistung nicht ausreichen, trotz des ach so tollen Frontends. Und sagt hier jemand NV wäre deshalb Generationen (!) hinterher? Nein. Also lass es umgekehrt auch Du.

Nur muss man sehen: Fermi ist nicht der Konkurrent zu GCN. Gleichzeitig wissen wir, dass nVidia mit Kepler auf jedenfall die Rechenleistung massiv erhöhen wird. Mindesten Faktor 2, wie von GT200b auf Fermi. Fermi hat ein Front-End, dass dabei so ausgelegt ist, dass es mit skaliert. Spiele, die massiv auf Rechenleistung setzen, werden also brav mit skalieren. Und Spiele, die massiv auf Geometrie setzen, ebenfalls. Und im Compute-Bereich zieht man mit der Rechenleistung gleichmal auf das Niveau von AMD.

Das klingt fast schon nach der eierlegenden Wollmilchsau. ;D

Und wieviel davon ist jetzt reines Wunschdenken von Dir? Du setzt all dies bereits als gegeben voraus, als ob Du schon eine Keplerkarte gesehen hättest.

M4xw0lf
2012-01-02, 19:22:06
GF100? Klar, schneller als die Konkurrenz, bessere Bildqualität und mehr Features. Ist natürlich ein r600. :freak:

Und auf dem Papier eine wesentlich größere Steigerung gegenüber GT200b als in der Realität. --> Papiertiger.

Locuza
2012-01-02, 19:28:00
Das mitlesen tut hier manchmal echt weh. Welchen Grund seht ihr eigentlich jedes mal aufs Neue, euch bei der Sprache immer auf zu hängen und bei schlechten Beispielen, diese immer wieder aufgreifen zu müssen?

Skysnake hat schon einmal erwähnt das Bitcoin nur ein ex beliebiges Beispiel dafür war, dass es Anwendungsbeispiele gibt, die bauart bedingt auf der einen Architektur deutlich besser/schlechter, als auf der anderen berechnet werden können.
Dennoch muss man nach einem Beitrag von diesem, wieder Bitcoin aufgreifen.

Gleichzeitig muss man doch auch den Aufwand anschauen, mit welchem wer etwas erreichen tut. AMD hat es jahrelang geschafft mit relativ kleinen Chips, gar mit der Oberklasse von nVidia mit zu halten. Im Umkehrschluss schafft es Nvidia ihre Gflops auch auf die Straße zu bringen und nicht auf Brute Force Methoden angewiesen zu sein.
Das sind nur so kleine Beispiele, die nicht 100% wasserdicht sind, aber es geht hier doch einfach darum herauslesen zu können was der Andere im Prinzip sagen will, ohne jedes mal penibel mit so Mist an zu kommen.


@ Topic

Leid tragend für AMD muss ich leider sagen, dass ich nVidia langsam abfahren sehe. Betrachte ich die ganze Architektur und ihr „Softwarisches Rückrat“, dann sieht es im Moment eher dunkel aus.

Ich hätte persönlich niemals erwartet, dass mit Kepler schon wieder „größere“ Umbrüche von statten gehen werden, als nur ein aufgebohrter Fermi.
Wenn der Hotclock entfällt und man verstärkt die Cuda-Cores aufbohrt und somit die Rechenleistung stark erhöht, dann hat man zu AMD sehr gut aufgeschlossen. Die restlichen Vorteile werden sich nur noch erhöhen.
Wenn ich es mir bisher klassisch vorstelle, dann ein High-End Kepler mit 10 GPCs und jeweils 256 Cuda-Cores pro GPC.

Ich muss leider sagen, dass es wohl das Enthusiasten Produkt ist, welches mir als Konsument zu weit von AMD wegflitzt.
DS/SSAA unter jeder API/AA-Bits, eine Architektur die wie ein schönes Gedärmchen sich dem Futter anrundet und nicht wie eine Puppe verteilt.
Ich erwarte „nur“ mehr Candy für den HPC-Markt, eine erhöhte Rechenleistung und ansonsten keine weiteren Features. Eigentlich hat man ja auch alles, was der Konsument brauchen könnte.

(Für den Mainstream-Markt ist es ja eher nur wichtig bei den gröbsten Sachen konkurrieren zu können. Bei GPGPU könnte man einfach mehr Cluster verbauen. Ich hoffe damit kommt AMD gut über die Runden. Mir drängt sich nur das Gefühl auf, dass seit einigen Jahren AMD langsam aber sicher zwischen den 2 Fronten abgeschliffen wird.)

LovesuckZ
2012-01-02, 19:39:30
Und Du stelltst Tesselation als Ergebnis des perfekt skalierenden Fontends als das einzig Wahre dar, und wer in sinnlos hohen, meist praxis-unrelevanten Tesselationlevels weniger (nicht unbedingt nicht-spielbare) FPS erzeugt in Deinen Augen nicht würdig ist und Generationen (!) hinterherhinkt.

Skysnkae hat nur versucht zu sagen, dass Tesselation nicht alles ist. Und das ist es auch nicht.

Ich finde sehr traurig, dass wir über solche Sachen in diesem Forum nicht mehr diskutieren können, da Menschen wie du es einfach nur in Misskredit bringen wollen. Daher, so what. Denk ruhig, dass es böse ist. Jeder soll nach dem Leben, was ihm beliebt.


Man könnte hier auch sagen, was um Himmels Willen macht NV hier falsch, die sind ja 4mal so langsam. Da wir auch eine 2-fache Steigerung der Compute Leistung nicht ausreichen, trotz des ach so tollen Frontends. Und sagt hier jemand NV wäre deshalb Generationen (!) hinterher? Nein. Also lass es umgekehrt auch Du.


Fehlendes Verständnis der Problematik -> Bildung einer falschen Meinung -> Wiederholen unwahrer Tatsachen.

OgrEGT
2012-01-02, 20:17:32
Ich finde sehr traurig, dass wir über solche Sachen in diesem Forum nicht mehr diskutieren können, da Menschen wie du es einfach nur in Misskredit bringen wollen. Daher, so what. Denk ruhig, dass es böse ist. Jeder soll nach dem Leben, was ihm beliebt.

Ich bringe hier gar nix in Misskredit. Wie kommst Du darauf dass ich denke Tesselation ist böse, nur weil ich sage, dass Du völlig übertreibst und dass es nicht das einzig Wahre ist?

Fehlendes Verständnis der Problematik -> Bildung einer falschen Meinung -> Wiederholen unwahrer Tatsachen.

Nur weil ich Deine vollkommen überzogene Meinung nicht teile, fehlt mir natürlich jedwedes Verständnis, und komme zu einer falschen Meinung, weil sie nicht der Deinen entspricht. Wo wir dabei sind, welche unwahren Tatsachen habe ich wiederholt?

Auf so einen Unfug kann auch nur ein Hardware-Evangelist kommen.

LovesuckZ
2012-01-02, 20:40:12
Ich bringe hier gar nix in Misskredit. Wie kommst Du darauf dass ich denke Tesselation ist böse, nur weil ich sage, dass Du völlig übertreibst und dass es nicht das einzig Wahre ist?

Tessellation ist nichts weiter als die Abstraktion für Controlpoint-Erzeugung.
Was du in Misskredit bringst, ist die Verwendung von Tessellation als Beitrag für die 3D-Visualisierung. Dabei liest man von Leuten wir dir nichts über das sinnlose Verpulvern von Rechenleistung für nonsens Pixelshader. Wer findet hier wohl die Ironie?

Nur weil ich Deine vollkommen überzogene Meinung nicht teile, fehlt mir natürlich jedwedes Verständnis, und komme zu einer falschen Meinung, weil sie nicht der Deinen entspricht. Wo wir dabei sind, welche unwahren Tatsachen habe ich wiederholt?

Auf so einen Unfug kann auch nur ein Hardware-Evangelist kommen.

Dann erkläre dochmal, was an hohen Faktoren praxisfern wäre. Das müsstest du ja können, wenn ich eine "überzogene Meinung" hätte. Bitte mit Argumenten und Beispielen und nicht das sinnlose Umherwerfen von Thesen.

Gipsel
2012-01-02, 20:42:12
Das lustige an Bitcoining und co ist, dass dort auch GCN nicht viel schneller ist als AMD's alte Rechenarchitektur:

http://media.bestofmicro.com/2/Q/320210/original/OpenCL%20Bitmining.png
Das Lustige ist eher, daß Du hier eine AMD-Schwäche erkennen willst, wo eine HD7970 in dem Benchmark "nur" die 3,3fache Leistung einer GTX580 erreicht.

Eine exorbitante Steigerung gegenüber Cayman war beim Bitcoining sowieso nicht zu erwarten (nur innerhalb der gestiegenen Rohleistung von ~40% da keine aufwendige Kommunikation über die Caches notwendig ist). Weiterhin ist afaik der Bitcoin-Client ziemlich gut auf die VLIW-Struktur optimiert. Mit einem neuen Client kann man da gewiss noch etwas rausholen (aber mehr als +20 bis 30% würde ich auf keinen Fall erwarten).

Kurz: Überall wo die bisherigen AMD GPUs nVidia vollständig dominieren (wie z.B. Bitcoin, exact force calculation MD [n-body] falls ordentlich programmiert oder auch ein paar andere Number-Crunching-Dinge), d.h. überall wo die AMD GPUs ihre deutlich höhere Rohleistung umsetzen konnten, wird die Steigerung mit GCN überschaubar sein (und nVidia wird dort in Zukunft wohl aufholen können). Auf der anderen Seite wird GCN etwas ausgeglichener und holt bei der Speicherarchitektur und der Flexibilität auf (bzw. zieht vorbei).

Skysnake
2012-01-02, 20:45:22
man gipsel du bist zu schnell für mich am tablet :D

Und btw. LZ auf dem Bench ist die 5870 massiv schneller als die 580, und Die ist ne Generation älter...

Wie Gipsel aber richtig sagt, ist Bitcoin stark optimiert auf vliw und liegt denen auch sehr gut. Daher finde ich es schon eher überraschend, wie stark die 7970 performt. Ich hab mit weniger gerechnet.

LovesuckZ
2012-01-02, 20:51:21
Das Lustige ist eher, daß Du hier eine AMD-Schwäche erkennen willst, wo eine HD7970 in dem Benchmark "nur" die 3,3fache Leistung einer GTX580 erreicht.

Eine exorbitante Steigerung gegenüber Cayman war beim Bitcoining sowieso nicht zu erwarten (nur innerhalb der gestiegenen Rohleistung von ~40% da keine aufwendige Kommunikation über die Caches notwendig ist). Weiterhin ist afaik der Bitcoin-Client ziemlich gut auf die VLIW-Struktur optimiert. Mit einem neuen Client kann man da gewiss noch etwas rausholen (aber mehr als +20 bis 30% würde ich auf keinen Fall erwarten).

Kurz: Überall wo die bisherigen AMD GPUs nVidia vollständig dominieren (wie z.B. Bitcoin, exact force calculation MD [n-body] falls ordentlich programmiert oder auch ein paar andere Number-Crunching-Dinge), d.h. überall wo die AMD GPUs ihre deutlich höhere Rohleistung umsetzen konnten, wird die Steigerung mit GCN überschaubar sein (und nVidia wird dort in Zukunft wohl aufholen können). Auf der anderen Seite wird GCN etwas ausgeglichener und holt bei der Speicherarchitektur und der Flexibilität auf (bzw. zieht vorbei).

Die Ausnahme ist nicht die Normalität. Das sind Fälle, wo AMD ihre Recheneinheiten auslasten kan, ohne dass eine andersartige Limitierung eintritt. Das selbe passiert z.B. auch im Heaven Benchmark mit Extreme, wo nur Faktoren bis 8 angewendet werden.

Ausnahmen zur Normalität zu erklären, ist dagegen ein fataler Fehler.

Skysnake
2012-01-02, 21:02:42
omfg! Bekommste nen epileptischen Anfall wenn du sagst, das AMD mit irgendwas besser ist als nvidia, oder was ist los mit dir?

Nvidia bekommt auch oft ihre Rechenleistung nicht auf den Boden aber so ist das halt. Sie brechen halt bei einer schlechten Datenlokalität später/langsamer ein. Schön und gut. Wenn du aber ne gut Datenlokalität hast, kann halt VLIW auftrumpfen. Die Schwerpunkte werden halt anders gesetzt und das Ziel mit anderen Mitteln erreich. Mit allen Vor- und Nachteilen, die dieser Weg hat...

Gipsel
2012-01-02, 21:12:03
Die Ausnahme ist nicht die Normalität. Das sind Fälle, wo AMD ihre Recheneinheiten auslasten kan, ohne dass eine andersartige Limitierung eintritt. Das selbe passiert z.B. auch im Heaven Benchmark mit Extreme, wo nur Faktoren bis 8 angewendet werden.

Ausnahmen zur Normalität zu erklären, ist dagegen ein fataler Fehler.
Du hast den Bitcoin-Benchmark verlinkt, ich habe erklärt, warum man da keine großere Steigerung erwartet (weil die GCN-Verbesserungen bei dem Workload keine Auswirkungen zeigen). Ich sage, daß bei dieser Art von Rechenlast Kepler sehr wahrscheinlich aufholen wird (wegen stärker steigender Rohleistung), AMD dagegen bei anderen (vielen, bei den bisher eher nVidia dominiert). Ist doch ganz einfach.

Das nicht zu verstehen, das wäre wirklich fatal. ;)

Bucklew
2012-01-02, 21:15:30
Das Lustige ist eher, daß Du hier eine AMD-Schwäche erkennen willst, wo eine HD7970 in dem Benchmark "nur" die 3,3fache Leistung einer GTX580 erreicht.
Das kommt darauf an, ob man es relativ oder absolut sieht. Angesichts dessen, dass eine HD7970 theoretisch 40% mehr Rechenleistung gegenüber einer 5870 hat, kommt da erschreckend wenig rüber. Dabei war doch gerade eine höhere Auslastung der Shader von AMD im Vorfeld behauptet worden, das Gegenteil ist ja scheinbar der Fall.

Und mal ganz im Ernst: Es wäre doch ziemlich peinlich, wenn mehr als ein Jahr nach Launch der GTX580 die neue AMD-Generation mit 1,5x sovielen Transistoren in einem neuen Fertigungsverfahren langsamer wäre. Dafür (also den zeitlichen Unterscheid + den Fertitungsunterschied) ist der Vorsprung der 7970 verdammt klein.

LovesuckZ
2012-01-02, 21:15:55
omfg! Bekommste nen epileptischen Anfall wenn du sagst, das AMD mit irgendwas besser ist als nvidia, oder was ist los mit dir?

Nvidia bekommt auch oft ihre Rechenleistung nicht auf den Boden aber so ist das halt. Sie brechen halt bei einer schlechten Datenlokalität später/langsamer ein. Schön und gut. Wenn du aber ne gut Datenlokalität hast, kann halt VLIW auftrumpfen. Die Schwerpunkte werden halt anders gesetzt und das Ziel mit anderen Mitteln erreich. Mit allen Vor- und Nachteilen, die dieser Weg hat...

Hä? Die Auslastung der Einheiten ist bei AMD wesentlich schwieriger zu erreichen. Dazu soll man sie also beglückwünschen? :freak:

Mal ein paar Zahlen für dich, Tahiti hat
2,4x die Rechenleistung
2,4x die Texturleistung
1,85x die Geometrieleistung (1 Mrd. Kappung bei Fermi)
1,375x die Bandbreite
1,19x die Pixelleistung

der GTX580 und ist im Durchschnitt ca. 1,25x schneller in Spielen. Das ganze wurde in schicken 40% mehr Transistoren gepackt.

Ja, du hast recht: AMD muss man einfach beglückwünschen zu dieser Meisterleistung. :eek:

Du hast den Bitcoin-Benchmark verlinkt, ich habe erklärt, warum man da keine großere Steigerung erwartet (weil die GCN-Verbesserungen bei dem Workload keine Auswirkungen zeigen). Ich sage, daß bei dieser Art von Rechenlast Kepler sehr wahrscheinlich aufholen wird (wegen stärker steigender Rohleistung), AMD dagegen bei anderen (vielen, bei den bisher eher nVidia dominiert). Ist doch ganz einfach.

Das nicht zu verstehen, das wäre wirklich fatal. ;)

Schade, du hast dir nicht für das neue Jahr vorgenommen, alles zu lesen und nicht nur selektiv, oder?
Hier wurde a) Bitmining angesprochen und b) nach einem Link gefragt. Den habe ich angebracht. Wie man dort sieht, ist die 7970 trotz doppelt sovieler Transistoren gegenüber Cypress gerademal ca. 10% schneller. Das zeigt doch schon, dass Bitmining eine Ausnahme darstellt. Und das vorallem das Verbauen von Recheneinheiten ein billiger Weg ist. Dagegen die Versorgung jener sich wesentlich komplexer offenbart.

Skysnake
2012-01-02, 21:30:37
LZ Optimierte Software sagt dir was?

Distroia
2012-01-02, 21:33:13
Ich habe gehofft, es gäbe vielleicht ein paar neue Infos oder Gerüchte über Kepler in diesem Thread. Stattdessen gab es wieder eine dieser nervigen Tesselation-Diskussionen über mehrere Seiten. Wo ist der Zusammenhang mit dem Thema?

http://img16.imageshack.us/img16/4/bartsimpsongenerator1.gif (http://imageshack.us/photo/my-images/16/bartsimpsongenerator1.gif/)

Uploaded with ImageShack.us (http://imageshack.us)

boxleitnerb
2012-01-02, 21:36:40
Jemand hat auf Basis der Spekulationen hier im 3DC eine Tabelle erstellt. Mag total daneben sein oder nicht, hier ist sie:

http://www.abload.de/img/0718538639yabz3w3mak8etar6.png (http://www.abload.de/image.php?img=0718538639yabz3w3mak8etar6.png)
http://www.chiphell.com/thread-338350-1-1.html

AnarchX
2012-01-02, 21:40:53
GK104 und GK106 beide mit 64 TMUs? :|
Die Tabelle kommt wohl aus Dtl., da PHK einen Abload.de-Link hat: http://bbs.expreview.com/thread-49044-1-1.html

LovesuckZ
2012-01-02, 21:41:44
Asiaten die das Forum lesen und dann bei sich spekulieren? Das klingt ziemlich freaky. :D

LZ Optimierte Software sagt dir was?

Du hast eine Aufgabe gefunden, die sich sehr gut mit der Architektur verträgt. Das ist eine Ausnahmeerscheinung. Die Normalität zeigt, dass die Auslastung der Einheiten eben so schwierig ist, dass eine Optimierung nicht zu einer vollständigen Verwendung aller Einheiten führt.

Ich habe gehofft, es gäbe vielleicht ein paar neue Infos oder Gerüchte über Kepler in diesem Thread. Stattdessen gab es wieder eine dieser nervigen Tesselation-Diskussionen über mehrere Seiten. Wo ist der Zusammenhang mit dem Thema?

http://img16.imageshack.us/img16/4/bartsimpsongenerator1.gif (http://imageshack.us/photo/my-images/16/bartsimpsongenerator1.gif/)

Uploaded with ImageShack.us (http://imageshack.us)

Mal überlegen: Tessellation -> Front-End -> Fermi -> Kepler -> Ausnutzen der Ressourcen -> Leistung.

Ich sage es ja: In diesem Forum über Themen zu reden, die nVidia betreffen und dabei AMD nicht als heilige Kuh erscheinen, rufen immer wieder irgendwelche Leute wie dich auf den Plan. Wer nicht über Tessellation reden und diskutieren will, sollte einen nVidia-Thread ignorieren. Kannst du das nicht, dann scheinst du trollen zu wollen.

fondness
2012-01-02, 21:48:31
Hä? Die Auslastung der Einheiten ist bei AMD wesentlich schwieriger zu erreichen. Dazu soll man sie also beglückwünschen? :freak:

Mal ein paar Zahlen für dich, Tahiti hat
2,4x die Rechenleistung
2,4x die Texturleistung
1,85x die Geometrieleistung (1 Mrd. Kappung bei Fermi)
1,375x die Bandbreite
1,19x die Pixelleistung

der GTX580 und ist im Durchschnitt ca. 1,25x schneller in Spielen. Das ganze wurde in schicken 40% mehr Transistoren gepackt.

Ja, du hast recht: AMD muss man einfach beglückwünschen zu dieser Meisterleistung.


Und wen interessieren solche theoretischen Zahlen? Ein GF110-Shrink in 28nm wäre höchstens unwesentlich kleiner als ein Tahiti, von den fehlenden Features mal ganz abgesehen. Somit ist die Architektur mit ganz wenigen Ausnahme wie sehr hohen Tesslationsfaktoren unterm Strich besser. Wie es bei Kepler aussieht wird man sehen.

Skysnake
2012-01-02, 21:52:26
ähm LZ du hast es nicht begriffen.

Also nochmal:

Sehr gut zu VLIW passendes Problem, welches auf VLIW optimierte Software hat, und die neue ARChitektur ohne Optimierungen ist dennoch schneller.

Das ist der Worst-Case für GCN Vs VLIW. Mit Optimierungen wirst du da sicherlich auch nochmals einiges raus holen können. Die Caches werden sicherlich nicht voll genutzt etc. Da wird Leistung verschenkt

Black-Scorpion
2012-01-02, 21:53:14
Vielleicht solltest du dir mal den Titel des Threads ansehen und verstehen was da steht. Da steht nicht LZ und das Thema Tesselation. Da steht Kepler und Maxwell. Also wollen die Leute etwas darüber lesen und nicht wie du deinen privaten Feldzug mit deinem Lieblingsthema führst. Das hat mit dem Thema des Threads nämlich nichts zu tun.

Geht natürlich an LZ und nicht an dich.

Der_Korken
2012-01-02, 21:53:46
Jemand hat auf Basis der Spekulationen hier im 3DC eine Tabelle erstellt. Mag total daneben sein oder nicht, hier ist sie:

http://www.abload.de/img/0718538639yabz3w3mak8etar6.png (http://www.abload.de/image.php?img=0718538639yabz3w3mak8etar6.png)
http://www.chiphell.com/thread-338350-1-1.html

- DP/SP Verhältnis bei GK100 1:3? Bei den kleineren 1:12? WTF?
- GK104 nur 256bit SI bei mehr als 2/3 der Rohleistung? Da passt das Verhältnis nicht
- 2304 Shader klingt etwas viel. Das wäre eine ver4,5fachung! Klingt mir viel zu optimistisch, wenn AMD gerade mal 70% mehr Transistoren untergebracht hat auf der gleichen Fläche.

LovesuckZ
2012-01-02, 21:55:51
Und wen interessieren solche theoretischen Zahlen? Ein GF110-Shrink in 28nm wäre höchstens unwesentlich kleiner als ein Tahiti, von den fehlenden Features mal ganz abgesehen. Somit ist die Architektur unterm Strich besser. Wie es bei Kepler aussieht wird man sehe.

Es gibt keinen GF110 Shrink. Es ist alles Kepler. Wir brauchen also über Fermi nicht reden.

Vielleicht solltest du dir mal den Titel des Threads ansehen und verstehen was da steht. Da steht nicht LZ und das Thema Tesselation. Da steht Kepler und Maxwell. Also wollen die Leute etwas darüber lesen und nicht wie du deinen privaten Feldzug mit deinem Lieblingsthema führst. Das hat mit dem Thema des Threads nämlich nichts zu tun.

Geht natürlich an LZ und nicht an dich.

Das Thema? Du meinst dieses "nVidia Next-Gen-Architekturen: Kepler und Maxwell"? Dir ist schon klar, dass das Front-End dazu gehört? Nein? Schade, aber war auch nicht anders zu erwarten. Ich bitte dann doch die Leute nicht mehr hier zu lesen, die kein Wert auf die "Next-Gen-Architekturen" legen, nur weil dort Themen vorkommen, die sie nicht mögen.

fondness
2012-01-02, 21:56:55
Es gibt keinen GF110 Shrink. Es ist alles Kepler. Wir brauchen also über Fermi nicht reden.

Du warst es der den Vergleich zu Fermi gezogen hat.

Gipsel
2012-01-02, 21:59:13
Angesichts dessen, dass eine HD7970 theoretisch 40% mehr Rechenleistung gegenüber einer 5870 hat, kommt da erschreckend wenig rüber. Dabei war doch gerade eine höhere Auslastung der Shader von AMD im Vorfeld behauptet worden, das Gegenteil ist ja scheinbar der Fall.Na dann vergleiche mal mit der theoretischen Rohleistung einer GTX580! ;)

Oder ich mache es mal für Dich:
GTX580: 1,59 TFlop/s
HD5870: 2,72 TFlop/s
HD7970: 3,79 TFlop/s

Verhältnis der Rohleistungen 1 : 1,71 : 2,38

Bei Bitcoin erhält man aber 1 : 3,0 : 3,3 also deutlich mehr als erwartet für die AMD-Karten (auch bei GCN!), obwohl doch angeblich die Auslastung bei nVidia praktisch perfekt ist. Woran liegt denn das jetzt nur? Bitcoin ist zwar komplett Integer (allerdings kann jede Einheit auch Int, die SFUs spielen bei der Peakleistung ja sowieso erstmal keine Rolle) und nVidia hat bei der Einführung der Fermi-Architektur mit besonders schnellen Integer-Operationen geworben. Sind die etwa doch nicht so schnell bzw. hat AMD vielleicht einfach die deutlich flexiblere und performantere Implementation von Bitmanipulationen (:wink:)? Liegt der Code mit vec4-Datentypen etwa nVidia nicht? Liegt dann der (inzwischen alte) OpenCL-Code vielleicht auch GCN nicht so ganz optimal, was die etwas geringere Effizienz (im Vergleich zu den VLIW-Architekturen, zu Fermi liegt man ja immer noch bedeutend besser im Vergleich zur Rohleistung) hier erklären könnte?
Sei es wie es sei, das ist Meckern auf hohem Niveau. NVidia muß erstmal da hinkommen, wo schon eine HD5870 bereits war (eine GTX580 schlägt sich dort eher mit der HD4870 rum :rolleyes:). Das ist mit Kepler nicht unmöglich, aber schon eine gewisse Hürde. Es ist immerhin ein Faktor 3,3 den es aufzuholen gilt.

Distroia
2012-01-02, 22:00:11
Mal überlegen: Tessellation -> Front-End -> Fermi -> Kepler -> Ausnutzen der Ressourcen -> Leistung.

Ich sage es ja: In diesem Forum über Themen zu reden, die nVidia betreffen und dabei AMD nicht als heilige Kuh erscheinen, rufen immer wieder irgendwelche Leute wie dich auf den Plan. Wer nicht über Tessellation reden und diskutieren will, sollte einen nVidia-Thread ignorieren. Kannst du das nicht, dann scheinst du trollen zu wollen.

Du könntest von mir aus in diesem Thread über Tessellation diskutieren wie du willst, wenn es irgendwie im Zusammenhang mit Nvidias Next-Gen-Architektur stehen würde. Solange du also nichts weißt, was wir noch nicht wissen, handelt es sich nur um dein übliches schlechtreden der existierenden Produkte von AMD. Eine andere Intention kann ich nicht erkennen.

Als ich gesehen habe, dass der Thread ein paar neue Seiten hat, hab ich auf neue Infos gehofft, und hab mich dann wieder durch eine Diskussion gelesen, die die hier scheinbar in jedem Thread startest, der irgendwas mit AMD und NVidia zu tun hat. Und jedes mal läuft die Diskussion nach dem gleichen Muster. ich kann es einfach nicht mehr sehen. Es nervt.

Mach doch einen Thread zu Thema Tessellation auf.

AnarchX
2012-01-02, 22:02:26
- 2304 Shader klingt etwas viel. Das wäre eine ver4,5fachung! Klingt mir viel zu optimistisch, wenn AMD gerade mal 70% mehr Transistoren untergebracht hat auf der gleichen Fläche.
Mit einem GCN-ähnlichen Ansatz, der mittlerweile für Kepler spekuliert wird, und einem ~500mm² Die sind 2304SPs durchaus möglich.

Dural
2012-01-02, 22:03:08
er hat ja recht... :rolleyes:


und wisst ihr was, Fermi / GF110 wird wohl in die Geschichte der Effizientesten GPU eingehen, den ich denke nicht das NV mit Kepler und den 3-4x so vielen Einheiten im Vergleich zu Fermi die Effizients halten kann.


Wer hätte das beim GTX480 Launch schon gedacht ;)

Skysnake
2012-01-02, 22:04:25
bzw LZ wo ist denn dein Link zu der Aussage, Kepler hätte die doppelte Leistung von Termin wie von dir behauptet.

Ich erinnere mich nur an eine gestiegene Effizienz. Um einen Faktor 2-2,5.

Ich würde mich über die entsprechende Quelle aber freuen ;)

fondness
2012-01-02, 22:04:40
er hat ja recht... :rolleyes:


und wisst ihr was, Fermi / GF110 wird wohl in die Geschichte der Effizientesten GPU eingehen, den ich denke nicht das NV mit Kepler und den 3-4x so vielen Einheiten im Vergleich zu Fermi die Effizients halten kann.


Wer hätte das beim GTX480 Launch schon gedacht ;)

Effizienz ist was anderes.

Black-Scorpion
2012-01-02, 22:08:56
Es gibt keinen GF110 Shrink. Es ist alles Kepler. Wir brauchen also über Fermi nicht reden.



Das Thema? Du meinst dieses "nVidia Next-Gen-Architekturen: Kepler und Maxwell"? Dir ist schon klar, dass das Front-End dazu gehört? Nein? Schade, aber war auch nicht anders zu erwarten. Ich bitte dann doch die Leute nicht mehr hier zu lesen, die kein Wert auf die "Next-Gen-Architekturen" legen, nur weil dort Themen vorkommen, die sie nicht mögen.
Du weißt also schon über das Front-End bescheid? Dann erleuchte doch alle anderen mal. Du reitest auf Dingen rum von denen nichts, absolut nichts bekannt ist und stellst es so dar als wäre alles in trockenen Tüchern. Von den beiden genannten ist nichts handfestes bis auf die Namen bekannt. Bevor du also anfängst Freudensprünge über ungelegte Eier zu machen würde ich abwarten wie es in der Realität aussieht. Und damit meine ich die Realität und nicht deine Realität.

AwesomeSauce
2012-01-02, 22:10:34
Du weißt also schon über das Front-End bescheid? Dann erleuchte doch alle anderen mal. Du reitest auf Dingen rum von denen nichts, absolut nichts bekannt ist und stellst es so dar als wäre alles in trockenen Tüchern. Von den beiden genannten ist nichts handfestes bis auf die Namen bekannt. Bevor du also anfängst Freudensprünge über ungelegte Eier zu machen würde ich abwarten wie es in der Realität aussieht. Und damit meine ich die Realität und nicht wie deine Realität.
Es wird wohl kaum schlechter werden?:rolleyes: Wenn die SMs und GPCs etwa ähnlich aufgebaut sind, wird eben die Geometrie- und Tessleistung mitskaliert.

LovesuckZ
2012-01-02, 22:11:50
Du warst es der den Vergleich zu Fermi gezogen hat.

Es ging um das Beglückwunschen von AMD, weil es einen Anwendungsfall gibt, wo die pure theoretische Leistung durchschlägt. Deswegen der Vergleich zur GTX580, dass dies eine Ausnahme darstellt und in sehr vielen anderen Fällen eben irgendwo eine anderswertige Limitierung eintritt.

Und für "Graphic"s ist es offensichtlich, dass selbst ein reiner GF110 Shrink ausreichend ist locker mit der 7970 mithalten zu können.

Du könntest von mir aus in diesem Thread über Tessellation diskutieren wie du willst, wenn es irgendwie im Zusammenhang mit Nvidias Next-Gen-Architektur stehen würde. Solange du also nichts weißt, was wir noch nicht wissen, handelt es sich nur um dein übliches schlechtreden der existierenden Produkte von AMD. Eine andere Intention kann ich nicht erkennen.

Als ich gesehen habe, dass der Thread ein paar neue Seiten hat, hab ich auf neue Infos gehofft, und hab mich dann wieder durch eine Diskussion gelesen, die die hier scheinbar in jedem Thread startest, der irgendwas mit AMD und NVidia zu tun hat. Und jedes mal läuft die Diskussion nach dem gleichen Muster. ich kann es einfach nicht mehr sehen. Es nervt.

Mach doch einen Thread zu Thema Tessellation auf.

Ich sage es ja: Wenn jemand etwas gegen AMD sagt, kommen gleich die ersten Typen an. :freak:
Dir ist schon bewusst, dass nun Tahiti als Vergleich herangezogen wird? Es als Maßstab genommen wird? Auch analysiert wird?

Ehrlich, warum du als AMD Fan in einen nVidia-Thread kommst und dich beschwerst, dass Leute über "Old-Gen" Bezug auf die "New-Gen" nehmen, ist mir schleierhaft.

Aber da du gerne ja einen Bezug zu Kepler willst:
Durch das revolutionäre Front-End von Fermi ist nVidia nun in der Lage mit steigenen Einheiten eine fast 1:1 Umsetzung in Spielen zu realisieren. Da Tahiti ohne Tessellation nur 25% schneller ist und mit Tessellation ziemlich Federn lassen muss, wird selbst nVidia's Midrange-Kepler wohl locker in "Graphics" mithalten.

Besser? :rolleyes:

Bucklew
2012-01-02, 22:12:28
Sei es wie es sei, das ist Meckern auf hohem Niveau. NVidia muß erstmal da hinkommen, wo schon eine HD5870 bereits war (eine GTX580 schlägt sich dort eher mit der HD4870 rum :rolleyes:). Das ist mit Kepler nicht unmöglich, aber schon eine gewisse Hürde. Es ist immerhin ein Faktor 3,3 den es aufzuholen gilt.
Ganz ehrlich? Ich habe lieber 5% mehr in Spielen und dafür wird Bitcoin keinen Furz schneller, als ich auf die 5% verzichten müsste und Bitcoin doppelt so schnell wird wie bei Thaiti.

Und ich denke, dass ich da mindestens 95% der Nutzer hinter mir habe mit dieser Aussage.

Gipsel
2012-01-02, 22:14:49
Ganz ehrlich? Ich habe lieber 5% mehr in Spielen und dafür wird Bitcoin keinen Furz schneller, als ich auf die 5% verzichten müsste und Bitcoin doppelt so schnell wird wie bei Thaiti.

Und ich denke, dass ich da mindestens 95% der Nutzer hinter mir habe mit dieser Aussage.
Dann darf man aber auch nicht mit einer Bitcoin-"Schwäche" von GCN argumentieren, wenn eine HD7970 3,3 mal so schnell wie eine GTX580 ist. ;)

Dural
2012-01-02, 22:15:05
Effizienz ist was anderes.

du weist schon auf welche Effizients das bezogen war.


und übrigens, auch energie technisch ist Fermi eigentlich ganz OK, den ich erkenne keine nennens werte unterschid zwischen 6970 / 570 oder 6990 / 590 oder 6950 / 560, alle karten haben ca. den selben verbrauch und die selbe leistung. Wenn du damit nicht einverstanden bist und du meinst die Karten verbrauchen zu viel betrifft das Cayman aber genau so. Denn dann müsstest du die 5870/5850 her nehmen, aber Fermi ist diesen Karten ganz klar überlegen

Und JA die GTX580 verbraucht mehr als eine 6970, sie ist aber auch schneller... :rolleyes:

Skysnake
2012-01-02, 22:15:50
die 95% kaufen aber bei 2% statt 5% auch. Durch die anderen 100% gewinnt man aber sehr viele andere neue gut betuchte Kunden dazu ;)

Bucklew
2012-01-02, 22:16:05
Dann darf man aber auch nicht mit einer Bitcoin-"Schwäche" von GCN argumentieren, wenn der 3,3 mal so schnell wie eine GTX580 ist. ;)
Ich argumentiere mit keiner Schwäche, sondern nur mit der von AMD versprochenen höheren Auslastung der Rechenwerke, die scheinbar nicht gegeben ist.