PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

Nighthawk13
2011-12-16, 11:50:25
Nicht nur externe Bandbreite. An erster Stelle steht der Zugriff auf die Registerfiles (da liest man bei weitem am häufigsten draus). Ich sage ja schon länger, daß wenn nV das wirklich ernst meint, müssen sie ihre SMs so umbauen, daß sie am Ende den von AMD bzw. GCN (distributed Registerfiles, das hatten aber auch schon die VLIW-Architekturen) ähnlicher werden.
Hat Kepler schon den Register File Cache?
(Siehe Kepler Technik Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=509927 )
Damit wäre das Problem ja auch etwas entschärft.

Gipsel
2011-12-16, 12:02:27
Hat Kepler schon den Register File Cache?
(Siehe Kepler Technik Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=509927 )
Damit wäre das Problem ja auch etwas entschärft.
Keine Ahnung. Da mußt Du die fragen, die bessere Kontakte haben.

Allerdings finde ich persönlich die Idee mit den Registerfile Cache ein wenig halbgar, auch wenn es in die richtige Richtung geht. Verteilte Registerfiles (jede Lane einer Vektor-ALU aka SP hat ein eigenes) gehen den großen physischen Abstand zwischen Registerfiles und ALU irgendwie grundlegender an. Das andere kann zwar im Prinzip flexibler sein, aber solange die Registerfiles mit den Lanes fest verdrahtet sind (also nicht wie bei Larrabee noch eine Permute-Einheit dazwischen sitzt, diese Funktionalität erreichen GPUs über local/shared memory), ist es das nicht sondern kostet nur mehr Strom (und erschwert gegebenenfalls das Scheduling).

Ailuros
2011-12-16, 12:05:06
Keine Ahnung ueber den register file cache, aber da vielleicht viele andere Aenderungen die wir spaeter erwatet haben nun doch in Kepler erscheinen koennte wuerde ich zumindest fuer die multi-level cache auf ja tippen.

Hübie
2011-12-16, 12:42:13
Diese Vermutung hatte ich auch schon beim SI, allerdings frage ich mich wie sinnvolle bspw. 3 Stufen wären und vor allem welche Größen erscheinen sinnvoll, angesichts der "Datenflut".

AnarchX
2011-12-16, 23:21:52
http://img5.pcpop.com/ArticleImages/500x375/2/2241/002241127.jpg
http://www.pcpop.com/doc/0/744/744775_1.shtml

Kepler und Fermi etwas nach oben gewandert, dafür Maxwell gefallen. :D

Knuddelbearli
2011-12-16, 23:23:49
maxwell ist die übernächste architektur oder ? in 20nm

von 1 auf 2 von 2 auf 6 von 6 auf 14, einzig der sprung von fermi auf kepler kommt mir da für nen shrink bisserl hoch vor

dildo4u
2011-12-16, 23:31:54
maxwell ist die übernächste architektur oder ? in 20nm

von 1 auf 2 von 2 auf 6 von 6 auf 14, einzig der sprung von fermi auf kepler kommt mir da für nen shrink bisserl hoch vor
Performance per Watt wird durch zusätzliche ARM Cores überdurchschnittlich erhöt.

http://www.heise.de/newsticker/meldung/Nvidia-bestaetigt-Auf-Maxwell-GPUs-sitzen-auch-ARM-Prozessorkerne-1172923.html

Knuddelbearli
2011-12-16, 23:44:03
naja der ihmo zu große schnitt ist aberbei Kepler +200% Leistund durch einen fullnode shrink
von 6 auf 14 also +133% geht für fullnode shrink ok, im GPGPU gibt es ja noch eine menge das man optimieren kann

LovesuckZ
2011-12-16, 23:46:58
Das wären dann innerhalb von 238 Watt 1428 DP GFLOPs für die Massen-Tesla-Karte. Geht man davon aus, dass nVidia für Desktop dank 300 Watt noch Platz nach oben hat, könnten 4 TFLOPs SP machbar sein.

naja der ihmo zu große schnitt ist aberbei Kepler +200% Leistund durch einen fullnode shrink
von 6 auf 14 also +133% geht für fullnode shrink ok, im GPGPU gibt es ja noch eine menge das man optimieren kann

Na, Huang hat doch schon angekündigt, dass man Kepler auf massives Perf/Watt ausgelegt habe. Und die reiten das Pferd jetzt seit Monaten ziemlich heftig. Würde mich nicht wundern, wenn der Sprung wirklich passieren wird.

Dural
2011-12-17, 09:30:12
Das wären dann innerhalb von 238 Watt 1428 DP GFLOPs für die Massen-Tesla-Karte. Geht man davon aus, dass nVidia für Desktop dank 300 Watt noch Platz nach oben hat, könnten 4 TFLOPs SP machbar sein.



Was bei 1024SP ziemlich exakt 1400MHz wäre, in 28nm und mit 238Watt sollte das doch machbar sein.


Die GeForce hat dann mit 1800MHz rund 3700 SP GFlops / 1850 DP GFlops. Default werden wir aber wohl etwas wider mit 800/1600MHz sehen, da hätte NV noch etwas luft nach oben für eine "Ultra"


GK100 mit 1024SP, 128TMUs, 64ROPs = 60-80% über GF110 bei gleichem Takt. GTX680 @ 800MHz / 250Watt TDP

GK104 mit 768SP, 96TMUs, 32ROPs = 50-70% über GF114 bei gleichem Takt. GTX660 @ 800MHz rund GTX580 Leistung bei 170Watt TDP

Sunrise
2011-12-17, 09:55:03
Sustained DP GFLOPS per Watt (neuer Slide)
vs.
DP GFLOPS per Watt (alter Slide)

Gibt dann ja in etwa das wieder, was wir von NV öffentlich oder im Hintergrund gesagt bekommen. Man möchte wohl besonders kenntlich machen, dass die Auslastung der Einheiten hier dauerhaft sehr hoch sein wird. Die vorhandenen Einheiten werden vs. Fermi deutlich besser ausgelastet, die Anzahl vermutlich erhöht (das geben die Zahlen wieder) und der Chip ingesamt auch höher getaktet (Vermutung meinerseits), weil 28nm beides in gewissen Grenzen auch erlaubt.

Wenn ich mir diese enorme Steigerung anschaue, dann möchte NV nicht ohne Grund gerne (bzw. gezwungenermaßen) über 300W für den Top-Dog. Falls GK104 bereits an oder um 200W benötigt, kommt das auch in etwa hin.

Skysnake
2011-12-17, 09:59:12
Du meinst wohl eher, die Caches im Verhältnis zu den ALUs werden erhöht, und hoffentlich auch die MEM-Bandbreite relativ zur Rechenleistung.

Sunrise
2011-12-17, 10:02:50
Du meinst wohl eher, die Caches im Verhältnis zu den ALUs werden erhöht, und hoffentlich auch die MEM-Bandbreite relativ zur Rechenleistung.
Über die reine Mem-Bandbreite würde ich mir da keine Sorgen machen, wenn meine aktuellen Infos stimmen (Top-Dog, nicht GK104, dieser muss zwangsläufig Kompromisse eingehen). Wenn NV die Datenlokalität anspricht, sind hier sicherlich auch die Caches ein wichtiger Teil, um den Einheiten dauerhaft Daten zuschieben zu können. Insofern hast du vermutlich Recht, dass sich hier auch etwas am Verhältnis ändern muss, damit hier genügend Cache für alles zur Verfügung steht und dieser auch im Design so günstig integriert ist, dass Daten nicht jedesmal quer über das ASIC wandern müssen.

john carmack
2011-12-17, 10:13:49
"Performance: noch zu unsicher für eine Prognose, aber sicherlich überhalb des Niveaus der GeForce GTX 590"

find ich etwas übertrieben... was denkt Ihr?

boxleitnerb
2011-12-17, 10:16:02
Wieso? Die 590 ist ziemlich niedrig getaktet, da kommen kaum 60% mehr im Vergleich zur 580 bei rum.

john carmack
2011-12-17, 10:22:40
na, da bin ich mal gespannt... :)

Ailuros
2011-12-17, 10:51:38
Sustained DP GFLOPS per Watt (neuer Slide)
vs.
DP GFLOPS per Watt (alter Slide)

Gibt dann ja in etwa das wieder, was wir von NV öffentlich oder im Hintergrund gesagt bekommen. Man möchte wohl besonders kenntlich machen, dass die Auslastung der Einheiten hier dauerhaft sehr hoch sein wird. Die vorhandenen Einheiten werden vs. Fermi deutlich besser ausgelastet, die Anzahl vermutlich erhöht (das geben die Zahlen wieder) und der Chip ingesamt auch höher getaktet (Vermutung meinerseits), weil 28nm beides in gewissen Grenzen auch erlaubt.

Es erzaehlt aber keiner nirgends wie die genaue Effizienz per FLOP aussieht. Faellt die Effizienz ist eben die FLOP/W Steigerung eigentlich auch nicht mehr so berauschend.

Wenn ich mir diese enorme Steigerung anschaue, dann möchte NV nicht ohne Grund gerne (bzw. gezwungenermaßen) über 300W für den Top-Dog. Falls GK104 bereits an oder um 200W benötigt, kommt das auch in etwa hin.

Ich hab zwar keine Ahnung wo der TDP einer 104 liegen wird, aber 200W klingen viel zu viel fuer eine GPU die bestenfalls es mit einer Tahiti PRO aufnehmen wird.

Was bei 1024SP ziemlich exakt 1400MHz wäre, in 28nm und mit 238Watt sollte das doch machbar sein.


Die GeForce hat dann mit 1800MHz rund 3700 SP GFlops / 1850 DP GFlops. Default werden wir aber wohl etwas wider mit 800/1600MHz sehen, da hätte NV noch etwas luft nach oben für eine "Ultra"


GK100 mit 1024SP, 128TMUs, 64ROPs = 60-80% über GF110 bei gleichem Takt. GTX680 @ 800MHz / 250Watt TDP

GK104 mit 768SP, 96TMUs, 32ROPs = 50-70% über GF114 bei gleichem Takt. GTX660 @ 800MHz rund GTX580 Leistung bei 170Watt TDP

Ich will wetten dass 104 um einiges mehr SPs haben koennte als Deine GK110 Schaetzung.

http://img5.pcpop.com/ArticleImages/500x375/2/2241/002241127.jpg
http://www.pcpop.com/doc/0/744/744775_1.shtml

Kepler und Fermi etwas nach oben gewandert, dafür Maxwell gefallen. :D

Ich sagte doch dass NV knallhart behauptete dass es nahezu 3x und nicht nur 2.5 bei Kepler sein werden?

Das wären dann innerhalb von 238 Watt 1428 DP GFLOPs für die Massen-Tesla-Karte. Geht man davon aus, dass nVidia für Desktop dank 300 Watt noch Platz nach oben hat, könnten 4 TFLOPs SP machbar sein.

Vorsicht: sustainable DP GFLOPs. Sonst wird natuerlich die FLOP Rate diesmal unerwartet hoch sein.

Na, Huang hat doch schon angekündigt, dass man Kepler auf massives Perf/Watt ausgelegt habe. Und die reiten das Pferd jetzt seit Monaten ziemlich heftig. Würde mich nicht wundern, wenn der Sprung wirklich passieren wird.

Im gegebenen slide geht es um DP GFLOPs/W. Auch GK104 wird eine brutale Steigerung fuer SP GFLOPs gegenueber GF114 sehen, aber wohl nicht eine Effizienz-Steigerung/FLOP oder anders eben bei weitem keine so hohe Leistungssteigerung wie die FLOP Rate andeutet. Ich bin zwar gerade dabei mit Zahlen zu spekulieren, aber mit den bisherigen Daten duerfte 104 auf jeden Fall nicht weniger als 24 SMs haben.

Skysnake
2011-12-17, 10:54:00
DAS müssen Sie erst noch zeigen. Bei Fermi wollten Sie auch viel und haben nichts davon geliefert, was Effizienz anbelangt. Grad mal der GF110 ist etwa dahin gekommen, wo bereits der GF100 landen sollte...

nVidia hat sichs damit und mit der extremen Verspätung bei vielen Verschärzt... Daher hat ja auch OpenCL und AMD durchaus Aufwind bekommen im HPC-Bereich, auch wenn nVidia da noch der Herr im Ring ist. Man hat sich nach Fermi nach anderem umgesehen, was man vorher nicht gemacht hat. Naja und ihr wisst ja, von nach anderem umsehen zu was anderes kaufen ist es manchmal nur ein kleiner Schritt.

Wenn Sie jetzt wieder irgendwas verkacken, und sei es "nur", dass Sie ihre Effizienzversprechen nicht halten können, dann ist das ein gewaltiger Schuss ins Bein, denn die Leute mögen gar nicht, wenn man Sie verschaukelt, und mit MIC steht ja ein gefährlicher Gegner am Ring, man wartet ja nur noch drauf das er in den Kampf eingreift.

@Ailuros:
Ja das hab ich mir nach den Gerüchten auch gedacht, dass der GK104 es nicht mit Tahiti aufnehmen wird können, und AMD eben bis der GK100 kommt die Leistungskrone für sich beanspruchen wird können, dann aber in Q2/Q3 wenn GK100 dann mal da ist, der mit den AMD Karten den Boden wischt, bis dort dann halt entweder ein Refresh oder die HD8k Serie kommt ;)

PS: Das meinte ich ja mit dem: "Es werden wohl alle lange Gesichter machen, nur zu unterschiedlichen Zeitpunkten" ;)

Zuerst die von nVidia und dann die bei AMD.

Ich finds aber gar nicht sooo schlecht. Da hat man wenigstens einen großen Druck auf den beiden, sich voll ins Zeug zu legen und die Produkte schnell zu launchen.

Duplex
2011-12-17, 11:03:18
Wenn der Chip mit vollen Einheiten zuviel Strom benötigt, dann könnte er einfach abgespeckt werden, am Anfang z.b. nur 896-1D Shader @700MHz GPU @250W & später mit einem Respin/Refresh dann volle Einheiten bei reduzierter Leistungsaufnahme. Wenn GCN im 3DMark nur 20% mehr Leistung als GTX580 hat, dann braucht Nvidia sowieso keine 1024 Shader am Anfang...

Skysnake
2011-12-17, 11:11:54
Es geht aber nicht um die maximale Leistungsaufnahme, sondern um Flop/Watt. Durch abschalten von Teilen des Chips reduzierst du zwar die Watt, aber auch massiv die Flop. Da haste zwar Effizienzsteigerungen, aber keine Gewaltigen.

V2.0
2011-12-17, 11:16:31
Schöne Grafik, einer nicht kaufbaren Karte. Vor Fermi gab es auch haltlose Versprechen und es hat bis zum Refresh gedauert, dass sie halbwegs sparsame und nicht teilweise deaktivierte Chips liefern konnten.

Sunrise
2011-12-17, 11:31:20
Es erzaehlt aber keiner nirgends wie die genaue Effizienz per FLOP aussieht. Faellt die Effizienz ist eben die FLOP/W Steigerung eigentlich auch nicht mehr so berauschend.

Ich hab zwar keine Ahnung wo der TDP einer 104 liegen wird, aber 200W klingen viel zu viel fuer eine GPU die bestenfalls es mit einer Tahiti PRO aufnehmen wird.
NV wird einen guten Grund haben, hier nur DP-GFLOPS nach außen zu geben und die restliche Effizienz erstmal zu ignorieren. Besonders beim Top-Dog will man natürlich Werbung mit beeindruckenden Zahlen machen, die aber auch stimmen sollten.

Bei den 180W-220W (ich habe ja um 200W geschrieben) gebe ich dir insofern Recht, dass auch ich persönlich gefühlsmäßig eher mit 100-150W rechnen würde. Problem ist, dass ich etwas von 200W und einem Target von GTX580+30% gehört habe und dabei dann 100-150W TDP? Das mag zutreffen, aber ich persönlich bin da eher skeptisch und warte erstmal ab.

Ursprünglich sollte ja im April der Top-Dog folgen, der aktuell mit deutlich >300W angegeben wird. Nimmt man davon etwa die Hälfte (Milchmädchen) dann kommt man eher auf <150W.

Ich finds aber gar nicht sooo schlecht. Da hat man wenigstens einen großen Druck auf den beiden, sich voll ins Zeug zu legen und die Produkte schnell zu launchen.
Ich bin zwar nicht Ailuros, aber solange dieser Druck dann nicht dazu führt, dass wir nur noch Papiertiger haben, sehr gerne. Ich habe da aber eher Bedenken, wenn es um schnell launchen geht, aufgrund gewisser Vorfälle in der Vergangenheit. Aus meiner Sicht soll sich NV solange Zeit lassen, damit man das Teil auch kaufen kann, andernfalls ist das für mich wieder ein Paper-Launch mehr, auf den ich persönlich gerne verzichte.

Ailuros
2011-12-17, 11:56:34
DAS müssen Sie erst noch zeigen. Bei Fermi wollten Sie auch viel und haben nichts davon geliefert, was Effizienz anbelangt. Grad mal der GF110 ist etwa dahin gekommen, wo bereits der GF100 landen sollte...

Es ist zwar schoen und gut dass Leute wie Du konstant auf dem Mist herumreiten, aber ich wuerde mal liebend gerne Dein Gesicht sehen wenn Du ein engineer waerst und einen R600 bzw. GF100 mitgebaut haettest.

Mist kann passieren bei so grossen und so komplizierten chips und nur weil AMD seit dem R600 flop sich in der Sicherheits-zone von konservativeren chips verborgen hat heisst es nicht dass dieses nicht immer noch ein Problem sein kann, ueberhaupt jetzt wo Prozesse zunehmend beschissen werden: http://www.xbitlabs.com/news/cpu/display/20111216103629_AMD_Improvements_of_Next_Generation_Process_Technologies_Start_to _Wane.html

Sonst ist ja Kritik schoen und gut aber Cayman war auch nicht das Effizienz-Wunder im Vergleich zu Cypress; ganz im Gegenteil hat die GTX580 etwas mehr Leistung als eine GTX480 bei vergleichbarem Stromverbrauch, waehrend Cayman um ein vergleichbares Prozentual schneller war als Cypress aber auch mit einem guten Stueck mehr Stromverbrauch.

nVidia hat sichs damit und mit der extremen Verspätung bei vielen Verschärzt... Daher hat ja auch OpenCL und AMD durchaus Aufwind bekommen im HPC-Bereich, auch wenn nVidia da noch der Herr im Ring ist. Man hat sich nach Fermi nach anderem umgesehen, was man vorher nicht gemacht hat. Naja und ihr wisst ja, von nach anderem umsehen zu was anderes kaufen ist es manchmal nur ein kleiner Schritt.

Ich hab die Laier von Dir schon so oft gelesen dass es schon mehr als langweilig geworden ist. Es ist eben nicht der Teufelsknabe NVIDIA und das allerheilige AMD. Beide sind genauso albern wenn es zu PR und marketing kommt und beide wollen Geld verdienen. Almosen gibt es von keinem der beiden.

Ich sehe auch keine verfuegbaren Tahiti GPUs in 2011 egal wie oft AMD es offziell in letzter Zeit in der Presse versprochen hat, ergo muss ich wohl bis zum geht nicht mehr auf dem Scheiss herumreiten oder?


@Ailuros:
Ja das hab ich mir nach den Gerüchten auch gedacht, dass der GK104 es nicht mit Tahiti aufnehmen wird können, und AMD eben bis der GK100 kommt die Leistungskrone für sich beanspruchen wird können, dann aber in Q2/Q3 wenn GK100 dann mal da ist, der mit den AMD Karten den Boden wischt, bis dort dann halt entweder ein Refresh oder die HD8k Serie kommt ;)

Es ist GK110 und Du liegst falsch mit der Projektion wie die alberne moechtegern roadmaps die kurzieren. Projektion kann aber vieles heissen, aber etwas besseres gibt es momentan nicht. Fuer wann ist denn sein tape out projeziert als Anfang?

NV wird einen guten Grund haben, hier nur DP-GFLOPS nach außen zu geben und die restliche Effizienz erstmal zu ignorieren. Besonders beim Top-Dog will man natürlich Werbung mit beeindruckenden Zahlen machen, die aber auch stimmen sollten.

Wenn man eine Unmenge an SP FLOPs mehr auf den Tisch bringt, steigt logischerweise auch die DP Rate mit.

Bei den 180W-220W (ich habe ja um 200W geschrieben) gebe ich dir insofern Recht, dass auch ich persönlich gefühlsmäßig eher mit 100-150W rechnen würde. Problem ist, dass ich etwas von 200W und einem Target von GTX580+30% gehört habe und dabei dann 100-150W TDP? Das mag zutreffen, aber ich persönlich bin da eher skeptisch und warte erstmal ab.

Wo lagen die TDPs von GF104 bzw. 114? Wenn jetzt GK104 ploetzlich um einiges mehr verbrauchen sollte als diese, muesste entweder etwas sehr ernsthaftes krumm gelaufen sein oder die Leistung ist um einiges hoeher als bei den Vorgaengern. GTX580+30% ist Tahiti PRO +/- Nivaeu und damit waere GK104 vollkommen ok positioniert und natuerlich auch mit einem logischeren TDP.

Nach internen Aussagen sollen sie mit A1 ihre Ziel-frequenzen beim 104 erreicht haben und mit den ersten beta Treibern ein Stueck ueber 580 Leistung. Keine Ahnung ob noch ein metal spin notwendig war oder nicht.

Ursprünglich sollte ja im April der Top-Dog folgen, der aktuell mit deutlich >300W angegeben wird. Nimmt man davon etwa die Hälfte (Milchmädchen) dann kommt man eher auf <150W.

NV hat nirgends offiziell den top dog fuer April angedeutet. Es stand in dem slide lediglich Kepler und dann spaeter Q2/3 Quadro/Teslas. GF110 waere fuer Maerz/April eine These gewesen noch fuer Anfang 2011 als man hoffte dass GK107 im November und GK104 es noch im Dezember schaffen koennte. Und das ist jetzt mal wieder schon zu viel verraten.

Sunrise
2011-12-17, 12:20:46
Wenn man eine Unmenge an SP FLOPs mehr auf den Tisch bringt, steigt logischerweise auch die DP Rate mit.
Die Frage (deine Frage) war ja, ob die FLOPS/W steigen. Halten wir uns nicht mit Details auf, denn darauf habe ich keine Antwort. GK110 (nennen wir ihn jetzt einfach mal so) wird breiter werden als Fermi, was auch immer damit gemeint ist. Alles andere sind derzeit Projektionen.

Wo lagen die TDPs von GF104 bzw. 114? Wenn jetzt GK104 ploetzlich um einiges mehr verbrauchen sollte als diese, muesste entweder etwas sehr ernsthaftes krumm gelaufen sein oder die Leistung ist um einiges hoeher als bei den Vorgaengern. GTX580+30% ist Tahiti PRO +/- Nivaeu und damit waere GK104 vollkommen ok positioniert und natuerlich auch mit einem logischeren TDP.

Nach internen Aussagen sollen sie mit A1 ihre Ziel-frequenzen beim 104 erreicht haben und mit den ersten beta Treibern ein Stueck ueber 580 Leistung. Keine Ahnung ob noch ein metal spin notwendig war oder nicht.
Ich bin von GF114 ausgegangen. Was ist denn für dich eine logische TDP? Laut meinen Infos ist GK104 noch nicht final. Ohnehin ist hier die Frage, ob NV sich auf das Spielchen von AMD einlässt.

NV hat nirgends offiziell den top dog fuer April angedeutet. Es stand in dem slide lediglich Kepler und dann spaeter Q2/3 Quadro/Teslas. GF110 waere fuer Maerz/April eine These gewesen noch fuer Anfang 2011 als man hoffte dass GK107 im November und GK104 es noch im Dezember schaffen koennte. Und das ist jetzt mal wieder schon zu viel verraten.
Ich schreibe absichtlich im bzw. ab April (wäre korekter gewesen), eben aufgrund der Quadro/Tesla-Geschichte. Ob man liefern möchte oder liefern kann ist eben die große Frage. Fab15 liefert erst ab Ende Q1 einen Ausbau mit erhöhter Produktionskapazität mit stark steigendem Output in Q3. Und das ist auch schon zuviel verraten.

aylano
2011-12-17, 13:18:16
PS: Das meinte ich ja mit dem: "Es werden wohl alle lange Gesichter machen, nur zu unterschiedlichen Zeitpunkten" ;)

Zuerst die von nVidia und dann die bei AMD.

Die langen Gesichter werden eher in der Phase der Einführung von neuen Fertigungs-Verkleinerungen gemacht. Und zwar nicht, wegen dem Zeitpunkt, sondern der Effizienz.

Plus-Minus 10% in der Effizienz bedeutet schon die ganze Welt zwischen Flop und Super-Karte.
Interessant finde ich, wie Nvidia die GK100 hinkriegt.
Zumindestens ist die Einführungs-Zeit von 28nm erheblich schlechter als 40nm. Wenn auch noch die Transitor-Effizienz etwas schlechter als erwartet wird, und Nvidia die doppelten Transistorn einbaute, dann ist es wegen dem 250W-Spiele-TDP von GF110 schon nicht mehr weit bis 300W-TDP, was erhebliche Probleme (niedere Takte und/oder Verspätungen) verurschachen kann.

G92, GT200 und GT200b und GF100 kamen erheblich später als AMDs-Performance-CPU und/oder als geplant.
Nach 55nm und 40nm ist das jetzt das 3 Spiel, bzw. nach 40nm das 2. Spiel Wo Verspätungen erhebliche Nachwirkungen haben können.

Dass Nvidia mit so einem 500mm²-GK100-Chip schneller sein wird, als AMD mit 350mm² wundert mich ja nicht. Die große Frage ist, wann sie es einführen !!! (und wie groß die Einschränkungen durch 28nm bei AMD & Nvidia sind.)

Es sieht so aus, als wird das ganze nächste Jahr ein interessantes GPU-Jahr.

Dural
2011-12-17, 13:29:48
und hier noch mal das selbe...

G92 kam vor RV670
GT200 kam vor RV770

:rolleyes:


nur GF100 hatte probleme, die nicht mal was mit der fertigung zutun hatte (obwohl die 40nm Ausbeute extrem schlecht war)

Sogar GF110 kam vor RV970/Cayman ;)

Skysnake
2011-12-17, 14:04:08
Es ist zwar schoen und gut dass Leute wie Du konstant auf dem Mist herumreiten, aber ich wuerde mal liebend gerne Dein Gesicht sehen wenn Du ein engineer waerst und einen R600 bzw. GF100 mitgebaut haettest.

Dann wär ich genau wie alle anderen abhängig von dem was die Großkopfeden sagen und was halt TSMC liefert. Das hätte an der ganzen Sache rein gar nichts geändert. Aber ich mach den Engineers ja auch keinen Vorwurf. Huang hat nicht mit offenen Karten gespielt. DAS ist das Problem an der Sache.


Mist kann passieren bei so grossen und so komplizierten chips und nur weil AMD seit dem R600 flop sich in der Sicherheits-zone von konservativeren chips verborgen hat heisst es nicht dass dieses nicht immer noch ein Problem sein kann, ueberhaupt jetzt wo Prozesse zunehmend beschissen werden: http://www.xbitlabs.com/news/cpu/display/20111216103629_AMD_Improvements_of_Next_Generation_Process_Technologies_Start_to _Wane.html

Dafür bekommt AMD halt auch auf die Fresse, was die Maximalleistung und eben auch die Effizienz bzgl der Auslastung betrifft. Was bringen mir die tolle Rohleistung der VLIWX Architektur, wenn ich in 95% der Fälle einfach extrem abkack was die Effizienz anbelangt, weil die Caches etwas zu klein sind und auch ansonsten sich die ALUs einfach nicht gescheit auslasten lassen. Eben REIN GAR NICHTS. Die Diskussion hatte ich erst mit nem Studienkollegen. Der war wie halt viele extrem auf nVidia fixiert. Meint ich zu ihm: "Also ich würd halt erst mal schauen, was fürn Problem ich hab und ob sich das auf die AMD Karten gut mappen lässt. Denn wenn ja kannste halt die hohe Rohleistung ausspielen. Wenn das aber nicht der Fall ist, nimm ne nVidia, die ist weniger Empfindlich was das mapping des Problems anbelangt. Die bricht einfach nicht so extrem schnell ein wie die AMD Karten. Außer du willst DP und hast kein Geld für ne Tesla, dann nim auch ne AMD, weil die nicht beschneiden (noch)"

nVidia hat scheise gebaut, und dafür bekommen se halt Dresche. Genau wie AMD Dresche für die verkackten Linux Treiber bekommt. Die sollen wirklich schlecht sein. Für GPGPU sind die Linuxtreiber aber auch sehr wichtig, weil viele Leute da eben Linux-System am laufen haben. Die können noch so ne gute Architektur mit GCN hinbekommen, wenn die die Linux-Treiber nicht gebacken bekommen, dann können sich das Ding sonst wo hin schieben, das wird keiner kaufen. Allein wie lange man nur 256 (500) MB des RAMs nur nutzen konnte (kann sein dass das sogar noch immer nicht gefixed wurde) ist halt einfach nur ne blamasche. Mit GCN muss das anders laufen!



Sonst ist ja Kritik schoen und gut aber Cayman war auch nicht das Effizienz-Wunder im Vergleich zu Cypress; ganz im Gegenteil hat die GTX580 etwas mehr Leistung als eine GTX480 bei vergleichbarem Stromverbrauch, waehrend Cayman um ein vergleichbares Prozentual schneller war als Cypress aber auch mit einem guten Stueck mehr Stromverbrauch.

Jup nVidia hat mit dem GF110 einen echt richtig richtig guten Chip hingelegt. Den Würde ich zu 99% auch den AMDs vorziehen. Zumal eben AMD mit Cayman auch Mist gebaut hat. Die Effizienz wurde verschlechtert... Cypress war/ist wirklich nen richtig guter Chip, was Effizienz anbelangt, und er steht halt noch viel besser da, weil nVidia da halt gefailt hat. So ist er im Bewusstsein vieler zu nem bomben Chip geworden statt nur einem sehr guten Chip.



Ich hab die Laier von Dir schon so oft gelesen dass es schon mehr als langweilig geworden ist. Es ist eben nicht der Teufelsknabe NVIDIA und das allerheilige AMD. Beide sind genauso albern wenn es zu PR und marketing kommt und beide wollen Geld verdienen. Almosen gibt es von keinem der beiden.

Ich sehe auch keine verfuegbaren Tahiti GPUs in 2011 egal wie oft AMD es offziell in letzter Zeit in der Presse versprochen hat, ergo muss ich wohl bis zum geht nicht mehr auf dem Scheiss herumreiten oder?

Sag ich auch nicht das AMD nur gute Sachen macht. Die bauen auch genug Mist. HD6k ist für mich z.B. einfach ein Stillstand/Rückschritt. In meinen Augen kein soo toller Chip.

Lang wirste auch nicht warten müssen, bis ich über AMD motze wie nen Rohrspatz. Wenn die die beschnittene DP Leistung für die Radeons einführen, dann werde ich das bei jeder Gelegenheit aufs Brot schmieren. Damit sind Sie kein Stück besser als nVidia... Mich kotzt es jetzt schon an, dass das kommen wird..... :mad:

Hübie
2011-12-17, 14:33:29
nVidia hat scheise gebaut, und dafür bekommen se halt Dresche.

Ich versteh seit ein paar posts nicht was du damit meinst. Wo bekommt nVidia von wem Dresche??


Das die Sprünge mit immer kleiner werdenden nodes abnehmen sollte auch soweit klar sein. Das ist wohl einer der Gründe weshalb Intel bspw. die "3D"-Transistoren entwickelt hat. Du kannst nicht immer gleiche Techniken einfach kleiner machen.
Ist halt wie beim Motor in KFZ. Wenn die kleineren Hubraum haben, mehr Leistung erzeugen musst du was an Materialgüte und Anbauteilen ändern (ich weiß sehr grober Vergleich). Ich mache mir bzgl. der Ausbeute mehr Sorgen als um irgendwelche Energieverbrauchsangaben. Was hab ich von einer GPU, welche nur 250 Watt umwandelt, 30% schneller als GF110 ist, aber 200% Kosten in der Anschaffung verursacht? Richtig: Weniger Geld auf dem Konto für zu wenig Zugewinn. So lang behält niemand eine GPU um die Kosten reinzuholen. Mir ists lieber die kommen später, aber dafür bei einer vernünftigen Ausbeute, als schön frühzeitig zu übehöhten Preisen dank mieser yield-rates.

just my 2 cents.

LG Hübie

Edit:
GK100 mit 1024SP, 128TMUs, 64ROPs = 60-80% über GF110 bei gleichem Takt. GTX680 @ 800MHz / 250Watt TDP

GK104 mit 768SP, 96TMUs, 32ROPs = 50-70% über GF114 bei gleichem Takt. GTX660 @ 800MHz rund GTX580 Leistung bei 170Watt TDP

Ich denke nicht, dass man die ROPs gleich um 50% kürzt (GK104<->GK100/110).
btw: Soll GK110 jetzt die Bezeichnung für den top dog sein oder wie? Langsam würfelt ihr doch die Zahlen oder? ;D

LovesuckZ
2011-12-17, 14:37:47
Ich versteh seit ein paar posts nicht was du damit meinst. Wo bekommt nVidia von wem Dresche??


Er meint, nVidia bekäme haue, weil Tesla-Fermi nicht das ist, was man ein jahr vorher angekündigt hätte. Vollkommen ignorieren, dass Fermi überhaupt die erste relevante GPU für Supercomputer ist und die schnellste Verbreitung eines MultiCore-Prozessor in der TOP500 Liste aufweist - mit den heutigen #2, #4 und #5 sowie den "grünsten" Petaflop-Supercomputer in der Welt.

Muss man einfach ignorieren.

Skysnake
2011-12-17, 14:46:34
Du musst aber die Gesamtkosten eines Systems sehen, nicht nur den Anschaffungspreis. Die 200% Mehrkosten können sich je nachdem auch wieder über die Laufzeit amortisieren, wenn du entsprechend viel Vollast hast.

Und nVidia bezieht halt dafür Dresche, dass Sie nen Dummy in die Luft gehalten haben und gesagt haben "This if Fermi" blablub. Dann das es noch so ewig gedauert hat, bis Fermi endlich kam, und dann von den ursprünglichen Versprechen eben nicht mehr viel da war. Das wurde erst mit dem GF110 überwiegend eingelöst.

Es gab halt nur keine Alternative am Markt. Ich hoffe du kannst aber nachvollziehen, das man einfach ziemlich pissed ist, wenn man nen Cluster mit Teslas bekommen soll, und damit rechnet, und dann kommt das Ding über nen halbes Jahr später, hat weniger Rechenleistung UND verbraucht auch noch mehr Strom.

Ich kann ja hin und wieder mit Leuten reden, die eben beruflich damit zu tun haben, und ich les aus deren Kommentaren eben schon raus, dass die wegen Fermi schon noch angekotzt sind, und eben nVidia nicht mehr alles glauben, was die vom Stapel lassen, einfach weil die PR es überzogen hat. Man ist halt von dieser 100% nVidia Hörigkeit abgekommen, weil man gesehen hat, das man damit eine Bruchlandung hinlegen kann, was einem natürlich immer in so einem Fall passieren kann, wo man sich ganz auf einen verlässt.

Weist ich glaub die Leute wären gar nicht so pissed, wenn nVidia anders mit der Sache umgegangen wäre. So wies gelaufen ist, wars aber einfach Mist.

Und so schnell wird nVidia diesen Mackel nicht mehr los werden. Selbst über den FP-Div-Bug bei Intel wird ja noch heute geredet, und für ganz extreme Leuts, hat Intel deswegen einen Mackel, auch wenn ich das wirklich nicht mehr verstehen kann.

Und ja klar, alles wird schwieriger, aber nVidia hatte ne Marktmacht, die Sie verspielt haben. Wenn Intel mit MIC kommt, wirds eh ganz heiß. Da werden die Karten neu gemischt und man wird erst mal sehen, wo sich wer einsortiert.

EDIT: @Lovesuckz:
Man nimmt halt das was man bekommen kann, und Alternativen tun sich am Horizont überdeutlich auf. Wie gesagt, viele Leute sind verärgert, und suchen halt Alternativen, die sich auch ergeben, da man Marktchancen sieht, da eben sich die Leute nach Alternativen umsehen. Und die grünsten sind Sie nicht.... Also bitte keine Unwahrheiten verbreiten... http://www.green500.org/lists/2011/11/top/list.php ein Ati System is effizienter und BlueGene ist deutlich effizienter als jedes System mit nVidia Karten drin.

Das ist es halt, was ich mein. Schau mal, da werden Radeons eingestzt... :ugly: Dabei haben die nicht mal ECC. GCN wird aber ECC haben, und das ist für viele halt ein K.O. Kriterium. nVidia muss sich daher schon ins Zeug legen.

EDIT2:
Das PetaFlop hatte ich überlesen. Da haste recht. Ist aber auch keine Kunst, wenn es gerade mal 10 Stück gibt, die das nicht nur im Peak schaffen. Die ganzen IBM Systeme sind älter die über 1PFlop schaffen. Die neuen BlueGeneQ von 2011 sind halt alle kleiner als 1PFlop, aber deutlich effizienter als die Rechner mit den nVidia. Schaumer nochmal in nem Jahr.

Hübie
2011-12-17, 15:18:10
Du musst aber die Gesamtkosten eines Systems sehen, nicht nur den Anschaffungspreis. Die 200% Mehrkosten können sich je nachdem auch wieder über die Laufzeit amortisieren, wenn du entsprechend viel Vollast hast.

Ja aber du musst die ja deutlich länger im Einsatz haben. Ich wechsel so nach max. 2 Jahren. Unternehmen sicher deutlich später. nVidia generiert aber ein Gross des Geldes aus dem consumermarket.

Bzgl. der Supercomputer habe ich jetzt keine Lust zu recherchieren, daher lass ich das mal so stehen. Non-ECC auf AMDs Karten ist für jedes Labor ein absolutes K.O. Kriterium. Aber auch die Treibergeschichte ist ein Grund warum AMD dort noch keinen Fuß in die Tür setzen konnte. Nach dem was ich so gehört habe (ja auch ich kann mit solchen Menschen reden - Pharmazeutiker/Materialprüfer/Statiker) ist niemand so angepisst wie du es darstellst. Die sind eher glücklich mit einem Rechner der etwa so groß wie eine Europalette ist nun das berechnen können was vorher einen Raum ausfüllte und machen sich herzlich wenig Gedanken darum was nVidia mal versprach und letzendlich einhielt/einhalten konnte.
Ich denke es kommt vllt. aufs Anwendungsgebiet an.

Skysnake
2011-12-17, 15:29:20
Naja, bei mir warns halt Astronomen, die sich wirklich nen recht großes Ding hinstellen wollten, weils selbst damit noch sehr lange dauert bis es Ergebnisse gibt.

Man muss auch immer schauen, wie Tief die Leute drin sind. Nicht jeder weiß ja von den ursprünglichen Zielsetzungen. Die Leute von denen ich rede sollten aber eine der ersten Maschinen bekommen. Wenn ichs recht im Kopf hab war der Rechner für den Zeitraum der ursprünglichen Markteinführung gedacht, oder kurz davor. Die kannten halt z.B. auch die ursprünglichen Daten eben mit nem Vollausbau und weniger Leistungsaufnahme als es am Ende war. Klar, das Ding ist noch immer besser als wenn Sie sich was anderes geholt hätten, aber A+ Ware versprochen und A oder B+ Ware bekommen. Ist halt wie mit dem 1001 PS Auto, das du dir kaufst, und am Ende sind es nur 900 PS. Noch immer mehr als genug, aber du kommst dir ziemlich verschauckelt vor.

Wie gesagt, die Karten werden neu Gemischt. AMD bringt ECC und SIMD. nVdia kann man noch nicht sagen, außer halt Effizienzsteigerung und Intel bringt MIC, der nach allem was man hört böse rocken soll, aber ziemlich böse auf sich warten lässt.

Wenn AMD jetzt noch die Linux-Treiber in den Griff bekommt, dann wirds spannend für uns und anstrengend für nVidia.

Du musst ja mal überlegen, aus welcher Situation Sie mit den ersten Teslas kamen. Wir sind der King und neben uns gibt es keine Alternative, über die es sich lohnt Gedanken zu machen, was mit Fermi ja genau so vorgesehen war weiter zu führen, dann aber nicht geklappt hat.
EDIT noch was in meinem Post zuvor hinzugefügt unter EDIT2

Hübie
2011-12-17, 15:34:07
MIC? Sorry steh grad auf dem Schlauch...
http://www.die-verdammten.at/fotos/20061007/03.jpg

AwesomeSauce
2011-12-17, 15:34:40
@Syksnake
So interessant deine Einblicke auch sein mögen, deine Kommentare sind extrem mühsam zu lesen. In diesem Forum geht es doch in erster Linie um den Grafik-Aspekt einer GPU. Gibt es kein GPGPU-Forum wo du dich austoben kannst?

y33H@
2011-12-17, 15:37:00
@ Hübie

Larrabee ;-)

Hübie
2011-12-17, 15:38:39
Da muss ich dir wiedersprechen, AwesomeSauce. Das ist weder im startpost noch im threadtitel ersichtlich. Zu einer Architektur gehören eben sämtlich Aspekte. Wir können auch 3 Seiten mit den Displayausgängen füllen und würde nicht OT werden.

btw: Beim Fermi ists technisch nicht möglich im P12 zu gehen wenn ein 120 Hz Monitor angeschloßen ist (warum auch immer). Da hoffe ich auch mal auf Besserung da es ja doch schon einiges an Mehrverbrauch ausmacht.

@y33H@: Wie kommt man von Larrabee/Knights Corner auf die Bezeichnung MIC?

Skysnake
2011-12-17, 15:47:11
Weil das der direkte Nachfolger davon ist.

Ich versuch jetzt mal die chronologische Reihenfolge auf zu zählen :ugly:

Larrabee->FerryKnights->KnightsKorner(->ManyIntegratedCores)

In Klammern deswegen, weil es einfach ein direkter Nachfolger ist, Intel aber meint, das es NICHTS damit zu tun hat, aber irgendwie teilt niemand! außer Ihnen diese Ansicht :ugly:

Hübie
2011-12-17, 16:51:23
Ah. MIC=many integrated cores. Danke für die Aufklärung ;D

Skysnake
2011-12-17, 17:07:23
kein Ding, da muss man bei Intel nicht mehr durchsteigen.

aylano
2011-12-17, 21:05:30
G92 kam vor RV670

Jupp, dieser Vergleich war fehl am Platz (Hab es mit GT200 verwechselt), auch wenn G92 nur in deaktivierter Form zuerst kam.
Wenn GCN kein Flop wird, kann sich Nvidia solche Teildeaktivierungen nicht mehr leisten.


GT200 kam vor RV770

:rolleyes:
Nicht umsonst schrieb ich "oder als geplant".

GT200 hätte viel früher kommen sollen. GT200b detto. Und der GT200b brauchte ja auch noch das 3. Stepping.
Nach GT200 waren die Gerüchte/Spekulationen an Sept fixiert und er kam dann 1Quartal später.



nur GF100 hatte probleme, die nicht mal was mit der fertigung zutun hatte (obwohl die 40nm Ausbeute extrem schlecht war)

Es redet ja auch keiner von fehlenden 16.Block.
GT400 wäre auch ohne fehlendem 16.Block 2Quartele später gekommen und daran liegt das Problem.

Mit GTX480 konnte sich Nvidia noch mit steigenden Stromverbrauch übers Wasser halten.
Wenn so ein Schritt nochmal kommt, dann wirds für Nvidia komplizierter, was eventuell eine Verspätung bringen kann.


Sogar GF110 kam vor RV970/Cayman
Nur was das keine neue Fertigung. Der Refresh-Vorsprung ist bei weitem nicht so wichtig wie der Vorsprung bei einer neuen Fertigung.
Da ist es auch nicht unwichtig, wenn man einen gewissen Abstand zum Vorgänger hat.

Motörhead_for_ever
2011-12-18, 00:13:30
Ich find diesen Bericht hier bis jetzt super erklärt: http://www.3dcenter.org/news/2011-12-13
Ich hoff der GK104 wird auch auf der Kepler Architektur basieren und etwas über der 580 liegen wenn sich das bewahrheiten sollte hoff ich die Karte kommt im Januar oder Feb,
ich sehe es schon kommen beim nächsten Nvidia Treiber funktioniert das SLI einschalten bei mir wieder nicht.
Meine nächste Karte wird ganz sicher eine und sicher nicht mehr so ein Gedönz wie ich es hier hatte/ evtl in ein paar tagen wieder haben werde.

AwesomeSauce
2011-12-18, 00:42:01
Ich hoff der GK104 wird auch auf der Kepler Architektur basieren und etwas über der 580 liegen wenn sich das bewahrheiten sollte hoff ich die Karte kommt im Januar oder Feb
Natürlich wird GK104 auf Kepler-Architektur basieren.

ich sehe es schon kommen beim nächsten Nvidia Treiber funktioniert das SLI einschalten bei mir wieder nicht.
Meine nächste Karte wird ganz sicher eine und sicher nicht mehr so ein Gedönz wie ich es hier hatte/ evtl in ein paar tagen wieder haben werde.
Hat hier nichts zu suchen.

Ailuros
2011-12-18, 08:14:03
Dann wär ich genau wie alle anderen abhängig von dem was die Großkopfeden sagen und was halt TSMC liefert. Das hätte an der ganzen Sache rein gar nichts geändert. Aber ich mach den Engineers ja auch keinen Vorwurf. Huang hat nicht mit offenen Karten gespielt. DAS ist das Problem an der Sache.

Gut wenn das Problem das marketing ist dann ist AMD alles andere als unschuldig momentan. GPUs wuerden durch 2011 mehrere Male noch fuer 2011 versprochen. Ja wo sind sie denn? Und leider werde ich die gleiche Frage etwas anders formuliert auch im Januar fragen. Es ist eben nicht so dass bei AMD alles immer nach Plan laeuft und dass ihr Marketing die Mutter aller Unschuld ist.

Jensen ist das was er ist und zumindest weiss ich schon seit etlichen Jahren um wen es sich handelt, seine Vor- und Nachteile. Bei AMD kann ich momentan niemand verantwortlichen fuer das SI Schlammassel finden weil er einfach nicht mehr bei AMD arbeitet.

Dafür bekommt AMD halt auch auf die Fresse, was die Maximalleistung und eben auch die Effizienz bzgl der Auslastung betrifft. Was bringen mir die tolle Rohleistung der VLIWX Architektur, wenn ich in 95% der Fälle einfach extrem abkack was die Effizienz anbelangt, weil die Caches etwas zu klein sind und auch ansonsten sich die ALUs einfach nicht gescheit auslasten lassen. Eben REIN GAR NICHTS. Die Diskussion hatte ich erst mit nem Studienkollegen. Der war wie halt viele extrem auf nVidia fixiert. Meint ich zu ihm: "Also ich würd halt erst mal schauen, was fürn Problem ich hab und ob sich das auf die AMD Karten gut mappen lässt. Denn wenn ja kannste halt die hohe Rohleistung ausspielen. Wenn das aber nicht der Fall ist, nimm ne nVidia, die ist weniger Empfindlich was das mapping des Problems anbelangt. Die bricht einfach nicht so extrem schnell ein wie die AMD Karten. Außer du willst DP und hast kein Geld für ne Tesla, dann nim auch ne AMD, weil die nicht beschneiden (noch)"

nVidia hat scheise gebaut, und dafür bekommen se halt Dresche. Genau wie AMD Dresche für die verkackten Linux Treiber bekommt. Die sollen wirklich schlecht sein. Für GPGPU sind die Linuxtreiber aber auch sehr wichtig, weil viele Leute da eben Linux-System am laufen haben. Die können noch so ne gute Architektur mit GCN hinbekommen, wenn die die Linux-Treiber nicht gebacken bekommen, dann können sich das Ding sonst wo hin schieben, das wird keiner kaufen. Allein wie lange man nur 256 (500) MB des RAMs nur nutzen konnte (kann sein dass das sogar noch immer nicht gefixed wurde) ist halt einfach nur ne blamasche. Mit GCN muss das anders laufen!

Es gibt keine Perfektion auf keiner Seite. Engineers basteln das bestmoegliche fuer jeden gegebenen Zeitpunkt zusammen. Sonst haben beide IHVs eine Reihe von idiotischen Design-Entscheidungen, die Exemplare mit der groessten Anzahl dieser NV30 und R600.


Jup nVidia hat mit dem GF110 einen echt richtig richtig guten Chip hingelegt. Den Würde ich zu 99% auch den AMDs vorziehen. Zumal eben AMD mit Cayman auch Mist gebaut hat. Die Effizienz wurde verschlechtert...

Nun stell Dir vor GF110 war nichtmal zu 100% gefixt was das eigentliche GF100 Problem betraf. Ein paar Pflaster links und rechts und ja da das Resultat um einiges besser war merkt man auch nichts davon. AMD hat keinen Mist mit Cayman gebaut; es war eben anfangs NIE ein 40nm Cypress Nachfolger geplant. Erzaehl mal wie man theoretisch einen 32nm Design in 40nm genau quetscht, ueberhaupt bei so grossem Zeitmangel?

Cypress war/ist wirklich nen richtig guter Chip, was Effizienz anbelangt, und er steht halt noch viel besser da, weil nVidia da halt gefailt hat. So ist er im Bewusstsein vieler zu nem bomben Chip geworden statt nur einem sehr guten Chip.

Momentchen darueber wo am meisten damals gemeckert wurde ist HPC fuer GF100 und dergleichen. Es war wohl so viel "Ueberfluss" und "Bloedsinn" damit es heute in GCN in voller Pracht auftaucht. Ist ja nicht an Dich gerichtet, aber eben den typischen Scheiss den ich links und rechts gelesen habe. Und nein es drohte AMD nicht nur NV sondern auch Intel's LRB. Fuer HPC haben beide IHVs Intel nie intern unterschaetzt.

Sag ich auch nicht das AMD nur gute Sachen macht. Die bauen auch genug Mist. HD6k ist für mich z.B. einfach ein Stillstand/Rückschritt. In meinen Augen kein soo toller Chip.

Lang wirste auch nicht warten müssen, bis ich über AMD motze wie nen Rohrspatz. Wenn die die beschnittene DP Leistung für die Radeons einführen, dann werde ich das bei jeder Gelegenheit aufs Brot schmieren. Damit sind Sie kein Stück besser als nVidia... Mich kotzt es jetzt schon an, dass das kommen wird..... :mad:

Tja wie soll dann sonst ein IHV den eigentlichen HPC Kunden dazu treiben die Mordspreise einer HPC GPU zu bezahlen? Afaik wird es fuer desktop 1:4 bleiben und mit aller Wahrscheinlichkeit dann vielleicht doch 1:2 fuer HPC. Immer noch besser als 1:8 auf Fermi und Knights Corner ist sowieso nicht bezahlbar, ergo gibt es auch hier nichts besonders standhaftes zu meckern.

Die sock-puppet Seifenoper seitens AMD fuer den angeblichen fruehen launch dann wohl eher; AMD hat eben leider keinen Jensen der ein Holzschrauben-Exemplar diesen Monat in die Luft fuer die Presse halten wuerde.

Ich find diesen Bericht hier bis jetzt super erklärt: http://www.3dcenter.org/news/2011-12-13
Ich hoff der GK104 wird auch auf der Kepler Architektur basieren und etwas über der 580 liegen wenn sich das bewahrheiten sollte hoff ich die Karte kommt im Januar oder Feb,
ich sehe es schon kommen beim nächsten Nvidia Treiber funktioniert das SLI einschalten bei mir wieder nicht.
Meine nächste Karte wird ganz sicher eine und sicher nicht mehr so ein Gedönz wie ich es hier hatte/ evtl in ein paar tagen wieder haben werde.

Ich weiss nicht wer den Bericht zusammengeloetet hat, aber jemand war etwas zu voreilig und wird sich vielleicht gezwungen sehen das Ganze nochmal von Anfang an auszulegen.

Da muss ich dir wiedersprechen, AwesomeSauce. Das ist weder im startpost noch im threadtitel ersichtlich. Zu einer Architektur gehören eben sämtlich Aspekte. Wir können auch 3 Seiten mit den Displayausgängen füllen und würde nicht OT werden.


Huebie hat Recht Mr. AwesomeSauce (thread-starter). So lange HPC ein Anteil von heutigen GPU chips ist, kann man es leider nicht von einer GPU Architektur Diskussion abkapseln.

Du musst Skysnake auch verstehen; fuer das was er GPUs eigentlich brauchen wird sind die wirklichen HPC GPUs schwer bezahlbar fuer den Normal-Verbraucher. IHVs kastrieren eben gerne DP und/oder Geometrie damit im Fall NV die eigentliche Kundschaft Teslas bzw. Quadros kaufen wird.

Skysnake
2011-12-18, 11:08:24
ja, und das macht der Geldbeutel einfach nicht mit, und wenn man wirklich schauen will, was geht und wie man die eigene Programme auf die verschiedenen Architekturen mapped, dann sind die kleinen Versionen immer blöd, weil man irgendwo immer nen Hacken hat.

Mit dem 1:4 haste natürlich recht, das ist immer noch mehr als bei nVidia, und ich hoffe ja, das sich nvidia dazu genötigt sieht auch auf 1:4 hoch zu gehen,
, aber ich habe da wenig Hoffnung. Mich kotzt es halt an, weil ich fullspeed bis jetzt bei AMD hatte und nun nicht mehr. Ob das jetzt freiwillig war oder nicht spielt für mich jetzt keine Rolle. Zudem seh ich jetzt fullspeed DP nicht als alleiniges Argument für HPC an. DRei haben noch immer ECC und ganz zu schweigen von Bibliotheken und anderen Treibern, die die Karten MPI-fähig machen. Die sollen da einfach einen Mehrwert bieten. Die Leute würden es ihnen danken.

Aber man kann die Beschneidung verkraften, die Karten sind halt billig, zum debuggen kann man float nutzen und für das eine oder andere Produktivsystem wird es sich dennoch lohnen. Mir war's aber wie gesagt lieber, wenn die Leute aus anderen Gründen einfach gar nicht auf die Idee kommen würden ne GeForce zu nehmen. Das würde mich als jemand der das nicht in einem großen Produktivsystem nutzt dann hoffentlich nicht betreffen.

LovesuckZ
2011-12-18, 14:35:24
:whistle:

http://i41.tinypic.com/29ngqi9.png
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5018039&viewfull=1#post5018039

Fake, aber toll wär's.

Sunrise
2011-12-18, 14:50:16
:whistle:

http://i41.tinypic.com/29ngqi9.png
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5018039&viewfull=1#post5018039

Fake, aber toll wär's.
Derjenige, der die Folie erstellt hat, scheint dann aber gut getroffen zu haben, so unplausibel sieht das für mich nämlich garnicht aus. Die mir mitgeteilten ~200W (180W-220W) treffen zumindest mal zu, das Interface würde auch zu den restlichen Angaben passen.

Auch passen die herumschwierenden ungenauen Angaben über GFX und ALU-Taktraten ins Bild. Wir werden sehen.

G 80
2011-12-18, 14:58:56
3 GB Ram findest du passend? Auch wenns schön wär, die sind viel zu geizig dafür.... Je nach SI wirds in dieser Leistungsklasse 1,5 - 2 GB; und später erst die "verdoppelten" - natürlich gegen Aufpreis.


Aber ja, schöner Fake.

LovesuckZ
2011-12-18, 15:03:19
Mir diesem Daten würde man locker 50% zur GTX580 erreichen. Das verkauft man dann auch für 500€+. Und 3GB sind auch wegen der Konkurrenz wichtig und das kann man sich gleich nochmal vergolden lassen.

Achja, mit 1,25 TFLOPs und 180 Watt wäre man eigentlich genau dort, wo ich die neue Generation (wenn auch als Tesla) einschätzen würde...

Sunrise
2011-12-18, 15:09:07
3 GB Ram findest du passend? Auch wenns schön wär, die sind viel zu geizig dafür.... Je nach SI wirds in dieser Leistungsklasse 1,5 - 2 GB; und später erst die "verdoppelten" - natürlich gegen Aufpreis.


Aber ja, schöner Fake.
NV verbaut bei einem 384bit Interface bereits 1,5 oder 3GB. Auch AMD verbaut mit Tahiti 1,5 oder 3GB und selbst wenn AMD sagt, dass das deren "High-End" darstellt, wird NV hier mit einer Performance-Karte mit einem sehr guten Preis/Leistungsverhältnis kontern, da GK110 später erscheint.

Geizig hat damit nicht im Geringsten etwas zu tun. Das sind auch Verkaufsargumente, auf die ein Käufer schaut.

G 80
2011-12-18, 15:23:22
Einfach nicht bei den Sparfüchsen. Entweder müsste dann GF 1x0 weiter weg sein (dann wäre das aber keine x60, denn das letzte was NV interessiert ist Inflation oder gar Konsistenz im Namensschema) damit die Karte eine Weile das SGPU Flaggschiff ist oder eben der Speicher geringer.
Die 780 verkauft man dann sonnst für 900+ €?

Zeig mir mal irgendeine Karte nach 88GTX und 2900 XT die einen derartig üppigen Vram Ausbau im Rev.Design haben?

Ich frage mich allerdings was sonnst eine hyp, 780 für einen Ausbau hätte. 512 Bit mit 4 GB sind dann ja wohl das mindeste ..... dann später die verdoppelten .. ;D


Aber ok in paar Monaten können wir schauen: Mein Tip: GK 1x0Flaggschiff 2-3 GB, darunter wie schon oben erwähnt. Verdoppelte die später kommen außen vor.

AwesomeSauce
2011-12-18, 16:08:53
Ich dachte, GK104 hätte ein 256-bit Meminterface, ergo 2GB VRAM.

Knuddelbearli
2011-12-18, 16:20:18
hmm da GK1104 und GK100 sich mal wieder so unterschiedet ( und es hier sowieso nur mehr um kepler geht ) könnte man mal aufsplitten für bessere übersichtbarkeit?

LovesuckZ
2011-12-18, 16:22:39
Hä? Es sind alles Kepler-GPUs.

Knuddelbearli
2011-12-18, 16:24:12
ja aber die ausrichtung unterschiedet sich enorm. mich interessiert nur der gk104 da ich überlege ob ichw arten soll bis nv seine karten draußen hat.

und da sich die architekturen massiv ( noch massiver als in der 5er generation ) unterscheiden wären 2 Threads eigentlich sinnvoll.

AwesomeSauce
2011-12-18, 16:25:58
und da sich die architekturen massiv ( noch massiver als in der 5er generation ) unterscheiden wären 2 Threads eigentlich sinnvoll.
Worin unterscheiden sie sich denn?

Sunrise
2011-12-18, 16:28:03
Ich dachte, GK104 hätte ein 256-bit Meminterface, ergo 2GB VRAM.
Ich kann nur für mich sprechen und dir sagen, dass ich ein 384bit Interface für realistisch halte, bei einer spekulierten Die-Size um GF114 (entspricht ja in etwa Tahiti). Ob die letzte Info von Ailuros 100% sicher ist, weiß ich nicht, das musst du ihn fragen. Das geleakte mobile Lineup von der 600er Serie spricht von einem 256bit Interface. Für mich sieht die obere Folie nach einem stark optimierten 28nm Shrink von Fermi aus. Und genau das erwarte ich von Kepler. Ob die Folie jetzt echt ist oder nicht, die Angaben klingen IMHO plausibel.

GK110 sollte dann deutlich mehr in die Breite gehen.

AnarchX
2011-12-18, 16:38:31
Ich dachte, GK104 hätte ein 256-bit Meminterface, ergo 2GB VRAM.
Wie die GTX 550 Ti/460 v2 zeigt, ist man da mittlerweile doch um einiges flexibler. Da wäre wohl auch ein 3GiB 256-Bit Karte als optisches Konkurrenz-Produkt zu den 3GiB 7900ern möglich.

Knuddelbearli
2011-12-18, 16:42:58
die dann trotdzem bei allem über 2GiB massiv einbrechen ...

AnarchX
2011-12-18, 16:45:10
hmm da GK1104 und GK100 sich mal wieder so unterschiedet ( und es hier sowieso nur mehr um kepler geht ) könnte man mal aufsplitten für bessere übersichtbarkeit?
Hä? Es sind alles Kepler-GPUs.
Mit zunehmenden Gerüchten wäre wohl ein Split von Maxwell langsam sinnvoll.
Wenn es eine definitive/offizielle Roadmap für die Kepler-GPUs gäbe, könnte man ähnlich, wie Northern Islands zu jeder GPU ein Thread erstellen, wo sich die jeweilligen Interessenten dann informieren können.

AnarchX
2011-12-18, 16:46:14
die dann trotdzem bei allem über 2GiB massiv einbrechen ...
Fraglich ob bei >2GiB Worksets noch so eine große Last auf dem IMC legt, im Endeffekt wäre es aber trotzdem noch schneller, als über den PCIe auzulagern. Aber vielleicht gibt es 2012 auch 4GiB Karten und im Low-End 8GiB DDR3 :ulol:.

Ailuros
2011-12-18, 18:13:41
Ich kann nur für mich sprechen und dir sagen, dass ich ein 384bit Interface für realistisch halte, bei einer spekulierten Die-Size um GF114 (entspricht ja in etwa Tahiti). Ob die letzte Info von Ailuros 100% sicher ist, weiß ich nicht, das musst du ihn fragen. Das geleakte mobile Lineup von der 600er Serie spricht von einem 256bit Interface. Für mich sieht die obere Folie nach einem stark optimierten 28nm Shrink von Fermi aus. Und genau das erwarte ich von Kepler. Ob die Folie jetzt echt ist oder nicht, die Angaben klingen IMHO plausibel.

GK110 sollte dann deutlich mehr in die Breite gehen.

NV hat quasi bestaetigt dass der hotclock weg ist im Austausch fuer viel mehr ALUs und eine relativ hohe Frequenz. Ich hab vor einigen Tagen weit ueber 2 TFLOPs fuer GK104 erwaehnt und da ist es normal dass solche merkwuerdige Thesen zu Tag kommen. Selbst wenn die Konstellation so waere wie in dem Fake, glaube ich einen hotclock von 2.45GHz erst wenn ich ihn sehe. Und dazu noch nur ein TDP von 180W :rolleyes:

Ich bin mir zu 100% sicher dass ich falsch liege aber mit meinem Halbwissen hier ist mein spekulativer Scheiss in Reaktion zu bunten fake slides:

24 SMs (3*16) = 1152 SPs @1.1GHz = 2,534 TFLOPs
4 GPCs (6 SMs/GPC), 4 raster/trisetup units (8 pixels/raster)
96 TMUs * 1.1GHz = 105.6 GTexels/s
32 ROPs * 1.1GHz = 35.2 GPixels/s
5.5Gbps @256bit = 176 GB/s

WARNUNG: fuer die besonders Blinden; Spezifikationen sind NICHT echt sondern frei ERFUNDENE Spekulation.

***edit: Tahiti duerfte ein bisschen groesser sein als GF114.

Skysnake
2011-12-18, 23:08:07
Ja, als ich die 2,45GHz gelesen habe, musste ich auch mal kurz herzhaft lachen :D

Sunrise
2011-12-18, 23:27:06
Ich bin mir zu 100% sicher dass ich falsch liege aber mit meinem Halbwissen hier ist mein spekulativer Scheiss in Reaktion zu bunten fake slides:

24 SMs (3*16) = 1152 SPs @1.1GHz = 2,534 TFLOPs
4 GPCs (6 SMs/GPC), 4 raster/trisetup units (8 pixels/raster)
96 TMUs * 1.1GHz = 105.6 GTexels/s
32 ROPs * 1.1GHz = 35.2 GPixels/s
5.5Gbps @256bit = 176 GB/s
Deinen "spekulativen Scheiss" lese ich immer noch lieber als manch' anderen Kommentar. Diese brachiale Rechenleistung mit dem Sparbrötchen-Interface gefallen mir allerdings nicht sonderlich. Aber irgendwo müssen wohl Kompromisse eingegangen werden, wenn es denn wirklich so kommen sollte.

Hugo78
2011-12-19, 08:07:03
die dann trotdzem bei allem über 2GiB massiv einbrechen ...

Na zum Glück betrifft das ja nur 0,00000000000000000000000000000001% aller Spiele.

dargo
2011-12-19, 08:41:16
:whistle:

http://i41.tinypic.com/29ngqi9.png
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5018039&viewfull=1#post5018039

Fake, aber toll wär's.
Eine Performance-Karte mit gleich 3GB Vram halte ich eh für unrealistisch (außer höchstens später mit Custom-Designs). Wenn schon dann 1,5GB. Die High-Ends Grakas dann mit 2GB an einem 512Bit SI.

Mir diesem Daten würde man locker 50% zur GTX580 erreichen. Das verkauft man dann auch für 500€+.
Hä? Eine Performance-Karte @GTX760 für 500€+ verkaufen? :|

Dural
2011-12-19, 11:20:50
Ja, als ich die 2,45GHz gelesen habe, musste ich auch mal kurz herzhaft lachen :D

auch wenn es ein fake ist... im takt sehe ich jetzt die kleinsten probleme...

Skysnake
2011-12-19, 11:32:37
Der ist schon massiv angestiegen, und man sieht ja was für Säufer die heutigen GPUs schon werden, wenn man den Takt etwas steigert.

Du musst dir ja immer vor Augen halten, was nVidia für eine Aussage bzgl. der Flops/W getätigt hat. Das steht im Widerspruch zu so massiv angezogenen Taktraten.

LovesuckZ
2011-12-19, 11:36:43
Hä? Eine Performance-Karte @GTX760 für 500€+ verkaufen? :|

Die GTX560 TI ist auch deutlich schneller als eine GTX285. Sie wird nur deswegen für 200€ verkauft, weil die Marktsituation es nicht anders erlaubt.

Wenn die Kepler-Performance-Karte 50% sein sollte, dann verkauft sie nVidia auch dementsprechend. Es hat schon seine Gründe, warum immer zuerst das High-End eingeführt wird. ;)

Nightspider
2011-12-19, 11:47:06
Selbst ne GTX460 konnte mit DX11 Vorteilen 10-40% schneller sein als ne GTX285.

dargo
2011-12-19, 11:48:18
Die GTX560 TI ist auch deutlich schneller als eine GTX285. Sie wird nur deswegen für 200€ verkauft, weil die Marktsituation es nicht anders erlaubt.

Wenn die Kepler-Performance-Karte 50% sein sollte, dann verkauft sie nVidia auch dementsprechend. Es hat schon seine Gründe, warum immer zuerst das High-End eingeführt wird. ;)
Eine Performance-Karte wird niemals für 500€+ angeboten, das ist völliger Unsinn. Dabei spielt es keine Rolle ob sie die GTX580 schlägt. Was soll dann eine GTX780 kosten? 800-900€? :| Bei solchen Preisen werden die Karten wie Blei in Regalen liegen. Die Leute sind nicht mehr bereit soviel Geld in eine Graka zu stecken. Die Zeiten sind schon lange vorbei.

LovesuckZ
2011-12-19, 11:52:55
Eine Performance-Karte wird niemals für 500€+ angeboten, das ist völliger Unsinn. Dabei spielt es keine Rolle ob sie die GTX580 schlägt. Was soll dann eine GTX780 kosten? 800-900€? :| Bei solchen Preisen werden die Karten wie Blei in Regalen liegen. Die Leute sind nicht mehr bereit soviel Geld in eine Graka zu stecken. Die Zeiten sind schon lange vorbei.

Ich bin nicht der Vertreter, dass nVidia zurerst den Midrange Chip bringt. ;)

Wenn zwischen Performance und High-End monate liegen, dann wird der Performance Chip für 400€+ verkauft werden. Alles anderes ist Wafer- und somit Geldverschwendung.

Ich hatte mal die Vermutung, sie machen wieder so etwas wie g92 <> GT200. Aber Huang's Aussagen sind ziemlich eindeutig, dass sie zur Zeit immer sofort den Prozess voll ausfahren.

dargo
2011-12-19, 11:55:40
Ich bin nicht der Vertreter, dass nVidia zurerst den Midrange Chip bringt. ;)

Wenn zwischen Performance und High-End monate liegen, dann wird der Performance Chip für 400€+ verkauft werden.Achso... sorry, habe das nicht mitbekommen, dass High-End erst Monate nach Performance kommt. Das ist aber blöd... :( Wann genau soll dann nun die GTX770/780 kommen?

LovesuckZ
2011-12-19, 11:58:24
Achso... sorry, habe das nicht mitbekommen, dass High-End erst Monate nach Performance kommt. Das ist aber blöd... :( Wann genau soll dann nun die GTX770/780 kommen?

Es steht bis jetzt überhaupt nichts fest. Einige sagen 3 Monate nach GK104, andere reden von 6. Ich sage, es kommt alles zeitnah.

Dural
2011-12-19, 13:37:30
und ich sage Sommer 2012, wie damals GT200 :)

der klein Kram wie GK104 wird schon "bald" kommen und wohl in direkter Konkurenz zu 7950/7970 stehen, wahrscheinlich etwas unten dran. NV ist dank guten OC zu oberst, die AMD versagen da eh immer weil sie so kompakt sind ;)

der letzte gute OC Chip von AMD/ATi war der R600...

AnarchX
2011-12-19, 13:42:07
AMD soll intern Tahiti auf 1,2GHz und 6,5Gbps übertaktet haben.

Dural
2011-12-19, 13:49:35
WOW das ist ja schon fast der bestwert von der 2900XT, da fehlen aber noch 150MHz ;D :freak: ;)


aber spass bei seite, mal gucken wie die neuen ALUs so takten.

Ailuros
2011-12-19, 14:48:21
Deinen "spekulativen Scheiss" lese ich immer noch lieber als manch' anderen Kommentar. Diese brachiale Rechenleistung mit dem Sparbrötchen-Interface gefallen mir allerdings nicht sonderlich. Aber irgendwo müssen wohl Kompromisse eingegangen werden, wenn es denn wirklich so kommen sollte.

Bei GF104 bzw. 114 war es auch nicht besonders besser. Im Gegenteil liegte so manche GFLOP "flach" dank ALU Konstellation und fehlender Bandbreite u.a. Es ist ja nur eine Performance GPU. Uebrigens hat 104 in etwa so viel Transistoren wie GF110.

LZ,

Projektionen sind afaik:

107/106 = 01
104 = 02/03
110 = 05/06

...wenn alles nach Plan laeuft blah blah blah.

AnarchX
2011-12-19, 15:31:35
107/106 = 01

Mobile-only oder auch Desktop? Im ersteren Markt, könnte man damit wohl auf High-End-Niveau landen.

Gibt es eigentlich schon Infos ob Nvidia auch die .1 mitbringt? :D

LovesuckZ
2011-12-19, 15:34:27
Mobile. Desktop für die kleinen Chips wird sich wohl eine ganze Weile hinziehen. Zuerst werden die IB-Notebook Kunden beliefert.

AnarchX
2011-12-19, 15:41:01
Ein 256-Bit@4Gbps GK106 könnte wohl das Leistungsniveau der GTX560(Ti) erreichen, was für die GTX 680 spekuliert wird.

Skysnake
2011-12-19, 15:42:25
Bei GF104 bzw. 114 war es auch nicht besonders besser. Im Gegenteil liegte so manche GFLOP "flach" dank ALU Konstellation und fehlender Bandbreite u.a. Es ist ja nur eine Performance GPU. Uebrigens hat 104 in etwa so viel Transistoren wie GF110.

LZ,

Projektionen sind afaik:

107/106 = 01
104 = 02/03
110 = 05/06

...wenn alles nach Plan laeuft blah blah blah.
Jetzt fragt sich nur, wie eng Sie die Zeitmarke gesetzt haben. Je nachdem, kann der Launch da erfolgen, oder auch erst jeweils 1-2 Monate später.

Wenn ich dran denk, das AMD wohl auch eher nen Paperlaunch hin legt, geh ich mal von nem Launch zu dem Datum aus, aber 4-6 Wochen nochmal oben drauf, bis die Karten wirklich bei den Händlern in mehr als homeopatischen Dosen eintreffen.

Coda
2011-12-19, 15:49:23
Uebrigens hat 104 in etwa so viel Transistoren wie GF110.
Err, das halte ich für ein Gerücht.

Ailuros
2011-12-19, 15:51:06
Es sind launch und nicht tape-out Projektionen. Aber Projektionen sind stets bedeutungslos wenn man nicht weiss ob chip A, B oder C produktionsreif mit A1 sind oder noch einen oder mehr metal spins brauchen. Afaik gibt es tape outs bis zu 104; ob jetzt noch spins notwendig waren keine Ahnung und rein aus der Luft gegriffen wuerde ich sagen dass 110 noch nicht sein tape out erreicht hat.

AnarchX
2011-12-19, 15:53:01
Err, das halte ich für ein Gerücht.
GK104 ~ GF110.

Tahiti liegt wohl bei 11,8 MioTr./mm², GK104 könnte wohl auch um die 9-10 MioTr./mm² liegen. Das wäre gegenüber GF104 schon eine größere Steigerung, als AMD von 40 zu 28nm erreicht hat.

Coda
2011-12-19, 16:02:03
Ach GK104. Ich war bei GF104, never mind.

Deinorius
2011-12-19, 20:16:12
Ich bin nicht der Vertreter, dass nVidia zurerst den Midrange Chip bringt. ;)

Wenn zwischen Performance und High-End monate liegen, dann wird der Performance Chip für 400€+ verkauft werden. Alles anderes ist Wafer- und somit Geldverschwendung.


Du vergisst bei der Betrachtung aber den Konkurrenten.

Skysnake
2011-12-19, 20:19:21
Und deswegen muss wohl entweder nVidia aus ihrem Schema ausbrechen und relativ billige Karten anbieten, damit AMD auch von ihrem Preis runter muss, oder aber nVidia nimmt recht viel, und wir zahlen alle gesalzene Preise bis GK100 kommt, oder selbst danach, weil Sie eben dafür noch mehr zulangen, also allgemein das Preisgefüge sich wieder nach oben bewegt, was nicht im Interesse von uns Kunden wäre.

LovesuckZ
2011-12-19, 20:31:39
Du vergisst bei der Betrachtung aber den Konkurrenten.

Der spielt doch keine Rolle, wenn es um die Gliederung der eigenen Produkte geht. Der einzige Grund, warum man einen Midrange-Chip zu erst einführen würde, wäre ein massiver zeitlicher Vorsprung - siehe G92 und GT200.

Ansonsten wartet man direkt, bis auch der große Chip fertig ist. Weil man sich ansonsten selbst schaden würde - entweder wirtschaftlich (zu billig, viele kaufen schon) oder imagemäßig (massiver Preiseinbruch, da neues High-End).

Die spekulierten 30% von der 7970 sind im Grunde nichts, was 500€+ für irgend einer Karte rechtfertigen würde. Das erreicht man fast schon alleine durch einen reinen Shink + höhrere Taktrate. Oder hätte hier jemand 400€ für eine GTX560 TI oder 5870 bezahlen wollen?!

AnarchX
2011-12-19, 20:44:40
Oder hätte hier jemand 400€ für eine GTX560 TI oder 5870 bezahlen wollen?!
Wie im anderen Thread gezeigt, ist das eben abhängig von den Preisen der Konkurrenz. Wenn NV die GTX 580 im Preis senkt, wird AMD wohl entsprechend reagieren. Mit G92 @$229 hat man eben auch die preisgesenkten HD 2900er Karten und AMDs 3800er UVP reagiert.

Deinorius
2011-12-19, 20:48:17
Der spielt doch keine Rolle, wenn es um die Gliederung der eigenen Produkte geht.


Natürlich spielt der eine Rolle, aber ok, da wir uns auf hypothetischem Boden befinden, du gesagt hast, wenn die 760 die Leistung von 580+50 % erreicht, die 7970 hingegen nur 580+30 %, dann wäre das so korrekt.

LovesuckZ
2011-12-19, 21:35:21
Wie im anderen Thread gezeigt, ist das eben abhängig von den Preisen der Konkurrenz. Wenn NV die GTX 580 im Preis senkt, wird AMD wohl entsprechend reagieren. Mit G92 @$229 hat man eben auch die preisgesenkten HD 2900er Karten und AMDs 3800er UVP reagiert.

Und die GTX280 mit knapp 50% Mehrleistung kostete dann $649. Ein Mehrpreis, der in keiner Relation zur Vorgängerkarte stand. Das selbe Spiel passiert jetzt auch zu erst bei AMD. Kaum Neuerungen, dafür ein saftiger Aufpreis. Zum Glück kann man dank 28nm den Stromverbrauch in Grenzen halten.

Natürlich spielt der eine Rolle[...]

Bitte immer erst selbst überprüfen, ob man die Texte verstanden hat. Es nervt dem gegenüber, alles dauern zu erklären. Wenn GK104 das schnellste für monate ist, wird er an der oberen Skala des möglichen plaziert. Ob das durch die Konkurrenzsituation 250€ (9800GTX) oder 480€ (GTX580) sein wird, ist dabei doch unerheblich. Man holt das Maximalmögliche aus den investierten Ressourcen raus. Alles andere ist Verschwendung.

Gipsel
2011-12-19, 22:36:18
Bitte immer erst selbst überprüfen, ob man die Texte verstanden hat. Es nervt dem gegenüber, alles dauern zu erklären.
Ja.
Aber ein wenig ist ein Forum auch dazu da, sich über die jeweiligen Ansichten auszutauschen. Und dazu gehört eben auch das Darstellen der eigenen. ;)

Deinorius
2011-12-20, 00:48:09
Bitte immer erst selbst überprüfen, ob man die Texte verstanden hat.


Done.

Es nervt dem gegenüber, alles dauern zu erklären.
Es ist schön, dass du versuchst, dich in meine Situation zu versetzen. Was für eine überraschend nette Geste von dir. :usweet:

So und jetzt bleibt nur zu sagen, dass man fähig sein sollte, zu verstehen, was andere schreiben, besonders wenn man selber gerne rummeckert, dass die eigenen Texte nicht verstanden werden. Immerhin hab ich gewissermaßen deinen Wisch ja in meinen vorigem Post quasi bestätigt. Und damit sag ich Gute Nacht.

Gipsel
2011-12-20, 01:31:28
So, nun ist gut. Zurück zum Thema!

AnarchX
2011-12-21, 15:26:37
Wäre es möglich, dass Kepler vielleicht auch von den 1D-ALUs weggeht?
Immerhin gab es ja mal diese Projektion, wo man von 3 FPUs pro CUDA-Core spricht: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7623791#post7623791

Gäbe es da irgendeine sinnvolle Konstellation für >1D-Shader?

Ailuros
2011-12-21, 15:44:43
Wäre es möglich, dass Kepler vielleicht auch von den 1D-ALUs weggeht?
Immerhin gab es ja mal diese Projektion, wo man von 3 FPUs pro CUDA-Core spricht: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7623791#post7623791

Project Echelon oder anders eine Generation nach Maxwell. Obwohl das Ding tatsaechlich nur eine Projektion aber fuer diese <20nm Generation ist.

Gäbe es da irgendeine sinnvolle Konstellation für >1D-Shader?

GCN ALUs koennte man je nach Perspektive entweder 1D oder Vec4 nennen oder irgend-etwas dazwischen. Definitionen zur Seite jegliche GCN CU besteht aus 4*16. Bei Fermi hatten wir 2*16 high end und 3*16 performance. Die eigentliche Loesung fuer's Raetsel duerfte in diesen Zahlen fuer Kepler liegen.

Gipsel
2011-12-21, 17:12:07
GCN ALUs koennte man je nach Perspektive entweder 1D oder Vec4 nennen oder irgend-etwas dazwischen. Definitionen zur Seite jegliche GCN CU besteht aus 4*16. Bei Fermi hatten wir 2*16 high end und 3*16 performance. Die eigentliche Loesung fuer's Raetsel duerfte in diesen Zahlen fuer Kepler liegen.
Wenn man es genau nimmt, ist es entweder 1D pro "Thread" (also denen im GPU-Sprech, die eigentlich nur Elemente eines Warps/einer Wavefront sind), oder wenn man die wirklichen Threads nimmt (also die Warps/Wavefronts), sind es physisch Vec16 und logisch Vec32 (nVidia) bzw. Vec64 (AMD). Von diesen breiten Vektor-ALUs gibt es pro CU/SM entweder zwei (GF100/110), drei (GF104/114 und kleiner) oder vier (GCN).

Ob mit Kepler jetzt zwei logische Vec32-ALUs kommen oder deren drei oder gar vier, keine Ahnung. Vermutlich wird es aber bei der logischen Größe von 32 bleiben (also die Warpgröße bleibt konstant). Bei G80/GT200 waren es physisch Vec8-ALUs (die über 4 Takte die 32 Elemente eines Warps abgearbeitet haben), bei GF1xx waren es physisch Vec16 (Warp über 2 Takte), maximal könnten sie physisch Vec32 verbauen (dann wäre der Hotclock praktisch automatisch weg bzw. würden die Scheduler dann auch damit laufen), aber da müssen wir uns überraschen lassen.

So oder so, falls die Hotclock wegfällt, bietet es sich an, das Scheduling sowieso komplett umzukrempeln, Stichwort niedrigere Latenzen. Dann noch ein Registerfile pro Vektor-ALU (und nicht eins für den kompletten SM) und es dürften die größten Stolpersteine für eine überproportionale Erhöhung der ALU-Zahl bei gleichzeitig verbesserter Energieeffizienz beseitigt sein (in jedem Fermi-SM läuft ein 8192Bit (!) Bus "über" alle Einheiten, um die mit den Operanden aus dem Regfile zu versorgen).

Das könnte dann oberflächlich GCN erstmal ziemlich ähnlich sehen, auch wenn das Scheduling immer noch komplett anders als bei AMD laufen dürfte (also unter der Haube trotzdem deutlich anders funktioniert).

|MatMan|
2011-12-21, 18:08:29
Was sind denn die Nachteile / Probleme bei einem Registerfile pro Vektor-ALU? Oder andersherum: warum gibt es sowas noch nicht? Bräuchte man nicht auch eine Kommunikation zwischen den verteilten Registerfiles?

Gipsel
2011-12-21, 18:35:05
Was sind denn die Nachteile / Probleme bei einem Registerfile pro Vektor-ALU? Oder andersherum: warum gibt es sowas noch nicht? Bräuchte man nicht auch eine Kommunikation zwischen den verteilten Registerfiles?
Gibt es doch bei GCN (und im Prinzip schon bei AMDs VLIW-Architekturen, aber da gibt es auch nur eine SIMD-Engine pro CU). Wenn die Vektor-ALUs alles können (man also keine SFUs benötigt) und jede Vektor-ALU einen eigenen Scheduler wie bei GCN bekommt (und Fermi hat ja immerhin auch 2 Scheduler, die müßten also nur z.B. einen Scheduler fest an eine Vektor-ALU pinnen), dann gibt es kaum Nachteile, aber wesentliche Vorteile (GCN benötigt nur einen 2048bit Bus über die Einheiten zur Anbindung an L1 und local memory statt den 8192bit bei Fermi, Operanden für die normalen Operationen müssen nicht über diesen Bus übertragen werden, spart Strom/erhöht Energieeffizienz, senkt die Latenz beträchtlich).

Man kann einen Nachteil konstruieren, falls die Scheduler mehr als einen universellen Issue-Port haben, also z.B. zwei ALU-Befehle absetzen könnten. Dies wird man aber natürlich nicht haben, da ja die Befehle von einem Scheduler nur in genau einer Vektor-ALU ausgeführt werden können (weil die Werte aus den Registern nicht an eine andere Vektor-ALU übertragen werden können [bzw. nur über den Umweg des local memory]). GCN hat zwar z.B. pro Scheduler 6 Issue-Ports (kann aber maximal 5 Befehle gleichzeitig absetzen), allerdings sind die fest mit einer bestimmten Einheit (vALU, sALU, Branch, LDS, vMemory, Export) verbunden, also nicht universell (und alles außer den vALUs wird von allen Schedulern in einer CU geteilt).
Als prinzipieller Nachteil bleibt ein etwas schlechteres Load-Balancing zwischen den Vektor-ALUs einer CU/eines SMs übrig (GCN hat Load-Balancing für die geteilten Einheiten, nicht über die vALUs). Allerdings halte ich das gegenüber den Vorteilen auf Seiten der Einfachheit und Energieeffizienz für weitgehend verschmerzbar (und in der Praxis außerhalb von speziellen Codes mit wenigen Threads, die das Verhalten triggern, als recht kleines Problem).

|MatMan|
2011-12-22, 01:12:56
Vielen Dank - scheint also nur eine Frage der Zeit zu sein bis nVidia sowas auch umsetzt...

Winter[Raven]
2011-12-22, 13:49:33
Für wann ist noch mal das Release geplant? :freak:

Skysnake
2011-12-22, 13:53:36
Die aller ersten Karten sollen Januar oder Februar kommen. Werden aber wohl erst Mobile-Produkte sein (GK107?), dann die kleine GK104.

Die soll aber langsamer als die 7970 sein. Dafür ist der GK100 vorgesehen, welcher aber wohl erst Ende Q2 Anfang Q3 kommen wird, wenn man den Gerüchten glauben schenken darf. Da kanns aber sicherlich auch locker 3 Monate später oder ein Monat früher werden. Ist ja noch ne lange Zeitspanne. Man weiß halt nie wieviele respins ein Chip brauch.

Winter[Raven]
2011-12-22, 13:56:07
Hatte GK100 nicht sein tapeout?

Neurosphere
2011-12-22, 14:35:58
Die soll aber langsamer als die 7970 sein.

Da wäre ich mir garnicht so sicher. Zwar ist die 7970 teilweise verdammt schnell, im Schnitt sind es aber nur 20-25% vor der 580, sowas in die Richtung wurde vom GK104 auch gesagt. Lassen wir uns mal überraschen.

LovesuckZ
2011-12-22, 14:38:43
Also langsamer als die 7970 kann GK104 überhaupt nicht werden. Selbst die GF114 ist 30-40% schneller als die GTX285, hat dabei 39% mehr Transistoren, deutlich umgebaute Architektur und genehmigt sich knapp 40 Watt weniger.

AnarchX
2011-12-22, 14:41:15
Nur wird wohl GK104 keine 4,5Mrd. Transistoren haben. Laut Ailuros liegt man wohl eher bei den 3,2 von GF110.
In 1080p sollten die Chancen aber gut stehen, dass man mit der 7950 konkurriert und mit Werks-OC an die 7970 herankommt.

dildo4u
2011-12-22, 14:41:52
Ich denke nicht das NV die Mittelklasse Karte weit über 160Watt lässt,von daher wird sich die GK104 wie die 560Ti zur 6970 verhalten.

Neurosphere
2011-12-22, 14:47:51
Die Frage ist halt wie sich die Veränderungen an den ALUs auswirken und ob die wohl steigende Texturleistung durch die höher getakteten TMUs (es sei denn man reduziert die Anzahl wieder) für Veränderungen bei der Spieleperformance bringen.

Dural
2011-12-22, 14:52:05
naja NV wird beim GK104 ziemlich sicher mit 256Bit fahren und da wird es schon sehr schwer gegen die 7970, preislich wir die GPU aber auch ziemlich sicher in einer anderen liga spielen.

rein von den rohdaten her würde ja schon knapp ein GF110 @ 28nm @ etwas mehr Takt für die 7970 im schnitt reichen.

NV ist in einer ziemlich guten position, ich hoffe das sie es auch ausnützen werden und nicht eine auf "sparen" macht weil die konkurzen ja quasi nichts vorgelegt hat.

boxleitnerb
2011-12-22, 15:09:52
naja NV wird beim GK104 ziemlich sicher mit 256Bit fahren und da wird es schon sehr schwer gegen die 7970, preislich wir die GPU aber auch ziemlich sicher in einer anderen liga spielen.

rein von den rohdaten her würde ja schon knapp ein GF110 @ 28nm @ etwas mehr Takt für die 7970 im schnitt reichen.

NV ist in einer ziemlich guten position, ich hoffe das sie es auch ausnützen werden und nicht eine auf "sparen" macht weil die konkurzen ja quasi nichts vorgelegt hat.

Hoffe ich auch. Nur 40% Steigerung wäre zu wenig. Klar, man muss wirtschaftlich denken, Yields und so. Aber ich will mal wieder einen richtigen Kracher sehen. Darf gerne 500mm2 groß sein und 250W schlucken, wie gehabt eben.

Bucklew
2011-12-22, 15:13:33
Hoffe ich auch. Nur 40% Steigerung wäre zu wenig. Klar, man muss wirtschaftlich denken, Yields und so. Aber ich will mal wieder einen richtigen Kracher sehen. Darf gerne 500mm2 groß sein und 250W schlucken, wie gehabt eben.
Und dann den passenden Ivy-i7 :) Herrlich :)

Telema
2011-12-22, 15:26:24
40% bei einem GK104 zu wenig??? DAs ist doch der MidRange oder? Kepler aka GK100 kommt doch später?

Also mir würden 15 -20% schneller als GTX 580 schon reichen um meine GTX 480 auszumustern. Dann hätte ich zumindest ca 50% mehr Leistung.

Wenn dann Kepler nochmals ordentlich drauflegt dann passt das schon

boxleitnerb
2011-12-22, 15:32:58
Ich meinte 40% zum direkten Vorgängermodell. Also 40% schneller als GTX560 (Ti).

LovesuckZ
2011-12-22, 15:48:35
Man muss immer betrachten, dass nVidia mit Fermi eine ganze Generation vor AMD die selben Handlungsfelder umgesetzt hat. Und "Graphics" hat man für Compute- und Geometrieverbesserungen geopfert. Im grunde kann man sich jetzt fast 100% auf die Verbesserung des Perf/Watt Verhältnis konzentrieren, um diesen Makel auszubessern. Und je besser das Verhältnis, umso mehr Leistung kann man in bestimmte Powerbereiche quetschen.

boxleitnerb
2011-12-22, 17:45:06
Das hoffe ich. Ich befürchte allerdings, dass man diesmal wieder noch mehr in Richtung HPC gehen wird. Ist so ein Gefühl...

MadManniMan
2011-12-22, 18:03:52
In was für eine Richtung? HPWen?

AnarchX
2011-12-22, 18:06:03
High Performance Computing, also Server-Einsatz.

Im Endeffekt bietet das skalierbare Fermi-Frontend doch eine gute Basis für mehr Rechenleistung, die man auch in Spielen umsetzen könnte.

boxleitnerb
2011-12-22, 18:11:42
Sie könnten mal mit der Texturleistung endlich klotzen, damit man auch in hohen Auflösungen zum Stich kommt. 96 TMUs sollten es mindestens sein.

V2.0
2011-12-22, 19:01:44
NV geht mit dem GK104 sicher nicht in Richtung HPC. Dafür hat man GK110 und seine Varianten.

Hübie
2011-12-22, 19:03:13
Was ist mit den ROPs bei Kepler? Wirds mehr geben? Bei AMD sind wieder nur 32 - das check ich nicht.

boxleitnerb
2011-12-22, 19:05:45
Was ist mit den ROPs bei Kepler? Wirds mehr geben? Bei AMD sind wieder nur 32 - das check ich nicht.

Die können aber klar mehr als die Cayman ROPs, wenn du dir die Tests bei hardware.fr anschaust. Außerdem, ROPs alleine sind nur eine Seite der Medaille. Das Gesamtpaket muss stimmen.

Locuza
2011-12-22, 19:10:00
Gipsel meinte die ROPs waren am verhungern und damit hat er wohl auch recht gehabt. Ein AMD Mitarbeiter hat verlauten lassen, das man von den 32 ROPs von Cayman effektiv nur 22-24 versorgen konnte.
Es sollten wohl die gleichen ROPs sein?

Hübie
2011-12-22, 19:15:05
Die können aber klar mehr als die Cayman ROPs, wenn du dir die Tests bei hardware.fr anschaust. Außerdem, ROPs alleine sind nur eine Seite der Medaille. Das Gesamtpaket muss stimmen.

Ich bin der französischen Sprache nicht Herr. Ich habe auf HT4U gelesen das die belassen wurden.

Der Aufbau und die Anzahl der Raster-Operation-Prozessoren (ROPs) blieb im Vergleich zum Vorgänger-Chip unberührt. Quelle (http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index5.php)

AnarchX
2011-12-22, 19:15:08
Sie könnten mal mit der Texturleistung endlich klotzen, damit man auch in hohen Auflösungen zum Stich kommt. 96 TMUs sollten es mindestens sein.
Bei GK100 kann man wohl 128 TMUs erwarten.
Wenn man ein Hochtakt-Design anzielt, sind es vielleicht auch bis zu 256, die dann aber komplexe Formate in mehreren Taktraten verarbeiten.

Ansonsten konnte GF1xx dank guter Cache-Anbindung seine Texturfüllrate deutlich besser umsetzen, als AMD. Mal sehen wie Tahiti bei Techreports 16x Tri AF Test abschneidet.

boxleitnerb
2011-12-22, 19:28:52
Gabs dazu noch keinen Test?
Was ist denn so das gängigste Texturformat? Oder kann man das so nicht sagen?

AnarchX
2011-12-22, 19:38:54
INT8 ist wohl noch das häufigste. FP16 sollte für gewisse Beleuchtungs und Post-Effekte aber an Bedeutung dazu gewinnen, weswegen es NV auch auch ab GF104 in voller Geschwindigkeit implementiert hatte.

Hier mal ein Test der Füllraten dieser beiden Formate und eben mit 16x Tri AF: http://techreport.com/articles.x/20126/6

AwesomeSauce
2011-12-22, 20:09:57
Ich bin mir nicht sicher, ob es schon besprochen wurde: Wie sicher ist es, dass Kepler D3D11.1 konform sein wird?

LovesuckZ
2011-12-22, 20:10:58
Ich bin mir nicht sicher, ob es schon besprochen wurde: Wie sicher ist es, dass Kepler D3D11.1 konform sein wird?

Wer soll dir das beantworten? ;)

boxleitnerb
2011-12-22, 20:13:05
Was bringt DX11.1 überhaupt konkret? Also abseits der Techwizards, was hat der Kunde davon?

mapel110
2011-12-22, 20:16:40
Was bringt DX11.1 überhaupt konkret? Also abseits der Techwizards, was hat der Kunde davon?
Höchstwahrscheinlich gar nichts zu Lebzeiten von Tahiti und Kepler.

Wäre natürlich sehr sehr gemein von nvidia, wenn sie ATI allein lassen mit der Unterstützung DX11.1. Dann hätte ATI umsonst Transistoren verschwendet. ;(

HarryHirsch
2011-12-22, 20:19:38
Höchstwahrscheinlich gar nichts zu Lebzeiten von Tahiti und Kepler.

Wäre natürlich sehr sehr gemein von nvidia, wenn sie ATI allein lassen mit der Unterstützung DX11.1. Dann hätte ATI umsonst Transistoren verschwendet. ;(

wäre ja nicht das erste mal. aber da nehmen sich ja beide nicht viel, siehe tesselation. :D

boxleitnerb
2011-12-22, 20:19:42
Höchstwahrscheinlich gar nichts zu Lebzeiten von Tahiti und Kepler.

Wäre natürlich sehr sehr gemein von nvidia, wenn sie ATI allein lassen mit der Unterstützung DX11.1. Dann hätte ATI umsonst Transistoren verschwendet. ;(

Es wäre nicht das erste Mal. Bei SM 3.0 wars andersrum.

Bucklew
2011-12-22, 20:32:51
Das hoffe ich. Ich befürchte allerdings, dass man diesmal wieder noch mehr in Richtung HPC gehen wird. Ist so ein Gefühl...
Nope.

Mit dem großen Chip klar, denn irgendwas muss ja die Quadro/Teslakarten befeuern und einen extra Chip bauen und produzieren lassen lohnt halt irgendwo nicht so recht.

boxleitnerb
2011-12-22, 20:33:50
Hm? Erst "nope" dann "klar"? :)
GK104 interessiert mich nicht, nur GK100.

Bucklew
2011-12-22, 20:40:01
GK104 interessiert mich nicht, nur GK100.
Na dann weißt du doch nach GT200, GF100 und GF110, was dich erwartet ;)

LovesuckZ
2011-12-22, 20:43:32
Ich sehe das Problem nicht mit einer stärkeren Ausrichtung auf HPC. Dort benötigt man zum Großteil Rechenleistung. Je mehr, umso besser. Das kommt direkt den Spielern zu gute.

wäre ja nicht das erste mal. aber da nehmen sich ja beide nicht viel, siehe tesselation. :D

Hey, das hat AMD als erstes gehypt. :P

boxleitnerb
2011-12-22, 20:53:13
Na dann weißt du doch nach GT200, GF100 und GF110, was dich erwartet ;)

300W Realverbrauch bei 70% mehr Performance? :freak:
Nene, diesmal bitte keinen zweiten Fermi. Wäre schön, wenn man den Verbrauch zur Abwechslung mal konstant lassen könnte und trotzdem deutlich mehr Performance liefert.

Bucklew
2011-12-22, 22:52:58
Nene, diesmal bitte keinen zweiten Fermi. Wäre schön, wenn man den Verbrauch zur Abwechslung mal konstant lassen könnte und trotzdem deutlich mehr Performance liefert.
Die Probleme bei GF100 hatten nichts mit der zugrunde liegenden Architektur zu tun.

Ailuros
2011-12-22, 23:05:44
Ich bin mir nicht sicher, ob es schon besprochen wurde: Wie sicher ist es, dass Kepler D3D11.1 konform sein wird?

11.1 war mehr ein strategischer Zug seitens Microsoft fuer den embedded Markt als andere. Sonst gibt es eigentlich keinen Grund warum Kepler 11.1 nicht unterstuetzen sollte, obwohl keine Ahnung.

Na dann weißt du doch nach GT200, GF100 und GF110, was dich erwartet ;)

Nein er kann es noch nicht genau wissen. Es ist uebrigens afaik GK110. Erst wenn GK104 erstmal ankommt wird das Bild vielleicht etwas klarer.

300W Realverbrauch bei 70% mehr Performance? :freak:
Nene, diesmal bitte keinen zweiten Fermi. Wäre schön, wenn man den Verbrauch zur Abwechslung mal konstant lassen könnte und trotzdem deutlich mehr Performance liefert.

Und wieso genau interessiert Dich unter der oben illustrierten Logik nicht ein GK104? High end Leistung kommt auch selbstverstaendlich mit mehr Stromverbrauch und nein nicht unbedingt 300W TDP aber ein 6pin+8pin Faktor kann man als sicher annehmen. Sonst wenn man um einiges niedrigeren Stromverbrauch haben will greift man zu etwas a la Tahiti oder eventuell GK104 mit N% weniger Leistung und auch X% weniger Stromverbrauch.

GK104 wird schneller sein als eine GTX580 und auch hoechstwahrscheinlich mit um einiges geringerem Stromverbrauch.

Hugo78
2011-12-23, 00:21:25
GK104 wird schneller sein als eine GTX580 und auch hoechstwahrscheinlich mit um einiges geringerem Stromverbrauch.

Wenn ich von der 560Ti ausgehe und davon das Kepler Verbesserungen ggü. Fermi hat + die 45% die TSMC rausgegeben hat, als Sprung von 40 auf 28nm, dann sollte GK104 = GTX 580 + 10% @ 160-170W.

Dann wäre die GTX 660 bzw. 760 (?!) 50% schneller als die 560 Ti, bei gleichem Verbrauch und da sollte eigentlich zumachen sein.
Wenn nicht gar noch 5-10% mehr.

Käsetoast
2011-12-23, 00:30:08
+ die 45% die TSMC rausgegeben hat
Wobei TSMC das so nie gesagt hat. Es gab nur mal vor ich glaube anderthalb Jahren die Prognose, dass bis zu 45% mehr Takt drin sind. Zum Einen kann aber derzeit wohl niemand sagen, wieviel von dieser Prognose in der tatsächlichen Fertigung heute übrig geblieben ist und zum Anderen sind das wohl Best-Case-Werte, die sich wahrscheinlich dann auch gar nicht auf komplexe Geschichten für Schaltkreise mit hohen Leistungsaufnahmen beziehen lassen wie es bei den Grafikchips der Fall ist...

Ich denke wir werden an NVIDIA aber die Güte des 28nm Prozesses einschätzen können. Wenn es hier ähnlich wie bei AMD der Fall keine sooo großen Sprünge gibt, dann hinkt der Prozess wohl hinter den Erwartungen zurück...

Ailuros
2011-12-23, 00:31:26
Wenn ich von der 560Ti ausgehe und davon das Kepler Verbesserungen ggü. Fermi hat + die 45% die TSMC rausgegeben hat, als Sprung von 40 auf 28nm, dann sollte GK104 = GTX 580 + 10% @ 160-170W.

Dann wäre die GTX 660 bzw. 760 (?!) 50% schneller als die 560 Ti, bei gleichem Verbrauch und da sollte eigentlich zumachen sein.
Wenn nicht gar noch 5-10% mehr.

Muss aber nicht so sein. Ich hab noch keine Ahnung ueber den Stromverbrauch, aber es koennte auch durchaus etwas mehr Leistung sein mit einem hoeherem TDP. Es ging mir ja lediglich darum zu erklaeren dass man keine 2*6pin 28nm GPU haben kann die 2x Mal so viel Leistung als eine GTX580 auf den Tisch bringt. Schoen waere es natuerlich, aber es liegt eben leider viel zu weit ausserhalb jeglichem realistischem Raum.

Etwas Geduld noch; es duerfte nicht allzu lange dauern bis zumindest die Architektur (so in etwa wie vor einiger Zeit GCN) oeffentlich vorgestellt wird, so dass wir ein paar sichere technologischen Aspekte haben.

Hugo78
2011-12-23, 00:35:21
Na gut, mal schauen was der Januar so an weiteren Infos leaked. :)

LovesuckZ
2011-12-23, 01:50:07
Yeah, wir brauchen einen Counter bis zur CES. Laut nVidia gehen die IB Notebooks alle in Q1 in Produktion, also auch Kepler. Demnach wird man wohl auf der CES schon einiges sehen müssen.

boxleitnerb
2011-12-23, 06:16:29
Und wieso genau interessiert Dich unter der oben illustrierten Logik nicht ein GK104? High end Leistung kommt auch selbstverstaendlich mit mehr Stromverbrauch und nein nicht unbedingt 300W TDP aber ein 6pin+8pin Faktor kann man als sicher annehmen. Sonst wenn man um einiges niedrigeren Stromverbrauch haben will greift man zu etwas a la Tahiti oder eventuell GK104 mit N% weniger Leistung und auch X% weniger Stromverbrauch.

GK104 wird schneller sein als eine GTX580 und auch hoechstwahrscheinlich mit um einiges geringerem Stromverbrauch.

Den Verbrauch von GF110 find ich ja noch ok, aber wenn du dir mal anschaust, wie der gestiegen ist von G80 auf GT200 auf GF100, wäre es mir recht, wenn er sich jetzt da oben mal einpendeln würde. TDP um die 250W, mehr aber nicht. Bei einem Realverbrauch in Spielen von durchschnittlich 290+W würde ich schon arg schlucken.

=Floi=
2011-12-23, 07:09:10
bei der kühlung hat sich aber auch viel getan und mir wären 500Watt im 3d wahrscheinlich auch egal, wenn die karte dann nicht lauter als eine 580er im 2D wäre...
wichtig ist die kühlung.

Hübie
2011-12-23, 07:27:35
Da sieht man schon die unterschiedlichen Sichtweisen ;) Ich finde das ein Spagat aus beidem für mich das optimale Ergebnis ist. Wir können wetten abschließen: Ich sage GK100 wird ähnlich laut wie die GF110 aber verbrät ~50 Watt weniger Energie, bei 35%ig besserer Performance.

Mein Einsatz: Ein alter gammeliger Schuh in einem leeren, gebrauchten Blumentopf ;D

boxleitnerb
2011-12-23, 08:13:10
bei der kühlung hat sich aber auch viel getan und mir wären 500Watt im 3d wahrscheinlich auch egal, wenn die karte dann nicht lauter als eine 580er im 2D wäre...
wichtig ist die kühlung.

Es gibt Leute, die müssen ihren Strom auch bezahlen ;)
Versteh mich nicht falsch, ich bin schon ein Enthusiast, sonst hätte ich kein SLI. Aber auch "da oben" gibts für mich eine gewisse Vernunftsgrenze. Energieeffizienz mag für viele nicht so von Belang sein, aber es ist doch auch ein Maß für eine gelungene Architektur und ein Ergebnis guter Ingenieursleistung.

Die Steigerung des Verbrauchs über die letzten Jahre hinweg hab ich ja schon angesprochen. Spinn das doch mal weiter, wo hört es auf? 500W sind für dich noch ok? Was ist mit 700W, 1000W? Bei 30-35ct/kWh vielleicht. Irgendwo muss es aufhören. Wenn dann nur 40% Mehrleistung dabei rauskommen, ist es halt leider so.

Mein Tip für GK110:
Selbe Leistungsaufnahme wie GF110, evtl. ganz leicht darunter. Performance ggü der GTX580 bei +60% im Schnitt. 80% bei SSAA.

Edit:
http://www.dailytech.com/article.aspx?newsid=23578

NVIDIA will be launching sometime in calendar Q1 2012 (fiscal Q1 2013) the GeForce 600 series. Our sources point to a January launch, though that's probably a soft launch. Expect NVIDIA to ship product sometime in the Feb.-March window, barring a surprise.

Ailuros
2011-12-23, 10:05:36
Es gibt Leute, die müssen ihren Strom auch bezahlen ;)

Nichts persoenliches gegen Dich aber ich kann die Laier schon gar nicht mehr lesen. Wenn es jemand Gedanken macht wie man den Mehrverbrauch an Benzin oder anderen Kosten bei einer Luxuskarre bezahlt, dann ist es eher so dass man sich eine zu teure Karre gekauft hat als das jeweilige Einkommen wirklich ertragen kann.

Versteh mich nicht falsch, ich bin schon ein Enthusiast, sonst hätte ich kein SLI. Aber auch "da oben" gibts für mich eine gewisse Vernunftsgrenze. Energieeffizienz mag für viele nicht so von Belang sein, aber es ist doch auch ein Maß für eine gelungene Architektur und ein Ergebnis guter Ingenieursleistung.

Die Steigerung des Verbrauchs über die letzten Jahre hinweg hab ich ja schon angesprochen. Spinn das doch mal weiter, wo hört es auf? 500W sind für dich noch ok? Was ist mit 700W, 1000W? Bei 30-35ct/kWh vielleicht. Irgendwo muss es aufhören. Wenn dann nur 40% Mehrleistung dabei rauskommen, ist es halt leider so.

Die ersten Indizien seitens Tahiti bei 210W TDP sind erstmal positiv. Da es sich aber bei NV um eine komplett verschiedene Architektur handelt und noch keiner weiss wie weit NV mit der Leistung genau druecken will, gibt es so frueh noch keine Antwort.

Mein Tip für GK110:
Selbe Leistungsaufnahme wie GF110, evtl. ganz leicht darunter. Performance ggü der GTX580 bei +60% im Schnitt. 80% bei SSAA.

Da es sich auch nur um eine Spekulation handelt, gibt es noch kein ja oder nein dazu. Wenn dem aber wirklich so waere gibt es zumindest IMHO nicht besonders viel einzuwenden fuer die heutigen Verhaeltnisse.


http://www.dailytech.com/article.aspx?newsid=23578

Im Januar koennte schon etwas kommen, aber wohl nichts dass die meisten von uns interessieren wuerde.

fondness
2011-12-23, 10:22:10
Yeah, wir brauchen einen Counter bis zur CES. Laut nVidia gehen die IB Notebooks alle in Q1 in Produktion, also auch Kepler. Demnach wird man wohl auf der CES schon einiges sehen müssen.

In Notebooks kommen wohl bestenfalls Shrinks der alten Architektur. Kepler kommt wohl kaum zuerst als Lowend.

Ailuros
2011-12-23, 10:36:56
In Notebooks kommen wohl bestenfalls Shrinks der alten Architektur. Kepler kommt wohl kaum zuerst als Lowend.

Hmmm :rolleyes:

LovesuckZ
2011-12-23, 11:50:36
In Notebooks kommen wohl bestenfalls Shrinks der alten Architektur. Kepler kommt wohl kaum zuerst als Lowend.

Es ist Kepler. Huang hat es doch ziemlich klar bestätigt:

Jen-Hsun Huang

The vast majority of the increase is coming from the very significant increase in design wins that we have in several areas. We have more notebook design wins for the Ivy Bridge cyle than we ever had in notebooks. And this is likely the most successful notebook cycle we've ever experienced. And so we've got a lot of engineers dedicated to getting those notebooks into production. The reason for our success, I believe, is because our Kepler generation of GPU was designed for intense energy efficiency. And with energy efficiency, we were able to translate that to simultaneously higher performance, as well as longer battery life.



The thing that kept us from being even more successful is that our processor could've been more energy-efficient in itself. And so one of the things that we dedicated ourselves to do with Kepler was to focus an enormous amount of our energy on creating an architecture that was energy efficient. And the result is just really, really fabulous. And so our customers see that, they understand the benefit of it. And in combination, between Kepler and Optimus, we just have a great solution. And we just have a great, great, great solution. And this is probably as competitive as we've ever been in the Notebook segment.

http://seekingalpha.com/article/307194-nvidia-s-ceo-discusses-q3-2012-results-earnings-call-transcript?part=qanda

Die IB Notebooks werden wohl annährend durchgehend mit Kepler ausgestattet werden.

boxleitnerb
2011-12-23, 11:52:42
Also bei "great great great" hab ich wirklich große Hoffnungen auch für den Desktopmarkt :biggrin:

V2.0
2011-12-23, 12:09:09
So great, dass sie evtl. sogar Produktionskapazitäten umschichten müssen....

LovesuckZ
2011-12-23, 12:13:41
So great, dass sie evtl. sogar Produktionskapazitäten umschichten müssen....

Wird doch sowieso passieren. Da der IB Cycle im Frühjahr ist, geht kein Weg daran.

Ailuros
2011-12-23, 12:32:10
Wird doch sowieso passieren. Da der IB Cycle im Frühjahr ist, geht kein Weg daran.

Anders alle Kapazitaeten fuer Januar gehen in die Richtung und erst kurz vor Ostern sollte man etwas groesseres erwarten.

LovesuckZ
2011-12-23, 12:38:54
Die Notebooks gehen alle in Q1 in Produktion. Das wurde auch nochmal vom IR-Typen bestätigt.

Wir können ja mal wetten, ob GK100 mit A2/A3 kommt und all anderen GK-Versionen nur mit A1. :D

Dural
2011-12-23, 12:53:30
Ich denke wir werden an NVIDIA aber die Güte des 28nm Prozesses einschätzen können. Wenn es hier ähnlich wie bei AMD der Fall keine sooo großen Sprünge gibt, dann hinkt der Prozess wohl hinter den Erwartungen zurück...

als ich gestern erfahren habe das die 7970 ganze 1,180Volt auf der GPU hat hab ich mir auch gleich gedanken über die qualität von 28nm gemacht. :rolleyes:

die hohe spannung und die sehr grossen OC differenzen sprechen ganz klar dafür das 28nm noch ziemlich viele probleme macht.

hardtech
2011-12-23, 19:56:56
kann mal jemand die gesammelten infos in den ersten post reintun?

Ailuros
2011-12-23, 22:16:15
Die Notebooks gehen alle in Q1 in Produktion. Das wurde auch nochmal vom IR-Typen bestätigt.

Wir können ja mal wetten, ob GK100 mit A2/A3 kommt und all anderen GK-Versionen nur mit A1. :D

Na dann fang mal an zu wetten dass GK110 nicht vor Juni erscheinen wird. Da sich 104 anscheinend schon um zich Wochen verspaeten koennte hast Du den einen Anteil der Wette wohl schon verloren.

mapel110
2011-12-23, 22:28:07
Na dann fang mal an zu wetten dass GK110 nicht vor Juni erscheinen wird. Da sich 104 anscheinend schon um zich Wochen verspaeten koennte hast Du den einen Anteil der Wette wohl schon verloren.
Warum schiebt dann ATI Panik und zieht den eigenen Launch 2 Wochen vor? Das verstehe ich dann noch weniger.

Knuddelbearli
2011-12-23, 22:45:36
naja marketing technisch ist das was sie aktuel machen schon gut, ( ok bis auf den wlp fehler )
man ist über die ganze zeit von 22.12 bis gk 104 kommt dauernt im gespräch zuerst 7970 dann 7950 paar wochen später 7870 und sobald GK104 rauskommt und sie eventuell schlägt gibt es die 7990 und eventuell ne 7975. falls der GK104 nicht reicht sobald der gk100 rauskommt

Hugo78
2011-12-23, 23:25:03
Warum schiebt dann ATI Panik und zieht den eigenen Launch 2 Wochen vor? Das verstehe ich dann noch weniger.

Nimm so viel mit, wie du kannst.
Wenn AMD schon weniger Wins bei Notebooks hat, weil dort nichts Neues kommt und alles nur 40nm Rebrands sind,
dann muss der Desktop, wenn auch nicht für gleichen Umsatz, aber doch für in etwa gleiche Marge sorgen.

Neurosphere
2011-12-23, 23:26:09
Außerdem heizt man schonmal die Käuferschaft an und kann im Januar gut absetzen und das solange fortsetzen bis NV auf den Plan tritt. Wenn sie wirklich aus angst vor Kepler und dem Umstand das die eigene Architektur keine Rekorde aufstellt vorgezogen haben, haben sie alles richtig gemacht.

Hübie
2011-12-23, 23:26:34
Ich dachte das wären reine shrinks+rebrand?

Hugo78
2011-12-23, 23:36:17
haben sie alles richtig gemacht.

Na ja, ich hätte mir schon ein BQ Wettrüsten gewünscht.
Nach Stand der Dinge, flimmert die 7970 zwar teils deutlich weniger, aber immernoch ein Stück mehr als aktuelle Geforces und es gibt auch keine neuen/besseren AA Varianten.

@Hübie

Wer, was genau?

Orbmu2k
2011-12-23, 23:37:25
@Ailuros:
Warum wird der GK100 eigentlich totgeschwiegen und immer nur der GK110 genannt?
Gibts da irgendwelche Infos, warum geht man quasi schon auf den Refresh Titel für HighEnd?

Sorkalm
2011-12-23, 23:37:58
Warum schiebt dann ATI Panik und zieht den eigenen Launch 2 Wochen vor? Das verstehe ich dann noch weniger.

Naja, wieso Panik schieben? In der Preisregion kann AMD nix verlieren, aber wer nach Weihnachen auf die Idee kommt (oder schon war) sich eine Karte zu kaufen, interessiert sich vllt. für die 7970 und kauft keine GTX 580...

Hübie
2011-12-24, 05:40:33
@Hugo78: Ich bezog mich auf die notebook-chips. Ich hatte irgendwo gelesen, das einige 40nm einfach umbenannt werden und andere mit 28nm in alter Architektur geshrinkt werden. Oder hab ich da was vercheckt?

@Sorkalm: Wie willst du etwas kaufen das es nicht gibt (http://geizhals.at/eu/717748)? :|

boxleitnerb
2011-12-24, 05:53:13
Wenn der große Chip wirklich wieder 6 Monate später kommen sollte, was kann Nvidia tun um das nächstes Mal besser zu machen? Wenn daraus eine Gewohnheit wird, wäre das nicht gerade prickelnd :(

=Floi=
2011-12-24, 06:26:28
@Ailuros:
Warum wird der GK100 eigentlich totgeschwiegen und immer nur der GK110 genannt?
Gibts da irgendwelche Infos, warum geht man quasi schon auf den Refresh Titel für HighEnd?

für den kunden ist es besser und bei dem kleinen unterschieden könnte man sich die "100er" version sowieso gleich sparen.
ich bin gespannt, ob man dem GK110 SSAA unter DX10/DX11 vorenthalten wird, oder ob man weiterhin auf das crappy und blurry FXAA setzten wird...
wäre auch ganz lustig, wenn nv bei den features nachlegen würde.

Hübie
2011-12-24, 07:38:10
Wie kommst du darauf, =Floi=? Das sind Dinge die seit der Ti 4000er bestand haben. Wieso sollten die das plötzlich rausnehmen? FXAA wird nach wie vor eine Option bleiben, aber m.M.n. nicht in den Vordergrund rücken.

fondness
2011-12-24, 09:04:55
Nach Stand der Dinge, flimmert die 7970 zwar teils deutlich weniger, aber immernoch ein Stück mehr als aktuelle Geforces

Warum werden hier Dinge behauptet die im anderen Thread schon längst geklärt wurden? Die Filter ist sauber. Die höhere Filterneigung in Witcher lässt sich schlicht mit bi-AF erklären.

Hübie
2011-12-24, 09:25:19
Das ist lt. ht4u noch dem im Treiber hinterlegten Eingriff ins LOD-Bias geschuldet. Sollte mit einem Update leicht behoben werden können.

aufkrawall
2011-12-24, 10:46:58
Warum werden hier Dinge behauptet die im anderen Thread schon längst geklärt wurden? Die Filter ist sauber. Die höhere Filterneigung in Witcher lässt sich schlicht mit bi-AF erklären.
Wenn Nvidia auch bei DX9-Anwendungen bei HQ immer auf Tri-AF setzt, würd ich das schon als Vorteil sehen.
Ein großer Teil neuer Spiele ist ja schließlich immer noch DX9.

fondness
2011-12-24, 10:52:17
Wenn Nvidia auch bei DX9-Anwendungen bei HQ immer auf Tri-AF setzt, würd ich das schon als Vorteil sehen.
Ein großer Teil neuer Spiele ist ja schließlich immer noch DX9.

Eine Grafikkarte hat das zu liefern was der Entwickler verlangt. Wenn diese nur bi-AF vorsehen ist das nicht AMDs Schuld, man liefert schließlich nur das ab was gefordert wird. Aber vermutlich wäre es schlauer wenn auch AMD einfach immer tri-AF erzwingen würde, ist ohnehin eine reine Software-Geschichte, dann wären auch diese Diskussionen erledigt.

Hugo78
2011-12-24, 11:24:01
@Hugo78: Ich bezog mich auf die notebook-chips. Ich hatte irgendwo gelesen, das einige 40nm einfach umbenannt werden und andere mit 28nm in alter Architektur geshrinkt werden. Oder hab ich da was vercheckt?

Für mich schaut es so aus, als ob Nvidia hier erstmal Platzhalter losschickt, und die dann nach und nach ersetzt, sobald man 28nm Ersatz dafür hat.

Low End und Performance wird erstmal noch von 40nm Fermis abgedeckt.
Zwischen Low End und Performance sollte sich dann aber GK107 positionieren.
Und GK104 komplettiert dann Performance (Ersatz) + High End im Notbook bereich, sobald vorhanden.
Das Low End wird dann von den 28nm GF117 und eventuell gar GF119 bedient.
Das sind dann nur geshrinkte Fermis, kommen aber wohl mit PCIe 3.0 (wozu auch immer) und eventuell skaliert Fermi in dem Bereich einfach besser, als noch die zumindest ersten Kepler.

Wobei der Bereich wirft so wenig ab, da wirds wohl auch ne Kostenfrage sein, ob man Kepler dafür jetzt extra schrumpft oder gleich Fermi nimmt.
Videobeschleunigung, Darstellungsqualität und Verbrauch sind in diesen Bereichen ja eh wichtiger, als FPS in BF3.

LovesuckZ
2011-12-24, 11:24:39
Wenn Nvidia auch bei DX9-Anwendungen bei HQ immer auf Tri-AF setzt, würd ich das schon als Vorteil sehen.
Ein großer Teil neuer Spiele ist ja schließlich immer noch DX9.

nVidia macht das, was die Anwendung verlangt. Jedenfalls unter DX9. Wenn die AMD Karten in The Witcher ein schlechtes Bild liefern, dann liegt es rein an ihrer Filterung.

Coda
2011-12-24, 11:35:04
Nein tun sie nicht. Witcher appliziert Bi-AF, NVIDIA filtert Trilinear. Verdreh hier nicht die Fakten.

Der Filter ist absolut sauber, ich habe das Video mit Tri-AF schon gesehen. Es ist genauso ruhig wie bei NVIDIA auch.

Raff
2011-12-24, 11:39:01
Btw, was fordert dein AF-Tester eigentlich von den TMUs? Ich hatte beim Herumspielen ganz klares Banding im Gesicht, egal ob mit Q oder HQ. Getestet: Tahiti und Cayman, Fermi kA.

MfG,
Raff

LovesuckZ
2011-12-24, 11:42:15
/edit.

Coda
2011-12-24, 12:01:14
Btw, was fordert dein AF-Tester eigentlich von den TMUs? Ich hatte beim Herumspielen ganz klares Banding im Gesicht, egal ob mit Q oder HQ. Getestet: Tahiti und Cayman, Fermi kA.

Es gibt nur Tri-AF in D3D10. Banding seh ich aber keins :|

aufkrawall
2011-12-24, 12:07:41
Eine Grafikkarte hat das zu liefern was der Entwickler verlangt.

Hat Witcher 1 überhaupt in-game AF?
Der 2. Teil hatte das nicht.


Wenn diese nur bi-AF vorsehen ist das nicht AMDs Schuld, man liefert schließlich nur das ab was gefordert wird. Aber vermutlich wäre es schlauer wenn auch AMD einfach immer tri-AF erzwingen würde, ist ohnehin eine reine Software-Geschichte, dann wären auch diese Diskussionen erledigt.
Das würd ich aber auch sagen. ;)
Auch bei AMD sollte bei per Treiber forcierter HQ-AF immer trilinear gefiltert werden. Es heißt schließlich nicht umsonst "HQ".
Konstet ja auch nicht viel Performance und HQ ist auch nicht die Standardeinstellung, also kann da auch alles für maximale Texturfilterung getan werden.

LovesuckZ
2011-12-24, 12:11:05
Nein tun sie nicht. Witcher appliziert Bi-AF, NVIDIA filtert Trilinear. Verdreh hier nicht die Fakten.

Der Filter ist absolut sauber, ich habe das Video mit Tri-AF schon gesehen. Es ist genauso ruhig wie bei NVIDIA auch.

Nein, eben mit UT 2003 Demo überprüft: Bilinear wird angewendet. Ansonsten würden nVidia's Optimierungsprofile auch keinen Sinn ergeben...

Raff
2011-12-24, 12:16:09
Es gibt nur Tri-AF in D3D10. Banding seh ich aber keins :|

Spiel mal am LOD. Ich habe mich auch gewundert.

MfG,
Raff

Coda
2011-12-24, 13:56:43
Nein, eben mit UT 2003 Demo überprüft: Bilinear wird angewendet. Ansonsten würden nVidia's Optimierungsprofile auch keinen Sinn ergeben...
Es ist mir bums egal, was UT2004 macht. In Witcher fordert die App Bi an (DAS SEH ICH IM DEBUGGER!) und bekommt Tri bei NVIDIA.

LovesuckZ
2011-12-25, 16:35:40
Nur wird wohl GK104 keine 4,5Mrd. Transistoren haben. Laut Ailuros liegt man wohl eher bei den 3,2 von GF110.
In 1080p sollten die Chancen aber gut stehen, dass man mit der 7950 konkurriert und mit Werks-OC an die 7970 herankommt.

Ja, GK104 wäre hier eher GF106 als GF114. Das zeigt schon, dass GK104 bestimmt nicht über 300mm^2 groß wäre. Vergleicht man GF114 mit seinen 1,95 Mrd. Transistoren gegenüber G92b mit 732 Millionen (256 Bit Interface) hat nVidia fast doppelt soviele Transistoren pro mm^2 packen können. Ein GK104 mit 3,1 Mrd. Transistoren sollte ca. 31% kleiner sein.

Gipsel
2011-12-25, 17:52:21
Falls GK104 hinreichend ähnlich zum GF114 sein wird (also nicht die Architektur selber die Anteile der Strukturen unterschiedlicher Dichte wesentlich verschiebt), wird ein GK104 mit mehr als 3 Milliarden Transistoren größer als 300 Quadratmillimeter werden. Die Transistordichte mit TSMCs 28nm HKMG Prozessen steigt nämlich erst mal nur um offiziell 81% und die externen Interfaces schrumpfen gleich gar nicht.
Das kann man z.B. bei Tahiti im Vergleich zu Cayman auch nachrechnen und man kommt auf 5 Quadratmillimeter oder so heran (ich habe es anders rum gemacht und kam von der Diegröße kommend auf 60 Millionen an die später veröffentlichte Transistorzahl heran).

Dural
2011-12-25, 18:56:17
ich rechne eh nur mit ca. 3.4 für GF104 und 5.2 milliarden transistoren für GK100.

einer verdopplung der transistoren oder sogar noch mehr im vergleich zur vor generation werden wir dieses mal eher nicht sehen.

boxleitnerb
2011-12-25, 18:58:37
TMSC gibt zwar nur 81% Steigerung der Transistorendichte an, aber ich hab was von RDR gelesen, womit man wieder auf knapp unter 100% kommt. Was ist RDR?
Wo das Originalbild mit Erklärungen herkommt, weiß ich nicht, ich habs hier gefunden:
http://forums.anandtech.com/showpost.php?p=32759584&postcount=106

RLZ
2011-12-25, 19:06:04
Was ist RDR?
Eine bahnbrechende Neuerung in der Prozesstechnik und ungefähr vergleichbar mit FinFETs. :freak:

Oder vielleicht auch nur Restricted Design Rules. ;)

Gipsel
2011-12-26, 01:32:39
Yep, und das blöde an den Restriktionen um auf 95% Steigerung zu kommen, ist, daß das Layout der 40 nm GPUs ohne diese gemacht wurde. Die 95% Steigerung gelten beim Vergleich mit einem hypothetischem Layout in 40nm mit den gleichen Restriktionen.

Das geht in die Richtung, daß man zur Erreichung möglichst regulärer Strukturen praktisch Dummy-Transistoren einbauen muß. Also für praktische Zwecke abseits von SRAM, sind die 81% die bei weitem bessere Richtgröße.

Ailuros
2011-12-26, 16:42:11
ich rechne eh nur mit ca. 3.4 für GF104 und 5.2 milliarden transistoren für GK100.

GF110 = 3.00 Mrd, 529mm2
GF114 = 1.95 Mrd, 350mm2

GK104 hat nicht mehr Transistoren als GF110 und ist kleiner als GF114 IMHO.

Angenommen es hat sich bei Kepler bei der Relation high end zu performance nichts im Vergleich zu Fermi geaendert, sind es um einiges weniger Transistoren beim GK110 und die die area duerfte auch unter 500mm2 liegen. Ist aber noch eine totale Bumsthese wenn man ueber die Anzahl der Einheiten bei Kepler noch nichts weiss.

einer verdopplung der transistoren oder sogar noch mehr im vergleich zur vor generation werden wir dieses mal eher nicht sehen.

GK104 koennte nach der obrigen Spekulation um ca. 35% mehr Transistoren haben als GF114.

LovesuckZ
2011-12-26, 17:19:28
Ich frage mich vielmehr, ob GK104 das Layout von GF110 haben wird. Soweit ich das sehe, wurden die SM nur deswegen überarbeitet, um 2 Rasterizer und 8 SM zu haben und dabei nicht nur auf 50% des Leistung von GF110 zu kommen. Flächen- noch transistorenmäßig hat es keinen Vorteil ergeben. GF110 ist 44% größer und hat dabei 52% mehr Transistoren. Am Ende ist die GTX580 genauso viel schneller wie sie größer ist.

Und sollte nVidia mit weniger als 3 Mrd. Transistoren in die Nähe von Tahiti kommen, was nicht auszuschließen ist, dann wird es ziemlich lustig werden.

Grundsätzlich lässt sich schon einschätzen, wo nVidia hinwill. Die Kepler-GPUs in TITAN schaffen über 1 TFLOPs DP. Das sind gegenüber der normalen Tesla-Fermi-Karte also 2x soviel. Mit 896 Cores hätte man 75% mehr gegenüber GF110. Und das nVidia verstärkt ihre Transistoren in Rechenleistung investiert, haben sie eindrucksvoll mit Fermi bewiesen.

fondness
2011-12-26, 17:25:12
Und sollte nVidia mit weniger als 3 Mrd. Transistoren in die Nähe von Tahiti kommen, was nicht auszuschließen ist, dann wird es ziemlich lustig werden.


GK104 kann sich immerhin auch das ganze HPC-Zeug welches Tahiti mitschleppt ersparen.

LovesuckZ
2011-12-26, 17:32:23
GK104 kann sich immerhin auch das ganze HPC-Zeug welches Tahiti mitschleppt ersparen.

Welches denn?

Es ist doch wohl offensichtlich, dass es kein "HPC-Zeug" gibt, dass massiv Transistoren kostet. Ansonsten müsste GF114 entweder deutlich kleiner sein oder viel näher an GF110.

Das, was Tahiti am meisten limitiert, ist das veralterte Front-End. Ironisch nicht? Etwas, was nicht für HPC sondern nur für Graphics zu gebrauchen ist, entpuppt sich als Achillesferse.

Duplex
2011-12-26, 18:56:31
Das, was Tahiti am meisten limitiert, ist das veralterte Front-End.
Komisch das AMDs Frontend´s permanent schwach ausfallen, BD & K10 haben auch ein schwaches Frontend.
Das der kommende Refresh ein überarbeitetes Frontend bekommt kann man jetzt schon abhaken, AMD wird mehr Leistung über höhere Leistungsaufnahme holen, anders gehts nicht mit dem Design.

Coda
2011-12-26, 20:27:40
Genau, denn am Chip kann man natürlich rein gar nichts verbessern :rolleyes:

Aquaschaf
2011-12-26, 21:10:41
Komisch das AMDs Frontend´s permanent schwach ausfallen, BD & K10 haben auch ein schwaches Frontend.

Das hat nun überhaupt nichts miteinander zu tun. Abgesehen davon bedeutet 'Frontend' bei einer CPU etwas sehr anderes als bei einer GPU.

john carmack
2011-12-26, 22:39:47
Na, wenn Kepler Tahiti nicht ganz gewaltig in den Arsch tritt!
Bin ja nicht so von der Leistung der 7970 angetan... Hätte mehr erwartet.

Wobei ich mir irgendwie auch nicht vorstellen kann das Kepler 30% vor Tahiti liegen wird.

LovesuckZ
2011-12-27, 00:11:13
Na, wenn Kepler Tahiti nicht ganz gewaltig in den Arsch tritt!
Bin ja nicht so von der Leistung der 7970 angetan... Hätte mehr erwartet.

Wobei ich mir irgendwie auch nicht vorstellen kann das Kepler 30% vor Tahiti liegen wird.

Für 30% im Schnitt müsste Kepler nur 70% schneller als die GTX580 sein. Das ist locker drin. Denn die GTX580 liegt auch locker flockige 80%+ vor der GTX285.

Screemer
2011-12-27, 00:21:24
die 480 aber nicht, welche in meinen augen der bezugspunkt sein sollte. bin aber schon sehr gespannt, wann die karten kommen und wie sie performen. für mich faellt tahiti aber in der jetzigen form sowieso aus.

Knuddelbearli
2011-12-27, 00:29:27
580 war aber der refresh eines shrinks bei der übernächsten generation darf man vielleich sowas erwarten.

abgesehen davon das das DIE größer wurde und vor allem der Verbrauch explodierte, ( +50W unter Spiele ... Quelle HT4U ) willst du in Zukunft eine Single Grafikkarte mit 300W Verbrauch unter Spielen?

Wenn ich Lust hätte zu suchen würde ich sicher einige Posts von dir finden wo du dich über den Verbrauch bei AMD / ATI aufregst ^^

Edit: nochmal nachgeguckt also bei HT4U waren es auch eher +60%

+45% für GTX 480 die 7970 hat +30% ohne explodierenden Verbrauch

LovesuckZ
2011-12-27, 00:36:12
die 480 aber nicht, welche in meinen augen der bezugspunkt sein sollte. bin aber schon sehr gespannt, wann die karten kommen und wie sie performen. für mich faellt tahiti aber in der jetzigen form sowieso aus.

Dann aber gegen die GTX280, dessen TDP nVidia mit 248 Watt angegeben hat. ;)

Bei Computerbase liegt die GTX480 im Schnitt 63% vorne. In einigen Beispielen - auch dank DX11 bzw. besserem Front-End - in die Nähe von 2x. Hätte nVidia sofort die "GTX580" gebracht, wäre das Ergebnis noch besser ausgefallen. Heutzutage wird die GTX480 noch weiter vorne sein, aufgrund anderer Anforderungen.

Wir können locker von 70% zur GTX580 ausgehen, da nVidia mit Fermi ihren Schnitt eben vor 20 Monate erledigt haben. Jetzt heißt es rein Perf/Watt.

mapel110
2011-12-27, 00:39:14
Ein High End Chip wird auch High End Verbrauch haben. 7970 ist ein Midrange Chip, der in Konkurrenz zum GK104 steht. Der ist für High End User einfach uninteressant.

Knuddelbearli
2011-12-27, 00:44:38
entweder das eine oder das andere.

Wenn das deine Mapel, dann sollte LS auch nicht dauernd eine Performance Karte mit einer High End Karte vergleichen ^^

LS Lust auf ne Wette ( mit Einsatz, wie wärs mit 2 Monate nichts posten? ^^ ) das Kepler keine +70% ( von mir aus auch 60% ) gegenüber der 580 schafft ? ohne wieder deutlich mehr zu Verbrauchen.

LovesuckZ
2011-12-27, 00:47:37
entweder das eine oder das andere.

Wenn das deine Mapel, dann sollte LS auch nicht dauernd eine Performance Karte mit einer High End Karte vergleichen ^^

LS Lust auf ne Wette ( mit Einsatz, wie wärs mit 2 Monate nichts posten? ^^ ) das Kepler keine +70% ( von mir aus auch 60% ) gegenüber der 580 schafft ? ohne wieder deutlich mehr zu Verbrauchen.

Wir brauchen keinen Einsatz. Sollte das nicht so eintreffen, wirst du sehen, dass ich es ebenfalls enttäuschend finden werde. ;)

Botcruscher
2011-12-27, 01:05:50
Bei den Änderungen die anstehen wird es schwierig. Ich bin ja dafür, dass wir zur allgemeinen Erheiterung einfach mal eine Umfrage dazu starten. Könnte zum Start für Erheiterung sorgen. So Geschwindigkeit und Energieaufnahme in Zehnerschritten.

Knuddelbearli
2011-12-27, 01:06:04
nun das wird sicher nicht so kommen da mjusste nicht enttäuscht sein. das selbe galt für di 50-70% der 7970, gehofft habe ich das selbr aber realisitsch wusste ich selber das das nicht kommen wird außer auf gtx 480 Verlustleistungsniveau

john carmack
2011-12-27, 02:32:42
Bei den Änderungen die anstehen wird es schwierig. Ich bin ja dafür, dass wir zur allgemeinen Erheiterung einfach mal eine Umfrage dazu starten. Könnte zum Start für Erheiterung sorgen. So Geschwindigkeit und Energieaufnahme in Zehnerschritten.

Ja, genau... :)
Mach mal jemand ne Umfrage auf!



Woher kommt eigentlich das 512Bit SI Gerücht des Kepler? Ist da was dran?

hardtech
2011-12-27, 03:27:48
Da 7970 so arg schlecht unter den erwartungen für eine echte 28nm karte performt, wird es nv wahrscheinlich auch nicht schaffen viel mehr leistung bei rund 200w spieleverbrauch aus dem silizium zu pressen!
Daher sind die vermuteten +60% ggü. Gtx580 auch in keinem fall zu erwarten. Wohl eher +40%, wobei die 7970 mit +20% genau dazwiachen liegt.

Entscheidet sich nv nur für leistung mal mut den angen. +60%, wird die karte für much jedenfalls zu stromhungrig und laut sein. Da muss man eben auf optimized 28nm karten viell. Weihnachten 2012 warten?

boxleitnerb
2011-12-27, 06:22:52
Ja, genau... :)
Mach mal jemand ne Umfrage auf!



Woher kommt eigentlich das 512Bit SI Gerücht des Kepler? Ist da was dran?

Wollte ich ja schon vor ner Weile, da wurde mein Enthusiasmus gebremst, weil es keine Grundlagen gab, auf denen man da halbwegs raten kann. Und die gibts immer noch nicht, man weiß nichts Gesichertes zur Architektur. Und bis auf Marketing und die 2+ TF für GK104 weiß man heute ebenfalls nichts.

Vielleicht sollte man noch bis zur CES 2012 damit warten?

Soul
2011-12-27, 08:38:44
Mal so ne Frage. Meint ihr wirklich dass Kepler so gut performen wird? Der Vorteil von Fermi war doch der über doppelt so hohe Shadertakt im Vergleich zur GPU. Mit Kepler soll ja wieder GPU / Shader im gleichen Takt daherkommen.

boxleitnerb
2011-12-27, 08:44:08
Den hohen Shadertakt haben sie schon seit 2006.

Soul
2011-12-27, 08:57:54
Mit der 8er Serie Ende 2006. Der Performcevorsprung zu ATI war eben wegen dem viel höheren Shadertakt. Da bei Kepler dieser ausfällt, frage ich mich ob die Karte wirklich so gut wird wie ihr alle meint.

V2.0
2011-12-27, 09:03:44
Wenn man davon ausgeht, dass AMD keine groben Fehler gemacht hat (sei es am Design oder den Chip viel zu früh in den Markt gebracht und so die Zielvorgaben nicht einhalten konnte), dann sehe ich keinen Grund wie NV jetzt überproportional mehr aus dem 28nm Prozess holen soll.

Natürlich sollen sie eine GF100/110 bauen können, die 50% vor der 7970 liegt, aber eben auch nur mit 50% mehr Stromverbrauch.

boxleitnerb
2011-12-27, 09:09:15
Der Shadertakt ist da nur eine Größe in der ganzen Gleichung. Wichtig ist, dass man genug Einheiten hat und diese auch auslasten kann. AMD bringt ihre fast 4 TF bei Tahiti in Spielen nicht wirklich auf die Straße. Oft liegt man nur 15-25% vor der 580, die nur etwa ein Drittel der Texelfüllrate und weniger als die halbe Rechenleistung der Radeon hat. Es kommt drauf an, wie effizient man die Einheiten nutzt bzw. was sie können.

fondness
2011-12-27, 12:05:09
Der Shadertakt ist da nur eine Größe in der ganzen Gleichung. Wichtig ist, dass man genug Einheiten hat und diese auch auslasten kann. AMD bringt ihre fast 4 TF bei Tahiti in Spielen nicht wirklich auf die Straße. Oft liegt man nur 15-25% vor der 580, die nur etwa ein Drittel der Texelfüllrate und weniger als die halbe Rechenleistung der Radeon hat. Es kommt drauf an, wie effizient man die Einheiten nutzt bzw. was sie können.

Es nützt allerdings auch nichts wenn ich die tollste Auslastung habe aber dadurch kaum Einheiten verbauen kann. Unterm Strich zählt das was hinten raus kommt und da ist AMD mit ihrer Strategie nicht schlecht gefahren was Perf/Watt oder Perf/mm² betrifft.

Hugo78
2011-12-27, 12:14:17
Kann man eigentlich 28HP und 28LP (schon) mixen?
Wenn ich zb. seh, dass ein Tegra 3 max. 4W verbraucht in 40nm, mit allem was dranhängt als SoC und die Tegra GFX für 2560 x 1440 reicht,
dann müssten man doch eigentlich erwarten können, das so eine Sparversion auch ausreicht für einen Desktop Idle Mode.

dargo
2011-12-27, 13:58:52
Natürlich sollen sie eine GF100/110 bauen können, die 50% vor der 7970 liegt, aber eben auch nur mit 50% mehr Stromverbrauch.
Schei... auf den Stromverbrauch solange sie unter Last relativ leise bleibt.

Ailuros
2011-12-27, 14:07:43
Da 7970 so arg schlecht unter den erwartungen für eine echte 28nm karte performt, wird es nv wahrscheinlich auch nicht schaffen viel mehr leistung bei rund 200w spieleverbrauch aus dem silizium zu pressen!

Woher kommt jetzt wieder diese Schlussfolgerung genau? Weil beide identische Architekturen haben oder was? Es kann entweder auf quasi Gleichstand kommen, brutal schlechter oder brutal besser als Tahiti sein. Beide IHVs haben in der Vergangenheit so manche Bananen entwickelt (NV30, R600) und beide ziemlich grosse Ueberraschungen (R300, G80).

Daher sind die vermuteten +60% ggü. Gtx580 auch in keinem fall zu erwarten. Wohl eher +40%, wobei die 7970 mit +20% genau dazwiachen liegt.

Schoen dass Du nicht momentan die high end chip Leistung beschreibst.

Entscheidet sich nv nur für leistung mal mut den angen. +60%, wird die karte für much jedenfalls zu stromhungrig und laut sein. Da muss man eben auf optimized 28nm karten viell. Weihnachten 2012 warten?

Ich muss leider meine Klappe halten, aber geht mir bloss keine vorzeitige Wetten ein bis mehr Material nach aussen leaked.

Wenn man davon ausgeht, dass AMD keine groben Fehler gemacht hat (sei es am Design oder den Chip viel zu früh in den Markt gebracht und so die Zielvorgaben nicht einhalten konnte), dann sehe ich keinen Grund wie NV jetzt überproportional mehr aus dem 28nm Prozess holen soll.

Natürlich sollen sie eine GF100/110 bauen können, die 50% vor der 7970 liegt, aber eben auch nur mit 50% mehr Stromverbrauch.

R600 war auf 80nm und G80 auf 90nm. Was hat denn R600 aus 80nm genau rausholen koennen? Alles was momentan an 28nm nicht so richtig gehen will sind niedrige yields und Kapazitaeten am Anfang. Sonst wird eine miserable Architektur unter jeglichem Prozess weiterhin miserabel sein und eine gute Architektur weiterhin gut.

Wenn man davon ausgeht, dass NVIDIA keine groben Fehler gemacht hat (sei es am Design oder den Chip viel zu früh in den Markt gebracht und so die Zielvorgaben nicht einhalten konnte), dann sehe ich keinen Grund wie AMD jetzt überproportional WENIG aus dem 28nm Prozess holen soll.

Mancko
2011-12-27, 17:35:47
Es nützt allerdings auch nichts wenn ich die tollste Auslastung habe aber dadurch kaum Einheiten verbauen kann. Unterm Strich zählt das was hinten raus kommt und da ist AMD mit ihrer Strategie nicht schlecht gefahren was Perf/Watt oder Perf/mm² betrifft.

Perf/Watt kann ich ja noch nachvollziehen aber Perf/mm² hat ihnen jetzt nicht so wirklich viel gebracht. In den Ergebnissen war davon nun wirklich nicht viel zu sehen.

Raff
2011-12-27, 17:40:14
Ich muss leider meine Klappe halten, aber geht mir bloss keine vorzeitige Wetten ein bis mehr Material nach aussen leaked.

Du musst die Klappe halten? Sicher? Wenn ja, warum? :naughty: Auf was bezieht sich die Aussage genau? Dass Lil' Kepler erst zur Cebit spawnt, sollte jedenfalls recht klar sein ...

MfG,
Raff

Godmode
2011-12-27, 20:06:59
Du musst die Klappe halten? Sicher? Wenn ja, warum? :naughty: Auf was bezieht sich die Aussage genau? Dass Lil' Kepler erst zur Cebit spawnt, sollte jedenfalls recht klar sein ...

MfG,
Raff

Ein Indiz, dass es noch etwas länger dauert sind die nicht vorhanden Informationen über die Kepler Serie. Frage mich warum die so lange brauchen, also obs am Prozess liegt oder an was anderem?

boxleitnerb
2011-12-27, 20:44:40
Bei G80 gabs auch keine Infos bis kurz vor Release und wir wissen alle, was aus dem wurde ;)

Blediator16
2011-12-27, 20:59:00
Bei G80 gabs auch keine Infos bis kurz vor Release und wir wissen alle, was aus dem wurde ;)

Jo im Stromverbrauch wurden bis dahin nicht erahnte Höhen erreicht :freak:

Knuddelbearli
2011-12-27, 20:59:19
@ boxleitnerb

bei der FX 6600 das selbe :P

Blediator16
2011-12-27, 21:00:58
War ja kein Flame. Wollte nur damit ausdrücken, dass der G80 kein Allheilchip war ^^

LovesuckZ
2011-12-27, 21:01:03
Jo im Stromverbrauch wurden bis dahin nicht erahnte Höhen erreicht :freak:

Der Stromverbrauch lag auf dem selben Niveau wie der der 1900 von ATi. Nicht nur das, die 8800GTX war auf dem selben Prozess auch 70% schneller!

boxleitnerb
2011-12-27, 21:02:14
Jo im Stromverbrauch wurden bis dahin nicht erahnte Höhen erreicht :freak:

Also im CB Review sehe ich nur 30W mehr als die X1800XT. Xbitlabs gar nur 7W Plus zur X1950XT. G80 war für die Leistung ziemlich sparsam. Absolut gesehen hat man natürlich einen neuen Negativrekord aufgestellt, aber nur sehr knapp.
Ich hoffe mal, dass Perf/W auch voll auf den Desktop und Spiele durchschlagen wird.

mapel110
2011-12-27, 21:05:52
Wenn nvidia die Hotclock aufgegeben hat, würde ich nicht zu viel erwarten. Schließlich muss der Chip ja dann um so breiter werden.
Aber bislang hat nvidia nicht enttäuscht, wenn der Techlevel gleich geblieben ist.

LovesuckZ
2011-12-27, 21:08:55
Also im CB Review sehe ich nur 30W mehr als die X1800XT. Xbitlabs gar nur 7W Plus zur X1950XT. G80 war für die Leistung ziemlich sparsam. Absolut gesehen hat man natürlich einen neuen Negativrekord aufgestellt, aber nur sehr knapp.
Ich hoffe mal, dass Perf/W auch voll auf den Desktop und Spiele durchschlagen wird.

Man kann keinen Negativrekord aufstellen, wenn das Perf/Watt Verhältnis sich bessert. Das ist ein Paradoxon.

boxleitnerb
2011-12-27, 21:17:37
Man kann keinen Negativrekord aufstellen, wenn das Perf/Watt Verhältnis sich bessert. Das ist ein Paradoxon.

Ich habe den Absolutverbrauch gemeint, nicht Perf/W. Der ist auch wichtig für Kühlung/Lautstärke und Anforderungen an das Netzteil.

LovesuckZ
2011-12-27, 21:20:40
Ich habe den Absolutverbrauch gemeint, nicht Perf/W. Der ist auch wichtig für Kühlung/Lautstärke und Anforderungen an das Netzteil.

Ich weiß. Ist trotzdem ein Paradoxon.

aylano
2011-12-27, 21:21:19
Perf/Watt kann ich ja noch nachvollziehen aber Perf/mm² hat ihnen jetzt nicht so wirklich viel gebracht. In den Ergebnissen war davon nun wirklich nicht viel zu sehen.
Ich kann das nicht nachvollziehen.

Es wurde kaum gesagt, dass Nvidia im Low-End & Mainstream früher wegen Performance-pro-Watt besser wäre. Es wurde grundsätzlich wegen der bessere Treiber-Qualität, (Optimus), PhysX, Bildqualität, Cuda & CO (was eben das Image polierte bzw. hielt) gesprochen.
Eine Bessere Performance-pro-Watt hat AMD erst seit Fermi, aber dafür ist der Vorteil von Performance-pro-mm² geschrumpft.

Mit der besseren Performance-pro-mm² konnte AMD in Verlauf der Zeit einen niedrigen Preis ansetzen, womit sie den Marktanteil von damals <30% auf 50% steigern konnten.
Das haben sie nicht mehr nötig und setzen die besseren Performance-pro-mm² in $ um.
Ob das noch für Kepler gilt, ist eine andere Frage und werden wir noch sehen.

Grundsätzlich hat AMD mit C++ (HTC & Profi-Markt) sowie Optimus-Konkurrenz (Notebook-Markt) und AF-Flimmer (Desktop-Markt) große Nvidia-Vorteile aufgeholt und könnte bei eventueller besseren Performance-pro-Watt bzw. Performance-Krone (sowie zusätzlicher CoreZero & Evefinity) ordentlichen Druck machen.
Könnte, aber fall es so kommen sollten, würde ich nicht an einem Preiskrieg denken, sondern ich denke der neue AMD-Chef wird so viel Gewinn wie möglich zu erreichen, sodass in dieses Fall Nvidia auch gute Gewinn ereichen könnte (sofern der Abstand nicht gewaltig wäre bzw. Nvidia sonstige extremen Probleme hätte)
Wobei falls AMD eine schlechtere Performance-pro-mm² & Performance-pro-Watt gegenüber Kepler hätte, würde ich meinen, dass der neue AMD-Chef die Preise eher so hoch ansetzt, um paar Marktanteile zurückzugeben für höhere ASPs & Margen zu verlieren.

Coda
2011-12-27, 21:32:46
Wenn nvidia die Hotclock aufgegeben hat, würde ich nicht zu viel erwarten. Schließlich muss der Chip ja dann um so breiter werden.
Die hochgetakteten ALUs brauchen wesentlich mehr Platz.

mapel110
2011-12-27, 21:37:15
Die hochgetakteten ALUs brauchen wesentlich mehr Platz.
Aber dennoch muss es sich für nvidia ja gelohnt haben bei den bisherigen Chips.

boxleitnerb
2011-12-27, 21:43:27
Wieviel ist "wesentlich mehr"? Weniger ALUs bedeutet ja auch weniger Verwaltungsaufwand.

Coda
2011-12-27, 21:45:55
Was nicht so bleiben muss.

Wieviel ist "wesentlich mehr"? Weniger ALUs bedeutet ja auch weniger Verwaltungsaufwand.
Ich bin der Meinung, dass NVIDIA für die ALU-Pipeline handgebaute High-Speed-Schaltungen verwendet, während AMD auf High-Density einsetzt.

Es ist zwar kein wirklich neutraler Vergleich (NVIDIA könnte auch einfach nur unfähiger sein), aber AMD verbaut wesentlich mehr ALUs pro Chipfläche.

G 80
2011-12-27, 22:13:40
Jo im Stromverbrauch wurden bis dahin nicht erahnte Höhen erreicht :freak:

Aber nur bis zur 2900 XT ;D, gemessen an der 88 GTS, und damit 2900 XT Performance, war erstere ein Stromsparwunder. :freak: Zumal die 1950 XTX auch kein Kostverächter war.

Captain Future
2011-12-27, 23:01:32
Was nicht so bleiben muss.


Ich bin der Meinung, dass NVIDIA für die ALU-Pipeline handgebaute High-Speed-Schaltungen verwendet, während AMD auf High-Density einsetzt.

Es ist zwar kein wirklich neutraler Vergleich (NVIDIA könnte auch einfach nur unfähiger sein), aber AMD verbaut wesentlich mehr ALUs pro Chipfläche.
Und wieviel is deiner Meinung nach nun "wesentlich mehr"?

Ailuros
2011-12-27, 23:32:09
Ein Indiz, dass es noch etwas länger dauert sind die nicht vorhanden Informationen über die Kepler Serie. Frage mich warum die so lange brauchen, also obs am Prozess liegt oder an was anderem?

Darueber wuerde ich sicher nicht die Klappe halten. Ich will auch auf Nummer Sicher gehen und Informationen von mehreren zuverlaessigen Quellen sammeln. Wenn alles stimmen sollte und es handelt sich nicht um Rauch und Qualm, sind es 3 Ueberraschungen fuer micht was Kepler betrifft.

Coda
2011-12-27, 23:34:59
Und wieviel is deiner Meinung nach nun "wesentlich mehr"?
Schau dir RV770 und GT200b an, dann siehst du es.

AwesomeSauce
2011-12-27, 23:38:49
Darueber wuerde ich sicher nicht die Klappe halten. Ich will auch auf Nummer Sicher gehen und Informationen von mehreren zuverlaessigen Quellen sammeln. Wenn alles stimmen sollte und es handelt sich nicht um Rauch und Qualm, sind es 3 Ueberraschungen fuer micht was Kepler betrifft.
Ich gehe davon aus, dass das Wegfallen des Hotclocks eine dieser Überraschungen ist. In welche Richtung gehen die anderen? Stromverbrauch könnte ich mir gut vorstellen, Huang hat da schon ziemlich weit das Maul aufgerissen (was zwar nichts Ungewöhnliches wäre). Ein einfacher Fermi-Shrink wird Kepler wohl aber definitiv nicht...

Ailuros
2011-12-27, 23:38:52
Und wieviel is deiner Meinung nach nun "wesentlich mehr"?

Zwar nur eine aus der Luft gegriffene Schaetzung, aber ich koennte mir sogar 40% vorstellen zwischen Tahiti und GK104. Es klingt natuerlich auf Anhieb viel, aber wenn man den moeglichen Taktunterschied fuer den letzten mitberechnet auch nicht mehr so hoch. Die einzige brennende Frage waere ob GK104 besser mit seiner begrenzteren Bandbreite umgehen kann oder ob er irgendwo doch dank fehlender Bandbreite wuergt.

boxleitnerb
2011-12-27, 23:41:52
Könntest du uns sagen, ob diese Überraschungen (so man sie denn werten kann) positiv oder negativ sind? Oder würdest du damit zuviel verraten? :)

Ailuros
2011-12-27, 23:43:50
Könntest du uns sagen, ob diese Überraschungen (so man sie denn werten kann) positiv oder negativ sind? Oder würdest du damit zuviel verraten? :)

Es ist immer ruhig vor einem Sturm....wenn's jetzt nur ein albernes Windchen sein sollte bin ich natuerlich nicht daran schuld ;)

AwesomeSauce
2011-12-27, 23:48:23
Mister C.D hält sich zurück, so schlimm kanns also nicht sein:D

Hübie
2011-12-28, 04:12:23
Die einzige brennende Frage waere ob GK104 besser mit seiner begrenzteren Bandbreite umgehen kann oder ob er irgendwo doch dank fehlender Bandbreite wuergt.


Weiß gerade net mehr wo es war, aber es wurde schon festgestellt, das die HD 7970 keine 384bit Speicherbandbreite benötigen würde. Glaub das waren die Franzosen...
Wer weiß also ob Kepler bandbreitenlimitiert daherkommt... Vielleicht wurden die XDR2-Gerüchte auch in die falsche Richtung gestreut :freak::rolleyes:

boxleitnerb
2011-12-28, 06:56:55
Sicher? CB hat ein 256bit Interface simuliert und das kostet bis zu 15% Performance.