Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012
Gipsel
2012-02-20, 23:43:20
Btw ... wann gabs das zuletzt, dass AMD die größere Packdichte hatte.
Das war in den letzten Jahren durchgehend so. ;)
Hugo78
2012-02-20, 23:45:54
@Gispel
Es hieß aber immer, dass auf Grund des Hotclocks, das Design auch "luftiger" sein musste.
Gipsel
2012-02-20, 23:50:24
@Gispel
Es hieß aber immer, dass auf Grund des Hotclocks, das Design auch "luftiger" sein musste.
Und das heißt dann niedrigere Packdichte als bei AMD oder umgedreht daß AMD die höhere Packdichte hat. ;)
Hugo78
2012-02-20, 23:52:39
Ähmm... ich sollte nicht zwischen einer Runde Skyrim und BF3 posten. :freak:
mczak
2012-02-21, 00:39:57
Aber dann eher 64 cores pro SM oder?!
Also statt 96 oder mehr...
Wäre dann völlig analog zu GF100/GF110 und den anderen GF1xx Chips.
GK110 hätte also 2x32 alus/SM (mit halber Rate DP) und GK10x 3x32 alus/SM (mit theoretisch realisierbaren 1/3 DP Rate aber fast garantiert weniger).
Wobei man sich schon fragen könnte wieso da 2 doch relativ unterschiedliche Designs die am Ende offenbar doch eine relativ ähnliche Performance/Fläche aufweisen verwendet würden. Aber das habe ich mich bei Fermi auch schon gefragt... Wahrscheinlich ist halt das 3x16 Design (bei Fermi) zumindest für Spiele etwas effizienter man wollte aber unbedingt die 1/2 DP-Rate für Compute. Aber vielleicht überrascht uns nvidia ja noch und Kepler sieht ganz anders aus als gedacht :-).
Interessanterweise sind ja in der Theorie die 3x16 ALU Designs trotz superskalarem Aufbau nicht zwingend weniger gut ausgelastet als die 2x16. Für Peak-ALU Auslastung benötigt man zwar nicht voneinander abhängige Befehle, dafür sollte es aber möglich sein Peak-ALU Auslastung zu erreichen wenn auch load/store oder SFU Befehle benutzt werden (weil man theoretisch 2x2 Befehle ausführen kann, also 3xalu und 1xsfu bzw. l/s). Das geht bei GF100/GF110 prinzipiell nicht (weil man da nur 2 Befehle pro SM ausführen kann - benutzt man load/store oder SFU liegt also in dem Takt eine der ALU-Einheiten brach, auch wenn das in der Praxis nicht so viel kosten dürfte, denn die SFU-Instruktion läuft dann ja auch 8 Takte kostet also bloss 1/16 der peak-alu Performance).
Ist aber eine interessante Frage ob nvidia irgendwann wieder zum selben Design bei allen Chips zurückkehrt, ist doch sicher ein deutlicher Mehraufwand bei der Entwicklung. AMD hat jedenfalls auch beim auch auf compute fokussierten Chip ein scheinbar fast identisches Design hingekriegt gegenüber den anderen Chips (wobei der Compute-Fokus wahrscheinlich schon noch geringer ist, man hat ja auch nicht versucht 1/2 DP zu erreichen).
boxleitnerb
2012-02-21, 06:18:26
Gibts einen Grund für die geringere Packdichte bei GK104? Wenn Charlies 340mm2 stimmen, wäre die Packdichte bei AMD um fast 50% höher. War das eine bewusste Entscheidung von Nvidia oder können sie es nicht besser?
Hängen die etwaigen Probleme von GK110 hauptsächlich an der Chipgröße? So langsam sollte man sich Sorgen machen bei NV, wenn sich der Große Chip immer so verzögert. Ist es denkbar, dass man in Zukunft gar keine Chips über 350mm2 mehr bringen wird und die Interposer-Geschichte so schnell wie möglich bringt um aus zwei kleinen problemloser herstellbaren Chips einen großen zu machen?
Endlich!
Kyle Bennett von HardOCP hat offenbar Unterlagen/eine Karte erhalten und ein NDA unterschrieben. Andere dürften folgen.
http://hardforum.com/showpost.php?p=1038407585&postcount=344
M4xw0lf
2012-02-21, 07:58:46
Aha, Kepler existiert also doch ;D
Adam D.
2012-02-21, 08:54:58
Verlesen.
AnarchX
2012-02-21, 09:30:00
Gk107 - durchaus
Könnte wohl durchaus sein. ;D
There will be two variants of GK107, GK107-200 GPU in D14M2-20 and the top bin GK107-300 in D14P1-10 SKU. The GK107-300 variant will be powered by GDDR3 or GDDR5 memory, while the GK107-200 will sport 512MB of DDR3 RAM.
http://vr-zone.com/articles/nvidia-gk107-details/14953.html
Wieder dieser GDDR5&DDR3-Mist auf Karten mit gleichen Namen, aber die 7750 wird wohl langfristig davon auch nicht verschont bleiben.
Aber Kyle dürfte wohl eher eine GK104-Karte haben. ;)
AffenJack
2012-02-21, 10:08:59
Ich glaube weniger, dass er ne Karte hat. Wahrscheinlicher ist eher, dass Nvidia Einladungen zu nem Presseevent verschickt hat.
M4xw0lf
2012-02-21, 13:50:29
Jo, oder er hat ein NDA unterschrieben. Oder ein Launchdatum erfahren. Eines von diesen Dingen, die er in diesem Post noch nicht getan/gehört/gesehen hatte ^^
FWIW, NVIDIA has never spoken to us about its next-gen GPU. We have no dates as to when we are to see it, no NDAs or information embargoes exists.....nada, nothing, zip.
boxleitnerb
2012-02-21, 14:42:08
Ich denke inzwischen sind genug Punkte fast gesichert, dass man eine Umfrage bzgl. der Performance machen kann. Wenn man grob weiß, wo GK104 sich einordnet, kann man auch GK110 abschätzen, das wird nicht plötzlich großartig anders sein als GF110 vs GF114. Könnte ein Mod vielleicht eine Umfrage zu dem Thema hinzufügen? Oder soll ich einen extra Thread aufmachen?
AnarchX
2012-02-21, 14:47:01
Warten wir am besten erstmal GK104 ab und ein paar handfestere Infos zu GK110. Gerade letzterer ist momentan doch sehr spekulativ.
DarknessFalls
2012-02-21, 14:48:52
SOLLTE es jetzt ein NDA für GK104 geben (das dürfte kommen, BEVOR GK104 irgendwem gezeigt wird bzw. bevor Specs bekannt werden), dürften wir uns jetzt auf der 4-Wochen-Zielgraden befinden... immer vorausgesetzt, es geht hier um GTX680 und nicht einen kleineren Chip (Notebook steht ja auch an - und da geht's ja um die ganzen Designwins).
Adam D.
2012-02-21, 14:50:26
Was erwartest du dir denn von dieser Umfrage? Wir wissen z.B. immer noch nichts gesichertes über Preis und Lüfter (als Beispiel), da wird es wirklich schwer, über die fertigen Karten zu urteilen.
boxleitnerb
2012-02-21, 14:50:46
Warten wir am besten erstmal GK104 ab und ein paar handfestere Infos zu GK110. Gerade letzterer ist momentan doch sehr spekulativ.
Wenn man GK104 abwartet, was für einen Sinn macht dann so eine Umfrage? Es macht doch nur Spass, wenn es zumindest ein bisschen spekulativ ist. GK110 wird wohl 30-50% vor GK104 landen, langsamer oder schneller ist doch arg unwahrscheinlich. Das ist genau genug, um eine schöne und noch plausible Bandbreite an Antworten zuzulassen.
Adam,
einfach um zu sehen, ob die Erwartungen hier übertroffen oder unterboten werden. Genauso könnte man fragen, was man von den Spekulationen hier im Thread erwartet.
Das Lottospielen VOR der Ziehung ist doch auch spannender als während der Ziehung ;)
AnarchX
2012-02-21, 14:50:48
SOLLTE es jetzt ein NDA für GK104 geben (das dürfte kommen, BEVOR GK104 irgendwem gezeigt wird bzw. bevor Specs bekannt werden), dürften wir uns jetzt auf der 4-Wochen-Zielgraden befinden... immer vorausgesetzt, es geht hier um GTX680 und nicht einen kleineren Chip (Notebook steht ja auch an - und da geht's ja um die ganzen Designwins).
An einen GK107-Einzel-Launch mag ich nicht recht glauben, zumal da Gerüchte existieren, dass er gar kein vollständiger Kepler ist.
Man braucht wohl etwas mit Flagschiff-Wirkung, was wohl eben GK104 in ein paar ausgewählten Benchmarks sein wird.
DarknessFalls
2012-02-21, 14:55:27
Da stimme ich Dir zu, @AnarchX, an GK107 mag ich ebenfalls nicht so recht glauben. Als möglich erachte ich aber Teile vom oder gar das komplette Notebook-Lineup, falls es eben nicht GK104 sein dürfte.
Wie oben schon erwähnt, ich tippe mal auf 4 Wochen, bis wir definitives wissen. Ernstzunehmende Leaks (nV-Candy-Picked) dürften dann ja auch bald aufschlagen.
Adam D.
2012-02-21, 14:57:26
Adam,
einfach um zu sehen, ob die Erwartungen hier übertroffen oder unterboten werden. Genauso könnte man fragen, was man von den Spekulationen hier im Thread erwartet.
Das Lottospielen VOR der Ziehung ist doch auch spannender als während der Ziehung ;)
Na gut ;)
[x] Erwartungen (ziemlich sicher) erfüllt.
An einen GK107-Einzel-Launch mag ich nicht recht glauben, zumal da Gerüchte existieren, dass er gar kein vollständiger Kepler ist.
Man braucht wohl etwas mit Flagschiff-Wirkung, was wohl eben GK104 in ein paar ausgewählten Benchmarks sein wird.
Aus dem GK107 wird bestimmt kein großes Ding gemacht, GK104 ist das Zugpferd kurzfristig. Außerdem passt der Zeitpunkt perfekt zu den Aussagen Ailuros' bezüglich des Startes. In 4 Wochen wissen wir mehr :D
Zergra
2012-02-21, 15:02:22
SOLLTE es jetzt ein NDA für GK104 geben (das dürfte kommen, BEVOR GK104 irgendwem gezeigt wird bzw. bevor Specs bekannt werden), dürften wir uns jetzt auf der 4-Wochen-Zielgraden befinden... immer vorausgesetzt, es geht hier um GTX680 und nicht einen kleineren Chip (Notebook steht ja auch an - und da geht's ja um die ganzen Designwins).
Es ist doch nichtmal sicher das GK104 die 680GTX ist, es sieht doch eher so aus als ob die 670TI die GK104 Vollausbaukarte ist. :rolleyes:
DarknessFalls
2012-02-21, 15:04:34
@Zergra: GTX680 für GK104 jetzt und GTX780 für GK110 als Refreshchip (für einen nicht existenten GK100) H2/2012 erscheint mir persönlich wahrscheinlicher. Du kannst aber gerne das GTX680 in meinem Posting durch GTX670 Ti oder einfach nur durch GK104 ersetzen. ;)
Adam D.
2012-02-21, 15:24:00
@Zergra: GTX680 für GK104 jetzt und GTX780 für GK110 als Refreshchip (für einen nicht existenten GK100) H2/2012 erscheint mir persönlich wahrscheinlicher. Du kannst aber gerne das GTX680 in meinem Posting durch GTX670 Ti oder einfach nur durch GK104 ersetzen. ;)
Ich sag's nochmal: Namen sind Schall und Rauch. Es ist doch völlig wurscht, wie das Ding am Ende heißt. Abseits davon versteh ich immer noch nicht, wieso man innerhalb einer Generation plötzlich 'nen 100er-Schritt vollziehen sollte - in so kurzer Zeit.
N0Thing
2012-02-21, 15:27:22
gab nix über kepler auf der pdxlan, nur tegra3 und borderlands 2
Gibt es davon eigentlich irgendwo ein Video?
aylano
2012-02-21, 15:36:37
Wenn man GK104 abwartet, was für einen Sinn macht dann so eine Umfrage? Es macht doch nur Spass, wenn es zumindest ein bisschen spekulativ ist. GK110 wird wohl 30-50% vor GK104 landen, langsamer oder schneller ist doch arg unwahrscheinlich. Das ist genau genug, um eine schöne und noch plausible Bandbreite an Antworten zuzulassen.
IMO braucht man da keinen neuen Thread.
Entscheidend wird bei GK104 eben der Stromverbrauch.
Denn GF104 (GTX460) hatte bei Spielen einen Verbrauch von so 120W (vs 250W-GF100) , während GTX480 so 50-60% schneller war.
GF114 hatte so 150W-Spieleverbrauch (vs 250W-GF110), wo der GF110 dann so 40% schneller war.
Wenn wenn wenn man das alte Fermi-"Gesetz/Verhalten" umsetzen kann, dann könnte GK110 +50-60% oder +40% oder +20-30%? Performance-Zuwachs bekommen, wenn GK104 entweder 120W oder 150W oder 180W spiele Last verbrauchen wird.
Ausgehend von GK104 @ HD7950 so 0-10% (IMO +0-5%)-Performance und ein GK100-Launch in April. Jeder GK100-Quartalsverspätung wären dann auch etwas bessere Werte zu erwarten.
Im Groben würde ich es mal so sagen, aber entscheidend wird IMO dann der GK104-Spiele-Stromverbrauch und da heißt es erstmals abwarten.
DarknessFalls
2012-02-21, 15:38:55
Ich sag's nochmal: Namen sind Schall und Rauch. Es ist doch völlig wurscht, wie das Ding am Ende heißt. Abseits davon versteh ich immer noch nicht, wieso man innerhalb einer Generation plötzlich 'nen 100er-Schritt vollziehen sollte - in so kurzer Zeit.
Natürlich ist es völlig wurscht, wie das Ding am Ende heißt; was ich da geschrieben habe, ist wie erwähnt MEINE persönliche Vermutung was die Namensgebung angeht.
Bezüglich des 100er Schrittes schau nur mal rüber ins rote Lager, da gab es auch den sehr schnellen Schritt von HD2k zu HD3k, obwohl man aus der HD3870 sinnigerweise genausogut eine HD2950 Pro hätte machen können. Weiterer Fingerzeig für den 100er Schritt ist für mich GTX480 zu GTX580, nur daß es dieses mal halt keinen veröffentlichten GK100 vorher gibt.
Du kannst mir folgen?
Adam D.
2012-02-21, 15:47:46
Natürlich ist es völlig wurscht, wie das Ding am Ende heißt; was ich da geschrieben habe, ist wie erwähnt MEINE persönliche Vermutung was die Namensgebung angeht.
Bezüglich des 100er Schrittes schau nur mal rüber ins rote Lager, da gab es auch den sehr schnellen Schritt von HD2k zu HD3k, obwohl man aus der HD3870 sinnigerweise genausogut eine HD2950 Pro hätte machen können. Weiterer Fingerzeig für den 100er Schritt ist für mich GTX480 zu GTX580, nur daß es dieses mal halt keinen veröffentlichten GK100 vorher gibt.
Du kannst mir folgen?
Na klar weiß ich, was du meinst: die Marketing-Abteilungen sind ja eh in der Lage, jegliche Nomenklatur in irgendeiner Form als genial darstellen zu lassen. Nur find ich es halt schwer vermittelbar, wie im April eine GTX680 auf den Markt kommt, die dann 2 Monate später schon wieder durch die 700er-Reihe erweitert wird. Irgendwie will mir das nicht so einleuchten.
DarknessFalls
2012-02-21, 16:02:09
Das ist auch nur ausgehend davon, daß GK110 sich bis H2/2012 verzögert. August würde reichen um das zu "rechtfertigen". Siehe den Abstand zwischen HD2k und HD3k.
Vermittle ich GK104 jetzt als High-End, schlägt GK110 das "alte" High-End ja um eine Marge von vermutlich 30% - so lässt ich ein GTX780 durchaus marketingtechnisch rechtfertigen. GTX580 war ja letztlich noch ein viel kleinerer Sprung zur GTX480. HD3870 war sogar nahezu leistungsgleich zur HD2900 XT, wenn auch mit einem Stapel neuerer Features ausgestattet.
y33H@
2012-02-21, 16:02:39
Man hat halt sehr schnell was noch Geiles entwickelt - die meisten Leute haben doch von der Technik und Fertigung kaum eine Ahnung.
DarknessFalls
2012-02-21, 16:05:45
Wie sieht's eigentlich bei Euch aus, @y33h@ - würdest Du Kyles Statement auch zurückziehen, wäre es Deines gewesen? ;)
mczak
2012-02-21, 16:51:12
Wenn wenn wenn man das alte Fermi-"Gesetz/Verhalten" umsetzen kann, dann könnte GK110 +50-60% oder +40% oder +20-30%? Performance-Zuwachs bekommen, wenn GK104 entweder 120W oder 150W oder 180W spiele Last verbrauchen wird.
Also GF100 ist sicher ein sehr schlechtes Indiz, kein anderer Chip der GF10x Reihe hatte auch nur annähernd die Probleme dieses Chips. Deswegen hat der Sprung von GF100 zu GF110 auch weitaus am meisten gebracht punkto Perf/W gegenüber den anderen GF10x Chips.
Diesmal aber kommt GK110 zuletzt - ob jetzt weil GK100 aufgrund von Problemen gecancelt ist oder gar nie vorgesehen war ist ziemlich egal. Der hat also mit Sicherheit keine Probleme die die anderen Chips nicht auch haben. Sollten die anderen GK10x chips wieder irgendwelche solchen Probleme haben (was ich aber nicht annehme) dann könnte GK110 sogar verhältnismässig besser sein (das wäre dann quasi wie GF110 zu GF104).
HD3870 war sogar nahezu leistungsgleich zur HD2900 XT, wenn auch mit einem Stapel neuerer Features ausgestattet.
Der hatte ja auch eine kleinere Nummer (hinter der Generationsziffer). Aber ist eh egal die Namensschema werden ja öfter mal gewechselt.
boxleitnerb
2012-02-21, 16:54:59
War der Unterschied zwischen GF100 und GF110 wirklich so groß in Sachen perf/W?
Es gibt Reviews, die einer 580 fast dieselbe Leistungsaufnahme zuschreiben wie der 480 bei 15% höherer Performance. Das ist jetzt nicht grad ein großer Schritt finde ich.
Nvidias Refresh sah in dieser Hinsicht nur deshalb so gut aus, weil AMD mit Cayman deutliche Verschlechterungen brachte.
y33H@
2012-02-21, 16:56:17
Wie sieht's eigentlich bei Euch aus, @y33h@ - würdest Du Kyles Statement auch zurückziehen, wäre es Deines gewesen?Johannes war Täufer, nicht Astrologe :biggrin: Und "klau" nicht meine Signatur :usad:
Ailuros
2012-02-21, 17:24:49
Gk107 - durchaus
Nein - durchaus.
Also GF100 ist sicher ein sehr schlechtes Indiz, kein anderer Chip der GF10x Reihe hatte auch nur annähernd die Probleme dieses Chips. Deswegen hat der Sprung von GF100 zu GF110 auch weitaus am meisten gebracht punkto Perf/W gegenüber den anderen GF10x Chips.
Diesmal aber kommt GK110 zuletzt - ob jetzt weil GK100 aufgrund von Problemen gecancelt ist oder gar nie vorgesehen war ist ziemlich egal. Der hat also mit Sicherheit keine Probleme die die anderen Chips nicht auch haben. Sollten die anderen GK10x chips wieder irgendwelche solchen Probleme haben (was ich aber nicht annehme) dann könnte GK110 sogar verhältnismässig besser sein (das wäre dann quasi wie GF110 zu GF104).
GF110 kam erst als alternative Loesung zum Vorschein als TSMC 32nm stornierte.
Was jetzt den angeblichen GK100 Unsinn betrifft: als NV in der Vergangenheit noch hoffte es vor Weihnachten 2011 mit Kepler auf die Regale zu schaffen war schon damals ein performance chip zuerst geplant. Ein high end chip war NIE vor 2012 geplant, egal was bei TSMC fuer 28nm in der Zwischenzeit passierte. NV ist weder Intel es sich leisten zu koennen ein so teures Projekt zu stornieren und gleich mit einem hypothetischen Nachfolger weiterzumachen, noch passen in irgend einer Art die Zeitspannen einen hypothetischen GK100 zu stornieren und nur wenige Monate danach gleich einen "GK110-refresh" veroeffentlichen zu wollen. Weder NVIDIA noch AMD koennen diesbezueglich zaubern.
Aber: bei einem hochkomplizierten chip der mit Sicherheit ueber 500mm2 wiegt auf einem so neuen Prozess waere man total naiv zu glauben dass jeglicher IHV heutzutage mit tape out silicon zur Massenproduktion gehen koennte. Ich halte es persoenlich fuer unmoeglich dass sie nicht zumindest einen metal spin brauchen werden. Der naechste Punkt danach ist wie die eigentliche binning yields bei so einem monster-chip aussehen koennten.
Sonst hast Du recht: GF110 ist ein schlechtes Beispiel gegenueber Kepler eben weil perf/W selbst im high end Bereich besser sein duerfte. Wenn man computerbase's GF110/GF114 Leistungsunterschied bei 40+% als Beispiel nimmt, dann ist der eingeschaetzte Unterschied von ca.50% zwischen GK110/GK104 zwar sehenswert aber auch nicht gerade ein Beinbruch. Der eigentliche Punkt der ganzen Sache liegt eben daran dass GK104 sich um ein gutes Stueck mehr gegenueber GF114 absetzt was Leistung betrifft.
mczak
2012-02-21, 17:41:22
War der Unterschied zwischen GF100 und GF110 wirklich so groß in Sachen perf/W?
Es gibt Reviews, die einer 580 fast dieselbe Leistungsaufnahme zuschreiben wie der 480 bei 15% höherer Performance. Das ist jetzt nicht grad ein großer Schritt finde ich.
Mir scheint es waren eher 15-20% mehr Performance bei gleichem Stromverbrauch.
Das ist vielleicht kein Riesensprung, nur bei den anderen Chips hat der Refresh in der Beziehung so gut wie gar nichts gebracht (gut vielleicht so um die 5%). Die sind zwar dank höherem Takt durchaus schneller aber der Stromverbrauch hat praktisch im selben Verhältnis zugenommen.
boxleitnerb
2012-02-21, 17:43:56
^du meinst bei HD6000? Ich sag ja, Fermi v2 stand nur deshalb so "gut" da, weil die Konkurrenz sich verschlechtert hatte was perf/W anging, zumindest auf 6970 Level. Wenn GF100 "kaputt" war, war GF110 fast genauso kaputt.
Ailuros
2012-02-21, 17:46:10
Mir scheint es waren eher 15-20% mehr Performance bei gleichem Stromverbrauch.
Das ist vielleicht kein Riesensprung, nur bei den anderen Chips hat der Refresh in der Beziehung so gut wie gar nichts gebracht (gut vielleicht so um die 5%). Die sind zwar dank höherem Takt durchaus schneller aber der Stromverbrauch hat praktisch im selben Verhältnis zugenommen.
GF100/GTX480 250W TDP (15SMs@1.4GHz)
GF110/GTX580 244W TDP (16SMs@1.544GHz) = GF100+15%
john carmack
2012-02-21, 17:57:44
Gibt es eigentlich mittlerweile ein Datum zum NDA?
y33H@
2012-02-21, 17:58:42
Der Fall des NDAs ist Teil des NDAs, ist das NDA ;D Ich sag nichts :P
john carmack
2012-02-21, 18:03:14
"Fall des NDAs ist Teil des NDAs"
Sehr intelligent :D
Das bedeutet also, das es Morgen schon offizielle Tests geben könnte und kein Schwein weiß davon ?!?!
tststs...
Ailuros
2012-02-21, 18:06:03
"Fall des NDAs ist Teil des NDAs"
Sehr intelligent :D
Das bedeutet also, das es Morgen schon offizielle Tests geben könnte und kein Schwein weiß davon ?!?!
tststs...
Morgen ist es garantiert nicht und es halten sich hier auch keine Schweine auf.
Blediator16
2012-02-21, 18:06:15
Theoretisch schon praktisch weiß man einen Zeitraum wenn was kommen soll wegen leaks^^
N0Thing
2012-02-21, 18:21:33
Und es gibt in der Regel schon mal Andeutungen, daß Hardware zum Testen in den Redaktionen eingetroffen ist, ohne daß genauere Details verraten werden.
Es ist auf alle Fälle gut zu wissen, daß es inzwischen überhaupt ein NDA zu einem Produkt gibt.
mczak
2012-02-21, 18:22:40
GF100/GTX480 250W TDP (15SMs@1.4GHz)
GF110/GTX580 244W TDP (16SMs@1.544GHz) = GF100+15%
Performance indices show more of an increase. There were some small architecture improvements (the fp16 full speed filtering comes to mind can't remember the others), GF110 was definitely slightly faster per clock than GTX480 (which again for the other GF10x chips wasn't the case).
Plus your math is off the GF100 might be 15% slower than GF110 but GF110 is 17.6% faster than GF100 :-).
Hübie
2012-02-21, 18:32:49
Morgen ist es garantiert nicht und es halten sich hier auch keine Schweine auf.
Sicher? ;D Ich bin jedenfalls erleichtert das endlich Bewegung ins Spiel kommt. Langsam ging mir der Atem aus.
Irgend jemand wird schon was durchsickern lassen. Da bin ich mir sicher ;)
Edit: Gerade im Forum gefunden: ^^
http://i41.tinypic.com/20uuxqg.jpg
DarknessFalls
2012-02-21, 18:38:23
Und "klau" nicht meine Signatur :usad:
Also, genaugenommen hast auch Du, mein lieber y33h@, geklaut - bei einem gewissen Herrn V.D. in seiner Rolle als xXx (wenn mich meine Erinnerung nicht trübt). ^^ Aber Du hast hier das "Recht des Älteren"; ich lass mir was kreatives anderes einfallen. :freak:
Du bist übrigens böse, so kryptische Antworten zu geben... ;D
Nein - durchaus. Über andere Chips spricht man aber nicht mehr.
Aber wie immer kommt ein NV Chip, wenn ich Urlaub habe...
Ailuros
2012-02-21, 18:44:48
Performance indices show more of an increase. There were some small architecture improvements (the fp16 full speed filtering comes to mind can't remember the others), GF110 was definitely slightly faster per clock than GTX480 (which again for the other GF10x chips wasn't the case).
Plus your math is off the GF100 might be 15% slower than GF110 but GF110 is 17.6% faster than GF100 :-).
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/#abschnitt_leistung_mit_aaaf
Ob es jetzt 15 oder fast 18% sind ist sowieso ziemlich egal. Es reicht wenn man ein anderes benchmark-set benutzt und man kann kinderleicht leicht bessere oder leicht schlechtere Unterschiede erreichen. Der eigentliche Punkt der Sache ist dass GF110 nicht die interconnect hw Probleme wie GF100 mehr hatte.
Noch bunter wird es bei GF110 vs. GF100 Teslas:
M2050 (GF100) 3GB, 448SPs@1.15GHz, 238W TDP, 2.16DP FLOPs/W
M2090 (GF110) 6GB, 512SPs@1.30GHz, 225W TDP, 2.95DP FLOPs/W
y33H@
2012-02-21, 18:57:01
Also, genaugenommen hast auch Du, mein lieber y33h@, geklaut - bei einem gewissen Herrn V.D. in seiner Rolle als xXx (wenn mich meine Erinnerung nicht trübt). ^^ Aber Du hast hier das "Recht des Älteren"; ich lass mir was kreatives anderes einfallen.Nope, das Zitat stammt von Richard B. Riddick aus Escape from Butcher Bay ;)
Du bist übrigens böse, so kryptische Antworten zu geben...Nachdem bereits AMD der Ansicht ist, dass Leaker nun doch endlich pöööhse sind und bestraft werden sollen (http://hwbot.org/forum/showthread.php?t=39761) (kam als Mail), ist NV vll auch vehementer ^^ nein, im Ernst - ich habe nie Dinge geleakt, wenn sie nicht schon wo anders standen und werde es auch in Zukunft nicht tun. Am Ende sind derartige Infos eh meist einige Tage später public, da mache ich mir keinen Stress ... die, die es wissen sollen, wissen es - der Rest möge bitte ein klein wenig Geduld haben. Denn es ist ja nicht so, dass 1-2 Wochen ernsthaft entscheidend wären [nein, ich sage damit nicht, das Kepler in 1-2 Wochen erscheint!]
Ailuros
2012-02-21, 18:58:58
Über andere Chips spricht man aber nicht mehr.
Aber wie immer kommt ein NV Chip, wenn ich Urlaub habe...
Du kannst gerne versuchen mich zu versichern dass Kyle nur etwas ueber etwas so bescheidenes wie GK107 bekommen hat, aber es wird an meiner vorigen Aussage nichts aendern.
aylano
2012-02-21, 19:11:09
Also GF100 ist sicher ein sehr schlechtes Indiz, kein anderer Chip der GF10x Reihe hatte auch nur annähernd die Probleme dieses Chips. Deswegen hat der Sprung von GF100 zu GF110 auch weitaus am meisten gebracht punkto Perf/W gegenüber den anderen GF10x Chips.
Diesmal aber kommt GK110 zuletzt - ob jetzt weil GK100 aufgrund von Problemen gecancelt ist oder gar nie vorgesehen war ist ziemlich egal.
Natürlich ist GK100 mit GF100 zu vergleichen, weil große Dies in neuer Fertigung schwieriger zu produzieren ist und hohe Spannungen und somit hoher Stromverbrauch oft gerne für höhere Yields genutzt werden.
GF100 wäre auch ohne Teil-Deaktiviertes Problemchen 3 Monate nach 5800er-Launch wegen zu hohem Stromverbrauchs bzw. geringen Takten und geringen Yields nicht wirtschaftlich zu produzieren gewesen.
Somit besteht eben die gute Chance, dass sich das gleiche Spiel wiederholt.
Mit dem Unterschied, dass die TSMC-28nm-Wafer-Kapazitäten viel stärker limitieren, während Nvidia zur Fermi-40nm-Einführung schon 40-50% des GPU-Umsatzes mit 40nm-GPUs (GT218, GT216, GT215) machte und somit damals entsprechend viele 40nm-Wafer-Kapaziäten schon vorhanden waren.
Würde Nvidia GK100 in April 2012 locker flockig entwickeln & gesund produzieren können, hätten sie nicht GK104 vor GK110 vorgeschoben um die Einführungs-Verspätungs-Risken der Performance & Low-End & Mainstream-GPUs im Vergleich zur Fermi-Ära deutlich zu senken.
Für April wird GK100 so oder so nicht einfach.
Nvidia-CEO hat schon angekündigt, dass der 28nm-Wafer-Engpass bis Ende 2012 stattfinden soll. Zum Vergleich, AMD hatte bis Mitte 2010 40nm-Wafer-Engpässe (=3 Monate nach GF100-Einführung) für GPUs.
Und wie sich AMD bei Wafer-Engpässen dann verhält, werden wir es erst sehen, da sie dieses Problem in 40nm im Grund nicht hatten.
Es gibt Reviews, die einer 580 fast dieselbe Leistungsaufnahme zuschreiben wie der 480 bei 15% höherer Performance. Das ist jetzt nicht grad ein großer Schritt finde ich.
Nvidias Refresh sah in dieser Hinsicht nur deshalb so gut aus, weil AMD mit Cayman deutliche Verschlechterungen brachte.
15%-Effizienz-Steigerung ist schon viel.
Das wurde auch von GT280 --> GT285 erreicht, aber das heißt nicht automatisch, dass andere gleich deshalb schlecht sind, wenn sie ihren zusätzliche Performance über Takt & Stromverbrauch 1:1 holen, nur weil die Vorgänger (HD 5800 & GTX 460) besser dastanden.
Du kannst gerne versuchen mich zu versichern dass Kyle nur etwas ueber etwas so bescheidenes wie GK107 bekommen hat, aber es wird an meiner vorigen Aussage nichts aendern.
Das meinte ich gar nicht so. Eher ganz im Gegenteil...
boxleitnerb
2012-02-21, 19:24:36
15%-Effizienz-Steigerung ist schon viel.
Das wurde auch von GT280 --> GT285 erreicht, aber das heißt nicht automatisch, dass andere gleich deshalb schlecht sind, wenn sie ihren zusätzliche Performance über Takt & Stromverbrauch 1:1 holen, nur weil die Vorgänger (HD 5800 & GTX 460) besser dastanden.
1:1? Die 6970 hat sich im Vergleich zur 5870 bei Perf/W deutlich verschlechtert.
Ailuros
2012-02-21, 19:44:06
Natürlich ist GK100 mit GF100 zu vergleichen, weil große Dies in neuer Fertigung schwieriger zu produzieren ist und hohe Spannungen und somit hoher Stromverbrauch oft gerne für höhere Yields genutzt werden.
GF100 wäre auch ohne Teil-Deaktiviertes Problemchen 3 Monate nach 5800er-Launch wegen zu hohem Stromverbrauchs bzw. geringen Takten und geringen Yields nicht wirtschaftlich zu produzieren gewesen.
Ja und? Seit es NV klar wurde dass sie unter 28nm in 2011 nichts sehenswertes vorzeigen koennen war anfangs GK104 fuer Februar und GK110 fuer April geplant. 4 bzw. 5 Monate spaeter als Tahiti ist ein stinknormaler Zeitraum wenn mit dem chip auch wirklich alles stimmt. Das Fragezeichen ist und bleibt ob ein einziger metal spin reichen wird oder nicht. Und 5 Monate nur weil die letzte Kommunikation von einem Mai Launch-ziel fuer GK110 sprach; ist aber stets unter der "wenn alles nach Plan laeuft" Selbstverstaendlichkeit.
Somit besteht eben die gute Chance, dass sich das gleiche Spiel wiederholt.
Dann luegt auch AMD intern, denn sie erwarten dass sich die Herstellungskosten ab ~April um einiges reduzieren sollen.
Mit dem Unterschied, dass die TSMC-28nm-Wafer-Kapazitäten viel stärker limitieren, während Nvidia zur Fermi-40nm-Einführung schon 40-50% des GPU-Umsatzes mit 40nm-GPUs (GT218, GT216, GT215) machte und somit damals entsprechend viele 40nm-Wafer-Kapaziäten schon vorhanden waren.
Woher willst Du wissen ob NV schon seit Ende 2011 unter 28nm herstellt und mit wie vielen Quantitaeten?
Würde Nvidia GK100 in April 2012 locker flockig entwickeln & gesund produzieren können, hätten sie nicht GK104 vor GK110 vorgeschoben um die Einführungs-Verspätungs-Risken der Performance & Low-End & Mainstream-GPUs im Vergleich zur Fermi-Ära deutlich zu senken.
Es gab und gibt keinen "GK100".
Für April wird GK100 so oder so nicht einfach.
GK110 Launchdate haengt von dem eigentlichem Zustand des chips ab hauptsaechlich und weniger vom Herstellungsprozess.
Nvidia-CEO hat schon angekündigt, dass der 28nm-Wafer-Engpass bis Ende 2012 stattfinden soll. Zum Vergleich, AMD hatte bis Mitte 2010 40nm-Wafer-Engpässe (=3 Monate nach GF100-Einführung) für GPUs.
Und wie sich AMD bei Wafer-Engpässen dann verhält, werden wir es erst sehen, da sie dieses Problem in 40nm im Grund nicht hatten.
40G GPU Verfuegbarkeit hat im September 2009 angefangen und TSMC's Kapazitaeten haben sich erst in Q3 2010 verdoppelt. Komischerweise kam TahitiXT erst im Januar 2012 aufs Regal und die 28nm Kapazitaeten werden sich erst in Q3 wieder verdoppeln.
15%-Effizienz-Steigerung ist schon viel.
Das wurde auch von GT280 --> GT285 erreicht, aber das heißt nicht automatisch, dass andere gleich deshalb schlecht sind, wenn sie ihren zusätzliche Performance über Takt & Stromverbrauch 1:1 holen, nur weil die Vorgänger (HD 5800 & GTX 460) besser dastanden.
Es ist um einiges mehr als 15% da ein high end die wie GF100/110 nicht nur desktop als Ziel hat, obwohl die eigentliche Finanzierung davon kommt. Bei Teslas bzw. Quadros ist der perf/W Unterschied noch groesser eben weil die eigentlichen Notwendigkeiten fuer diese Maerkte nicht den chip so stark auslasten wie unter 3D oder einfacher es limitieren weniger Stellen einer Architektur. Fuer DP z.B. brauchst Du hauptsaechlich ALUs.
mczak
2012-02-21, 20:08:34
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-grafikkarten-evolution/3/#abschnitt_leistung_mit_aaaf
Ob es jetzt 15 oder fast 18% sind ist sowieso ziemlich egal. Es reicht wenn man ein anderes benchmark-set benutzt und man kann kinderleicht leicht bessere oder leicht schlechtere Unterschiede erreichen. Der eigentliche Punkt der Sache ist dass GF110 nicht die interconnect hw Probleme wie GF100 mehr hatte.
Ok da stimme ich zu, es ist auf alle Fälle eine relativ deutliche Verbesserung.
Sorry für Englisch übrigens hab da wohl das Forum verwechselt :-).
Noch bunter wird es bei GF110 vs. GF100 Teslas:
M2050 (GF100) 3GB, 448SPs@1.15GHz, 238W TDP, 2.16DP FLOPs/W
M2090 (GF110) 6GB, 512SPs@1.30GHz, 225W TDP, 2.95DP FLOPs/W
In der Tat das sind dann über 35%.
Natürlich ist GK100 mit GF100 zu vergleichen, weil große Dies in neuer Fertigung schwieriger zu produzieren ist und hohe Spannungen und somit hoher Stromverbrauch oft gerne für höhere Yields genutzt werden.
GF100 wäre auch ohne Teil-Deaktiviertes Problemchen 3 Monate nach 5800er-Launch wegen zu hohem Stromverbrauchs bzw. geringen Takten und geringen Yields nicht wirtschaftlich zu produzieren gewesen.
Wenn's denn GK100 wirklich gab was eben nicht sein muss. Nvidia hat eben aus all den Gründen möglicherweise von Anfang an GK110 später geplant, damit man allfällige Probleme nur bei den kleineren Chips hat, bei denen das etwas weniger dramatische Folgen hat.
15%-Effizienz-Steigerung ist schon viel.
Das wurde auch von GT280 --> GT285 erreicht, aber das heißt nicht automatisch, dass andere gleich deshalb schlecht sind, wenn sie ihren zusätzliche Performance über Takt & Stromverbrauch 1:1 holen, nur weil die Vorgänger (HD 5800 & GTX 460) besser dastanden.
Das ist durchaus ordentlich. GT280->GT285 ist nicht ganz vergleichbar da war auch ein Shrink dabei, auch wenn der wohl höchstens minimale Einsparungen bringt (war bloss ein optischer Shrink).
Du hast natürlich recht GF110 steht nur gut da weil GF100 eben ziemlich kaputt war (was bei den anderen GF10x Chips nicht der Fall war). Aber es ging eigentlich bloss darum zu zeigen dass das beim GK110 nicht so sein wird.
Captain Future
2012-02-21, 20:10:14
In der Tat das sind dann über 35%.
13 Watt entfallen auf den fehlenden Lüfter.
Ailuros
2012-02-21, 21:00:18
13 Watt entfallen auf den fehlenden Lüfter.
Zwar noch mehr OT aber die Speichermengen sind alles andere als gering auf Teslas, wird aber auch teilweise durch die geringeren Frequenzen ausgeglichen.
Hugo78
2012-02-21, 21:39:26
13 Watt entfallen auf den fehlenden Lüfter.
Ne nicht wirklich, weil hier Tesla mit Tesla verglichen wurde. ;)
Und GF110 hat sogar noch 6 statt 3 GB VRAM.
PCGH_Carsten
2012-02-21, 21:47:39
Ich glaub aber doch. Guck dir mal die beiden Tesla-Modelle bei Nvidia an. M2090 ist eine Datacenter-Lösung und komplett „passiv“, M2050 hat den ganz normalen Fermi-Quirl.
Hugo78
2012-02-21, 23:48:57
Carsten die Teslas werden doch in Racks, ergo liegend verbaut.
Tesla M2050 / M2070
http://www.nvidia.de/object/product_tesla_M2050_M2070_de.html
Was man hinterfragen könnte wäre, ob entgegen des Produktbildes, ein M2090 nicht doch schon eine Vaporchamber gekommen hat,
statt der Heatpipes, die ja den Luftstrom im Rack sicherlicher eher behindern.
Aber das müsste man jetzt Leute fragen, die sowas verbauen. :biggrin:
Edit:
Sorry, es gibt natürlich auch noch Teslakarten.
http://www.nvidia.de/object/product_tesla_C2050_C2070_de.html
Aber wenn dann bezieht sich der Vergleich doch auf die Rackversion (weil M statt C).
PCGH_Carsten
2012-02-22, 09:24:51
Carsten die Teslas werden doch in Racks, ergo liegend verbaut.
Tesla M2050 / M2070
http://www.nvidia.de/object/product_tesla_M2050_M2070_de.html
Und genau die werden in deinem Link mit ebenfalls 225 Watt angegeben – weil die 13 Watt vom Lüfter „fehlen“.
die 2090er gibts nur ohne Lüfter...
die 2050er und 2070er jeweils mit (C20x0) und ohne (M20x0)
Speicher:
2050 hat 3GB
2070 6GB
2090 6GB
und so weit ich weiß hat nur die 2090 den GF110 (alle Einheiten i.o. und aktiv)
Hugo78
2012-02-22, 10:26:21
Und genau die werden in deinem Link mit ebenfalls 225 Watt angegeben – weil die 13 Watt vom Lüfter „fehlen“.
Stimmt, die M Versionen sind immer bei 225W.
Dann sind es 2,29DP FLOPs/W für M2050, macht immernoch +29% für die M2090.
aylano
2012-02-22, 14:32:22
1:1? Die 6970 hat sich im Vergleich zur 5870 bei Perf/W deutlich verschlechtert.
Da geb ich dir recht.
HD6970 hat sich da verschlechter.
Das Problem an 40nm war bei allen Refresh-GPUs die Spannungs-Erhöhung, wodurch GF110-15%-Spannungs-Erhöhung höher einzuschätzen ist.
Aber es zeigte sich damals bei der neuen 40nm-Fertigungs-Einführung, dass gerade bei größeren/großen Dies Nvidia einiges an Potential nicht nutzen konnte, wenn beim Refresh GF110 viel mehr als GF114 in P/W zulegen konnte, während Cayman sogar einen Schritt zurückmachte.
Vorallem konnte man bei GF100 die schlechte P/W über den hohen Stromverbrauch kompensieren. Wenn wenn wenn sie bei 28nm wieder so ein Problem haben sollten bzw momentan noch in so einen Entwicklungs-Punkt sind, dann wird Nvidia den GK100 bei der Einfürhung eben nicht mehr so leicht den Takt über den erhöhten Stromverbrauch steigern können, sondern muss eben einen (weiteren) Respin für besseres P/W machen.
In der 40nm-Fertigung war AFAIK das erste mal, wo die großen Dies auf die neue Fertigung frühstmöglich umgestellt wurden, sodass ich gerne auf 40nm Bezug nehme.
Wenn's denn GK100 wirklich gab was eben nicht sein muss. Nvidia hat eben aus all den Gründen möglicherweise von Anfang an GK110 später geplant, damit man allfällige Probleme nur bei den kleineren Chips hat, bei denen das etwas weniger dramatische Folgen hat.
Für mich war bisher GK100 und GK110 der selbe.
Es wäre ein viel zu großes Risiko, die kleinen Chips nach GK110 zu launchen, wenn GK110 in April Probleme (=weiteres Quartal Verspätung) macht.
Das ist durchaus ordentlich. GT280->GT285 ist nicht ganz vergleichbar da war auch ein Shrink dabei, auch wenn der wohl höchstens minimale Einsparungen bringt (war bloss ein optischer Shrink).
So ein kleiner Shrink bringt kaum was/nichts.
Bei AMDs Low-End & Mainstreams brauchte dieser Shrink nichts.
Da sind Fertigungs-Technologien und Fertigungs-Reife neben so einen kleinen Shrink wichtiger.
Das Fragezeichen ist und bleibt ob ein einziger metal spin reichen wird oder nicht. Und 5 Monate nur weil die letzte Kommunikation von einem Mai Launch-ziel fuer GK110 sprach; ist aber stets unter der "wenn alles nach Plan laeuft" Selbstverstaendlichkeit.
Ich krisitisierte ja nicht diese 4-5 Monate spätere Einführung da AMD-Verfügbarkeit nicht gleich Nvidia-Verfügbarkeit ist. Sondern ich merke an, dass mit April-Mai eben alles Perfekt laufen muss.
Genau das wird schon allein wegen den Fabriks-Kapazitäten (auch Auswirkungen auf Gesamtstückzahlen) schon schwierig
Dann luegt auch AMD intern, denn sie erwarten dass sich die Herstellungskosten ab ~April um einiges reduzieren sollen.
Genauso wie laut TSMC Ende 2009/Anf 2010 TSMC die 40nm-Probleme als gelöst meldete
http://www.computerbase.de/news/2010-01/tsmc-40-nm-probleme-sind-behoben/
Zu diesem Zeitpunkt waren die GF100 mit AFAIK 200$ noch nicht wirtschaftlich produzierbar.
Sollen ist nicht müssen und dabei muss AMD dann nichteinmal lügen.
Woher willst Du wissen ob NV schon seit Ende 2011 unter 28nm herstellt und mit wie vielen Quantitaeten?
Nirgends.
Ich weiß nur, dass 28nm-Kapazitäten & Yields das Hauptthema im 4Q 2011 Geschäftsbericht-Call war.
Sowie, dass mehr als die Hälfte aller 28nm-Wafer 28LP waren.
Sowie die ersten GK107-Lieferungen, deren 28nm-Wafer-Starts im 4Q 2011 begonnen werden musste.
Und bei 40nm sahen wir, wie Fertigungs-Probleme nicht in Monaten sondern Quartalen gelöst werden.
usw usw.
GK110 Launchdate haengt von dem eigentlichem Zustand des chips ab hauptsaechlich und weniger vom Herstellungsprozess.
Schlechte Herstellungsprozesse machen die Herstellung von großen Dies nicht einfacher.
Die Probleme-Liste die Nvidia mit großen Dies bisher hatte, ist schon lange genug und da sind auch Fertigungen, die damals gesund waren.
40G GPU Verfuegbarkeit hat im September 2009 angefangen und TSMC's Kapazitaeten haben sich erst in Q3 2010 verdoppelt. Komischerweise kam TahitiXT erst im Januar 2012 aufs Regal und die 28nm Kapazitaeten werden sich erst in Q3 wieder verdoppeln.
Die Frage ist, was du mit Verfügbarkeit bzw. Kapzitäten meinst.
Im 3Q 2009 hat Nvidia AFAIK schon so 15-20% 40nm-GPU-Umsatz, da GT215/6 schon Mitte 2009 ausgeliefert wurde.
Die Fab15-Phase 1 soll ja meiner Einschätzung nach (frühestens) ab April 2012 ihre erste Wafer ausspucken. Wenn die erst im 3Q ausspickt, dann sieht es noch ungünstiger aus.
Ailuros
2012-02-22, 18:10:12
Ich krisitisierte ja nicht diese 4-5 Monate spätere Einführung da AMD-Verfügbarkeit nicht gleich Nvidia-Verfügbarkeit ist. Sondern ich merke an, dass mit April-Mai eben alles Perfekt laufen muss.
Genau das wird schon allein wegen den Fabriks-Kapazitäten (auch Auswirkungen auf Gesamtstückzahlen) schon schwierig.
High end chips brauchen keine besonderen Kapazitaeten, eben weil die Nachfrage dank hohem Preis um einiges geringer ist als in anderen Faellen. Wie gesagt es haengt fuer GK110 mehr vom eigentlichen Zustand des chips ab und um einiges weniger von jeglichen TSMC Kapazitaeten/yields. In dem Fall traegt TSMC wenig bis gar keine Verantwortung.
Genauso wie laut TSMC Ende 2009/Anf 2010 TSMC die 40nm-Probleme als gelöst meldete
http://www.computerbase.de/news/2010-01/tsmc-40-nm-probleme-sind-behoben/
Zu diesem Zeitpunkt waren die GF100 mit AFAIK 200$ noch nicht wirtschaftlich produzierbar.
Sollen ist nicht müssen und dabei muss AMD dann nichteinmal lügen.
Nur kommt das "afaik" von mir. In 2009 haette die Herstellung eines GF100 tatsaechlich so viel gekostet und als sie dann endlich ab Q1 10' in die Produktion gingen entdeckten sie das interconnect Problem stets nach Ihnen. GF100 hat ungefaehr pro Stueck genauso viel gekostet herzustellen in Q1 als AMD pro Cypress chip in Q3 09' blechen musste.
Die 40G yield Probleme wurden tatsaechlich in Q1 2010 geloest da die yields um einiges besser wurden und es nicht so brutale Schwankungen gab wie im vorigen Jahr. AMD hatte ein paar hundert wafer mit nur 4% yields und in Q1 purzelten ihre Herstellungskosten ueber 40%.
Nirgends.
Ich weiß nur, dass 28nm-Kapazitäten & Yields das Hauptthema im 4Q 2011 Geschäftsbericht-Call war.
Sowie, dass mehr als die Hälfte aller 28nm-Wafer 28LP waren.
Sowie die ersten GK107-Lieferungen, deren 28nm-Wafer-Starts im 4Q 2011 begonnen werden musste.
Und bei 40nm sahen wir, wie Fertigungs-Probleme nicht in Monaten sondern Quartalen gelöst werden.
usw usw.
Jensen brauchte lediglich eine fruehzeitige Entschuldigung/Warnung (oder nenn es wie es passt, es macht keinen Unterschied) falls er seine vorigen Versprechungen ueber release der kompletten Kepler Familie innerhalb 3 Monate nicht einhalten kann.
Schlechte Herstellungsprozesse machen die Herstellung von großen Dies nicht einfacher.
Ein sehr guter Grund eine Produkt-Familie so zu gestalten dass der top dog eines der letzten tape outs dafuer sein wird. Passt wohl immer noch nicht in ein angeblicher stornierter "GK100" in die ganze Geschichte.
Die Probleme-Liste die Nvidia mit großen Dies bisher hatte, ist schon lange genug und da sind auch Fertigungen, die damals gesund waren.
Davon ist leider kein einziger IHV immun. AMD stellt keine high end chips seit einigen Jahren her und Intel wurschtelt immer noch bis Gott weiss wer an ihrem Knights Corner Dingsbums rum (und nein ich wage nichtmal nachzufragen bei welcher hw Revision sie wieder sind, obwohl es mich nur ein e-mail kosten wuerde).
Die Frage ist, was du mit Verfügbarkeit bzw. Kapzitäten meinst.
Im 3Q 2009 hat Nvidia AFAIK schon so 15-20% 40nm-GPU-Umsatz, da GT215/6 schon Mitte 2009 ausgeliefert wurde.
Die Fab15-Phase 1 soll ja meiner Einschätzung nach (frühestens) ab April 2012 ihre erste Wafer ausspucken. Wenn die erst im 3Q ausspickt, dann sieht es noch ungünstiger aus.
Es ist nicht besonders schwer nachzuschlagen wann in 2009 ein zweites TSMC fab fuer die 40G Produktion eingestellt wurde und sich somit die bisherigen Kapazitaeten verdoppelten.
Schoen dass Du Fab15 fuer April einschaetzt. Was Kapazitaeten betrifft kommt naemlich genau dieses zum eigentlichen Widerspruch zu Deinen Gedanken dass jegliche moegliche GK110 Verspaetung dank dieser sein wird. Da es nach letztem Stand nicht vor Mai geplant war (und ja ich koennte sogar ein genaues Datum dahinterstecken), kommen wir eigentlich bei dieser "Feststellung" zurueck auf den Punkt dass es eher NV's und nicht TSMC's Problem sein wird falls 110 eben nicht im Mai ankommen sollte.
boxleitnerb
2012-02-23, 06:28:10
GK107 Benchmarks, Fake oder echt? Überall wurde ein 3960X@stock benutzt.
3DMarks 11,06,05, Vantage:
http://www.youtube.com/watch?v=2GLcG5RPX-c
http://www.youtube.com/watch?v=NekA62118Yg
http://www.youtube.com/watch?v=241n8nVdq8E
http://www.youtube.com/watch?v=_G57UcN2sjA
3DMark11: P3818 (zum Vergleich: HD7770=3530)
3DMark06: 23893 (720p, noAA)
3DMark05: 31734 (1024x768, noAA)
3DMarkVantage: P16079
RE5 1080p, 16xAA, DX10:
Variable Benchmark: 105.6fps
http://www.youtube.com/watch?v=pqHaYPg6h9g&feature=related
Eine GTX470 mit i7-3960X bringt 133fps, aber mit nur 4xAA:
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/48277-asus-x79-rampage-iv-extreme-socket-2011-motherboard-review-17.html
Zergra
2012-02-23, 08:00:10
Kommt mir nicht so vor, aber die Leistung könnte ja hinkommen
boxleitnerb
2012-02-23, 08:09:32
Kann man aus den Füllratentests von 3DMark Vantage irgendwas rauslesen?
Das kommt beim angeblichen GK107 raus:
Feature Test1 37.90
Feature Test2 5.00
Feature Test 1: Texture Fill This test draws frames by filling the screen rectangle with values read from a tiny texture using multiple texture coordinates. The texture coordinates are rotated and scaled between each frame.
Feature Test 2: Color Fill This test draws frames by drawing a rectangle across the screen multiple times. The color and alpha channels of each corner of the rectangle is animated. The pixel shader is pass-through. The interpolated color is written directly to the render target using alpha blending. The render target is in 16-bit floating-point format, currently the most relevant format for HDR rendering output.
Ist nicht der GF108 (z.B. GT440 im Vollausbau) der Vorgänger vom GK107? Eine GT440 schafft nur ca. 5800 Punkte im 3DMark Vantage im Performance Preset. Eine knappe Verdreifachung der Leistung ist doch recht unglaubwürdig. Noch krasser sieht es bei 3DMark11 aus - eine Vervierfachung (920 vs 3800).
Zergra
2012-02-23, 08:35:12
GK107 ist doch der nachfolger der (550TI) GF116 oder nicht?
stimmt dann wäre es wieder unlogisch :)
die 550Ti schafft 11-12,7k je nach Karte
boxleitnerb
2012-02-23, 08:40:36
Uff, keine Ahnung. Also der kleinste Fermichip aus der 400er Reihe ist der 108, der kleinste bei den 500ern ist der 119. Das ist aber total unübersichtlich, weil da wild deaktiviert wird - ich schätze mal diese vermeintlichen Benchmarks sind vom Vollausbau von GK107, aber mit was man den genau vergleichen kann als Vorgänger, weiß ich nicht.
Laut Wikipedia ist GF119 ein gutes Stück kleiner als GF118 und GF108. Wenn man sich grob an Cape Verde mit der Die Size orientiert, würde ich dann vielleicht eher GF108 bzw. GF118 als Vorgänger sehen, also GT440 und GT530.
Palpatin
2012-02-23, 08:46:18
GK107 Benchmarks, Fake oder echt? Überall wurde ein 3960X@stock benutzt.
Hmm, hab mal was von ca 75 Watt angepeilter TDP beim GK 107 gelesen, dürfte also in etwa auf HD7770 Performance kommen, weit drüber ist allerdings sehr unrealistisch da ich nicht glaub das man >128 bit SI verwenden wird.
Zergra
2012-02-23, 08:48:51
Wenns es wirklich so wäre, würde ich auf einen Fake Tippen bzw. das die GPU vllt. auch die GK106 ist. Man weiß ja nie.
Aber ich bin mir da extrem unsicher, denn es könnte ja auch wirklich der Gk107 Vollausbau sein
boxleitnerb
2012-02-23, 08:55:16
Grad in den unteren Gefilden hat Nvidia doch nicht so gut abgeschnitten. Dass man da überproportional viel aufholt, halte ich nicht für unmöglich.
Eine GT530 (GF118, 116mm2) erreicht mit sehr leichter Übertaktung 1430 Punkte:
http://hwbot.org/submission/2257110_hanny_chris_3dmark11___performance_geforce_gt_530_1431_marks
Das wäre dann nur noch eine Verdopplung mit GK107.
AnarchX
2012-02-23, 09:00:34
Kann man aus den Füllratentests von 3DMark Vantage irgendwas rauslesen?
Das kommt beim angeblichen GK107 raus:
GK107 ist nicht der Nachfolger von GF108, sondern eine neue Lösung zwischen 108 und 106.
Mal alle Werte:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42084&stc=1&d=1329983947
3DMARK VANTAGE
Feature Test1 37.90
Feature Test2 5.00
Feature Test3 28.70
Feature Test4 68.89
Feature Test5 64.51
Feature Test6 69.61 (http://forum.beyond3d.com/showpost.php?p=1622323&postcount=1881)
GTX 550 Ti (1GHz) im Vergleich (X-Setting ist für die Feature-Tests nicht relevant):
http://www.legitreviews.com/images/reviews/1688/3dmarkvantage.png
http://www.legitreviews.com/images/reviews/1688/3dmarkvantage.png
Da scheint "GK107" in allen Bereichen deutlich schneller zu sein, im Feature Test 5 (Perlin Noise, hohe ALU-Last) sind es fast 30%, ebenso Feature Test 1 Füllrate.
Da sind es entweder 1,3GHz Takt bei 32 TMUs/384SPs oder 40-48 TMUs mit 480-576SPs bei 0,9-1,1GHz.
Wobei die Color-Füllrate (Test 2) für 128-Bit GDDR5 etwas zu hoch scheint.
Bei B3D glaubt man wohl an einen Fake auf GF104/114-Basis.
boxleitnerb
2012-02-23, 09:07:33
GK107 wird wohl auch deutlich kleiner werden als GF116 (die 550Ti), oder? Sonst bleibt ja kein Platz mehr für GK106, wenn GK104 nur etwas über 300mm2 groß ist.
AnarchX
2012-02-23, 09:09:38
GK107 wird wohl auch deutlich kleiner werden als GF116 (die 550Ti), oder? Sonst bleibt ja kein Platz mehr für GK106, wenn GK104 nur etwas über 300mm2 groß ist.
Imo: 107 ~150mm², 106 200-240mm², 104 330-340mm².
Bei 140-150mm² wären die Werte nicht so abwegig. Und wenn der Color-Fillrate-Test stimmen würde, dann wäre das ein Zeichen, wie z.B. GK104 bei weniger Bandbreite Tahiti angreifen kann..
Allerdings ürde ich von +80% Fakewahrscheinlichkeit ausgehen..
boxleitnerb
2012-02-23, 09:30:03
Im XS Forum meinte jemand, die CPU-Ergebnisse sind viel zu niedrig für einen 3960X. Hab mal nachgeschaut und es stimmt, die müssten doppelt so hoch sein. Hm...
AnarchX
2012-02-23, 09:32:38
Ist wohl GeForce 295.73 (DXDiag-Screen), aber da ist von Haus aus eigentlich kein GK107-Support drin.
Wird wohl wirklich nur ein Fake auf GF104/114-Basis sein. Gerade bei der Color Fillrate (Test 2), sind solche Werte nur mit 256-Bit 4Gbps oder 192-Bit >4,5Gbps möglich, Caches helfen hier eigentlich nicht.
VR Zone meint, dass GK107 den GF108 ersetzen wird und dass dieser für den Entry Level gegen die Lianos und Intel IGP's antritt. http://vr-zone.com/articles/nvidia-gk107-details/14953.html
aufkrawall
2012-02-23, 09:39:48
Gibt es schon mögliche Fakten/Spekulationen, was es bei der Videowiedergabe/-konvertierung neues gibt?
PureVideo HD 5 für alle Ausbauten ist klar, aber was sonst noch?
AnarchX
2012-02-23, 09:52:32
VR Zone meint, dass GK107 den GF108 ersetzen wird und dass dieser für den Entry Level gegen die Lianos und Intel IGP's antritt. http://vr-zone.com/articles/nvidia-gk107-details/14953.html
Da wird man wohl konkrete Daten abwarten müssen.
108 will man vielleicht wieder in das Low-End-Segment zurückdrängen (64-Bit GDDR5). GF108 war ja relativ groß und schnell im Vergleich zu seinen Vorgängern.
Gibt es schon mögliche Fakten/Spekulationen, was es bei der Videowiedergabe/-konvertierung neues gibt?
PureVideo HD 5 für alle Ausbauten ist klar, aber was sonst noch?
Bisher noch nichts.
Man kann nur hoffen, dass man mit AMD und Intel gleichzieht.
Eine Encoding-Engine, die man über CUDA ansprechenden kann, wäre wohl ziemlich nett.
aufkrawall
2012-02-23, 10:08:30
Bisher noch nichts.
Man kann nur hoffen das mit AMD und Intel gleichzieht.
Eine Encoding-Engine, die man über CUDA ansprechenden kann wäre wohl ziemlich nett.
Der jetzige CUDA-Enkoder ist ja leider ziemlicher Müll: x264 ist bei entsprechenden Einstellungen mit meinem Sandy bei deutlich besserer Bildqualität deutlich schneller, um es mal in einen Satz zu fassen :rolleyes:
VP5 kann ja auch schon 4k, was könnte da eigentlich noch kommen?
3D für 4k vielleicht?
Hübie
2012-02-23, 10:29:47
Fake, fake, fake. Ich kann meine Graka Wurst nennen und jedes Programm wird dann auch Wurst anzeigen. Ohne Devie ID ist das also Unsinn.
Glaubt bitte nicht so einen Müll. :P
aufkrawall
2012-02-23, 10:31:06
Fake, fake, fake. Ich kann meine Graka Wurst nennen und jedes Programm wird dann auch Wurst anzeigen.
Könntest du das mal machen? :biggrin:
wie sieht es eigentlich mit den spekus zu den mobile varianten aus?
release mit gk104 zusammen geplant? schon gerüchte über irgendwelche performance schätzungen oder tech. spec. bekannt?
Zergra
2012-02-23, 18:32:45
Könntest du das mal machen? :biggrin:
Du brauchst nur zb. mit RBE das Bios Flashen :D und die Karte umnennen, leider kann ich das bei meiner Karte nicht, weil AMD dort eine Sicherrung eingebaut hat -.- diese R2.
aufkrawall
2012-02-23, 18:37:26
Du brauchst nur zb. mit RBE das Bios Flashen :D und die Karte umnennen, leider kann ich das bei meiner Karte nicht, weil AMD dort eine Sicherrung eingebaut hat -.- diese R2.
So wie ich meine GKs behandle, ist BIOS-Flashen leider ein no go.
Wahrscheinlich pfeift sie genau dann ab, Glück haben schließlich nur die anderen.
Orbmu2k
2012-02-23, 18:41:15
Du baruchst doch nur den Namen in der INF vom Treiber ändern. Nix mit BIOS flashen.
NVIDIA_DEV.1080 = "NVIDIA GeForce GTX 580"
Ailuros
2012-02-23, 21:08:48
Die Resultate riechen verdaechtig nach fake. Wenn's eine angebliche GK106 waere koennte ich es noch halbwegs glauben; halbwegs weil es nicht moeglich waere dass jemand schon eine hat.
Sonst wird es von jetzt ab wohl leider keine ernsthaften leaks mehr geben. Ergo jeden Fetzen der herumschwirrt hoechst kritisch betrachten ;)
aylano
2012-02-24, 01:42:55
Die 40G yield Probleme wurden tatsaechlich in Q1 2010 geloest da die yields um einiges besser wurden und es nicht so brutale Schwankungen gab wie im vorigen Jahr. AMD hatte ein paar hundert wafer mit nur 4% yields und in Q1 purzelten ihre Herstellungskosten ueber 40%.
Die Yield-Probleme vielleicht. (Ab welchen % man auch immer es als gelöst definieren wird.)
Die Performance-pro-Watt dürften eben nicht mal 9 Monate später als angekündigt gelöst worden sein, da alle >300mm²-GPUs von AMD & Nvidia eine 0,04-0,05 höhere Spannung hatten.
Das Problem ist jetzt, 28nm hat jetzt schon eine größere Verspätung (doppelte) als es 40nm hatte. Problematisch wird es für GK110, wenn die Performance-pro-Watt-Probleme in 28nm ebenfalls schlimmer werden, als es in 40nm damals war.
Die höhere Spannung von Thati im Vergleich zur RV870 mit ebenfalls Problematischen 40nm (Yields bis <10% sowie P/W) ist schon seltsam genug.
Jensen brauchte lediglich eine fruehzeitige Entschuldigung/Warnung (oder nenn es wie es passt, es macht keinen Unterschied) falls er seine vorigen Versprechungen ueber release der kompletten Kepler Familie innerhalb 3 Monate nicht einhalten kann.
Das man Top-to-Bottem in einer neuen Fertigung IMO nicht so wichtig ist, sah man schön mit 40nm, wo Nvidia sehr lange (viele Quartale) gut mit ordentlichen Gewinnen ohne Top-Modell in Frischer Fertigung leben konnte.
Und nachher konnte die GF104 fast den DX11-Rückstand @ Low-End & Mainstream kompensieren.
Solange die Massen-GPUs sich in neuer Fertigung geliefert werden können und GK104 so vernünftig wie GF104 damals derherkommt, bräuchte Jensen IMO keine Rechtfertigung, wenn GF110 später kommt.
Mit GK107 & GK106 & GK104 in April würde Nvidia IMO erheblich besser da als mit der Fermi-Familie. Aber genau da ist das Problem. GK110 braucht vielleicht nicht sooo viele Wafer, aber für einen Erfolg der Massen-GPUs eben schon. Und wenn die Wafer-Engpässe bis ende des Jahres andauern, dann könnte es auf sehr wenige 28nm-Wafer im 2Q hindeuten, wo Nvidia für OEMs dann vielleicht jeden 28nm-Wafer für GK107 braucht.
Ein sehr guter Grund eine Produkt-Familie so zu gestalten dass der top dog eines der letzten tape outs dafuer sein wird. Passt wohl immer noch nicht in ein angeblicher stornierter "GK100" in die ganze Geschichte.
Wie ich schon sagte. Ich dachte bis vor kurzem GK100 ist GK110. Somit hatte ich bisher noch keinen Gedanken an einen GK100-Cancle verwendet.
Davon ist leider kein einziger IHV immun. AMD stellt keine high end chips seit einigen Jahren her und Intel wurschtelt immer noch bis Gott weiss wer an ihrem Knights Corner Dingsbums rum
Es interessiert im Kepler-Thread nicht, wie ob und wie AMD & Intel ihre High-End-Chips herstellt. Die große Frage ist, ob Nvidia nahtlos ihre Problem-Liste fortführt. Und das ist nicht uninteressant, wenn GK104 @ Standard langsamer als Thaiti ist.
Es ist nicht besonders schwer nachzuschlagen wann in 2009 ein zweites TSMC fab fuer die 40G Produktion eingestellt wurde und sich somit die bisherigen Kapazitaeten verdoppelten.
Fertigungs-Kapazitäten sind ja nicht gleich Fabriks-Kapazitäten, da eine Fabrik nichts prodziert. Und die Tools in die Fabriken einzustellen und anzuwerfen dauert so ein Jahr.
Schoen dass Du Fab15 fuer April einschaetzt. Was Kapazitaeten betrifft kommt naemlich genau dieses zum eigentlichen Widerspruch zu Deinen Gedanken dass jegliche moegliche GK110 Verspaetung dank dieser sein wird.
Habe ich nicht behauptet. Sondern ich behauptete, dass es für GK110 zwischen April-Juni schwieriger wird, wenn nur eine statt zwei Fabriken ihre Tool-Fertigungs-Kapazitäten bzw. Wafer-Auswurf erhöhen können.
Schwierig heißt nicht unmöglich, aber zu wenige Wafer könnte zu geringen Verfügbarkeit & erhöhten Preisen bzw. kontant hohen Preisen führen oder gar um einen Verschiebung eines Quartals bedeuten.
... , kommen wir eigentlich bei dieser "Feststellung" zurueck auf den Punkt dass es eher NV's und nicht TSMC's Problem sein wird falls 110 eben nicht im Mai ankommen sollte.
Die Frage ist, was würde Nvidia produzieren, wenn GK107 (& GK104)-Wafer wesentlich profitalber herzustellen sind als die GK110-Wafer und Nvidia aufgrund des Wafer-Engpass Prioritäten setezn muss.
Vorallem wenn Nvidia die OEM-Versprechungen erfüllen sollte.
Und wie ich schon sagte.
Wie Nvidia in so einer Situation reagiert, wissen wir nicht, vorallem da Nvidia in 40nm nicht in so einer Situation stand.
hardtech
2012-02-24, 02:04:38
naja die 3900 3dmark11 schafft meine 130 eur hd5850 auch schon. kommt auf den preis drauf an, ob die karte attraktiv wird z.b. für einen htpc. aber der 107 ist für die meisten von uns wahrscheinlich nicht wirklich interessant.
schauen wir mal, was gk104 bringt.
Blediator16
2012-02-24, 02:13:07
Das war ein Fake.
M4xw0lf
2012-02-24, 08:05:16
Das man Top-to-Bottem in einer neuen Fertigung IMO nicht so wichtig ist, sah man schön mit 40nm, wo Nvidia sehr lange (viele Quartale) gut mit ordentlichen Gewinnen ohne Top-Modell in Frischer Fertigung leben konnte.
Und nachher konnte die GF104 fast den DX11-Rückstand @ Low-End & Mainstream kompensieren.
Also meiner Meinung nach sieht man in den Quartalszahlen deutlich den verspäteten und dann erstmal wenig überzeugenden Fermi:
http://www.computerbase.de/news/2011-02/nvidia-meldet-weniger-umsatz-und-mehr-gewinn/
Besonders Q4 2009 (also Novermber 09 bis Januar 10) und das folgende Quartal, die ziemlich genau das halbe Jahr Verspätung von Fermi abdecken, zeigen einen deutlichen Einbruch.
fulgore1101
2012-02-24, 09:21:11
Gibts denn jetzt inzwischen was handfestes? Dieser Thread ist wirklich sehr mühsam zu lesen, da es hier ja ein paar Personen gibt, die mehr zu wissen glauben als andere.
@Blediator16
Wer ist die Dame in deinem Avatar? :biggrin:
AnarchX
2012-02-24, 09:33:39
GTX 680
http://we.pcinlife.com/data/attachment/forum/201202/24/114822n422289r99o8gnbw.jpg
http://bbs.expreview.com/thread-49650-1-1.html
via: http://we.pcinlife.com/thread-1839375-1-1.html
Fragt sich nur wie alt das Material ist, die GTX 680 Idee ist noch von Ende 2011, möglicherweise hat sich das mittlerweile geändert.
GeForce 300.65 mit GK104-Support?
http://bbs.expreview.com/data/attachment/forum/201202/24/160031t0u0fnff05o3p04f.jpg
http://bbs.expreview.com/data/attachment/forum/201202/24/1600327eyvw7yweewv4z11.jpg
http://bbs.expreview.com/thread-49652-1-1.html
N0Thing
2012-02-24, 10:26:40
GeForce 300.65 mit GK104-Support?
http://bbs.expreview.com/data/attachment/forum/201202/24/160031t0u0fnff05o3p04f.jpg
http://bbs.expreview.com/data/attachment/forum/201202/24/1600327eyvw7yweewv4z11.jpg
http://bbs.expreview.com/thread-49652-1-1.html
Unwahrscheinlich ist das nicht. Wenn die entsprechenden Karten in etwa einem Monat auf dem Markt sein sollen, dann wird bestimmt schon einem passenden Treiber gearbeitet.
Und ein 300er zum Launch der GK-Serie wäre passend.
AnarchX
2012-02-24, 11:23:42
Wobei es dann wohl mindestens ein 350er sein sollte, wegen dieser fehlerhaften Treiberstring-Abfrage ein paar älterer Spiele.
Sofern die Bilder echt sind, weiß man wenigstens nun, dass sich hinter DEV_118x GK104 verbirgt, falls nochmal ein D14P/D14E oder eine GeForce 600 auftaucht, die man einordnen möchte.
aylano
2012-02-24, 12:00:31
Also meiner Meinung nach sieht man in den Quartalszahlen deutlich den verspäteten und dann erstmal wenig überzeugenden Fermi:
http://www.computerbase.de/news/2011-02/nvidia-meldet-weniger-umsatz-und-mehr-gewinn/
Besonders Q4 2009 (also Novermber 09 bis Januar 10) und das folgende Quartal, die ziemlich genau das halbe Jahr Verspätung von Fermi abdecken, zeigen einen deutlichen Einbruch.
Die Zahlen von Computerbase sind genau in diesem Zeitraum Falsch.
2Q 2009 & 2Q 2010 gabs die 200 Mio. $ - Notebook-GPU-Abschreibungen.
4Q 2009 machte Nvidia 130 Mio. $ Gewinn.
http://phx.corporate-ir.net/phoenix.zhtml?c=116466&p=irol-SECText&TEXT=aHR0cDovL2lyLmludC53ZXN0bGF3YnVzaW5lc3MuY29tL2RvY3VtZW50L3YxLzAwMDEwNDU4MTA tMTAtMDAwMDAyL3htbA%3d%3d
1Q 2010 machte Nvidia 137 Mio. $ Gewinn
http://phx.corporate-ir.net/phoenix.zhtml?c=116466&p=irol-SECText&TEXT=aHR0cDovL2lyLmludC53ZXN0bGF3YnVzaW5lc3MuY29tL2RvY3VtZW50L3YxLzAwMDEwNDU4MTA tMTAtMDAwMDE4L3htbA%3d%3d
(2Q 2011 machte Nvidia 140 Mio. $ Gewinn
http://phx.corporate-ir.net/phoenix.zhtml?c=116466&p=irol-SECText&TEXT=aHR0cDovL2lyLmludC53ZXN0bGF3YnVzaW5lc3MuY29tL2RvY3VtZW50L3YxLzAwMDEwNDU4MTA tMTEtMDAwMDQ2L3htbA%3d%3d)
http://phx.corporate-ir.net/phoenix.zhtml?c=116466&p=irol-SECText&TEXT=aHR0cDovL2lyLmludC53ZXN0bGF3YnVzaW5lc3MuY29tL2RvY3VtZW50L3YxLzAwMDEwNDU4MTA tMTAtMDAwMDI5L3htbA%3d%3d
Die Schlimmste Fermi-Zeit war das 3Q 2010, wo Nvidia wegen dem fehlenden DX11 im Low-End & Mainstream erstmals unter Druck kam, weil AMD erstmals keinen DX11-40nm-Engpass in Low-End &Mainstream hatte und in volle Verfügbarkeit liefern konnte.
Da hatte die Nvidia GPU-Sparte einen 221 Mio $ - Verlust, der größer als die Abschreibung von so 193 Mio. $ war.
Genau das zeigt, wie wichtig der Low-End & Massen-Markt (sowie Profi-Markt) für Nvidia ist und höchstwahrscheinlich noch war, und wie wenig die High-End-GPUs in der Einführungszeit/Quartal sind (, wenn die Konkurrenz halbwegs gut dasteht)
Nvidia machte zur G80-Einfürhungs-Quartal auch nicht/kaum gewinne als im Quartal davor. Die Gewinne stiegen erst in den nachfolgenden Quartalen, aber dafür stetig und stark.
Wie ich schon meinte,
warum sollte Nvidia großartig unwirtschaftliche GK110-Wafer für Gamer bestellen, wenn die mit GK107-Wafer viel profitabler wären und die OEMs geringer bzw. eventuell garnicht verärgern könnte. GK110 für Tesla & Quadro ist wieder eine andere Geschichte.
Vielleicht hat Nvidia eventuell eh schon mit längeren GK110-Verzögerungen gerechnet und ihn gleich als GK110 statt GK100 benannt.
Edita: Ein 2011/2010-Fehler Korrigiert
aufkrawall
2012-02-24, 12:18:03
Die Schlimmste Fermi-Zeit war das 3Q 2011
Du meinst sicherlich 2010?
fulgore1101
2012-02-24, 13:13:11
Also nur Bullshit. Besonders lustig finde ich den Ail irgendwas, der meint ja immer er wisse mehr als alle. Schade, dass es noch immer keine handfesten Sachen gibt
Edgecrusher86
2012-02-24, 13:18:46
Denke auch, dass es dann eher 35x.xx sein sollte. Wenn man das immer noch beachtet -> Fake. ;)
1180 als Device ID ist doch auch etwas einfallslos gegenüber GF11x... ;D
...wenn auch nicht unmöglich. :freak:
Wobei GK110 dann eigentlich eine niedrigere Nummer bekommen sollte, High-End entsprechend.
N0Thing
2012-02-24, 13:19:20
Wobei es dann wohl mindestens ein 350er sein sollte, wegen dieser fehlerhaften Treiberstring-Abfrage ein paar älterer Spiele.
Für die ersten internen Tests und Optimierungen auf aktuelle Spiele kann man darauf verzichten. Das war, sofern ich mich recht erinnere, auch in der Vergangenheit nicht anders.
Vielleicht entfernt Nvidia mit der neuen Generation aber auch die Abwärtskompatibilität zu den entsprechenden Spielen. Man muß ja nicht ewig die Fehler anderer ausbügeln und diesen Workaround mitschleppen.
Godmode
2012-02-24, 14:08:04
Also nur Bullshit. Besonders lustig finde ich den Ail irgendwas, der meint ja immer er wisse mehr als alle. Schade, dass es noch immer keine handfesten Sachen gibt
Ohne Ail hätten wir hier überhaupt nichts und würden immer noch rätseln wie hoch der Hotclock wohl sein wird.
Troll wo anders.
aufkrawall
2012-02-24, 14:11:53
Vielleicht entfernt Nvidia mit der neuen Generation aber auch die Abwärtskompatibilität zu den entsprechenden Spielen.
Oder man führt ein Versionsspoofing-Feature ein.
RoNsOn Xs
2012-02-24, 15:46:27
Ohne Ail hätten wir hier überhaupt nichts und würden immer noch rätseln wie hoch der Hotclock wohl sein wird.
Troll wo anders.
oh dann hat er wohl ein nda gebrochen :cool:
fulgore1101
2012-02-24, 16:06:35
Oder man führt ein Versionsspoofing-Feature ein.
Also wie es jetzt immmer noch ist?:confused:
Gipsel
2012-02-24, 16:18:50
oh dann hat er wohl ein nda gebrochen :cool:Das kann man nur brechen, wenn man es vorher unterzeichnet. Ail ist Privatmann (und nicht das, wonach die griechische Übersetzung ιδιώτης klingt ;)) und keine Firma kommt auf die Idee, ihm ein NDA zur Unterschrift vorzulegen. :rolleyes:
Ailuros
2012-02-24, 16:26:57
Ohne Ail hätten wir hier überhaupt nichts und würden immer noch rätseln wie hoch der Hotclock wohl sein wird.
Troll wo anders.
Och lass ihn doch sein Zeug auftischen. Man traegt gleich Null zum Thema bei, hat aber die Frechheit andere so anzumaulen.
Also nur Bullshit. Besonders lustig finde ich den Ail irgendwas, der meint ja immer er wisse mehr als alle. Schade, dass es noch immer keine handfesten Sachen gibt
Da es nicht das erste Mal ist dass Du aehnliches beigetragen hast, wuerde ich Dir erstmal raten beim eigentlichen Thema zu bleiben und wenn moeglich sachlich dazu beizutragen, welches wohl bis jetzt nicht der Fall war.
------------------------------------
An alle anderen: ich bin nicht das Thema hier. Ergo zurueck zum Kepler. Danke.
fulgore1101
2012-02-24, 16:32:40
Och lass ihn doch seinen Mist auftischen. Man traegt gleich Null zum Thema bei, hat aber die Frechheit andere so anzumaulen.
Ich tisch doch garnichts auf. Im Gegensatz zu dir. Ich weiß garnichts, gesauso wie du. :smile:
guest_29132
2012-02-24, 16:38:59
Ja, sind die hot clock infos denn nun korrekt, oder bewusst verbreitete Enten, um Gutenberg-Blogger an der Nase herum zu führen?
Gipsel
2012-02-24, 16:39:32
Ich tisch doch garnichts auf. Im Gegensatz zu dir. Ich weiß garnichts, gesauso wie du. :smile:
Du weißt doch gar nicht, was andere wissen. ;)
Und es gab gerade schon einen Modtext, Diskussionen über Personen ist nicht Inhalt des Threads. Also bitte zurück zum Thema, sonst könnte es sehr ungemütlich werden!
Ailuros
2012-02-24, 16:55:17
Ich tisch doch garnichts auf. Im Gegensatz zu dir. Ich weiß garnichts, gesauso wie du. :smile:
Ich hab Dich per modtext aufgefordert dass Du beim Thema bleibst. Noch ein solcher Post und es gibt 5 Punkte wegen Missachtung der Moderation ohne weitere Vorwarnung.
Ailuros
2012-02-24, 17:01:02
Die Yield-Probleme vielleicht. (Ab welchen % man auch immer es als gelöst definieren wird.)
Die Performance-pro-Watt dürften eben nicht mal 9 Monate später als angekündigt gelöst worden sein, da alle >300mm²-GPUs von AMD & Nvidia eine 0,04-0,05 höhere Spannung hatten.
Das Problem ist jetzt, 28nm hat jetzt schon eine größere Verspätung (doppelte) als es 40nm hatte. Problematisch wird es für GK110, wenn die Performance-pro-Watt-Probleme in 28nm ebenfalls schlimmer werden, als es in 40nm damals war.
Die höhere Spannung von Thati im Vergleich zur RV870 mit ebenfalls Problematischen 40nm (Yields bis <10% sowie P/W) ist schon seltsam genug.
AMD hatte um die 50% wafer yields als H2 2009 mit Cypress in die Produktion gingen. GF100 ~Maerz 2010 bei ca. 52%. Das eigentliche wirklich grosse Problem vom GF100 waren seine beschissenen binning yields die GAR NICHTS mit dem Herstellungsprozess zu tun hatten. Tesla kam nur mit 14SMs an, desktop maximal mit 15 und in Quadros gingen so weit den halben chip zu deaktivieren auf nur 8 SMs.
Spannung ist selbst indirekt nicht unabhaengig von der Frequenz. GK110 wird nicht annaehernd auf Tahiti bzw. GK104 Hoehe takten (braucht es auch nicht) und da der hotclock weg ist hat man zumindest fuer den Bereich weniger Sorgen. Die Frage ist nun eher ob es sonst irgendwelche Probleme mit dem chip selber gibt, die wir aber wohl leider vielleicht durch den Produktions-prozess herausfinden werden (falls jemand etwas darueber sagenw wird), sonst wird es NV irgendwann in der weiteren Zukunft schon selber eingestehen.
Das man Top-to-Bottem in einer neuen Fertigung IMO nicht so wichtig ist, sah man schön mit 40nm, wo Nvidia sehr lange (viele Quartale) gut mit ordentlichen Gewinnen ohne Top-Modell in Frischer Fertigung leben konnte.
Und nachher konnte die GF104 fast den DX11-Rückstand @ Low-End & Mainstream kompensieren.
Es hat so oder so mehr damit zu tun was man Investoren vor einiger Zeit versprochen hat und ob und inwiefern NV es einhalten kann. Falls selbst die letzte Ecke nicht so laufen sollte wie versprochen, kommt bei allen Firmen eine "Vorwarnung" weil die Sterne nicht richtig positioniert waren oder kurz alles andere dran schuld ist als NV selber (oder jeder IHV in einer aehnlichen Situation).
Solange die Massen-GPUs sich in neuer Fertigung geliefert werden können und GK104 so vernünftig wie GF104 damals derherkommt, bräuchte Jensen IMO keine Rechtfertigung, wenn GF110 später kommt.
GK110 ist nicht nur desktop, sondern ein key-chip fuer Quadros und ueberhaupt Teslas egal wie klein der letzte Markt noch sein mag.
Mit GK107 & GK106 & GK104 in April würde Nvidia IMO erheblich besser da als mit der Fermi-Familie.
Nein zum GK106 fuer April. Wohl eher Mai wenn alles nach Plan laeuft da allerletzter tape out.
Aber genau da ist das Problem. GK110 braucht vielleicht nicht sooo viele Wafer, aber für einen Erfolg der Massen-GPUs eben schon. Und wenn die Wafer-Engpässe bis ende des Jahres andauern, dann könnte es auf sehr wenige 28nm-Wafer im 2Q hindeuten, wo Nvidia für OEMs dann vielleicht jeden 28nm-Wafer für GK107 braucht.
Die ersten 107 Lieferungen waren schon in 2011.
Es interessiert im Kepler-Thread nicht, wie ob und wie AMD & Intel ihre High-End-Chips herstellt.
Es interessiert im Angesicht der Komplikationen die mit einem sehr kompliziertem grossem GPU chip verbunden sind. Dass Intel auch noch nichts von knights corner ausliefern konnte bis jetzt, heisst fuer NV auch weniger Druck Kepler/Tesla so schnell wie moeglich zu veroeffentlichen.
Die große Frage ist, ob Nvidia nahtlos ihre Problem-Liste fortführt. Und das ist nicht uninteressant, wenn GK104 @ Standard langsamer als Thaiti ist.
Langsamer als welche Tahiti-Variante genau?
Fertigungs-Kapazitäten sind ja nicht gleich Fabriks-Kapazitäten, da eine Fabrik nichts prodziert. Und die Tools in die Fabriken einzustellen und anzuwerfen dauert so ein Jahr.
In Q3 2010 mit der Addition eines weiteren fabs stiegen die 40G Kapazitaeten von 80000 auf 160000 wafers.
Habe ich nicht behauptet. Sondern ich behauptete, dass es für GK110 zwischen April-Juni schwieriger wird, wenn nur eine statt zwei Fabriken ihre Tool-Fertigungs-Kapazitäten bzw. Wafer-Auswurf erhöhen können.
Schwierig heißt nicht unmöglich, aber zu wenige Wafer könnte zu geringen Verfügbarkeit & erhöhten Preisen bzw. kontant hohen Preisen führen oder gar um einen Verschiebung eines Quartals bedeuten.
Ich hab auch folgendes geantwortet:
Die Fab15-Phase 1 soll ja meiner Einschätzung nach (frühestens) ab April 2012 ihre erste Wafer ausspucken. Wenn die erst im 3Q ausspickt, dann sieht es noch ungünstiger aus.
Diese Einschaetzung kommt eben zum Widerspruch mit der obrigen wiederholten Einschaetzung von Dir.
Die Frage ist, was würde Nvidia produzieren, wenn GK107 (& GK104)-Wafer wesentlich profitalber herzustellen sind als die GK110-Wafer und Nvidia aufgrund des Wafer-Engpass Prioritäten setezn muss.
Vorallem wenn Nvidia die OEM-Versprechungen erfüllen sollte.
Und wie ich schon sagte.
Wie Nvidia in so einer Situation reagiert, wissen wir nicht, vorallem da Nvidia in 40nm nicht in so einer Situation stand.
FYI GT21x kamen mit weniger Einheiten an als original geplant.
Ronny145
2012-02-24, 17:03:26
We got word that Nvidia finally talked to its partners about its highly confidential Kepler products. They got briefed, they got the reference design and the production of the cards is staring as we speak.
http://www.fudzilla.com/home/item/26069-kepler-gk104-cards-in-production
Ailuros
2012-02-24, 17:13:17
http://www.fudzilla.com/home/item/26069-kepler-gk104-cards-in-production
Bleibt die Frage ob 4 Wochen fuer einen hard lauch ausreichen.
Iruwen
2012-02-24, 17:18:26
Bis Anfang April sinds fast 6 Wochen, und wann im April steht da ja nicht. Können auch 10 Wochen sein.
Ailuros
2012-02-24, 17:23:02
Bis Anfang April sinds fast 6 Wochen, und wann im April steht da ja nicht. Können auch 10 Wochen sein.
http://forum.beyond3d.com/showpost.php?p=1622593&postcount=1899
Allegedly, "Kepler" card release time from the original mid-March, was postponed to the end of March, but it should not be dragged into April, the specific date, is still unable to determine, the extension of reason and shall not known. We hypothesize that this should be the poor and the TSMC 28nm process yields, its direct impact NVIDIA had to postpone the release of "Kepler".
Rechne ~4 Wochen fuers finale Datum. Mid march war zwei Wochen davor wieder Mitte der Woche ;)
Im April ist es dann die erste Woche die fuer das mobile IB Zeug geplant ist.
Iruwen
2012-02-24, 17:34:41
Schön wärs ja, ob Hardlaunch oder nicht, man hätte zumindest schonmal hard Facts ;)
Skysnake
2012-02-24, 17:47:24
Bleibt die Frage ob 4 Wochen fuer einen hard lauch ausreichen.
Für breite verfügbarkeit sicherlich nicht, wenn da ne 660er gelaunched wird. Für ne 680 und eventuell noch ne 670er reichts, aber für alles andere wirst man bei den begrenzten Kapazitäten wohl kaum eine uneingeschränkte Verfügbarkeit erreichen.
Ronny145
2012-02-24, 18:15:36
On the week starting March 20th, NVIDIA will unveil GeForce products based on the Kepler GPU architecture. We got our hands on a board and saw very interesting solutions…
http://vr-zone.com/articles/nvidia-kepler-power-circuitry-revealed-300w-tdp-/15011.html
Adam D.
2012-02-24, 18:25:59
Mich würden die finalen Taktraten wirklich sehr interessieren :usad: Die ersten Custom-Designs werden aber bestimmt nicht vor April / Mai kommen, da kann man nur hoffen, dass Nvidia gute Arbeit beim Standard-Kühler geleistet hat.
Ailuros
2012-02-24, 18:26:12
http://vr-zone.com/articles/nvidia-kepler-power-circuitry-revealed-300w-tdp-/15011.html
Engineering samples haben wohl wenig bis gar nichts mit finalen SKUs zu tun. Sonst das einzig nutzvolle dass Theo gerade verrraten hat ist das Quartal in dem GK104 seinen tape out hatte.
Orbmu2k
2012-02-24, 18:34:23
Also der HS sieht relativ groß aus für den kleinen 256bit Chip. Dazu noch 6+8Pin bei "deutlich unter 225W". Irgendwas passt da nicht... vielleicht der GK102, GK110, Fake?
Und was soll uns der Glückskekszettel da sagen^^
AwesomeSauce
2012-02-24, 18:40:31
Und was soll uns der Glückskekszettel da sagen^^
NV Marketing hat nichts von seiner Überheblichkeit verloren:freak:
AnarchX
2012-02-24, 18:42:38
Panda? PHK?
Man From Atlantis
2012-02-24, 18:45:11
it's clear that it is written A1
Gipsel
2012-02-24, 18:45:46
Dazu noch 6+8Pin bei "deutlich unter 225W". Irgendwas passt da nicht... vielleicht der GK102, GK110, Fake?
Hatten die ersten Tahiti ES-Boards nicht sogar 8+8Pin und 2 Phasen Spannungswandler für den Speicher und bei finalen Boards sind es nur noch 6+8Pin und eine Phase weniger?
Da würde ich erstmal gar nichts reininterpretieren.
Ronny145
2012-02-24, 18:48:47
HD7970 hat doch auch 1x6+2x8 pin oder nicht? Maximal theoretische Stromversorgung hat doch nichts mit dem Verbrauch bzw. der TDP zu tun. A1 ist fast anzunehmen bei einem Sample aus Q3.
Ailuros
2012-02-24, 18:48:56
Hatten die ersten Tahiti ES-Boards nicht sogar 8+8Pin und 2 Phasen Spannungswandler für den Speicher und bei finalen Boards sind es nur noch 6+8Pin und eine Phase weniger?
Da würde ich erstmal gar nichts reininterpretieren.
Nochmal der chip alleine verbraucht weniger als 150W.
boxleitnerb
2012-02-24, 18:58:46
Vielleicht lässt sich GK104 auch super übertakten (40% mit Wasser), so dass man sich gedacht hat "Lassen wir 6+8 einfach drauf, schaden kann es nicht".
Blediator16
2012-02-24, 19:00:59
Im Grunde genommen das selbe Spielchen wie es AMD mit Tahiti gemacht hat.
Gipsel
2012-02-24, 19:10:36
Nochmal der chip alleine verbraucht weniger als 150W.Deswegen sage ich ja, daß ich wegen der 6+8Pin-Anschlüsse auf einem frühen ES-Board gar nichts in Bezug auf den Stromverbrauch schlußfolgern würde. ;)
Zergra
2012-02-24, 19:11:42
Vielleicht lässt sich GK104 auch super übertakten (40% mit Wasser), so dass man sich gedacht hat "Lassen wir 6+8 einfach drauf, schaden kann es nicht".
Das wird nur am Anfang so sein, nach 1-2 Monaten wird dann auch der 8Pin Anschluss verschwinden, nähmlich genau dann wenn die Verfügbarkeit zunimmt und die Yields besser werden ;D
Ailuros
2012-02-24, 19:15:28
Das wird nur am Anfang so sein, nach 1-2 Monaten wird dann auch der 8Pin Anschluss verschwinden, nähmlich genau dann wenn die Verfügbarkeit zunimmt und die Yields besser werden ;D
Es wird keine kaufbaren SKUs mit A1 silicon chips geben. Deutlicher kann ich es Dir aber nicht machen, falls es immer noch nicht einleuchten sollte.
horn 12
2012-02-24, 19:39:48
Nun, Veröffentlichung nicht mal Ende März, sprich Anfang April und schneller als HD7950 wird die Karte nicht mal werden.
Der Preis wird auch nicht zu halten sein,- bei diesen miesen Yield.
Da hat sich AMD sicher etwas zurechtrücken lassen,- aber wareten wir mal den April ab.
Sind ja nur mehr knappe 1,5 Monate! :-)
AwesomeSauce
2012-02-24, 19:47:22
Nun, Veröffentlichung nicht mal Ende März, sprich Anfang April und schneller als HD7950 wird die Karte nicht mal werden.
Das ist ein Kandidat für meine Signatur:freak: Darf man fragen, wie du auf obige Schlussfolgerung kommst?
boxleitnerb
2012-02-24, 19:49:28
Wunschdenken natürlich ;)
Blediator16
2012-02-24, 19:49:38
Horn könnte versus(hwluxx) Bruder sein :D
Adam D.
2012-02-24, 20:15:02
Das einzig brauchbare an Horns Aussage ist die Aussicht auf den Preis. Ich kann mir immer noch nicht vorstellen, dass Nvidia bei der angepeilten Performance (7950 < GK104 < 7970) mit $299 an den Start gehen wird.
PingpiN
2012-02-24, 20:17:59
Die 670 TI wird also mitte märz gelauncht und ist ungefähr so schnell wie ne 7950 (oc).Ich finde das alles bitter was Nvidia hier abzieht.Ist ja schön und gut das sie ende Sommer den schnellsten chip haben werden.Ich hoffe nur das es für Nvidia nicht so weiter geht.Immerhin ist das die 2 gen die sie gut ein halbes jahr hinterherhinken.Zu der zeit plant (kommt)ja schon die HD 7950 oder nicht?
Die frage;Wird Nvidia dieses jahr überhaupt die pf krone inne haben?
Ailuros
2012-02-24, 20:21:40
Das einzig brauchbare an Horns Aussage ist die Aussicht auf den Preis. Ich kann mir immer noch nicht vorstellen, dass Nvidia bei der angepeilten Performance (7950 < GK104 < 7970) mit $299 an den Start gehen wird.
Ein guter Grund wieso es NV eben nicht schmeckt dass es so vorzeitig schon so viele leaks gab. Je nach Fall koennen sogar noch nur eine Woche vor dem launch GPU Preise um bis zu 25% nach oben oder nach unten schwanken (je nach Fall). Im gegebenen Fall keine Ahnung; ich weiss nur dass sie fuer den stornierten Februar launch einen $299 MSRP vorgesehen hatten.
Adam D.
2012-02-24, 20:51:31
Ein guter Grund wieso es NV eben nicht schmeckt dass es so vorzeitig schon so viele leaks gab. Je nach Fall koennen sogar noch nur eine Woche vor dem launch GPU Preise um bis zu 25% nach oben oder nach unten schwanken (je nach Fall). Im gegebenen Fall keine Ahnung; ich weiss nur dass sie fuer den stornierten Februar launch einen $299 MSRP vorgesehen hatten.
Es weckt halt eine gewisse Erwartungshaltung. Nvidia hätte ja kein Problem, $349 rechtzufertigen. Auf der anderen Seite wüsste ich nicht, was für Februar einen anderen Preis gerechtfertigt hätte als für März/April - bei ATi hat sich absolut nix getan.
y33H@
2012-02-24, 21:26:10
Ich finde das alles bitter was Nvidia hier abzieht.Ist ja schön und gut das sie ende Sommer den schnellsten chip haben werden.Ich hoffe nur das es für Nvidia nicht so weiter geht.Immerhin ist das die 2 gen die sie gut ein halbes jahr hinterherhinken.Abgesehen davon, dass nach Satzzeichen ein Leerzeichen kommt: Ati/AMD hing von Ende 2006 bis Herbst 2009 hinter NV her, mit der HD 5870 kam dann die Wende - so schnell sind die "Grünen" also nicht weg vom Fenster ;-)
Iruwen
2012-02-24, 23:54:19
Das einzig brauchbare an Horns Aussage ist die Aussicht auf den Preis. Ich kann mir immer noch nicht vorstellen, dass Nvidia bei der angepeilten Performance (7950 < GK104 < 7970) mit $299 an den Start gehen wird.
GTX 460, maue Yields, ~330mm², $229 MSRP. GTX 560 Ti $250. Warum sollten $299 da besonders unglaubwürdig sein? Das hängt einzig von den Kapazitäten ab, dass man gerne noch mehr zur Verfügung hätte heißt ja nicht dass man nicht liefern kann. Selbst wenn es $350 sind liegt man damit erstmal flockige $100 unter der 7950.
Blediator16
2012-02-25, 01:28:17
GTX 460, maue Yields, ~330mm², $229 MSRP. GTX 560 Ti $250. Warum sollten $299 da besonders unglaubwürdig sein? Das hängt einzig von den Kapazitäten ab, dass man gerne noch mehr zur Verfügung hätte heißt ja nicht dass man nicht liefern kann. Selbst wenn es $350 sind liegt man damit erstmal flockige $100 unter der 7950.
Was nicht heisst, dass der Preis auch bei ca. +100 stehenbleibt^^
Eine knallharte Preisschlacht wäre wünschenswert
Skysnake
2012-02-25, 05:56:12
Wirst du von Seitens nVidia aber GARANTIERT nicht sehen.
Die nehmen das Geld dankend mit und verbessern so ihre Marge, die ja gelitten hatte, und überhaupt waren die letzten Aussichten egal wo man hin geschaut hat nicht sooo rosig laut den Analysten.
Ich glaub daher wirklich nicht an einen Preiskampf. Zumal ein Preiskampf auch nur sinn macht, wenn man die Mengen auch liefern kann, und da zweifle ich doch sehr stark dran. Q3-Q4 vielleicht, aber nicht in Q2. Da werden die Leute erst mal richtig Geld auf den Tisch legen müssen.
PS: nVidia tut sich eh nicht schwer mit hohen Preisen. Bei denen kommen doch eh immer gleich die Fanboys raus gekrochen und bringen so Sprüche wie "Für Qualität muss man halt zahlen" Als ob die Karte plötzlich schlechter wäre, wenn Sie 100€ billiger wäre :ugly:
OgrEGT
2012-02-25, 06:35:12
Nochmal der chip alleine verbraucht weniger als 150W.
Zum Einen wird es doch sicherlich mehrere Versionen von GK104 geben, also vielleicht auch welche mit nur 2x6Pin. Andererseits will man sich sicherlich mit der Top Ausführung auch Overclocking Spielraum nicht entgehen lassen, und macht es analog wie AMD auch. Die 1x6 / 1x8 Pin bei Tahiti werden ja auch im Standardclock nicht ausgereizt (von Furmark mal abgesehen unter Spielelast 210W laut Ht4u).
Edit: Zu spät (oder noch zu früh? ...Gähn)
Meinst Du mit "Chip alleine", die GPU alleine (wenn ja bei welcher Auslastung? Furmark?) oder die gesamte Karte mit dem anderen Geraffel (Wandler, Speicher, Bildausgabe)?
Wieviel mehr könnte es dann sein? Kann man das schätzen? Wie hoch ist die Leistungsaufnahme des Speichers, die Verlustleistung (Effizienz) der Stromversorgung?
horn 12
2012-02-25, 07:31:07
Einen Preiskampf wird es wohl nicht geben werden, ist extrema schade aber rechne dass sich eine HD7950 OC preislich mit dem GF104 messen wird müssen.
Jene Karte wird wohl über kurz oder lang auf die 350-370 Euro abrutschen, die Standard HD7950 wird unter 350 Euro zu liegen kommen.
Mal schauen wie die NV Karte wird,- und wie sich das OC Verhalten auswirkt,- oder ob man die Karte schon höher getaktet ins Rennen schicken müsste.
Solange die neuen GPU's nicht in Massen auf den Markt kommen, wird es keinen Preiskampf geben. Was bringt eine GK104 für 300 Euro wenn man keine kaufen kann? Günstige Preise gibts bei vollen Regale und wenn die Händler auch in grossen Massen verkaufen wollen. Ich jedenfalls freue mich auf Konkurenz und Auswahl. ;)
Hugo78
2012-02-25, 10:45:02
Zum Einen wird es doch sicherlich mehrere Versionen von GK104 geben, also vielleicht auch welche mit nur 2x6Pin.
Das ist unwahrscheinlich wenn es rein um das Referenzdesign geht, da aktuell alles hoch bis incl. GTX 570, mit 2*6 Pin kommt.
Andererseits will man sich sicherlich mit der Top Ausführung auch Overclocking Spielraum nicht entgehen lassen,
Der Unterschied zwischen 2*6 und 8+6 liegt nur in zwei zusätzlichen Massen.
Phasen gibt es bei beiden gleich viel und damit auch OC Spielraum.
Ich bin mir grad nicht so sicher in wie weit das eine Sicherheitsmaßnahme ist, wenn ich mir die gängige Verdrahtung anschaue (Bild),
aber es wird sich wohl auch nur um die PCB Sicherheit drehen, bei den zwei zusätzlichen Massen.
http://www.playtool.com/pages/psuconnectors/pcie6plus2index.jpg
y33H@
2012-02-25, 11:00:31
Auf dem Papier hat ein 6P nur 2x 12V und ein 8P 3x 12V und kann auch mehr Ampere "fressen". Praktisch sind aber fast alle heutigen 6P mit 3x 12V ausgestattet und die 8P werden durch 2x Masse "erschaffen".
Iruwen
2012-02-25, 11:30:49
nVidia tut sich eh nicht schwer mit hohen Preisen. Bei denen kommen doch eh immer gleich die Fanboys raus gekrochen und bringen so Sprüche wie "Für Qualität muss man halt zahlen" Als ob die Karte plötzlich schlechter wäre, wenn Sie 100€ billiger wäre :ugly:
Hast du den "Preisgestaltung der HD 7900er Karten" Thread gelesen? Kein Unterschied bei AMD oder Nvidia ;(
aufkrawall
2012-02-25, 11:39:25
Hast du den "Preisgestaltung der HD 7900er Karten" Thread gelesen? Kein Unterschied bei AMD oder Nvidia ;(
Im Vergleich mit der 580 hat die 7950 ein besseres P/L-Verhältnis, oder wie viel kostet eine Geforce mit 3 GB?
Adam D.
2012-02-25, 11:54:58
Ich weiß auch nicht, was hier alle über die zu erwartende Verfügbarkeit rummeckern. War es denn jemals bei einem Prozesswechsel wirklich gut? Wenn Nvidia Kepler im März launcht, werden auf jeden Fall die Leute, die unbedingt eine Karte haben wollen, auch eine kriegen - gegen Aufpreis natürlich. Ich kann mich nicht daran erinnern, dass es jemals anders war.
aufkrawall
2012-02-25, 11:55:55
Ich kann mich nicht daran erinnern, dass es jemals anders war.
War es denn jemals anders, dass gemeckert wurde? :tongue:
M4xw0lf
2012-02-25, 12:01:35
Zum Einen wird es doch sicherlich mehrere Versionen von GK104 geben, also vielleicht auch welche mit nur 2x6Pin. Andererseits will man sich sicherlich mit der Top Ausführung auch Overclocking Spielraum nicht entgehen lassen, und macht es analog wie AMD auch. Die 1x6 / 1x8 Pin bei Tahiti werden ja auch im Standardclock nicht ausgereizt (von Furmark mal abgesehen unter Spielelast 210W laut Ht4u).
Edit: Zu spät (oder noch zu früh? ...Gähn)
Meinst Du mit "Chip alleine", die GPU alleine (wenn ja bei welcher Auslastung? Furmark?) oder die gesamte Karte mit dem anderen Geraffel (Wandler, Speicher, Bildausgabe)?
Wieviel mehr könnte es dann sein? Kann man das schätzen? Wie hoch ist die Leistungsaufnahme des Speichers, die Verlustleistung (Effizienz) der Stromversorgung?
Chip alleine heißt für mich hauptsächlich: ohne Speicher. Mit Speicher wird die Karte dann vielleicht in etwa auf 7950-Niveau landen.
Ailuros
2012-02-25, 15:33:59
Es weckt halt eine gewisse Erwartungshaltung. Nvidia hätte ja kein Problem, $349 rechtzufertigen. Auf der anderen Seite wüsste ich nicht, was für Februar einen anderen Preis gerechtfertigt hätte als für März/April - bei ATi hat sich absolut nix getan.
Das was mir damals gesagt wurde ist dass NV ziemlich grossen Druck angeblich auf TSMC ausuebte ihnen mehr Kapazitaeten zu garantieren. Ob es stimmt keine Ahnung und ja es faellt mir auch schwer mir vorzustellen dass TSMC etwas relevantes versprochen hat und NV ploetzlich mit allem drum und dran schon launch-Material fuer die CES fertig hatte. Denn ehrlich gesagt wenn TSMC nichts versprochen hatte, dann wird wohl jeglicher IHV nicht so bloed sein auf einem "vielleicht" oder "wir werden sehen" einen so wichtigen launch aus dem Blauen zu planen.
Was jetzt den Preis per se betrifft, wie gesagt es ist nicht das erste Mal dass viele wenn nicht alle IHVs selbst fast in letzter Minute ihre Preisplaene vor dem launch aendern. GK104 ist ja erst vor sehr kurzer Zeit als chip in die Produktion gegangen und erst dann ist man sich wirklich sicher wie die eigentlichen yields aussehen.
Aber wenn es schon zu Preisreduktionen generell kommt: weder AMD hat ihre Tahiti Preise in der Zwischenzeit reduziert, noch NV fuer alles Fermi das noch erhaeltlich ist. Ist 40G Herstellung immer noch "so" teuer dass man den heutigen GTX580 Preis noch gerechtfertigen kann? Dementsprechend solltest Du Dich eher fragen wieso die heutige Preis-Situation eigentlich beiden IHVs ziemlich gut passt.
Solange die neuen GPU's nicht in Massen auf den Markt kommen, wird es keinen Preiskampf geben. Was bringt eine GK104 für 300 Euro wenn man keine kaufen kann? Günstige Preise gibts bei vollen Regale und wenn die Händler auch in grossen Massen verkaufen wollen. Ich jedenfalls freue mich auf Konkurenz und Auswahl. ;)
Bei begrenzter Verfuegbarkeit waere auch anhand AMD's Preisen momentan ein zu niedriger Preis eine sehr fragliche Entscheidung. Hoehere Preise haben eben den Luxus begrenzte Verfuegbarkeit zu decken.
Wie dem auch sei ich persoenlich weigere mich irgend eine Kaufentscheidung zu treffen bevor sich von beiden Seiten die Preise fuer Performance GPUs um einiges normalisieren. Die billigste 7950 die ich momentan hier finden kann ist bei 420 Euros. Nein danke ich hab genug Geduld.
feris
2012-02-25, 15:36:55
Auf jeden Fall klingt es für mich beruhigend, dass man jetzt auf der Zielgerade ist.
Als der PCI 3.0 Bug als Grund für den verspäteten Launch aufkam, hatte ich schon spekuliert das da mehr dahinter ist. Getreu dem Motto: Da werfen wir den Analysten mal was hin, was einfach korrigierbar ist, ehe wir ein Desaster kreieren und zugeben, das unser Design nicht wie erwartet spielt oder die Yields mal wieder unterirdisch sind.
boxleitnerb
2012-02-25, 15:43:05
Wie war das mit den Designwins für Ivy Bridge bei den mobilen Keplers?
http://www.aida64.com/downloads/aida64extremebuild1812y4qdz2gtxvzip
Laut Aida Changelog ist die GTX670/675 ein GF114M Chip, also nichtmal 28nm und auch nicht Kepler?
OgrEGT
2012-02-25, 16:01:23
Das ist unwahrscheinlich wenn es rein um das Referenzdesign geht, da aktuell alles hoch bis incl. GTX 570, mit 2*6 Pin kommt.
Der Unterschied zwischen 2*6 und 8+6 liegt nur in zwei zusätzlichen Massen.
Phasen gibt es bei beiden gleich viel und damit auch OC Spielraum.
Ich bin mir grad nicht so sicher in wie weit das eine Sicherheitsmaßnahme ist, wenn ich mir die gängige Verdrahtung anschaue (Bild),
aber es wird sich wohl auch nur um die PCB Sicherheit drehen, bei den zwei zusätzlichen Massen.
http://www.playtool.com/pages/psuconnectors/pcie6plus2index.jpg
"Nur" ist gut... Das ist ja der Sinn davon einen 8Pin statt einem 6Pin zu verbauen, damit sich die Karte "sicher" 300W Leistungsaufnahme genehmigen kann :cool:
Edit:
Wenn die Karte 6+8Pin hat und Du nur 2x6Pin anschließt dann ist das OK. Umgekehrt wärs nicht so gut auf Dauer :freak:
AnarchX
2012-02-25, 16:54:25
Laut Aida Changelog ist die GTX670/675 ein GF114M Chip, also nichtmal 28nm und auch nicht Kepler?
Das sagen die Treiber schon länger. Möglicherweise wird GK104 die GTX 680/685M sein bzw. wird die GTX 700M Serie noch 2012 vorgestellt.
Hugo78
2012-02-25, 19:23:41
"Nur" ist gut... Das ist ja der Sinn davon einen 8Pin statt einem 6Pin zu verbauen, damit sich die Karte "sicher" 300W Leistungsaufnahme genehmigen kann :cool:
Ja, aber es fällt beim übertakten einer GTX470, 560Ti 448 oder deiner 570 ja auch niemand aus allen Wolken, wenn hier mal mal mehr als die max. 225W des 2*6Pin erreicht werden.
Oder nehmen wir bspw. ein älteres "Serien-Extrem" bei dem es ja schon Langzeiterfahrungen geben sollte.
Die HD4870X2 kam auch nur mit 8+6Pin, saugte dann aber zwischen 373W und 412W.
- http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index28.php
- http://www.pcgameshardware.de/aid,677411/Grafikkarten-Leistungsaufnahme-Update-mit-HD-4870-X2-GTX-295-und-Stellungnahme/Grafikkarte/Test/
Die Chinesen haben damit anfangs sogar die erste Version von ihrem Tianhe-1 bestückt, wenn gleich auch wohl mit deutlich weniger Takt.
Also weg von der Angstmache zum einen, und zurück zum vermeindlichen Engineer Sample.
Ein ES ist ebend etwas zum austesten, weil nicht optimiert.
Hier von den 8+6Pin des ES, auf den Verbrauch des finale Produkt zuschließen ist haltlos.
Sowohl in der einen, als auch in der anderen Richtung. ;D
Schnitzl
2012-02-25, 19:33:37
Wie dem auch sei ich persoenlich weigere mich irgend eine Kaufentscheidung zu treffen bevor sich von beiden Seiten die Preise fuer Performance GPUs um einiges normalisieren. Die billigste 7950 die ich momentan hier finden kann ist bei 420 Euros. Nein danke ich hab genug Geduld.
andere haben nicht so viel Geduld ;)
Bin gespannt auf die Gesichter hier, wenn GK104 im März/April für 350Euro rauskommt...
Könnte mir sogar 399 vorstellen, nVidia ist nicht blöd, die nehmen jeden Euro mit den Sie bekommen können.
Die Zeit der günstigen Grafikkarten ist mMn vorbei.
Adam D.
2012-02-25, 19:52:46
Die Zeit der günstigen Grafikkarten ist mMn vorbei.
Also "günstig" ist dann wirklich der falsche Ausdruck dafür. Nur jetzt sind die Preise einfach völlig bescheuert. Performance-Karten für >300€ können sie gerne behalten :ulol:
Blediator16
2012-02-25, 20:06:51
Wie war das mit den Designwins für Ivy Bridge bei den mobilen Keplers?
http://www.aida64.com/downloads/aida64extremebuild1812y4qdz2gtxvzip
Laut Aida Changelog ist die GTX670/675 ein GF114M Chip, also nichtmal 28nm und auch nicht Kepler?
Also sind erst 68xM Kepler Karten :confused:
Hugo78
2012-02-25, 20:13:47
Also sind erst 68xM Kepler Karten :confused:
Wurde in diesem Thema schon mehrfach spekuliert, dass es mal wohl ende letzten Jahres Pläne gegeben haben könnte,
dass GF114 Ableger als Platzhalter für den Bereich über GK107 geplant gewesen waren, bis GK104 verfügbar gewesen wäre.
Aber das dürfte sich ja mittlerweile erledigt haben und könnte letztlich sogar einfach nur bewusste Täuschung gewesen sein.
Device IDs (noch) nicht erhältlicher Produkte, haben ja erstmal einen rein akademischen Charakter.
foenfrisur
2012-02-25, 20:16:10
andere haben nicht so viel Geduld ;)
Bin gespannt auf die Gesichter hier, wenn GK104 im März/April für 350Euro rauskommt...
Könnte mir sogar 399 vorstellen, nVidia ist nicht blöd, die nehmen jeden Euro mit den Sie bekommen können.
Die Zeit der günstigen Grafikkarten ist mMn vorbei.
das liegt ja wohl in erster linie an der schlechten ausbeute/yields und den in diesen zusammenhang ungünstigen verträgen, als "an der zeit von günstigen grakas" ;)
außerdem müssen sie die nachfrage drosseln, sonst gibts schnell leere lager ;)
auch wenn "mit der zeit" die ausbeute besser werden wird und die preise wieder sinken werden.
mfg
Solange die neuen GPU's nicht in Massen auf den Markt kommen, wird es keinen Preiskampf geben. Was bringt eine GK104 für 300 Euro wenn man keine kaufen kann? Günstige Preise gibts bei vollen Regale und wenn die Händler auch in grossen Massen verkaufen wollen. Ich jedenfalls freue mich auf Konkurenz und Auswahl. ;)
bei 300 euro bekommt man wohl kaum lieferengpässe - dazu müsste die ausbeute schon äusserst schlecht sein
die grossen margen setzt man bei <200$/€ ab
andere haben nicht so viel Geduld ;)
Bin gespannt auf die Gesichter hier, wenn GK104 im März/April für 350Euro rauskommt...
Könnte mir sogar 399 vorstellen, nVidia ist nicht blöd, die nehmen jeden Euro mit den Sie bekommen können.
Die Zeit der günstigen Grafikkarten ist mMn vorbei.
können sie dann behalten
aber generell seh ich das problem auch
preise fallen praktisch kaum noch und einstiegspreise für performance segment ist nicht mehr bei ca. 150€ wie früher (6600GT, X1950pro, 9600GT, X3850 etc.)
naja dann hält die GTX260 eben noch ne weile durch :cool:
M4xw0lf
2012-02-25, 20:47:48
Ist es nicht ein bisschen früh für die ganzen Unkenrufe nach denen die Zeit der günstigen Grafikkarten jetzt vorbei ist? Ich meine, AMD verkauft seit gerade einem Monat seine 7000er Serie, die auch noch nicht komplett ist, die Yields sind wohl noch nicht sehr überzeugend und die Konkurrenz in Form von Kepler ist noch gar nicht auf dem Spielfeld - in der jetzigen Lage sind diese Preise doch wirklich nicht sehr verwunderlich. Sobald der Zweikampf wieder ein solcher ist und die Verfügbarkeit ausreichend hoch ist, gehen auch die Preise wieder runter.
fizzo
2012-02-25, 21:10:07
bei 300 euro bekommt man wohl kaum lieferengpässe - dazu müsste die ausbeute schon äusserst schlecht sein
die grossen margen setzt man bei <200$/€ ab
Freudscher? War wohl Mengen gemeint - größeren Margen IMHO nicht.
Nicht unwesendlich dürfte auch der Dollerkurs bei den Preisen durschlagen...sieht man jetzt auch schön bei den Bezinpreisen, mal schaun.
Schnitzl
2012-02-25, 21:30:31
Ist es nicht ein bisschen früh für die ganzen Unkenrufe nach denen die Zeit der günstigen Grafikkarten jetzt vorbei ist? Ich meine, AMD verkauft seit gerade einem Monat seine 7000er Serie, die auch noch nicht komplett ist, die Yields sind wohl noch nicht sehr überzeugend und die Konkurrenz in Form von Kepler ist noch gar nicht auf dem Spielfeld - in der jetzigen Lage sind diese Preise doch wirklich nicht sehr verwunderlich. Sobald der Zweikampf wieder ein solcher ist und die Verfügbarkeit ausreichend hoch ist, gehen auch die Preise wieder runter.
nun man muss sich mal anschaun, bei welcher Strukturbreite man inzwischen angekommen ist.
Die Abstände werden immer größer, und bei der TDP würde ich auch sagen, dass mehr als 300W auf keine Singlechip-Karte kommen wird.
Und ja, die leichte Zeiten sind vorbei, dass man mal eben 30-50W mehr verbrät und damit ne 100% Performance-Steigerung bekommt.
Das Ganze hat bei μm und Grafikkarten ohne Kühlkörper angefangen, nun sind wir bei 28nm und 2-Slot-Kühlung...
28nm ist ziemlich klein ... man muss sich das mal bewusst machen 1nm = 0,000001mm
Ein Atom ist rund 0,1nm wenn ich mich recht erinnere
:)
Knuddelbearli
2012-02-25, 21:48:55
kommt aufs atom an ^^
allgemein gilt je weiter rechts das Element auf der Periodensystem ist umso KLEINER! ist das Atom
und je weiter unten desto GRÖßER!
Blediator16
2012-02-25, 23:22:37
Wie war das mit den Designwins für Ivy Bridge bei den mobilen Keplers?
http://www.aida64.com/downloads/aida64extremebuild1812y4qdz2gtxvzip
Laut Aida Changelog ist die GTX670/675 ein GF114M Chip, also nichtmal 28nm und auch nicht Kepler?
http://forum.beyond3d.com/showpost.php?p=1622898&postcount=1934
600m is nexter gen than 500m, just don't look under the hood.
Dann kann sich ja dann nur um einen Shrink handeln.
OgrEGT
2012-02-25, 23:42:51
Ja, aber es verfällt beim übertakten einer GTX470, 560Ti 448 oder deiner 570 ja auch niemand aus allen Wolken, wenn hier mal mal mehr als die max. 225W des 2*6Pin erreicht werden.
Oder nehmen wir bspw. ein älteres "Serien-Extrem" bei dem es ja schon Langzeiterfahrungen geben sollte.
Die HD4870X2 kam auch nur mit 8+6Pin, saugte dann aber zwischen 373W und 412W.
- http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index28.php
- http://www.pcgameshardware.de/aid,677411/Grafikkarten-Leistungsaufnahme-Update-mit-HD-4870-X2-GTX-295-und-Stellungnahme/Grafikkarte/Test/
Die Chinesen haben damit anfangs sogar die erste Version von ihrem Tianhe-1 bestückt, wenn gleich auch wohl mit deutlich weniger Takt.
Also weg von der Angstmache zum einen, und zurück zum vermeindlichen Engineer Sample.
Ein ES ist ebend etwas zum austesten, weil nicht optimiert.
Hier von den 8+6Pin des ES, auf den Verbrauch des finale Produkt zuschließen ist haltlos.
Sowohl in der einen, als auch in der anderen Richtung. ;D
Also meine GTX570 hat 6+8Pin :)
Nee, ich wollte auch nicht auf Verbrauch schließen, sondern eher das Gegenteil, dass wenn GK104 mit 6+8Pin käme, das nur wegen OV der Fall wäre, da bei der Standard Ausführung, (laut Ail) der Chip nur 150W verbraucht.
OgrEGT
2012-02-25, 23:46:46
kommt aufs atom an ^^
allgemein gilt je weiter rechts das Element auf der Periodensystem ist umso KLEINER! ist das Atom
und je weiter unten desto GRÖßER!
Theorem 1 stimmt nicht, 2 stimmt.
Sonst wäre nach Deiner Theorie ein H-Atom (steht ganz links) größer als ein Helium Kern. Dem ist nicht so.
Edit:
Du hast recht, wenn es nicht um die Kerngröße geht, sondern die Außenelektronen mit eingerechnet werden.
Knuddelbearli
2012-02-26, 00:46:00
klar zählen die Elektronen auch mit wäre sonst ja nur der atomkern ^^
Die Elektronenwolke ist aber auch kein hart abgegrenzter Bereich und erstreckt sich theoretisch sogar bis ins Unendliche. Alles nur Aufenthaltswahrscheinlichkeiten, wenn man nicht hinschaut ;)
Knuddelbearli
2012-02-26, 03:04:20
jau deshalb gibts auch spezielle standards auf die man sich geeinigt hat um dei größe zu messen. wie genau der lautet aber nicht mehr heute um die uhrzeit .. wird aber eh auch in der wiki stehen
OgrEGT
2012-02-26, 07:11:28
Die Elektronenwolke ist aber auch kein hart abgegrenzter Bereich und erstreckt sich theoretisch sogar bis ins Unendliche. Alles nur Aufenthaltswahrscheinlichkeiten, wenn man nicht hinschaut ;)
So ist es. Mit Hilfe der Schrödinger Gleichung lässt sich diese Aufenthaltswahrscheinlichkeit von Elektronen (Orbitale)berechen. Allerdings funktioniert das nur relativ gut bei Wasserstoffatomen. Helium ist glaube ich schon zu groß :freak:
boxleitnerb
2012-02-26, 09:57:47
Jetzt wird es völlig verrückt! Ab Beitrag 1282ff:
http://semiaccurate.com/forums/showpost.php?p=154260&postcount=1282
Im S|A Forum gibt der User SeronX Infos zum Besten:
Erst schreibt er
GK104
512 CUDA Cores
96 TMUs
48 ROPs
$299.99/$349.99
~350mm²
2GB/4GB GDDR5
900+MHz Clock
28nm-HP from TSMC
Undisclosed Source
"It's a gaming card."
----
Now you guys on this forum being able to handle 1536 threads doesn't equal 1536 cores
Also, Hot Clocks are in use
Dann kommt:
Scheduler can handle 1536 separate threads for 512 Cores
2x Hot Clock
~1GHz/~2GHz for GK104-335
~0.9GHz/~1.8GHz for GK104-400
There will be factory overclocked versions though
Preise:
GK104-400 intrudes 570 area which MSRPs $299.99-$349.99
GK104-335 intrudes 560 Ti 384/560 Ti 448 area which MSRPs $259.99-$289.99
TMUs, ROPs und Die Size hat er nicht von der Quelle, das war von ihm. Kann also genauso 128, 32 und was anderes sein.
Zur Performance:
The source says it travels between the same and beats the Tahti XT
M4xw0lf
2012-02-26, 10:26:11
Das klingt doch nach einem Haufen Unfug.
DarknessFalls
2012-02-26, 10:42:41
Boah, Kepler mit HT. :freak: Nur, daß das sogar mit drei Threads pro Core daherkommt. ;D
Skysnake
2012-02-26, 10:44:39
sign
So ist es. Mit Hilfe der Schrödinger Gleichung lässt sich diese Aufenthaltswahrscheinlichkeit von Elektronen (Orbitale)berechen. Allerdings funktioniert das nur relativ gut bei Wasserstoffatomen. Helium ist glaube ich schon zu groß :freak:
Meinem Kenntnisstand nach geht das bei jedem Atom. Die Orbits sehen halt irgendwann sehr wild aus.
Gipsel
2012-02-26, 12:41:33
Meinem Kenntnisstand nach geht das bei jedem Atom. Die Orbits sehen halt irgendwann sehr wild aus.
Numerisch schon, analytisch hört es nach dem Wasserstoff sehr schnell auf (Drei-Körper-Problem (http://de.wikipedia.org/wiki/Dreik%C3%B6rperproblem)).
Aber ich denke, das ist in einem Kepler-Thread nicht die richtige Diskussion. ;)
Freudscher? War wohl Mengen gemeint - größeren Margen IMHO nicht.
Nicht unwesendlich dürfte auch der Dollerkurs bei den Preisen durschlagen...sieht man jetzt auch schön bei den Bezinpreisen, mal schaun.
muss natürlich mengen heissen bei kleiner marge :redface:
Numerisch schon, analytisch hört es nach dem Wasserstoff sehr schnell auf (Drei-Körper-Problem (http://de.wikipedia.org/wiki/Dreik%C3%B6rperproblem)).
Aber ich denke, das ist in einem Kepler-Thread nicht die richtige Diskussion. ;)
Ich dachte, das gilt nur für die Gravitation. Wieder was gelernt.
Aber ja, hast recht.
Skysnake
2012-02-26, 14:00:26
Gipsel hat 100% recht. Für den einfachen Wasserstoff gibt es eine analytische Lösung, für alles andere nur noch nummerische Lösungen. Wens interessiert Kugelflächenfunktionen sind da das richtige Stichwort ;)
Ps: das Zeug ist wirklich hässlich! Ich sprech da aus eigener Erfahrung -.-
Btt:
Ist nVidia auf der CeBIT dieses Jahr?
Adam D.
2012-02-26, 14:02:00
Ist nVidia auf der CeBIT dieses Jahr?
AFAIK gab es noch keine Ankündigung, deshalb wohl eher nicht. Aber von den Partnern wird man hinter verschlossenen Türen bestimmt etwas über Kepler erzählt bekommen, deshalb hoffe ich da auf neue Informationen.
Duplex
2012-02-26, 15:23:22
Wie hoch ist die wahrscheinlichkeit das GK104 ein Fermi Shrink in 28nm ist?
512 Shader @1000 GPU / 2000 Shader @350mm² wäre für Tahiti Pro genau das richtige.
Gipsel
2012-02-26, 15:26:21
Damit würde nV nur schwer die versprochenen Effizienzsteigerungen hinbekommen. Wenn man die Architektur ein wenig umsortiert, kann man das viel einfacher schaffen.
Iruwen
2012-02-26, 15:40:12
Schaut mal jemand nach Ail, ich glaub der rennt grad lachend inne Kreissäge.
Skysnake
2012-02-26, 15:47:15
gut möglich ;D
y33H@
2012-02-26, 16:43:53
Cebit nicht, aber OBR behauptet auf der GDC (gleicher Zeitraum).
EDIT: Er will ein NDA unterschrieben haben ... Kyle lässt grüßen ^^ und alle wichtigen wie unwichtigen Leute seien eingeladen ...
Blediator16
2012-02-26, 16:56:11
Ist der Typ so wichtig, dass der da eingeladen wird?
y33H@
2012-02-26, 17:07:32
Er sagt, vier Leute - vermutlich von PC Tuning Czech. Wobei er wohl meint, vier zur GDC.
Kann doch nicht sein, dass nV das ganz neue GK104 Design verwirft und dafür einen GF Shrink mit HC bringt. Ist doch ein Fake oder?
AnarchX
2012-02-26, 17:37:55
So eine Entscheidung muss schon 2011 gefallen sein oder diese GPU kommt erst gegen 2013. ;)
GTX670/675M haben außerdem eine GF114-40nm Device-ID, ein Shrink dürfte wohl eine andere Device-ID benötigen, wie auch schon GF104B~GF114.
Hugo78
2012-02-26, 20:30:08
Boah, Kepler mit HT.
Klingt für mich eher wie ein "1Big + 2Little" aka "VLIW3".
Wäre jetzt nicht so unrealistisch, nur halt das mit dem Hotclock wäre dann schon der Overkill.
Es wird nichts anderes als eine Skalararchitektur auf Instruktions-Ebene, das gibt allein schon HPC vor.
Ailuros
2012-02-26, 20:55:52
Schaut mal jemand nach Ail, ich glaub der rennt grad lachend inne Kreissäge.
Komm grad von einer Faschingsparty zurueck *zieht die knallrote Mohikaner-Peruecke schnell aus*....uhhmm ja das Dingsbums soll nur 512SPs haben und soll mit 96 TMUs und den anderen sinnlosen Rotz eine TahitiXT schlagen? :D
y33H@
2012-02-26, 21:18:58
Chingachgook oder Uncas? :biggrin:
Gipsel
2012-02-26, 21:51:50
Es wird nichts anderes als eine Skalararchitektur auf Instruktions-Ebene, das gibt allein schon HPC vor.
Einstein für's Projekt Echelon bekommt einen (V)LIW3-Befehlssatz (vec2 + vec2 ALU + 1 L/S für SP, 2 ALU + 1 L/S für DP). Energieeffizienz FTW!
Ailuros
2012-02-26, 23:00:10
Einstein für's Projekt Echelon bekommt einen (V)LIW3-Befehlssatz (vec2 + vec2 ALU + 1 L/S für SP, 2 ALU + 1 L/S für DP). Energieeffizienz FTW!
Ist zwar ziemlich OT, aber aus welchem Grund genau "enthuellt" NV 3 Generationen im voraus was in der weniger absehbaren Zukunft kommen wird?
Gipsel
2012-02-27, 01:04:11
Das war nur ein Argument dafür, daß HPC kein Totschlagargument ist (ich bezog mich auf den zweiten gefetten Teil von Codas Satz).
Hübie
2012-02-27, 12:28:39
Oh man. Jetzt geht die Scheiße wieder los. Irgend welche Gerüchte streuen mit unlogischen Zusammenhängen hier und da, schon ist jeder verwirrt und weiß nicht mehr wem oder was er glauben soll.
Kepler mit hotclock? Kepler ohne hotclock? Gute yields? Schlechte yields? 32 ROPs? 56 ROPs? :rolleyes:
Ich denke das sich beinahe jeder zusammenreimen kann das die Verwirrung nur darauf hindeuten soll das viel vorab durchgesickertes Material schon ganz gut passt.
dargo
2012-02-27, 12:43:25
Ich freue mich schon auf die brandneuen Infos zum GK110 am 1. April. ;D
Hübie
2012-02-27, 16:26:56
Also wenn ich so ins SA-Forum sehe glaube ich das wir jetzt schon den ersten April haben ;)
LuXon
2012-02-27, 17:19:23
Es wird spannend bezüglich den Notebooks. Hat nVidia nicht extra Chips auf "die Seite gelegt" um beim Launch von Ivy Bridge genügend liefern zu können? Jetzt hat Intel ja Ivy Bridge verschoben. Könnte nVidia dann nicht einfach die Desktop-Versionen früher launchen?
Es wird spannend bezüglich den Notebooks. Hat nVidia nicht extra Chips auf "die Seite gelegt" um beim Launch von Ivy Bridge genügend liefern zu können? Jetzt hat Intel ja Ivy Bridge verschoben. Könnte nVidia dann nicht einfach die Desktop-Versionen früher launchen?
Intel hat nur die 2 Kern Mobil Ivy's (Core i3m) verschoben. Die schnelleren Modelle kommen pünktlich zum April Launch.
YfOrU
2012-02-27, 18:03:43
Intel hat nur die 2 Kern Mobil Ivy's (Core i3m) verschoben. Die schnelleren Modelle kommen pünktlich zum April Launch.
Auch die mobilen i5, i7(m) sowie die ULV Modelle sind Dualcore CPUs. Das ist nach Volumen der ganz große Teil des mobilen Marktes. Quadcore im Notebook sind nur i7QM und XM ;)
Da Notebookabsatz > Desktop sowie dessen i3 + Pentium Modelle mit einbezogen verkauft Intel wohl auch deutlich mehr Dual als Quadcore CPUs. Deshalb sind die Dualcore bei Intel nicht teildeaktiviert sondern kommen aus separater Fertigung. Auf den Quad CPUs ist aber die (wesentlich) höhere Marge und so kommen die bei mangelnder Kapazität zuerst.
Käsetoast
2012-02-27, 19:24:26
Gab's diese Werte zur GK107 hier schon?
http://translate.google.com/translate?sl=auto&tl=en&js=n&prev=_t&hl=en&ie=UTF-8&layout=2&eotf=1&u=http%3A%2F%2Fwww.inpai.com.cn%2Fdoc%2Fhard%2F167825.htm
Im 3DMark11 im P-Modus 3521 Punkte durch die GPU...
boxleitnerb
2012-02-27, 19:25:40
Ja, leider Fake. CPU Scores passen nicht, Treiber sollte GK107 gar nicht erkennen können.
PingpiN
2012-02-27, 20:01:33
Nach der 8800 GTX (2006) scheint nvidia jetzt wieder ins hintertreffen zu kommen.Mall gucken wie lange der herstellungsrückstand anhalten wird.AMD schein jedenfalls oben auf zusein.Das die highendgpu von NV ende des jahres wieder schneller sein wird ist uninteressant.Hatten ja auch genug zeit dafür.AMD wird dann bestimmt auch schon ein refresh haben.Das jetzt erst ne 670 kommt zeigt doch nur das die Nvidia chips zu komplex sind.Oder Nvidia konzentriert sich auf ein anderen markt.
Mancko
2012-02-27, 20:06:40
Nach der 8800 GTX (2006) scheint nvidia jetzt wieder ins hintertreffen zu kommen.Mall gucken wie lange der herstellungsrückstand anhalten wird.AMD schein jedenfalls oben auf zusein.Das die highendgpu von NV ende des jahres wieder schneller sein wird ist uninteressant.Hatten ja auch genug zeit dafür.AMD wird dann bestimmt auch schon ein refresh haben.Das jetzt erst ne 670 kommt zeigt doch nur das die Nvidia chips zu komplex sind.Oder Nvidia konzentriert sich auf ein anderen markt.
Wie die Leute immer auf so einen Schmarrn kommen. Mit der HD5870 hat AMD ein halbes Jahr vor Nvidia seine Graka am Markt gehabt. Das hat aber im Endeffekt weder dazu beigetragen, dass die 6970 vor der GTX580 herauskam noch hat es verhindert, dass Nvidia die Krone für mehr als 1 Jahr inne hatte und nicht nur 6 Monate.
Duplex
2012-02-27, 20:16:48
Wie die Leute immer auf so einen Schmarrn kommen. Mit der HD5870 hat AMD ein halbes Jahr vor Nvidia seine Graka am Markt gehabt. Das hat aber im Endeffekt weder dazu beigetragen, dass die 6970 vor der GTX580 herauskam noch hat es verhindert, dass Nvidia die Krone für mehr als 1 Jahr inne hatte und nicht nur 6 Monate.
Ich errinere an den stornierten 32nm Chip weil TSMC kein 32nm mehr zur Verfügung stellen konnnte...Cayman stand ursprünglich nicht auf den Plan :rolleyes:
In 32nm hätte man die Cypress Strategie fortsetzen können, ein 640-5D Shader Chip mit 70% mehr Leistung als RV870 wäre dann drin gewesen!
Hugo78
2012-02-27, 20:21:27
@Duplex
... und AMD wäre dann alleiniger 32nm Nutzer gewesen?
Duplex
2012-02-27, 20:23:51
Nö 32nm bulk war auch für Nvidia geplant, hätte AMD damals 32nm bei TSMC nutzen können, dann hätten wir damals schon 7970 Leistung gesehen, aber nicht GCN sondern VLIW5 also mit AF bechseiss...
mczak
2012-02-27, 22:44:38
Ich errinere an den stornierten 32nm Chip weil TSMC kein 32nm mehr zur Verfügung stellen konnnte...Cayman stand ursprünglich nicht auf den Plan :rolleyes:
In 32nm hätte man die Cypress Strategie fortsetzen können, ein 640-5D Shader Chip mit 70% mehr Leistung als RV870 wäre dann drin gewesen!
Das ist ziemlich falsch.
Cayman war schon immer vorgesehen, halt einfach für 32nm. Laut Dave Baumann wurde der Chip 1:1 zurückportiert von 32nm auf 40nm. Allenfalls wäre da mit 32nm mehr Takt dringelegen.
Von nvidia habe ich nie irgendwelche konkreten Pläne für 32nm Chips gesehen, zu beachten ist auch dass amd (wegen der hohen Kosten) offenbar jedenfalls fürs Erste nur Cayman in 32nm plante. Ein allfälliger 32nm Highend nvidia Chip hätte jedenfalls nicht nachträglich in 40nm realisiert werden können (schlicht zu gross).
Blediator16
2012-02-27, 23:37:41
Das ist ziemlich falsch.
Cayman war schon immer vorgesehen, halt einfach für 32nm. Laut Dave Baumann wurde der Chip 1:1 zurückportiert von 32nm auf 40nm. Allenfalls wäre da mit 32nm mehr Takt dringelegen.
Von nvidia habe ich nie irgendwelche konkreten Pläne für 32nm Chips gesehen, zu beachten ist auch dass amd (wegen der hohen Kosten) offenbar jedenfalls fürs Erste nur Cayman in 32nm plante. Ein allfälliger 32nm Highend nvidia Chip hätte jedenfalls nicht nachträglich in 40nm realisiert werden können (schlicht zu gross).
Eigentlich machts die Sache ja auch nicht besser. AMD wurde eben der Plan durchkreuzt und dahin war der "Vorsprung" der 5xxx Serie.
Screemer
2012-02-28, 14:58:06
man kann es aber auch so sehen, dass nv bei einem 32nm cayman, mit hohem takt und aufgrand des kleineren nodes entsprechend niedrigerem stromverbrauch, p/l-technisch tierisch eine verpasst bekommen hätte.
wie sagen manche bayern. hätten, daten, däten... die diskussion ist einfach müßig.
Dural
2012-02-28, 16:02:31
ja schon, vorallem immer das ständige "für NV ist der Zug abgefahren" diskusionen, ist echt mühsam und wenn man die alten oder aktuellen zahlen anschaut regelrecht lächerlich! wenn man bedenkt das letztes jahr gerademal 3 Millionen Gamerkarten über 300.- US Doller Verkauft wurden ;D Zudem ist NV wie schon seit langem ganz klar Marktführer ( 2/3 ) bei den Diskreten Grafikkarten und das wird sich in naher zukunft auch nicht ändern.
Was ich aber komisch finde ist, das NV bis jetzt über Kepler komplett schweigt, langsam wird das schon verdächtig... die 7970 ist jetzt schon 7 Woche auf dem Markt, NV könnte wirklich mal ein Lebenszeichen von Kepler zeigen... sehr komisch und irgend wie hab ich auch gar kein gutes gefühl mehr :rolleyes:
Ailuros
2012-02-28, 18:29:22
Charlie hat nicht unrecht wenn er behauptet dass wenn ihnen (ihre) yields nicht im Weg stehen sie tatsaechlich mit Kepler diese Runde wohl gewinnen werden.
Was ich aber komisch finde ist, das NV bis jetzt über Kepler komplett schweigt, langsam wird das schon verdächtig... die 7970 ist jetzt schon 7 Woche auf dem Markt, NV könnte wirklich mal ein Lebenszeichen von Kepler zeigen... sehr komisch und irgend wie hab ich auch gar kein gutes gefühl mehr :rolleyes:
Ich sage nochmal dass NV NIE zuvor so viele NDAs hat unterschreiben lassen wie diesmal und es ist wohl keiner so leichtsinning mit einem unterschriebenem NDA froehlich loszublubbern. Bis jetzt haben wir zumindest ueber GK104 ziemlich genug erfahren koennen und die wichtigen technologischen Fragen werden sowieso erst nach dem Launch gedeckt.
Aber damit ihr Grund zum meckern habt, mach ich einfach das naechste Mal total dicht wenn ich auf etwas stossen sollte und man koennte beruhigt immer noch "1024SPs+hotclock" erwarten fuer eine high end SKU.
boxleitnerb
2012-02-28, 18:40:31
Ist es wirklich so schlimm, wie Charlie hier schreibt?
http://semiaccurate.com/forums/showpost.php?p=154344&postcount=1314
Ich meine, gerade die kleinen Chips sollte man doch mehr oder weniger problemlos fertigen können. Wenn man sich das durchliest, scheint ja irgendwie gar nichts zu klappen bei der Herstellung.
Gipsel
2012-02-28, 18:43:10
Was ich aber komisch finde ist, das NV bis jetzt über Kepler komplett schweigt, langsam wird das schon verdächtig... die 7970 ist jetzt schon 7 Woche auf dem Markt, NV könnte wirklich mal ein Lebenszeichen von Kepler zeigen... sehr komisch und irgend wie hab ich auch gar kein gutes gefühl mehr :rolleyes:
Vielleicht wollen sie einfach, daß sich keine Leute über eine Ankündigung der Ankündigung der Vorschau auf Vorab-Tests (oder so ähnlich) lustig machen können. Tests nahe zum Launch und ab dem sind sie im Laden erhältlich wäre doch okay, oder?
Ailuros
2012-02-28, 19:13:57
Ist es wirklich so schlimm, wie Charlie hier schreibt?
http://semiaccurate.com/forums/showpost.php?p=154344&postcount=1314
Ich meine, gerade die kleinen Chips sollte man doch mehr oder weniger problemlos fertigen können. Wenn man sich das durchliest, scheint ja irgendwie gar nichts zu klappen bei der Herstellung.
Es wird wohl nicht allzu lange dauern bis wir sehen koennen was wirklich los ist.
horn 12
2012-02-28, 19:28:08
Lass es uns doch wissen...
Vernichtet GF104 die Tahiti GPU´s oder wird es ein Kopf an Kopf Rennen mit der HD7950 (OC)
Ailuros
2012-02-28, 19:41:39
Lass es uns doch wissen...
Vernichtet GF104 die Tahiti GPU´s oder wird es ein Kopf an Kopf Rennen mit der HD7950 (OC)
Erstens hat es ueberhaupt nichts mit dem zu tun ueber das boxleitnerb fragte und zweitens unterschreib ein NDA mit NVIDIA und Du bekommst Deine Antwort.
Schaffe89
2012-02-28, 19:43:21
Charlie hat nicht unrecht wenn er behauptet dass wenn ihnen (ihre) yields nicht im Weg stehen sie tatsaechlich mit Kepler diese Runde wohl gewinnen werden.
Was heißt hier "Runde gewinnen"?
Man hat immernoch kein Produkt am Start und kämpft scheinbar mit Kapazitätsproblemen sowie Yield Problemen.
Da du die zu erwartende Performance mehr oder weniger "knapp über HD7950 Niveau" schon rausgelassen hast ( bei einer Chipgröße von über 300mm²), sehe ich da jetzt nicht wirklich einen Gewinner.
Vor allem nicht, wenn Nvidia erstmal mit nur einem Chip in kleinen Dosen ende März starten will.
BTW: Nur weil einige Leute ein NDA unterschrieben haben, müssen die noch gar nicht allzuviel wissen.
mczak
2012-02-28, 19:46:11
Lass es uns doch wissen...
Vernichtet GF104 die Tahiti GPU´s oder wird es ein Kopf an Kopf Rennen mit der HD7950 (OC)
GF104? Also das ist einfach. Mit 100% Sicherheit, nein, nicht mal nah dran an HD7950 :-)
Ailuros
2012-02-28, 19:57:59
Was heißt hier "Runde gewinnen"?
So wie es oben steht unter den spezifischen Vorraussetzungen.
Man hat immernoch kein Produkt am Start und kämpft scheinbar mit Kapazitätsproblemen sowie Yield Problemen.
Genau so wie jeder andere Hersteller momentan.
Da du die zu erwartende Performance mehr oder weniger "knapp über HD7950 Niveau" schon rausgelassen hast ( bei einer Chipgröße von über 300mm²), sehe ich da jetzt nicht wirklich einen Gewinner.
Bei Leistung/Watt schon. Damit aber dieses auch gueltig sein wird, muessen "ihre" binning yields auch die angepeilten Frequenzen bei der Massenproduktion erreichen koennen. Da sie aber dicht gemacht haben kann ich leider nichts weiteres erfahren. Dieses wurde aber ausdruecklich notiert, aber wie immer bleibt man natuerlich nur an einem Fetzen haengen ohne den ganzen Satz durchzulesen und den Inhalt auch richtig zu ueberdenken.
Vor allem nicht, wenn Nvidia erstmal mit nur einem Chip in kleinen Dosen ende März starten will.
Ob es nur ein chip sein wird und in welchen Mengen bleibt abzusehen.
BTW: Nur weil einige Leute ein NDA unterschrieben haben, müssen die noch gar nicht allzuviel wissen.
Wenn NV nicht jeden letzten Heini dazu gedraengt haette, haette ich selbst den letzten Fetzen in der Hand von mehreren Seiten wie meistens in der Vergangenheit. Anders ein ziemlich gut ausgerechter Durchschnitt und nicht nur von einem benchmark-set.
GF104? Also das ist einfach. Mit 100% Sicherheit, nein, nicht mal nah dran an HD7950 :-)
ROFL :D Touche....hab ich glatt ueberlesen.
Duplex
2012-02-28, 20:00:13
Das ist ziemlich falsch.
Cayman war schon immer vorgesehen, halt einfach für 32nm. Laut Dave Baumann wurde der Chip 1:1 zurückportiert von 32nm auf 40nm. Allenfalls wäre da mit 32nm mehr Takt dringelegen.
Du willst mir also sagen das der ursprüngliche Chip in kleineren Strukturen (32nm) mit nur 384-4D Shader wie Cayman geplant war? :rolleyes:
Das glaubt doch niemand im ernst, es interessiert mich nicht was die Leute von Grün sagen...
PS: bei RV870 wurden die GPU Einheiten neben DX11 auch durch die kleineren Strukturen um Faktor2 vergrößert.
Und jetzt ist wieder schluss mit offtopic!
y33H@
2012-02-28, 20:02:20
BTW: Nur weil einige Leute ein NDA unterschrieben haben, müssen die noch gar nicht allzuviel wissen.Und wenn ich nun dreist das Gegenteil behaupte? :eek:
GF104? Also das ist einfach. Mit 100% Sicherheit, nein, nicht mal nah dran an HD 7950.Nur auf dem Level HD 7870? ;) Das wäre für eine Performance-Karte etwas wenig.
Duplex
2012-02-28, 20:03:33
100% GTX560 > 150% GK104, das sollte locker das minimum sein.
boxleitnerb
2012-02-28, 20:19:34
Hieß es nicht mal, dass Perf/mm2 auch besser sein soll? Wenn GK104 ca. 10% kleiner wäre als Tahiti, aber auch 10% langsamer, gibts da keinen Gewinner. Bei absoluter Performance wird GK104 wegen der Bandbreite auch nicht gewinnen. Perf/$ hängt von AMD ab, was die machen mit dem Preis.
Bleibt da außer Perf/W überhaupt irgendwas? Und GK110 wird groß sein und teuer (doch sicher wieder im 450-500mm2 Bereich bei 500-600$), da wird man sich auch kaum bei Perf/mm2 oder Perf/$ absetzen können.
Beim Duell GK110 Salvage Part vs. Tahiti XT wird Nvidia natürlich gewinnen, aber dann wieder mit einem großen teuren Chip. Ist das nicht ein Szenario, das man eher vermeiden will? Es wäre geschickt, wenn man in jedem Segment an und für sich gewinnt, und wenn es nur 5-10% sind, die man vorne liegt. Da frage ich mich doch, warum man GK104 kein 384-bit Interface verpasst hat. Man wäre etwas größer geworden und stromhungriger, aber die Performance sollte ja auch etwas steigen.
Ailuros
2012-02-28, 20:44:36
Hieß es nicht mal, dass Perf/mm2 auch besser sein soll? Wenn GK104 ca. 10% kleiner wäre als Tahiti, aber auch 10% langsamer, gibts da keinen Gewinner. Bei absoluter Performance wird GK104 wegen der Bandbreite auch nicht gewinnen. Perf/$ hängt von AMD ab, was die machen mit dem Preis.
Marketing wird Dir erzaehlen wollen dass wenn Du den Stromverbrauch um N% steigen laesst es eine besseres perf/W und perf/mm2 ratio geben wird. Kein gerechter Vergleich IMHO, aber beim marketing geht es eher selten ueber Sachen wie "Gerechtigkeit" oder balancierte Wahrheiten.
Bleibt da außer Perf/W überhaupt irgendwas? Und GK110 wird groß sein und teuer (doch sicher wieder im 450-500mm2 Bereich bei 500-600$), da wird man sich auch kaum bei Perf/mm2 oder Perf/$ absetzen können.
Kepler hat u.a. zwei wesentliche Ziele: durch bessere perf/W etwas mobile Marktanteil zurueck zu erobern und fuer HPC ein so gut wie moegliches DP perf/W ratio auf die Beine zu stellen. Glaubst NV haette einen besonderen Grund einen >500mm2 chip zu entwickeln wenn es Quadros bzw. Teslas nicht geben wuerde? Ja Intel's Knights Corner wird so manche eigene Vorteile haben, aber wenn es zu Stromverbrauch kommt sollte man wohl eher das Thema wechseln. Hier kommt es wohl eher darauf an am Ende ob Stromverbrauch fuer Supercomputer Kunden auch wirklich ein wichtiger Massstab sein kann fuer relevante Kaufs-entscheidungen.
Zurueck zum Thema: es nicht allzu schwer auszubuddeln wie stark der mobile Marktanteil fuer NVIDIA nachgelassen hat in letzter Zeit. Und Stromverbrauch ist eben verdammt wichtig fuer solche deals.
Beim Duell GK110 Salvage Part vs. Tahiti XT wird Nvidia natürlich gewinnen, aber dann wieder mit einem großen teuren Chip. Ist das nicht ein Szenario, das man eher vermeiden will? Es wäre geschickt, wenn man in jedem Segment an und für sich gewinnt, und wenn es nur 5-10% sind, die man vorne liegt.
Die letzten standalone GPUs die wohl in der weniger vorhersehbaren Zukunft ueberleben werden, werden wohl HPC/desktop high end GPUs sein. Der Rest wird mit der Zeit Stueck fuer Stueck von stets wachsenden SoCs mit der Zeit abgesetzt.
Da frage ich mich doch, warum man GK104 kein 384-bit Interface verpasst hat. Man wäre etwas größer geworden und stromhungriger, aber die Performance sollte ja auch etwas steigen.
Weil IHVs dafuer sorgen dass Produkte je nach Segment auch einen logischen Preis und Leistungs-Abstand haben. Natuerlich waere es kein Problem einem GK104 einen 384bit bus zu verpassen und warum auch nicht es um N% hoeher zu takten. Danach kann sich aber auch NV beruhigt die GK110 salvage parts in den Hintern stecken.
mczak
2012-02-28, 20:44:59
Du willst mir also sagen das der ursprüngliche Chip in kleineren Strukturen (32nm) mit nur 384-4D Shader wie Cayman geplant war? :rolleyes:
Das glaubt doch niemand im ernst, es interessiert mich nicht was die Leute von Grün sagen...
Wie gesagt, das hat Dave Baumann gesagt, und der sollte es wissen:
http://forum.beyond3d.com/showpost.php?p=1505316&postcount=6841
So erstaunlich ist das auch wieder nicht, der Chip wäre dann sicher unter 300mm² gewesen, aber noch bei HD4xxx war der schnellste Chip von AMD ja auch nicht so gross.
Nur auf dem Level HD 7870? ;) Das wäre für eine Performance-Karte etwas wenig.
Für die die's nicht bemerkt haben man beachte das "F" in GF104 :-).
Schaffe89
2012-02-28, 20:47:16
Und wenn ich nun dreist das Gegenteil behaupte?
Dann würdets du das was du geschrieben hast, wohl nicht schreiben.^^
Ich gehe mal davon aus, dass man den NDA Unterzeichnern gesagt hat was mit dem Chip grob zu erwarten ist (vor allem was die technische Hinsicht betrifft), weniger die Performance, da ja scheinbar die Taktraten aufgrund des Yields vielleicht immernoch nicht ganz final sind. ~950Mhz
Dann grob das Performance/Watt Verhältnis und halt sonstige eher unwichtigere Informationen per Pressemitteilung.
Genau so wie jeder andere Hersteller momentan.
Wäre natürlich interessant ob die Yield Probleme auch AMD betreffen.
So wie es oben steht unter den spezifischen Vorraussetzungen.
Naja die Vorraussetzungen sind eher nicht spezifisch sondern laut deiner Aussage ja auf alle Hersteller zutreffend.
Du hast mal gesagt der Chip selbst benötigt ca 150Watt und ich denke mehr Info wirst du bisher auch noch nicht bekommen haben, daraus lässt sich denk ich extrahieren, dass Kepler zumindest gleichziehen kann was Performance/Watt betrifft, besser glaube ich kaum, die HD 7970 könnte man allerdings schon schlagen.
Wie gut Nvidia den "Schnitt" dann selbst ausgerechnet hat, werden wir dann spätestens im Computerbase Test lesen können.
Nur auf dem Level HD 7870? Das wäre für eine Performance-Karte etwas wenig.
Ich denke es gibt einige Settings/Spiele bei denen das zutrifft. Vor allem Anno 2070 und Metro 2033.
Ich weiß echt nicht was Nvidia beim 3D Mark 2011 Extreme 1920x1080 da totoptimiert hat.
Die Leistung wird jedenfalls in den Spielen im Schnitt nicht erreicht.
y33H@
2012-02-28, 20:51:07
Für die die's nicht bemerkt haben man beachte das "F" in GF104.Das habe ich schon gesehen :biggrin:
Ailuros
2012-02-28, 20:59:56
Ich gehe mal davon aus, dass man den NDA Unterzeichnern gesagt hat was mit dem Chip grob zu erwarten ist (vor allem was die technische Hinsicht betrifft), weniger die Performance, da ja scheinbar die Taktraten aufgrund des Yields vielleicht immernoch nicht ganz final sind. ~950Mhz
Dann grob das Performance/Watt Verhältnis und halt sonstige eher unwichtigere Informationen per Pressemitteilung.
In solch einem Falle wuerde ich auch keine Leistungszahlen erwaehnen.
Wäre natürlich interessant ob die Yield Probleme auch AMD betreffen.
Ich hab mehr als nur einmal gesagt dass AMD sich dank eigener binning yields sich "gezwungen" sah TahitiXT u.a. "nur" auf 925MHz zu halten.
Naja die Vorraussetzungen sind eher nicht spezifisch sondern laut deiner Aussage ja auf alle Hersteller zutreffend.
Du hast mal gesagt der Chip selbst benötigt ca 150Watt und ich denke mehr Info wirst du bisher auch noch nicht bekommen haben, daraus lässt sich denk ich extrahieren, dass Kepler zumindest gleichziehen kann was Performance/Watt betrifft, besser glaube ich kaum, die HD 7970 könnte man allerdings schon schlagen.
<150W fuer den chip und wenn's schon sein muss <20W fuer 8 GDDR5 Speicherchips und es ist immer noch genug Info daraus eine finale TDP zu moebeln, weil die Zahlen mit Absicht zu ungenau sind und noch etwas nebenwichtiger Schnickschnack auch noch zum Stromverbrauch beitraegt. Die Infos ueber das A2 Material das herumschwirrt sind ziemlich genau und um einiges ausfuehrlicher.
Die NDAs sind fuer reviewer.
Wie gut Nvidia den "Schnitt" dann selbst ausgerechnet hat, werden wir dann spätestens im Computerbase Test lesen können.
NV besteht darauf dass sie eine XT damit schlagen; ich hingegen glaube es erst wenn ich es sehe und ja natuerlich denke ich damit stets an einen apples to apples absoluten Durchschnitt.
boxleitnerb
2012-02-28, 21:02:39
Marketing wird Dir erzaehlen wollen dass wenn Du den Stromverbrauch um N% steigen laesst es eine besseres perf/W und perf/mm2 ratio geben wird. Kein gerechter Vergleich IMHO, aber beim marketing geht es eher selten ueber Sachen wie "Gerechtigkeit" oder balancierte Wahrheiten.
Moment, sprichst du über GK104 vs. GK104 "OC" oder GK104 vs. Tahiti? Ich meinte Letzteres. Außerdem fährst du irgendwo mit dem Takt gegen eine Wand, dann muss die Spannung rauf und schon geht Perf/W wieder runter. Und selbst wenn sich GK104 so toll bei so wenig Mehrverbrauch takten lassen sollte, wieviel kommt davon überhaupt auf die Straße (256-bit)?
Kepler hat u.a. zwei wesentliche Ziele: durch bessere perf/W etwas mobile Marktanteil zurueck zu erobern und fuer HPC ein so gut wie moegliches DP perf/W ratio auf die Beine zu stellen. Glaubst NV haette einen besonderen Grund einen >500mm2 chip zu entwickeln wenn es Quadros bzw. Teslas nicht geben wuerde? Ja Intel's Knights Corner wird so manche eigene Vorteile haben, aber wenn es zu Stromverbrauch kommt sollte man wohl eher das Thema wechseln. Hier kommt es wohl eher darauf an am Ende ob Stromverbrauch fuer Supercomputer Kunden auch wirklich ein wichtiger Massstab sein kann fuer relevante Kaufs-entscheidungen.
Zurueck zum Thema: es nicht allzu schwer auszubuddeln wie stark der mobile Marktanteil fuer NVIDIA nachgelassen hat in letzter Zeit. Und Stromverbrauch ist eben verdammt wichtig fuer solche deals.
Okay, also Perf/W das A und O.
Die letzten standalone GPUs die wohl in der weniger vorhersehbaren Zukunft ueberleben werden, werden wohl HPC/desktop high end GPUs sein. Der Rest wird mit der Zeit Stueck fuer Stueck von stets wachsenden SoCs mit der Zeit abgesetzt.
Noch sind wir da aber noch nicht. Aber gut, Nvidia kann es sich leisten, mit einem 500mm2 Chip einen 365mm2 Chip schlagen zu müssen, immerhin kann man die Dinger auch teuerst als Teslas verticken.
Weil IHVs dafuer sorgen dass Produkte je nach Segment auch einen logischen Preis und Leistungs-Abstand haben. Natuerlich waere es kein Problem einem GK104 einen 384bit bus zu verpassen und warum auch nicht es um N% hoeher zu takten. Danach kann sich aber auch NV beruhigt die GK110 salvage parts in den Hintern stecken.
Oder GK110 höher takten :D
Tahiti lässt sich prima übertakten. Es wäre ärgerlich, wenn GK104 in diesem Vergleich absaufen würde, weil er an Bandbreite verhungert. Ja, es übertaktet nur eine Minderheit...trotzdem. Wenn die binning yields besser werden bei Tahiti, könnte GK104 eine böse Überraschung erleben. Dann kann der eine ohne angezogene Handbremse fahren, der andere nicht.
Interessant ist doch wie die beiden GPU's bei gleichem Takt in den Benchmarks abschneiden.
Ailuros
2012-02-28, 21:03:44
Ich denke es gibt einige Settings/Spiele bei denen das zutrifft. Vor allem Anno 2070 und Metro 2033.
Ich weiß echt nicht was Nvidia beim 3D Mark 2011 Extreme 1920x1080 da totoptimiert hat.
Die Leistung wird jedenfalls in den Spielen im Schnitt nicht erreicht.
Die 3k Punkte im 3DFurz11 xtreme stimmen schon, nur hast Du vielleicht nicht auf die Frequenzen nicht besonders geachtet als sie in einer Tabelle geleakt wurden. Mit 1.1GHz Takt ist es keine besondere Ueberraschung, ist aber eben NICHT der eigentliche finale default Takt. Sonst wenn jemand wie ich gerne ueber Details bohrt fragt man eventuell auch ueber 8xMSAA Vergleichs-leistung nach; die Antwort wuerde so manchen 384bit bus Anbeter ueberraschen.
Tahiti kann seine Speichertransferrate erst richtig durchnudeln, wenn man ihn kräftig übertaktet. Wer sich dem bewusst ist, dem sollte klar sein, dass auch 256 Becks ausreichen, wenn der/die/das RAM mindestens 3.000 MHz auf die Waage bringt.
MfG,
Raff
Ailuros
2012-02-28, 21:10:51
Moment, sprichst du über GK104 vs. GK104 "OC" oder GK104 vs. Tahiti? Ich meinte Letzteres. Außerdem fährst du irgendwo mit dem Takt gegen eine Wand, dann muss die Spannung rauf und schon geht Perf/W wieder runter. Und selbst wenn sich GK104 so toll bei so wenig Mehrverbrauch takten lassen sollte, wieviel kommt davon überhaupt auf die Straße (256-bit)?
Weil es eine Art "turbo modus" anscheinend auf dem Ding gibt. Zumindest vendors sind mehr als froh ueber den Mist da es um einiges helfen wird fuer Spezial-Varianten. Der hoechste Verbrauch wird eben nicht bei =/>200W liegen fuer den Quark. Und ja mit diesem Zeug ist GK104 schon eine denkbare TahitiXT "Gefahr". Bei default duerfte sie nach wie vor zwischen PRO und XT liegen was die Leistung betrifft.
Okay, also Perf/W das A und O.
Gegen welche Wand fahr ich genau mit dem obrigen Paragraph nochmal?
Noch sind wir da aber noch nicht. Aber gut, Nvidia kann es sich leisten, mit einem 500mm2 Chip einen 365mm2 Chip schlagen zu müssen, immerhin kann man die Dinger auch teuerst als Teslas verticken.
Wuerde NV keine Quadros bzw. Teslas brauchen, wuerde die Notwendigkeit fuer einen so grossen chip sofort entfallen. HPC bzw. workstation haben zwar verdammt hohe Margen als Maerkte koennen aber von sich alleine ohne desktop solche Projekte nicht finanzieren. Deshalb pruegelt man auch solche chips mit einer Unzahl von rasters/trisetups bzw. ALUs voll.
Oder GK110 höher takten :D
Soll wohl ein Witz sein. Ich fress einen Schokoladen-besen wenn Tesla-Kepler selbst die GTX580 core-Frequenz erreichen wird.
Tahiti lässt sich prima übertakten. Es wäre ärgerlich, wenn GK104 in diesem Vergleich absaufen würde, weil er an Bandbreite verhungert. Ja, es übertaktet nur eine Minderheit...trotzdem.
Siehe ein Stueckchen weiter oben.
Gipsel
2012-02-28, 21:11:46
Interessant ist doch wie die beiden GPU's bei gleichem Takt in den Benchmarks abschneiden.
Finde ich nicht. Unterschiedliche Architekturen ermöglichen mitunter deutlich unterschiedliche Taktraten. Das ist auch ein Teil davon.
Ailuros
2012-02-28, 21:12:54
Tahiti kann seine Speichertransferrate erst richtig durchnudeln, wenn man ihn kräftig übertaktet. Wer sich dem bewusst ist, dem sollte klar sein, dass auch 256 Becks ausreichen, wenn der/die/das RAM mindestens 3.000 MHz auf die Waage bringt.
MfG,
Raff
Sag das nicht mir. Bandbreite braucht man fuer 3D zum groessten Teil fuer hohe Aufloesungen und ueberhaupt mit AA. Ich werde den Verdacht nicht los dass sich das Ding im Vergleich zu Cayman mit 8xAA nicht weiter absetzen kann, weil eben wahrscheinlich die 32 ROPs limitieren.
Gipsel
2012-02-28, 21:15:13
Sonst wenn jemand wie ich gerne ueber Details bohrt fragt man eventuell auch ueber 8xMSAA Vergleichs-leistung nach; die Antwort wuerde so manchen 384bit bus Anbeter ueberraschen.
Wie ich schon mal sagte, helfen Tahiti die 384Bit bei 4xMSAA mehr als bei 8xMSAA. Bei letzterem liegt nämlich das ROP-Limit tiefer (AMD bräuchte also überarbeitete ROPs um unter 8xMSAA mehr Vorteil aus der schnelleren Speicheranbindung zu ziehen).
Edit @Ailuros: Ja, genau.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.