Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014
matty2580
2013-08-14, 01:14:37
Weil du einfach annimmst, dass hier 20nm geplant wurd und man das auf 28nm runter bricht.
Wer sagt, dass es auf 20nm geplant ist? Wer sagt, dass es auf 28nm kommt?? Das ist beides noch unklar...
Das nehme ich nicht an, sondern beziehe mich auf die Infos aus diesem Forum:
http://www.3dcenter.org/news/amd-volcanic-islands
http://www.3dcenter.org/news/amds-20nm-grafikchips-gehoeren-zu-den-chip-generationen-volcanic-islands-und-pirates-islands
http://www.3dcenter.org/artikel/der-lange-weg-zu-den-ersten-20nm-grafikkarten
Das 20nm aktuell noch sehr unwahrscheinlich ist, auch ab Oktober, muss ich nicht extra erklären. Auch eine risk production ist sehr unwahrscheinlich.
Noch nicht einmal Nvidia hat sich bisher darauf eingelassen, und was die Chip-Größe betrifft, war Nvidia immer etwas mutiger als AMD.
20nm wäre auch nicht unbedingt das Problem gewesen, wenn AMD sich an die eigenen Roadmaps gehalten hätte.
Sea Island hätte Anfang 2013 genug Freiraum für Volcanic Island Ende 2013, Anfang 2014 in 20nm gebracht.
Aber jetzt ist Volcanic Island in 20nm doch sehr unwahrscheinlich.
Skysnake
2013-08-14, 07:42:21
Wer sagt eigentlich, das VI (heute) gleich VI (2011/2012) ist?
Wenn TSMC sagt 20nm wäre für H2 2014 zu erwarten, und AMD aufgrund der Erfahrungen aus der Vergangenheit mit TSMC recht vorsichtig agiert, weil es einfach noch sooo weit weg ist, ist es dann nicht möglich, das SI zwar "gecanceled" wurde, aber VI (heute) eben "nur" ein auf 28nm vorgezogener VI (20nm) ist.
Das würde durchaus Sinn machen, wenn man schon früh wusste, das man eigentlich 3 Architekturen in 28nm bringen müsste, weil sich 20nm nicht ausgeht. Irgendwie werde ich das Gefühl nicht los, das wird endgültig an dem Punkt angekommen sind, wo andere Fertigungstechnologien die Position des Shrinks einnehmen.
Also TSV/stackedChips, Interposer, MCM usw usw.
Gipsel hat ja gesagt, das 20nm zwar den Flächenvorteil hat, die Kosten/Transistor aber nicht sinken und auch die Effizienz gerade mal um 15-20% zunehmen. Gleichzeitig arbeitet man aber eben schon seit Jahren an oben genannten Techniken, und Xilinx hat jetzt auch schon in 28nm ihre FPGAs mit Interposer (? oder sind das nur MCMs? ich glaube nicht. Stacked Chips auch nicht) in den "Massenproduktion".
Ganz ganz lange war das wohl ein reinstes Fiasko, aber inzwischen sollen Sie ihren TopDog wirklich fertigen können.
Ich warte ja schon die ganze Zeit darauf, das sich da mal was tut, und nVidia will ja 2015 den RAM mit auf das Package packen.
Was ist wenn AMD "einfach" zwei Tahiti nimm, und die nebeneinander packt auf einem Package, und per TSV verbindet, bzw gar Interposer verwendet.
Damit hätte man kein Problem ein 800+mm² Monsterchip zu bauen. Quasi die S10000 in "einem" Chip (package natürlich). Ich weiß nur nicht, wie teuer das wäre. Die Yields für die Chips wären natürlich sehr gut, da es absolut nichts besondere ist. Das einzige Problem ist das Zusammenpappen und eben die DIE-Size an sich. Wir wissen ja aber, dass die reinen Chipkosten nur einen kleinen Bruchteil der Gesamtkosten aus machen, vor allem läuft die Fertigung ja.
Ich finde das aktuell eine wirklich schwere Zeit, weil wir vor grundlegenden Umbrüchen stehen, Umbrüche die die gesamte IT-Welt verändern werden, einfach weil wir gegen physikalische finale Grenzen anrennen. Es ist nur noch die Frage ob heute oder erst morgen dieser Umbruch durchgeführt wird, er wird aber kommen, und das mit einem großen Paukenschlag von jetzt auf gleich.
Oder aber man geht von eine gemäßigten Refresh aus. Nichts Spektakuläres ein Paar Shader dazu, Front-End erweitert, Bugfixing und Optimierung. Sagen wir 420mm² at 28nm @ 950mhz. 7970GE + 25% @ 210W TDP.
AffenJack
2013-08-14, 08:13:42
Vergiss es Skysnake, dafür ists diese Generation noch zu früh und da ich davon ausgehe, dass wir bei 28 nm bleiben ists auch noch unnötig das Risiko einzugehen und die Kosten zu erhöhen. Bei 20 nm in einem Jahr siehts dann schon anders aus, da man dann mit Gddr5 keine adäquate Bandbreitensteigerungen mehr hinkriegt und die Technologien langsam endlich reif werden könnten.
Zu deinem 2 Chipbeispiel auf einem Package, schafft man mit mit Interposer die Bandbreiten gut um die 2 Chips wie einen aggieren zu lassen? Ich weiß ja nicht wieviel Bandbreite man da braucht, aber stelle mir das schon verdammt viel vor. Wenn man dann nämlich einfach wieder nur Dualgpu hat kann man sichs auch sparen.
Wo hast du das her, dass Nv 2015 den Ram aufs Package packt? Es gibt nur Aussagen zu Stacked Dram bei Volta, aber das ist ja auch schon die Nachfolgegeneration von Maxwell die man eher 2016 erwarten sollte.
Ailuros
2013-08-14, 09:09:48
Es koennen manche ruhig immer noch auf 20nm hoffen, aber wie platt sie auf die Nase fallen werden werden sie dann schon in ein paar Wochen sehen.
Nightspider
2013-08-14, 09:11:18
Kommt nächstes Jahr nicht sowieso erstmal GDDR6, welches ein Bandbreitenlimit auffängt?
Nightspider
2013-08-14, 09:12:19
Es koennen manche ruhig immer noch auf 20nm hoffen, aber wie platt sie auf die Nase fallen werden werden sie dann schon in ein paar Wochen sehen.
Warum fallen wir Bruce? Um zu lernen wieder aufzustehen! :biggrin:
Ailuros
2013-08-14, 09:17:59
Warum fallen wir Bruce? Um zu lernen wieder aufzustehen! :biggrin:
Gut dann nochmal fuer alle Leser:
20nm ist momentan NICHT produktionsreif mit anstaendigen yields und selbst laecherlich kleine Kapazitaeten werden sich erst Anfang 2014 oeffnen was eben nicht ausreicht selbst fuer einen performance GPU chip innerhalb von H1. Auch SoCs fuer 20LP werden es verdammt schwer haben vor H2. Ab H2 wird es so langsam losgehen und falls es bei manchen von Euch immer noch nicht klingeln sollte jegliche Herstellung vor H2 unter allem 20nm wird SUENDHAFT teuer sein.
dargo
2013-08-14, 09:18:25
Es koennen manche ruhig immer noch auf 20nm hoffen, aber wie platt sie auf die Nase fallen werden werden sie dann schon in ein paar Wochen sehen.
Hmm... also doch nur ein kleiner Performancesprung, schade.
Hübie
2013-08-14, 09:20:53
Oder aber man geht von eine gemäßigten Refresh aus. Nichts Spektakuläres ein Paar Shader dazu, Front-End erweitert, Bugfixing und Optimierung. Sagen wir 420mm² at 28nm @ 950mhz. 7970GE + 25% @ 210W TDP.
Das ist dem was da kommt wohl am nächsten. Traumtänzerei ist ja nun hier unnötig. Auf cb würde ich sowas ja noch erwarten.
Ailuros
2013-08-14, 09:21:19
Hmm... also doch nur ein kleiner Performancesprung, schade.
IHV agnostic wir sind schon seit langem in einer Aera wo Herstellungsprozesse zunehmend problematisch werden und ergo groessere Leistungsspruenge von diesen abhaengig sind. Mit zumindest 2.5 Jahren zwischen Generationen sollte man schon rechnen und es wird nur schlimmer werden und nicht schlechter.
AnarchX
2013-08-14, 09:27:41
Kommt nächstes Jahr nicht sowieso erstmal GDDR6, welches ein Bandbreitenlimit auffängt?
Vielleicht die offizielle Spezifikation von der JEDEC, aber bei verbaubaren Speicher sollte man wohl maximal mit 8Gbps GDDR5 rechnen.
john carmack
2013-08-14, 09:32:33
Kommt nächstes Jahr nicht sowieso erstmal GDDR6, welches ein Bandbreitenlimit auffängt?
Mit etwas Glück kommen 2014 sogar schon HMC´s
http://www.hpcwire.com/hpcwire/2013-01-17/micron_readies_hybrid_memory_cube_for_debut.html
"If all goes as planned, the Hybrid Memory Cube will be in full production at the end of this year or early 2014. In fact, contracts are already in place for the 2014 timeframe."
john carmack
2013-08-14, 09:34:12
Vielleicht die offizielle Spezifikation von der JEDEC, aber bei verbaubaren Speicher sollte man wohl maximal mit 8Gbps GDDR5 rechnen.
bei einem 512Bit Si könnte man eine Bandbreite von 512GB/s erreichen :)
Nightspider
2013-08-14, 09:49:40
Ailuros nimm uns doch nicht die Hoffnung und denn Glauben du Teufel. ;)
Wir basteln uns doch nur ein Spekulatiusschloss gehalten von etwas Wunschtraum. ;)
Alles halb so wild. :)
Hauptsache es kommt wieder Bewegung in den Markt.
dargo
2013-08-14, 09:50:10
bei einem 512Bit Si könnte man eine Bandbreite von 512GB/s erreichen :)
Und was soll man damit wenn die Rohleistung nur wenige Prozent zulegt? Es wird sicherlich wieder ein 384Bit SI @7Gbps sein. Mit viel Glück eventuell 8Gbps.
PS: die Titan hat ja auch "nur" 288GB/s und verhungert nicht an zu wenig Bandbreite. Mit 7Gbps hätte die neue Karte bereits 336GB/s. Vielleicht hat man hier auch Caches angepasst, sodass mehr Bandbreite gar nicht nötig ist.
AnarchX
2013-08-14, 09:55:34
Es ging wohl eher um die Speicherausbaumöglichkeiten in 2014. Also für den >7000SPs GM100 bzw. den 20nm Piraten-Islands-Chip von AMD.
Für Hawaii sollten wohl 384-Bit 6-7Gbps in der Tat ausreichen, wenn sich um einen 28nm Chip mit knapp unter 50% Rohleistungszuwachs handelt, der irgendwo zwischen 780 und Titan landet.
512Bit SI braucht einfach zu viel Diefläche - prozentual dürfte es bei 20nm eher noch schlimmer werden. Es ist effizienter Caches zu vergrößern, als das SI. Für Hawaii wird man die Bandbreite gar nicht massiv erhöhen müssen. Die 7970 hängt nunun wirklich nicht an der Bandbreite.
robbitop
2013-08-14, 10:08:03
Da werden schon einige brauchbare Chips hergestellt, die auch verkauft werden. Und in 20nm fallen mir nur GPUs ein.
IdR fängt man mit kleineren, einfacheren Sachen an. Kleine SoCs, FPGAs.
http://www.hardware-infos.com/news/4743/tsmc-20-nanometer-fertigung-2013-moeglich.html
"Nun hat der taiwanische Auftragsfertiger Taiwan Semiconductor Manufacturing Company (TSMC) bestätigt, dass eine Grafikkarten-Serie in einer Strukturbreite von 20 Nanometern zum gegenwärtigen Zeitpunkt zumindest theoretisch im Bereich des Möglichen liegt."
Schade das es dazu keine direkte Quelle gibt...
Ja theoretisch geht vieles. Aber eben mit hohen Kosten und hohen Risiken. Daher auch "risk production".
Godmode
2013-08-14, 10:15:49
Es ging wohl eher um die Speicherausbaumöglichkeiten in 2014. Also für den >7000SPs GM100 bzw. den 20nm Piraten-Islands-Chip von AMD.
Für Hawaii sollten wohl 384-Bit 6-7Gbps in der Tat ausreichen, wenn sich um einen 28nm Chip mit knapp unter 50% Rohleistungszuwachs handelt, der irgendwo zwischen 780 und Titan landet.
GM100 erwarte ich frühestens Anfang 2015.
robbitop
2013-08-14, 10:17:29
Bei Fermi lief das ja schief (risk halt) worauf hin GF110 aufgelegt werden musste.
Fermi war längst keine Risk Production mehr. Nichtmal die 4770, die deutlich vorher kam, war Risk Production. Entsprechenden Link habe ich zum Beweis bereits ein paar Seiten vorher bereits gebracht. Der Prozess war halt einfach problematisch.
Fermis Problem war eher die Verbindung zwischen den Ausführungseinheiten. Die Crossbar oder dessen Anbindung.
In einem Jahr können wir über 20nm sprechen.
Hübie
2013-08-14, 11:19:42
Fermi war längst keine Risk Production mehr. Nichtmal die 4770, die deutlich vorher kam, war Risk Production. Entsprechenden Link habe ich zum Beweis bereits ein paar Seiten vorher bereits gebracht. Der Prozess war halt einfach problematisch.
Fermis Problem war eher die Verbindung zwischen den Ausführungseinheiten. Die Crossbar oder dessen Anbindung.
Ja und die Produktion war schon angelaufen als das Problem erkannt wurde. Jeder neue Chip geht in die Phase der risk production. TSMC hat mit jedem neuen Prozeß die risk production. Die Käufer mit jedem Chipdesign. Das war doch die Frage. Risk production heißt eben das man nicht mehr viel ändern kann (schon gar nicht am design). Wenn etwas völlig aus dem Ruder läuft bricht man vollständig ab.
robbitop
2013-08-14, 13:09:11
Ich glaube, du verwechselst dort etwas. Der Prozess als solches ist in der Erprobungsphase noch in der so genannten Risk Production. Sobald der Prozess über ein gewisses Maß gereift ist, geht es in die Serial Production. Das ist nicht Design- sondern Prozessabhängig.
Fermi war schon längst in der Serial Production Phase des 40 nm Prozesses. Diese begann in der ersten TSMC Fabrik bereits Ende 2008. ATI tapte darauf hin RV740 out, der ein halbes Jahr später das Licht der Welt erblickte. Tape Out von Cypress war danach. Und erst danach kam Fermi.
Bis auf NV30 kenne ich kein Design, welches in der Risk Production Phase eines Prozesses sein Tape Out hatte. Und das war, wie bereits gesagt, um Größenordnungen unkomplexer damals. Heute gibt es bei GPUs keine Tape Outs eines Serienproduktes in diesem Zustand. Vieleicht ein paar Testchips (die widerum massiv inkomplexer sind als eine finale GPU).
Skysnake
2013-08-14, 13:12:49
Vergiss es Skysnake, dafür ists diese Generation noch zu früh und da ich davon ausgehe, dass wir bei 28 nm bleiben ists auch noch unnötig das Risiko einzugehen und die Kosten zu erhöhen.
Wie gesagt, TSMC fertigt das seit über einem Jahr für Xilinx. Man hat inzwischen also "viel" Erfahrung mit der Serienfertigung von solchen Chips gesammelt, was auch nötig war. Über den Anfang wollen wir lieber nicht reden...
TSMC und damit AMD wissen nun aber, wie man damit umgeht. Ich halte es daher nicht für ausgeschlossen, das man so etwas macht. Es ist halt eine Alternative zu einem Shrink, und in Zukunft werden wir diese auch nutzen, da wir ansonsten eben Stillstand haben. Shrinks allein reichen nicht mehr.
Bei 20 nm in einem Jahr siehts dann schon anders aus, da man dann mit Gddr5 keine adäquate Bandbreitensteigerungen mehr hinkriegt und die Technologien langsam endlich reif werden könnten.
Was sollte in einem Jahr anders sein als heute? Vor allem mit 20nm hat man den Druck nicht Interposer zu verwenden, da man ja wieder genug Luft nach oben hat bei der DIE-Size.
Zu deinem 2 Chipbeispiel auf einem Package, schafft man mit mit Interposer die Bandbreiten gut um die 2 Chips wie einen aggieren zu lassen?
Ja schafft man. Das kann man in erster Näherung dann wie einen großen monolitischen DIE ansehen.
Ich weiß ja nicht wieviel Bandbreite man da braucht, aber stelle mir das schon verdammt viel vor. Wenn man dann nämlich einfach wieder nur Dualgpu hat kann man sichs auch sparen.
Interposer sind auch keine Larifari Verbindung, sondern das nonplusultra!
Wo hast du das her, dass Nv 2015 den Ram aufs Package packt? Es gibt nur Aussagen zu Stacked Dram bei Volta, aber das ist ja auch schon die Nachfolgegeneration von Maxwell die man eher 2016 erwarten sollte.
Gena da. Sie haben gesagt, dass Sie den Speicher eben mit auf das PAckage stacken, bzw aus der Folie war es klar ersichtlich und wurde auch so kommuniziert. Man will damit halt die extrem! Energiehungrigen externen Speicherinterfaces los werden. So nen SerDes ist einfach ein extremer Schluckspecht...
Kommt nächstes Jahr nicht sowieso erstmal GDDR6, welches ein Bandbreitenlimit auffängt?
GDDR6 gibt es meines Wissens nach noch nicht spezifiziert. Zumindest ist mir keine Spezifikation bekannt, und selbst wenn wird es nicht kommen. Es gibt einfach besseres Sachen wie z.B. HMC.
Ailuros nimm uns doch nicht die Hoffnung und denn Glauben du Teufel. ;)
Wir basteln uns doch nur ein Spekulatiusschloss gehalten von etwas Wunschtraum. ;)
Alles halb so wild. :)
Hauptsache es kommt wieder Bewegung in den Markt.
Doch soll er, und das ist auch gut so!
Man muss einfach mal ein bischen Bodenhaftung wieder rein bekommen...
512Bit SI braucht einfach zu viel Diefläche - prozentual dürfte es bei 20nm eher noch schlimmer werden. Es ist effizienter Caches zu vergrößern, als das SI. Für Hawaii wird man die Bandbreite gar nicht massiv erhöhen müssen. Die 7970 hängt nunun wirklich nicht an der Bandbreite.
So Pauschal ist das nicht richtig. KEINER! Würde sich selbst über 100% mehr Rambandbreite beschweren, und es würde genug Probleme geben die davon profitieren bzw sich dadurch überhaupt erst lohnen auf eine GPU gemapped zu werden.
AnarchX
2013-08-14, 13:32:02
Hawaii die has +/- 440 mm, with 40CU blocks, 384-bit mem, 6GB mems and IT IS made on 28nm node.
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details/page2&
Dieser XS-User hatte die FX-9000 Daten geleakt.
Insgesamt ergibt sich da ein stimmiges Gesamtbild: Hawaii GL40, $549-599, 780 als Konkurrent und eine nicht zu extreme Die-Größe.
Gaestle
2013-08-14, 13:46:41
Irgendjemand hier hatte doch auf einen doppelten PitCairn getippt. 40CUs würden da schon mal passen.
Fehlen blos noch die anderen Werte.
Ist außerdem noch eine Effizienzsteiegrung zu erwarten? Wenn ja, wie viel?
Nakai
2013-08-14, 13:50:41
Also die Specs sind genau das, was die meisten Leute, vor den wirren Spekus, spekuliert haben.;)
Irgendjemand hier hatte doch auf einen doppelten PitCairn getippt. 40CUs würden da schon mal passen.
Gipsel wars.
Ist außerdem noch eine Effizienzsteiegrung zu erwarten? Wenn ja, wie viel?
Wenn AMD mal das Frontend aufbohrt, könnte man evtl auf Pitcairn-Effizienz kommen. Ich glaube ja nicht, das man das geschafft hat. ;D
Insgesamt etwa 30% Mehrperformance gegenüber Tahiti, schätze ich.
X.Perry_Mental
2013-08-14, 13:52:57
Insgesamt etwa 30% Mehrperformance gegenüber Tahiti, schätze ich.
Also nichts Ungewöhnliches für einen Refresh-Chip im gleichen Prozess.
Also nichts Ungewöhnliches für einen Refresh-Chip im gleichen Prozess.
Ob es der gleiche Prozess ist, ist noch nicht raus ;-)
matty2580
2013-08-14, 13:59:26
30% klingt nicht so schlecht.
Reicht das für die Titan?
Kann man dem Leak vertrauen?
Kennt jemand den User?
X.Perry_Mental
2013-08-14, 14:24:45
Ob es der gleiche Prozess ist, ist noch nicht raus ;-)
Das stimmt, aber mal ehrlich: wenn ich meine angepeilte Mehrleistung in einem etablierten Prozess realisieren kann, warum dann das 20nm-Risiko eingehen? Ich könnte verstehen, wenn AMD einen der kleineren Chips auf 20nm als pipe-cleaner vorschicken würde - aber mit dem Highend-Chip auf einem unreifen Prozess starten und riskieren, dass man in den nächsten 6 Monaten homöopathische Yields hat?
boxleitnerb
2013-08-14, 14:28:13
Vielleicht meint er einen anderen 28nm-Prozess.
Jupp, er meint 28nm@GloFo.
mboeller
2013-08-14, 14:41:32
Insgesamt etwa 30% Mehrperformance gegenüber Tahiti, schätze ich.
+30% wären nicht ganz so gut wie der Sprung von der HD6970 auf die HD7970; waren laut computerbase ca. +40%
2x HD7870 wären aber mehr als nur +30%. Die HD7870 erreicht ja ca. 70% der Leistung einer HD7970GHz. Vielleicht hängt die neue GPU aber an der Bandbreite. 384bit sind vielleicht ein wenig wenig im Vergleich zu einer HD7870.
dargo
2013-08-14, 14:46:40
30% klingt nicht so schlecht.
Reicht das für die Titan?
Wenn die +30% für die HD7970GE gedacht sind ja. Dann würde die Karte zwischen Titan und 780 landen. Titan und 780 liegen eh eng bei einander.
Jupp, er meint 28nm@GloFo.
Ja. Kaveri sollte ursprünglich ja schon im Frühjahr kommen. Der kam aber nicht, ergo hatte GF 28nm-Kapazitäten über.
Könnte jetzt natürlich sein, dass der Prozess immer noch schlecht war, aber da hat man die offiziellen Yield-Daten die seit Januar i.O. sind.
Bliebe noch das Problem der extra Anpassung auf GateFirst, aber das musste man für Kaveri auch schon machen.
fondness
2013-08-14, 14:58:00
25% mehr CUs, je nachdem ob man das Frontend aufgebohrt hat kann das plus 15% bis plus ~40% Mehrleistung bedeuten. Takt sollte ungefähr gleich bleiben. Wenn er das Die einfach nachgemessen hat, sind es vermutlich <440mm². Schade das AMD wieder nicht in die vollen geht.
mczak
2013-08-14, 15:06:54
2x HD7870 wären aber mehr als nur +30%. Die HD7870 erreicht ja ca. 70% der Leistung einer HD7970GHz. Vielleicht hängt die neue GPU aber an der Bandbreite. 384bit sind vielleicht ein wenig wenig im Vergleich zu einer HD7870.
Bandbreite ist sicher kein grosses Problem, denn nicht vergessen schon die HD7970 Ghz hat praktisch die doppelte Bandbreite einer HD7870 - da wird häufig der doch deutlich höhere Speichertakt unterschätzt. Für die doppelte Bandbreite einer HD7870 braucht man nicht mal an die Grenzen zu gehen, bei einem 384bit interface reichen da 1.6Ghz Speichertakt, da hat man bei Verwendung von 7gbps noch locker Reserven.
40 CUs sind wohl etwa das was man erwarten kann bei der Die-Grösse, so für sich allein bringen die kaum was für mehr Performance (für Spiele). Aber immerhin die 8 CUs mehr wären wohl etwa um die 50mm² stimmen die ~440mm² bleibt also noch etwas (wenn auch nicht sonderlich viel) übrig für besseres Frontend, mehr ROPs etc. (was wichtiger ist als die 8 ROPs mehr). Es ist aber natürlich durchaus möglich dass Perf/Fläche gesteigert werden konnte.
fondness
2013-08-14, 15:11:36
Ja. Kaveri sollte ursprünglich ja schon im Frühjahr kommen. Der kam aber nicht, ergo hatte GF 28nm-Kapazitäten über.
Könnte jetzt natürlich sein, dass der Prozess immer noch schlecht war, aber da hat man die offiziellen Yield-Daten die seit Januar i.O. sind.
Bliebe noch das Problem der extra Anpassung auf GateFirst, aber das musste man für Kaveri auch schon machen.
Ich glaube man sollte sich von solchen Gedanken verabschieden. Ich bezweifle auch, dass der GF Prozess mit dem von TSMC in punkte GPUs mithalten kann. Gatefirst hin oder her, die Packdichte der GPUs in den bisherigen APUs war auch alles andere als berauschend.
Gatefirst hin oder her, die Packdichte der GPUs in den bisherigen APUs war auch alles andere als berauschend.
Das waren auch SOI-Prozesse, die für High-Performance CPUs mit hohen Taktraten entwickelt wurden. Die haben von Haus aus schlechtere Packdichten, da das bei solchen Prozessen schlicht und einfach kein Designziel ist.
Wäre bei 28nm nicht der Fall.
Edit: Außerdem gabs auch schon früher Planungen von 28nm GPUs für GF. Damals war der Prozess halt noch nicht fertig, aber jetzt...
fondness
2013-08-14, 15:22:50
Edit: Außerdem gabs auch schon früher Planungen von 28nm GPUs für GF. Damals war der Prozess halt noch nicht fertig, aber jetzt...
Warum das Risiko eingehen, und auf einem offenbar pannengeplagten Prozess setzen, wenn man mit dem 28nm Prozess@TSMC auf eine ausgereiften und bereits verwendeten Prozess setzen kann?
Nakai
2013-08-14, 16:03:08
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5203169&viewfull=1#post5203169
:uponder:
Ich bleib ja dabei, dass wir mehr als 40CUs sehen werden. 42(3fach) oder 44(4fach).
Ailuros
2013-08-14, 17:59:36
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5203169&viewfull=1#post5203169
:uponder:
Ich bleib ja dabei, dass wir mehr als 40CUs sehen werden. 42(3fach) oder 44(4fach).
Je mehr Einheiten desto hoeher die Chancen fuer niedrigere Frequenzen und das an mehreren Stellen. Schneller als in anderen Faellen/Thesen wird das Endresultat trotz allem nicht.
fondness
2013-08-14, 18:06:09
Je mehr Einheiten desto hoeher die Chancen fuer niedrigere Frequenzen und das an mehreren Stellen. Schneller als in anderen Faellen/Thesen wird das Endresultat trotz allem nicht.
Wie schnell soll der Endresultat laut diesen Thesen denn werden? :)
Ailuros
2013-08-14, 18:13:32
Wie schnell soll der Endresultat laut diesen Thesen denn werden? :)
Ich lass mich zwar angenehm ueberraschen aber mehr als 30% Durchschnitt klingt schwer; jetzt fehlt natuerlich verglichen zu was :P
AnarchX
2013-08-14, 18:32:32
Hawaii die has +/- 440 mm, with 40CU blocks, 384-bit mem, 6GB mems and IT IS made on 28nm node.
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details/page2&
Dieser XS-User hatte die FX-9000 Daten geleakt.
Insgesamt ergibt sich da ein stimmiges Gesamtbild: Hawaii GL40, $549-599, 780 als Konkurrent und eine nicht zu extreme Die-Größe.
Oder vielleicht doch 44 CUs im "Nvidia Style":
ahh, see. OK, it can be specs of "Pro" version maybe, successor of HD 7950.Because i thought full chip is only for Professional graphics. Full hp has 44 CUs, but who knows if will be in gaming SKU?
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5203199&viewfull=1#post5203199
boxleitnerb
2013-08-14, 18:33:00
Lol, halbe Minute zu spät. Das deckt sich mit meinen Infos.
fondness
2013-08-14, 18:37:20
Oder vielleicht doch 44 CUs im "Nvidia Style":
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5203199&viewfull=1#post5203199
Naja, hört sich nicht wirklich sicher an was der Typ von sich gibt. IMO raten im Moment noch alle ziemlich im blauen herum, finale Specs wurde noch nirgends geleakt und wenn dann höchstens durch Zufall/Glück.
Warum das Risiko eingehen, und auf einem offenbar pannengeplagten Prozess setzen, wenn man mit dem 28nm Prozess@TSMC auf eine ausgereiften und bereits verwendeten Prozess setzen kann?
Die Pannenzeit ist vorbei, die Yields sind ok, schrieb ich doch schon im letzten Posting ...
Abgesehen davon gibts - selbst wenn technische Gründe nicht gegeben sind - in der Beziehung zw. AMD und GF genügend politische.
Duplex
2013-08-14, 18:51:09
37,5% mehr Shader als Tahiti XT ist doch Super, damit wird man Titan Performance erreichen.
440mm² Fläche ist auch nicht schlecht, nur 20% mehr als Tahiti.
Hoffentlich wird das eine gute OC Karte, bei 1300-1400Mhz GPU Takt @WaKü wird das eine Bomben Karte!
Ronny145
2013-08-14, 18:57:30
Naja, hört sich nicht wirklich sicher an was der Typ von sich gibt. IMO raten im Moment noch alle ziemlich im blauen herum, finale Specs wurde noch nirgends geleakt und wenn dann höchstens durch Zufall/Glück.
Was hört sich nicht sicher an? Mit 44 und 40 CU ist er sich sicher, ob die 44 CU Version als Gaming Karte angeboten wird, darüber ist er sich nicht sicher. Die Pro ist demnach die 40 CU Version.
Duplex
2013-08-14, 19:01:35
9970 > 2816 Shader (44 CUs)
9950 > 2560 Shader (40 CUs)
Zwischen Tahiti XT & Pro gab es auch ein Unterschied von 4 CUs.
fondness
2013-08-14, 19:03:30
Was hört sich nicht sicher an? Mit 44 und 40 CU ist er sich sicher, ob die 44 CU Version als Gaming Karte angeboten wird, darüber ist er sich nicht sicher. Die Pro ist demnach die 40 CU Version.
Sein erster Beitrag war "Hawaii die has +/- 440 mm, with 40CU blocks..."
Jetzt auf einmal soll es nur die Cut-down-Version gewesen sein? Naja.
Zergra
2013-08-14, 19:06:20
9970 > 2816 Shader (44 CUs)
9950 > 2560 Shader (40 CUs)
Zwischen Tahiti XT & Pro gab es auch ein Unterschied von 4 CUs.
Die 9970 > als die Titan
und die 9950 größer als die 780GTX ?
Das wäre natürlich etwas viel :D aber von den Specks her möglich.
Duplex
2013-08-14, 19:09:40
Meine Vorstellung, HD9970 10% schneller als Titan & HD9950 gleichauf mit der GTX780.
Vorrausgesetzt 2816 & 2560 Shader.
Ronny145
2013-08-14, 19:09:58
Sein erster Beitrag war "Hawaii die has +/- 440 mm, with 40CU blocks..."
Jetzt auf einmal soll es nur die Cut-down-Version gewesen sein? Naja.
Er ist von der gaming Version ausgegangen. Die Frage ist nur, ob die schnellere Version als gamer Karte angeboten wird.
Ailuros
2013-08-14, 19:11:09
Die 9970 > als die Titan
und die 9950 größer als die 780GTX ?
Das wäre natürlich etwas viel :D aber von den Specks her möglich.
Dein Speck hat zu viel fett :P
perf/w ist heute relevant. Wenn man breiter geht und nicht mehr verbrauchen will, wird man mit dem Takt runter müssen. Also wahrscheinlich meist schneller als 780, meist langsamer als Titan bei der TDP auf Niveau der 7970GE.
Ailuros
2013-08-14, 19:16:01
perf/w ist heute relevant.
DP GFLOP/W wird AMD sehr schwer mit dem 4:1 ratio aus den gleichen ALUs gewinnen koennen.
Gipsel
2013-08-14, 19:23:07
DP GFLOP/W wird AMD sehr schwer mit dem 4:1 ratio aus den gleichen ALUs gewinnen koennen.Vermutlich. Aber so allgemein auch ein schwieriges Argument. AMD hat es mit 1:4 gegen Fermi (mit sogar 1:2 Rate) auch locker zum Gleichstand geschafft. :wink:
boxleitnerb
2013-08-14, 19:26:44
DP GFLOP/W wird AMD sehr schwer mit dem 4:1 ratio aus den gleichen ALUs gewinnen koennen.
1:2 wäre auch möglich...:wink:
Ailuros
2013-08-14, 19:30:56
Aber SP
Mit besserer Effizienz pro FLOP auf GFs, ja und?
Vermutlich. Aber so allgemein auch ein schwieriges Argument. AMD hat es mit 1:4 gegen Fermi (mit sogar 1:2 Rate) auch locker zum Gleichstand geschafft. :wink:
2:1 liegt in der gleichen theoretischen Liga da DP von den gleichen ALUs kommt.
1:2 wäre auch möglich...:wink:
Es sollte wohl jemand Dir weniger Maerchen erzaehlen ;)
boxleitnerb
2013-08-14, 19:36:10
Wir werden sehen...
mironicus
2013-08-14, 19:47:41
Na, das wäre doch was.
9970 >= Titan, 6 GB Speicher und das für 549 Euro.
9950 >= GTX 780, 6 GB Speicher und das für 449 Euro.
Skysnake
2013-08-14, 20:19:30
Aber SP
Wayne SP.....:rolleyes:
Godmode
2013-08-14, 20:24:06
Wayne SP.....:rolleyes:
Ich würde mal sagen 95% der User dieses Forums. :tongue:
Ailuros
2013-08-14, 20:32:07
Ich würde mal sagen 95% der User dieses Forums. :tongue:
Schon aber wenn ich die bisherigen Geruechte richtig interpretiere ist der moegliche 44 CU Brocken hoechstwahrscheinlich HPC only.
Anders wenn's stimmt: "monkey see monkey do" fuer AMD. Die vollen cores werden mit hohen Margen ausgeschlachtet und der Otto-Normalverbraucher bekommt die salvage parts bei immer noch high end MSRPs.
Wayne SP.....:rolleyes:
Da Tahiti ja angeblich mit der Vorstellung von Hawaii nicht EOL sein soll, würde ich vermuten, dass DP nicht im Fokus stand.
Match-Maker
2013-08-14, 22:22:13
Da Tahiti ja angeblich mit der Vorstellung von Hawaii nicht EOL sein soll, würde ich vermuten, dass DP nicht im Fokus stand.
Aber welchen Sinn würde es machen, Hawaii nicht auch im HPC-Bereich zu bringen?
Warum sollte man GK110 dort denn nicht Paroli bieten?
mczak
2013-08-14, 23:19:46
Also ich muss sagen sollten sich die 44 CUs bei ~440mm² bewahrheiten bin ich sehr skeptisch was Performance betrifft. Das sieht dann für mich so aus dass man mehr CUs reingestopft hätte aber für andere Verbesserungen (grösseres Frontend, mehr ROPs etc.) bleibt dann gar kein Platz mehr übrig. Das würde für Gaming doch höchstens so 15% bringen gegenüber der 7970 kann es also kaum sein (für Compute hingegen wäre das schon toll). Nun gut kann durchaus sein dass es AMD geschafft hat irgendwo Transistoren (oder auch bloss Platz) zu sparen und besseres Frontend doch noch Platz hat aber bei den genannten Zahlen müssten diese Gewinne schon sehr erheblich sein damit die Rechnung noch aufgeht.
Scheint mir aber doch alles ziemlich spekulativ zu sein ich glaube noch rein gar nichts...
Vielleicht gibt's aber ja auch radikalere Aenderungen, wie wäre es z.B. mit der alten Idee der gesharten TMUs (d.h. bloss 1 Quad-TMU für 2 CUs, die TMU Rate scheint doch im Verhältnis zu den ALUs relativ hoch, man könnte ja dafür den TMUs full-speed fp16 Filter spedieren - gk208 hat ja scheinbar auch nur noch halbe Anzahl TMUs gegenüber gk1xx). Das würde natürlich einiges an Platz freimachen.
boxleitnerb
2013-08-14, 23:22:09
Das Frontend ist ggü. Tahiti (und Pitcairn) verdoppelt...
Ronny145
2013-08-14, 23:31:47
Also ich muss sagen sollten sich die 44 CUs bei ~440mm² bewahrheiten bin ich sehr skeptisch was Performance betrifft.
Das könnte sich auf die 40 CU Version bezogen haben.
Duplex
2013-08-14, 23:32:02
Das Frontend ist ggü. Tahiti (und Pitcairn) verdoppelt...
Wirklich? Kann man sich auch auf eine seriöse Quelle verlassen?
37,5% mehr CUs & 4Fach Frontend sprechen eher für einen großen Chip, evtl. ähnlich wie G80, ca. 480mm².
boxleitnerb
2013-08-14, 23:48:19
So wurde es mir gesagt. Finde ich nicht abwegig, Bonaire hat es ggü. Cape Verde vorgemacht.
mczak
2013-08-15, 03:23:39
So wurde es mir gesagt. Finde ich nicht abwegig, Bonaire hat es ggü. Cape Verde vorgemacht.
Wäre schon toll ich frage mich bloss wie das auch mit in die 440mm² passen soll...
Kann eigentlich Bonaire 2x16 Pixel rastern oder wurde das auf 2x8 Pixel reduziert?
Skysnake
2013-08-15, 06:08:11
GCN ist ne komplett neue Architektur, die muss erstmal zum laufen gebracht werden. Danach wird totoptimiert, und wenn die alten ATI Jungs was können, dann Packdichte ;)
M4xw0lf
2013-08-15, 07:17:10
Wirklich? Kann man sich auch auf eine seriöse Quelle verlassen?
37,5% mehr CUs & 4Fach Frontend sprechen eher für einen großen Chip, evtl. ähnlich wie G80, ca. 480mm².
In der Flächenaufschlüsselung wurde doch ersichtlich, dass das Frontend nur sehr wenig Fläche belegt.
Gaestle
2013-08-15, 09:27:29
Vielleicht müssen sie das Frontend gar nicht stumpf komplett verdoppeln um die SP-Leistung in Games auf den Bildschirm zu bekommen. Inzwischen gibt es viele Elemente, die ein Flaschenhals sein können, die aber einen unterschiedlichen Platzbedarf haben (Caches, Geometrieabteilung, etc.).
Was die DP-Leistung angeht: Wie groß müssen die Veränderungen sein, um die SP: DP Ratio zu steigern? Muss AMD überhaupt in den professionellen Markt? Sie haben doch APUs als gutes Geschäftsfeld und sind (im Gegensatz zu NV) nicht darauf angewiesen.
Muss AMD überhaupt in den professionellen Markt? Sie haben doch APUs als gutes Geschäftsfeld und sind (im Gegensatz zu NV) nicht darauf angewiesen.Naja, schau Dir die letzten Quartalszahlen an, würde schon sagen, dass ein paar Extraeuros in dem Geschäftsbereich nicht schlecht wären ...
Zwar sind die Stückzahlen niedrig, dafür kosten die prof. Karten dann aber auch 4000 Dollar und aufwärts ... ist ein nettes Zubrot.
Ailuros
2013-08-15, 10:02:20
Wirklich? Kann man sich auch auf eine seriöse Quelle verlassen?
37,5% mehr CUs & 4Fach Frontend sprechen eher für einen großen Chip, evtl. ähnlich wie G80, ca. 480mm².
Bei einer weiteren Milchmaedchen-rechnung auf der obrigen Basis sieht man auch dass es hypothetisch um die 37% mehr die area ist im Vergleich zu Tahiti. Was mich danach aber wundert is warum es viele wundert dass das Resultat nicht um einiges schneller sein sollte als mehr oder weniger bisher projeziert.
Muss AMD überhaupt in den professionellen Markt? Sie haben doch APUs als gutes Geschäftsfeld und sind (im Gegensatz zu NV) nicht darauf angewiesen.
Profi Maerkte werden womoeglich in Zukunft eine groessere Steigerung sehen als alles PC bzw. notebook. Sonst "muesste" AMD auch mit SoCs in den SFF mobile SoC Markt wo die Verkaufszahlen weiterhin explodieren werden. Nichts ganz unten und auch nichts besonderes ganz oben waere ziemlich irrsinnig.
ShadowXX
2013-08-15, 10:11:35
Das könnte sich auf die 40 CU Version bezogen haben.
Du glaubst doch nicht ernsthaft das AMD da extra 2 verschiedene Chips herstellen lässt.
Wenn das stimmt mit 44CUs nur für HPC, dann werden die 40CU Gaming Teile einfach nur die Chips sein wo keine vollen 44CUs laufen (bzw. die 4 zusätzlichen deaktiviert sind).
Ich hatte auch auf mehr Leistung gehofft, gehe aber inzwischen davon aus, das die 9790 bei +-5% 780GTX landen wird.
matty2580
2013-08-15, 10:42:08
Joo, dass sehe ich ähnlich.
Man sollte nicht zu große Hoffnungen in den neuen Chip setzen.
Etwas besser als die 780 ist doch schon einmal eine ordentliche Verbesserung.
Wenn dann noch der Preis stimmt, oder schnell auf ein marktgerechtes Niveau fällt, haben wir eine gut Gen mit der AMD etwas Luft gewinnt.
Skysnake
2013-08-15, 11:08:52
Vielleicht müssen sie das Frontend gar nicht stumpf komplett verdoppeln um die SP-Leistung in Games auf den Bildschirm zu bekommen. Inzwischen gibt es viele Elemente, die ein Flaschenhals sein können, die aber einen unterschiedlichen Platzbedarf haben (Caches, Geometrieabteilung, etc.).
Und vor allem wechseln diese Flaschenhälse während des Zockens freudig hin und her...
Was die DP-Leistung angeht: Wie groß müssen die Veränderungen sein, um die SP: DP Ratio zu steigern?
Du brauchst eigentlich nur breitere Multiplzierer und Addierer. Sonst eigentlich nichts. Die Frage ist halt, ob man diesen zusätzlichen Transistoraufwand treiben will oder eben nicht.
Muss AMD überhaupt in den professionellen Markt? Sie haben doch APUs als gutes Geschäftsfeld und sind (im Gegensatz zu NV) nicht darauf angewiesen.
JA! Es wäre dumm den nicht mit zu nehmen. Es ist halt der Schlag Rahm mit Kirsche auf dem Eis, den es oben noch drauf gibt. Das will man einfach mitnehmen. AMD hat aber vor allem einen Anreiz bzgl Cloudgameing. Sie stellen schon die Hardware für alle Konsolen, da würde es sich anbieten, auch die Cloude zu übernehmen. Da machen Sie zuletzt ja auch so einiges, wobei man sich schon fragen muss, ob APUs nicht effizienter wären, aber das muss man wohl differenzierter abwägen. Optimal wird wohl APU+dGPU sein. Man hat ja auch mehr als einen Nutzer/Node.
Für nVidia sehe ich das btw. echt als Problem an bezogen aufs Cloudegameing das AMD eben alle! Konsolendeals hat. Wenn man nVidia mit rein nimmt, dann hat man wieder eine andere Architektur, auf die man optimieren muss. Wenn man sich auf AMD einigt, bekommt man ALLES aus einer Hand. Konsolen und Cloudegameing, wo so ziemlich alle Optimierungen überall greifen! Das sind einfach imense Kosteneinsparungspotenziale in der Softwareentwicklung. Und für normales PC-Gameing würden die Cloude-Optimierungen auch großteils wohl greifen.
Win-Win-Situation für alle, außer nVidia...
Du glaubst doch nicht ernsthaft das AMD da extra 2 verschiedene Chips herstellen lässt.
Wenn das stimmt mit 44CUs nur für HPC, dann werden die 40CU Gaming Teile einfach nur die Chips sein wo keine vollen 44CUs laufen (bzw. die 4 zusätzlichen deaktiviert sind).
Die 44CUs sind schon unrealistisch...
AMD baut im normalfall "schöne" Architekturen. Das ist ganz ganz ganz selten mal so, dass Sie etwas machen, was "hässlich" ist aus Harddwareentwurfssicht. Gute Lösungen haben einfach immer eine gewisse Eleganz in sich. Egal wo man hinschaut in die Naturwissenschaften. Daher würde ich auch 40 oder 48 CUs für realistisch halten, aber nicht 44.
AMD baut im normalfall "schöne" Architekturen. Das ist ganz ganz ganz selten mal so, dass Sie etwas machen, was "hässlich" ist aus Harddwareentwurfssicht.
Dass sie es ab und an doch hässlich machen haben sie aber schon mit CapeVerde gezeigt. Es müssen ja nicht unbedingt elf vierer CUs sein. 10*4+2*2 oder 8*4+4*3 usw. ginge ja auch (Falls die 44 für den Vollausbau überhaupt stimmen).
Skysnake
2013-08-15, 11:25:26
Deswegen sag ich ja "normalfall" ;)
Gaestle
2013-08-15, 11:31:23
Ok, ich sehe ein, dass der Profimarkt gut ist, und dass sie irgendwann dort rein müssen. Warum also nicht jetzt damit beginnen...
Ich möchte aber anmerken, dass ein Einstieg in einen fremdbesetzten Markt auch Geld kostet, was die Margen (also gesehen auf das Gesamtengagement in diesem Markt) drückt. Aber das ist hier OT. Und ich will noch loswerden: Wenn INTEL endlich x86 im mobilen Bereich etabliert hat, wird das AMD sicher auch mit eigenen Angeboten nutzen. Aber auch das ist OT hier.
@Skysnake:
Deine Aussage (wechselt hin und her) interpretiere ich so, dass einzelne Flaschenhälse an Bedeutung verlieren, und deswegen eine Verdopplung aller Einheiten IMMER (!) und in allen (!) Games mehr bringt, als eine Verdopplung ausgewählter Einheiten?
Ailuros
2013-08-15, 11:33:15
Deswegen sag ich ja "normalfall" ;)
15 SMXs sind auch nicht das allerschoenste auf GK110. Wenn man aber innerhalb einem gewissen budget bleiben will gibt es keinen anderen Ausweg.
Skysnake
2013-08-15, 12:53:10
@Skysnake:
Deine Aussage (wechselt hin und her) interpretiere ich so, dass einzelne Flaschenhälse an Bedeutung verlieren, und deswegen eine Verdopplung aller Einheiten IMMER (!) und in allen (!) Games mehr bringt, als eine Verdopplung ausgewählter Einheiten?
Nein, damit nimmst du an, dass die Probleme/Anforderungen linear skalieren würden. Das tun Sie aber NICHT! Sonst wärs ja auch VIEL zu einfach ;D
15 SMXs sind auch nicht das allerschoenste auf GK110. Wenn man aber innerhalb einem gewissen budget bleiben will gibt es keinen anderen Ausweg.
Deswegen meinte ich auch AMD :ugly:
nVidia macht so "hässliche" Sachen öfters. Frag mich nicht warum, aber ihren Lösungen fehlt oft die gewisse "Eleganz". Dafür bringen Sie guten bis süperben Softaresupport (APIs usw) mit. AMD geht am Schluss immer die Puste aus, sind halt eher die Hardwareleute.
Gustafson ist bei AMD auch absolut richtig aufgehoben! Da lässt man ihm auch die entsprechenden Freiheiten.
mironicus
2013-08-15, 13:04:04
nVidia macht so "hässliche" Sachen öfters. Frag mich nicht warum, aber ihren Lösungen fehlt oft die gewisse "Eleganz".
NVidia arbeitet ja auch mit "Holzschrauben". ;D
john carmack
2013-08-15, 13:55:18
NVidia arbeitet ja auch mit "Holzschrauben". ;D
Aber mit gehärteten :D
Nakai
2013-08-15, 14:23:19
15 SMXs sind auch nicht das allerschoenste auf GK110. Wenn man aber innerhalb einem gewissen budget bleiben will gibt es keinen anderen Ausweg.
Das impliziert, dass die 44CUs jetzt feststehen. ;)
Um ehrlich zu sein, finde ich die 44CUs auch hässlich, wie die Nacht, da könnte man gleich auf 48CUS hochgehen. Das wären zu 44 CUs, weniger als 10% SP-Steigerung und viel weniger als 5% DieSize-Steigerung. Bei den angepeilten 440mm² wärns dann etwa 460mm²...also kaum mehr.
Außerdem wären weitere Takt und Kostenreduzierungen möglich.
john carmack
2013-08-15, 15:32:23
Das impliziert, dass die 44CUs jetzt feststehen. ;)
Um ehrlich zu sein, finde ich die 44CUs auch hässlich, wie die Nacht, da könnte man gleich auf 48CUS hochgehen. Das wären zu 44 CUs, weniger als 10% SP-Steigerung und viel weniger als 5% DieSize-Steigerung. Bei den angepeilten 440mm² wärns dann etwa 460mm²...also kaum mehr.
Außerdem wären weitere Takt und Kostenreduzierungen möglich.
Wo steht was fest?
Hab ich was verpasst? Wer hat das denn gesagt?
Hübie
2013-08-15, 15:40:44
Für nVidia sehe ich das btw. echt als Problem an bezogen aufs Cloudegameing das AMD eben alle! Konsolendeals hat. Wenn man nVidia mit rein nimmt, dann hat man wieder eine andere Architektur, auf die man optimieren muss. Wenn man sich auf AMD einigt, bekommt man ALLES aus einer Hand. Konsolen und Cloudegameing, wo so ziemlich alle Optimierungen überall greifen! Das sind einfach imense Kosteneinsparungspotenziale in der Softwareentwicklung. Und für normales PC-Gameing würden die Cloude-Optimierungen auch großteils wohl greifen.
Win-Win-Situation für alle, außer nVidia...
Sorry aber die :facepalm: reicht nicht...
http://abload.de/img/triplefacepalmnlq0h.jpg (http://abload.de/image.php?img=triplefacepalmnlq0h.jpg)
Mal abgesehen vom Unsinn und der marktwirtschaftlichen Katastrophe die du dir wünschst wird cloud ohne e geschrieben.
SCNR
Nakai
2013-08-15, 15:41:30
Wo steht was fest?
Hab ich was verpasst? Wer hat das denn gesagt?
Die Zahl ist schon seit längerem im Umlauf und wurde schon desöfteren genannt.
Und nein, es muss natürlich nicht stimmen, es gibt eben von den typischen Leuten(von vielen anderen Foren) auch keine besonderen Einwände dagegen, also kann man schon davon ausgehen, dass es nicht weit davon weg ist.
Es ging mir eher darum, dass die 44CUs wirklich komisch aussehen und dass 40CUs oder gar 48CUs viel "hübscher" aussehen.
Skysnake
2013-08-15, 18:31:34
Sorry aber die :facepalm: reicht nicht...
abgesehen vom Unsinn und der marktwirtschaftlichen Katastrophe die du dir wünschst wird cloud ohne e geschrieben.
SCNR
Dann klär uns doch auf, wo ich bullshit/Unwahrheiten geschrieben habe ;)
Ailuros
2013-08-15, 19:31:22
Das impliziert, dass die 44CUs jetzt feststehen. ;)
Nein. Es ist sich jemand anders zu sicher und ich will ihm den Zweifel goennen.
Um ehrlich zu sein, finde ich die 44CUs auch hässlich, wie die Nacht, da könnte man gleich auf 48CUS hochgehen. Das wären zu 44 CUs, weniger als 10% SP-Steigerung und viel weniger als 5% DieSize-Steigerung. Bei den angepeilten 440mm² wärns dann etwa 460mm²...also kaum mehr.
Außerdem wären weitere Takt und Kostenreduzierungen möglich.
Bin mir nicht sicher aber die "Quelle" glaub ich erwaehnt sogar mehr qmm. Ist aber auch wirklich nebenwichtig momentan.
Es wuerde mich nur ein paar e-mails kosten ein paar Details darueber rauszukitzeln, aber da ich schwer die Klappe halten kann oeffentlich, klopft dann gleich wieder AMD PR privat und stellt daemliche Fragen.
M4xw0lf
2013-08-15, 19:41:43
Och, wir sind doch hier unter uns...:whisper:
w0mbat
2013-08-15, 20:30:30
Es wuerde mich nur ein paar e-mails kosten ein paar Details darueber rauszukitzeln, aber da ich schwer die Klappe halten kann oeffentlich, klopft dann gleich wieder AMD PR privat und stellt daemliche Fragen.
Bitte nicht!
StefanV
2013-08-15, 21:18:08
Sorry aber die :facepalm: reicht nicht...
http://abload.de/img/triplefacepalmnlq0h.jpg (http://abload.de/image.php?img=triplefacepalmnlq0h.jpg)
Mal abgesehen vom Unsinn und der marktwirtschaftlichen Katastrophe die du dir wünschst wird cloud ohne e geschrieben.
SCNR
1. Kannst du das bitte näher ausführen?
2. Ist das Problem, dass nVidia nicht in der Lage ist, D3D11.1 zu unterstützen, nicht von der Hand zu weisen.
john carmack
2013-08-15, 22:33:51
Es ging mir eher darum, dass die 44CUs wirklich komisch aussehen und dass 40CUs oder gar 48CUs viel "hübscher" aussehen.
Wenn schon "hübsch", dann so:
Stream Processors 4096
GPU Clock 1200Mhz
Compute Units 16
TMUS 256
ROPS 64
Memory 4 GB or 8GB GDDR5
Memory Bus 512-bit
Memory Clock 8Gbps
Bandwidth 512GB/s
*träum* :freak::D
Solche Werte werden wohl erst mit der 16nm oder 14nm Fertigung erreicht...
Dabei sieht das sooooo schööön aus :D
Hübie
2013-08-15, 22:41:29
Was hat denn cloud gaming nun mit D3D11 zu tun? Eine PS4 furzt auf D3D11-Specs. nVidia hat schon seit geraumer Zeit Komplettsysteme für cloud-farmen. Alle momentan am Markt befindlichen cloud-Dienste basieren afair auf nVidia's Grid. RDMA und GPUDirect sind zwar nVidias eigenes Süppchen aber funktionieren einwandfrei. Des weiteren ist es sicher nicht sehr klug ALLES aus einer Hand zu bekommen. Das ist ein Monopol. Und weiterhin wird lokal kompiliert, dass heißt es ist egal ob nun AMD- oder nVidia-GPU. Und zu guter Letzt: Skysnake zockt nicht mal, also was kümmerts ihn? ;)
matty2580
2013-08-15, 22:48:15
Grid scheint sich ganz gut zu verkaufen, aber dass alle Cloud-Dienste Nvidia nutzen, halte ich für unwahrscheinlich. Hast Du da Zahlen/Links?
Es wäre auch nicht schlecht, wenn AMD wieder Marktanteile zurückgewinnt.
Im Moment scheint das ganz gut zu laufen:
http://www.heise.de/newsticker/meldung/Grafikchip-Markt-waechst-leicht-im-zweiten-Quartal-1936108.html
Nur gewinnen sie gerade im Notebook-Bereich dazu.
Bestärkt AMD also bei dGPUs nicht ganz so viel Aufwand zu betreiben, oder vielleicht sogar diesen Bereich absichtlich etwas zu vernachlässigen?
john carmack
2013-08-15, 22:56:23
Grid scheint sich ganz gut zu verkaufen, aber dass alle Cloud-Dienste Nvidia nutzen, halte ich für unwahrscheinlich. Hast Du da Zahlen/Links?
Es wäre auch nicht schlecht, wenn AMD wieder Marktanteile zurückgewinnt.
Im Moment scheint das ganz gut zu laufen:
http://www.heise.de/newsticker/meldung/Grafikchip-Markt-waechst-leicht-im-zweiten-Quartal-1936108.html
Nur gewinnen sie gerade im Notebook-Bereich dazu.
Bestärkt AMD also bei dGPUs nicht ganz so viel Aufwand zu betreiben, oder vielleicht sogar diesen Bereich absichtlich etwas zu vernachlässigen?
Marktanteile sagen gar nichts...
Marktanteile, Umsatz, Absatz usw... sagen GAR NICHTS AUS!
Was bringt es mir wenn ich in 1 Jahr 25% mehr Marktanteile, 30% mehr Absatz und 50% mehr Umsatz mache wenn ich dafür 110% zB. ins Marketing investieren muss?
NETTO Gewinn - Nur das zählt!!!
Hübie
2013-08-15, 22:59:14
Mal abgesehen davon dass es ot ist: ich kenne jetzt ehrlich gesagt auch nur Dienste in den USA aber da kannst du mal selber googlen (Mühsam mit links einfügen am handy). Das steht teilweise auf deren websites oder halt in Reviews etc.. Kenne keinen der da auf AMD setzte.
Ich wünsche AMD auch mehr Marktanteile, aber dazu brauchts eben entsprechenden gute Produkte. Momentan stehen die Weichen ja auf Vorfahrt :smile:
Volcanic Islands wird eben auch ein kleiner Schritt welcher dazu beiträgt. Die Frage ist: animiert die neue Serie eingedeckte Kunden zum Wechsel und wie groß wird das Wachstum von dGPUs am PC-Markt prognostiziert?
Edit: Übrigens zählen auch APUs in die Meldung von heise...
matty2580
2013-08-15, 23:03:12
@john carmack:
Dazu gab es vor einiger Zeit eine Diskussion bei PCGH, zum Thema XBone und Marktanteile.
Ich vermute immer noch das der relativ neue User von MS war, da er sich ungewöhnlich gut auskannte, auch seine Ausdrucksweise ließ darauf schließen. Er schrieb das der Fokus großer Konzerne eindeutig bei den Marktanteilen liegt. Natürlich ist auch der Umsatz/Gewinn wichtig. Durch hohe Stückzahlen kann man auch viel wieder ausgleichen. Ab einem gewissen Punkt macht man theoretisch nur noch Gewinn.
@Hübie:
Die Prognosen des IDC sind da recht eindeutig, anhaltend negatives Wachstum für die nächsten Jahre.
Die Gamer stabilisieren etwas den Markt, sind aber anteilig im Bereich >10%.
Edit: Ich weiß das APUs da mit eingerechnet sind. Bei reinen APUs ist der Anteil sogar gesunken.
Ganz offtopic ist das Thema nicht, da auch der finanzielle Erfolg/Misserfolg von Volcanic Island interessant sein dürfte.
Skysnake
2013-08-16, 08:29:39
Was hat denn cloud gaming nun mit D3D11 zu tun? Eine PS4 furzt auf D3D11-Specs. nVidia hat schon seit geraumer Zeit Komplettsysteme für cloud-farmen.
Richtig, und es kommt nicht wirklich in Schwung. OnLive ist pleite gegangen. Das war ja zusammen mit Gaikai DER große Hoffnungsträger von nVidia in dem Bereich.
Und jetzt taucht eben Konkurrenz auf, die eben den Vorteil hat, zwei von drei relevanten Spieleplatformen zu stellen. AMD mit XBone und PS4, und im PC Markt sind Sie auch kein unbeschriebenes Blatt. Da ergeben sich halt ganz profane Synnergieeffekte. Sieh es als Äquivalent zum TWIMTBP Projekt. Das waren meist auch ziemlich profane Sachen, die sich aber in der Masse dann doch zu einem nicht mehr ganz zu vernachlässigenden Gesamtbild aufaddiert haben. Keiner sagt, das es so kommen muss, aber die Chancen stehen gut.
Alle momentan am Markt befindlichen cloud-Dienste basieren afair auf nVidia's Grid.
Ja und sind entweder Pleite oder wollen/denken teilweise über einen Wechsel nach. Guckst du hier: http://www.onlinewelten.com/games/onlive/news/gaikai-konkurrent-pleite-aufgekauft-115675/
http://www.theverge.com/2013/3/27/4152620/amd-radeon-sky-enters-cloud-gaming-market-against-nvidia
http://www.notebookcheck.com/AMD-Beteiligung-an-Cloud-Gaming-Service-Ciinow.81761.0.html
Was drauf geworden ist kann ich dir aber nicht sagen. Über die ganzen Cloudsachen hört man ja eh ziemlich wenig.
RDMA und GPUDirect sind zwar nVidias eigenes Süppchen aber funktionieren einwandfrei.
Ja, aber du musst dafür eine Extrawurst für nVidia basteln... Das willste aber nicht wirklich machen, wenns nicht wirklich zwingend notwendig ist. Keiner hat etwas zu verschenken, und die Ressourcen an Personen die sowas überhaupt vernünftig implementieren können sind beschränkt. GPU-Programmierer wachsen nicht auf Bäumen.
Des weiteren ist es sicher nicht sehr klug ALLES aus einer Hand zu bekommen.
Ja durchaus! Ich hätte da auch Bauchschmerzen, aber wenn die Vorteile überwiegen, dann werden es die Firmen machen, und gerade MS hat ja in diese Richtung wohl einen großen Plan mit der Cloud.
Das ist ja das schlechte/perfide an Aktienunternehmen. Wenn eine Entscheidung die nächsten 1-2 Quartale die Gewinne/Aktienkurs steigen lässt, danach aber vielleicht nicht mehr optimal ist, macht man es vielleicht doch, weil man in x Quartalen gar nicht mehr da ist, und sich jemand anderes damit dann rumschlagen soll. Man hat sein Schäfchen im trockenen....:mad:
Das ist ein Monopol.
Die Gefahr besteht, wobei ich nicht wirklich dran glaube. nVidia würde halt die Preise entsprechend senken müssen. Für nVidia ist das dann aber sehr wohl ein Problem...
Und weiterhin wird lokal kompiliert, dass heißt es ist egal ob nun AMD- oder nVidia-GPU.
LOL NEIN!
Gerade! bei den Clouddiensten willst du ja wie bei Konsolen den Vorteil ausnutzen, dass du eine einheitliche Hardwarebasis hast, über die du die Kontrolle hast. Das wäre so strunz DUMM! diesen Vorteil links liegen zu lassen. Zumindest sobald du einen gewissen Schwellwert überschritten hast, so dass sich die zusätzlichen Investitionen rechnen. Das muss aber eh dein Ziel sein, ansonsten kannste das Ding gleich wieder an den Nagel hängen, weils ne Wackelkiste ist und auch bleiben wird. High-Risk Investition halt.
Und zu guter Letzt: Skysnake zockt nicht mal, also was kümmerts ihn? ;)
Sagt wer? :tongue:
Ich hab jetzt die Tage Darksiders II, Rage und Tomb Raider durchgezockt ;)
Ich leg nur teilweise andere Schwerpunkte bzw sprech einmal von mir als Privatmann und einmal als HPC-Freak. Rein als Privatmann hätte ich mir z.B. nie ne 7970 geholt sondern wenn dann ne 7870.
In dem Sinne bin ich da etwas Schizo ;D Je nachdem um wessen Geldbeutel es sich dreht komm ich zu anderen Ergebnissen, was gut und vernünftig ist. Und der HPC-Freak in mir ist halt unvernünftiger bzw bereit mehr zu zahlen als der Privatmann. Der ist nämlich der Schwabe in mir ;)
Marktanteile sagen gar nichts...
Marktanteile, Umsatz, Absatz usw... sagen GAR NICHTS AUS!
Was bringt es mir wenn ich in 1 Jahr 25% mehr Marktanteile, 30% mehr Absatz und 50% mehr Umsatz mache wenn ich dafür 110% zB. ins Marketing investieren muss?
NETTO Gewinn - Nur das zählt!!!
Steigende Marktanteile bedeuten aber das die Konkurrenz unter druck gesetzt wird. Wenn ich 10% mehr absetze und die 10% für mich ne schwarze Null bedeuten, dann werde ich das DEFINITIV machen! Die Konkurrenz setzt dann nämlich entsprechend weniger ab, wenn sich das Marktvolumen nicht mit verändert, wovon mal auszugehen ist. Und dieses "weniger" schmälert den Gewinn der Konkurrenz, was Sie schwächt und die Innovationsfähigkeit, also die Fähigkeit Geld rein zu buttern, senkt. Akut bringt mir das nichts, aber auf Dauer stärkt das meine Position, da es die anderen schwächt, was mich eben wieder besser dastehen lässt, was mir am Ende die Möglichkeit gibt die Preise dann anziehen zu lassen, was dann wieder meine Position stärkt.
Genau deswegen sind ja so große Ungleichgewichte in Märkten auch sehr schädlich. Sie neigen dazu sich noch weiter zu verfestigen...
Mal abgesehen davon dass es ot ist: ich kenne jetzt ehrlich gesagt auch nur Dienste in den USA aber da kannst du mal selber googlen (Mühsam mit links einfügen am handy). Das steht teilweise auf deren websites oder halt in Reviews etc.. Kenne keinen der da auf AMD setzte.
Ich wünsche AMD auch mehr Marktanteile, aber dazu brauchts eben entsprechenden gute Produkte. Momentan stehen die Weichen ja auf Vorfahrt :smile:
Volcanic Islands wird eben auch ein kleiner Schritt welcher dazu beiträgt. Die Frage ist: animiert die neue Serie eingedeckte Kunden zum Wechsel und wie groß wird das Wachstum von dGPUs am PC-Markt prognostiziert?
Guckst du oben. AMD scheint ganz gute Karten zu haben. Was bei dann aber rumkommt wird sich in 1-2 Jahren zeigen.
Edit: Übrigens zählen auch APUs in die Meldung von heise...
Ja, es sind aber, so hatte ich zumindest die verschiedenen Meldungen auf verschiedenen Seiten gelesen auch explizit nur Zahlen für dGPU dabei, wonach AMD eben zulegen konnte und nVidia verloren hat. Ich find den entsprechenden Link aber im Moment nicht.
ShadowXX
2013-08-16, 08:49:42
Ja, es sind aber, so hatte ich zumindest die verschiedenen Meldungen auf verschiedenen Seiten gelesen auch explizit nur Zahlen für dGPU dabei, wonach AMD eben zulegen konnte und nVidia verloren hat. Ich find den entsprechenden Link aber im Moment nicht.
Guck einfach auf die Startseite des 3DC.
Momentan sind es 62% nVidia zu 38% ATI.....und die ca. 2% die AMD jetzt mehr und nV jetzt weniger hat, würde ich eher unter normalen Schwankungen verbuchen (speziell da ATI weniger Marktanteil als vor einem Jahr hat und nV dementsprechend mehr als vor einem Jahr (Quartalsvergleich)).
Als letzter Punkt kommt noch hinzu das in dieses Zahlen noch nicht die neuen 7x0 Grafikkarten von nV mit drinne sind, es könnte also sein, das inzwischen sogar die Marktanteile von nV nochmal etwas gestiegen sind.
R.I.P.
2013-08-16, 09:18:14
Freue mich persönlich sehr auf die neue Generation von AMD! Aber seien wir mal ehrlich, die meisten DAUs und leider viele, welche von Computer auch was verstehen (weiß der Geier warum), nutzen und empfehlen Nvidia :freak:
Viele Threads, welche um eine Empfehlung bitten, fragen explizit nach einer Nvidia Karte. Warum? Das weiß der TS selbst nicht, "man habe gehört, dass sie besser sind", was mMn einfach Schwachsinn ist. Performancetechnisch sind AMD und Nvidia gleichauf, mal der eine, mal der andere besser; Treibermäßig beide gleich, mal der eine, mal der andere %technisch vorne. Technologisch habe ich ATi und dann AMD immer vorne gesehen, fertigungstechnisch sowieso immer AMD (was kleinere Fertigung betrifft).
Die 7XX Serie mal außen vor (welche wirklich ein großer Wurf geworden ist, P/W mäßig, etc.), kann mir keiner bei gesundem Verstand erklären, dass Nvidia mit Thermi und der 6XX Serie besser war. PhsyX, welches immer wieder aus dem Grabe hervorgehoben wird, kann kein triftiger Grund sein, warum man Nvidia empfiehlt....
Das Never Settle Bundle ist doch auch ein Grund mehr, bei gleichbleibender Performance, sich eine AMD zu holen. Und wenn ich die Spiele schon habe? Dann verschenke ich sie oder verkaufe sie....wo liegt das Problem?
Ich bin sicher, dass die neue 9er Serie gut wird, ob sie erfolgreich wird, hängt wie immer von uns Idioten ab ;D
Skysnake
2013-08-16, 09:51:06
Ganz einfach. nVidia hat auf Apple gemacht und über Marketing einen sehr starken Brand/Image aufgebaut. Das hat viel Geld gekostet, aber jetzt sahnen Sie halt diese Früchte ab, die Sie gepflanzt haben.
Problem dabei ist, nVidia erweckt den Eindruck, dass Sie sich nicht im klaren darüber sind das Image/Brand ein VERDAMMT! empfindliches Pflänzchen ist, welches schnell eingeht, und Sie tun grad genug damit es verkümmert...
PS:
Hübie ich warte noch auf eine Antwort ;)
robbitop
2013-08-16, 10:01:06
Ein Image baut man nicht ausschließlich mit Marketing auf. "Tue gutes und rede darüber". Ohne ersteres kannst du viel reden und es hat keine Wirkung.
NV hat viel Geld in DevRel, in Treiberentwicklung, in (nur wenig nutzbares) PhysX, SLI Optimierung, 3DVision etc gesteckt. Und das lange Zeit deutlich/fühlbar mehr als ATI.
Dadurch entstand der Eindruck über lange Jahre, dass NV Karten unproblematischer laufen. Bei ATI hing es nie an der Hardware - aber die Softwareseite hat dort schon immer ein wenig geschwächelt (wobei das besser wurde!). Und daraus entsteht eben ein langjähriger Ruf, der schwer zu erarbeiten ist.
AMD muss jetzt dranbleiben - dann wird der Ruf besser. Sie machen ja schon viel Gutes.
Opel hat sich bis heute bspw. nicht von seinem schlechten Ruf erholt, obwohl sie mittlerweile wirklich passable Autos bauen.
Skysnake
2013-08-16, 10:49:57
/sign!
Vor allem das Beispiel mit Opel trifft es eigentlich wie den Nagel auf den Kopf :up:
Ich hätte es nicht so gut zusammenfassen können was ich meine/denke. THX!
mironicus
2013-08-16, 10:58:09
Zu AMDs (zukünftigen) Bekanntheitsgrad sage ich nur "Konsolen". :D
Die positiven Assoziationen entwickeln sich dann von selbst, ohne das AMD viel werben müsste.
Alles wird nur noch auf diese Hardware optimiert werden die nächsten 7-8 Jahre, eine Milliardenindustrie entwickelt dafür, und PC-Grafikkartenbesitzer mit AMD werden auch besonders davon profitieren. :)
Das sehe ich auch so. Ab 2014 wird AMD die einzige richtige Wahl für den Gamer sein.
M4xw0lf
2013-08-16, 11:51:55
Zu AMDs (zukünftigen) Bekanntheitsgrad sage ich nur "Konsolen". :D
Die positiven Assoziationen entwickeln sich dann von selbst, ohne das AMD viel werben müsste.
Alles wird nur noch auf diese Hardware optimiert werden die nächsten 7-8 Jahre, eine Milliardenindustrie entwickelt dafür, und PC-Grafikkartenbesitzer mit AMD werden auch besonders davon profitieren. :)
Soweit ich weiß wird weder auf der Xbox noch auf der PS4 ein fetter roter "AMD Radeon"-Sticker zu finden sein...
Duplex
2013-08-16, 11:53:09
Können wir bitte beim Thema bleiben?
Hier geht es nur um Volcanic Islands!
Die Fanboy Beiträge sind echt zum kotzen, alles weitere wird gemeldet!
Gaestle
2013-08-16, 11:57:15
Es braucht keinen Sticker auf der Box um in PC-Games-Benchmarks vorne zu liegen, weil die Software bereits vom Entwickler auf eine bestimmte Architektur optimiert wurde.
NV muss IMHO einen Weg im Treiber finden, AMD-bequemen Code ebenfalls sehr schnell zu verarbeiten.
Skysnake
2013-08-16, 12:01:12
Ja, das ist halt ein Punkt, der sich noch zeigen muss, inwieweit die XBone/PSE4 GCN Optimierungen auf dem Desktop durschlagen.
Das lässt sich schwer sagen. Vor allem für die XBone seh ich da größere Probleme wegen dem eDRAM. Das lässt andere Ansätze zu, die so im Desktop nicht durchschlagen, es sei denn die APUs bekommen auch noch nen eDRAM, was früher oder später passieren wird.
Die Optimierungen für die PS4 können aber großteils durchschlagen. Fragt sich nur wie stark, und ob nVidia nicht auch davon profitiert. Das muss sich halt echt zeigen.
Ailuros
2013-08-16, 12:02:57
Weil Duplex leider recht hat wuerde ich trotz allem bitten dass wir zum eigentlichen Thema zurueckkommen :)
matty2580
2013-08-16, 12:05:37
Es gibt doch schon wieder einen neuen, aber sehr unrealistischen Leak.
linustechtips.com/main/topic/44042-amd-radeon-9970-have-300w-tdp-also-specs-and-lot-more/
Genug Gesprächsstoff ist also vorhanden...^^
Ailuros
2013-08-16, 12:09:21
Es gibt doch schon wieder einen neuen, aber sehr unrealistischen Leak.
linustechtips.com/main/topic/44042-amd-radeon-9970-have-300w-tdp-also-specs-and-lot-more/
Genug Gesprächsstoff ist also vorhanden...^^
Ist auch nur das gleiche alberne Zeug dass sich herumschleichen zu scheint. Ein moeglicher 300W board form factor entspricht nicht TDP nur so am Rand; der Rest ist absoluter bullshit.
Skysnake
2013-08-16, 12:09:48
Naja, wäre einfach ne S10000 auf einem Package. Also nichts besonderse, außer das man halt zwei DIEs auf ein Package packt und miteinander entweder über das Package oder eben einen Interposer verbindet.
Die Frage ist halt, will man das auch machen? Machbar ist es. Das zeigt ja Xilinx.
Dran glauben mag/kann ich aber nicht. So lange nicht klare Beweise für so was da sind, sind das für mich nur Phantasien.
Duplex
2013-08-16, 12:18:53
Es gibt doch schon wieder einen neuen, aber sehr unrealistischen Leak.
Diese Specs wurden vor paar Seiten bereits gepostet, warum der Bullshit nochmal gepostet werden muss...
200-250W > Single GPU (Hawaii Pro (40 CUs), Hawaii XT 44 CUs)
375W > Multi GPU (2x Hawaii XT)
Weil CF seit kurzem besser läuft, wird man versuchen die Dual Karte wahrscheinlich so früh es geht zu releasen, wahrscheinlich 1 Quartal nach den Single Karten.
Loeschzwerg
2013-08-16, 12:42:30
Mich würde eher interessieren ob wir 44 CUs im Consumer Bereich wirklich zu sehen bekommen oder ob dieser HPC only bleibt (ähnlich GK110 bis jetzt).
Bei der Ausbeute dürfte es mit 28nm eigentlich gut genug aussehen für den Vollausbau als Gamerkarte.
john carmack
2013-08-16, 12:44:23
Komplette HD-7900-Serie ist günstiger geworden
AMD Radeon HD 7970 sinkt auf 300 Euro
http://www.computerbase.de/news/2013-08/amd-radeon-hd-7970-sinkt-auf-300-euro/
Es macht mehr Sinn einen auf 275W TDP geprüggelten Topdog zu releasen, der Titan schlägt als eine weitere Dual-GPU Lösung.
Skysnake
2013-08-16, 12:47:25
Mich würde eher interessieren ob wir 44 CUs im Consumer Bereich wirklich zu sehen bekommen oder ob dieser HPC only bleibt (ähnlich GK110 bis jetzt).
Bei der Ausbeute dürfte es mit 28nm eigentlich gut genug aussehen für den Vollausbau als Gamerkarte.
Es gibt keinen Grund, warum AMD einen Chip nur im HPC/Profi Markt zu bringen.
Die Fertigung ist so reif wie Sie eigentlich nur sein kann, und man ist an der zweiten Gen dran, die auch noch ewig Zeit hatte zu reifen.
Loeschzwerg
2013-08-16, 12:48:03
@V2.0: Sehe ich auch so bzw. ich würde es mir wünschen. In der Vergangenheit hatten wir schon oft solche Heizkolben, das geht schon :)
@Sky: Super, dann muss ja eigentlich nur noch der Preis stimmen. Taktpotential hat die Architektur allemal.
Hübie
2013-08-16, 12:52:28
PS:
Hübie ich warte noch auf eine Antwort ;)
Lieber skysnake. Ich habe nicht den ganzen Tag Zeit um dir zu antworten ;) Worauf soll ich denn eigentlich genau Antworten?
Habe wir uns beim compiling jetzt missverstanden? Beim cloud-gaming werden ja im Prinzip nur die Eingabebefehle an den Datenserver gesandt. Dieser führt dann die Berechnungen durch. Also wird auch auf diesem kompiliert, dort findet das thread-scheduling und und und statt. Also ist es Wurst ob eine PS4 mit Radeon Eingabebefehle an die "cloud" sendet obwohl dort eine nVidia-Karte auf die Berechnungen wartet.
Die meisten Anbieter wechseln nicht sondern erweitern mit AMD's Radeon-Sky-Lösung.
b2t: Ist schon was zum Fall des NDA bekannt? Ist der 27.09.2013 realistisch? Verkauf dann ab dem 03.10.2013.
horn 12
2013-08-16, 12:52:56
HD9970 wird es wohl mit einer womoeglichen Titan Ultra aufnehemn koennen, sprich wird circa 15% schneller als eine Stock Titan werden, oder gleich auf mit einer Titan @1200 Mhz.
Und eine HD9950 wohl auf knappen Titan Niveau um magere 449 Euro...
AMD sticht nun NV komplett aus :-)
Loeschzwerg
2013-08-16, 12:56:10
AMD sticht nun NV komplett aus :-)
Alles eine Frage des Preises, in beiderlei Hinsicht ;)
hardtech
2013-08-16, 12:56:28
@löscher
Nur leider stimmt der preis seit ca. 1,5 j bei neuen grakas nun nicht mehr...
Sorry aber 600 eur für eine karte geb ich nicht aus.
john carmack
2013-08-16, 12:58:40
Alles eine Frage des Preises, in beiderlei Hinsicht ;)
und eine Frage des Designs...
Vielleicht präsentiert uns AMD auch einen "Thermi" :D
Skysnake
2013-08-16, 13:00:03
Lieber skysnake. Ich habe nicht den ganzen Tag Zeit um dir zu antworten ;) Worauf soll ich denn eigentlich genau Antworten?
Habe wir uns beim compiling jetzt missverstanden? Beim cloud-gaming werden ja im Prinzip nur die Eingabebefehle an den Datenserver gesandt. Dieser führt dann die Berechnungen durch. Also wird auch auf diesem kompiliert, dort findet das thread-scheduling und und und statt. Also ist es Wurst ob eine PS4 mit Radeon Eingabebefehle an die "cloud" sendet obwohl dort eine nVidia-Karte auf die Berechnungen wartet.
Die meisten Anbieter wechseln nicht sondern erweitern mit AMD's Radeon-Sky-Lösung.
Ich warte auf die Erklärung zum :facepalm: ;) Vor allem warum da nichtmal einer ausreicht.
Und bzgl "compilen" das ist schwachsinn... Entweder du baust nen Softwarestack, der die Verwaltung für fertige Games übernimmt, oder du passt die Games direkt an, und in beiden Fällen berücksichtigst du die Eigenheiten der zugrundeliegenden Hardware um eben die Leistung zu steigern. Alles andere wäre verschenkte Leistung/Geld. Einfach "Neucompilieren" musst du da gar nichts, bzw würde es absolut nichts bringen im Normalfall. Deswegen haben wir ja APIs wie DX und OpenGL.
b2t: Ist schon was zum Fall des NDA bekannt? Ist der 27.09.2013 realistisch? Verkauf dann ab dem 03.10.2013.
Nein, gibt es noch keine Infos zu.
Ailuros
2013-08-16, 13:00:08
HD9970 wird es wohl mit einer womoeglichen Titan Ultra aufnehemn koennen, sprich wird circa 15% schneller als eine Stock Titan werden, oder gleich auf mit einer Titan @1200 Mhz.
Und eine HD9950 wohl auf knappen Titan Niveau um magere 449 Euro...
AMD sticht nun NV komplett aus :-)
Vor jedem AMD launch bin ich jedes Mal gespannt auf die Aussage von Dir; ob top oder flop die Masche ist immer gleich :freak: :D
Loeschzwerg
2013-08-16, 13:00:23
Mit Ausnahme von Titan und evtl. so mancher Dual GPU Karte halte ich die Preise eigentlich für stabil. Für eine Geforce 256 DDR, Geforce 2 Ultra oder eine Geforce 3 hat man ebenfalls sehr sehr tief in die Taschen greifen müssen. Umgemünzt auf "jetzt" würden 550-600€ schon passen.
Für alles andere gibt es aber auch das Performance Segment.
@John: Jup, das Gesamtpaket muss man natürlich noch abwarten. Ich hoffe immer noch auf einen guten Kühler beim Referenz Design :D Bisschen "Wünsch dir Was" muss schon sein ^^
Nakai
2013-08-16, 13:04:35
Mein Tipp:
Erstma 40CU-Version bringen(500 -600€), dann NVs Preisreduktion abwarten, dann 44CU-Version bringen(600€+).
€: Ahja, man hängt eh schon an der TDP. Ergo muss so oder so irgendwo ein Opfer gebracht werden. 30 bis 40% Mehrperformance für das absolute Topmodell gegenüber Tahiti, aber auch höhere TDP.
Kriton
2013-08-16, 13:05:25
HD9970 wird es wohl mit einer womoeglichen Titan Ultra aufnehemn koennen, sprich wird circa 15% schneller als eine Stock Titan werden, oder gleich auf mit einer Titan @1200 Mhz.
Und eine HD9950 wohl auf knappen Titan Niveau um magere 449 Euro...
AMD sticht nun NV komplett aus :-)
Doch bestimmt erst nachdem DER neue Treiber da ist, oder? ;D
john carmack
2013-08-16, 13:05:51
@John: Jup, das Gesamtpaket muss man natürlich noch abwarten. Ich hoffe immer noch auf einen guten Kühler beim Referenz Design :D Bisschen "Wünsch dir Was" muss schon sein ^^
Stimmt!
Das habe ich vergessen. AMD hat ja einen neuen Referenzkühler versprochen. Und ich glabe sogar gelesen zu haben das der Auftrag dafür an Sapphire gegeben wurde.
Skysnake
2013-08-16, 13:06:30
Ich würde NICHT! auf einen supi dupi Ref-Kühler vertrauen.
Die Boardpartner von AMD sind SEHR zufrieden mit der aktuellen Situation, also den vergleichsweise schlechten Ref-Design, da Sie selbst sehr früh Karten/Samples bekommen und ihre Kühler anpassen können. Die wollen sich von der Konkurrenz absetzen, und das ermöglicht ihnen AMD. Ich würde also nicht erwarten, das sich daran etwas ändert.
Zudem ist ein schlechter/billiger Ref-Design auch nicht schlecht! Leute die eh nen Custom-/Wasserkühler nachrüsten wollen kommen so günstig an ne GPU ran.
Win-Win-Situation für Hersteller und Käufer. AMD muss das halt nur besser kommunizieren.
Kriton
2013-08-16, 13:07:50
In den Reviews macht sich das aber ganz schlecht. Siehe Nvidia: Wird gelobt für den guten Kühler und dann gibt es praktisch keine Referenzboards. Viel geschickter aus Marketingsicht.
john carmack
2013-08-16, 13:09:44
Ich würde NICHT! auf einen supi dupi Ref-Kühler vertrauen.
Die Boardpartner von AMD sind SEHR zufrieden mit der aktuellen Situation, also den vergleichsweise schlechten Ref-Design, da Sie selbst sehr früh Karten/Samples bekommen und ihre Kühler anpassen können. Die wollen sich von der Konkurrenz absetzen, und das ermöglicht ihnen AMD. Ich würde also nicht erwarten, das sich daran etwas ändert.
Zudem ist ein schlechter/billiger Ref-Design auch nicht schlecht! Leute die eh nen Custom-/Wasserkühler nachrüsten wollen kommen so günstig an ne GPU ran.
Win-Win-Situation für Hersteller und Käufer. AMD muss das halt nur besser kommunizieren.
AMD hat es aber offiziell angekündigt das da was neues in der Mache ist.
Wie gesagt... Ich glaube die haben einen Deal mit Sapphire!
Loeschzwerg
2013-08-16, 13:10:21
Ich würde NICHT! auf einen supi dupi Ref-Kühler vertrauen.
Die Boardpartner von AMD sind SEHR zufrieden mit der aktuellen Situation, also den vergleichsweise schlechten Ref-Design, da Sie selbst sehr früh Karten/Samples bekommen und ihre Kühler anpassen können. Die wollen sich von der Konkurrenz absetzen, und das ermöglicht ihnen AMD. Ich würde also nicht erwarten, das sich daran etwas ändert.
Zudem ist ein schlechter/billiger Ref-Design auch nicht schlecht! Leute die eh nen Custom-/Wasserkühler nachrüsten wollen kommen so günstig an ne GPU ran.
Win-Win-Situation für Hersteller und Käufer. AMD muss das halt nur besser kommunizieren.
Kann ich völlig nachvollziehen, wäre aber schlecht für mich, ich kann mit diesen bescheidenen Axial Luftverwirblern nix anfangen... Radial is the way to go ;) Die Luft muss raus aus dem kleinen µATX/ITX Gehäuse.
aufkrawall
2013-08-16, 13:10:49
In den Reviews macht sich das aber ganz schlecht. Siehe Nvidia: Wird gelobt für den guten Kühler und dann gibt es praktisch keine Referenzboards.
"Praktisch keine" halte ich für übertrieben, Karten damit sind kaufbar.
Loeschzwerg
2013-08-16, 13:11:44
"Praktisch keine" halte ich für übertrieben, Karten damit sind kaufbar.
Ich denke er zielt mit der Aussage auf die GTX 770 ab ;)
aufkrawall
2013-08-16, 13:13:55
Ich denke er zielt mit der Aussage auf die GTX 770 ab ;)
Ich mit meiner auch. Wer unbedingt auf Nummer Sicher mit dem Ref-Design gehen oder direct exhaust haben will, kanns kaufen.
Loeschzwerg
2013-08-16, 13:19:40
Mittlerweile ja, man hat aber lange darauf warten müssen. Das P/L ist zudem immer noch schecht.
Der Ref. Kühler der muss nicht unbedingt Titan Niveau haben, aber besser als HD7970 würde AMD sicher nicht schaden.
john carmack
2013-08-16, 13:22:36
Mittlerweile ja, man hat aber lange darauf warten müssen. Das P/L ist zudem immer noch schecht.
Der Ref. Kühler der muss nicht unbedingt Titan Niveau haben, aber besser als HD7970 würde AMD sicher nicht schaden.
Kann mir jetzt auch nicht vorstellen das so ein neuer Kühler viel an Entwicklung und Geld kostet.
Kurz nach dem Titan release hat sich doch AMD geäußert und gelobte Besserung. Die wollten halt schnellst möglich nachziehen.
aufkrawall
2013-08-16, 13:25:00
Mittlerweile ja, man hat aber lange darauf warten müssen. Das P/L ist zudem immer noch schecht.
Ist das hier nicht Referenz?
http://www.idealo.de/preisvergleich/OffersOfProduct/3936115_-geforce-gtx-770-2048mb-gddr5-inno3d.html
Der Ref. Kühler der muss nicht unbedingt Titan Niveau haben, aber besser als HD7970 würde AMD sicher nicht schaden.
Eigentlich war der Kühler für Titan doch zu schwach bzw. der muss schon laut aufdrehen, damit er das Ding nicht bremst.
Wenn er bei Hawaii schlechter als der der Titan wäre, müsste er also deutlich lauter sein bei ähnlichem Verbrauch.
Ailuros
2013-08-16, 13:25:42
Zurueck zum Thema
M4xw0lf
2013-08-16, 13:36:17
Mir ist der Kühler vom Referenzdesign ja völlig wurscht - da kommt dann eh ein AC Xtreme drauf. Solche Extras wie das Dual-Bios bei einigen der letzten highend Radeons nehm ich dann schon eher dankend mit.
Insofern wäre ein besserer Referenzkühler für VI zwar nett, aber mir persönlich egal.
400 Euro für Titan Leistung, mir ist ganz neu, dass AMD so viel Gewinn macht, dass sie Geld zu verschenken haben...
StefanV
2013-08-16, 14:17:02
Ich würde NICHT! auf einen supi dupi Ref-Kühler vertrauen.
Ich schon. Denke, dass die neuen AMD Referenzkühler sich vom Design am 7990 Kühler (http://www.techpowerup.com/reviews/AMD/HD_7990/2.html) orientieren. Und der schaut für mich sehr gut aus. Ist natürlich kein DHE, aber viel besser kann man sowas nicht mit 2 Slots hin bekommen.
Kann mir jetzt auch nicht vorstellen das so ein neuer Kühler viel an Entwicklung und Geld kostet.
Das unterschätzt du aber gewaltig!
Wenn man alles neu macht und was eigenes bastelt, kann man da locker 50-100k$ lassen. Und das ist dann auch nur das Tooling...
Gut, vielfach setzt man auf Standard Komponenten und bastelt sich daraus was, das machts deutlich billiger...
robbitop
2013-08-16, 14:19:11
Es braucht keinen Sticker auf der Box um in PC-Games-Benchmarks vorne zu liegen, weil die Software bereits vom Entwickler auf eine bestimmte Architektur optimiert wurde.
NV muss IMHO einen Weg im Treiber finden, AMD-bequemen Code ebenfalls sehr schnell zu verarbeiten.
Das wird schon gehen. Gab ja auch kein großes Problem mit X360 Spielen. Außerdem werden ATIs Architekturen sich auch verändern mit der Zeit. Coda hat sich dazu bereits ähnlich geäußert.
Auf dem Punkt sollte man sich nicht ausruhen.
Wenn man alles neu macht und was eigenes bastelt, kann man da locker 50-100k$ lassen. Und das ist dann auch nur das Tooling...
Gut, vielfach setzt man auf Standard Komponenten und bastelt sich daraus was, das machts deutlich billiger...
Ich glaube, du übertreibst. Die Grundprinzipien sind verstanden und vielfach umgesetzt. Wenn man Leute ransetzt, die das tagtäglich machen, dann entwerfen die ein paar Grundkonzepte, führen ein paar Strömungssimulationen durch und konstruieren das dann aus. Am Ende baust du ein paar Prototypen und untersuchst diese und iterierst die Lösung schön rundgelutscht. Die reine Entwicklung dürfte nicht so teuer sein.
Iruwen
2013-08-16, 17:02:57
Wenn die Kosten dafür so hoch wären würde am Ende nicht so oft Schrott rauskommen. Oft hat man das Gefühl die Kühlkonstruktion soll eher auf der Packung gut aussehen als tatsächliche effizient zu arbeiten.
john carmack
2013-08-16, 17:08:38
Ich schon. Denke, dass die neuen AMD Referenzkühler sich vom Design am 7990 Kühler (http://www.techpowerup.com/reviews/AMD/HD_7990/2.html) orientieren. Und der schaut für mich sehr gut aus. Ist natürlich kein DHE, aber viel besser kann man sowas nicht mit 2 Slots hin bekommen.
Das unterschätzt du aber gewaltig!
Wenn man alles neu macht und was eigenes bastelt, kann man da locker 50-100k$ lassen. Und das ist dann auch nur das Tooling...
Gut, vielfach setzt man auf Standard Komponenten und bastelt sich daraus was, das machts deutlich billiger...
Was sind schon 100k...??? Gerade mal das Jahresgehalts eines Managers. Sogar eine Abfindung idt teurer! 100k sind nichts... Ein einzelner grosser Server kostet schon 100k
StefanV
2013-08-16, 17:47:32
Ich glaube, du übertreibst. Die Grundprinzipien sind verstanden und vielfach umgesetzt. Wenn man Leute ransetzt, die das tagtäglich machen, dann entwerfen die ein paar Grundkonzepte, führen ein paar
Lies, was ich schrieb!
Die Schätzung dürft schon hinkommen. Wenn man aber bestehende Elemente übernehmen kann (und es tut), kann man die Kosten dadurch natürlich drastisch senken.
Du vergisst einfach, für was alles Tools benötigt werden.
Du brauchst was für Kühlerbase, unten, oben, die Fins. Dann brauchst du noch 'ne Lüfterhalterung (dieser Plasterahmen. Den schätz ich auch auf 5-10k, für die Tools). Tools für Lüfter kosten auch mal ganz schnell 20k...
Der Punkt ist einfach: Bei der Entwicklung eines Kühlers übernimmt man so viel wie möglich und macht so wenig wie nur irgend möglich selbst neu...
Strömungssimulationen durch und konstruieren das dann aus. Am Ende baust du ein paar Prototypen und untersuchst diese und iterierst die Lösung schön rundgelutscht. Die reine Entwicklung dürfte nicht so teuer sein.
Klar, kann man machen, nur sprach ich eben NICHT von der Entwicklung sondern den Herstellungstools. Entwicklung und Design ist da nicht soo teuer.
NUR: Die Frage ist, wo fängst du an, was machst du selbst, was übernimmst du an vorhandenen Komponenten. Wenn du z.B. beim Lüfter nix ändern musst und einfach ein 'Standardmodell' von einem Hersteller nehmen kannst, sparst z.B. schon 'nen ganzen Batzen an Kohle. Dann brauchst nur den Rahmen für die Kühler, das dürften dann geschätzt auch mal so 5-10k sein, dann hier noch 'nen bisserl, da noch 'nen bisserl und schwupps bist bei 50-100k an Kosten für die Tools.
Bei größeren Dingen (Gehäuse) kannst auch mal locker 'ne halbe Million USD verballern, wenn du alles kommplett neu machst und nicht ein bestehendes Tool nutzt...
Skysnake
2013-08-16, 17:53:09
Und vor allem hat NIEMAND! etwas zu verschenken! Selbst 10k€ sind viel Geld. Das sind nämlich 10k€ weniger Gewinn, wenn man keinen Mehrwert hat, der die 10k€ wieder mindestens reinholt...
StefanV
2013-08-16, 19:22:53
Einmal das und zum anderen muss jede Ausgabe wieder reingeholt werden.
Das ist etwas, was viele gern übersehen. Das ist auch der Grund, warum es so wenig unterschiedliche Gehäuse gibt bzw warum viele Gehäuse (gefühlte) Jahrhunderte am Mart bleiben:
Das Tooling ist einfach so verdammt teuer! Wenn man 'nen ganzes Case komplett neu konstruieren möchte, ist man locker bei 'ner halben Million - eher sogar drüber.
Das ist auch ein Grund, warum ein Hersteller grundsätzlich gleichartige Kühler verwendet. Siehe z.B. Gigabyte mit ihrem Windforce Kühlerzeugs oder schaut mal auf MSI. Da sitzt auf jeder Karte im eigenen Design ein sehr ähnlicher Kühler.
Zum Beispiel die MSI N770 Lightning (http://geizhals.at/eu/msi-n770-lightning-v283-016r-a953294.html) oder die 7970 (http://geizhals.at/eu/msi-r7970-lightning-v278-003r-a751143.html). Somit kann man die Tooling Kosten auf mehrere Produkte verteilen...
boxleitnerb
2013-08-16, 19:28:51
Wenn es um Geld sparen ginge, würden die Hersteller sobald man in einer bestimmten TDP-Klasse mal angekommen ist, ein (modulares) Kühlerdesign entwickeln und das dann einfach immer weiter verwenden. Lochabstände ändern (falls überhaupt nötig), Bodenplatte ändern für das neue Layout und fertig ist der Lack. Aber nein, es wird ununterbrochen neuer Kram entwickelt, was Geld kostet und wenn man auf das Große und Ganze blickt, überhaupt keinen Sinn macht.
M4xw0lf
2013-08-16, 20:20:11
Stimmt!
Das habe ich vergessen. AMD hat ja einen neuen Referenzkühler versprochen. Und ich glabe sogar gelesen zu haben das der Auftrag dafür an Sapphire gegeben wurde.
Sapphire fertigt nicht selbst. Wenn, dann kann der Auftrag wohl nur an diesen unbekannten Fertigungsriesen gegangen sein - wenn ich mich richtig entsinne, hatten die auf der Computex(?) einen Stand wo sie ihre Kühlerdesigns, die sie für alle namhaften Hersteller so machen, ausgestellt haben.
joe kongo
2013-08-16, 20:42:16
Weil isch da gerade vom 7990 Kühler lese.
Ich hoffe das es ein direct-exhaust wird, sonst ist die Karte für viele User
gestorben. Nicht jeder hat, und will ein durchlöchertes Gehäuse mit Luftzug
einer offenen Scheune und 12 Lüfter. Die Modder können sich raufschnallen was sie wollen, div. Hersteller auch, aber im Grundzustand bitte direct exhaust.
Felixxz2
2013-08-16, 21:06:17
Als ob. Selbst ne 300W Karte kann man in nem gedämmten Case mit 4 Lüftern bei 5V locker kühlen. Ich hätte aber mal gerne bessere DHE Designs. Ka ob da noch Potenzial ist aber nett wärs.
john carmack
2013-08-16, 21:10:40
Sapphire fertigt nicht selbst. Wenn, dann kann der Auftrag wohl nur an diesen unbekannten Fertigungsriesen gegangen sein - wenn ich mich richtig entsinne, hatten die auf der Computex(?) einen Stand wo sie ihre Kühlerdesigns, die sie für alle namhaften Hersteller so machen, ausgestellt haben.
VaporChamber (Vapor-X) kommt also nicht von Sapphire selbst?
M4xw0lf
2013-08-16, 21:41:01
VaporChamber (Vapor-X) kommt also nicht von Sapphire selbst?
Bei Entwicklung/Design bin ich nicht sicher, aber die Fertigung macht Sapphire nicht. Liegt dann aber nahe, dass der Kühlerspezialist auch die Entwicklung (nach den Vorgaben der Grafikkartenhersteller) übernimmt.
Botcruscher
2013-08-16, 23:16:02
Was ihr euch über den Kühler aufregt. Da kommt doch eh wieder die ganze Palette der Hersteller.
StefanV
2013-08-17, 05:55:49
Ich hoffe das es ein direct-exhaust wird, sonst ist die Karte für viele User
gestorben. Nicht jeder hat, und will ein durchlöchertes Gehäuse mit Luftzug
einer offenen Scheune und 12 Lüfter. Die Modder können sich raufschnallen was sie wollen, div. Hersteller auch, aber im Grundzustand bitte direct exhaust.
1. DHE hat 'nen enorm hohen Luftwiderstand -> LAUT, denn du brauchst hohe Drehzahlen, um den benötigten Druck zu generieren. Auch ist der Luftstrom relativ gering, da man nur einen Lüfter verwendet.
2. Besitzt so ziemlich jedes moderne Gehäuse die Möglichkeit dort in der Seite einen oder zwei Lüfer zu montieren. Dieses sollte man bei 2 Grafikkarten durchaus mal ausprobieren (ich würde die saugend montieren).
3. Reicht eine gescheite Belüftung durchaus auch aus. Natürlich klappt das nicht mit den ganzen 800rpm Lüftern auf 5/7V, da muss man schon 'normale' Lüfter nutzen. Am besten vom Board geregelt...
Das Board kann dann z.B. die Gehäuselüfter in Abhängigkeit der CPU Temperatur regeln.
robbitop
2013-08-17, 13:21:41
Du vergisst einfach, für was alles Tools benötigt werden.
Du brauchst was für Kühlerbase, unten, oben, die Fins.
Das können standard CNC Maschinen. Die kauft man dafür nicht extra.
Dann brauchst du noch 'ne Lüfterhalterung (dieser Plasterahmen. Den schätz ich auch auf 5-10k, für die Tools).
Tools für Lüfter kosten auch mal ganz schnell 20k...
Eine Spritzgußvorrichtung wird ganz sicher nicht extra für sowas angeschafft. Auch die ist in solchen Fertigungsfirmen vorhanden. Du brauchst lediglich eine Form für die gewünschte Geometrie. 20 T€? Wo lebst du?
Kennst du dich mit Fertigungstechnik überhaupt aus?
Das können standard CNC Maschinen. Die kauft man dafür nicht extra.
Eine Spritzgußvorrichtung wird ganz sicher nicht extra für sowas angeschafft. Auch die ist in solchen Fertigungsfirmen vorhanden. Du brauchst lediglich eine Form für die gewünschte Geometrie. 20 T€? Wo lebst du?
Kennst du dich mit Fertigungstechnik überhaupt aus?
Also ich kenne mich damit sehr gut aus und ich denke, ganz so einfach stellt sich die Sache bei der Fertigung eines LuKü, egal ob jetzt für CPU oder GPU, nicht dar. Ich denke da an evtl. Heatpipes, Finnen usw.
Wenn es um eine Wakü geht, bin ich vollkommen bei dir:
- 2 Spannungen für den Kühler selbst an einer CNC-Fräsmaschine
- Eine Spannung für die Deckplatte
- Planschleifen/ -Polieren der Kontaktfläche
Nach ca. 5 Minuten sollte so ein Ding ohne Montage + evtl. Lackieren oder Coatieren gefertigt sein.
StefanV
2013-08-18, 03:19:33
Das können standard CNC Maschinen. Die kauft man dafür nicht extra.
Für Massengefertigte Kühler setzt man keine CNC Maschinen ein, insbesondere nicht für die Fins. Die werden gestanzt.
Skysnake
2013-08-18, 07:28:33
Ich bin zufällig über ein nettes PDF von TSMC zu 3D stacked Chips gestolpert.
Ist von 12/11, also doch schon etwas älter und zeigt, mit was man so rechnen könnte diese oder nächste Gen.
http://www.cadence.com/rl/resources/white_papers/3dic_wp.pdf
Botcruscher
2013-08-18, 11:38:29
Nächste Gen 2016 aufwärts. Wenn wir was von Intel sehen glaub ich ein Jahr später auch an TSMC oder GF.
robbitop
2013-08-18, 11:42:24
Ich denke da an evtl. Heatpipes, Finnen usw.
Wo ist daran das Problem? Heatpipes kannst du kaufen. Finnen setzt du in die Nuten der Grundplatte ein. Die kannst du aus entsprechendem Kupferblech ausstanzen.
Das machen Leute wie al_ sogar privat. Kann industriell gefertigt kein großes Problem sein.
Für Massengefertigte Kühler setzt man keine CNC Maschinen ein, insbesondere nicht für die Fins. Die werden gestanzt.
Und die Grundplatte lutscht sich von allein? Die Finnen werden gestanzt. So what? Auch das ist Standardausrüstung. Hast du mal eine anständige industriellen Fertigungsbetrieb von innen gesehen? Ich kann da bspw. die Firma Schmalz im Schwarzwald empfehlen - die haben wohl auch ab und an einen Tag der offenen Tür. Da steht praktisch alles was es an Bearbeitungsmaschinen gibt. Sowohl für Kunststoff als auch Metalbearbeitung. Und das ganze mit schlanken Fertigungsmethoden kombiniert.
Da steht für praktisch alles eine Maschine zur Verfügung, die dann in Reihe oder in Fertigungsinseln angeordnet werden. Den ganzen Kram kaufst du nicht für ein Produkt. Das ist Standardausstattung. Unternehmen mit solchen Maschinen und Fertigungsknowhow werden sicherlich auch beauftragt und nicht Firmen, die dastehen wie ein Schneider und erstmal alles kaufen müssen. Die Gemeinkosten für die Maschinen schlagen sie dir eben pro Produkt drauf.
AnarchX
2013-08-20, 10:27:13
Digitimes: Hawaii Massenlieferungen im Okober (http://www.digitimes.com/news/a20130819PD204.html)
Godmode
2013-08-20, 10:34:24
Digitimes: Hawaii Massenlieferungen im Okober (http://www.digitimes.com/news/a20130819PD204.html)
Sehr schön. Ich schätze mal dann können wir auch ziemlich fix mit einer Titan Ultra rechnen.
M4xw0lf
2013-08-20, 10:47:35
Sehr schön. Ich schätze mal dann können wir auch ziemlich fix mit einer Titan Ultra rechnen.
Zirkonium! :freak:
Alternativ auch Vanadium.
Ailuros
2013-08-20, 11:07:00
Sehr schön. Ich schätze mal dann können wir auch ziemlich fix mit einer Titan Ultra rechnen.
digitimes *ding ding ding* :rolleyes:
Angiesan
2013-08-20, 11:20:41
Sehr schön. Ich schätze mal dann können wir auch ziemlich fix mit einer Titan Ultra rechnen.
Da gibt es ja nur 3 Möglichkeiten:
1.) AMD bleibt hinter Titan, dann passiert gar nix da es dann die GTX 780 OC Modelle regeln.
2.) Die AMD kommt gerade so an die Titan ran, was dann deren Preispunkt unter Druck setzen würde= Titan Ultra sehr gut möglich mit höheren Taktraten und weiterhin einem gesalzenen Preis.
3.) Titan wird von der neuen AMD überholt, = nicht sehr wahrscheinlich das sie dann nachlegen, denn ohne Performancekrone wird es mehr wie schwierig den Preis den NV aufrufen müsste zu rechtfertigen wenn die HD dann wirklich für $ 600 in den Markt kommt.
Die Zielgruppe von dem Titan und Titan Ultra will nicht das Zweit-Schnellste. Ich glaube nicht, dass viele von Titan auf Ultra umsteigen würden wenn sie nicht wieder den längsten vorweisen können :biggrin:
Vielleicht gibt NV dann einfach endlich die Custom-Desgn´s für die Titan frei, könnte vielleicht schon reichen für die Balken;)
john carmack
2013-08-20, 11:24:53
Zirkonium! :freak:
Alternativ auch Vanadium.
aber mit Chrom :D
Duplex
2013-08-20, 13:14:31
Mit 2816 Shader, 1Ghz Chiptakt, Quad Frontend wird die Karte garantiert Titan Performance erreichen oder sogar etwas schneller sein, wenn Nvidia mit Titan Ultra kontert kann AMD über die TDP wahrscheinlich nochmal drauflegen. Ich kann mir vorstellen das einige 9970 OC Modelle 20% schneller als Titan sind.
Eher mehr. Und das beste keine 600 Euro für die Karten.
Duplex
2013-08-20, 13:19:59
Titan Ultra müsste schon einen sehr hohen Boost Takt besitzen damit man sich großartig von der Titan absetzen kann, die 192 Shader mehr bringen jedenfalls keine 10% mehr Performance, sondern eher 5-8%, man muss also mehr Leistzungsaufnahme in Kauf nehmen, was anderes kann Nvidia nicht machen, dann ist GK110 nicht mehr effizient!
Ich bin schon gespannt was die Dual Karte auf Hawaii Basis kosten wird, wenn die 1000 € kostet erhält man 2x Titan Performance, dank neuen Treiber ist CF jetzt auch kein Problem mehr!
Gipsel
2013-08-20, 13:35:05
Ich wäre etwas zurückhaltender bei den Prognosen.
ShadowXX
2013-08-20, 13:36:46
Eher mehr. Und das beste keine 600 Euro für die Karten.
Ach was...die neue ATI wird sicher doppelt so schnell wie Titan und wird höchstens 400 Euro kosten:freak:
Ich wäre etwas zurückhaltender bei den Prognosen.
Sogar 3x so schnell?
Duplex
2013-08-20, 13:40:08
Ich wäre etwas zurückhaltender bei den Prognosen.
DU gehst nur von 20-25% mehr Performance als die 7970 Ghz aus?
Iruwen
2013-08-20, 14:12:13
Seit wann kann AMD zaubern? Ich wünsch mir auch 'ne Karte die dreimal so schnell wie Titan ist (damit NV die Preise senkt :rolleyes: ), realistisch ist das aber nicht so ne.
reaperrr
2013-08-20, 14:23:45
DU gehst nur von 20-25% mehr Performance als die 7970 Ghz aus?
Die Faustregel ist bisher, dass 4 GCN CUs (256 ALUs, 16 TMUs) grob mit einer SMX von Kepler gleichzusetzen sind, wenn der Rest (Frontend, ROPs, Speicherbandbreite) nicht zu weit abweicht. GK104 würde Tahiti bei der Performance pro MHz wohl mindestens ein- oder leicht überholen, wenn die Speicherbandbreite identisch wäre, gleiches würde wohl bei GK106 vs. Pitcairn gelten, wenn ersterer 32 ROPs und 6,7% mehr Speicherbandbreite hätte (jeweils auf die Topmodelle bezogen).
Bei GCN 1.0 würden 44 CUs bei gleichem Takt also grob 11 SMX entsprechen. Selbst die GTX 780 hat aber deren 12.
Kann zwar sein, dass Hawaii im Vollausbau durch breiteres Frontend und andere Verbesserungen eher die pro-MHz Leistung von 12 SMX hat, aber viel mehr erwarte ich nicht. Wobei ich mich gern positiv überraschen lasse.
robbitop
2013-08-20, 14:42:27
Die Faustregel ist bisher, dass 4 GCN CUs (256 ALUs, 16 TMUs) grob mit einer SMX von Kepler gleichzusetzen sind.
Das mag für Tahiti zutreffen aber nicht für Pitcairn. Tahiti ist durch sein Front End zugeschnürt, sonder würde er GK104 böse verhauen.
Pitcairn hat 1280 SPs und GK104 hat 1536. Rechnet man das und den boost raus ist GK104 nur noch um einstellige Prozentzahlen voraus.
Einheitennormiert NVs SMX sind also nicht wesentlich effizienter als AMDs CUs. Tahiti ist allerdings ziemlich gebremst.
Wenn man bei Hawai das Front End verdoppelt, sollte diese Limitation deutlich sinken. Man bräuchte also um mit Titan gleichzuziehen in etwa die gleiche Menge an Ausführungseinheiten und Takt.
GK104 würde Tahiti bei der Performance pro MHz wohl mindestens ein- oder leicht überholen, wenn die Speicherbandbreite identisch wäre
Eigentlich ist GK104 nicht limitiert durch seine Speicherbandbreite. Tahiti erst recht nicht.
Wenn hohe Shaderlast oder eine hohe Auflösung (Downsampling) zum Einsatz kommt, zieht Tahiti auch mal davon.
john carmack
2013-08-20, 14:53:44
Hier wird immer so viel über AMD´s viel zu kleines Frontend der Tahiti GPU gesprochen...
Frisst das Tahiti Frontend so viele Transitoren bzw. Strom das es so "klein" geraten ist?
Ich meine, es kann doch nicht sein das hunderte AMD Ingenieure sich so irren und soetwas verbauen bzw. nicht sehen das es ein großer Flaschenhals ist...?!?!
Wurde das Frontend von 5870 auf 6970 verdoppelt? Und es hat nicht so viel an Leistung gebracht wie vermutet.
robbitop
2013-08-20, 15:01:31
Hier wird immer so viel über AMD´s viel zu kleines Frontend der Tahiti GPU gesprochen...
Frisst das Tahiti Frontend so viele Transitoren bzw. Strom das es so "klein" geraten ist?
Ich meine, es kann doch nicht sein das hunderte AMD Ingenieure sich so irren und soetwas verbauen bzw. nicht sehen das es ein großer Flaschenhals ist...?!?!
Wurde das Frontend von 5870 auf 6970 verdoppelt? Und es hat nicht so viel an Leistung gebracht wie vermutet.
Tahiti war ein Kompromiss. Es musste für Spieler aber auch für HPC passen und es musste in ~350 sqmm passen. Außerdem war GCN damals noch brandneu und unoptimiert. Da war halt nicht mehr drin. Viele HPC Dinge fressen eben Transistoren.
Soweit ich weiß, war die Verdopplung des Frontends bis dato auf die Rasterrate beschränkt. Wirklich lineare Skalierung des Trisetups hat man mit den Verdopplungen - im Gegensatz zum GPC Konzept bei NV - nicht erreicht.
Sicherlich sind da auch noch andere Flaschenhälse.
Man sieht ja ganz klar, wie Pitcairn mit der vorhandenen Rohleistung skaliert und wie es Tahiti tut. Völlig klar, dass die reinen Ausführungseinheiten nicht der absolute Flaschenhals sind.
Wie es ist, wenn Tahiti ungebremst ist, sieht man wenn man starkes Downsampling betreibt und das Pixel/Geometrielastverhältnis sich ändert. Oder aber wenn sehr lange Shader vorhanden sind, was Ähnliches bewirkt. Dann zieht Tahiti davon. Ohne diese Flaschenhälse wäre Tahiti sicher um einiges schneller.
Gaestle
2013-08-20, 15:04:50
Man ist wahrscheinlich bei der DIE-Größe begrenzt und kann in dieser Begrenzung nicht beides im "Vollausbau" haben und muss bei einer Sache Kompromisse machen. Es ist dann wahrscheinlich eine Frage der Balance und des Zielmarktes.
Tahiti wird im ProfiBereich durch das kleinere FrontEnd vielleicht weniger gebremst, weil es dort eine geringere Rolle spielt. Da zählen viele FLOPS und die hat Tahiti ja.
Um im Gaming gut dazustehen braucht man vielleicht nicht nur FLOPS, sondern eben auch FrontEnd.ABER: ein großes FrontEnd ohne viele FLOPS nutzt aber im Gaming-Markt auch nix. FLOPS braucht man also für BEIDE Märkte. Ein großes FrontEnd ohne viele FLOPS nutzt also weder im Profi- noch im Gamermarkt. Viel FLOPS und Kompromisse beim FrontEnd helfen ein bißchen im Gamermarkt und viel im Profimarkt. Und das in einer Situation, in der AMD dem HighEnd-Gamermarkt vor Jahren öffentlich abgeschworen hat.
[Edit:] Zu spät...
robbitop
2013-08-20, 15:10:45
GK104 und Pitcairn waren halt Gamerchips und hatten viel punch pro Transistor (Pitcair hatte halt weniger Transistoren als GK104). GK110 und Tahiti eher weniger -> HPC. Nur dass GK110 einfach verdammt riesig ist und dadurch halt doch sehr stark ist. Nicht auszudenken, was ein GK104 @ 550 sqmm gebracht hätte...
boxleitnerb
2013-08-20, 15:14:11
Naja, wenn man Bonaire anschaut und mit der GTX 650 Ti vergleicht, hat man 26% mehr Rechenleistung, aber nur ca. 10% mehr Performance (3DC-Index). Da scheint also immer noch ein Flaschenhals zu sein.
matty2580
2013-08-20, 15:15:09
Also ab Oktober kein Paper-Launch nach Digitimes.
Bei einem Release Anfang Oktober wären es aber nur noch 6 Wochen bis dahin.
Langsam wird es Zeit für echte Leaks. Das hatte mich schon bei der 7xx Serie von Nvidia gestört.
fondness
2013-08-20, 15:25:08
Naja, wenn man Bonaire anschaut und mit der GTX 650 Ti vergleicht, hat man 26% mehr Rechenleistung, aber nur ca. 10% mehr Performance (3DC-Index). Da scheint also immer noch ein Flaschenhals zu sein.
Bonaire hängt an der Bandbreite/ROPs, das ist kein Geheimnis. Deshalb ist er auch ohne AA deutlich vor der GTX650Ti und je höher die AA-Stufe desto kleiner wird der Vorsprung: http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-hd-7790-im-test/2/
Dagegen eine GTX650Ti mit einem 192-bit SI zu vergleichen....naja keine Ahnung was du damit bezwecken willst
robbitop
2013-08-20, 15:27:44
Naja, wenn man Bonaire anschaut und mit der GTX 650 Ti vergleicht, hat man 26% mehr Rechenleistung, aber nur ca. 10% mehr Performance (3DC-Index). Da scheint also immer noch ein Flaschenhals zu sein.
Die Frage ist, wie sehr beide Karten durch den 1 GB VRAM gebremst werden in hoher Auflösung + AA. Ggf. bremst hier auch die Speicherbandbreite. So viel Rechenleistung fehlt ja zu Pitcairn auch nicht mehr aber man hat nur ein 128 bit SI.In FullHD ohne AA ist Bonaire 17 % vorn.
Dagegen eine GTX650Ti mit einem 192-bit SI zu vergleichen....naja keine Ahnung was du damit bezwecken willst
Die 650 ti hat doch nur ein 128 bit SI. Die 660 (ohne Ti) hat ein 192 bit SI.
AnarchX
2013-08-20, 15:29:14
Die Non-Boost hat nur 128-Bit@5,4Gbps.
Vielleicht legt man den Front-End-Schalter bei Hawaii erst mit dem Launchtreiber um.
fondness
2013-08-20, 15:31:48
Die 650 ti hat doch nur ein 128 bit SI. Die 660 (ohne Ti) hat ein 192 bit SI.
Die GTX650 Ti Boost auch. Aber mea culpa.
boxleitnerb
2013-08-20, 15:52:33
In FullHD ohne AA ist Bonaire 17 % vorn.
Da fehlen immer noch ca. 10%, um bzgl. der Rohleistungseffizienz zur 650 Ti aufzuschließen. Je nach Review ist es auch mal weniger (ohne AA):
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7790/launch-analyse-amd-radeon-hd-7790-seite-2
mczak
2013-08-20, 16:14:32
Titan Ultra müsste schon einen sehr hohen Boost Takt besitzen damit man sich großartig von der Titan absetzen kann, die 192 Shader mehr bringen jedenfalls keine 10% mehr Performance, sondern eher 5-8%
Also schon die theoretische Mehrleistung durch ein SMX mehr liegt bloss bei 7%. Effektiv (ausgenommen Compute) dürfte da wohl so im Durchschnitt etwa die Hälfte davon bei Spielen wirklich ankommen.
Wieviel man durch mehr Takt herausholen kann weiss ich aber nicht. Dass der Chip selbst mehr Takt verkraftet ist klar, ist dann halt eine Frage des Stromverbrauchs.
fondness
2013-08-20, 16:23:26
Da fehlen immer noch ca. 10%, um bzgl. der Rohleistungseffizienz zur 650 Ti aufzuschließen. Je nach Review ist es auch mal weniger (ohne AA):
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7790/launch-analyse-amd-radeon-hd-7790-seite-2
Und warum nimmst du ausgerechnet Bonaire als Vergleich? Die 7770 ist wesentlich ausgeglichener und hat deshalb sogar eine leicht höhere Leistung/GFLOP wie deine 650Ti.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650-ti/5/
ShadowXX
2013-08-20, 16:33:54
Das mag für Tahiti zutreffen aber nicht für Pitcairn. Tahiti ist durch sein Front End zugeschnürt, sonder würde er GK104 böse verhauen.
.....
Wenn man bei Hawai das Front End verdoppelt, sollte diese Limitation deutlich sinken. Man bräuchte also um mit Titan gleichzuziehen in etwa die gleiche Menge an Ausführungseinheiten und Takt.
Ich würde von einem verdoppelte Frontend nicht so viel bzw. keine Wunderdinge erwarten. Gerade in höheren Auflösungen (und die interessieren uns ja, also 1080++) wird das nicht sehr viel mehrspeed bringen (hat AiL oder Gipsel mal erwähnt).
boxleitnerb
2013-08-20, 16:56:10
Und warum nimmst du ausgerechnet Bonaire als Vergleich? Die 7770 ist wesentlich ausgeglichener und hat deshalb sogar eine leicht höhere Leistung/GFLOP wie deine 650Ti.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650-ti/5/
Kommt drauf an wie man es sieht. Die 650 Ti liegt ziemlich genau zwischen 7770 und 7790 bzgl. Bandbreite, Texelfüllrate und Rechenleistung. Man kann in beide Richtungen gehen.
Match-Maker
2013-08-20, 18:20:06
Ich würde von einem verdoppelte Frontend nicht so viel bzw. keine Wunderdinge erwarten. Gerade in höheren Auflösungen (und die interessieren uns ja, also 1080++) wird das nicht sehr viel mehrspeed bringen (hat AiL oder Gipsel mal erwähnt).
Im Hinblick auf die SGSSAA-Schwäche wäre ein Vierfach-Frontend trotzdem nicht schlecht.
OBrian
2013-08-20, 21:44:42
Wieso redet eigentlich keiner mehr über Bildqualität? Die Filterqualität der 5800 war gut, danach ist es ja wieder schlechter geworden. Wenn man das schon mal hingekriegt hat, müßte man es doch wieder hinkriegen können, oder? Oder spart man damit so massiv Performance ein, die man in FPS-Zuwachs stecken kann? Als ich meine 5850 vorübergehend mal für ein paar Tage gegen eine 7870 tauschen konnte, hab ich einen ordentlichen Unterschied gesehen, war nicht schön.
Also ich fänd's echt gut, wenn sie diesen Rückschritt ausbügeln würden. Passiert möglicherweise nicht mit Hawaii, wenn das nur ein Tahiti in groß ist ohne Architekturänderungen, aber hoffen darf man ja noch.
Also eigentlich bietet GCN das beste AF seit Erfindung der Radeon. Flimmert's mit HQ doch mal, bügelt man einfach SSAA drüber. Natürlich wäre es schön, wenn Ati endlich immer die Bildruhe von Nvidia (oder noch besser) erreichen würde, aber "Meckern auf hohem Niveau" war nie treffender.
MfG,
Raff
Ronny145
2013-08-20, 21:57:00
Wieso redet eigentlich keiner mehr über Bildqualität? Die Filterqualität der 5800 war gut, danach ist es ja wieder schlechter geworden.
Die 5800 hatte das Banding und Flimmern. Wo war das besser?
john carmack
2013-08-20, 22:03:44
Kommen auch mal langsam ein paar leaks mit denen man was anfangen kann?
Selten so heiß auf eine neue Generation gewesen.... Liegt villeicht auch daran das ich mal drigend mal eine neue Karte bzw. gleich einen ganz neuen Rechner brauchen könnte.
Ivy-E @ 9970 würde mich ja schon reizen :)
Dann ist mal wieder 2-3 Jahre Ruhe im Karton :D
Schon eine HD 7950 zum jetzigen Fast-geschenkt-Preis wäre gefühlt 78 Mal so schnell wie deine GTX 460. ;) Und gewiss billiger als Hawaii.
MfG,
Raff
john carmack
2013-08-20, 22:09:52
Ja, aber wenn schon willich doch ne aktuelle Gen. haben.
die 2 Monate halt ich jetzt auch noch aus. ;)
9870 geht bestimmt auch noch gut in der Perf.
deekey777
2013-08-20, 22:19:24
Was glaubt ihr: Wird der neue Mac Pro schon mit der FirePro, die auf VI basiert, kommen?
john carmack
2013-08-20, 22:38:37
Wo kommen eigentlich diese 300Watt Gerüchte her?
"So heiß wie ein Vulkan" würde es ja treffen :D
boxleitnerb
2013-08-20, 22:41:15
Die Leistungsaufnahme soll näher an 300W liegen als bei 200W wurde mir gesagt.
Na wenn dafür +20-30 Prozent auf die GHz Edition herausspringen, ist das okay.
MfG,
Raff
dargo
2013-08-20, 22:48:39
Die Leistungsaufnahme soll näher an 300W liegen als bei 200W wurde mir gesagt.
251W? :biggrin:
matty2580
2013-08-20, 23:14:25
Kommen auch mal langsam ein paar leaks mit denen man was anfangen kann?
Rechne einmal Anfang September mit den ersten "echten" Leaks.
Das ist dann genau wie bei Nvidia mit der letzten Gen.
Vermutlich hat man sich da abgesprochen....
boxleitnerb
2013-08-21, 08:03:54
Na wenn dafür +20-30 Prozent auf die GHz Edition herausspringen, ist das okay.
MfG,
Raff
Finde ich nicht. Das schafft Titan jetzt schon mit ca. 210 W.
robbitop
2013-08-21, 08:45:53
Ich würde von einem verdoppelte Frontend nicht so viel bzw. keine Wunderdinge erwarten. Gerade in höheren Auflösungen (und die interessieren uns ja, also 1080++) wird das nicht sehr viel mehrspeed bringen (hat AiL oder Gipsel mal erwähnt).
Es muss noch andere Flaschenhälse bei Tahiti geben. Siehe die Skalierung von Cape Verde -> Pitcairn -> Tahiti. Die wird immer schlechter. Und die sollte man dringend weiten, wenn man schon die Ausführungseinheitenanzahl erhöht.
robbitop
2013-08-21, 08:49:06
Da fehlen immer noch ca. 10%, um bzgl. der Rohleistungseffizienz zur 650 Ti aufzuschließen. Je nach Review ist es auch mal weniger (ohne AA):
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-hd-7790/launch-analyse-amd-radeon-hd-7790-seite-2
Deswegen ja die anderen Argumente, die du übergangen hast. ROP und Speicherbandbreitenlimitierung. Wenn dann muss man schon ausgewogene, nicht limitierte Designs vergleichen. Ansonsten ist es kein sinnvoller Vergleich.
Im Hinblick auf die SGSSAA-Schwäche wäre ein Vierfach-Frontend trotzdem nicht schlecht.
SGSSAA hat doch an sich mit dem Front End wenig zu tun. Es werden ja nicht mehr Dreiecke. GCN schmeckt irgendein Shader, mit dem das umgesetzt wird, nicht. Gipsel hatte IIRC dazu mal ein paar Vermutungen geäußert.
boxleitnerb
2013-08-21, 09:00:28
Dass die limitieren, ist nicht garantiert. Es ist ein Indiz, nicht mehr und nicht weniger.
Übrigens:
Die 7770 liegt bei der Effizienz/GFLOP mit der 650 Ti gleichauf - trotz ggü. der Geforce halben Frontend (1 Rasterengine vs. 2)! Da frage ich mich doch, warum das bei Tahiti nicht auch so ist. Tahiti LE hat 2 Rasterengines, GK104 hat 4. Und hier gewinnt klar die Geforce bei der Effizienz/GFLOP.
robbitop
2013-08-21, 09:15:13
Die 7770 liegt bei der Effizienz/GFLOP mit der 650 Ti gleichauf
Da siehst du es doch. Cape Verde ist offenbar am ausgeglichensten und scheint keine großen Flaschenhälse zu haben. Genau an dem Design sollte man die Vergleiche ziehen. Daraus wird doch schnell klar, dass alles nach CV irgendwo limitiert sein muss. Vieleicht nicht ausschließlich durch das Front End.
boxleitnerb
2013-08-21, 09:18:07
Vielleicht. Und was meinst du zu der Sache mit dem halbierten Frontend?
robbitop
2013-08-21, 09:56:48
Cape Verde: (7770 GHz)
Geometrierate: 1 tri/clk * 1000 MHz = 1*10^6 Tri/s
Rechenleistung: 640 ALUs * 2 FLOPs * 1000 MHz = 1,28 TFLOP/s
Rechenleistung pro Geometrierate 1,28*10^3 FLOP/Tri
Tahiti LE (7870 XT)
Geometrierate: 2 tri/clk * 925 MHz = 1,85*10^6 Tri/s
Rechenleistung: 1536 ALUs * 2 FLOPs * 925 MHz = 2,84 TFLOP/s
Rechenleistung pro Geometrierate: 1,57 FLOP/Tri
Wie man sieht, hat Tahiti LE doch ein deutlich höheres Verhältnis zwischen Geometrie und Rechenleistung als Cape Verde. Immerhin 23 % mehr.
Aber insgesamt müßte Tahiti LE ein gesunderes Verhältnis haben als Tahiti.
Pitcairn verdoppelt Frontend, Recheneinheiten, ROPs und TMUs gleichermaßen. Ist aber nicht mehr ganz so effizient. Scheint noch einen anderen Flaschenhals zu geben.
edit:
Die Tahiti LE hat mich nie interessiert - aber jetzt, wo du sie erwähnst, scheint sie doch ganz interessant zu sein, da besser abgestimmt. Sie scheint trotz weniger Speicher, Speicherbandbreite und weniger Rechenleistung oftmals sogar etw. schneller zu sein als die 7950.
http://www.computerbase.de/artikel/grafikkarten/2012/test-vtx3d-hd-7870-black-tahiti-le/4/
Das korreliert fast mit dem Mehrtakt, den sie ggü der 7950 (non Boost!!) hat.
Gegen GK104 hat sie noch das Nachsehen. Die haben allerdings ein doppelt so breites Front End und mehr TMUs - und boosten vermutlich auch etwas höher.
ShadowXX
2013-08-21, 12:01:26
Da siehst du es doch. Cape Verde ist offenbar am ausgeglichensten und scheint keine großen Flaschenhälse zu haben. Genau an dem Design sollte man die Vergleiche ziehen. Daraus wird doch schnell klar, dass alles nach CV irgendwo limitiert sein muss. Vieleicht nicht ausschließlich durch das Front End.
Ich hab langsam das Gefühl das das einfach ein kleiner Designbug bei (zumindest) GCN 1.0 und 1.1 ist.
Quasi das je mehr Rechenwerke, desto schlechte die Effektivität. Möglicherweise irgendetwas mit den Schedulern, den Caches oder irgendetwas in der Kommunikation.
Vielleicht ist das in 2.0 schon korrigiert und Hawaii wäre selbst mit gleichen restlichen technischen Daten (Anzahle Rechenwerke, Frontend, ROP, TMU & Co.) wie Tahiti schon 10-15% schneller.
robbitop
2013-08-21, 14:14:54
Ohne Bremsen müsste Tahiti bei gleichem Takt gute 30 % schneller sein als GK104. Weil 33 % mehr Recheneinheiten und 50 % mehr Speicherbandbreite. Irgendwas ist da halt einfach faul.
fondness
2013-08-21, 14:33:24
Ohne Bremsen müsste Tahiti bei gleichem Takt gute 30 % schneller sein als GK104. Weil 33 % mehr Recheneinheiten und 50 % mehr Speicherbandbreite. Irgendwas ist da halt einfach faul.
Bei gleichem Takt ist Tahiti auch ~10% schneller als GK104. Die GTX680 und die 7970Ghz takten fast gleich hoch. Speicherbandbreite hat die 7970Ghz dabei mehr als genug. 15%-20% sollten also schon noch drinnen sein wenn man die Bottlenecks beseitigen kann.
john carmack
2013-08-21, 15:51:56
Ohne Bremsen müsste Tahiti bei gleichem Takt gute 30 % schneller sein als GK104. Weil 33 % mehr Recheneinheiten und 50 % mehr Speicherbandbreite. Irgendwas ist da halt einfach faul.
War es das nicht auch schon bei der 6970?
dargo
2013-08-21, 15:58:20
Ohne Bremsen müsste Tahiti bei gleichem Takt gute 30 % schneller sein als GK104. Weil 33 % mehr Recheneinheiten und 50 % mehr Speicherbandbreite. Irgendwas ist da halt einfach faul.
Recheneinheiten bei zwei IHVs zu vergleichen war noch nie sinnvoll. ;)
Ailuros
2013-08-21, 18:02:26
Recheneinheiten bei zwei IHVs zu vergleichen war noch nie sinnvoll. ;)
Es muss nicht mal zwischen IHVs sein damit es absurd wird; zwei verschiedene Architekturen selbst vom gleichen IHV zu vergleichen ist auch nicht besonders besser.
robbitop
2013-08-22, 08:41:26
Recheneinheiten bei zwei IHVs zu vergleichen war noch nie sinnvoll. ;)
Warum nicht? Seit GCN hat AMD keine VLIW ALUs mehr, sondern SIMDs, deren Kanäle jeweils pro Takt je einen Kanal eines separaten Pixels berechnen können. Man kann beides 1D ALUs nennen, auch wenn der Aufbau anders ist. NV hat die Hotclock wegegeben. Vergleichbarer als heute gab es noch nie in der GPU Historie. Prinzipiell sollte die Effizienz der ALUs nun an sich vergleichbar sein.
Cape Verde erreicht die gleiche Effizienz wie Kepler. Pitcairn verliert da schon leicht Effizienz und Tahiti macht den Braten richtig fett. Pure logische Schlussfolgerung: da bremst etwas.
War es das nicht auch schon bei der 6970?
Nicht vergleichbar, da VLIW4 ALUs. Die sind per se ineffizienter. Wobei auch dort sicher Flaschenhälse die volle Skalierung verhindern.
Am Ende sind Flaschenhälse vermutlich Kompromisse im Design, um die GPU in das geplante Transistorbudget zu bringen.
Es muss nicht mal zwischen IHVs sein damit es absurd wird; zwei verschiedene Architekturen selbst vom gleichen IHV zu vergleichen ist auch nicht besonders besser.
Was meinst du mit zwei verschiedene Architekturen? VLIW und GCN? Sind schwierig zu vergleichen.
dargo
2013-08-22, 09:24:03
Es muss nicht mal zwischen IHVs sein damit es absurd wird; zwei verschiedene Architekturen selbst vom gleichen IHV zu vergleichen ist auch nicht besonders besser.
Ich weiß. :D Mir gings nur gerade um das Beispiel von robbitop mit NV und AMD.
Cape Verde erreicht die gleiche Effizienz wie Kepler. Pitcairn verliert da schon leicht Effizienz und Tahiti macht den Braten richtig fett. Pure logische Schlussfolgerung: da bremst etwas.
Ja... die Spiele, zum x-ten Mal. Das mit dem Frontend kann ich bald nicht mehr lesen.
robbitop
2013-08-22, 09:35:45
Ja... die Spiele, zum x-ten Mal. Das mit dem Frontend kann ich bald nicht mehr lesen.
Dann lies den Thread einfach nicht. ;)
Es können natürlich auch andere Flaschenhälse sein als das Front End. Allerdings zeigt sich Tahitis wahre Leistung ggü GK104 nur extrem selten. Meistens sind sie ähnlich schnell. IIRC stach es in Dirt 2 (?) heraus, da war Tahiti deutlich fixer als GK104. Vieleicht besonders Shaderlastig.
dargo
2013-08-22, 09:49:15
Dann lies den Thread einfach nicht. ;)
Es können natürlich auch andere Flaschenhälse sein als das Front End. Allerdings zeigt sich Tahitis wahre Leistung ggü GK104 nur extrem selten. Meistens sind sie ähnlich schnell. IIRC stach es in Dirt 2 (?) heraus, da war Tahiti deutlich fixer als GK104. Vieleicht besonders Shaderlastig.
Ist doch immer wieder recht unterhaltsam. :D
Diese ganzen Rückschlüsse von Spielebenchmarks führen doch eh zu nichts. Ein paar mehr Spiele davon:
http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-760-im-test/29/
und schon kippt deine These mit Kepler wäre so effizient. ;) Und wie man an den fps sieht limitiert in diesem Spiel auch nicht die Alu-Leistung (Tahiti vs. Pitcairn).
Edit:
Ein anderes Beispiel:
http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-760-im-test/19/
Bei 48% mehr Alu-Leistung ist Tahiti immerhin 39% vor Pitcairn. Fehlen halt noch paar Prozente, ist aber schon einiges mehr als bei manch anderen Spielen. Ich kann mich noch sehr gut an Alan Wake erinnern. Ich hatte mich früher gewundert warum meine HD7970 bis zu 6°C wärmer wurde als bei anderen Spielen. Jetzt weiß ich es, die Shaderlast ist hier wohl sehr hoch.
Deshalb finde ich diese Quervergleiche über den Durchschnitt von Spielen einfach nur Unsinn. Einzelne Spiele haben viel zu unterschiedliche Ansprüche. Zudem kommt noch das Problem hinzu dass ein IHV mehr Optimierungsarbeit in seinem Grafiktreiber einem AAA-Titel wie zb. Battlefield spendiert als einen Traktor-Simulator. Letzteres wird gewiss in keinem Testparcour verwendet. :D Du weißt aber worauf ich hinaus will.
robbitop
2013-08-22, 10:09:28
Ist doch immer wieder recht unterhaltsam. :D
Diese ganzen Rückschlüsse von Spielebenchmarks führen doch eh zu nichts. Ein paar mehr Spiele davon:
http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-760-im-test/29/
und schon kippt deine These mit Kepler wäre so effizient. ;) Und wie man an den fps sieht limitiert in diesem Spiel auch nicht die Alu-Leistung (Tahiti vs. Pitcairn).
Da kippt gar nichts. ;) Das ist ein Spiel. Aber nicht die Regel. Pitcairn ist in Dirt Showdown so schnell wie GK104. Vieleicht schmeckt der Code AMD Karten besonders gut (Optimierung) oder NV Karten mangels Treiberupdate besonders schlecht? Anhand eines Spieles würde ich noch keine generelle Aussage treffen.
Eine gute GPU liefert ihre Performance immer - und nicht nur in Spezialfällen.
Ein oder mehrere Flaschenhälse müssen also im Tahiti vorhanden sein. Das sind Kompromissentscheidungen.
Prinzipiell sollten die Recheneinheiten von Kepler und GCN die gleiche effektive Rechenleistung bringen. Aber Rechenleistung ist eben nicht immer die allein bestimmende Komponente.
dargo
2013-08-22, 10:11:40
Eine gute GPU liefert ihre Performance immer - und nicht nur in Spezialfällen.
Dann ist also Kepler keine gute GPU? Na dann... ;)
robbitop
2013-08-22, 10:24:32
Dann ist also Kepler keine gute GPU? Na dann... ;)
Kepler ist eine Architektur. GK104 ist eine Umsetzung davon.
Man bekommt mit wesentlich weniger Transistoren und einem wesentlich günstigerem PCB (nur 256 bit) idR ähnliche Performance hin, wie Tahiti sie bietet. Sie ist eben auf Spieleeffizienz ausgelegt. Sehr ausbalanciert ohne große Flaschenhälse NV kann daran wesentlich besser verdienen.
Pitcairn ist eine solche Umsetzung von GCN. Schlank und effizient. Tahiti ist leider gebremst durch Kompromisse (HPC). Das gleiche gilt für GK110. Nur ist der widerum so groß, dass er genug Leistung hat, um auch in Spielen nochmal deutlich nach vorn zu gehen. Ein verdoppelter GK104 käme auf ein ähnliches Transistorbudget und wäre schneller.
Botcruscher
2013-08-22, 10:34:52
Die Reaktion von NV GK104 stärker zu machen war auch absehbar. Damit hat man das Lineup von AMD aktiv gekontert und gut Kohle gescheffelt.
Ailuros
2013-08-22, 10:48:03
Was meinst du mit zwei verschiedene Architekturen? VLIW und GCN? Sind schwierig zu vergleichen.
Ich meine dass es genauso sinnlos ist verschiedene Architekturen bei einem IHV zu vergleichen wie bei 2 Architekturen von verschiedenen IHVs.
Ja Tahiti ist so wie schon etliche Mal beschrieben, aber da AMD eben seit langem nicht mehr auf sehr grosse chips setzt gab es fuer sie keinen anderen sinnvollen Ausweg Tahiti so auszulegen dass es teilweise als groesster GPU chip fuer desktop dienen wuerde und auch gleichzeitig fuer HPC.
Dabei ist es eben wurscht was Tahiti mehr hat weil eben dass was es hauptsaechlich mehr hat (z.B. Bandbreite) eher fuer HPC dient als fuer alles andere. Danach kommt natuerlich noch der "es haette sein koennen" Brei wobei wohl jeder schnell vergisst dass Tahiti der allererste grosse GPU chip war der als erster in Masse unter 28HP TSMC hergestellt wurde. Mehr mm2 haette andere Komplikationen mit sich gebracht und haette wohl sogar die Launchzeit beinflusst.
Es gibt auch nichts gegen einzuwenden gegen Deinen GK104/GK110 Vergleich nur hat eben NV den "Luxus" eines GK110 und kann sich den HPC Schnickschnack schon in der performance Kategorie sparen, waehrend AMD leider dazu gezwungen ist so weit erst in der mainstream Kategorie von GPU chips zu kommen. Wirklich nichts Neues und alles schon bekannt.
Insgesamt ist NV's Kepler Strategie bis jetzt von top to bottom ausgezeichnet und hat auch so manchen Gewinn hereingebracht; die Frage ist jetzt ob AMD weiterhin kapitulieren kann und NV Marktanteil stehlen mit der neuen GPU Familie oder ob die Geschichte mehr oder weniger so bleibt wie heute. Falls AMD es doch schaffen sollte, dann ist NV mit der Zeit schon ziemlich tief in der Scheisse.
Die Reaktion von NV GK104 stärker zu machen war auch absehbar. Damit hat man das Lineup von AMD aktiv gekontert und gut Kohle gescheffelt.
Na ja, so viel kleiner als Tahiti ist der GK104 jetzt auch nicht, dass das großartig ins Gewicht fallen dürfte. Unbestritten ist GK104 effizienter, aber kostentechnisch sehe ich da jetzt nicht so das Drama. Pitcairn und GK106 sind übrigens gleich groß. Tahiti schleppt halt 65mm² mehr an HPC-Füllmasse mit sich herum.
fondness
2013-08-22, 11:03:06
Pitcairn und GK106 sind übrigens gleich groß.
Und dabei ist Pitcain schneller als GK106. Unter den selben Voraussetzungen ist die GCN-Architektur als flächeneffizienter.
Ailuros
2013-08-22, 11:06:32
Na ja, so viel kleiner als Tahiti ist der GK104 jetzt auch nicht, dass das großartig ins Gewicht fallen dürfte. Unbestritten ist GK104 effizienter, aber kostentechnisch sehe ich da jetzt nicht so das Drama. Pitcairn und GK106 sind übrigens gleich groß. Tahiti schleppt halt 65mm² mehr an HPC-Füllmasse mit sich herum.
Falls die 65mm2 sich auf den Unterschied in die area zwischen Tahiti und GK104 bezieht, ist es eine total nutzlose Nummer fuer den Zweck.
Und dabei ist Pitcain schneller als GK106. Unter den selben Voraussetzungen ist die GCN-Architektur als flächeneffizienter.
perf/W ist heutzutage um zich Male wichtiger als perf/mm2. Mag sein dass GCN auch hier den Vorteil haben koennte unter gleichen Bedingungen, mich interessiert lediglich wie nebenwichtig die area im Angesicht von Stromverbrauch heutzutage ist.
Botcruscher
2013-08-22, 11:07:16
Na ja, so viel kleiner als Tahiti ist der GK104 jetzt auch nicht, dass das großartig ins Gewicht fallen dürfte. Unbestritten ist GK104 effizienter, aber kostentechnisch sehe ich da jetzt nicht so das Drama. Pitcairn und GK106 sind übrigens gleich groß. Tahiti schleppt halt 65mm² mehr an HPC-Füllmasse mit sich herum.
Die Größe ist auch nur ein Punkt im Gesamtpaket. Verbrauch, Taktbarkeit usw. schlagen da auch mit rein. Für NV war es einfach wirtschaftlicher.
Stellt sich halt die Frage ob AMD bei der Chipgröße kapituliert. NV wird mit den großen "Mainstreamchips" auf jeden Fall weiter machen.
Ailuros
2013-08-22, 11:16:51
Quadratmillimeter sind scheissegal wenn man nicht weiss wie die jeweiligen binning yields eines jeglichen chips aussehen.
Duplex
2013-08-22, 11:34:44
War GK104 ursprünglich nicht für 279-299$ geplant?
Nvidia hat doch damals AMD bei GCN überschätzt, die 7970 hat gegenüber den Vorgänger keinen großen Sprung gemacht.
Das ganze hat man ebenfalls ausgenutzt und war mit GK104 dann gegenüber GF110 ca. 35% schneller.
Nur weil AMD so kleine Schritte mit GCN gemacht hat kostet heute der GK110 soviel Geld.
Ailuros
2013-08-22, 11:38:23
War GK104 ursprünglich nicht für 279-299$ geplant?
Es hat damals $299 geheissen nur war das Resultat von der PCB Groesse, ueber die Kuehlungsloesung bis zur Frequenz um einiges bescheidener als das was wir am Ende als GTX680 sehen konnten. Um die 900MHz, niedriger getakteter Speicher, keinerlei turbo-Frequenzen und ein TDP der um die 170W gelegen hat wenn ich mich nicht irre. Ich hab das Bild vom damaligen reference board leider nicht behalten, aber das Resultat erinnerte verdammt an das was Du heute bei 660 GPUs sehen kannst.
boxleitnerb
2013-08-22, 12:26:24
Es hat damals $299 geheissen nur war das Resultat von der PCB Groesse, ueber die Kuehlungsloesung bis zur Frequenz um einiges bescheidener als das was wir am Ende als GTX680 sehen konnten. Um die 900MHz, niedriger getakteter Speicher, keinerlei turbo-Frequenzen und ein TDP der um die 170W gelegen hat wenn ich mich nicht irre. Ich hab das Bild vom damaligen reference board leider nicht behalten, aber das Resultat erinnerte verdammt an das was Du heute bei 660 GPUs sehen kannst.
Und damit wollte man genau was erreichen? GTX 580 + 5%? Man MUSSTE da noch etwas in der Hinterhand gehabt haben, zumindest als Plan. Da du selbst sagst, dass es GK100 nie gab, wollte man tatsächlich GK110 in H1 2012 in den Desktopmarkt bringen??? Nachdem man mit Fermi so auf die Schnauze gefallen ist?
AnarchX
2013-08-22, 12:34:05
Die Karte hieß eben auch nur GTX 670 Ti. Mit dem Dual-GK104 hätte man dann eben die Enthusiasten bedient und wohl das Mikroruckler-Problem von AMD etwas deutlicher publiziert.
Immernoch eine bessere Lösung als ein GK104-Tapeout erst nach GK110 im H2 2012.
Skysnake
2013-08-22, 12:36:49
War GK104 ursprünglich nicht für 279-299$ geplant?
Nvidia hat doch damals AMD bei GCN überschätzt, die 7970 hat gegenüber den Vorgänger keinen großen Sprung gemacht.
Das ganze hat man ebenfalls ausgenutzt und war mit GK104 dann gegenüber GF110 ca. 35% schneller.
Nur weil AMD so kleine Schritte mit GCN gemacht hat kostet heute der GK110 soviel Geld.
...
AMD ist nicht daran Schuld sondern die Leute, die so blöd sind die überzogenen Preise von nVidia zu bezahlen. Würde der Krempel in den Regalen verschimmeln wären die Preise auch schneller gefallen als man schauen hät können...
Bedank dich beim nVidia Marketing und den hirnlosen Zombis, die dem hinterherrennen...
Und damit wollte man genau was erreichen? GTX 580 + 5%? Man MUSSTE da noch etwas in der Hinterhand gehabt haben, zumindest als Plan. Da du selbst sagst, dass es GK100 nie gab, wollte man tatsächlich GK110 in H1 2012 in den Desktopmarkt bringen??? Nachdem man mit Fermi so auf die Schnauze gefallen ist?
Er wäre gekommen, wenn er gekommen wäre. nVidia hatte da halt einfach die A.-Karte.
boxleitnerb
2013-08-22, 12:37:13
Die Karte hieß eben auch nur GTX 670 Ti. Mit dem Dual-GK104 hätte man dann eben die Enthusiasten bedient und wohl das Mikroruckler-Problem von AMD etwas deutlicher publiziert.
Immernoch eine bessere Lösung als ein GK104-Tapeout erst nach GK110 im H2 2012.
Das wäre gegangen, ja. Toll hätte ich es nicht gefunden - den X2-Mist statt Highend hab ich schon AMD damals mit der 3870X2 übelgenommen. Ich nutze zwar sowieso AFR, aber das jedem Highendkäufer aufzudrücken halte ich für nicht sinnvoll.
...
AMD ist nicht daran Schuld sondern die Leute, die so blöd sind die überzogenen Preise von nVidia zu bezahlen. Würde der Krempel in den Regalen verschimmeln wären die Preise auch schneller gefallen als man schauen hät können...
Bedank dich beim nVidia Marketing und den hirnlosen Zombis, die dem hinterherrennen...
Geschichtsstunde:
Es war AMD, die die Preise um locker-flockige 50% ggü. ihrem Vorgängerprodukt erhöht haben (6970 -> 7970). Nvidia hatte bei GTX 680-Launch das bessere Preisleistungsverhältnis. Die Käufer der 7970 sind also auch hirnlose Zombies...AMD hat es versucht mit den hohen Preisen und ist damit auf die Schnauze gefallen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.