Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Der Release-Fahrplan zu den 14/16nm-Grafikchips von AMD & nVidia
Leonidas
2016-04-18, 16:32:41
Link zur News:
http://www.3dcenter.org/news/der-release-fahrplan-zu-den-1416nm-grafikchips-von-amd-nvidia
Complicated
2016-04-18, 17:02:27
Ich fände es sehr interessant der Tabelle auch den spekulierten Preispunkt hinzuzufügen. :)
Ich fände es sehr interessant der Tabelle auch den spekulierten Preispunkt hinzuzufügen. :)
ich denke die Tabelle ist kompletter Quark. Wir werden wie mittlerweile üblich offizielle Ankündigungen der konkreten Produkte zu den kommenden Events bekommen und mit der tatsächlichen Verfügbarkeit einige Wochen später dann auch wirkliche Preise.
Dabei werden sich die Hersteller noch beäugen und jeweils letzte Korrekturen über Preis oder Bios-Anpassungen für den nächsten Launch nachlegen... verlässliche Infos sind auf beiden Lagern nicht veröffentlicht oder geleakt, schon alleine weil man die Performance nicht kennt und damit keine Proukteklassen einordnen kann.
Elite_Warrior
2016-04-18, 17:51:02
Irgendwie geht mir Polaris 10 nicht auf. Sollte sich Leistungsmäßig in Hawaii Regionen bewegen aber nur 256bit GDDR5 Speicher. Selbst mit DDC und mehr Takt sollte das Ergebnis etwas besser als Tonga sein, für ein Hawaii noch immer zu wenig meiner Meinung. Könnte es sein dass man eventuell schon einen GDDR5X Controller drinn hat und man, wie die Gerüchte oft angaben, anfangs als Salvage mit normalen GDDR5 ausliefert?
Es würde mich doch sehr wundern, wenn man wirklich einen GP107 aufgelegt hat. Ich kann mir gut vorstellen, dass man diesen Markt mit GP106 salvage bedient und sich Kosten für Maske etc. spart. Die kommenden APUs rücken auch immer näher an dieses Segment heran. Ob man da noch fette Umsätze erwarten kann? :confused:
Complicated
2016-04-18, 18:54:18
Ähnliches gilt aber auch für GP104 mir 256-bit GDDR5X-SI.
Mit 12Gb/s kommt man auf 384 GB/s an Bandbreite.
Die GTX 980 Ti hat 336 GB/s Bandbreite.
Also sollte man GP 104 nicht zu weit über der GTX 980 Ti erwarten im größten Ausbau. Vielleicht 20% wenn man es mit der GTX 980 Ti OC (393 GB/s) hier vergleicht
(http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35470-nvidia-legt-nach-geforce-gtx-980-ti-im-test.html?start=27)
Die R9 Fury X hat 512 GB/s und steht hier im 3D-Center 4K-Performance-Index (http://www.3dcenter.org/news/schneller-4k-performance-ueberblick-der-28nm-grafikkarten) gleichauf mit der GTX 980 Ti. Die Fury X mit HBM gibt es mittlerweile für 600,- €, die GTX 980 Ti mit GDDR5 für 650,- €. Und darunter gibt es eine weitere Fury für ca. 430,- € mit HBM. Wo sollte da ein GP104 Vollausbau preislich ansetzen ohne HBM?
Vega10 kommt mit HBM2 wenige Monate später (angenommen Leonidas Termine treffen zu) und soll die selbe Shaderzahl mitbringen wie Fiji und auch einen Boost von 10-15% über Verbesserungen erhalten - das entspräche GP104 ungefähr.
Für Polaris 10 deuten die Zeichen in jedem Fall auf GDDRX5 (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Vega-Details-Shader-Ellesmere-Baffin-Greenland-1190310/), was in soweit in jedem Fall zutreffen sollte wenn GP104 ebenfalls GDDRX5 verwendet, da beide zeitgleich releasen werden. Es gibt keinen Grund anzunehmen, dass AMD oder Nvidia hier früher Zugriff auf den Speicher haben werden als der andere.
Also wird Polaris 10 in jedem Fall mit GDDR5X gegen einen GP104 mit GDDR5X antreten (Damit meine ich beim Release-Termin, nicht die Performance). Oder beide mit GDDR5. Für Polaris wäre dies weniger ein Problem, als für GP104 wenn nur noch 224 GB/s Speicherbandbreite zur Verfügung stünden. Es sollte klar sein, dass GDDR5X bei GP104 zum Einsatz kommen muss, somit aber auch Polaris 10 diesen nutzen wird bei fast zeitgleichem Release. Damit ist es aber kein Problem mehr Hawaii Performance zu erreichen (wenn es die Leistung hergibt natürlich)
Limit
2016-04-18, 23:06:26
Irgendwie geht mir Polaris 10 nicht auf. Sollte sich Leistungsmäßig in Hawaii Regionen bewegen aber nur 256bit GDDR5 Speicher. Selbst mit DDC und mehr Takt sollte das Ergebnis etwas besser als Tonga sein, für ein Hawaii noch immer zu wenig meiner Meinung.
Ich denke, dass die Speichereffizienz einer der Punkte sein dürfte, den AMD nachgebessert hat. Wieviel man aus einem 256-Bit GDDR5 SI herausquetschen kann hat die GTX980 gezeigt. Bei UHD könnte Hawaii zwar evtl. im Vorteil sein, allerdings ist das sicherlich nicht der anvisierte Einsatzzweck für eine Performance-Karte.
Könnte es sein dass man eventuell schon einen GDDR5X Controller drinn hat und man, wie die Gerüchte oft angaben, anfangs als Salvage mit normalen GDDR5 ausliefert?
Da ein GDDR5X Controller abwärtskompatibel ist, würde nichts dagegen sprechen. Zumal das bei einem neuen Chip keinen großen Aufwand darstellen sollte. Ob man P10 Karte mit GDDR5X austatten wird ist mMn eher fraglich, da die Rohleistung keine höhere Bandbreite erforderlich macht. Im Falle eines späteren Rebrandings (mit deutlich gesteigerten Taktraten) kann man ja dann immernoch darauf zurückgreifen.
Ähnliches gilt aber auch für GP104 mir 256-bit GDDR5X-SI.
Mit 12Gb/s kommt man auf 384 GB/s an Bandbreite.
Die GTX 980 Ti hat 336 GB/s Bandbreite.
Also sollte man GP 104 nicht zu weit über der GTX 980 Ti erwarten im größten Ausbau. Vielleicht 20%
Das hängt stark davon ab wie sehr die 980Ti ihr SI ausgereizt hat. Aber 20% Vorsprung gegenüber der 980Ti wäre sowieso schon vollkommen ausreichend.
Also wird Polaris 10 in jedem Fall mit GDDR5X gegen einen GP104 mit GDDR5X antreten (Damit meine ich beim Release-Termin, nicht die Performance). Oder beide mit GDDR5. Für Polaris wäre dies weniger ein Problem, als für GP104 wenn nur noch 224 GB/s Speicherbandbreite zur Verfügung stünden.
Ich denke, dass P10 mit GDDR5 startet und nVidia vermutlich auch. Allerdings erwarte ich später GP104 auch mit GDDR5X, P10 hingegen nicht.
Es sollte klar sein, dass GDDR5X bei GP104 zum Einsatz kommen muss, somit aber auch Polaris 10 diesen nutzen wird bei fast zeitgleichem Release. Damit ist es aber kein Problem mehr Hawaii Performance zu erreichen (wenn es die Leistung hergibt natürlich)
Dem würde ich zustimmen, wenn P10 und GP104 direkte Konkurrenten wären. Da sie das aber wohl nicht sein werden, sind unterschiedliche Speicherbestückungen durchaus möglich, wenn nicht sogar wahrscheinlich.
Complicated
2016-04-18, 23:30:01
Warum sollte AMD bei P10 GDDR5 anstatt GDDR5X nutzen wenn beides verfügbar ist?
Tonga war schon limitiert mit 1.792 Shadern durch das 256-SI und P10 soll mit 2.560 verbesserten Shadern, mehr Takt und dem selben SI deutlich mehr Leistung bringen? Bei allen zusätzlichen Kompressionstechniken, halte ich das nicht für wahrscheinlich, bzw. passend von den Daten her.
Auch wenn P10 und GP104 in unterschiedlichen Leistungsklassen agieren, so haben sie dennoch das selbe Problem mit einem 256-Bit Interface: keiner von beiden kann die erwartete höhere Leistung ohne GDDR5X sozusagen "auf die Strasse" bringen verglichen mit ihren Vorgängern mit einem 256-bit SI und GDDR5.
Prinzipiell möglich, da GDDR5X Controller wohl abwärtskompatibel ist. Allerdings hat man bisher mit Bezug auf AMD nichts von GDDR5X gehört.
Doch hat man. Der Link war in meinem Beitrag.
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Vega-Details-Shader-Ellesmere-Baffin-Greenland-1190310/
Der Quellcode deutet zudem an, dass Polaris 11 vier 32-Bit-Speichercontroller und Polaris 10 acht besitzen werde. Das entspräche 128 und 256 Bit. Da eine Tabelle die Speichercontroller-IP bis hin zu Tonga (GDDR5) als "8.0" und bei Fiji (HBM) als "8.5" angibt, liegt die Vermutung nahe, dass die Polaris-Architektur mit "8.1" einen weiterentwickelten GDDR5-Controller hat - GDDR5X lässt grüßen?
Das hängt stark davon ab wie sehr die 980Ti ihr SI ausgereizt hat.Daher der Link zu dem Test der zeigt was Speicherübertaktung bei der GTX 980 Ti bewirkt in meinem Beitrag: http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35470-nvidia-legt-nach-geforce-gtx-980-ti-im-test.html?start=27
Den Takt des Speichers konnten wir von 1.750 auf 2.050 MHz erhöhen, was einer Steigerung von 17 Prozent entspricht. Damit erhöhte sich die Speicherbandbreite von 336,6 auf 393,6 GB pro Sekunde.Die Performance-Skalierung war quasi 1:1 in allen Tests.
Ich denke, dass P10 mit GDDR5 startet und nVidia vermutlich auch. Allerdings erwarte ich später GP104 auch mit GDDR5X, P10 hingegen nicht.GDDR5 würde den GP104 limitieren am SI mit 224 GB/s, also nicht schneller sein als eine GTX 980, was ich für sehr unwahrscheinlich halte. Dem P10 könnte es genügen, doch ich glaube AMD wird mit dem P10 die GTX 970 und GTX 980 angreifen, also etwas darüber performen und mit GDDR5X deutlich bessere Verkaufsargumente haben.
von Richthofen
2016-04-19, 01:20:27
@Complicated
Bei dir klingt es als wäre die Performancesteigerung im OC-Test von Hardwareluxx rein durch die Speicherübertaktung entstanden. Richtig aber ist: Es wurde die Steigerung durch OC von Chip und Speicher erreicht.
Complicated
2016-04-19, 07:22:08
Nein so klingt das bei mir nicht, denn ich habe das nicht geschrieben. Das ist eine Interpretation von dir. Es geht nicht darum woher die Leistungssteigerung kommt, sondern welche Bandbreite benötigt wird um das mehr an Leistung umzusetzen. Die Performance Steigerung entsprach exakt der Steigerung der Bandbreite.
Limit
2016-04-19, 09:25:39
Warum sollte AMD bei P10 GDDR5 anstatt GDDR5X nutzen wenn beides verfügbar ist?
Das ist eben die Frage. Wird GDDR5X für einen Juli-Start ausreichend zur Verfügung stehen und falls ja zu welchem Preis? Meine Einschätzung ist, dass es bis dahin nur sehr geringe Mengen verfügbar sein wird und auch etwas teurer sein wird. Außerdem scheint mir P10 genau so dimensioniert zu sein, dass ein 256-Bit GDDR5 SI ausreicht.
Tonga war schon limitiert mit 1.792 Shadern durch das 256-SI und P10 soll mit 2.560 verbesserten Shadern, mehr Takt und dem selben SI deutlich mehr Leistung bringen?
Tonga hatte ein 384-Bit SI und trotzdem entschied sich AMD es nicht zu nutzen. Hätten sie mit dessen Freischaltung deutlich mehr Leistung erreichen können, hätten sie das sicherlich zumindest für die 380X auch getan. Außerdem hat die GTX980 gezeigt, dass 256-Bit SI für eine Leistung auf Höhe von Hawaii ausreicht und warum sollte AMD alles verbessern nur das SI nicht?
Auch wenn P10 und GP104 in unterschiedlichen Leistungsklassen agieren, so haben sie dennoch das selbe Problem mit einem 256-Bit Interface: keiner von beiden kann die erwartete höhere Leistung ohne GDDR5X sozusagen "auf die Strasse" bringen verglichen mit ihren Vorgängern mit einem 256-bit SI und GDDR5.
P10 zielt auf eine Performance im Bereich GTX 980. Diese hat ein 256-Bit GDDR5 SI. Warum sollte also P10 mehr brauchen? Mag sein, dass man bei UHD-Auflösungen mit GDDR5X noch ein paar wenige Prozent mehr aus dem Chip rauskitzeln könnte, aber da das sicherlich nicht der geplante Einsatzbereich für eine Performancekarte ist dürfte das eine willkommene Möglichkeit der Abgrenzung gegenüber den größeren Chips sein.
Bei GP104 sieht das anders aus. Sie zielt als neue High-End Karte auf den Bereich 980Ti und darüber ab. Da wird man zumindest für die große Variante die zusätzliche Bandbreite benötigen.
Doch hat man. Der Link war in meinem Beitrag.Das ist nur ein Indiz darauf, dass der Controller mit GDDR5X umgehen kann, was ich sowieso vermutet hätte. Da AMD aber wohl nur einen einzigen GDDR5(X) Controller für alle GPU/APUs dieser Generation entwickelt hat, heißt das noch lange nicht, dass man P10 auch mit GDDR5X austattet. Ich halte da die Konsolen-APUs und mögliche Refresh-Chips nächstes Jahr für die wahrscheinlicheren Kandidaten.
Daher der Link zu dem Test der zeigt was Speicherübertaktung bei der GTX 980 Ti bewirkt
Deine These steht auf sehr wackligen Beinen. Wenn ich Chiptakt und Speichertakt um etwa den gleichen Prozentsatz erhöhe und dabei dann eine Leistungsteigerung in vergleichbarer Höhe herauskommt ist es äußerst fragwürdig daraus eine Limitierung durch den Speicher herauszulesen. Vielleicht könnte ein Forumuser mit einer 980Ti mal testen, wie sich die Karte bei einer reinen Speicher- bzw. Chipübertaktung verhält.
Bei GDDR5 würde den GP104 limitieren am SI mit 224 GB/s, also nicht schneller sein als eine GTX 980, was ich für sehr unwahrscheinlich halte.[…]
Prinizpiell richtig, allerdings gibt es ja noch die Option einfach höher getakteten GDDR5-Speicher zu nehmen zumal ich für den Vollausbau von GP104 ja sowieso auch von GDDR5X ausgehe, z.B. wäre eine solche Staffelung möglich: 1070 (GP104 beschnitten mit GDDR5 VRAM mit GTX980 Taktraten), 1080 (GP104 mit moderatem Takt und höher getaktetem GDDR5), 1080Ti (GP104 mit hohem Takt und GDDR5X). Damit hätte man eine 1070 auf GTX980 Niveau, eine 1080 im Bereich zwischen 980 und 980Ti und eine 1080Ti über der 980Ti.
Warum man die 1070/1080 noch mit GDDR5 austattet? Weil GDDR5X für einen Juli-Launch noch nicht in ausreichenden Stückzahlen zur Verfügung steht und man AMD nicht solange das Feld überlassen will.
Complicated
2016-04-19, 11:43:25
Das ist nur ein Indiz darauf, dass der Controller mit GDDR5X umgehen kann, was ich sowieso vermutet hätte.
Das reicht doch aus um das zu belegen was ich belegen wollte:
Prinzipiell möglich, da GDDR5X Controller wohl abwärtskompatibel ist. Allerdings hat man bisher mit Bezug auf AMD nichts von GDDR5X gehört. Stimmt halt nicht.
Klar ist das eine oder andere auf wackligen Beinen, doch das sind Spekulationen ja immer ;)
Ich bin überzeugt, dass P10 und GP104 die selbe Speichergattung haben werden. Dass ein Launch mit GDDR5 wegen Zeitdruck nötig wird will ich nicht ausschließen, doch ich glaube die Verfügbarkeit des GDDR5X sorgt für den zeitgleichen Release der beiden GPUs. Daher wurde der Zeitpunkt von beiden so gewählt.
Mit den Bandbreiten hast du natürlich recht. Da wurde ja auch heftig optimiert was den Bedarf angeht.
Zettabit
2016-04-19, 12:27:25
Ich bin überzeugt, dass P10 und GP104 die selbe Speichergattung haben werden.
Warum sollten sie das unbedingt haben? Beide peilen völlig unterschiedliche Leistungsziele an. Maximal könnte es sein, dass eine stark abgespeckte GP104-Variante auf P10-Niveau liegt.
Complicated
2016-04-19, 12:59:02
Weil AMD das im Marketing braucht (immer schon die fortschrittlichere Speicher Technik)
weil das SI kleiner sein darf auf den Chips und je kleiner der Chip, desto teurer das SI im Verhältnis
Also es gibt genug Argumente für P10 GDDR5X zu nutzen unabhängig davon wo GP104 sich positioniert. Aber ich denke, dass vor allem das Marketing darauf bestehen würde wenn es technisch und Kostenmäßig im Rahmen bleibt. Man erhält dann ein Lineup mit GDDR5(P11)->GDDR5X(P10)->HBM (Fiji)->HBM2(Vega10)
Das lässt sich sehr schön in Kategorien unterteilen Low, Mid, Performance, Enthusiast und die jeweilige Zielgruppe bedienen. (Ich meine damit OEM und Retail)
Zettabit
2016-04-19, 13:58:45
Weil AMD das im Marketing braucht (immer schon die fortschrittlichere Speicher Technik)
weil das SI kleiner sein darf auf den Chips und je kleiner der Chip, desto teurer das SI im Verhältnis
Also wieder der völlig AMD-Unfug wie schon bei Fiji, ein viel zu breites Speicherinterface zu verbauen, dass nur viel Geld kostet, aber keine Mehrleistung bringt.
GDDR5X ist viel zu teuer für einen Chip in der Leistungsklasse eines P10. Da reicht auch 256 GDDR5 mit hoher Taktung, siehe GTX980.
Complicated
2016-04-19, 14:36:37
Wieviel teurer ist GDDR5X?
Was schadet das breite Interface bei Fiji? Jedes 1024bit Interface konnte einen Stack anbinden und war ungefähr so teuer in Fläche wie in 64bit GDDR5 Interface. Da war gar nichts Unfug, denn 4 Stacks wurden benötigt.
Limit
2016-04-19, 15:46:14
Ich vermute, dass GDDR5X, wenn die Produktion erst einmal richtig läuft, in der Produktion nicht sehr viel teurer sein wird als GDDR5. Allerdings halte ich den Preisunterschied für signifikant genug um nicht aus reinen PR-Gründen auf GDDR5X zu setzen. Daher erwarte ich wie bereits gesagt GDDR5X mit Polaris frühstens bei einem Refresh wenn überhaupt.
Was meine Aussage bzgl. GDDR5X und AMD angeht, beziehe ich mich darauf, dass es bisher keine Gerüchte gibt, die eine tatsächliche Verwendung voraussagen. Im Prinzip ist das ähnlich wie mit den Patenten. Man will sich die Möglichkeit offen halten, falls man es mal braucht (z.B. im für Semi-Custom Bereich), aber wenn man mit GDDR5 auskommt, spart man sich die Mehrkosten.
Zettabit
2016-04-19, 16:05:17
Es schadet ein Interface zu verbauen (das nun mal unterm Strich Geld kostet), das man später nicht auslasten kann.
Polaris10 wird eine Leistung von ungefähr der GTX980 erreichen. Warum sollte man daran ein GDDR5X-Interface klatschen, das auf dem Niveau einer 980Ti liegt? Nur um in der Checkliste einen Haken bei "GDDR5X" machen zu können? Ziemlich teures Marketing.
Ich vermute, dass GDDR5X, wenn die Produktion erst einmal richtig läuft, in der Produktion nicht sehr viel teurer sein wird als GDDR5. Allerdings halte ich den Preisunterschied für signifikant genug um nicht aus reinen PR-Gründen auf GDDR5X zu setzen. Daher erwarte ich wie bereits gesagt GDDR5X mit Polaris frühstens bei einem Refresh wenn überhaupt.
Korrekt, sehe ich genauso. Warum sollte Micron GDDR5X gleich teuer wie GDDR5 verkaufen? Ist für die ein schlechter Deal.
Es schadet noch mehr, an Bandbreite zu verhungern.
AMD hat halt zuletzt immer deutlich mehr Bandbreite gebraucht als Nvidia. Ob daran viel gemacht wurde (Caches z.B.), kann man jetzt absolut noch nicht einschaetzen.
Complicated
2016-04-19, 19:46:36
Es schadet ein Interface zu verbauen (das nun mal unterm Strich Geld kostet), das man später nicht auslasten kann.Das Interface war nötig um 4 GB HBM anzubinden. Das ist nun mal die Speicher Spezifikation. Da hat nichts unnötig Geld gekostet, nur weil auf diesem Interface mehr Bandbreite möglich war als Fiji leisten konnte.
Zettabit
2016-04-19, 19:53:40
Das Interface war nötig um 4 GB HBM anzubinden. Das ist nun mal die Speicher Spezifikation. Da hat nichts unnötig Geld gekostet, nur weil auf diesem Interface mehr Bandbreite möglich war als Fiji leisten konnte.
Ach so, HBM hat also genauso viel gekostet, wie ein für Fiji ausreichender 384bit-GDDR5-Bus? Hätte ich ja gern mal einen Beleg für ;)
Limit
2016-04-19, 19:59:09
Vermutlich nicht, allerdings ging es bei Fury einerseits um das Testen einer neuen Technologie, andererseits hat das SI Energie und Chipfläche eingespart.
Complicated
2016-04-20, 06:58:48
Nein das schrieb ich nicht. Ich schrieb 1024-bit HBM SI kosten so viel Fläche wie 64-bit GDDR5 SI. In dem Fall von Fiji wäre es dann ca. die Größe eines 256-bit SI für GDDR5, was an Diefläche gebraucht wurde für das 4GB HBM 4096-bit SI. Ich sehe darin keine Verschwendung, da mit nur 2 Stacks HBM1 das Produkt sinnlos gewesen wäre.
Also nochmal dieses Bild zum Verständnis:
http://cdn.wccftech.com/wp-content/uploads/2015/11/AMD-Fiji-Tonga-Die-shots-2.jpg
Zettabit
2016-04-20, 08:45:55
In dem Fall von Fiji wäre es dann ca. die Größe eines 256-bit SI für GDDR5, was an Diefläche gebraucht wurde für das 4GB HBM 4096-bit SI.
Na also. Hätte also AMD mit einem Standard-GDDR5-SI genau die gleiche Fiji-Leistung auf die Straße bringen können, ohne viel Geld in HBM zu stecken. Und hätte sogar noch die Karte nicht mit 8 GB verhungern lassen müssen.
Also: Warum sollte AMD mit P10 den gleichen Fehler wiederholen und mit Gewalt GDDR5X verbauen, auch wenn so ein breites SI gar nicht gebraucht wird?
Complicated
2016-04-20, 08:54:49
Zum einen hat Fiji 4 GB und zum anderen hätte AMD ein Interface verbauen müssen das 512 bit hat. Das wäre doppelt so groß gewesen und somit weniger Platz für Shader. Es hätte 50W mehr Leistung benötigt und dies führt zu weniger Takt -also Nein, AMD hätte mit einem GDDR5 SI nicht mal Anstzweise die Performance von Fiji erreichen können: weniger Shader die niedriger getaktet sind kosten mehr Performance als das mehr an Speicher einbringt.
Weder war dies ein Fehler, noch kann der wiederholt werden mit P10, da das SI sowieso schon für GDDR5X ausgelegt ist. Ob da nun GDDR5 oder GDDR5X verbaut wird hängt einzig und alleine von der Verfügbarkeit und dem Preis ab.
Edit: Demnach ist dein Argument über HBM zu Polaris an sich Invalide:
Es schadet ein Interface zu verbauen (das nun mal unterm Strich Geld kostet), das man später nicht auslasten kann.Polaris benutzt das selbe Interface für GDDR5 und für GDDR5X ebenso wie Nvidia.
Na also. Hätte also AMD mit einem Standard-GDDR5-SI genau die gleiche Fiji-Leistung auf die Straße bringen können, ohne viel Geld in HBM zu stecken.
Unsinn. Mit GDDR5 waeren an 256 Bit max. 256 GiB/s drin gewesen, also gerade mal die Haelfte, die der HBM Fiji an Bandbreite liefert. Es ist ja nicht so, dass Fiji Bandbreite im Ueberfluss hat, schon gar nicht mit einem Faktor 2.
Und die Pionierarbeit fuer HBM war sowieso noetig.
Also: Warum sollte AMD mit P10 den gleichen Fehler wiederholen und mit Gewalt GDDR5X verbauen, auch wenn so ein breites SI gar nicht gebraucht wird?
Welchen Fehler jetzt nochmal genau?
5X ist nicht breiter, sondern schneller als 5.
Speichercontroller sind IP die einmal entwickelt und dann vielfach eingesetzt werden. die MCs von P10 wird man also auch noch in weiteren Chips sehen. Vermutlich im direkten Nachfolger (ausser HBM wird so spottbillig) und sobald 5X billiger ist auch in kleineren Chips, vielleicht in custom SoCs.
Du laesst komplett aussen vor, dass 5X nicht nur schneller, sondern auch effizienter arbeitet. Die reellen Taktraten steigen nicht, nur die effektiven. Man braucht also fuer dieselbe Bandbreite ein halb so breites oder halb so hoch taktendes SI, zudem laufen die Chips mit weniger Spannung. Logische Weiterentwicklung von GDDR5 eben.
Wenn AMD so weit ist, dass sie ein Hybrides SI fuer 5/5X haben, kommt das ganz sicher rein. Ob Karten dann auch mit 5X bestueckt werden, ist eine ganz andere Frage.
Es macht einfach keinen Sinn, ein neues GDDR5 SI fuer den neuen Prozess zu entwickeln, wenn man eins fuer 5X schon da hat, das man sowieso noch braucht.
Zettabit
2016-04-20, 09:40:14
Zum einen hat Fiji 4 GB und zum anderen hätte AMD ein Interface verbauen müssen das 512 bit hat.
Tipp: Es gibt etwas zwischen 256 und 512 bit. Vielleicht 384? :freak:
Unsinn. Mit GDDR5 waeren an 256 Bit max. 256 GiB/s drin gewesen, also gerade mal die Haelfte, die der HBM Fiji an Bandbreite liefert. Es ist ja nicht so, dass Fiji Bandbreite im Ueberfluss hat, schon gar nicht mit einem Faktor 2.
Tatsächlich? Kannst du mal kurz einen Beleg liefern dafür, dass Fiji >340GiB/s Speicherbandbreite benötigt?
Und die Pionierarbeit fuer HBM war sowieso noetig.
Sehe ich nicht so. Schafft NVIDIA auch. Und liefert sogar früher HBM2 aus, als AMD.
Welchen Fehler jetzt nochmal genau?
Ein SI zu verbauen, dass für den restlichen Chip völlig oversized ist, wie bei Fiji.
P10 wird ein Chip mit einer Leistung auf ca. GTX980-Niveau. Da hat NVIDIA 265 bit GDDR5-SI ausgereicht. Warum sollte AMD für so eine Leistung jetzt plötzlich GDDR5X nutzen müssen?
GP104 ist ne völlig andere Sache, weil die Leistung oberhalb der 980Ti liegen soll. 384bit GDDR5 ist eben ne andere Sache, da würde 256bit GDDR5X durchaus Sinn ergeben.
Tatsächlich? Kannst du mal kurz einen Beleg liefern dafür, dass Fiji >340GiB/s Speicherbandbreite benötigt?
Nein, such selber nach Skalierungstests was den Speicher betrifft.
Sehe ich nicht so. Schafft NVIDIA auch. Und liefert sogar früher HBM2 aus, als AMD.
Ohne HBM kein HBM2.
Ein SI zu verbauen, dass für den restlichen Chip völlig oversized ist, wie bei Fiji.
Ist es aber nicht, den kompletten unteren Absatz hast du wieder gekonnt ignoriert :rolleyes:
Unter den Voraussetzungen, die ich genannt habe: Welchen Nachteil haette das "oversized" 256 Bit GDDR5X SI denn genau? Kannst du auch nur einen nennen?
P10 wird ein Chip mit einer Leistung auf ca. GTX980-Niveau. Da hat NVIDIA 265 bit GDDR5-SI ausgereicht. Warum sollte AMD für so eine Leistung jetzt plötzlich GDDR5X nutzen müssen?
AMD hat zuletzt immer deutlich mehr Bandbreite gebraucht, als Nvidia. Dafuer ist z.B. weniger Platz fuer groessere Caches draufgegangen. Das ist einfach architektonisch so bedingt. Jetzt kannst du das auch weiterhin ignorieren und auf AMD schimpfen oder du akzeptierst einfach dass eine Nvidia GPU != AMD GPU :rolleyes:
Zettabit
2016-04-20, 10:07:22
Nein, such selber nach Skalierungstests was den Speichertakt betrifft.
Kein Nachweis ist auch ein Nachweis - wenn auch ein negativer ;)
Ohne HBM kein HBM2.
Und trotzdem hat NVIDIA nun ein HBM2-Produkt vor AMD draußen. War Fiji also ein Muss? Offensichtlich nicht.
Ist es aber nicht, den kompletten unteren Absatz hast du wieder gekonnt ignoriert :rolleyes:
Unter den Voraussetzungen, die ich genannt habe: Welchen Nachteil haette das "oversized" 256 Bit GDDR5X SI denn genau? Kannst du auch nur einen nennen?
Ganz einfach: GDDR5X-Chips werden, gerade jetzt zu Beginn, teurer sein als GDDR5. Das hatte ich weiter oben schon geschrieben, lesen würde helfen.
AMD hat zuletzt immer deutlich mehr Bandbreite gebraucht, als Nvidia. Dafuer ist z.B. weniger Platz fuer groessere Caches draufgegangen. Das ist einfach architektonisch so bedingt. Jetzt kannst du das auch weiterhin ignorieren und auf AMD schimpfen oder du akzeptierst einfach dass eine Nvidia GPU != AMD GPU :rolleyes:
Natürlich braucht AMD mehr Bandbreite, wo bestreite ich das? Die Frage ist nur: Warum sollte man bei P10 GDDR5X verwenden, wenn es nicht notwendig ist?
AMD kommt bei der 380X als Beispiel auch mit deutlich weniger als 200 GiB/s aus. Und offensichtlich nicht notwendig, weil da ja angeblich ein 384 bit Interface drin sein soll, wird trotzdem nicht genutzt. Also kann es ja auch nicht sein, dass AMD 2x Bandbreite gegenüber AMD benötigt.
Complicated
2016-04-20, 10:27:13
Kein Nachweis ist auch ein Nachweis - wenn auch ein negativer ;)
http://www.computerbase.de/2015-05/amd-fiji-mit-hbm-hawaii-profitiert-nur-wenig-von-mehr-bandbreite/#diagramm-radeon-r9-290x-speicherperformance-2560-1440
Die Hawaii-GPU könnte auch aus einer doppelt so hohen Speicherbandbreite nur unwesentlich mehr Profit schlagen. Die GPU müsste selbst leistungsfähiger sein – so wie Fiji es sein wird.
Und selbst Hawaii hat noch profitiert von der auf 400GB/s erhöhten Bandbreite, wenn auch wenig.
HBM wird genug Bandbreite bieten, um nicht selbst zum limitierenden Faktor zu werden, sodass die gesteigerte Rechenleistung bei vollständiger GPU-Auslastung linear umgesetzt werden sollte.
Ganz einfach: GDDR5X-Chips werden, gerade jetzt zu Beginn, teurer sein als GDDR5. Das hatte ich weiter oben schon geschrieben, lesen würde helfen.Nein du hast geschrieben, dass das Speicherinterface auf dem P10 unsinnig groß wäre für GDDR5X.
Es schadet ein Interface zu verbauen (das nun mal unterm Strich Geld kostet), das man später nicht auslasten kann.
Polaris10 wird eine Leistung von ungefähr der GTX980 erreichen. Warum sollte man daran ein GDDR5X-Interface klatschen, das auf dem Niveau einer 980Ti
Dem ist nicht so und das hat auch nichts mit dem Preis der GDDR5X Speicher zu tun.
Zettabit
2016-04-20, 10:34:07
du bist so ein laecherlicher Troll
Herrje, du bist echt ein schlechter Verlierer, wenn deine Argumentation von vorne bis hinten zerlegt wird :rolleyes:
Und selbst Hawaii hat noch profitiert von der auf 400GB/s erhöhten Bandbreite, wenn auch wenig.
Kurz, wie von mir schon geschrieben: Das Fiji-SI ist viel zu groß für die Leistung.
Nein du hast geschrieben, dass das Speicherinterface auf dem P10 unsinnig groß wäre für GDDR5X.
Nö. Lies es nochmal. Ich widerspreche dir, dass P10 genauso wie GP104 GDDR5X erhalten muss. So wie auch Limit.
Dem ist nicht so und das hat auch nichts mit dem Preis der GDDR5X Speicher zu tun.
Was ist wem nicht so? Dass GDDR5 völlig ausreichend ist für P10-Leistung? Quatsch, natürlich ist es das.
Der Test bringt wenig, weil er in die falsche Richtung geht.
CB hat damals verstaendlicherweise auch viel Kritik eingesteckt.
Man muesste den Speicher runtertakten oder die GPU uebertakten und den Speicher lassen, dann verschiebt sich das Verhaeltnis in die richtige Richtung fuer so einen Test.
@Zettabit: Gut, ich sehe ein, dass ich hier der "Verlierer" bin. Ich kann es dir nicht schonend genug beibringen, sodass du auf ordentlichem Niveau mitdiskutieren kannst. Das gestehe ich mir ein, Vorwuerfe mache ich mir aber nicht, ich bin ja auch kein Grundschullehrer. Aber amuesant ist es schon immer in den Foren wo du auftauchst, das muss man dir lassen :up:
BlacKi
2016-04-20, 10:38:15
Es schadet noch mehr, an Bandbreite zu verhungern.
AMD hat halt zuletzt immer deutlich mehr Bandbreite gebraucht als Nvidia. Ob daran viel gemacht wurde (Caches z.B.), kann man jetzt absolut noch nicht einschaetzen.
amd hatte bisher immer mehr bandbreite in ihrer leistungsklasse als nvidia, aber letztendlich muss amd sich fragen ob es preislich sinnvoller ist einen aufpreis für gddrx zu zahlen. ich glaube eine 980 verhungert eher am ram als eine 390. wenn man den takt um 50% bei beiden karte zurücknehmen würde, dann würde die 980 mehr leistung verlieren.
Complicated
2016-04-20, 10:39:07
Sicherlich ist der Test an sich wenig aussagekräftig. Doch es zeigt, dass Hawaii ein gut balanciertes Produkt war, das so viele Shader verbaut hatte, wie mit einem 512-bit SI und GDDR5 nicht limitiert wird - das zeigt die Speicherübertaktung mit etwas Zugewinn an Leistung. Fiji mit der deutlichen Mehrleistung braucht einfach mehr. Das ging aber nicht mit GDDR5.
Botcruscher
2016-04-20, 15:48:26
Fiji wäre mit dem 512er SI und der überarbeiteten Kompression ganz sicher hingekommen.
Keine Ahnung warum unbedingt der HBM Testchip raus musste.
Complicated
2016-04-20, 17:31:05
Zum Zeitpunkt der Designentscheidung war dies sicherlich nicht abzusehen. Ich bin sicher AMD hätte gerne mehr raus geholt, doch 28nm Fiji war wohl nur ein Notnagel für den ersten Interposerchip. Die Interposer-Fertigungs-Linie musste aber dennoch eingefahren werden, da die Partner (UMC, SKHynix, Amkor) an Board ebenfalls investiert hatten und sicherlich vertragliche Verpflichtungen bestanden.
Von daher zäumt man eigentlich das Pferd von hinten auf und es ist müßig darüber zu diskutieren ob AMD hier eine Fehlentscheidung getroffen hat mit HBM anstatt GDDR5. HBM war die Vorgabe für den Interposer und Fiji war das schnellst was zu diesem Zeitpunkt auf den Interposer gebracht werden konnte.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.