Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Neue AMD-Roadmap bezeichnet "Vega" als HighEnd-Architektur
Leonidas
2016-07-13, 17:22:26
Link zur News:
http://www.3dcenter.org/news/neue-amd-roadmap-bezeichnet-vega-als-highend-architektur
In dem referenzierten Marketing-Event bestätigt aber der AMD Mitarbeiter nochmals, dass die Polaris Architektur clock-per-clock 15% mehr Leistung in den CUs hat als GCN3. Das sind natürlich bei Architekturen synthetische Werte, keine aktuellen Spielebenchmarks.
Das ist nicht wenig und man sollte Polaris nicht auf einen GCN3 Die-Shrink reduzieren. Gut möglich, dass wir das Potential von GCN4 erst noch mit Treiber-Updates oder aber erst bei intensiverem Einsatz von Async-Compute erleben.
Im Gegensatz dazu würde ich von Vega keine grösseren Architektursprünge bei den einzelnen CUs gegenüber GCN4 erwarten, sondern eher in einem Layout das höhere Taktraten zulässt, wesentlich mehr CUs aufweist und eben von HBM2 profitiert.
MadManniMan
2016-07-13, 18:23:11
Die fehlende Achsenbeschriftung kann natürlich alles bedeuten, aber AMD impliziert schon eine gewisse Effizienzsteigerung, right?
Die fehlende Achsenbeschriftung kann natürlich alles bedeuten, aber AMD impliziert schon eine gewisse Effizienzsteigerung, right?
Genau so ist es. Von Polaris zu Vega ist es nur etwa halb so viel Perf/Watt Zugewinn wie von den 28nm Architekturen zu Polaris.
Das könnte auf 7% synthetische Mehrleistung gegenüber Polaris hinauslaufen.
Jetzt bleibt noch die Frage ob das nur der HBM2 gegenüber DDR5 ist, oder auch etwas in en CUs direkt gemeint ist.
anddill
2016-07-13, 19:51:36
Einfach mal Erfahrung interpoliert würde ich sagen daß das nur der Gewinn durch HBM ist.
Nightspider
2016-07-13, 20:02:58
Einfach mal Erfahrung interpoliert würde ich sagen daß das nur der Gewinn durch HBM ist.
Für so einen Sprung reicht HBM alleine keinesfalls.
Kulasko
2016-07-13, 20:07:29
Von Vega erwarte ich ebenfalls keine großen Sprünge, was die Architektur angeht.
Wenn man die ganzen Präsentationen von AMD durchgeht, bekommt man auch den Eindruck, dass der Effizienzfortschritt von Polaris gegenüber GCN3 auf 14nm fast ausschließlich Implementierungsbedingt ist und weniger Architekturbedingt. (AVFS ect)
Ist es nicht möglich, die Architektur a la Maxwell anzupassen? Mit dem Sprung, den Nvidia von Kepler auf Maxwell hatte, sähe Polaris/Vega wirklich nicht schlecht aus.
naja, wenn man den Polaris-Besitzern glauben darf ist ein RAM Speedup immer auch mit Mehrleistung verbunden. Vielleicht hat man den Polaris im Speicher limmitiert um damit den Preispunkt und die Einordnung Full-HD 60fps hinzubekommen.
Dann könnte Vega allein durch HBM2 sehr viel mehr Leistung bringen. Ansonsten wie oben bereits erwähnt, es sind es bei Polaris synthetisch 15%. Das darf man Top-Managern von börsennotierten Unternehmen dann schon so glauben.
Aber solange von GCN in DX11 Tests die Leistung nicht rüber kommt wird eine GCN-typische Mehrleistung auch nicht messbar. Man muss eben auf angepasste Software hoffen/warten.
Die Optimierungen schienen ohnehin mehr in Compute zu gehen als in Render-Durchsatz - die ROPs sind zu wenig. Man wollte ja nur FullHD für diesen Polaris 10, der Rest soll für Audio, Physik und aufwändige Shader-Ops verwendet werden....
Virtual
2016-07-13, 21:05:39
Eventuell, und darauf setze ich, ist die Implementierung der GCN(5) Architektur optimiert worden. Das will heißen, wir sehen höhere Taktraten ohne höhere Leistungsaufnahme, ganz so, wie es NVidia mit Maxwell und Pascal gemacht hat. Verbesserungen an der GCN-Architektur zur Performance-Steigerung sind nicht unbedingt erforderlich, denn taktnormiert sind die Pascals gar nicht sooo viel besser.
Edit: Typo
Elkinator
2016-07-13, 22:24:44
Polaris war das Rohrfrei für Vega.
Bei Vega werden die Erfahrungen die man mit 14LPP gesammelt hat dann umgesetzt.
Der Prozess ist bis dahin auch etwas weiter optimiert.
Polaris war das Rohrfrei für Vega.
Bei Vega werden die Erfahrungen die man mit 14LPP gesammelt hat dann umgesetzt.
Der Prozess ist bis dahin auch etwas weiter optimiert.
Ich dachte die Spekulationen gingen hin zu TSMC?
Wenn ich mich richtig erinnere waren die Behauptungen von AMD zum Faktor 2.8 Perf/Watt bei RX470 gegenüber R370 mit Faktor 1.7 für den Shrink und der Rest (nochmal 1.6) Architektur- und Hardwareverbesserungen, d.h. Compute Units, neuer Hardware-Sheduler, und Cache, ggf. RAM und Spannungswandler....
die Hardware-Sheduler sollen ja eigenen Microcode laden können, nur wer soll den programmieren?
Die wahre Performance wird man vielleicht erst in ein paar Jahren sehen wenn wirklich die neuen Consolen-Chips die gleichen Features haben und wohlmöglich bei der Portierung auf PC-Games nicht mehr verloren gehen ;)
Virtual
2016-07-13, 23:36:26
Ich dachte die Spekulationen gingen hin zu TSMC?
Wenn ich mich richtig erinnere waren die Behauptungen von AMD zum Faktor 2.8 Perf/Watt bei RX470 gegenüber R370 mit Faktor 1.7 für den Shrink und der Rest (nochmal 1.6) Architektur- und Hardwareverbesserungen, d.h. Compute Units, neuer Hardware-Sheduler, und Cache, ggf. RAM und Spannungswandler....
die Hardware-Sheduler sollen ja eigenen Microcode laden können, nur wer soll den programmieren?
Die wahre Performance wird man vielleicht erst in ein paar Jahren sehen wenn wirklich die neuen Consolen-Chips die gleichen Features haben und wohlmöglich bei der Portierung auf PC-Games nicht mehr verloren gehen ;)"... (nochmal 1.6) ..." sind das Ergebnis einer Verbesserung, die sich Power Gateing nennt. D.h. bei Teillast wird Polaris 11 auf Notebooks nochmals gut effizienter sein. Nur gilt das nicht für Polaris 10 auf dem Desktop. Warum auch, denn hier wir quasi immer Volllast gefahren.
Edit: Typo
Elkinator
2016-07-13, 23:54:07
Ich dachte die Spekulationen gingen hin zu TSMC?
Das hat nie wirklich Sinn ergeben.
Warum AMD das machen sollte wurde auch nie begründet.
Bei GF hat AMD eine ganze FAB fast für sich, bei TSMC muß man sich mit Apple um Kapazitäten prügeln.
GF ist für AMD sicher auch günstiger als TSMC.
Zero-11
2016-07-14, 07:31:56
Nachdem Polaris mit seiner GCN4-Architektur eher nur als erster Versuch AMDs innerhalb der 14/16nm-Generation angesehen werden kann (grob gesehen GCN3 auf 14nm umgesetzt), besteht die Hoffnung, das AMD mit der Vega-Generation dann wirklich einmal mehr aus der GCN-Architektur herausholt kann als bisher gezeigt – sprich eine fünfte Ausführung der GCN-Architektur auflegt ("GCN5").
Wird nicht passieren, diese Hoffnung war auch schon bei der 300er Serie und den Furies da.
Vega muss mit 16nm mehr Takt erreichen.
Nightspider
2016-07-14, 07:42:06
Das hat nie wirklich Sinn ergeben.
Warum AMD das machen sollte wurde auch nie begründet.
Bei GF hat AMD eine ganze FAB fast für sich, bei TSMC muß man sich mit Apple um Kapazitäten prügeln.
GF ist für AMD sicher auch günstiger als TSMC.
Klar ergibt das Sinn wenn TSMCs Prozess besser ist.
Was soll AMD da begründen? Soll AMD etwa seinen Partner schlechtreden und öffentlich sagen das deren Prozess im Gegensatz zu TSMC scheiße ist? :ugly:
Wobei wir allerdings auch nicht wissen wie groß der Unterschied zwischen TSMCs 16FF und GloFo's 14nm Prozess ist.
Zudem braucht AMD keine riesigen Kapazitäten für einen HighEnd Chip. Die Masse kauft 200-300 € Karten und diese produziert AMD bei GloFo.
Deswegen dürfte das für AMD bedeuten, das sie keine Engpässe bei der Kapazität bei TSMC bekommen werden, vor allem da Vega sowieso erst Ende des Jahres kommt und TSMCs Kapazitäten sich bis dahin noch etwas verbessern werden.
Damit würde AMD zwei Fliegen mit einer Klappe schlagen:
-günstig in Masse bei GloFo produzieren
-genug Kapazitäten und hohe Qualität bei TSMC (für das Prestige-Objekt)
Falls TSMCs Prozess wirklich merklich besser sein sollte, wird AMD damit noch in besserem Licht stehen.
Und ja: Ich schätze auch das HBM2 einiges an Leistung entfesseln können wird, sofern man nicht die Sparvariante mit nur 512GB/s und 2 Stacks wählt. Bei Polaris bringt mehr Speicherbandbreite viel. Mit 512GB/s hätte Vega nur genauso viel Bandbreite pro Shadercluster wie Polaris. 1024GB/s dürfte alleine schon locker bis zu 20% in einigen Spielen herausholen.
1024GB/s + DX12 + Asyncronous Compute + 4096 CUs und die GTX1080ti wird Angst kriegen.
Elkinator
2016-07-14, 07:49:27
Klar ergibt das Sinn wenn TSMCs Prozess besser ist.
Wenn, wofür es keine Anzeichen gibt...
Was soll AMD da begründen?
Wo hab ich das behauptet?
Soll AMD etwa seinen Partner schlechtreden und öffentlich sagen das deren Prozess im Gegensatz zu TSMC scheiße ist? :ugly:
Kein Bezug zu meinem Posting...
Zudem braucht AMD keine riesigen Kapazitäten für einen HighEnd Chip.
Die Konsolen hast du vergessen?
Die werden auch von GF/Samsung kommen, weil es keinen Sinn ergibt GCN4 nochmal für 16FF+ umzufrickeln!
Die Masse kauft 200-300 € Karten und diese produziert AMD bei GloFo.
Und warum soll GF keine größeren GPUs fertigen?
Deswegen dürfte das für AMD bedeuten, das sie keine Engpässe bei der Kapazität bei TSMC bekommen werden, vor allem da Vega sowieso erst Ende des Jahres kommt und TSMCs Kapazitäten sich bis dahin noch etwas verbessern werden.
Doch, TSMC ist ausgebucht...
Damit würde AMD zwei Fliegen mit einer Klappe schlagen:
-günstig in Masse bei GloFo produzieren
-genug Kapazitäten und hohe Qualität bei TSMC (für das Prestige-Objekt)
Gibt es dafür eine Begründung?
Falls TSMCs Prozess wirklich merklich besser sein sollte, wird AMD damit noch in besserem Licht stehen.
Aktuell schaut es aber anders aus...
Nightspider
2016-07-14, 07:56:26
Die Konsolen hast du vergessen?
Die werden auch von GF/Samsung kommen, weil es keinen Sinn ergibt GCN4 nochmal für 16FF+ umzufrickeln!
Was haben Konsolenchips mit einem HighEnd Grafikchip zu tun? Nix, bis auf die Größe.
Vega kommt auf einem Interposer mit HBM2 und muss sehr hohe Taktraten fahren bei bestmöglicher Effizienz.
Eine so teure Fertigung können sich Sony und MS gar nicht leisten. Interposer und HBM2 wäre aktuell noch viel zu teuer für die Konsolen und bei Konsolen kommt es nicht darauf an die höchsten Taktraten zu erreichen.
Dort wird eher sparsam getaktet um den Stromverbrauch in Grenzen zu halten. Schau dir mal die lächerlichen Taktraten der PS4 an.
Und warum soll GF keine größeren GPUs fertigen?
Es geht doch nicht um die Größe sondern darum hohe Taktraten zu erreichen und TSMCs Prozess scheint bei hohen Taktraten effizienter zu sein, was den Stromverbrauch angeht.
Doch, TSMC ist ausgebucht...
Und du stellst jetzt einfach mal die Behauptung in den Raum das AMD davon keinen Anteil gebucht hat?
Gibt es dafür eine Begründung?
Logisches Denken. Trifft natürlich nur zu wenn, wie oben geschrieben, TSMCs Prozess besser ist.
Aktuell schaut es aber anders aus...
Sagt wer?
Elkinator
2016-07-14, 08:08:09
Was haben Konsolenchips mit einem HighEnd Grafikchip zu tun?
Hab ich erklärt...
Nix, bis auf die Größe.
Unsinn...
Vega kommt auf einem Interposer mit HBM2 und muss sehr hohe Taktraten fahren bei bestmöglicher Effizienz.
Warum muß Vega sehr hoch takten?
Warum soltle das ein Argument für TSMC sein?
Eine so teure Fertigung können sich Sony und MS gar nicht leisten.
Was teuer?
Ich hab keine Ahnung auf was du dich da beziehst.
Interposer und HBM2 wäre aktuell noch viel zu teuer für die Konsolen
Weis ich doch, ich rechne auch mit keinem Interposer-Package für eine Konsole!
und bei Konsolen kommt es nicht darauf an die höchsten Taktraten zu erreichen.
Warum erzählst du mir das jetzt?
Ich hab das doch eh nicht behauptet...
Die Konsolen-SOCs werden bei Samsung gefertigt, weil man für 14LPP schon alles fertig hat.
16FF+ würde nur unnötige Kosten verursachen, es ergibt einfach keinen Sinn neben 14LPP auch noch 16FF+ zu nutzen!
Dort wird eher sparsam getaktet um den Stromverbrauch in Grenzen zu halten. Schau dir mal die lächerlichen Taktraten der PS4 an.
Ich kenne die Specs beider Konsolen.
Es geht doch nicht um die Größe sondern darum hohe Taktraten zu erreichen
Warum?
und TSMCs Prozess scheint bei hohen Taktraten effizienter zu sein, was den Stromverbrauch angeht.
Wie willst du das erkennen können?
Und NEIN, ein Vergleich zwischen Polaris und Pascal zeigt und da nichts.
Und du stellst jetzt einfach mal die Behauptung in den Raum das AMD davon keinen Anteil gebucht hat?
Es ergibt einfach keinen Sinn!
Trifft natürlich nur zu wenn, wie oben geschrieben, TSMCs Prozess besser ist.
Was er aber wohl nicht ist, sonst hätte NVIDIA nicht solche Lieferschwierigkeiten.
TSMC hat tausende Wafer für die Tonne gefertig, jetzt hat man anscheinend sogar so viele sehr sehr kaputte GP104 das man sie auf GP106 umlabelt bis der richtige GP106 fertig ist...
Nightspider
2016-07-14, 08:13:54
Du wirfst mir hier Prozess-Qualität mit Yieldrate in einen Topf, das ist dein Fehler. Das sind zwei paar Schuhe.
Und natürlich ergibt das Sinn sofern TSMCs Prozess höhere Taktraten erlaubt. Bestimmte Prozesse sind für mobile Chips und auf maximale Effizienz getrimmt und andere Prozesse auf hohe Taktraten.
Warum Vega hohe Taktraten braucht? Ist die Frage ernst gemeint? :rolleyes:
Sofern irgendwie machbar wäre es von Vorteil für AMD wenigstens ein Design bei TSMC umzusetzen, ob nun Vega10 oder Vega11. Allein um die Zusammenarbeit und Erfahrung nicht zu verlieren für den Fall - sollte es mal wieder nötig werden - überwiegend beim einen oder anderen Fertiger bestellen zu müssen.....
Dino-Fossil
2016-07-14, 09:23:05
"... (nochmal 1.6) ..." sind das Ergebnis einer Verbesserung, die sich Power Gateing nennt. D.h. bei Teillast wird Polaris 11 auf Notebooks nochmals gut effizienter sein. Nur gilt das nicht für Polaris 10 auf dem Desktop. Warum auch, denn hier wir quasi immer Volllast gefahren.
AMD hat selbst eine ähnliche Rechnung für die 470 ggü. einer 270X angegeben.
Ebenfalls mit der 2,8x Verbesserung.
Wo die weiteren Verbesserungen über den 1,7x durch 14nm herkommen sollen musst du AMD fragen. Evtl. einfach aus dem Wunschdenken des Marketings. :freak:
Was Per-CU Power-Gating angeht: Wo unterscheidet sich denn eigentlich ein Spiel in seinem Leistungshunger auf einem Laptop von einem Spiel auf einem Desktop-Rechner?
Man könnte die Karte vielleicht bei Akku-Betrieb generell drosseln/teildeaktivieren, aber ansonsten?
Warum Vega hohe Taktraten braucht? Ist die Frage ernst gemeint? :rolleyes:
Typischerweise sind Highend-Chips eher Breit mit vergleichsweise geringeren Taktraten. Das ist zwar teurer in der Herstellung, da größeres DIE, aber man bekommt bei einem gegebenen Power-Budget mehr Leistung.
Dafür scheint allerdings Samsungs/GF 14nm besser als 16nm von TSMC zu sein, da 14nm eine bessere Packdichte bietet.
Damit bekommt man in die große GPU entweder mehr Einheiten bei gegebener Fläche, bzw. kann die gleiche Menge auf einem kleineren DIE fertigen. Aus wirtschaftlicher Sicht scheint daher GF die naheliegendere Wahl.
Die Roadmap erscheint auch arg geschönt, die 2,5x Perf/Watt erreicht Polaris bei weitem nicht, 2x ist da schon das höchste der Gefühle.
Angesichts dessen sind natürlich auch alle anderen Angaben in der Roadmap zu bezweifeln, weil wenn die restlichen Angaben von Polaris aus gerechnet sind erhöht sich der Fehler natürlich mit jeder Generation.
Elkinator
2016-07-14, 20:45:29
Sofern irgendwie machbar wäre es von Vorteil für AMD wenigstens ein Design bei TSMC umzusetzen
Warum?
sollte es mal wieder nötig werden - überwiegend beim einen oder anderen Fertiger bestellen zu müssen.....
Warum sollten die dazu TSMC brauchen?
Die Roadmap erscheint auch arg geschönt, die 2,5x Perf/Watt erreicht Polaris bei weitem nicht
Doch...
Dino-Fossil
2016-07-14, 21:52:57
Doch...
Und wo?
Ich hoffe ja noch auf die 470, aber die 480 bringt keine 2,5x.
Virtual
2016-07-15, 03:24:03
AMD hat selbst eine ähnliche Rechnung für die 470 ggü. einer 270X angegeben.
Ebenfalls mit der 2,8x Verbesserung.
Wo die weiteren Verbesserungen über den 1,7x durch 14nm herkommen sollen musst du AMD fragen. Evtl. einfach aus dem Wunschdenken des Marketings. :freak:
Was Per-CU Power-Gating angeht: Wo unterscheidet sich denn eigentlich ein Spiel in seinem Leistungshunger auf einem Laptop von einem Spiel auf einem Desktop-Rechner?
Man könnte die Karte vielleicht bei Akku-Betrieb generell drosseln/teildeaktivieren, aber ansonsten?
Naja, im Vergleich (Desktop Rechner vs Laptop) eines Spiels könnte man lediglich eine vermeintlich geringere Auflösung auf Laptops im (durchschnittlichen) Vergleich mit dem Desktop anführen. Natürlich hast du prinzipiell recht für ein individuelles Spiel, aber AMD (und auch ich) denken, dass Laptops (nicht Desktop-Replacement Geräte) eher zu gelegentlichen Zocken genutzt werden und diese Geräte eine andere primär-Aufgabe haben. Summa summarum könnte man somit für Laptops annehmen, dass Volllast auf diesen Geräten seltener Auftritt als auf Desktops und deshalb Power Gating lohnenswert wäre, unabhängig von der Tatsache, dass Laptops zumeist am Akku hängen, während Desktops quasi immer an der Steckdose nuckeln.
Ergo, Laptops lassen im Schnitt die grafisch bescheideneren Spiele laufen, während Desktop quasi immer mit dem Maximalen unten eine beliebigen Spiel laufen müssen.
Edit: Typo
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.