Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Mangel76
2019-03-18, 19:50:27
Zumal AMD vor Polaris10 immer wieder was geteasert hat. Bei Vega wurde es immer stiller... Und jetzt ist es auch sehr still, was navi anbelangt. Ich ahne da eher keinen riesen Wurf. Bin froh, wenn er okay wird...
Das es jetzt keine größeren Teaser gibt könnte auch an Rajas Abgang liegen. Ich sag nur Poor Volta.
reaperrr
2019-03-18, 21:21:43
Zumal AMD vor Polaris10 immer wieder was geteasert hat. Bei Vega wurde es immer stiller... Und jetzt ist es auch sehr still, was navi anbelangt. Ich ahne da eher keinen riesen Wurf. Bin froh, wenn er okay wird...
Also, ich hatte bisher bei AMD immer eher den gegenteiligen Eindruck: Je mehr im Vorfeld von AMD selbst gehypt wurde, desto größer am Ende die Enttäuschung (Stichwort "Poor Volta"). Gehypt wird aktuell nur von Pseudo-Insidern und Optimisten, aber das war bei Turing kein Stück besser, von wegen 60-70% mehr Leistung bei gleichem Verbrauch usw.
Außerdem ist Turing "dank" der Verwendung von 12nm so ein mäßiger Fortschritt bei Perf/W bzw. Rückschritt bei Perf/mm², dass selbst ein kleineres Vega20-Derivat mit 48 CUs und 256bit GDDR6-SI in 7nm theoretisch reichen würde, um innerhalb von 250mm² knapp über V64(Air)-Niveau zu landen und damit schon vor GTX 2060 und ziemlich nah an der 2070.
Von daher ist auch ein gewisser Hype unter AMD-Sympathisanten absolut nachvollziehbar und gerechtfertigt, weil die von NV gesetzte Hürde mit Turing einfach so lächerlich niedrig ist (durch den Prozess, die uArch an sich ist natürlich trotzdem noch weit vor Vega, und ich glaube auch nicht, dass Navi das plötzlich aufholt), dass AMD sich mit Navi auf uArch-Seite quasi ggü. Vega noch verschlechtern müsste, damit der Vorteil von 7nm nicht reichen würde, um selbst mit dem Polaris10/20/30-Nachfolger schon mindestens nah an der 2070 zu landen.
Summerbreeze
2019-03-18, 21:30:52
Mal vom AMD gehype abgesehen, sehe ich Navi auch sehr positiv dieses Jahr.
Man kann einfach mal vom kleinsten Nenner ausgehen und so gut wie nichts erwarten.
Polaris ist zu aktuellem Stand völlig Konkurrenzfähig und beherrscht in der Preisklasse den Markt von der Preis/Leistung her.
Nvidia prescht zwar nach unten vor, hat aber auch nur 6GB im Petto. Für manche ist das entscheidend, für andere nicht.
Wenn AMD mit Navi nun selbst nur 20% drauflegen sollte auf Polaris bei gleichem Verbrauch und gleichem Preis, wäre das ein Erfolg in dem Segment. Es wäre nicht bahnbrechend, aber gut.
Da das aber ja anscheinend eine komplett neue Architektur ist und ein Wechsel von 14nm auf 7nm, kann man sich nur überraschen lassen.
Naja, ich sehe Polaris als mittlerweile vollkommen ausgelutscht an. Hat ja schließlich auch ein paar Jahre auf dem Buckel.
Nur alleine durch den Shrink auf 7nm sollte mit Blick auf die VII 30% mehr Leistung drin sein. Dann kommen noch div. Verbesserungen der Architektur hinzu.
Für mich wird alles was unter RX590 + 40% herauskommt eine Enttäuschung sein.
NV schläft ja auch nicht und die werden beim Shrink nächstes Jahr auch min. +30% herauskommen. Wenn AMD also wirklich mal etwas aufholen will,
sollten +50% gesetzt sein.
Mit + 20% können sie sofort einpacken. Dann können sie sich langsam Gedanken machen, an welchen Doofmann sie die RTG noch verscherbeln können so lange es noch was zu verscherbeln gibt.
Complicated
2019-03-19, 09:40:01
Nur wird AMD zur gleichen Zeit ebenfalls von 7nm zu 7nm+ wechseln wie Nvidia. Was bedeutet sie müssen nicht jetzt schon den Konkurrenten für 2020 bringen. Man wird sehen ob das auslassen der DUV 7nm NVIDIA den Vorteil der längeren Entwicklungszeit bringt oder ob AMDs Erfahrungswerte einen Vorteil beim optimieren der Chips bringt wenn einige EUV-Layer dazukommen.
Käsetoast
2019-03-19, 10:12:11
Zumal AMD seit ca. 2 Jahren wieder steigende Einnahmen hat, das kann sich durchaus schon bemekerbar machen. Wahrscheinlich nicht beim Design selber, aber bei der QC, bei Board, etc.
Wenn man dann noch hinzu nimmt, dass Sony denen wohl auch was Geld zugesteckt hat für die Entwicklung und das Vega nur auf Sparflamme entwickelt wurde stehen die Zeichen ganz gut, dass sich mit Navi wieder wirklich was tut. Seit GCN mit der 7000er Reihe kam gab es irgendwie immer nur minimale inkrementelle Fortschritte, die im großen Ganzen aber mehr einem Stillstand glichen und gerade Vega ist ja der Höhepunkt der Feature Buzzwords ohne Inhalt...
So gesehen denke ich, dass sich diesmal wirklich was an der Architektur getan hat und das man endlich auch mal einen richtigen Gamer Chip entwickelt (soll ja auch für die Konsolen sein) anstatt so Computing lastige Chips wie Vega. Das sollte schon enorm helfen...
Nur wird AMD zur gleichen Zeit ebenfalls von 7nm zu 7nm+ wechseln wie Nvidia. Was bedeutet sie müssen nicht jetzt schon den Konkurrenten für 2020 bringen. Man wird sehen ob das auslassen der DUV 7nm NVIDIA den Vorteil der längeren Entwicklungszeit bringt oder ob AMDs Erfahrungswerte einen Vorteil beim optimieren der Chips bringt wenn einige EUV-Layer dazukommen.
Der frühe Wechsel auf EUV seitens NV hat sich gestern abend erledigt. AMD steigt nicht das erste Mal deutlich früher um als NV, eher ist das sogar die Regel. Ich könnt mir denken, dass die beiden Navis sogar recht früh starten, wie eben V20, und dann im Herbst verfügbar sind und gelauncht werden können. Mit V20 hat man bewiesen, dass man das kann, mit 7EUV wirds eher leichter, wenn die Foundry es gebacken bekommt, was momentan danach durchaus aussieht.
Sollte NV wie IBM tatsächlich nach Samsung gehen, wird sich das aber weiter verzögern. Soweit ich weiss hat TSMC mit Abstand die meisten EUV-Anlagen eingekauft. Ergo ist Samsung deutlich später dran.
Schnitzl
2019-03-19, 14:43:53
Das hat jetzt was mit meinen Beitrag zu tun, den du zitierst?
ich versuche zu übersetzen:
du sagtest: "Ob Bombe oder nicht, hängt wohl allein vom Preisschild ab."
ich sage nein, es hängt davon ab, was für ein Chip es wird. Wenn Navi murks wird, hilft auch der Preis nicht mehr.
Erstmal muss AMD irgendwas liefern, und da kommt dann das ins Spiel, was man Ideen nennt und "Druck".
Also gibt es Hoffnung: da AMD extrem unter Druck ist, könnten da eben auch interessante Ideen kommen mit Navi und/oder Nachfolger von Navi.
Soweit die Theorie.
Wie es in der Praxis wird, sehen wir dann im Laufe des Jahres ... hoffentlich.
amdfanuwe
2019-03-19, 15:00:03
und da kommt dann das ins Spiel, was man Ideen nennt und "Druck".
Und was soll das sein? Irgendwelche super Einheiten für RT oder KI die von den Spielen die nächsten Jahre nicht genutzt werden?
Da muß nichts neues her. Preis/Leistung und in zweiter Linie Verbrauch muß passen, dann sind sie dabei. Eine reine Gaming GPU für aktuelle Games ohne HPC Schnickschnack wäre von AMD mal was anderes.
Und wenn der Preis stimmt, enttäuscht die auch nicht.
Schnitzl
2019-03-19, 15:15:16
Und was soll das sein? Irgendwelche super Einheiten für RT oder KI die von den Spielen die nächsten Jahre nicht genutzt werden?
Da muß nichts neues her. Preis/Leistung und in zweiter Linie Verbrauch muß passen, dann sind sie dabei. Eine reine Gaming GPU für aktuelle Games ohne HPC Schnickschnack wäre von AMD mal was anderes.
Und wenn der Preis stimmt, enttäuscht die auch nicht.
Bin ich voll dafür.
https://imedia.buzz/samsung-flashbolt-hbm2-is-33-percent-faster-doubles-capacity/
"Samsung Flashbolt HBM2 Is 33 Percent Faster, Doubles Capacity"
"...but I don’t think we’re going to see HBM in mainstream consumer cards in the 7nm generation."
m.f.g. JVC
y33H@
2019-03-22, 11:25:44
Joa, zu teuer vermutlich mit zwei Stacks.
unl34shed
2019-03-22, 17:40:15
warum 2 stacks? Eine Vega56 hat nicht mehr Bandbreite als die HBM2E und mit der doppelten Kapazität wäre 1 Stack auch ausreichend.
Und warum muss bei HBM immer gesagt werden, dass er zu teuer wäre. Es gibt bis jetzt doch nur Spekulationen über den Preis. Am Ende sind es aber die gleichen DRAM Zellen wie bei GDDR, also wird auch gleich viel Silizium verwendet. Wo soll da der HBM (abgesehen von der Nachfrage) so viel teurer werden?
Der_Korken
2019-03-22, 17:56:42
Imho ist HBM2 auch deswegen so ein Nischenprodukt, weil zeitgleich die nächste GDDR-Variante gelauncht wurde. Würde man heute noch GDDR5 verwenden müssen und eine Turing-Karte entsprechend ein 384bit- oder 512bit-Interface benötigen, wäre HBM2 deutlich attraktiver. Mit 1,6Ghz Takt statt 1,0Ghz würde es ganz anders aussehen, weil ein Stack davon so viel Kapazität und Bandbreite hätte wie 8 GDDR6-Chips mit 12Ghz (@256bit).
AffenJack
2019-03-22, 19:10:56
warum 2 stacks? Eine Vega56 hat nicht mehr Bandbreite als die HBM2E und mit der doppelten Kapazität wäre 1 Stack auch ausreichend.
Und warum muss bei HBM immer gesagt werden, dass er zu teuer wäre. Es gibt bis jetzt doch nur Spekulationen über den Preis. Am Ende sind es aber die gleichen DRAM Zellen wie bei GDDR, also wird auch gleich viel Silizium verwendet. Wo soll da der HBM (abgesehen von der Nachfrage) so viel teurer werden?
Du unterschätzt etwas den Aufwand für die Leitungen durch den HBM, dazu jeweils Kontakte oben und unten bei den mittleren Chips etc. Dazu eben Interposer. Kleinvieh macht eben auch Mist und bei einem 200$ Verkaufspreis können schon 10$ Mehrkosten im Einkauf eben auch schon den Ausschlag machen.
Skysnake
2019-03-22, 19:50:31
Joa, zu teuer vermutlich mit zwei Stacks.
Naja und die Frage ist was er an Power zieht...
unl34shed
2019-03-22, 20:17:20
Du unterschätzt etwas den Aufwand für die Leitungen durch den HBM, dazu jeweils Kontakte oben und unten bei den mittleren Chips etc. Dazu eben Interposer. Kleinvieh macht eben auch Mist und bei einem 200$ Verkaufspreis können schon 10$ Mehrkosten im Einkauf eben auch schon den Ausschlag machen.
Sagen wir es mal so, wären die Through Die Vias und Micro bumbs ein Problem, würde man so etwas wohl nicht machen. Selbst bei 99,9% funktionierenden Verbindungen wäre statistisch jeder Stack kaputt. Natürlich kann da was schief gehen, aber beim bonding von normalem RAM ist es ja nicht anders.
Mehrkosten durch Interposer spart man durch ein einfacheres und evtl kleineres PCB, einfacheres Kühler Design (weniger Hotspots und bei kleinem PCB bessere Luft abfuhr möglich z.B. Sapphire Vega pulse). Das dürfte zumindest einen Teil der Mehrkosten auffressen.
reaperrr
2019-03-22, 22:42:33
Und warum muss bei HBM immer gesagt werden, dass er zu teuer wäre. Es gibt bis jetzt doch nur Spekulationen über den Preis. Am Ende sind es aber die gleichen DRAM Zellen wie bei GDDR, also wird auch gleich viel Silizium verwendet. Wo soll da der HBM (abgesehen von der Nachfrage) so viel teurer werden?
Ganz einfach: Weil Samsung für die hohe Kapazität pro Stack und den Bandbreitenanstieg einen saftigen Aufschlag pro GB verlangen wird.
Für 1x8GB HBM2E verlangen die vermutlich fast so viel wie für 2x8GB "lahmen" 800Mhz HBM2.
Also fast den doppelten pro-GB-Preis.
Außerdem reicht schon ein 256bit GDDR6-SI + 14Gbps G6, um auf immerhin ~10% mehr Bandbreite zu kommen.
Und GDDR6 wird in Massen von 3 Herstellern produziert, da kriegst du garantiert völlig andere pro-GB-Preise, weil da - anders als beim HBM2E - neben genug Produktionsvolumen auch Konkurrenzdruck da ist.
BlacKi
2019-03-23, 02:34:07
Mehrkosten durch Interposer spart man durch ein einfacheres und evtl kleineres PCB, einfacheres Kühler Design (weniger Hotspots und bei kleinem PCB bessere Luft abfuhr möglich z.B. Sapphire Vega pulse). Das dürfte zumindest einen Teil der Mehrkosten auffressen.
glaub kaum, dass das aufbringen von 3-5 chips auf einem interposer so kostengünstig zu bewerkstelligen ist, als man beim kühler + pcb einsparen könnte.
zumal das alles neuland ist. die herkömliche methode ist erprobt und ist ausgereift. das aufbringen von vram auf der platine ist genau ein arbeitsschritt. das aufbringen von 3-5 chips auf einen interposer ist viel komplexer und muss gemoldet werden.
horn 12
2019-03-23, 02:58:18
Zumal Navi nur 8GB Speicher erhalten dürfte, die VII also mit 16GB Alleinstellungsmal behalten dürfte und von Nvidia vor 2020 wohl nix mehr kommen möge.
Zudem sei mal dahingestellt wie schnell Navi werden wird, knapp Radeon Seven wären schon Traumwerte.
... knapp Radeon Seven wären schon Traumwerte.
Ja das wären sie ... mal abwarten ... man darf ja noch träumen :cool:
https://www.pcwelt.de/news/Navi-Grafikkarten-von-AMD-puenktlich-zur-Gamescom-10558821.html (19.03.2019)
"Navi, die neue Grafikkarten-Architektur von AMD, soll voraussichtlich zur Spielemesse Gamescom enthüllt werden."
https://www.gamestar.de/artikel/amd-navi-enthuellung-zur-gamescom-2019,3341833.html (19.03.2019)
"AMD Navi kurz nach Ryzen 3000? - Launch angeblich zur Gamescom 2019"
https://winfuture.de/news,108013.html (22.03.2019)
"PlayStation 5: Grafikchip von AMD lässt auf viel Leistung hoffen"
"Vielleicht richtet man sich bei der nächsten Konsolen-Generation schon auf 8K-Optionen und 120 FPS ein, die deutlich mehr Leistung verlangen." (HDMI 2.1)
"Angeblich hat man für die neue Sony-Konsole eine Leistung von 15 Teraflops im Auge, die man mit AMD Navi-Grafikchips und Zen Prozessoren umsetzen könnte. Eine 8-Kern-CPU (7nm) und 12-16GB GDDR6-Grafikspeicher stehen dabei im Raum."
Wen NV so weiter macht, treiben sie mich echt noch zu den Konsolen ...
(AMD kann es egal sein, kauf ich deren Hardware hald dort)
m.f.g. JVC
BoMbY
2019-03-23, 10:01:06
Imho ist HBM2 auch deswegen so ein Nischenprodukt
Ja, ne Nische mit mind. einem dutzend Produkten, vor allem im hochpreisigen HPC-Segment. NEC SX-Aurora TSUBASA, Tesla V100, Tesla P100, Google TPU, alle AMD Vega dGPUs inkl. Google Stadia, Intel Kaby Lake G, Broadcom Jericho2, plus noch einige mehr, Tendenz steigend.
RitterRost
2019-03-23, 10:06:20
Threadripper, Epic, Zen2 und diverse Intel-Ansätze zeigen, dass der Trend klar zu Chiplets/mehreren Dies auf Interposer/(oder Ähnlichem) geht.
Warum sollte das nun für ne GPU mit HBM2e zu teuer, zu kompliziert, zu "Neuland" sein???
unl34shed
2019-03-23, 10:34:18
glaub kaum, dass das aufbringen von 3-5 chips auf einem interposer so kostengünstig zu bewerkstelligen ist, als man beim kühler + pcb einsparen könnte.
zumal das alles neuland ist. die herkömliche methode ist erprobt und ist ausgereift. das aufbringen von vram auf der platine ist genau ein arbeitsschritt. das aufbringen von 3-5 chips auf einen interposer ist viel komplexer und muss gemoldet werden.
1. Wer spricht von 3-5? Wie gesagt sollten für bis zu 56 CUs 1 stack HBM2E ausreichend sein, was Kapazität und Bandbreite angeht.
2. Interposer sind stand der Technik, wären die immer noch problematisch, würde man sie nicht in 300-400€ consumer Produkten in massen herstellen.
Mich stört lediglich die immer wiederholte Aussage, dass HBM so teuer sei, obwohl niemand hier wirklich die Preise kennt, die die GPU Hersteller im vergleich zu GDDR zahlen. Die einzigen bekannten Zahlen sind X Jahre alt und noch von Fury und werden immer wieder wiederholt und sollen deshalb wahr sein.
Imho ist HBM2 auch deswegen so ein Nischenprodukt, weil zeitgleich die nächste GDDR-Variante gelauncht wurde. Würde man heute noch GDDR5 verwenden müssen und eine Turing-Karte entsprechend ein 384bit- oder 512bit-Interface benötigen, wäre HBM2 deutlich attraktiver. Mit 1,6Ghz Takt statt 1,0Ghz würde es ganz anders aussehen, weil ein Stack davon so viel Kapazität und Bandbreite hätte wie 8 GDDR6-Chips mit 12Ghz (@256bit).
HBM ist kein Nischenprodukt. Aber es ist eben der Anfang. Sicherlich werden in Zukunft mehr HighEnd-Karten HBM abbekommen, vielleicht sogar nur noch.
SKYNET
2019-03-23, 10:49:36
Zumal Navi nur 8GB Speicher erhalten dürfte, die VII also mit 16GB Alleinstellungsmal behalten dürfte und von Nvidia vor 2020 wohl nix mehr kommen möge.
Zudem sei mal dahingestellt wie schnell Navi werden wird, knapp Radeon Seven wären schon Traumwerte.
da navi vega 56/64 ablösen wird, wird die leistung in dem bereich zu finden sein... die VII bleibt bis kommendes jahr flaggschiff, sofern AMD da nicht wieder was vorschiebt :D
Ich wünsche mir ... 16GB (vonmiraus auch mehr :freak:)
Mit OC ~ die Leistung der 7 (würde mir schon, als Übergang zu 8K, reichen)
uuund HDMI 2.1 !!!!!!!!! (das wäre der Hit und ein kaufgrund für mich :biggrin:)
Aber ich fürchte, für Heuer kann ich das vergessen :usad:
m.f.g. JVC
Die wirste bei Navi bekommen. Navi ist ja ein Produkt ohne RT, man braucht also einen anderen Vorteil und wenn Navi die Leistung einer VII bringen sollte muss man ja den Level auch halten. Außerdem weiss AMD, was die neuen Konsolen bringen werden ;).
Die wirste bei Navi bekommen.
HDMI 2.1 ??? das wäre schon mal sehr gut :D
Oder die 16GB ... das wäre auch gut :rolleyes:
Navi ist ja ein Produkt ohne RT,
Ohne extra Hardware für RT :wink: ...
Außerdem weiss AMD, was die neuen Konsolen bringen werden ;).
Jup, meine Glasbirne sieht ein Riesen Comeback von AMD ...
Nur ob das noch in diesem Jahrhundert ist, konnte ich nicht mehr erkennen :uhammer2:
m.f.g. JVC
AlterSack
2019-03-23, 20:02:55
1. Wer spricht von 3-5? Wie gesagt sollten für bis zu 56 CUs 1 stack HBM2E ausreichend sein, was Kapazität und Bandbreite angeht.
HBM2E ist aber leider noch nicht verfügbar, so wie zu lesen war.
Geil wäre, wenn gleich noch die nicht performancerelevanten
Teile im Interposer landen würden. Dann wäre für eine Mittelklasse 7nm-GPU eine Fläche von weit unter 200mm² wohl realisierbar. Ein kleines Problem könnte dann allerdings die Wärmeabfuhr darstellen.
Samsung-eigene Erweiterung: (für wen wurde das Produkt wohl vorgesehen?)
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2324-maerz-2019
HBM2E
Pro Stack bis zu 16 GB und dabei 1638 GB/sec
Würde sich fast anbieten, aber k.a. wie teuer der ist.
m.f.g. JVC
p.s.: ich vermute das Navi 7nm zwar im Mai vorgestellt wird,
aber erst im Herbst auf den Markt kommt.
(Ich fände es besser, sie lassen sich etwas Zeit und erreichen dafür ~ die Leistung der 7)
Leonidas
2019-03-25, 07:31:07
"Navi, die neue Grafikkarten-Architektur von AMD, soll voraussichtlich zur Spielemesse Gamescom enthüllt werden."
"AMD Navi kurz nach Ryzen 3000? - Launch angeblich zur Gamescom 2019"
Die quatschen leider nur die ungaren Gerüchte aus dem englischsprachigen Raum nach.
http://www.pcgameshardware.de/Playstation-5-Konsolen-265878/News/angeblich-mit-8K-und-14-2-Teraflops-1278203/ (24.03.2019)
"PS5 mit AMD-GPU: Google Stadia befeuert die Gerüchteküche"
"Die Gerüchteküche geht aber noch einen Schritt weiter. Angeblich haben Sonys Ingenieure sogar 14,2 Terflops im Auge. Grundlage dafür sei eine Navi-GPU an einem in 7 nm gefertigten 8-Kern-Ryzen (Zen 2) mit 3,2 GHz. Neben 20 Gigabyte Grafikspeicher (GDDR6) ist von weiteren 4 GiByte DDR4-Speicher die Rede."
Könnte das nicht auch ein oberster Richtwert für Navi sein :uponder:
oder wäre das viel zu optimistisch?
https://www.caseking.de/caseking-blog/geruechtekueche-amd-navi-radeon-rx-3000-gpu-benchmarks-aufgetaucht-3345.html (19.03.2019)
"AMD Navi Radeon RX-3000-GPU-Benchmarks aufgetaucht?"
"Anhand dieser Tests wäre die Navi-Architektur in einigen Benchmarks mehr als doppelt so schnell wie noch Polaris!"
m.f.g. JVC
Mangel76
2019-03-25, 11:15:33
http://www.pcgameshardware.de/Playstation-5-Konsolen-265878/News/angeblich-mit-8K-und-14-2-Teraflops-1278203/ (24.03.2019)
"PS5 mit AMD-GPU: Google Stadia befeuert die Gerüchteküche"
"Die Gerüchteküche geht aber noch einen Schritt weiter. Angeblich haben Sonys Ingenieure sogar 14,2 Terflops im Auge. Grundlage dafür sei eine Navi-GPU an einem in 7 nm gefertigten 8-Kern-Ryzen (Zen 2) mit 3,2 GHz. Neben 20 Gigabyte Grafikspeicher (GDDR6) ist von weiteren 4 GiByte DDR4-Speicher die Rede."
Könnte das nicht auch ein oberster Richtwert für Navi sein :uponder:
oder wäre das viel zu optimistisch?
https://www.caseking.de/caseking-blog/geruechtekueche-amd-navi-radeon-rx-3000-gpu-benchmarks-aufgetaucht-3345.html (19.03.2019)
"AMD Navi Radeon RX-3000-GPU-Benchmarks aufgetaucht?"
"Anhand dieser Tests wäre die Navi-Architektur in einigen Benchmarks mehr als doppelt so schnell wie noch Polaris!"
m.f.g. JVC
Das ist schon alt und ich dachte, die CPU-Kennung deutet eher auf eine VEGA-GPU hin!?!
https://www.ht4u.net/news/33415_raytracing_oeffnet_sich_fuer_ein_breiteres_publikum/ (25.03.2019)
"Raytracing öffnet sich für ein breiteres Publikum"
https://www.notebookcheck.net/Rumor-AMD-s-Navi-20-series-could-feature-ray-tracing-technology-that-would-challenge-Nvidia-s-RTX-lineup.415149.0.html (27.3.2019)
"Rumor: AMD's Navi 20 series could feature ray-tracing Technology ..."
m.f.g. JVC
Leonidas
2019-03-28, 05:35:27
Das ist schon alt und ich dachte, die CPU-Kennung deutet eher auf eine VEGA-GPU hin!?!
In erster Linie schreckt mich alles ab, wo "Radeon RX 3000" dransteht. Das ist das Namenssystem aus dem AdoredTV-Gerücht ...
https://www.notebookcheck.net/Rumor-AMD-s-Navi-20-series-could-feature-ray-tracing-technology-that-would-challenge-Nvidia-s-RTX-lineup.415149.0.html (27.3.2019)
"Rumor: AMD's Navi 20 series could feature ray-tracing Technology ..."
Widerspricht der klaren AMD-Aussage, das man RT erst dann anbieten wird, wenn es für alle Segmente verfügbar würde. Natürlich muß sich AMD daran nicht halten, nur so als bedenkenswerter Kontrapunkt.
robbitop
2019-03-28, 06:32:46
Raytracing support muss ja nicht unbedingt heißen, dass es dedizierte HW gibt?
Navi 20 wäre ja auch noch 1 Jahr hin. Ist aber fast etwas kurzfristig, wenn man das nicht eh schon in der Pipeline gehabt hat (vor dem Turing launch)
dildo4u
2019-03-28, 06:56:28
Navi muss doch zu erst Polaris ersetzen,das ist doch Low End das passt also zu der AMD Aussage.Die RX 480 ist im Sommer 3 Jahre alt Vega ist jünger,ich würde mich nicht an den Codenamen aufhängen.
die RX590 ist aber ersst 0,3334 Jahre alt
dildo4u
2019-03-28, 07:06:48
Ich vermute mal im dem Segment tut ein großer Chip mehr Weh als bei 300 oder 400€. Und natürlich sind die 7nm Yields bei Low End Chips am Anfang deutlich besser,spricht nix dafür das man zu erst Vega 64 Ersetzt.
robbitop
2019-03-28, 07:16:15
Ja zuerst kommt Midrange Navi um Polaris zu ersetzen. Der wird imo keine hw rt units haben. Der große navi 20 für 2020...wer weiß.
Dural
2019-03-28, 09:30:28
Glaub ich auch nicht, wie ich schon letzte Jahr mal irgend wo geschrieben habe wird AMD RT zuerst einfach über die normalen Cores laufen lassen.
Es sei den AMD hat schon vor einigen Jahren angefangen an eine Architektur für RT zu arbeiten.
Also für Navi gilt dasselbe wie für Zen2, hier ist soviel Schwachsinn im Umlauf.
Das wird wie immer ablaufen bei AMD: Zuerst kommt Navi10, dann, einige Monate später, werden noch 2 kleinere Varianten erscheinen. Der Launch lief sehr oft gestaffelt bei AMD, das wird auch diesmal so sein. N10 ist natürlich Mainstream - aus 7nm-Sicht. Das dürfte etwa auf VII-Leistung hinauslaufen, da V20 auch nicht als Mainstream mehr ist, nur hat dieser eine enorme Verlustleistung, was in der Architektur begründet liegen dürfte - musste halt billig sein. N10 wird auch bei 300mm² irgendwo herauskommen und natürlich hat er auch 64CUs, ich denke, da kann man sich relativ sicher sein. Warum sollte eine Architektur, die primär als Konsolen-GPU geplant ist, mehr als 64CUs skalieren? Konnte mir bisher keiner erklären. Und warum sollte sie unter ihren Möglichkeiten herauskommen? Auch das scheint wenig plausibel. Passenden HBM (16Gbit-Chips und 2,4GHz) gibts ja dafür. Nach V20 sind 16GB absolut sicher für das Produkt, da ziemlich klar ist, dass N10 V20 ersetzen wird im Consumer-Markt. V20 gibts halt nur als Referenzdesign und ziemlich offensichtlich ist das eine Überbrückung zum Navi-Launch.
Navi20 wird einfach ein Refresh dessen sein, wie P20, oder N20 ist ebenfalls eine Profivariante. Ich tippe aber eher auf ersteres, da diese auf Konsolenbedürfnisse zugeschnittene Architektur relativ ungeeignet als Grundlage für eine Profivariante sein dürfte. Ich denke, da kann man eher mit einem Vega30 rechnen, der ebenfalls auf EUV angepasst wird.
Ich denke ebenfalls, dass alle Navis EUV sind, da das die Kosten reduzieren dürfte. N10 ist halt wie immer (also wie Polaris damals und V20 neuerlich) der Pipecleaner.
Jetzt wo klar ist, wie das in etwa ablaufen dürfte, wird auch klar, dass High-End erst 2021 überhaupt was werden dürfte. AMD dürfte erst 2017 mit der Entwicklung einer komplett neuen post-GCN-Architektur begonnen haben, das braucht halt seine 4 Jahre. Und hier kann man auch gut begründen, dass Navi sehr wohl noch GCN ist. Die RTG stellte diese Planungen, die hier zugrunde liegen, 2014 auf. Da wird auch der grobe Fahrplan bis Navi aufgelegt worden sein, also ist klar, dass bis dahin GCN als Grundlage dienen wird, sonst hätte man da schon die Entwicklung einer post-GCN-Architektur anstoßen müssen - 2014, AMD 2.größtes Kriesenjahr nach 2012, ziemlich unwahrscheinlich, da lag alles auf Zen.
In 2021 wird genau diese neue Architektur dann das Licht der Welt erblicken. Ob das Ganze RT kann, wird sich dann zeigen. Aber vorher braucht man wieder nicht mit High-End zu rechnen und mit RT erst recht nicht.
Ich halte allerdings die erste DXR-Variante eh für ne Totgebuhrt, wie das bei ersten Implementationen oft so ist, kaum akzeptiert, kaum genutzt, wenig effizient. Das wird sicherlich auch als DXR2 erscheinen.
NV hatte recht damit, erst mal 12nm zu planen und sich bis Ende 2020 Zeit für was Neues zu lassen. Von AMD wird es keine ernsthafte Konkurrenz geben, was in den Statements von Su und anderen oft deutlich wurde. Man hat erst 2017 begonnen, wieder den Fokus auf die Radeon-Entwicklung zu legen, jedem in der Branche wird dann klar gewesen sein, dass es ab da 4 Jahre keine ernsthafte Gegenwehr geben wird und man sich voll auf die Konsolen konzentrieren wird. Einzige Unbekannte ist Intel tatsächlich in diesem Spiel.
Käsetoast
2019-03-28, 09:51:11
die RX590 ist aber ersst 0,3334 Jahre alt
Das war eh nur ein kleiner Stunt um irgendwas Neues zu haben. Man hat zwar auf 12nm umgestellt, aber so richtig ernsthaft genutzt wurde das ja nicht, da nach wie vor die gleiche Maske. Das die RX590 vielleicht nur ein Jahr zu "leben" hat war ja eigentlich klar. Ich hatte immer den Eindruck man hätte den kleinen Navi früher bringen wollen und da das nicht ging wurde die RX590 als Lückenfüller eingeführt...
Was RT angeht: Sicherlich keine dedizierten Recheneinheiten für den Polaris Nachfolger, aber beim großen Chip - warum nicht? Hätte ich zwar erst für die Generation nach Navi erwartet, aber RT ist ja jetzt nichts, das völlig überraschend gekommen ist und so eine NVIDIA only Aktion war. Interessant wird aber sicherlich, ob RT da in den Chip eingebaut wird, oder ob AMD auch hier so eine Chiplet Variante wählt, wo man sowas wie einen Xilinx Chip neben die eigentliche GPU packt. Wir werden sehen...
Achim_Anders
2019-03-28, 09:56:28
Also N10 ist natürlich Mainstream"
Ja denke ich auch.
"- aus 7nm-Sicht. Das dürfte etwa auf VII-Leistung hinauslaufen"
Viel zu hohe Erwartungshaltung. Das wird maximal auf 2060 Leistung gehen, eher darunter.
SKYNET
2019-03-28, 10:00:52
Ja zuerst kommt Midrange Navi um Polaris zu ersetzen. Der wird imo keine hw rt units haben. Der große navi 20 für 2020...wer weiß.
polaris bleibt, navi ist um vega(56/64) zu ersetzen.
Käsetoast
2019-03-28, 10:05:20
Also ich denke schon, dass Navi Vega Leistung zu Polaris Preisen (bis zu 300 €) bringen wird. Ob man die RX590 dann für wenig Geld darunter ansiedelt bleibt abzuwarten...
Ja denke ich auch.
Viel zu hohe Erwartungshaltung. Das wird maximal auf 2060 Leistung gehen, eher darunter.
V20 bleibt nicht am Markt, das ist einfach offensichtlich. N10 wird V20 sehr sehr sicher als EUV-Variante ersetzen.
Ravenhearth
2019-03-28, 11:34:32
Also für Navi gilt dasselbe wie für Zen2, hier ist soviel Schwachsinn im Umlauf.
Den Kommentar spar ich mir jetzt lieber :freak:
pixeljetstream
2019-03-28, 11:35:24
@Käsetoast, so "groß" ist das raytracing nicht, dass man das off-chip machen würde. Die jetzigen Titel zeigen ja wie wichtig das eigentlich shading ist (was auf herkömmlichen cores läuft), da irgendwelche Wege zu verlängern wäre imo schlecht.
Im übrigen halte ich es für nicht unwahrscheinlich dass man per hw-features RT unterstützen wird, man muss ja nicht so weit gehen wie das design der RT cores bei NV, reicht ja das ISA um ein paar Instruktionen zu erweitern um höheren Durchsatz bei den typischen arithmetischen Operationen für RT zu erzielen. Die Mathematik "strahl vs box" und "strahl vs triangle" lässt sich ja gut einfrieren, dazu vielleicht noch was für packen/entpacken von daten und gut. Anders gesagt ich kann mir nicht vorstellen, dass sie rein gar nichts machen.
SKYNET
2019-03-28, 11:44:41
Also ich denke schon, dass Navi Vega Leistung zu Polaris Preisen (bis zu 300 €) bringen wird. Ob man die RX590 dann für wenig Geld darunter ansiedelt bleibt abzuwarten...
V64 leistung für 300 taler... wer kauft dann eigentlich noch ne 2070 für 400+? :freak:
amdfanuwe
2019-03-28, 12:00:22
Das war eh nur ein kleiner Stunt um irgendwas Neues zu haben. Man hat zwar auf 12nm umgestellt, aber so richtig ernsthaft genutzt wurde das ja nicht, da nach wie vor die gleiche Maske. Das die RX590 vielleicht nur ein Jahr zu "leben" hat war ja eigentlich klar. Ich hatte immer den Eindruck man hätte den kleinen Navi früher bringen wollen und da das nicht ging wurde die RX590 als Lückenfüller eingeführt...
Seh ich etwas anders:
"Planung" bis Mitte 2018: TSMC hat Ende 2018 für AMD 7nm Kapazitäten frei.
GF 7nm ist Start für Ende 2018 angesagt.
Um möglichst früh bei 7nm dabei zu sein, ist Vega 20 für TSMC 7nm als Pipecliener in Vorbereitung, ZEN2 anschließend. Wegen früherer Verfügbarkeit, Massenkapazitäten von TSMC etc. nimmt man die Strafzahlungen an GF in Kauf.
Navi ist für GF 7nm 2H 2019 in Planung. Konsolenchips anschließend.
RavenRidge 12nm und Polaris 30, 12 nm sind fast fertig.
Dann die Ankündigung im August 2018 seitens GF aus 7nm auszusteigen. Keine Strafzahlungen mehr für AMD.
AMD muß nun Navi und Konsolenchips auf TSMC umstellen.
Für RavenRidge 12nm und Polaris 30, 12 nm sind die Arbeiten zu weit fortgeschritten um diese zu stoppen, werden also fertiggestellt.
Dummerweise endet der Mining Boom und die Lager sind noch voll mit 570 und 580.
][immy
2019-03-28, 12:27:20
Dummerweise endet der Mining Boom und die Lager sind noch voll mit 570 und 580.
sollten sie eigentlich nicht sein, weil AMD klar kommuniziert hat, das man sich nur sehr sehr vorsichtig auf den Mining boom einlassen möchte. Und das haben sie auch, denn AMD karten waren während des Booms eigentlich gar nicht mehr zu bekommen. Dann wurden auch vermehrt nvidia Karten verwendet (da die Händler-Preise AMD Karten entsprechend wirtschaftlich schlecht gemacht haben) und nvidia hat scheinbar dann in massen produziert, weshalb sie nun auf riesigen Lagerbeständen hocken.
AMD hat stattdessen ja scheinbar die Polaris Fertigung auf 12nm umgestellt um noch mal den chip für die RX590 aufleben zu lassen. Also eine Überproduktion kann ich hier weiß Gott nicht sehen, denn sonst hätten sie mit noch mehr RX580/470 und eventuell 475er den Markt geflutet was nicht passiert ist. Erst nachdem sich die Preise endlich wieder normalisiert haben und nvidia was neues gebracht hat, wurden die Preise auch nach unten korrigiert. Das muss ein inzwischen altes Design erst mal schaffen so lange durchzuhalten.
Aber ja, gebrauchte RXx80er Karten fluten grad den Gebrauchtmarkt, was eine Folge des erstarrten Mining Booms ist.
AMDs Problem aktuell ist, das sie im Marktsegment >200€ bis <300€ nichts konkurrenzfähiges aktuell haben. Unter 200€ hat nvidia allerdings auch nichts zu melden, aber letztlich lässt sich dort nur über Masse Geld machen. Aber immerhin, schon aufgrund der Chipgröße dürfte die 1660 so schnell nicht unter 200€ fallen, so das der Markt unter 200€ noch eine Weile relativ stabil bleiben dürfte, wenn nvidia nicht noch eine 1050 auf Turing-Basis (1550?) nachlegt.
dargo
2019-03-28, 12:29:17
N10 ist natürlich Mainstream - aus 7nm-Sicht. Das dürfte etwa auf VII-Leistung hinauslaufen, da V20 auch nicht als Mainstream mehr ist, nur hat dieser eine enorme Verlustleistung, was in der Architektur begründet liegen dürfte - musste halt billig sein.
Radeon VII aka RTX 2080 ist also heute Mainstream. Oh man... :facepalm:
polaris bleibt, navi ist um vega(56/64) zu ersetzen.
Das hängt davon ab ob jetzt nur ein Navi Chip kommt oder wie bei Polaris zwei. Beim zweiteren gibt es keinen Grund mehr Polaris zu halten. Dann ersetzt der kleinere Navi (11?) Polaris und der größere Vega 10.
V64 leistung für 300 taler... wer kauft dann eigentlich noch ne 2070 für 400+? :freak:
Was soll diese bescheuerte Frage wieder? Als ob Nvidia die Preise Monate später bei Turing nicht anpassen könnte.
Radeon VII aka RTX 2080 ist also heute Mainstream. Oh man... :facepalm:
[...]
Und nochmal zum mitschreiben:
7nm Mainstream!!!
Das ist in etwa so, als hätte AMD damals Polaris releast und NV eine weitere 28nm-Generation. Ich weiss nicht, was daran so schwer verständlich sein soll, das ist doch vollkommen logisch :freak:
Und dieses Rad Gaming Tech-Zeug zu N20: Totaler Clickbait, kompletter BS.
Das ist ne völlige Unart geworden, die ganzen Vorab-Gerüchte zu Zen2 und Navi sind mMn wirklich alle erstunken und erlogen.
Das einzige, was man weiss, ist, dass es definitiv kein RT geben wird, weil Su das ja auf ne komplette Generation verschoben hat (von ganz unten bis ganz oben). Mehr ist schlicht und ergreifend nicht bekannt.
w0mbat
2019-03-28, 12:42:48
Ich gehe davon aus, dass die kommenden mid-range Navi GPUs max. Vega 64 Leistung haben. Das bei ca. 150W und gut ist. Für 299€.
dargo
2019-03-28, 12:44:47
Und nochmal zum mitschreiben:
7nm Mainstream!!!
Auch wenn du es noch größer schreibst wirds nicht besser!
Um mal deine spekulierten 300mm² aufzugreifen (ich gehe nicht davon aus, dass Navi 10 so groß wird, tippe eher Richtung grob 200mm²). Das Ding kostet heute genau so viel wie ein 600mm² Die in 14nm. Was soll daran Mainstream sein? Diese Kosten bestimmen nunmal zum großen Teil den Endkundenpreis.
Ich gehe davon aus, dass die kommenden mid-range Navi GPUs max. Vega 64 Leistung haben. Das bei ca. 150W und gut ist. Für 299€.
Das ist schon viel realistischer, womöglich gar bissel langsamer. Außer der Verbrauch. Geht besser von etwa 200W aus. Halbierten Verbrauch zu V10 erwarte ich jedenfalls nicht. Da müsste schon ein Wunder passieren.
Es wird immer die Transistorkosten mit den Chipkosten gleichgesetzt, aber das ist vollkommener Blödsinn. Wenn der Yield stimmt sind 300mm² 7nm deutlich billiger als 600mm² 14nm.
Dann eben nicht Mainstream, das sind sowieso Gummibandbegriffe, dann eben High-End. Bei NV sind 300mm² jetzt Mainstream. Das ist doch auch vollkommen egal. Es wird <300mm² und man wird bei der VII rauskommen, das ist einfach vollkommen offensichtlich. Da gehe ich auch jede Wette drauf ein.
dargo
2019-03-28, 12:51:45
Wenn der Yield stimmt sind 300mm² 7nm deutlich billiger als 600mm² 14nm.
Wenn nicht das große "wenn" wäre. Wo steht, dass die Yields für den Bereich von ~300mm² aktuell stimmen?
Bei NV sind 300mm² jetzt Mainstream.
NV liefert auch 7nm Gaming GPUs. :rolleyes: Ist doch wohl logisch, dass in 12nm (oder gar 16nm @Pascal) wesentlich weniger Performance rein passt als bei gleicher Die Size in 7nm.
Es wird <300mm² und man wird bei der VII rauskommen, das ist einfach vollkommen offensichtlich. Da gehe ich auch jede Wette drauf ein.
Da wette ich dagegen. Hier werden mal wieder zu hohe Erwartungen geschnürt.
amdfanuwe
2019-03-28, 13:37:36
Diese Kosten bestimmen nunmal zum großen Teil den Endkundenpreis.
Da haben sie ja ganz schön draufgelegt, als sie die 580 für 108€ verscherbelt haben.
Bei den Preisen gibt es also noch Luft.
Nvidia ist auf gute Gewinnmargen angewiesen, da die GPUs ihr Hauptprodukt sind. AMD kann, auch wegen geringerem Marktanteil, da aggressiv rangehen um Marktanteile zu gewinnen.
Kann mir also vorstellen, dass Navi V64+ Leistung für < 300€ bringt und P30 sparsamer mit niedrigeren Takten 100 - 150€ bedient als 560/570 Nachfolger.
Um die Radeon VII mach ich mir keine Gedanken. Mit ihren 16GB und 1/4 DP findet die ihre Niche.
dargo
2019-03-28, 13:51:50
Da haben sie ja ganz schön draufgelegt, als sie die 580 für 108€ verscherbelt haben.
Was hier manche für Vorstellungen haben tut schon weh beim lesen.
1. Eine RX 580 hat 232mm² in 14nm, keine 300mm².
2. Eine 8GB (4GB interessieren keine Sau bei Navi 10) RX 580 fängt aktuell bei 180€ an. Selbst 4GB sind nur 15€ günstiger. GDDR6 dürfte den Preis auch noch leicht anheben.
3. Eine RX580 ist aktuell 2 Jahre auf dem Markt. Zudem... von irgendwelchen Sonderaktionen einzelner Händler auf den regulären Preis zu schließen war schon immer dämlich.
SKYNET
2019-03-28, 14:03:28
Radeon VII aka RTX 2080 ist also heute Mainstream. Oh man... :facepalm:
Das hängt davon ab ob jetzt nur ein Navi Chip kommt oder wie bei Polaris zwei. Beim zweiteren gibt es keinen Grund mehr Polaris zu halten. Dann ersetzt der kleinere Navi (11?) Polaris und der größere Vega 10.
Was soll diese bescheuerte Frage wieder? Als ob Nvidia die Preise Monate später bei Turing nicht anpassen könnte.
man wird nicht polaris in 12nm aufsetzen um die dann 9 monate später einzustampfen ;) zumal viele vergessen das goflo nicht ausgelastet sein wird nur mit den 12nm IO chips für Zen2, also werden sie brav polaris in 12nm produzieren, für AMD ein glückfall, da sie bei den nachverhandlungen sicherlich den preis haben drücken können für die 12nm chips = polaris kann viel billiger werden... gehe von +/- :
590 - 180€
580 - 150€
570 - 120€
sowie 3x navi für den start, 1x V64LC +5%, 1x V56 +5%, 1x 20% unter V56
und NV den preis anpassen... ;D bis heute gabs keine pascal preissenkungen seitens NV, weil eine gewisse lederjacke den hals einfach nicht voll bekommt. also einfach ein wenig realsistisch bleiben, ne 2070 wirds einfach -ausser einmalige angebote- niemals unter 350€*schaffen, und das sind dann auch die gammelkarten, die eh niemand will :wink:
robbitop
2019-03-28, 14:27:14
Bei der CU Anzahl sollte man sich auch nicht so festlegen. Wenn Navi deutlich mehr pro CU herausholt, dann wird das auch Transistoren kosten (vgl der Verglrößerung der SMs seit Kepler pro Generation). Mehr Kontrolllogik, bessere Register, besser skalierbares Frontend etc kosten eben. Die Frage ist, wie viel davon bei Navi passiert (und wie viel davon erst in der Nachfolge Generation passiert).
Viel wichtiger als die Anzahl der Ausführungseinheiten ist, dass pro Transistor und pro Watt mehr Leistung herauskommt.
Ich gehe analog von Polaris auch von einem Mainstreamprodukt aus. Etwas was mit NVs Mainstream mithalten kann. ~1660/2060 Bereich wäre mein Tip.
Linmoum
2019-03-28, 14:31:20
Also bitte, natürlich wird Polaris vom Midrange-Navi ersetzt. Alles andere ergibt vorne und hinten keinen Sinn.
SKYNET
2019-03-28, 14:35:22
Bei der CU Anzahl sollte man sich auch nicht so festlegen. Wenn Navi deutlich mehr pro CU herausholt, dann wird das auch Transistoren kosten (vgl der Verglrößerung der SMs seit Kepler pro Generation). Mehr Kontrolllogik, bessere Register, besser skalierbares Frontend etc kosten eben. Die Frage ist, wie viel davon bei Navi passiert (und wie viel davon erst in der Nachfolge Generation passiert).
Viel wichtiger als die Anzahl der Ausführungseinheiten ist, dass pro Transistor und pro Watt mehr Leistung herauskommt.
Ich gehe analog von Polaris auch von einem Mainstreamprodukt aus. Etwas was mit NVs Mainstream mithalten kann. ~1660/2060 Bereich wäre mein Tip.
auf alle fälle brauch esie etwas, das die riesige klaffende lücke zwischen 590 und V56 schliesst... da gibts ja nahezu nix am markt.... erstrecht nicht mit standesgemässen 8GB.
Dino-Fossil
2019-03-28, 14:50:30
Die Frage ist, wie sich Navi einordnet und wie viele verschiedene Chips wir davon sehen.
Vermutlich wird sich der Salvage-Navi von der 590/1660 deutlich absetzen, sonst wäre er eher unnötig. Alles unterhalb wird vermutlich nur ersetzt, wenn es auch einen weiteren, kleinen Navi Chip gibt, ansonsten wird da vermutlich Polaris noch ein wenig ausgelutscht.
Ich glaube auch nicht, dass Navi zunächst an die R VII rankommt, sonst hätte man sich die auch gespart.
Also könnte er z.B. V56/64 direkt ersetzen, zu geringeren Kosten und Verbrauch, sowie evtl. leicht besserer Performance.
Oder er ordnet sich leicht unterhalb, also z.B. zw. 590 und V56 (salvage) sowie zwischen V56 und V64 (Vollausbau) ein.
Natürlich reine Speku meinerseits.
amdfanuwe
2019-03-28, 14:54:54
auf alle fälle brauch esie etwas, das die riesige klaffende lücke zwischen 590 und V56 schliesst... da gibts ja nahezu nix am markt.... erstrecht nicht mit standesgemässen 8GB.
30% seh ich nicht als riesen Lücke. Man braucht ja nicht für alle 10% mehr Leistung eine eigene Karte, wie Nvidia das aktuell macht.
SKYNET
2019-03-28, 15:08:05
30% seh ich nicht als riesen Lücke. Man braucht ja nicht für alle 10% mehr Leistung eine eigene Karte, wie Nvidia das aktuell macht.
eher 40%... und das ist ne derbe lücke, 20% wäre normal für nen sprung zum nächst höheren modell.
dargo
2019-03-28, 16:10:44
eher 40%... und das ist ne derbe lücke, 20% wäre normal für nen sprung zum nächst höheren modell.
Es sind keine 40% sondern 31%.
https://www.computerbase.de/2018-11/amd-radeon-rx-590-test/3/#diagramm-performancerating-2560-1440
Und das ist keine riesen Lücke. Ähnlicher Bereich ist 2080TI und 2080.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160
Deswegen einen neuen Chip aufzulegen wäre Blödsinn³.
SKYNET
2019-03-28, 16:33:45
Es sind keine 40% sondern 31%.
https://www.computerbase.de/2018-11/amd-radeon-rx-590-test/3/#diagramm-performancerating-2560-1440
Und das ist keine riesen Lücke. Ähnlicher Bereich ist 2080TI und 2080.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160
Deswegen einen neuen Chip aufzulegen wäre Blödsinn³.
also bei den 99th sehe ich gute 50% sogar... was interessieren mich denn die AVR? machen die nen spiel spielbar? nö...
Leonidas
2019-03-29, 03:44:17
Wenn der Yield stimmt sind 300mm² 7nm deutlich billiger als 600mm² 14nm.
Ist korrekt, wird häufig vergessen. Aber es geht ja hier um kleinere Chips. Sagen wir die Umsetzung von Polaris 10/20/30 auf 7nm. Da kommen aus 14nm 232mm² dann in 7nm vielleicht 150mm² raus. Das wird schon ungünstig, weil da viele kaum schrumpfbare Chipteile dabei sind. Und vor allem gilt: In dieser Größenklasse spielt der Verschnitt und der Yield dann keine so große Differenz mehr.
Daredevil
2019-03-29, 04:03:17
Also bitte, natürlich wird Polaris vom Midrange-Navi ersetzt. Alles andere ergibt vorne und hinten keinen Sinn.
Wenn man Polaris günstig mit 12nm anbieten kann, wieso nicht?
Polaris hat genug HD/FullHD Performance, Polaris ist spottbillig und Polaris ist AMDs attraktivstes Pferd aktuell.
Never change a running Product.
Im Computerbase Parcour in FullHD packt die RX590 in 10/15 Spielen über 60FPS.
Wenn man mit 7nm die Preis/Leistung erhöhen kann, ist das natürlich eine feine Sache. Aber ich würde behaupten, eine RX570 8GB für 134€ ist schwer zu schlagen in 7nm.
Die Kapazitäten bei TSMC wird man doch hoffentlich erstmal für die Märkte einsetzen, wo die Marge deutlich höher ist.
BlacKi
2019-03-29, 04:46:07
Es wird immer die Transistorkosten mit den Chipkosten gleichgesetzt, aber das ist vollkommener Blödsinn. Wenn der Yield stimmt sind 300mm² 7nm deutlich billiger als 600mm² 14nm.
Dann eben nicht Mainstream, das sind sowieso Gummibandbegriffe, dann eben High-End. Bei NV sind 300mm² jetzt Mainstream. Das ist doch auch vollkommen egal. Es wird <300mm² und man wird bei der VII rauskommen, das ist einfach vollkommen offensichtlich. Da gehe ich auch jede Wette drauf ein.
IMO wird das nicht so kommen, das liegt an gddr6 bzw. der geringeren bandbreite. es wird eher v64 werden. ausserdem ist der vergleich wohl eher 300mm² 7nm vs 500mm² 14nm. indem fall gäbe es wohl kaum eine ersparnis.
ausserdem, wenns ein 300mm² chip wird, kann man den 150w tschüss sagen.
beim pricing dann wohl irgendwas zwischen 280-380$ für die 8 und 16gb varianten.
basix
2019-03-29, 09:47:46
AMD hat doch gesagt kleiner als Polaris. Wieso kommen jetzt alle mit 300mm2?!
dargo
2019-03-29, 10:04:57
Wenn man Polaris günstig mit 12nm anbieten kann, wieso nicht?
Polaris hat genug HD/FullHD Performance, Polaris ist spottbillig und Polaris ist AMDs attraktivstes Pferd aktuell.
Never change a running Product.
Im Computerbase Parcour in FullHD packt die RX590 in 10/15 Spielen über 60FPS.
Das Problem an P30 ist der Verbrauch. Der ist noch etwas höher als bei P20. In einem ~200€ Preissegment kannst du die höheren Kosten von gutem Kühler immer schlechter unterbringen. P30 wäre echt gut mit den Frequenzen vom P20, bsw. 1,35-1,4GHz. Mich würde es nicht wundern wenn man dann nur noch bei 160-170W für die gesamte Karte landen würde. Eventuell sogar 150W. Aber leider hat sich AMD wieder für die Kotzgrenzen bei der Frequenz entschieden.
AMD hat doch gesagt kleiner als Polaris. Wieso kommen jetzt alle mit 300mm2?!
Wieso alle? HOT verbreitet mal wieder wilde Gerüchte.
Wenn man Polaris günstig mit 12nm anbieten kann, wieso nicht?
Polaris hat genug HD/FullHD Performance, Polaris ist spottbillig und Polaris ist AMDs attraktivstes Pferd aktuell.
Die Frage ist, wie lange das noch der Fall ist, bevor eine hypothetische 100mm² GPU mit 6 GiB und halb so grosser Spannungsversorgung und Kuehlung billiger ist.
[...]
Wieso alle? HOT verbreitet mal wieder wilde Gerüchte.
Ich versteh nicht ganz, was das dämliche gehate und angefeinde dauernd soll.
AMD hat doch gesagt kleiner als Polaris. Wieso kommen jetzt alle mit 300mm2?!
Wo das denn?
Achim_Anders
2019-03-29, 11:20:41
Hot,
Es hieß von AMD immer, das Navi Midrange wird. Nur weil es jetzt auf 7mn geht, wird vega Performance nicht plötzlich Midrange.
Aus dem. Slide von 2016 ist im übrigen die Zielsetzung von AMD ganz gut zu erkennen: PERF/WATT.
https://images.app.goo.gl/qFLseHeChEuypyfy6
Es ist brutal unwahrscheinlich, dass Navi in die Lwistungsregion von Vega kommt. Dafür ist zwischen polaris und Vega der Abstand zu groß. Das wird irgendwas dazwischen sein.
best Case vega 56 Performance bei 120-150W der custom Modelle.
Wo soll AMD denn riesen Sprung den auf einmal hernehmen?
nairune
2019-03-29, 11:38:05
Hä? Es hieß offiziell zu Navi noch gar nichts, da könnten auch 3 Chips mit allen Performanceklassen auf einmal kommen (wenn auch sicher nicht so sehr realistisch).
Offiziell ist allerdings, dass 2019 das gesamte Portfolio ersetzt werden soll. Insofern würde ich auch eine Ablösung von Polaris erwarten, wobei theoretisch natürlich wieder irgendein refresh Kram gemacht werden könnte.
Dino-Fossil
2019-03-29, 11:42:10
Hot,
Es hieß von AMD immer, das Navi Midrange wird. Nur weil es jetzt auf 7mn geht, wird vega Performance nicht plötzlich Midrange.
Je nach (aktueller) Definition von mid-range. Weit ist Vega(10) nicht mehr davon entfernt, in der Performance auf mid-range Niveau abzusteigen (naja, ein klein wenig wird es noch dauern, aber dennoch).
Die 1660Ti und 2060 gruppieren sich bereits um V56 herum und letztere ist nicht soweit weg von der V64.
Ergo wäre es schön, einen Mid-range Chip für 2019 nicht wesentlich unterhalb von V10 (salvage) anzusiedeln.
Wie es dann kommt, bleibt abzuwarten. Hängt natürlich auch davon ab, was AMD insgesammt für Navi plant.
Offiziell ist allerdings, dass 2019 das gesamte Portfolio ersetzt werden soll. Insofern würde ich auch eine Ablösung von Polaris erwarten, wobei theoretisch natürlich wieder irgendein refresh Kram gemacht werden könnte.
Wirklich, gab es sowas offiziell? Wann denn?
Es gibt eben 2 Möglichkeiten. Entweder gibts vorher schon nen Navi12, weil die den noch ohne EUV releasen oder es wird gleich N10, wenn man alle in EUV machen möchte. Auf jeden Fall aber werden das mMn eben 3 Chips werden, die das komplette bisherige Portfolio (minus Polairs12) ersetzen werden und zwar inklusive der VII. Da kann man eben mit in etwa 20, 40 und 64CUs rechnen, alles andere fänd ich doch wirklich sehr überraschend. Außerdem wird der Launch wieder irgendwie gestaffelt ablaufen, also entweder im Frühsommer schon N12, falls ohne EUV, und/oder im Herbst eben N10, dann mit EUV.
nairune
2019-03-29, 11:56:23
Wirklich, gab es sowas offiziell? Wann denn?
Papermaster zur CES. War kein hartes Versprechen, aber doch eine Absichtserklärung.
dargo
2019-03-29, 11:58:28
Ich versteh nicht ganz, was das dämliche gehate und angefeinde dauernd soll.
Welches Gehate? Ich habe nichts gegen Spekulationen. Wenn diese aber fernab jeglicher Realität sind dann schon.
BoMbY
2019-03-29, 13:54:24
Papermaster zur CES. War kein hartes Versprechen, aber doch eine Absichtserklärung.
Nö, das war das übliche Marketing-Wischi-Waschi was alles und nichts bedeuten kann: https://www.thestreet.com/video/amd-cto-14830482
N0Thing
2019-03-29, 15:04:38
V20 bleibt nicht am Markt, das ist einfach offensichtlich. N10 wird V20 sehr sehr sicher als EUV-Variante ersetzen.
Im Endkundenmarkt wird Navi eventuell die Radeon VII ersetzen, der V20 ist aber dank Double Precision im HPC-Bereich notwendig und wird bis zu einem entsprechendem Nachfolger (Navi20?) weiterlaufen.
AlterSack
2019-03-29, 19:31:16
Mal wild und ohne Realitätsbezug rumgesponnen...
Geil wäre ein Stapeldesign. Unten die Speichercontroller, IO und 2D-kram.
Obendrüber dann 32-40 CU und ein 8Gbyte-Stapel HBM2 mit 1,2Ghz (1,6Ghz
ist ja leider noch nicht verfügbar). Mal unterstellt, AMD schafft es, bei Navi
die Leistung um 30% gegenüber einem entsprechenden Polaris 20 zu erhöhen
und den Takt um 30% anzuheben, wäre man im Leistungsbereich einer Vega 64.
Und das Ganze bei max. 150mm² für die reine 7nm-GPU. Der Verbrauch sollte auch im Bereich
von max. 150 Watt liegen.
Screemer
2019-03-29, 20:01:07
nächter schritt sind imho aktive interposer.
AlterSack
2019-03-29, 20:06:01
Naja, meine Spinnerei geht über den aktiven Interposer hinaus.
amdfanuwe
2019-03-29, 20:45:57
Naja, meine Spinnerei geht über den aktiven Interposer hinaus.
Sei versichert, dass die bei AMD noch mehr rumspinnen. Sehen wir halt erst in 5+ Jahren, was sie grad austüfteln.
Leonidas
2019-03-30, 04:40:10
Es hieß von AMD immer, das Navi Midrange wird.
Einrechnen sollte man hier: Midrange innerhalb einer neuen Generation. D.h. Preispunkt weiterhin 200-300 Euro, aber doch nicht Polaris-Performance. Sondern logischerweise Vega-Performance - ein neuer Midrange-Standard für eine neue Gfx-Generation.
TheGood
2019-03-30, 06:45:09
Nö, das war das übliche Marketing-Wischi-Waschi was alles und nichts bedeuten kann: https://www.thestreet.com/video/amd-cto-14830482
Alles klar.... wir werden ja sehen wer recht behält.... *kopfschüttel
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Navi-7-nm-Portfolio-2019-1273053/
Im Endkundenmarkt wird Navi eventuell die Radeon VII ersetzen, der V20 ist aber dank Double Precision im HPC-Bereich notwendig und wird bis zu einem entsprechendem Nachfolger (Navi20?) weiterlaufen.
Natürlich nur im consumerbereich. War das andere je Thema? Versteh ich net...
Achim_Anders
2019-03-30, 09:39:22
Einrechnen sollte man hier: Midrange innerhalb einer neuen Generation. D.h. Preispunkt weiterhin 200-300 Euro, aber doch nicht Polaris-Performance. Sondern logischerweise Vega-Performance - ein neuer Midrange-Standard für eine neue Gfx-Generation.
Da würde ich im best case mitgehen.
Was mich daran zweifeln lässt, dass es ein super P/L Kracher wird ist die momentane Preis Situation. Durch das Ende des Miningsbooms sind die Preise für Polaris jetzt schon so stark im Keller, dass navi dagegen teurer "aussehen" wird, als damals polaris nach der 290/390 Generation.
Ich glaube nicht, dass es Vega 64 Leistung für 250€ custom Variante geben wird zu Release. Das wäre eher ein 300€ Chip, der als custom 350€ kostet...
Grund dafür sehe ich, wie gesagt in den derzeitigen niedrigen Sonderangebotspreisen.
Und ich bleibe dabei, das zwischen polaris und Vega so viel platz ist, das navi eher dazwischen kommen könnte (worst case) und vega 64 nicht ganz packt. Best case natürlich schon! Imo ist aber dazwischen alles möglich.
BlacKi
2019-03-30, 10:15:12
die situation ist komplett anders als bei polaris 2016. alles ist für midrangeverhältnisse teurer. einen midrange chip mit v64 performance, wird mit 16gb auch mehr kosten als v64 zurzeit. ein 8gb modell wohl 50-80€ günstiger. amd (bzw. der markt für amd karten), hat sich in den letzten jahren immer an nvidias preise orientiert, sofern der markt nicht mit karten überflutet, kann man sich an nvidias preisen orientiere.
dargo
2019-03-30, 11:23:16
Vergesst das gleich mit den 16GB bei Navi 10. Es werden 8GB, in dem Preissegment von Navi 10 haben 16GB nichts verloren. Das einzige was ich mir vorstellen kann ist, dass eventuell Sapphire beide Versionen rausbringt. Wie schon damals bei Tahiti. Aber auch nur wenn AMD grünes Licht gibt und falls überhaupt später.
Daredevil
2019-03-30, 11:34:34
Wäre HBM nicht auch denkbar?
Es soll doch jetzt 8GB Stacks geben mit 20% mehr Performance. ( Aber ka was die kosten lol :< )
Da wäre ein Stack mit 8GB schon ne gute Ecke schneller als 8 DDR5 Chips bei der Bandbreite und deutlich schneller im Cache. Man spart zudem noch einiges an Platinenfläche und könnte damit dann zuckersüße kleine PCBs fertigen.
SKYNET
2019-03-30, 11:35:55
Wäre HBM nicht auch denkbar?
Es soll doch jetzt 8GB Stacks geben mit 20% mehr Performance. ( Aber ka was die kosten lol :< )
Da wäre ein Stack mit 8GB schon ne gute Ecke schneller als 8 DDR5 Chips bei der Bandbreite und deutlich schneller im Cache. Man spart zudem noch einiges an Platinenfläche und könnte damit dann zuckersüße kleine PCBs fertigen.
da HBM2 nicht mehr oder weniger kostet als GDDR6 bei gleichem speicherausbau, wäre das sogar denkbar(und wünschenswert, da ich HBM für das deutlich bessere medium halte).
dargo
2019-03-30, 11:38:20
Wäre HBM nicht auch denkbar?
Es soll doch jetzt 8GB Stacks geben mit 20% mehr Performance. ( Aber ka was die kosten lol :< )
Da wäre ein Stack mit 8GB schon ne gute Ecke schneller als 8 DDR5 Chips bei der Bandbreite und deutlich schneller im Cache. Man spart zudem noch einiges an Platinenfläche und könnte damit dann zuckersüße kleine PCBs fertigen.
HBM2 ist für dieses Segment zu teuer. Und wie kommst du auf GDDR5? Navi wird natürlich GDDR6 verwenden. Mit 12Gbps und 256Bit SI bist du bei 384GB/s, mit 14Gbps dann halt 448GB/s. Das ist genug für Navi 10.
da HBM2 nicht mehr oder weniger kostet als GDDR6 bei gleichem speicherausbau, wäre das sogar denkbar(und wünschenswert, da ich HBM für das deutlich bessere medium halte).
Natürlich kostet es mehr.
Daredevil
2019-03-30, 11:45:02
Oh Sorry, mein Fehler. Es waren nicht 20%, sondern 33%. :D
https://www.computerbase.de/2019-03/samsung-hbm2e/
3,2 anstatt bisher 2,4 Gbit/s beträgt die Datenrate von HBM2E. Die Speicherbandbreite für einen kompletten Speicherstack würde demnach von 307 auf 410 GB/s ansteigen. Da erstmals 16-Gigabit-Chips statt 8 Gbit zum Einsatz kommen, können durch die bisher bereits genutzte Technik der achtfachen Stapelung fortan maximal 16 GByte in einem HBM2E-Package realisiert werden.
Ist halt die Frage, ob der Flächenverbrauch und die Verdrahtung des ganzen nicht doch teurer ist in Verbindung mit GDDR6, als eben ein HBM Chip zum DIE zu löten.
HBM hat da durchaus noch mehr Vorteile an Bord. Das Kühlerdesign, der Stromverbrauch, weniger Teile = weniger Störanfälligkeiten ect.
Ich meine jetzt auch nur die Performanceklasse ~RX580, deswegen habe ich GDDR5 als Vergleich genommen. Der hat ja nur 256.0 GB/s auf z.B. einer RX590.
Also wäre der eine HBM2E Stack schon alleine 60% schneller.
dargo
2019-03-30, 11:48:32
Ist halt die Frage, ob der Flächenverbrauch und die Verdrahtung des ganzen nicht doch teurer ist in Verbindung mit GDDR6, als eben ein HBM Chip zum DIE zu löten.
Natürlich nicht. In dem Fall hätte Nvidia schon lange HBM2 im Gaming Sector. ;)
Daredevil
2019-03-30, 11:52:00
Ja, ne.
Ich weiß, du magst gerne Dinge schnell beantworten, aber so schnell geht es dann doch nicht.
Hier stehen nicht 2 langsame HBM Stacks im Vergleich zu 6 GDDR6 Stacks, sondern nur einer, welcher deutlich schneller ist.
Das ist schon ein großer ( materieller ) Unterschied.
w0mbat
2019-03-30, 12:16:55
Grund dafür sehe ich, wie gesagt in den derzeitigen niedrigen Sonderangebotspreisen.
Du vergisst, dass die RX 480 vor drei Jahren für $199 angekündigt wurde. Das war 2016 und erst jetzt, 2019, passen sich die Preise langsam an und man bekommt eine re-branded RX 580 für <200€.
Das sind keine Sonderangebotspreise, sondern war lange der Normalpreis für eine Mittelklasse GPU, bevor der Mining-Boom das ganze Preisgefüge zerstört hat.
250€ für eine neue mainstram GPU mit der Leistung einer high-end GPU von vor zwei Jahren (Vega) wäre nichts neues, wenn man nur ein paar Jahre zurück denkt.
dargo
2019-03-30, 12:17:27
@Daredevil
Und was soll das ändern? Glaubst du denn wirklich der schnellere HBM2 kostet das gleiche wie der langsamere? Und nochmal... wäre diese Variante die du dir da vorstellst günstiger als die GDDR6 Variante hätte Nvidia es schon in ihrem Portfolio bei Gaming-Turing. Hier vergessen offenbar einige, dass der Interposer nicht kostenlos ist.
w0mbat
2019-03-30, 12:44:33
Aber AMD hat, anders als Nvidia, schon früh und in consumer Produkten auf HBM gesetzt.
Ravenhearth
2019-03-30, 12:47:40
Ja, weil sies mussten. Die 512 GB/s von Fiji hätten sie mit GDDR5 nur mit 512 bit und 8 Gbps hinbekommen, und das gabs noch nichtmal. Der Verbrauch wäre im Vergleich mit HBM zudem astronomisch gewesen.
w0mbat
2019-03-30, 12:57:46
Schon eine HD2900 XT hatte ein 512bit SI, nur so als Hinweis ;)
Ich weiß nicht ob mainstream Navi mit HBM oder GDDR6 kommt und vieles spricht wohl für letzteres. Aber ausschließen würde ich HBM nicht, vor allem weil AMD hier schon sehr viel Erfahrung hat und Pionier war. Und keiner von uns kennt die wirklich aktuellen Preise für HBM, den interposer, etc.
Daredevil
2019-03-30, 13:03:27
Ich sage ja auch nicht, dass das realistisch erscheint mit HBM2E, weil ich weder Preise kenne, noch das technische Know How habe, aber ich erkenne sehr wohl die großen Vorteile daran, ein Produkt kompakter zu machen.
Weniger Bauteile, weniger Defekte, kleineres PCB, kleinerer Kühler, kleinere Verpackung, kleinere Frachtkosten, geringeres Gewicht ect.
Sowas muss man dann halt gegenrechnen zu den aktuellen GDDR6 Preisen und den technischen Nachteilen. Aber das kann man auch hier nur Spekulieren.
Eine der günstigeren Karten ist ja immer die Pulse gewesen. Die hat ein Nano PCB.
Nvidia hat mit der RTX2060 ja auch Geld beim PCB eingespart durch diesen Klumpatsch hier. :D
https://abload.de/img/unbenanntbbj6o.png
Edit:
Hier mal im Vergleich zu nem Vega 56 14nm Nano PCB. Das sieht schon deutlich einfacher aus von den Bauteilen her. ( Und ist für mehr Saft ausgelegt :< )
https://www.notebookcheck.net/fileadmin/Notebooks/News/_nc3/ez3jnmsqazp01_1480x1110.jpg
amdfanuwe
2019-03-30, 13:07:55
Du vergisst, dass die RX 480 vor drei Jahren für $199 angekündigt wurde. Das war 2016 und erst jetzt, 2019, passen sich die Preise langsam an und man bekommt eine re-branded RX 580 für <200€.
199$ war die 4GB Version. Und die 480 8GB gabs für 239€. Werkelt bei mir im PC.
Dann kam leider Mining und die Preise hoben ab.
BlacKi
2019-03-30, 13:09:10
umso stärker die karte, umso mehr rentiert sich hbm. bei den kleinen karten wäre das wohl noch nicht rentabel. man muss das ja auch auf den kleinen navi12 übertragen nicht nur beim den großen bruder abwägen.
199$ war die 4GB Version. Und die 480 8GB gabs für 239€. Werkelt bei mir im PC.
Dann kam leider Mining und die Preise hoben ab.
und am anfang wurden 300€ und mehr verlangt für die 8gb version, die 4gb variante für 250€+. was der markt verlangt und was amd für preise angibt sind wie immer 2 verschiedene dinge.
amdfanuwe
2019-03-30, 13:12:27
Wie sieht es eigentlich mit dem Platzverbrauch des Speicherinterfaces auf dem Die aus?
Wenn ich mich recht entsinne, ist ein HBM Interface kleiner als 256 Bit GDDR Interface.
SKYNET
2019-03-30, 13:14:55
HBM2 ist für dieses Segment zu teuer. Und wie kommst du auf GDDR5? Navi wird natürlich GDDR6 verwenden. Mit 12Gbps und 256Bit SI bist du bei 384GB/s, mit 14Gbps dann halt 448GB/s. Das ist genug für Navi 10.
Natürlich kostet es mehr.
8GB kosten beide runabout $150 bei einzelabnahme, entsprechend kannst davon ausgehen das bei 100.000+ einheiten, der rabatt bei beiden ziemlich ähnlich ausfallen wird.
wer hat eigentlich das dämliche gerücht gestreut HBM2 sei teurer als GDDR6? O_o
unl34shed
2019-03-30, 13:18:11
Natürlich kostet es mehr.
Nur weil es immer und überall behauptet wird, muss es noch lange nicht stimmen. Gibt es aktuelle Zahlen zu HBM2? Meines wissens nicht.
Alle Zahlen die sagen HBM sei zu teuer beziehen sich entweder auf HBM1 oder falls HBM2 sind das wilde spekulationen die schon zig jahre alt sind. Sollte es da etwas aktuelles geben, bitte hier verlinken.
umso stärker die karte, umso mehr rentiert sich hbm. bei den kleinen karten wäre das wohl noch nicht rentabel. man muss das ja auch auf den kleinen navi12 übertragen nicht nur beim den großen bruder abwägen.
Das stimmt so doch auch nicht.
Ein navi 12 mit einem HBM stack wäre durchaus möglich. Die Bandbreite würde selbst mit einem Stack stimmen, wie es mit der VRAM größe und der Verfügbarkeit in der entsprechenden HBM Chips (gesamt Stückzahl) aussieht, das ist eher entscheidend.
Was hier eher für die "großen" karten spricht ist, dass sie weniger verkauft werden und nicht genug HBM produziert wird. Aber generell zu sagen HBM macht auf kleinen Karten wenig Sinn ist schlicht falsch.
BlacKi
2019-03-30, 13:19:02
8GB kosten beide roundabout $150 bei einzelabnahme, entsprechend kannst davon ausgehen das bei 100.000+ einheiten, der rabatt bei beiden ziemlich ähnlich ausfallen wird.
wer hat eigentlich das dämliche gerücht gestreut HBM2 sei teurer als GDDR6? O_o
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-jahresausklangs-2018
dargo
2019-03-30, 14:24:21
Aber AMD hat, anders als Nvidia, schon früh und in consumer Produkten auf HBM gesetzt.
Und trotzdem gehen sie den Weg nicht unter High-End. Aus welchen Gründen wohl?
8GB kosten beide runabout $150 bei einzelabnahme, entsprechend kannst davon ausgehen das bei 100.000+ einheiten, der rabatt bei beiden ziemlich ähnlich ausfallen wird.
wer hat eigentlich das dämliche gerücht gestreut HBM2 sei teurer als GDDR6? O_o
Keine Ahnung woher du den Unsinn hast. Aber 8GB GDDR6 kosten 55-75$.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR5-GDDR6-deutlich-teurer-1272392/
Zumindest bei Micron, Samsung wird sicherlich etwas mehr verlangen. Lustigerweise ist 13Gbps am billigsten bei GDDR6. Wüsste zu gern ob Nvidia bei TU116 12Gbps oder 13Gbps einkauft. Wirtschaftlich wäre es natürlich sinnvoller den 13-er zu nehmen und diesen auf 12Gbps untertakten. Sofern die Liste natürlich stimmt.
btw.
Bei 150$ würde NV mit TU116 gar nichts mehr verdienen. :tongue: NV hat sich bei TU116 Salvage auch aus gutem Grund für GDDR5 entschieden wenn man sich die Liste anschaut.
dargo
2019-03-30, 14:39:42
doppelpost
amdfanuwe
2019-03-30, 14:43:10
und am anfang wurden 300€ und mehr verlangt für die 8gb version, die 4gb variante für 250€+. was der markt verlangt und was amd für preise angibt sind wie immer 2 verschiedene dinge.
Schön, dass du besser weißt als ich, was ich bezahlt habe.
12.07.2016 8GB RX 480 239,- bei MF ohne Versandkosten im Midnightsale. Referenzmodell.
BlacKi
2019-03-30, 14:47:00
Schön, dass du besser weißt als ich, was ich bezahlt habe.
12.07.2016 8GB RX 480 239,- bei MF ohne Versandkosten im Midnightsale. Referenzmodell.
ich bezog mich auf verfügbare karten:biggrin:
http://www.pcgameshardware.de/Polaris-Codename-265453/News/Radeon-RX-480-Strassenpreise-sinken-1203684/
http://www.pcgameshardware.de/Polaris-Codename-265453/News/Radeon-RX-480-Verfuegbarkeit-Preise-1207506/
amdfanuwe
2019-03-30, 14:54:53
ich bezog mich auf verfügbare karten:biggrin:
http://www.pcgameshardware.de/Polaris-Codename-265453/News/Radeon-RX-480-Strassenpreise-sinken-1203684/
Ja, das war im August. Einen Monat später. Hab mich damals gefreut nicht auf die Custom Karten gewartet zu haben und günstig an eine 480er gekommen zu sein. :biggrin:
unl34shed
2019-03-30, 14:57:43
Und trotzdem gehen sie den Weg nicht unter High-End. Aus welchen Gründen wohl?
Das kann verschiedene Gründe haben und muss nichts mit dem Preis zu tun haben. Mir würde da spontan folgendes einfallen.
Was gibt es denn von AMD unter High-End? Seit 2016 Polaris. Als Polaris released wurde war HBM2 ganz neu -> Verfügbarkeit schlecht.
Ziemlich sicher gab es damals auch keine 8GB Stacks in großen Mengen -> 2 Stack auf Polaris. Was hätte die Bandbreite genutzt? Polaris wäre nur viel komplexer geworden durch die 2 Stacks hätte aber keine Vorteile gewonnen.
Das war jetzt vor fast 3 Jahren. Damals war neue Technik teuer, da hätte Preis gezählt, aber heute 3 Jahre später? Niemand hat aktuelle Preise. Klar kann man es sich einfach machen und "zu teuer" immer wieder wiederholen, aber wahrer wird es dadurch einfach nicht.
Keine Ahnung woher du den Unsinn hast. Aber 8GB GDDR6 kosten 55-75$.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR5-GDDR6-deutlich-teurer-1272392/
Er schrieb Einzelpreis, die Preise sind bei Abnahme von 2k+ :wink:
BlacKi
2019-03-30, 15:12:36
wenn die preise wirklich gleich oder günstiger wären, dann würde man den ausbau von hbm massiv pushen, das sehe ich nicht wirklich.
amdfanuwe
2019-03-30, 15:20:33
wenn die preise wirklich gleich oder günstiger wären, dann würde man den ausbau von hbm massiv pushen, das sehe ich nicht wirklich.
Das liegt wohl eher an der Verfügbarkeit. Die Nachfrage ist momentan noch höher als das Angebot.
Daredevil
2019-03-30, 15:26:03
wenn die preise wirklich gleich oder günstiger wären, dann würde man den ausbau von hbm massiv pushen, das sehe ich nicht wirklich.
Und zum dritten mal.
Es gab bis zum Jahre 2019 noch kein HBM2E, welcher mit einem Stack 60% schneller ist als der GDDR5 von Polaris.
Der wurde vor 10 Tagen zum ersten mal von Samsung vorgestellt auf der GTC.
Mit zwei Stacks von dem bekommt man 820GB/s hin, das ist für den größeren Navis ebenso interessant, falls die Vegas Architektur irgendwie ähneln und RTX2080 Leistung irgendwo angepeilt wird.
Brillus
2019-03-30, 15:42:21
Das liegt wohl eher an der Verfügbarkeit. Die Nachfrage ist momentan noch höher als das Angebot.
Was gegen günstig spricht. Interposer denk ich wird vom günstigeren Boardlayout ausgeglichen. Ich wurde mich nicht über HBM bei Navi10 wundern, erwarten tue ich ihn aber eher bei der nextgen, dann potenzial mit aktiven Interposer, mit AMD und Intel nun in Richtung, io in ältere Technologie zu schieben denk ich das das auch bei GPU bald kommen könnte.
Windi
2019-03-30, 15:43:05
Für HBM braucht man auch noch einen Interposer aus Silizium.
Selbst bei Zen2 mit den Chiplets sieht man davon nichts. Obwohl das sicher sehr Vorteilhaft im Bereich der Bandbreite und des Stromverbrauchs gewesen wäre.
Ich glaube aber auch nicht, das HBM wirklich noch teurer als anderer Speicher ist. Ja wenn man für ihn den neusten Fertigungsprozess nutzt und für DDR4 einen älteren, dann kann das ein Bischen was aus machen. Aber gegen modernem GDDR, im aktuellen Fertigungsprozess sollte es keine Unterschiede geben. Intern sind das ja eh immer dieselben Speicherzellen.
Am Anfang ist es halt immer teurer und das bessere Produkt kostet eigentlich immer mehr als der Vorgänger, ganz egal wie die Produktionskosten sind. Dazu kommt noch der Interposer, der selbst für Zen2 zu teuer war. (Und das, obwohl hier die Gewinnspanne viel höher ist.)
amdfanuwe
2019-03-30, 16:06:46
das das auch bei GPU bald kommen könnte.
Was hat denn eine GPU an I/O?
Speicherkontroller für HBM braucht nicht so dicke Endstufen.
Ein paar I/O Pins für Lüftersteuerung, Beleuchtung, Spannungsregelung.
Natürlich noch die 16 PCIe Leitungen.
Ob sich das wirklich lohnt?
Einen active Interposer kann ich mar da noch vorstellen, aber einen eigenen I/O Chip seh ich da nicht.
SKYNET
2019-03-30, 17:13:37
Und trotzdem gehen sie den Weg nicht unter High-End. Aus welchen Gründen wohl?
Keine Ahnung woher du den Unsinn hast. Aber 8GB GDDR6 kosten 55-75$.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR5-GDDR6-deutlich-teurer-1272392/
Zumindest bei Micron, Samsung wird sicherlich etwas mehr verlangen. Lustigerweise ist 13Gbps am billigsten bei GDDR6. Wüsste zu gern ob Nvidia bei TU116 12Gbps oder 13Gbps einkauft. Wirtschaftlich wäre es natürlich sinnvoller den 13-er zu nehmen und diesen auf 12Gbps untertakten. Sofern die Liste natürlich stimmt.
btw.
Bei 150$ würde NV mit TU116 gar nichts mehr verdienen. :tongue: NV hat sich bei TU116 Salvage auch aus gutem Grund für GDDR5 entschieden wenn man sich die Liste anschaut.
wir können schon lesen, oder?
Zudem ist zu bedenken, dass die angegebenen Referenzpreise für eine Abnahmemenge von 2.000 Stück gelten
8GB kosten beide runabout $150 bei einzelabnahme
dargo
2019-03-30, 18:17:01
Ah Junge, du bist einfach nur noch anstrengend. Logik ist wohl nicht deine Stärke. Wäre das Gesamtkonstrukt aus HBM2 und Interposer güstiger als die GDDR6 Lösung hätten wir das schon längt in jeder Performance Grafikkarte.
Daredevil
2019-03-30, 18:25:46
Kaby Lake G? :>
Das "Wieso hat Nvidia das nicht" ist für mich kein Glasklares Argument.
Nvidia könnte auch einfach GDDR6 nutzen, weil sie davon einfach mehr abnehmen bzw. die Lieferbarkeit dessen besser ist bzw. sie einfach nen fette Partnerschaft haben.
Das technisch beste muss nicht immer das sinnvollste sein.
w0mbat
2019-03-30, 18:46:00
Ah Junge, du bist einfach nur noch anstrengend. Logik ist wohl nicht deine Stärke. Wäre das Gesamtkonstrukt aus HBM2 und Interposer güstiger als die GDDR6 Lösung hätten wir das schon längt in jeder Performance Grafikkarte.
Um fair zu bleiben müsste dies schon bei der Konzeption der aktuellen GPUs so gewesen sein, bei den neuen mainstream Nvidia Karten also vor über einem Jahr. Und AMD ist oft etwas andere Wege gegangen, vor allem wenn es um HBM geht.
Vielleicht wurde Navi ja für HBM konzipiert? Wir wissen es einfach nicht. Nochmal: wenn die Angaben zu den Kosten stimmen, spricht sehr vieles für GDDR6. Aber ausschließen würde ich es nicht, vor allem weil AMD auch schon sehr vie R&D in HBM gesteckt hat.
dargo
2019-03-30, 19:27:02
Kaby Lake G? :>
Gehts noch bescheuerter?
wenn die preise wirklich gleich oder günstiger wären, dann würde man den ausbau von hbm massiv pushen, das sehe ich nicht wirklich.
Mit welcher GPU denn? Das geht doch erst ab Navi.
Aber ich denke, dass AMD nur beim großen Navi HBM nutzen wird. Der kleinere wird mMn 128Bit GDDR6 einsetzen.
Brillus
2019-03-30, 20:46:02
Was hat denn eine GPU an I/O?
Speicherkontroller für HBM braucht nicht so dicke Endstufen.
Ein paar I/O Pins für Lüftersteuerung, Beleuchtung, Spannungsregelung.
Natürlich noch die 16 PCIe Leitungen.
Ob sich das wirklich lohnt?
Einen active Interposer kann ich mar da noch vorstellen, aber einen eigenen I/O Chip seh ich da nicht.
Ich meinte auch aktiver interposer als IO-Chip.
mczak
2019-03-31, 01:47:13
Mit zwei Stacks von dem bekommt man 820GB/s hin, das ist für den größeren Navis ebenso interessant, falls die Vegas Architektur irgendwie ähneln und RTX2080 Leistung irgendwo angepeilt wird.
Selbst wenn Flashbolt preislich hinkommen würde (was ich bezweifle) glaube ich kaum dass der in einem Produkt das 2019 erscheinen sollte realistisch ist. Angekündigt reicht da nicht.
Ich habe noch nicht mal ein Produkt gesehen das Aquabolt ausreizt. (Die Vega VII hat HBM2 Speicher (oder zumindest BIOS-Support dafür, wie auch für Hynix HBM2) der bei Samsung unter Aquabolt und nicht unter Flarebolt klassifiziert ist, allerdings taktet der nur mit 2Ghz - immerhin braucht Aquabolt da nur noch 1.2V bei 2Ghz, da waren bei Flarebolt wohl noch 1.35V fällig, wobei ich nicht sicher bin ob das wirklich für alle Flarebolt-Chips gilt, die öffentlichen Spezifikationen bei Samsung geben da gar nichts her.)
Leonidas
2019-03-31, 05:16:56
Samsung wollte mit HBM2E eigentlich jetzt die Massenfertigung startet, ergo kann das durchaus Jahresende verfügbarkeit. Da nutzt ma wohl einfach nur die neueste DRAM-Fertigungstechnologie, deswegen die höheren Taktraten - Samsung kann da seine Haus-eigenen Vorteile ausspielen. Nur wird es dieses Jahr in ein Konsumer-Produkt kommen? Mir kam es so vor, als hätte man schon Abnehmer im professionellen Bereich und müsste demzufolge nicht für AMD & NV die Preise von HBM2E auf ein vernünftiges Maß absenken ...
robbitop
2019-03-31, 09:21:17
Ggf nutzt AMD im High End uA HBM weil die mArch bei Vollausbau bisher einfach so viel Bandbreite brauchte (gemessen an Maxwell, Pascal) und man auch durch den ungünstig hohen Betriebspunkt (Takt/TDP) die Leistungsaufnahmenersparnisse dringender brauchte? (Reine Annahme)
HBM ist sicherlich teurer durch Skaleneffekte (output verglichen mit vergleichbaren Speichertypen pro Jahr) und durch die großen SI, die man zusätzlich herstellen und verbinden muss. Mit Intels emib wäre das sicherlich günstiger.
AMD insbesondere wird die HBM-Nutzung nicht so viel mehr kosten, da man eine funktionierende Lieferkette und Infrastruktur für HBM aufgebaut hat. Das ist auch der Grund, warum man auf jeden Fall ein Massenprodukt bringen wird, was da Ganze weiternutzen wird, wenn Vega10 EOL geht. Man wird das auf jeden Fall erhalten wollen, denn der Tag kommt, an dem HBM bisherigen nicht-stapel-Speicher endgültig den Rang ablaufen wird.
Übrigens ist Samsungs HBM2E gar nicht nötig für Navi. HBM selbst unterstützt schon 16Gbit Slices in der JEDEC-Spec, also 12 Stapel davon (was 24GB ergibt pro Stapel), das Ganze mit 2,4GHz. Samsung setzt nur da einen drauf und sagt, wir können auch 3,2GHz. Das bedeutet, wenn AMD bei 2,4GHz bleibt (was für N10 wahrscheinlich ist), bekommt man den RAM mittelfristig in der Form sowieso auch von anderen Herstellern. Das sind 2 Stapel mit je 4 Slices (wie bisher bei Vega auch) auf 2,4GHz also mehr Bandbreite für mehr Leistung mit 16GB, passt also. Bei GDDR6 ist da erst mal schon schluss (wenn man jetzt 256Bit Anbindung mit 2 HBM-Stapeln vergleicht, was ja auch bandbreitentechnisch passt). Bei HBM kann man die RAM-Menge noch verdreifachen bei gleicher Konfiguration. Da sieht man sehr deutlich, wo die Vorteile liegen.
Leonidas
2019-03-31, 09:57:12
AMD brauchte sicherlich seinerzeit bei Fiji HBM, weil was anderes nicht die benötigte Bandbreite ergeben hätte. GDDR6 bringt hier eigentlich genügend mit, um dies genauso gut zu lösen. HBM ist weiterhin hochwertiger, dies aber in Regionen, welche Consumer-Gfx noch nicht benötigt. Ergo ist es für AMD sinnvoller, wieder auf GDDR6 zu gehen. HBM gibt es dann nur noch bei Produkten für das Profi-Segment. Sofern der gleiche Chip für Consumer- wie für Profi-Lösungen verwendet wird (wie Vega 20), kann es auch bei AMD natürlich noch neue HBM-Karten geben. Normalerweise sollte man allerdings alles andere auf GDDR6 umstellen.
PS: HOT seine Überlegung hat natürlich auch was. Aus taktischer Sicht ist das wohl richtig, sich HBM warm zu halten.
AMD hätte auch 512Bit GDDR5 nutzen können, das wär genauso gut gegangen. Der Chip wär ein bisschen größer gewesen (wenn überhaupt) und man hätte noch ein paar W mehr verbraucht, sonst nix.
Das Ganze hatte rein wirtschaftliche Gründe, man wollte an der Infrastruktur aufbauen. Jetzt wo man die am Laufen hat, wird man auch dabei bleiben. Also nix mit GDDR6 ist sinnvoller. Man wird GDDR6 natürlich im Mainstream und darunter verwenden (wenn nicht weiterhin GDDR5).
dargo
2019-03-31, 10:50:58
HBM gibt es dann nur noch bei Produkten für das Profi-Segment. Sofern der gleiche Chip für Consumer- wie für Profi-Lösungen verwendet wird (wie Vega 20), kann es auch bei AMD natürlich noch neue HBM-Karten geben. Normalerweise sollte man allerdings alles andere auf GDDR6 umstellen.
Nicht nur das. Wenn AMD schlau ist sollten die bei kleiner Navi 10 GDDR5 verwenden sofern die Preislisten vom Speicher tatsächlich stimmen. Nichts anderes macht aktuell Nvidia mit TU116 Salvage. Wobei man da wieder gegen rechnen muss, was ist günstiger bei 7nm? 128Bit SI mit GDDR6 oder 256Bit SI mit GDDR5?
Edit:
Meint ihr es wird noch Ersatz für Polaris 21 bei Navi gegen? Ich denke diesen Bereich wird man komplett fallen lassen. Wenn man sich aktuell die Preise von P20 Salvage und P21 anschaut ist der P21 eh komplett sinnlos. P21 müsste ca. die Hälfte von RX570 kosten. Und das lohnt dann offenbar gar nicht mehr. Marge = Null.
Es wird mMn nur Polaris 12 übrigbleiben. In 7nm wird so ein 20CU-Chip schon kaum 100mm² haben mMn. Ein 64Bit Interface für GDDR6 und 4 PCIe3/4-Lanes würden ebenfalls reichen. GDDR5 würde das Speicherinterface auf 128Bit aufblähen und wäre mMn keine gute Wette auf die Zukunft. Bei NV ist das anders. Wenn Turing abgelöst wird, wird er komplett abgelöst. Ich könnt mir aber vorstellen, dass es dann auch Billigvarianten mit DDR5-Bestückung gibt später. Ohne G.
dargo
2019-03-31, 11:09:17
Polaris 12? Da ist das Preisleistungsverhältnis noch schlimmer als bei Polaris 21. :freak: Auch dafür sehe ich keinen Markt mehr. Zumal die neuen APUs schon schneller sein dürften.
Edit:
Wie kommst du auf 20 CUs? P12 hat gerade mal 8-10 CUs.
Es wird mMn nur Polaris 12 übrigbleiben. In 7nm wird so ein 20CU-Chip schon kaum 100mm² haben mMn. Ein 64Bit Interface für GDDR6 und 4 PCIe3/4-Lanes würden ebenfalls reichen. GDDR5 würde das Speicherinterface auf 128Bit aufblähen und wäre mMn keine gute Wette auf die Zukunft. Bei NV ist das anders. Wenn Turing abgelöst wird, wird er komplett abgelöst. Ich könnt mir aber vorstellen, dass es dann auch Billigvarianten mit DDR5-Bestückung gibt später. Ohne G.
Da gab's doch mal grobe Richtlinien bzw. Übersichten für Footprints. Passt ein 128-Bit-PHY überhaupt in einen <100-mm²-Chip?
MfG,
Raff
Ja das mein ich ja. Wenn der Chip so klein ist, braucht man denke ich ein 64Bit Speicherinterface. Und das erfordert bei der Rechenleistung eben GDDR6.
AMD hat ja das Problem, dass sie Chips länger halten als NV und die werden nicht jetzt anfangen das zu ändern. Das heißt, dass Navi jetzt wieder 4 Jahre am Markt ist. Da ist es nicht sinnvoll den kleinen Chip auf GDDR5 mit 128Bit auszulegen und den damit unnötig aufzublähen, nur weil der jetzt ein paar € günstiger ist als GDDR6.
Dargo, <=20 CUs für den kleinsten Navi. Also:
<= 20CUs
64Bit GDDR6/(DDR5)
<100mm²
4 PCIe 4.0 Lanes
P12 ist halt der kleinste Polaris und würde den kleinsten Navi nach unten hin ergänzen. Nach meiner Auslegung würden P11/21, P10/20/30 und V10/20 vom Markt wieder verschwinden (V10 und 20 natürlich nicht aus dem Profimarkt, sondern nur Consumer), weil man das Lineup komplett auf Navi umstellen wird.
N1x wie oben
N12
<40 CUs
128Bit GDDR6
<200mm²
16 PCIe 4.0 Lanes
N10
<=64 CUs
2 HBM @2,4GHz
<300mm²
16 PCIe 4.0 Lanes
würd ich die Dinger mal schätzen. Damit lässt sich das komplette bisherige Lineup ersetzen von Low-End bis High-End.
AMD dürfte dann bei der Post-GCN-Generation, die uns wahrscheinlich 2021 erwartet, auf 5nm zurückgreifen. Von daher wird man dann das bisherige Lineup wieder einfach nach oben hin ergänzen.
amdfanuwe
2019-03-31, 13:10:02
Wie kommst du auf 20 CUs? P12 hat gerade mal 8-10 CUs.
Er verwechselt da wohl was mit Vega Mobile.
Mich wundert nur, dass der Chip nahezu 200mm² groß ist.
Zum Vergleich:
Polaris 10 / 20 232 mm² 36CU
Polaris 11 / 21 146 mm² 16CU
Polaris 12...... 101 mm² 10CU
VEGA 10........ 495mm² 64CU 2HBM
VEGA Mob... ~200mm² 20CU 1HBM
VEGA 20........ 331mm² 64CU 4HBM 7nm
Über Navi zu spekulieren ist müßig, da man keinerlei Informationen hat ob Navi als reiner Gaming Chip konzipiert wird und die Leistung in Games auch mal umsetzen kann.
Sicher erscheint mir nur, dass Navi zunächst Vega ablöst.
Und wenn AMD wieder mit guten Preisen kommt, ca. V56 Leistung für ca. 200€ wird es lustig.
Dann dürfen sich die 1650, 1660, 1660Ti und 2060 den Preisbereich unter 200€ teilen.
w0mbat
2019-03-31, 13:10:50
Genau, hat RV770 nicht 800SPs bekommen, nur weil der Chip für das 256bit SI physikalisch so groß sein musste?
amdfanuwe
2019-03-31, 13:26:27
AMD hat ja das Problem, dass sie Chip länger halten als NV. Das heißt, dass Navi jetzt wieder 4 Jahre am Markt ist.
Das war wohl eher der Geldnot geschuldet. Jetzt, wo AMD wieder Mittel hat, könnte sich die Produktpalette wieder breiter aufstellen und die Zykluszeit verkürzen.
Obwohl, ...
Es steht schon 7nm+ vor der Tür.
Könnte jetzt also erst mal nur einen Navi in 7nm geben.
Nächstes Jahr könnte dann eine bereinigte Version in 7nm+ mit 2 Chips für Desktop , 1 HPC Chip und 1 Mobile Chip folgen.
mczak
2019-03-31, 14:43:12
Zum Vergleich:
Polaris 10 / 20 232 mm² 36CU
Polaris 11 / 21 146 mm² 16CU
Polaris 12...... 101 mm² 10CU
VEGA 10........ 495mm² 64CU 2HBM
VEGA Mob... ~200mm² 20CU 1HBM
VEGA 20........ 331mm² 64CU 4HBM 7nm
Polaris 11 / 21 ist nur 123mm² gross, eine andere Zahl habe ich jedenfalls nie gesehen.
(Hat Vega 12 eigentlich jemand mal vermessen?)
robbitop
2019-03-31, 14:43:15
AMD hätte auch 512Bit GDDR5 nutzen können, das wär genauso gut gegangen. Der Chip wär ein bisschen größer gewesen (wenn überhaupt) und man hätte noch ein paar W mehr verbraucht, sonst nix.
Das Ganze hatte rein wirtschaftliche Gründe, man wollte an der Infrastruktur aufbauen. Jetzt wo man die am Laufen hat, wird man auch dabei bleiben. Also nix mit GDDR6 ist sinnvoller. Man wird GDDR6 natürlich im Mainstream und darunter verwenden (wenn nicht weiterhin GDDR5).
Hawaii hatte schon 512bit gddr5 bei nur 2816sps. Fijii hatte 4096. Entsprechend brauchte man offenbar damals hbm.
Nein, brauchte man nicht. Fiji wär genausogut mit 7 und 8Gbps GDDR5 gelaufen. Seht es ein, Fiji war ein HBM-Pipecleaner, mehr nicht. Notwendig war da überhaupt nix.
Und nein ich verwechsel da nix. Die 20CUs waren auf einen potenziellen kleinen Navi bezogen und hatte nix mit Polaris zu tun. Wie wärs wenn ihr das zur Abwechslung auch mal lest und versteht. Und die Geldnot ist der Personalnot gewichen. 7nm-Masken brauchen eben verdammt viele Personenstunden. Das lohnt sich für AMD hier einfach nicht, da besonders viel in ständig neue GPU-Masken zu stecken bei sowieso nur 25-33% Marktanteil. Da macht man doch lieber mehr semi-custom oder mehrere CPU-Iterationen, das ist wenigstens lukrativ. AMD wird hier sicher nicht von der bisheren "Strategie" abweichen. GPUs sind eben nur 3. Priorität, daran wird sich nichts ändern.
Die werden jetzt Navi in 7 EUV machen, dann die neue IP für 5nm, dann wieder eine Mainstreamserie in 3nm. Das sind jeweils 2 Jahre.
Hawaii hatte schon 512bit gddr5 bei nur 2880sps. Fijii hatte 4096. Entsprechend brauchte man offenbar damals hbm.
Hawaii hatte nur 2.816 FP32-ALUs. 2.880 war Kepler GK110 im Vollausbau (780 Ti, Titan Black). Ändert aber nichts an deiner Aussage. :)
MfG,
Raff
Ich finde die R9 390(X) ist eine der langlebigsten Karten.
(wenn nicht die langlebigste überhaupt)
Die 8Gb mit 512bit Anbindung, sind auch heute noch ausreichend.
Selbst jetzt ist sie nur ~10% langsamer als ne RX590.
(nur geschätzt, nicht schlagen)
m.f.g. JVC
Edit:
p.s.: Phu total verschätzt :eek:
https://gpu.userbenchmark.com/Compare/AMD-RX-590-vs-AMD-R9-390X/4033vs3497
Laut dem Vergleich ist sogar die 390X 6% schneller in Spielen (Game FPS) als die RX590 ...
(kann das stimmen??? Nur in "complex splatting" ist sie 26% schneller als die 590, bringt das soviel :confused:)
Hawaii startete erst mit nur 5Gbps RAM (Tahiti hatte AFIAK schon 6Gbps), wurde dann als 390 auf 6Gbps hochgestuft und hatte mehr als genug Bandbreite. War halt als Profichip konstruiert. Es gab davon sogar 32GB (!)-Versionen.
Edit:
p.s.: Phu total verschätzt :eek:
https://gpu.userbenchmark.com/Compare/AMD-RX-590-vs-AMD-R9-390X/4033vs3497
Laut dem Vergleich ist sogar die 390X 6% schneller in Spielen (Game FPS) als die RX590 ...
(kann das stimmen??? Nur in "complex splatting" ist sie 26% schneller als die 590, bringt das soviel :confused:)
Insgesamt liegt die 390X hinter der 590, aber nicht viel. (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a24) Das liegt vor allem daran, dass Polaris eine ausgewogenere Vorstellung abliefert. Hawaii hat viele Hochs, aber auch viele Tiefs.
Hawaii startete erst mit nur 5Gbps RAM (Tahiti hatte AFIAK schon 6Gbps), wurde dann als 390 auf 6Gbps hochgestuft und hatte mehr als genug Bandbreite. War halt als Profichip konstruiert. Es gab davon sogar 32GB (!)-Versionen.
Wobei Tahiti auch erst später mit 6 GT/s spec'ed wurde. Zum Start, als HD 7970, rannte das Ding mit 5,5 GT/s (2.750 MHz).
Eine Firepro W9100 mit 16 GiB habe ich hier noch herumfliegen. :D
MfG,
Raff
horn 12
2019-03-31, 16:34:28
@Hot
Wie schnell wird Navi deiner Meinung nach
wird dann HBM ² verbaut, 8 GB oder gehen dann gar 12GB bei der Midrange Karte ?
Man wird wohl NV in jeder Hinsicht ausstechen wollen.
amdfanuwe
2019-03-31, 16:51:17
Polaris 11 / 21 ist nur 123mm² gross, eine andere Zahl habe ich jedenfalls nie gesehen.
Wo haste denn das her? Ich hab meine Zahlen hier geklaut:
https://de.wikipedia.org/wiki/AMD-Radeon-400-Serie
OK, hab die 123mm² jatzt auch bei den Testartikeln damals gesehen.
dargo
2019-03-31, 17:52:19
Oh man... horn in seiner Höchstform wieder. :facepalm:
reaperrr
2019-03-31, 17:53:35
Edit:
p.s.: Phu total verschätzt :eek:
https://gpu.userbenchmark.com/Compare/AMD-RX-590-vs-AMD-R9-390X/4033vs3497
Laut dem Vergleich ist sogar die 390X 6% schneller in Spielen (Game FPS) als die RX590 ...
(kann das stimmen??? Nur in "complex splatting" ist sie 26% schneller als die 590, bringt das soviel :confused:)
Die 390X hat neben deutlich mehr Bandbreite eben auch 64 ROPs. Der Vorsprung der 390 auf die 7970GHz/280X ist viel zu groß und vor allem zu konstant, als dass es nur an Architektur und Frontend liegen könnte, dann müsste sich Tonga auch öfter von Tahiti absetzen und näher an die 390 kommen können. Aber selbst in Titeln wo die Bandbreite kaum limitiert und die uArch wichtiger ist (sprich, wo Tonga vor Tahiti landet) kann sich die 390 eigentlich immer komfortabel von der 380(X) absetzen.
Ich glaube, das wird manchmal unterschätzt, aber Nvidia wird nicht grundlos seit Maxwell 64 ROPs bei den x04 und jetzt auch beim TU106 verbaut haben, obwohl die Strom und Fläche kosten.
Und Fakt ist auch, die 28nm-GCN-Chips mit der besten Leistung pro mm² und generellen Konkurrenzfähigkeit zum Nvidia-Gegenpart waren Pitcairn und Hawaii, und die haben zufällig alles, relativ viel Bandbreite/FLOP, relativ wenig CUs je SE (gute Auslastung) und relativ viele ROPs für ihre CU-Zahl.
Wenn die 590 nicht nur (allein) an der Bandbreite hängt, bleiben im Grunde nur die ROPs als weitere Möglichkeit übrig, denn in jeder anderen Disziplin müsste die 590 die 390X dank dem Takt klar schlagen.
mczak
2019-03-31, 20:05:44
Wo haste denn das her? Ich hab meine Zahlen hier geklaut:
https://de.wikipedia.org/wiki/AMD-Radeon-400-Serie
OK, hab die 123mm² jatzt auch bei den Testartikeln damals gesehen.
Woher die 146mm² da kommen weiss ich auch nicht. Das betrifft aber offenbar nur die deutschsprachigen Chips (denn die englische Version sagt ebenfalls 123mm²) :biggrin:. Jedes Review das ich ich gesehen habe hat 123mm² erwähnt.
amdfanuwe
2019-03-31, 21:13:20
Woher die 146mm² da
Wohl Tippfehler. Hab mal versucht im Wiki zu korrigieren.
Daredevil
2019-04-01, 00:59:24
Ich hatte ja mal die Cache Performance angesprochen bei Polaris bzw. Vega.
AMD scheint da anscheinend einen Fokus?! drauf zu legen und Nvidia nicht.
Hier mal Ergebnisse eines Cache intensiven Mining Algorithmus aus dem Nicehash Thread.
Cryptonight V8
2137 KH/s | Vega64@1702/1100 | 150w | Schlammsau
2020 KH/s | Vega64@1414/1100| 125w | Schlammsau
1856 KH/s | Vega64 Liquid@Stock/1000 | 220w | dargo
1720 KH/s | Vega64@1212/850 | 120w | Daredevil
1505 KH/s | Vega64@1029/700 | 92w | Daredevil
1306 KH/s | Vega56@Stock/925 | 200w | BeetleatWar1977
1137 KH/s | RTX2080ti@1470/8300 | 120w | Daredevil
925 KH/s | RX480 @1250/2200 | 110w | Schlammsau
890 KH/s | TitanXP@2000+/5700 | 300w| Lehdro
843 KH/s | GTX1080ti@1595/4704 | 150w | Daredevil
806 KH/s | GTX1080ti@2076/5765 | 325w | hq-hq
459 KH/s | GTX1080@1503/5022 | 125w | Daredevil
340 KH/s | GTX1050ti@~1850/4500 | 70w| Lehdro
200 KH/s | GTX1050ti@1873/3713 | 70w | hq-hq
Edit: Tippfehler MH/s KH/s korrigiert
Irgendwas muss ja bei AMDs letzten Architekturen auf Cache Performance ausgelegt sein, sonst wäre die selbst bei Polaris nicht so hoch, mh?
Mit HBM schießt die Performance nochmals deutlich durch die Decke. Die Radeon VII kommt in etwa auf 3600 KH/s unter Stock.
So als kleines Argument, wieso HBM auch bei kleinen Karten kommen könnte.
Hat jemand ne Ahnung, wieso die Ergebnisse bei AMD so gut ausfallen? Irgendwelche ganz besonderen Architektur Eigenheiten?
Nvidia hingegen lässt das komplett links liegen, da ist Polaris ja fast ebenbürtig einer 2080ti. ;D
PS: Das gleiche gilt auch bei Ryzen, dort sind AMDs Modelle ebenfalls deutlich im Vorteil.
amdfanuwe
2019-04-01, 01:28:07
Nvidia hingegen lässt das komplett links liegen, da ist Polaris ja fast ebenbürtig einer 2080ti. ;D
Hab ich was an der Pupille?
Bei der 2080ti sinds doch MH/s, bei der 480 nur KH/s. Da ist die 2080ti doch mehr als 1000 mal schneller.
Daredevil
2019-04-01, 01:31:40
Huch, Tippfehler meinerseits. Das sind beides KH/s.
Leonidas
2019-04-01, 05:32:00
p.s.: Phu total verschätzt :eek:
https://gpu.userbenchmark.com/Compare/AMD-RX-590-vs-AMD-R9-390X/4033vs3497
Laut dem Vergleich ist sogar die 390X 6% schneller in Spielen (Game FPS) als die RX590 ...
(kann das stimmen??? Nur in "complex splatting" ist sie 26% schneller als die 590, bringt das soviel :confused:)
Im Index ist die Differenz etwas zugunsten der RX590:
Radeon R9 390X ..... 580%
Radeon RX 590 ....... 650% (+12%)
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019
Woher die 146mm² da kommen weiss ich auch nicht. Das betrifft aber offenbar nur die deutschsprachigen Chips (denn die englische Version sagt ebenfalls 123mm²) :biggrin:. Jedes Review das ich ich gesehen habe hat 123mm² erwähnt.
Auch im seinerzeitigen 3DC-Artikel waren schon 123mm² notiert. Die 146mm² lese ich zum ersten Mal.
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-460
BlacKi
2019-04-01, 10:01:51
Huch, Tippfehler meinerseits. Das sind beides KH/s.
made my day:biggrin: aber der 1.4 ist ja noch lang^^
Daredevil
2019-04-01, 12:31:20
Ja ne. Das ist schon echt so. :D
Deswegen frage ich ja.
Im Index ist die Differenz etwas zugunsten der RX590:
Radeon R9 390X ..... 580%
Radeon RX 590 ....... 650% (+12%)
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019
~10% Vorsprung für die 590 war meine erste Schätzung...
In 4K ist die 590 nur noch 5% vor der 390X.
Ich bin trotzdem überrascht wie saugut sich die 390(X) hält :eek:
(sie hält sich besser, als ich mit technisch erklären kann)
...
Wenn die 590 nicht nur (allein) an der Bandbreite hängt, bleiben im Grunde nur die ROPs als weitere Möglichkeit übrig, denn in jeder anderen Disziplin müsste die 590 die 390X dank dem Takt klar schlagen.
Jup, der Unterschied müsste größer sein, als er ist.
m.f.g. JVC
p.s.: 7970(~55%)-->390X(~82%)-->1080Ti(OC~190%) --> theoretisch 2080Ti FE(~236%)
--1920x1200--~1,6X--2560x1440--~2,3X--3840x2160--~1,2X-- 4K+ ... mir zu wenig.
(hab ich so noch nie betrachtet, irgendwie logisch das ich Tu auslassen muss ...
diese Erkenntnis beruhigt mich etwas :))
Dino-Fossil
2019-04-01, 14:01:17
Ich bin trotzdem überrascht wie saugut sich die 390(X) hält :eek:
(sie hält sich besser, als ich mit technisch erklären kann)
Bei der 390(X) hängt es meist stärker vom jeweiligen Spiel ab, als bei Polaris.
Wenn ein Spiel auf Hawaii/Grenada gut läuft, können die Karten das Mehr an Hardwareeinheiten ausspielen.
Manche Titel schmecken den älteren Chips allerdings nicht so gut, da liegt dann Polaris teils recht deutlich vorn. Im Vergleich mit anderen Karten zeigt Polaris mMn die konstantere Performance.
DK999
2019-04-02, 09:36:51
Wäre HBM nicht tatsächlich klüger, weil AMD schon eine lauffähige Implementierung eines HBM-Controllers in 7nm hat und das SI noch weniger Fläche verbraucht als ein gleichwertiges GDDR-Interface?
Die Probleme in der Fertigung durch unterschiedliche Höhen der DIEs auf dem Interposer hat man ja anscheinend gelöst, stellt sich nur die Frage wie viel teurer ein Interposer in Fertigung + Bestückung im Vergleich zu einem leicht komplexeren PCB so ist.
Ein paar Layer mehr, machen da den Kohl nicht fett, für einen Interposer bedarf es da schon etwas mehr kann ich mir vorstellen.
amdfanuwe
2019-04-02, 10:05:37
Wäre HBM nicht tatsächlich klüger,
Die Entscheidung ist vor langer Zeit gefallen, egal ob jetzt HBM oder GDDRx. Ob sie Klug war, wird sich herausstellen.
Ryzen war Klug, das Chiplet Design... wird sich zeigen. Für Server sicherlich Klug.
Das bei Vega auf HPC Bedürfnisse gesetzt wurde mit HBCC und MxGPU (Hardware Virtualisierung) scheint sich mit dem Google Deal auch als Klug herauszustellen.
Ich drücke AMD für Navi mal die Daumen, dass sie die richtige Entscheidung getroffen haben und wir uns über ein gutes Produkt werden freuen können.
Wie gesagt wird man sich die aufgebaute Infrastruktur auch für die Massenproduktion bewahren wollen, von daher stellt sich die Frage kaum. Klar wirds HBM geben, jedenfalls beim größten Navi.
Achim_Anders
2019-04-02, 11:53:11
Die AMD Roadmap von 2016 spricht von "Next Gen Memory" das dürfte eher gddrx6 sein.
Polaris gddr5, vega hbm2 navi "next gen memory" - - >ich glaube nicht, dass nochmal hbm2 bei navi geplant war.
https://cdn2.nextinpact.com/images/bd/news/159810.png
Geteilt mit Cliqz für Android
Falls es aktuellere Infos von AMD gibt, immer her damit! :)
w0mbat
2019-04-02, 11:59:45
Aber würde AMD GDDR6 wirklich als next-gen bezeichnen, wenn sie schon HBM2 im Einsatz haben? Zumal die roadmap schon etwas alt ist.
Achim_Anders
2019-04-02, 12:02:02
Gibt es eine aktuellere Roadmap? Ich glaube nicht.
Sie würden aber nicht HBM2 als NextGen betiteln, wenn HBM2 auch so auf der Folie steht. Gddr6 ist neuer als HBM2, ergo wäre das next gen, vor allem in Bezug auf Polaris.
mksn7
2019-04-02, 12:02:12
Ich hatte ja mal die Cache Performance angesprochen bei Polaris bzw. Vega.
AMD scheint da anscheinend einen Fokus?! drauf zu legen und Nvidia nicht.
Hier mal Ergebnisse eines Cache intensiven Mining Algorithmus aus dem Nicehash Thread.
Edit: Tippfehler MH/s KH/s korrigiert
Irgendwas muss ja bei AMDs letzten Architekturen auf Cache Performance ausgelegt sein, sonst wäre die selbst bei Polaris nicht so hoch, mh?
Mit HBM schießt die Performance nochmals deutlich durch die Decke. Die Radeon VII kommt in etwa auf 3600 KH/s unter Stock.
So als kleines Argument, wieso HBM auch bei kleinen Karten kommen könnte.
Hat jemand ne Ahnung, wieso die Ergebnisse bei AMD so gut ausfallen? Irgendwelche ganz besonderen Architektur Eigenheiten?
Nvidia hingegen lässt das komplett links liegen, da ist Polaris ja fast ebenbürtig einer 2080ti. ;D
PS: Das gleiche gilt auch bei Ryzen, dort sind AMDs Modelle ebenfalls deutlich im Vorteil.
Ich kann zur cache performance bei AMD nicht soviel sagen. Bei nvidia sind die Leistungsdaten des L2 nicht so beeindruckend (etwa halbe Latenz und 2-3 fache Bandbreite gegenüber dem Memory), und das relativ gleichbleibend von Kepler bis Volta. Der L1 ist aber von Pascal auf Volta enorm schneller geworden, sowohl bei der Latenz als auch Bandbreite, und auch noch größer. Bei Turing dürfte das ähnlich sein wie bei Volta, nur nicht ganz soviel Bandbreite.
In deinen Daten sieht man keinen großen Sprung von Pascal zu Turing. Der L1 scheint schonmal keinen großen Unterschied zu machen. Vielleicht hat der L2 eine größeren Effekt, und vielleicht ist der bei AMD schneller?
w0mbat
2019-04-02, 12:04:26
Gibt es eine aktuellere Roadmap? Ich glaube nicht.
Sie würden aber nicht HBM2 als NextGen betiteln, wenn HBM2 auch so auf der Folie steht. Gddr6 ist neuer als HBM2, ergo wäre das next gen, vor allem in Bezug auf Polaris.
Ich glaub die roadmap ist einfach viel zu alt um aussagekräftig zu sein. Was damals unter "next-gen" lief muss nichts mit dem jetzigen Navi zu tun haben.
"Next-gen" wäre für mich eher HBM3 oder Lazer-Kristall-Quanten-Zeugs :tongue:
Achim_Anders
2019-04-02, 12:16:05
Navi ist damals geplant worden. Man ändert solche Eigenschaften nicht mal eben. Durch die Keynote auf der Computex werden wir wohl endlich etwas mehr Infos erhalten :)
w0mbat
2019-04-02, 12:17:25
Naja, Navi ist ja erstmal eine Architektur und kein Produkt.
Leonidas
2019-04-03, 07:30:38
Korrekt. Kann sein, das Navi mal für HBM3 geplant war. Die Produkt-Specs werden aber erst später finalisiert, da kann dann durchaus noch GDDR6 reinrutschen. Eigentlich muß man erst 1-1,5J vor Release sich wirklich festlegen. Gerade das Speicherinterface könnte man noch relativ spät ändern, weil es kaum einen kleinteiligen Einfluß auf die Architektur hat. Sprich: Man muß wegen dem Speicherinterface nicht an den Feinheiten der Architektur arbeiten, da geht es nur um Platzbelegung auf dem Chip.
Ich erwarte daher Navi sicherlich auf GDDR6. AMD hat da rechtzeitig umsteuern können, unabhängig früherer Pläne.
Complicated
2019-04-03, 14:15:31
Wenn AMD das Chiplet Design voran bringen will und dies demnächst auch für GPUs möglich sein soll, dann ist GDDR nicht Zielführend. Der Speicher sollte dann eben möglichst mit auf den Chip anstatt über das PCB angebunden zu werden. Natürlich nur wenn AMD die APUs mit den selben Chiplets bestücken will wie diskrete GPUs....was allerdings der ganze Nutzen einer Chiplet Architektur ist.
So wie Hot schon schrieb, dass man etablierte Fertigung von HBM und das Packaging erhalten muss, so wird AMD auch für Chiplets das eine oder andere teurere oder umständlichere Design in Kauf nehmen um die Synergien konsequent zu nutzen.
Zergra
2019-04-03, 14:29:17
HBM wäre für Navi einfach viel zu teuer... Viel mehr braucht man dazu nicht zu sagen.
Der_Korken
2019-04-03, 14:32:51
Zen2 benutzt trotz Chiplet-Design auch normalen DRAM außerhalb des Packages und keinen Interposer. Außerdem dürfte es dem IO-Chip, auf dem der IMC sitzt, egal sein, ob er mit einem HBM- oder GDDR-Interface kommuniziert. Mir ist deswegen nicht ganz klar, warum ein Chiplet-Design stärker für HBM sprechen würde als ein klassisches Design.
Im Prinzip könnte man sogar beide Speichertechnologien nutzen, weil man sowieso mehr als einen IO-Chip braucht, wenn man breit skalieren will: Die kleinen Designs mit vielleicht einem oder zwei Chiplets würden einen IO-Chip mit GDDR-Interface bekommen, während die großen einen per Interposer angebundenen IO-Chip mit HBM-Interface bekommen.
amdfanuwe
2019-04-03, 14:38:19
HBM wäre für Navi einfach viel zu teuer... Viel mehr braucht man dazu nicht zu sagen.
Doch. Sag mal die Preise.
aufkrawall
2019-04-03, 14:47:41
GDDR6 dürfte doch mittlerweile in Massen vorhanden sein, wenn selbst die 1160 Ti welchen hat. HBM2 ist hingegen ein Fragezeichen. Zwar sind die alten Vegas nicht mehr teuer, aber die Nachfrage dürfte global auch nicht gerade überwältigend sein und die Produktion wurde während des Mining-Hypes für den hochpreisigen Verkauf hochgefahren.
BoMbY
2019-04-03, 15:39:59
Und der Kreis schließt sich zum 100sten Mal - abermals Spekulationen und Gerüchte über HBM2-Preise die auf Fudzilla-BS von 2016 basieren.
DrumDub
2019-04-03, 16:07:00
das blöde ist halt, dass man nirgednwo aktuelle preise von HBM2 raus bekommt. spekuliert wird ja, dass die 16 GB HBM2 bei der radeon VII die hälfte des preises ausmachen. mir kommt das zuviel vor ...
|MatMan|
2019-04-03, 16:07:56
Wie soll ein Produkt, dass deutlich mehr und aufwendigere Verarbeitungsschritte hat (das Stapeln an sich, die Durchkontaktierungen müssen alle funktionieren, man braucht noch einen extra Base-Die - jeder Einzelschritt hat eine Wahrscheinlichkeit für Fehler) billiger sein als den eigentlichen Speicherchip nur in ein Package zu pressen? Dazu kommt, dass die Stückzahlen noch um Größenordnungen kleiner sind und es weniger Hersteller gibt. Wie soll das billiger sein?
Und jetzt kommt nicht mit PCB oder Stromversorgung. Es geht um den reinen Preis für den Speicher.
Ich hoffe inständig, dass AMD bei einem Polaris-Nachfolger bei GDDR bleibt. Die Lieferkette kann man auch mit Profi-Produkten aufrecht erhalten (Radion VII), macht nVidia ja auch so.
Es muss ja auch nicht billiger sein, sondern angemessen teuer. Wenn das Produkt dadurch besser wird, kann man es auch teurer verkaufen.
Sollte darueber hinaus nicht ein HBM slice billiger sein als dieselbe Menge in GDDR6? Weiss man's? Ich meine, es sind 2 vs. 16 GT/s. Mehr die Flaeche braucht man auch. D.h. du rechnest nicht einfach den Preis fuer GDDR6 und die hoeheren Fertigungskosten durchs Stacking oben drauf, dann stimmt schon die Ausgangslage nicht. Aber wir wissen halt nichts.
Und jetzt kommt nicht mit PCB oder Stromversorgung. Es geht um den reinen Preis für den Speicher.
Nein, es geht um den Gesamtpreis.
Ich hoffe inständig, dass AMD bei einem Polaris-Nachfolger bei GDDR bleibt. Die Lieferkette kann man auch mit Profi-Produkten aufrecht erhalten (Radion VII), macht nVidia ja auch so.
Oben argumentierst du noch, dass die Stueckzahlen von HBM vs. GDDR6 ja ach so gering sind. Wenn man langfristig plant und voll umsteigen will, kann das so eine Entscheidung auch mal beeinflussen.
Das wird AMD so entscheiden bzw. entschieden haben, wie es sinnvoll ist, keine Sorge.
Setsul
2019-04-03, 16:28:58
Ich nehme an die Überlegung ist, dass im Gegensatz zu CPU MCMs die Bandbreite über Package bei Weitem nicht ausreicht und man deshalb sowieso einen Interposer braucht.
Die zusätzlichen Kosten für einen Interposer die man sonst für HBM hat sind dann natürlich minimal. "Synergie" und so.
Das Problem ist wenn der Speicher an sich 80$ mehr kostet ist das völlig egal. Die Fixkosten für die Interposermasken sind schon einkalkuliert, die 1-2$ für den Interposer selbst (1$ damals bei Fiji laut AMD) erhöhen sich nur minimal aber dann kostet eine Chiplet GPU + HBM eben 80.20$ mehr als eine Chiplet GPU ohne HBM während die zusätzlichen Kosten bei einer monolithischen GPU 95$ gewesen wären. Toll.
Da finde ich GDDR6 auch wesentlich zielführender.
DrumDub
2019-04-03, 16:45:45
schon mal an konsolen gedacht wegen der größe? da hat HBM(2) definitiv vorteile. ich schätze mal, dass wird auch eins der hauptmotive der entwicklung gewesen sein, die ja schon 2008 begonnen wurde.
|MatMan|
2019-04-03, 17:04:33
Es muss ja auch nicht billiger sein, sondern angemessen teuer. Wenn das Produkt dadurch besser wird, kann man es auch teurer verkaufen.
Wenn man einen preissensitiven Bereich treffen will (Polaris eben <300 €), dann kann man das Produkt eben nicht einfach teurer verkaufen.
Sollte darueber hinaus nicht ein HBM slice billiger sein als dieselbe Menge in GDDR6? Weiss man's? Ich meine, es sind 2 vs. 16 GT/s. Mehr die Flaeche braucht man auch. D.h. du rechnest nicht einfach den Preis fuer GDDR6 und die hoeheren Fertigungskosten durchs Stacking oben drauf, dann stimmt schon die Ausgangslage nicht. Aber wir wissen halt nichts.
Ich gehe davon aus, dass die Fläche für den eigentlichen DRAM den größten Silizium-Aufwand darstellen bei HBM und GDDR grob gleich groß sind (und damit kein wesentlicher Unterschied bei den Kosten). Dass GDDR-Interface implementiert die hohen GT/s und wird im Vergleich zum DRAM eher klein sein.
Nein, es geht um den Gesamtpreis.
AMD / nVidia verkaufen GPUs an die Boardpartner, ggf. im Bundle mit Speicher. Die Anzahl der Lagen des PCB und Komponenten der Spannungsversorgung sind Sache des Boardpartners. Außerdem sind das eh nur Cent-Beträge bis vielleicht einstellige $ je Karte.
Oben argumentierst du noch, dass die Stueckzahlen von HBM vs. GDDR6 ja ach so gering sind. Wenn man langfristig plant und voll umsteigen will, kann das so eine Entscheidung auch mal beeinflussen.
Es muss wirtschaftlich und skalierbar sein. Klar kann man darauf wetten, dass es mit steigender Stückzahl billiger wird - man sollte es aber lieber wissen. Im Alleingang erreicht AMD bei Grafikkarten mit HBM nie annähernd vergleichbare Volumen wie GDDR. Als der deutlich kleinere Marktteilnehmer eine neue Technologie durchdrücken zu wollen ist schon mutig.
@DrumDub:
Die Frage ist ob Sony / MS einen Aufpreis für HBM zahlen wollen und was sie sich davon erwarten. Die nötige Bandbreite liefert auch GDDR6. Der Unterschied im Stromverbrauch ist wohl nicht soo bedeutend. Ein kleineres Gehäuse bei einer Konsole fürs Wohn- / Kinderzimmer? Außerdem erhöht sich bei HBM potentiell das Risiko bei der Lieferbarkeit, bei den Mengen die Sony / MS brauchen.
amdfanuwe
2019-04-03, 17:16:06
schon mal an konsolen gedacht wegen der größe? da hat HBM(2) definitiv vorteile.
Konsolen, lol, nettes Nebengeschäft mit geringen Gewinnmargen aber sicher kein Technologietreiber.
Server, HPC, Cloud, Datencenter, KI, da steckt das Geld.
Hat AMD vor ein paar Jahren doch schon hier beschrieben, wohin die Reise geht:
http://www.computermachines.org/joe/publications/pdfs/hpca2017_exascale_apu.pdf
amdfanuwe
2019-04-03, 17:27:58
man sollte es aber lieber wissen. Im Alleingang erreicht AMD bei Grafikkarten mit HBM nie annähernd vergleichbare Volumen wie GDDR. Als der deutlich kleinere Marktteilnehmer eine neue Technologie durchdrücken zu wollen ist schon mutig.
Wieso im alleingang? Wie ich sehe, setzen auch Xilinx und Intel HBM mit ihren FPGAs ein.
Wer außer Nvidia nutzt noch GDDR6?
BoMbY
2019-04-03, 17:42:04
Wer außer Nvidia nutzt noch GDDR6?
Bisher gibt es scheinbar kein angekündigtes Produkt außer denen von NVidia. Es wird spekuliert, dass vielleicht eine der Next-Gen Konsolen das nutzen könnte.
|MatMan|
2019-04-03, 17:48:56
Wieso im alleingang? Wie ich sehe, setzen auch Xilinx und Intel HBM mit ihren FPGAs ein.
Wer außer Nvidia nutzt noch GDDR6?
FPGAs sind keine Consumerprodukte. Das sind gerade die Profi-Produkte, von denen ich vorher schon sprach. Trotzdem war meine Formulierung natürlich überspitzt.
GDDR6 wird sicherlich in ähnlichen Stückzahlen hergestellt werden wie bisher GDDR5, d.h. grob alle die, die bisher GDDR5 verwendet haben, werden irgendwann auch GDDR6 verwenden, also auch AMD. An ein nVidia-only-Produkt wie GDDR5X glaube ich nicht.
Die Frage ist, ob AMD auch was von den hohen Stueckzahlen hat, wenn Nvidia 90% davon abnimmt. Nvidia hat die gesamte Turing Palette auf GDDR6 laufen und zudem viel mehr Marktanteil. AMD kommt jetzt vielleicht mit einer Karte an.
Ob GDDR6 irgendwann mal die Durchdringung hat wie GDDR5 ist doch voellig egal, es zaehlt was es jetzt kostet. Das gleiche Argument koennte man sonst auch fuer HBM bringen.
SKYNET
2019-04-03, 18:22:13
Die Frage ist, ob AMD auch was von den hohen Stueckzahlen hat, wenn Nvidia 90% davon abnimmt. Nvidia hat die gesamte Turing Palette auf GDDR6 laufen und zudem viel mehr Marktanteil. AMD kommt jetzt vielleicht mit einer Karte an.
Ob GDDR6 irgendwann mal die Durchdringung hat wie GDDR5 ist doch voellig egal, es zaehlt was es jetzt kostet. Das gleiche Argument koennte man sonst auch fuer HBM bringen.
1660 hat GDDR5 ;)
|MatMan|
2019-04-03, 18:30:40
Die Frage ist, ob AMD auch was von den hohen Stueckzahlen hat, wenn Nvidia 90% davon abnimmt. Nvidia hat die gesamte Turing Palette auf GDDR6 laufen und zudem viel mehr Marktanteil. AMD kommt jetzt vielleicht mit einer Karte an.
Die Speicherhersteller verkaufen GDDR6 sicher gerne auch an AMD. Es geht ja gerade um ein absolutes Massenmarktprodukt, dass AMD millionenfach verkaufen möchte. Warum sollten die Hersteller da keine vernünftigen Preise machen? Die Connections hat man zu denen doch eh.
Wenn GDDR6 für ein Massenprodukt wie die 1660Ti zu teuer wäre, hätte nVidia wohl was anderes verbaut.
Ob GDDR6 irgendwann mal die Durchdringung hat wie GDDR5 ist doch voellig egal, es zaehlt was es jetzt kostet. Das gleiche Argument koennte man sonst auch fuer HBM bringen.
Das ist ja gerade mein Punkt. Durch die höhere Komplexität von HBM zieht eben nicht das gleiche Argument. Ich nehme ja gerade an, dass GDDR6 einfacher herzustellen ist als HBM und dadurch auch die Preise schneller sinken. Sollte die Herstellung von GDDR6 plötzlich doch problematisch sein, wäre das natürlich anders, aber danach sieht es momentan nicht aus. nVidia verbaut das Zeug in Stückzahlen und man liest nichts von Lieferschwierigkeiten.
Zossel
2019-04-03, 19:24:53
Gibt es überhaupt belastbare Quellen für HBM vs. GDDRx Preise?
Anderer Punkt: Mit HBM verkauft man den Bestückern auch gleich den Speicher mit und kann daran verdienen, bei externen RAM kann der Bestücker das RAM woanders kaufen.
Daredevil
2019-04-03, 19:36:34
Nvidia liefert laut Quellen von Gamersnexus ebenfalls GPU und RAM zusammen, deswegen ist die Streuung von Micron und Samsung auch so hoch, weil sie einfach liefern, was da ist.
Der Bestücker kauft laut deren nur speziell beim Hersteller ein, wenn es ganz besonders hochwertiger RAM sein soll. Beispiel teurer A-CHIP und guter Samsung RAM zusammen.
Die Stückzahl ist ebenfalls entscheidend bei dem Thema.
Selbst wenn HBM2 günstiger ist als GDDR6 und mehr Performance liefert, könnte sich eine riesen Firma wie Nvidia trotzdem für GDDR6 entscheiden, weil die Millionenfach liefern können und das bei HBM2 halt nicht geschieht. HBM2 wird ja nicht nur für Grafikkarten genutzt, sondern sind auch bei ASICs gerne gesehen.
Das iPhoneX kostete bei Auslieferung 2017 ebenfalls deutlich mehr als jetzt. Weil der Preis eine Verknappung war für das Produkt, weil nicht soviel Displays ausgeliefert werden können.
Oh, Dargos Argument mal andersrum.
Wieso benutzen die HighEnd XILINX ASICS eigentlich kein GDDR6, wenn es soviel günstiger ist, oder Volta? :D
robbitop
2019-04-03, 20:02:02
Zum HBM kommt ja noch ein großer Interposer dazu, der sicherlich aufgrund der Fläche zumeist nicht besonders günstig sein dürfte (auch wenn dank der groben Strukturgröße wesentlich günstiger pro mm2 als mit aktueller Strukturgröße).
Zossel
2019-04-03, 20:09:45
Zum HBM kommt ja noch ein großer Interposer dazu, der sicherlich aufgrund der Fläche zumeist nicht besonders günstig sein dürfte (auch wenn dank der groben Strukturgröße wesentlich günstiger pro mm2 als mit aktueller Strukturgröße).
Gibt es Quellen das Interposer teuer sind oder ist das nur geraten?
Denniss
2019-04-03, 20:36:20
Wenn GDDR6 so abnormal günstig wäre warum verbaut Nvidia dann GDDR5 auf der 1660 ?
robbitop
2019-04-03, 21:00:19
Gibt es Quellen das Interposer teuer sind oder ist das nur geraten?
Ein Interposer ist ein Siliziumchip unter der gpu und dem HBM. Über diesem funktioniert die Kommunikation zwischen beiden. Damit beide Elemente draufpassen, muss der Interposer entsprechend groß sein. Bei Vega 64 waren es 900 sqmm. Iirc wird der in 65 nm gefertigt.
http://www.icinsights.com/news/bulletins/LeadingEdge-IC-Foundry-Market-Forecast-To-Increase-72-In-2014/
Ein 65 nm Wafer kostet um die 2800 usd.
Bei einem yield von 0,9 wären das inkl Verschitt 56 usd Herstellkosten für den SI. Ohne jegliche Verarbeitung (zusätzlicher Packagingaufwand).
Deshalb ist emib keine schlechte Idee, da man man dort wesentlich weniger Siliziumfläche benötigt.
unl34shed
2019-04-03, 21:00:55
Zum HBM kommt ja noch ein großer Interposer dazu, der sicherlich aufgrund der Fläche zumeist nicht besonders günstig sein dürfte (auch wenn dank der groben Strukturgröße wesentlich günstiger pro mm2 als mit aktueller Strukturgröße).
Der Interposer ist dazu noch passiv, es werden ja nur die oberen Metallayer zur Verdrahtung genutzt, da sind die Masken nicht teuer und die benötigten Prozessschritte sollten sich auch in grenzen halten.
Im Prinzip muss nicht mal das Silizium des Wafers "brauchbar" sein, wir ja eh nicht genutzt.
E:
Hab das hier gefunden: https://electroiq.com/2012/12/lifting-the-veil-on-silicon-interposer-pricing/
Hier werden die 300mm Wafer für Interposer mit ~575$ veranschlagt, wären hier also für Vega ca. 10$ für den Interposer.
robbitop
2019-04-03, 21:19:42
Gute Quelle und Info. :up: Also deutlich günstiger als gedacht.
amdfanuwe
2019-04-03, 21:31:48
Since one can produce ~286 200mm2 die on a 300mm wafer, at $575 (his midpoint cost) per wafer, this results in a $2 200mm2 silicon interposer.
Also rund 1$ pro 100mm².
Bei größeren Interposer etwas teurer wegen mehr verschnitt.
Danke für den Link, hat man mal eine Hausnummer.
amdfanuwe
2019-04-03, 21:39:02
Belichteter Wafer in:
Interposer ca. 575$
65nm ca. 2800$
14nm ca. 5000 - 7000$
7nm ca. 12000 - 14000$
Die reine 300mm Silizium Scheibe dürfte dann ca. 400$ kosten, der Rest sind die Bearbeitungskosten.
Die Zahlen habe ich mal irgendwo aufgeschnappt, also keine Gewähr auf Korrektheit.
Daredevil
2019-04-03, 21:44:07
Und wie steht das so im Zusammenhang mit der Ersparnis durch Bauteile und der Platine selbst?
Im Gegensatz zu einer aktuellen Nvidia Karte sieht eine Vega ja ziemlich nackt aus.
https://www.gamersnexus.net/media/k2/items/cache/c6382ecc548febcf9702b41806693739_XL.jpg
robbitop
2019-04-03, 21:48:40
Fehlt nicht hauptächlich der RAM so dass der Rest näher zusammenrücken kann? Und ersterer ist ja mittels hbm auf dem SI.
unl34shed
2019-04-03, 21:52:55
Noch was interessantes gefunden, aber leider alles ausgegraut :(
https://www.systemplus.fr/wp-content/uploads/2017/11/SP17360_AMD_Radeon_Vega_Frontier_System_Plus_Sample.pdf
Auf Seite 22 würde ich fast sagen, dass da ein Komma ist und die von Einstelligen Interposerkosten ausgehen.
Daredevil
2019-04-03, 21:53:22
Ja eben, das frage ich ja. Ich habe keine Ahnung von den Preisen. :D
Wenn man die Spannungswandler usw. um die GPU verteilen kann, das ist ja meine Theorie, ist der Kühler günstiger zu bauen, weil die Platine kleiner werden kann, also ist die Karte allgemein vielleicht günstiger in der Herstellung trotz des Interposers.
Dazu dann halt noch Verpackungsgrößen, Frachtkosten, Lagerkosten ect.
Das sind ja ebenfalls alles laufende Kosten, die danach anfallen.
amdfanuwe
2019-04-03, 22:26:44
Dazu dann halt noch Verpackungsgrößen, Frachtkosten, Lagerkosten ect.
Das sind ja ebenfalls alles laufende Kosten, die danach anfallen.
Bin auch kein Hardwareentwickler.
Aber die zusätzlichen Layer für GDDR auf der Platine sind nur Cent Beträge ebenso die anderen Kosten, die du aufzählst. Denke nicht, dass das an die Kosten für den Interposer rankommt.
Das schöne ist jedoch, dass bei Platzproblemen, z.B. Server, HTPC im Mini Gehäuse, Notebooks für kleine Karten mehr verlangt werden kann.
Mal sehn, ob nicht noch eine MI50X2 für Server vorgestellt wird. Dürfte gute Gewinne liefern.
Daredevil
2019-04-03, 22:32:39
Oder Platzprobleme in Konsolen, die 2019/2020 vorgestellt werden sollen. (:
Gut, ich dachte dort kann man noch ein paar Dollar einsparen.
Schließlich macht es ja Apple vor mit ihren kleinen Verpackungen, aber die haben ja auch ganz andere Stückzahlen. ^^
Langlay
2019-04-03, 22:34:14
Wenn man die Spannungswandler usw. um die GPU verteilen kann, das ist ja meine Theorie, ist der Kühler günstiger zu bauen, weil die Platine kleiner werden kann, also ist die Karte allgemein vielleicht günstiger in der Herstellung trotz des Interposers.
Als E-Techniksicht ist es jedenfalls vorteilhaft die Spannungswandler so dicht an die GPU zu bringen wie möglich mit möglichst gleichen Leitungslängen.
Zossel
2019-04-03, 22:40:02
Oder Platzprobleme in Konsolen, die 2019/2020 vorgestellt werden sollen. (:
HBM mit HBCC wäre für Konsolen IMHO sehr sinnvoll.
Zossel
2019-04-03, 22:51:00
Bin auch kein Hardwareentwickler.
Aber die zusätzlichen Layer für GDDR auf der Platine sind nur Cent Beträge ebenso die anderen Kosten, die du aufzählst. Denke nicht, dass das an die Kosten für den Interposer rankommt.
Zusätzliche Layer kosten schon was, kannst ja hier rumklicken: https://www.allpcb.com/
Kann jemand abschätzen ob man ohne externes RAM z.b. auf burried vias verzichten kann? (Unter einer GPU mit HBM ist ja jede Platz für relativ wenig Pins)
Zossel
2019-04-03, 22:53:05
Als E-Techniksicht ist es jedenfalls vorteilhaft die Spannungswandler so dicht an die GPU zu bringen wie möglich mit möglichst gleichen Leitungslängen.
Oh, interessant, erzähl mir bitte mehr über die Hintergründe.
|MatMan|
2019-04-03, 23:14:57
HBM mit HBCC wäre für Konsolen IMHO sehr sinnvoll.
Warum wäre es denn so sinnvoll? Wozu HBCC in einer Konsole? Man ist doch bei PS4 und der neueren XBOX erst wieder zu einem gemeinsamen Speicherpool bei CPU und GPU gekommen. Bei getrennten Speichern hätten da sicher lieber die Entwickler die Kontrolle darüber.
amdfanuwe
2019-04-03, 23:54:07
Zusätzliche Layer kosten schon was, kannst ja hier rumklicken: https://www.allpcb.com/
Hab was rumgeklickt.
Platine 250 X 120 mm 1 000 000 Stück
Layer $/Platine
4 ... $ 4,5
6 ... $ 5,3
8 .. $ 19,0
10 . $ 22,5
12 . $ 28,5
Schätze mal, dass gute Kunden wie AMD und Nvidia bei den Platinen noch Rabatt bekommen.
Ab 8 Layer steigen die Kosten erheblich. Aber ob 6 Layer trotz HBM reichen?
Interposerkosten für Vega war auf 10$ geschätzt worden. 2 Layer mehr und Spannungsversorgung für GDDR dürften immer noch billiger sein als eine Interposer Lösung. Aber dabei dreht es sich um ein paar $ im einstelligem Bereich.
Die Hauptkosten liegen immer noch beim RAM und der GPU selbst.
Die Platinenkosten ohne RAM und ohne GPU schätze ich jetzt mal auf 30 - 50$.
Wäre das realistisch?
Langlay
2019-04-03, 23:57:58
Oh, interessant, erzähl mir bitte mehr über die Hintergründe.
Wenn ich die Spannungsversorgung ganz klassisch auf dem PCB rechts als I am Stück habe hab ich einen Spannungsabfall in der GPU je weiter ich von der Spannungsversorgung weg bin. Wenn ich die Spannungsversorgung rund um die GPU verteile dann habe ich eine gleichmässigere Spannung.
Daher nutzt AMD seit zumindest Vega (eventuell schon seit Fuji) eine L förmige Spannungsversorgung und Nvidia seit Turing hat Spannungsversorgung auf beiden Seiten der GPU.
/Edit gerade nochmal geschaut, Fuji ist noch ganz klassisch, bei Vega20 ist auf dem L jetzt schon ein U geworden.
mczak
2019-04-04, 02:33:01
Ab 8 Layer steigen die Kosten erheblich. Aber ob 6 Layer trotz HBM reichen?
Die Angaben sind schwer zu finden. RTX 2070 (PG160) soll 10 Layer haben, RTX 2060 (manche Versionen verwenden dasselbe PCB wie die RTX 2070) 6 (PG161).
Von der Vega 56 gibt es offenbar zumindest Versionen mit 8-Layer PCB (Sapphire Nitro+) wie auch solche mit 6-Layer PCB (Sapphire Pulse).
Zu den Kosten kann ich nichts sagen - der Riesensprung zwischen 6 und 8 Layern scheint mir aber sehr seltsam.
Leonidas
2019-04-04, 04:51:41
Für ein HighEnd-Produkt wäre das alles keine Frage: Inzwischen ist HBM eingefahren genug, um nicht mehr dramatisch mehr zu kosten (wieviel genau, kann leider niemand exakt sagen, wie können nur schätzen).
Aber Navi soll ja Midrange werden. Denkt da bitte auch an Salvage-Lösungen, die später mal für 150$ verramscht werden. Da zählen auch 1$ Mehrkosten - und 10$ Mehrkosten in jedem Fall.
Dies soll nicht bedeuten, das Navi zwingend auf GDDR6 kommt. Dies bedeutet nur, das bis zu einem gewissen Niveau der Absatzpreise auch kleine Kostenbeträge große Bedeutsamkeit erreichen können.
Zossel
2019-04-04, 07:21:23
Warum wäre es denn so sinnvoll? Wozu HBCC in einer Konsole? Man ist doch bei PS4 und der neueren XBOX erst wieder zu einem gemeinsamen Speicherpool bei CPU und GPU gekommen. Bei getrennten Speichern hätten da sicher lieber die Entwickler die Kontrolle darüber.
Es bleibt ja ein gemeinsamer kohärenter Adressbereich, Caches bei bei CPUs verletzen ja auch nicht das Konzept des gemeinsamen Speicherpools, und Swap tut es auch nicht. Die Kosten werden einfach den benötigten Geschwindigkeiten bei gegebenen Mengen angepasst.
HBCC würde den Vorteil bieten die Menge an RAM insgesamt hochhalten zu können ohne diese komplett durch "teuren" RAM abbilden zu müssen, z.b. Texturen können weiterhin per mmap() eingeblendet werden.
16GB "normales" RAM plus 4-8GB HBCC fähiges VRAM würden für ein Konsole völlig reichen und eine Konsole+ könnte recht einfach mehr "normales" RAM bekommen.
HBM bietet sich für HBCC einfach an weil man dann nicht 2 Speicherbusse aus dem Package führen muss.
Und warum sollte AMD die Kostenstruktur bei Nvidia durch höhere Stückzahlen bei normalen GDDRx verbessern helfen? Diskrete Grafikkarten dürften bzgl. der Stückzahlen ein Pfurz gegenüber Konsolen sein.
Zossel
2019-04-04, 07:26:55
Ab 8 Layer steigen die Kosten erheblich. Aber ob 6 Layer trotz HBM reichen?
Wie bereits gesagt, burried vias bietet Allpcb nicht an. Ich kann aber die Notwendigkeit bei externen VRAM nicht einschätzen.
basix
2019-04-05, 08:05:14
Als E-Techniksicht ist es jedenfalls vorteilhaft die Spannungswandler so dicht an die GPU zu bringen wie möglich mit möglichst gleichen Leitungslängen.
Mit 1x Ausnahme: Temperatur ;) GPU und Spannungswandler Verluste sind dann flächenmässig sehr konzentriert.
Für ein HighEnd-Produkt wäre das alles keine Frage: Inzwischen ist HBM eingefahren genug, um nicht mehr dramatisch mehr zu kosten (wieviel genau, kann leider niemand exakt sagen, wie können nur schätzen).
Aber Navi soll ja Midrange werden. Denkt da bitte auch an Salvage-Lösungen, die später mal für 150$ verramscht werden. Da zählen auch 1$ Mehrkosten - und 10$ Mehrkosten in jedem Fall.
Dies soll nicht bedeuten, das Navi zwingend auf GDDR6 kommt. Dies bedeutet nur, das bis zu einem gewissen Niveau der Absatzpreise auch kleine Kostenbeträge große Bedeutsamkeit erreichen können.
Wo steht das eigentlich dass Navi nur Midrange werden soll? Su hat stets gesagt, dass man gerne alle Märkte bedienen möchte, dass das ganz oben eben noch dauert.
Erschwerend hinzu kommt, dass Midrange für 7nm Mitte 2017 noch eine andere Leistungskategorie war als Midrange, was Turing dann letztendlich wurde, da Turing ja weit unter dem rausgekommen ist, womit viele noch Mitte 2017 fest gerechnet haben.
Ich glaub das nicht. GCN skaliert bis 64CUs, genau das wird Navi auch bringen. Das reicht halt für HighEnd, aber nicht wenn NV auf 7nm springt.
Da wird man einfach ne komplett neue Architektur brauchen, die erheblich besser skaliert. Und genau das wird man 2017 angestoßen haben, aber vor 2021 (mit 5nm) wird das eben nix bei AMD.
w0mbat
2019-04-05, 09:47:00
Ich bin mir relativ sicher, dass die Gerüchte besagen, dass Navi "erstmal" nur die mid-range bedienen soll, also zuerst der/die kleinen Chips kommen. Macht ja auch Sinn bei 7nm erstmal die kleinen Chips zu bringen.
Ich stell mir quasi eine "RX680" und eine "RX 670" vor, Preise < 300€ und eine Leistung von max. Vega64, eher weniger. Wieviele CUs Navi dafür braucht werden wir sehen.
Sind wir uns eigentlich 100% sicher, dass Navi noch GCN ist? Ich weiß dass die Gerüchte das besagen, soll ja die letze GCN Iteration werden. Aber wie sicher sind wir uns da?
rentex
2019-04-05, 10:51:57
Den gleichen Stand hab ich ebenfalls. Also Navi zuerst im Midrange, nächstes Jahr, wird dann erst High End/evtl. Enthusiast bedient.
NV hat schon gesagt das 7nm vorerst für sie kein Thema ist...was auch plausibel kling.
Leonidas
2019-04-05, 10:55:35
Sind wir uns eigentlich 100% sicher, dass Navi noch GCN ist? Ich weiß dass die Gerüchte das besagen, soll ja die letze GCN Iteration werden. Aber wie sicher sind wir uns da?
Gar nicht sicher. Es gab diesbezüglich total widersprüchliche Angaben, ergo ist dieser Punkt voll in der Schwebe.
Ich bin mir relativ sicher, dass die Gerüchte besagen, dass Navi "erstmal" nur die mid-range bedienen soll, also zuerst der/die kleinen Chips kommen. Macht ja auch Sinn bei 7nm erstmal die kleinen Chips zu bringen.
Ich stell mir quasi eine "RX680" und eine "RX 670" vor, Preise < 300€ und eine Leistung von max. Vega64, eher weniger. Wieviele CUs Navi dafür braucht werden wir sehen.
Sind wir uns eigentlich 100% sicher, dass Navi noch GCN ist? Ich weiß dass die Gerüchte das besagen, soll ja die letze GCN Iteration werden. Aber wie sicher sind wir uns da?
Das macht überhaupt keinen Sinn. Immerhin haben die mit V20 schon was weit größeres im Angebot. Wenn man das ohne EUV macht, fangen die natürlich wider oben an, wie sie es immer getan haben.
Gar nicht sicher. Es gab diesbezüglich total widersprüchliche Angaben, ergo ist dieser Punkt voll in der Schwebe.
Seh ich überhaupt nicht. Warum sollte Navi jetzt plötzlich kein GCN mehr sein? Das macht einfach keinen Sinn. Die RTG wird mit GCN bis einschließlich Navi 2014 geplant haben. 2014 war ein Krisenjahr! Die neue Architektur wird erst weit später angestoßen worden sein. Das Sony hier in die Entwicklung integriert war heißt doch absolut nicht, dass es kein GCN mehr ist. Ich stelle diese ganze These in Frage, weil es dazu auch keinerlei Quellen gibt und das nur Behauptungen sind, genau wie dieser Blödsinn, dass nur Mainstream kommt.
Das kein Enthusiastenmarkt bedient wird, das ist hinlänglich bekannt, da Su ja zugegeben hat, dass man das wieder möchte, was natürlich heißt, dass man es jetzt nicht kann. Das wars dann aber auch.
Das einzige Scenario, das ich mir hier vorstellen kann, ist, dass man den größeren Navi auf EUV verschoben hat und deshalb zuerst N12 erscheint. Sonst würde mir kein einziger Grund einfallen, warum es anders laufen sollte.
Interessant ist, dass für Intels Einstieg kein besserer Zeitpunkt möglich wäre. AMD macht kein ganz oben, NV hat nur 12nm und Intel kommt direkt mit ihren 10nm auf den Markt, besser hätte es nicht laufen können. Das ist genau umgekehrt zum CPU-Markt witzigerweise.
robbitop
2019-04-05, 11:03:56
Midrange macht am meisten Sinn. Das waren für AMD in den letzten Jahren die erfolgreichsten Produkte. Mit Abstand. Zuletzt mit Polaris. Ein Gegner für 2070 und 2060 verkauft sich sicherlicht gut.
Ob Navi die gleichen Restriktionen und Schwächen wie seiner Vorgänger in ähnlicher Ausprägung hat, muss sich noch zeigen. Ggf ist dort seit längerer Zeit mal wieder mehr rnd geflossen. Insbesondere wenn es die Basis der neuen Konsolengen ist haben Sony und MS sicherlich auch Ansprüche ggü den Vorgängern was Perf/W und Perf/mm2 angeht.
Sry, aber das stimmt einfach nicht. Polaris ist absolut keine Erfolgsgeschichte. Ohne Mining wärs noch viel schlechter gelaufen, so einen Quatsch machen die nicht noch mal.
Und es macht eben absolut keinerlei Sinn, erst im Mainstream zu starten, es sei denn es gibt einen technischen Grund dafür. Je höher die Architektur rauskommt, desto besser ist der Ruf und desto besser wird sich das verkaufen. Warum sollte sich das jetzt geändert haben?
Die neuen Konsolen sollen 12 TFLOPs bringen. Das geht i.Ü. nur mit 48+ CUs, nur um das mal klarzumachen. Da ist es nicht weit bis 64. Turing ist ein furchtbar schlechter Maßstab, da er scheisse langsam ist für eine neue Gen (ja genau, Ultralativ :freak:). Deshalb kommt Navi auch nicht Mainstream raus, das ist einfach Blödsinn in meinen Augen. Navi gibts nicht ganz oben, weil es noch GCN ist. Und wenn man bei der 2080 rauskommt ist es ja schon HighEnd!
BoMbY
2019-04-05, 11:13:46
Gibt es überhaupt belastbare Quellen für HBM vs. GDDRx Preise?
Wenn jemand 3.500 Euro übrig hat, da gibt es etwas mehr Info zu den Kosten:
https://www.systemplus.fr/reverse-costing-reports/amd-radeon-vega-frontier-edition/
][immy
2019-04-05, 11:43:24
Sry, aber das stimmt einfach nicht. Polaris ist absolut keine Erfolgsgeschichte. Ohne Mining wärs noch viel schlechter gelaufen, so einen Quatsch machen die nicht noch mal.
Und es macht eben absolut keinerlei Sinn, erst im Mainstream zu starten, es sei denn es gibt einen technischen Grund dafür. Je höher die Architektur rauskommt, desto besser ist der Ruf und desto besser wird sich das verkaufen. Warum sollte sich das jetzt geändert haben?
Das einzige was Mining gemacht hat, war den Markt an Polaris Karten leer zu fegen. Man hat schon dadurch Anteile verloren, das man die Karten nicht mehr kaufen konnte (zu akzeptablen Preisen).
Durch die Preisanpassungen sind sie wieder in etwa auf dem Niveau, wo sie vor 2 Jahren waren bevor die Preise so explodiert sind und auch etwas darunter (vor dem mining boom war die RX570 bei ~180€ die RX580 bei ~220€). Die RX580 kann es beispielsweise in aktuellen Tests mehr als gut mit der 1060er 6GB aufnehmen und schon nah an die 1070er ran kommt. Die 1060er wird sogar von der RX570 mit 4GB regelmäßig eingeholt. Von da her war das Design eigentlich nicht verkehrt, auch wenn die 1060er wohl etwas weniger Energie benötigt.
Aber ja, im High-End Bereich kann AMD nach wie vor nicht wirklich mithalten. Polaris war für Mainstream ziemlich gut und lange Zeit gab es für alles darüber eigentlich nichts mehr außer Crossfire was inzwischen auch tot ist. Vega kam viel zu spät und war auch nicht grad der heilige Gral, wobei Vega bei einigen Titeln besonders gut klarzukommen scheint. Aber der Verbrauch ist hier absolut durch die Decke gegangen. Gefühlt ist Vega trotz seiner Größe nicht weit von Polaris entfernt was die Leistung angeht.
Wie dem auch sei, GCN ist scheinbar allgemein an seine Grenzen gekommen ohne größere Veränderungen. Immer mehr Einheiten bringen kaum noch was und mehr Takt geht stark zulasten des Verbrauchs.
Hoffen wir mal das Navi kein zweiter R600 wird.
Der_Korken
2019-04-05, 13:09:15
[immy;11965029']Hoffen wir mal das Navi kein zweiter R600 wird.
Die Eigenschaften "großer Chip", "hoher Verbrauch" und "wenig Leistung pro Transistor", die man mit R600 assoziiert, passen bereits auf V10. Hoffen wir daher mal, dass Navi ein RV770 wird, selbst wenn es wieder nur die "alte" GCN-Architektur ist.
Ravenhearth
2019-04-05, 13:56:51
Ich glaub das nicht. GCN skaliert bis 64CUs, genau das wird Navi auch bringen. Das reicht halt für HighEnd, aber nicht wenn NV auf 7nm springt.
Da wird man einfach ne komplett neue Architektur brauchen, die erheblich besser skaliert. Und genau das wird man 2017 angestoßen haben, aber vor 2021 (mit 5nm) wird das eben nix bei AMD.
Und was, denkst du, war stattdessen auf der Roadmap mit "Scalability" für Navi gemeint?
BoMbY
2019-04-05, 14:05:20
Es wäre nicht das erste Mal, dass sich Pläne und Roadmaps mit der Zeit ändern ... zum Teil auch drastisch.
Ich bin ziemlich sicher es gab Änderungen bei Navi seit Raja weg ist.
Und was, denkst du, war stattdessen auf der Roadmap mit "Scalability" für Navi gemeint?
Das wird einfach heißen, dass man >40CUs jetzt deutlich effizienter wird. Das erfordern die neuen Konsolen ja jetzt.
BoMbY
Das mag ja sein, aber dann höchstens noch bei I/O, dem verwendeten Speicher oder so. Die Architektur wird seit Anfang 2017 feststehen, der Maskensatz seit Anfang 2018. Da ist kein Spielraum für eine neue Architektur bei Navi. Man wird zugesehen haben, dass Navi über 40CUs vernünftig skaliert und man wird NGG implementiert haben. Zudem wird man das Design konsequent für 7nm ausgelegt haben. Eben alles was entscheidend ist für die Konsolen. Die PC-Chips sind eh wieder "Abfallprodukte" dieser Entwicklung. Daher gibts auch keine wirkliche Topleistung, weil GCN das hier eben nicht mehr bieten kann.
R600 oder sowas ist hier nicht zu erwarten, das sind reine Gamingableger, die auf Dichte/Effizienz getrimmt sind, was eben für die Konsolen wichtig ist. Von daher wird man da taktmäßig auch keine Weltraumwerte erreichen und weiterhin unter 2GHz bleiben.
Schön das 3DC wieder funzt!
"NAVI GPU is a very special GPU, in fact, it is slated to be the first graphics card from AMD that will not be made on the GCN macro-architecture. "
und
"The performance of the card will be somewhere around the Vega 56 depending on the clock rate but much cheaper!"
WCFckTech
Steht doch klipp und klar da:biggrin:
Ich will endlich meine Fury ablösen, bis Herbst bitte spätestens!
BoMbY
2019-04-06, 01:02:02
Naja, von einem komplett neuen ISA als Nachfolger von GCN wurde bereits 2015 gerüchtet (https://www.kitguru.net/components/graphic-cards/anton-shilov/amd-readies-three-new-gpus-for-2016-greenland-baffin-and-ellesmere/). Es ist gut möglich das AMD seitdem daran arbeitet, nur dass das falschen Generationen zugeordnet wurde.
Zu Navi gibt es bisher quasi Null konkrete Informationen, und eine Menge schlechte Gerüchte. Ich habe schon länger das Gefühl dass die AMD-Treiberteams an etwas größeren kochen, wobei das jetzt keine komplette Abkehr von GCN sein muss, es könnte sich auch verhalten wie ein AMD64 zu x86.
Leonidas
2019-04-06, 09:15:59
Es liegt sicherlich die höhere Chance darin, das Navi noch GCN ist, nur einfach nun endlich "well done". Hoffentlich hat denen Sony hinteneingetreten zugunsten der Entwicklung der Konsolen-SoCs. Auch dort ist Effizienz wichtig, was ja nun so das Hauptproblem von GCN ist - zu viel Stromverbrauch für gleiche Performance. Deswegen werden überall größere Chips vonnöten, um dasselbe wie NV herauszubekommen. Ob dieser gordische Knoten allerdings noch unter GCN zerschlagen werden kann? Unsicher.
Der_Korken
2019-04-06, 15:25:54
Naja, von einem komplett neuen ISA als Nachfolger von GCN wurde bereits 2015 gerüchtet (https://www.kitguru.net/components/graphic-cards/anton-shilov/amd-readies-three-new-gpus-for-2016-greenland-baffin-and-ellesmere/). Es ist gut möglich das AMD seitdem daran arbeitet, nur dass das falschen Generationen zugeordnet wurde.
Was dort unter Greenland beschrieben wird, würde eigentlich auch zu dem passen, was AMD bei Vega alles im Vorfeld angekündigt hat, z.B. auch "NCUs" statt nur CUs. Auch dass diese neue Arch 2015 bereits seit zwei Jahren in Entwicklung gewesen sein soll, passt zu Vega.
Dino-Fossil
2019-04-06, 16:54:56
Wobei - wenn Navi es schafft, die großen aktuellen Probleme bei GCN zu lösen, wofür sollte man dann direkt im Anschluss eine neue Architektur bringen?
Ich halte es dann schon wieder für wahrscheinlicher, dass entweder Navi bereits soweit von bisherigen GCN-Inkarnationen weg ist, dass es legitim als neue Architektur bezeichnet werden kann (es muss ja nicht immer so fundamental daherkommen wie zwischen Terascale und GCN, nVidia macht ja auch meist kleinere Schritte als das), oder dass man sich wiederum auf evolutionäre Änderungen beschränkt, die einfach "nur" z.B. auf Vega-done-right hinauslaufen, um dann die großen Änderungen eben danach zu bringen.
Langlay
2019-04-06, 18:25:30
Mit 1x Ausnahme: Temperatur ;) GPU und Spannungswandler Verluste sind dann flächenmässig sehr konzentriert.
Ja, das stimmt, allerdings ist das auch nichts was nicht beherrschbar ist.
reaperrr
2019-04-06, 18:49:39
Wobei - wenn Navi es schafft, die großen aktuellen Probleme bei GCN zu lösen, wofür sollte man dann direkt im Anschluss eine neue Architektur bringen?
Ich halte es dann schon wieder für wahrscheinlicher, dass entweder Navi bereits soweit von bisherigen GCN-Inkarnationen weg ist, dass es legitim als neue Architektur bezeichnet werden kann (es muss ja nicht immer so fundamental daherkommen wie zwischen Terascale und GCN, nVidia macht ja auch meist kleinere Schritte als das), oder dass man sich wiederum auf evolutionäre Änderungen beschränkt, die einfach "nur" z.B. auf Vega-done-right hinauslaufen, um dann die großen Änderungen eben danach zu bringen.
Jup, etwas in der Richtung vermute ich auch.
Wobei, selbst GCN 1.0 hat meines Wissens die ROPs, das Frontend und den Speichercontroller weitgehend (oder zumindest nur mit kleinen Änderungen, die wir zwischen den GCN-Generationen ebenfalls hatten) von Cayman übernommen, trotzdem war es schon eine neue Architektur, weil eben die VLIW4-SIMDs durch die CUs ersetzt wurden.
Kann durchaus sein, dass Navi erstmal "nur" ein oder zwei Bereiche grundlegend überarbeitet, und der Rest dann mit dem Nachfolger angegangen wird.
Hat NV mit Maxwell 1.0 und 2.0 ja auch schonmal so ähnlich gemacht.
BoMbY
2019-04-07, 20:13:17
Was dort unter Greenland beschrieben wird, würde eigentlich auch zu dem passen, was AMD bei Vega alles im Vorfeld angekündigt hat, z.B. auch "NCUs" statt nur CUs. Auch dass diese neue Arch 2015 bereits seit zwei Jahren in Entwicklung gewesen sein soll, passt zu Vega.
Nur war Greenland möglicherweise nicht einer der bekannten Vega-Dies, sondern eine nie veröffentlichte Chiplet-Variante für die nie veröffentlichte "High-Performance Server APU".
Leonidas
2019-04-08, 10:03:46
Laut WCCF Tech gibt es um den 23. April herum eine AMD-Veranstaltung für die AMD-Partner, Thematik: Zen 2 & Navi
https://wccftech.com/amd-partners-summit-april-7nm-navi/
Zu vermuten sind im Anschluß entsprechende Leaks zu Launchterminen und eventuelle auch Produkt-Specs.
Jup, etwas in der Richtung vermute ich auch.
Wobei, selbst GCN 1.0 hat meines Wissens die ROPs, das Frontend und den Speichercontroller weitgehend (oder zumindest nur mit kleinen Änderungen, die wir zwischen den GCN-Generationen ebenfalls hatten) von Cayman übernommen, trotzdem war es schon eine neue Architektur, weil eben die VLIW4-SIMDs durch die CUs ersetzt wurden.
Kann durchaus sein, dass Navi erstmal "nur" ein oder zwei Bereiche grundlegend überarbeitet, und der Rest dann mit dem Nachfolger angegangen wird.
Hat NV mit Maxwell 1.0 und 2.0 ja auch schonmal so ähnlich gemacht.
Das ist ziemlich wahrscheinlich. Aber ich bin davon abgekommen, Navi in EUV zu vermuten, nachdem selbst Apple 7nm EUV meiden könnte. Ich denke, man kann den Navi Launch zeitnah zum Zen2-Launch erwarten, aber dann in 7nm HPC, wie bisher auch. Es stellt sich bisher eben nur die Frage, wieviele Chips, welcher Bereich. Polaris bis V56 sind wohl relativ klar, was passiert darüber und wann? Ich bin mir immer noch sicher, dass es einen Navi-Chip noch dieses Jahr geben wird, der V10 64 und V20 im Consumermarkt ersetzen wird.
horn 12
2019-04-09, 01:44:13
Huch, zu später Stunde:
Navi vielleicht doch so schnell wie RTX 2070
und Customs knapp an der Radeon Seven dran vielleicht?
NVidia ist schon an was dran, zumindest sagt dies die WCC Gerüchte Küche:
https://wccftech.com/nvidia-rtx-2070-ti-potential-specs-benchmarks-leaked/
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.