PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 [30] 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

basix
2020-03-21, 16:53:47
Die GPU wird unter normalen Bedingungen aber auch nie mit 1.8 GHz takten. Eine Mobile GPU würde eher so auf 1.0 GHz liegen, da liegt man in Schlagdistanz einer GTX 1080 mit 35 GB/s pro TFLOP. Und wenn RDNA nochmals bandbreiteneffizienter ist (z.B. Turing Niveau) wäre auch 1.2 GHz machbar mit der Bandbreite.

Ich tendiere aber auch zu 8 CUs, da man sonst den Chip unnötig grösser macht. 16 CU werden wir mit 5nm und DDR5 sehen ;)

robbitop
2020-03-21, 17:45:30
Also bei 16 CUs müsste man ganz schön den GPU Takt absenken, ja. Wird interessant zu sehen, wie hoch bei Renoir in der Praxis die Taktrate ist.
Ich tippe aber darauf, dass AMD nicht so einen großen Die fertigen wird. Bei Renoir hat man mit Absicht nur 8 CUs verbaut. RDNA2 ist zwar bandbreiteneffizienter als Vega, aber die gesteigerte IPC verlangt ja auch nach Bandbreite.
Kleine Dies sind billiger und die Masse interessiert sich offenbar nicht für besonders starke IGPs.

Berniyh
2020-03-21, 17:50:46
evtl. macht man ja einen größeren Die (Von Gogh) und einen kleineren Die (Rembrandt oder Mero).
Finde ich bei AMD jetzt nicht unbedingt wahrscheinlich, aber möglich wäre es.

basix
2020-03-21, 17:58:34
7nm: VGH = 8 CU @ LPDDR4x
5nm: 12-16 CU @ DDR5

So etwas ist mit Abstand am Wahrscheinlichsten. Rechenleistung und Bandbreite passen ganz gut zusammen.

Oh, wait. LPDDR5 gibt es ja noch, und zwar schon heute :freak: Da weiss ich aber nicht, ob das möglich wäre mit den NextGen APUs.

SKYNET
2020-03-21, 18:02:23
Also bei 16 CUs müsste man ganz schön den GPU Takt absenken, ja. Wird interessant zu sehen, wie hoch bei Renoir in der Praxis die Taktrate ist.
Ich tippe aber darauf, dass AMD nicht so einen großen Die fertigen wird. Bei Renoir hat man mit Absicht nur 8 CUs verbaut. RDNA2 ist zwar bandbreiteneffizienter als Vega, aber die gesteigerte IPC verlangt ja auch nach Bandbreite.
Kleine Dies sind billiger und die Masse interessiert sich offenbar nicht für besonders starke IGPs.


mal rechnen...

3400G --> 4900G(?)
11CUs --> 16CUs = 45% mehr CUs
1400MHz --> 1800MHz = 29% mehr takt
DDR 2933 51.2GB/s --> DDR 4266 70GB/s = 37% mehr bandbreite

also entweder hat das ding 11CUs und mehr takt, oder 16 CUs und gleichen takt... gehe von letzteren aus, wegen effiziens :)

Zossel
2020-03-21, 18:09:28
Bei der PS5 Vorstellung gab es auch was zu RDNA2: https://youtu.be/ph8LyNIT9sg?t=1514

"to reduce power consumption by rearchitecting the GPU to put data close to where it's needed".

Berniyh
2020-03-21, 18:38:21
Also mehr Cache?

basix
2020-03-21, 18:39:54
Also mehr Cache?
...und/oder optimiertes Layout ;) Das kann viel ausmachen, weil jeder Millimeter Weg kostet viel Energie.

mczak
2020-03-21, 18:46:23
16CUs würden bei 1800 MHz und LPDDR4x-3733 DC bei 16-17 GB/s pro TF liegen. Das ist hoffnungslos bandbreitenlimitiert.
Wobei Renoir schon lpddr4x-4266 unterstützt. Der Unterschied ist aber nicht so gross...
Dass APUs hoffnungslos bandbreitenlimitiert sind wäre ja auch nichts neues, es haben eigentlich auch alle erwartet dass Renoir mehr CUs (oder mindestens gleich viel) wie Raven Ridge hat, nun hat man für eine APU eigentlich sehr viel Bandbreite / Flop.
Aber bei Renoir hat sich AMD wirklich Mühe gegeben dass das Teil trotz der 8 CPU-Kerne so klein wie möglich wird (kaum L3 CPU Cache, wenig CUs, kein pcie 4.0 (wobei ich bin hier nicht ganz sicher ob das für den Chip an sich bestätigt ist oder bloss für die Mobilversionen)), und ich sehe keinen Grund wieso AMD da die Strategie schon wieder ändern sollte.

robbitop
2020-03-21, 19:05:21
Genau. Man verschwendet ja ansonsten ohne Not Silizium und damit Kosten, wenn man eine iGPU baut, die ihre Rechenleistung nicht ausfahren kann. Und da "Premium" eGPUs aufgrund von kleinen dGPUs eh kaum gekauft werden, ist es wirtschaftlich fraglich, eine große iGPU für den Massenmarkt zu bauen. Ich tippe darauf, dass man sicherlich wieder Custom Silizum baut, bei der man mehr CUs und Bandbreite hat.

Complicated
2020-03-21, 19:35:24
Ich tippe darauf, dass man sicherlich wieder Custom Silizum baut, bei der man mehr CUs und Bandbreite hat.
Das denke ich bei der derzeitigen Informationslage auch am ehesten.

Unicous
2020-03-21, 20:11:00
Es gibt schon längst Einträge für custom silicon.

Komachi hat jetzt nachgeschoben, dass es 8 WGPs seien könnten wenn Van Gogh LPDDR5 unterstützt oder 4 wenn nicht. (Also laut der Google Translate Übersetzung)
https://twitter.com/KOMACHI_ENSAKA/status/1241431771310198785

Ich kann mir ehrlich gesagt nicht vorstellen, dass es 4 sind, da der Takt schon sehr hoch ist und das bedeuten würde, dass AMD den Takt noch höher prügeln muss um das auszugleichen.

Es gibt auch zwei Van Gogh Einträge mit jeweils verschiedenen GFX IDs, einmal GFX1033 und einmal 1040, letztere ID hat Komachi Van Gogh Lite getauft.

https://pbs.twimg.com/media/ETcuAuXUUAAeFtA.png

Berniyh
2020-03-21, 20:32:49
Das hat mit taufen nix zu tun, das steht so in der Treiberdatei drin. ;)

Aber was es mit den LITE Versionen auf sich hat ist eh noch völlig unklar.

basix
2020-03-21, 20:34:36
4 WGP sind doch 8 CUs oder nicht? Da muss man ja keinen Takt reduzieren. Etwas mehr Takt und doch deutlich mehr IPC als Vega, wieso nicht? RDNA2 benötigt 1.6x Transistoren pro CU wie Vega. Die GPU wird also so oder so deutlich grösser. Mit 16 CU wäre das 3x mehr als bei Renoir und ca. +40mm2. Ich glaube nicht, dass AMD das machen will. Selbst mit 7nm+ und 8 CUs wäre van Gogh nur leicht unterhalb der Die Size von Renoir (ca. 150mm2)

Leonidas
2020-03-22, 05:07:29
Wo ist DDR4 gesichert?


Wegen des bestehenden Ökosystems kann DDR5 eigentlich erst bei Zen 4 kommen. Gesichert ist nix, aber Chance auf Zen 3 mit 2Ch. DDR4 liegt bei 99%.

Complicated
2020-03-22, 07:47:33
Allerdings ist im bestehenden Semi-Ökösystem für APUs auch eine HBM-Konfiguration möglich (HPC-APU) und eine GDDR5-Konfiguration ebenfalls (Konsolen). Das ist bei Custom-Designs, wie schon geschrieben nicht bei 99% DDR4, wenn man sich die bisherigen Designs anschaut.

Am Ende kommt was für die Autoindustrie und sieht völlig anders aus, als das was wir in PCs verbauen. (Nur als Beispiel). Oder eine mobile Konsole eines Konkurrenten. Oder ein weiteres Streaming-Endgeräte. Möglicherweise ein Samsung-TV? Keine Ahnung, doch derzeit ist da noch vieles möglich in verschiedenen Ökosystemen.

HOT
2020-03-22, 09:39:33
Der wird eh beides können, DDR4 und DDR5. Zudem ist der sicherlich als Renoir Ersatz unterwegs sondern eher als Ergänzung nach oben hin. Man wird das Lineup erweitern: Dali -> Picasso -> Renoir -> van Gogh. Picasso wird hier irgendwann verschwinden und Renoir und Dali werden evtl in 22 mal durch ne günstige N6-APU erstzt werden.

Ghost1nTh3GPU
2020-03-22, 09:46:39
Was spricht gegen 2 Chips - 4GB - 64-Bit - 112GB/s - GDDR6 auf dem Package? HBM2(e) ist wohl immer noch zu aufwendig für Mainstreamslösungen.

HOT
2020-03-22, 09:48:55
Schon Kaveri konnte GDDR5. Mit AMDs damaliger Marktdurchdringung war das damals aber nicht relevant. Heute könnte das anders sein.

Ghost1nTh3GPU
2020-03-22, 09:50:49
Ja, da bräuchte man den GDDR6 vielleicht gar nicht auf dem Package sondern führt hier 1x64 Bit GDDR6 (verlötet) und 1x64-Bit (LP)DDR4 (gesockelt) nach außen.

robbitop
2020-03-22, 10:08:41
Zu teuer - wird kaum gekauft. Für den Preis (typischerweise oft schon sogar günstiger) gibt es dann in den Geräten dGPUs. Siehe Kabylake G und auch sämtliche Iris Plus Graphics mit edram. Ist eine kaum relevante Marktnische wegen dGPUs.

Diese Träumerei mit den Super APUs mit gddr/hbm on Package oder Onchip gibt es schon sehr lange. Der Markt lehnte offenbar jegliche Versuche ab.

Mit dem 8CU Renoir zeigte eine pragmatische Lösung, die zum Massenmarkt passt. Wie auch Intels GT2.

dildo4u
2020-03-22, 10:28:07
Bräuchte man nicht komplett neue Sockel wenn man APUs wie die neue Xbox bauen würde?Nicht nur wegen dem Ram sondern weil das Ding bei 250 Watt landen könnte.

robbitop
2020-03-22, 10:43:29
Naja es müssen ja nicht 250W sein. Die bisher verfügbare TDP sollte für Midrange reichen. Wird aber aus og Gründen IMO eh nicht passieren.

Ghost1nTh3GPU
2020-03-22, 10:44:09
Eine starke APU mit schnellem Zusatzspeicher könnte eine Reaktion auf Intel, die wohl in den nächsten Produkten hier aufholen und die Baseline vernünftiger Performance für viele Spiele mit hoher Verbreitung überspringen.

Bräuchte man nicht komplett neue Sockel wenn man APUs wie die neue Xbox bauen würde?Nicht nur wegen dem Ram sondern weil das Ding bei 250 Watt landen könnte.
16CUs@2GHz sind ja keine 250W. Aber ein Extra-Package und Extra-Mainboard dürfte wohl nötig sein. Der Die könnte aber für DDR4 und DDR4/GGDR6 Lösungen der gleiche sein.

Ravenhearth
2020-03-22, 10:47:30
mal rechnen...

3400G --> 4900G(?)
11CUs --> 16CUs = 45% mehr CUs
1400MHz --> 1800MHz = 29% mehr takt
DDR 2933 51.2GB/s --> DDR 4266 70GB/s = 37% mehr bandbreite

also entweder hat das ding 11CUs und mehr takt, oder 16 CUs und gleichen takt... gehe von letzteren aus, wegen effiziens :)
Einen 4900H gibts doch schon, der hat 8 CUs. Müsste dann 5900H heißen.

4 WGP sind doch 8 CUs oder nicht? Da muss man ja keinen Takt reduzieren. Etwas mehr Takt und doch deutlich mehr IPC als Vega, wieso nicht? RDNA2 benötigt 1.6x Transistoren pro CU wie Vega. Die GPU wird also so oder so deutlich grösser. Mit 16 CU wäre das 3x mehr als bei Renoir und ca. +40mm2. Ich glaube nicht, dass AMD das machen will. Selbst mit 7nm+ und 8 CUs wäre van Gogh nur leicht unterhalb der Die Size von Renoir (ca. 150mm2)
Nö, RDNA2 benötigt nicht 60% mehr Transistoren pro CU als Vega, sondern als die PS4-Grafik, also GCN 1.1. Vega hat schon deutlich mehr Transistoren, die beim Sprung von Polaris hauptsächlich für Mehrtakt draufgingen.

robbitop
2020-03-22, 11:04:03
Eine starke APU mit schnellem Zusatzspeicher könnte eine Reaktion auf Intel, die wohl in den nächsten Produkten hier aufholen und die Baseline vernünftiger Performance für viele Spiele mit hoher Verbreitung überspringen.
.

Das ist nur zum gleichen Preispunkt eine relevante Reaktion. Zumal Intel ja auch GT3e/4e anbietet. Aber wie gesagt: kauft praktisch niemand.

Ghost1nTh3GPU
2020-03-22, 11:08:08
Weil Intel noch einen schlechten Ruf und für GT3/4e zu hohe Preise hatte, dass kann sich mit einer besserer GPU-Arch ändern. Nvidia hat in dem Bereich ja auch die MX-Lösungen auf Pascal-Basis. Insofern gibt es schon einen Markt.

robbitop
2020-03-22, 11:25:16
Genau wegen low cost dGPUs (die AMD auch hat) ergibt ein extra SoC mit zusätzlichem Speicher wenig Sinn. Zumindest wenn man viele davon verkaufen will.

amdfanuwe
2020-03-22, 13:09:17
Welche Anforderungen hat eine Super-APU?
-Preis : Gesamtsystem nicht teurer als herkömmliche Lösung mit dGPU
-Leistung: Aktuelle APUs reichen für alles außer Full-HD Gaming. Da braucht es schon Leistungsniveau von min. 5500XT mit 22 CU. 16 CU dürften somit zuwenig sein.
-TDP: muß in bestehende Rahmen passen, Desktop 105W, Mobile 45W+dGPU ...
-Speicher: Für GPU min. 4GB VRAM on Package wegen Bandbreite.
-CPU 8C/16T

Hab ich was vergessen?

Wenn schon RAM aufs Package muß kann man auch gleich 8 oder 16GB anstreben um den "externen" RAM überflüssig zu machen. Würde das Borddesign vereinfachen und die benötigte Fläche wesentlich verkleinern.
Wie weit ist die 3d Stacking Technologie? Da wird an vielem geforscht. Daher können auch andere Lösungen als HBM in Frage kommen an die wir nicht denken.

robbitop
2020-03-22, 13:12:23
Tja da vergleichbar dGPUs sogar in die ultra dünnen Subnotebooks passen, ist das nicht wirklich ein großer Markt den man da bedienen kann.
AMD kann nicht auf allen Hochzeiten tanzen, da deutlich kleiner als Intel. Entsprechend konzentriert man seine Produkte auf große Märkte.

Wie gesagt: gab es mit Kabylake-G schon. War ein Flopp.

amdfanuwe
2020-03-22, 14:09:19
Kabylake-G wird Intel typisch zu teuer gewesen sein und war keine APU. Das war CPU + dGPU mit 4GB HBM auf einem Träger mit 100W TDP. Mit 24 Vega CU war die Lösung auch noch nicht wirklich Full HD Gaming tauglich, so zwischen RX 560 und RX 570. Dazu die Platzierung im Premium Segment... Konnte ja nur floppen. Zu teuer, zu langsam, kaum Vorteil gegenüber herkömmlichen Lösungen.

robbitop
2020-03-22, 16:09:06
Eine große APU und HBM wird auch nicht billig werden. Der Abstand zwischen GT2 Laptops und welchen mit kleiner dGPU ist preislich so klein, dass da einfach kein großer Markt vorhanden ist.
Seit dem es bei AMD APUs gibt, gab es noch keine mit On Package RAM. Vermutlich aus obigem Grund. Ich halte es für sehr unwahrscheinlich. Es sei denn, dass On Package Speicher noch mal richtig deutlich günstiger wird. Oder aber 3D gestackter Speicher besonders günstig wird.

Complicated
2020-03-22, 16:23:48
Ich habe mich da an etwas letztes Jahr erinnert:
https://winfuture.de/news,109294.html
Samsung wird im Rahmen der Zusammenarbeit die RDNA-Architektur von AMD in Lizenz nutzen. Diese soll aufgrund ihrer Skalierbarkeit durchaus auch dazu geeignet sein, in Mobile-Anwendungen zum Einsatz zu kommen. Dabei geht es nicht nur um Smartphones, sondern auch um andere Produkte, die das bisherige Angebot von AMD selbst erweitern. Das kann auch einen Konkurrenten zu Nvidias Shield bedeuten, auch wenn die Partner hier noch nicht konkret werden.

SKYNET
2020-03-22, 17:51:11
Einen 4900H gibts doch schon, der hat 8 CUs. Müsste dann 5900H heißen.


Nö, RDNA2 benötigt nicht 60% mehr Transistoren pro CU als Vega, sondern als die PS4-Grafik, also GCN 1.1. Vega hat schon deutlich mehr Transistoren, die beim Sprung von Polaris hauptsächlich für Mehrtakt draufgingen.


schön das ich "G" hinter der zahl habe... G = desktop APU.

reaperrr
2020-03-22, 18:41:19
Ich würde Stand jetzt stark darauf tippen, dass Van Gogh nur 4, maximal 5 WGPs im Vollausbau haben wird, und keinerlei extra Speicherlösung.

Aus mehreren Gründen:
- es bleibt bei 7nm, und die Fläche wird allein schon durch die neuen CPU/GPU-Architekturen steigen, selbst bei gleichbleibender CU-Zahl
- RDNA1 wird übersprungen, so dass zu den 25% mehr IPC je CU auch noch die Effizienz- und etwaige weitere IPC-Verbesserungen von RDNA2 hinzukommen -> selbst mit 8 CUs vermutlich bereits ~30-40% mehr Leistung als Renoir's IGP (zumindest wenn nicht bandbreitenlimitiert)
- da Sonderlösungen für den Speicher zu teuer und aufwändig sind, würde alles über 4 WGP/8CU eh voll ins Bandbreitenlimit rennen
- einer der Hauptgründe, warum AMD bei Renoir überhaupt so bei den CUs gespart hat dürfte sein, dass sie sich endlich eingestanden haben, was wenn man ehrlich ist schon seit Jahren recht deutlich zu sehen war: Mindestens ein Drittel bis die Hälfte der Einheiten war im Grunde verschwendete Fläche, da a) meist am/im Bandbreitenlimit, b) für richtiges Gaming immer noch zu lahm, und dadurch c) entweder deaktiviert (bei dedizierter GPU) oder nur für Office, Websurfen, 2D-Gaming etc. verwendet, wo alles über 3-4 CUs im Grunde immer noch Overkill ist.

Hinzu kommt noch, dass die Konkurrenz bis 2022 nur aus Tiger Lake (nur 4 Kerne) und Rocket Lake (nur 32 EUs, wahrscheinlich auch nur ~1,1-1,2 GHz IGP-Takt) bestehen wird, insofern reichen 4 RDNA2-WGPs @1,8-2,0 GHz mMn völlig.

Bis Intel 8 oder mehr Kerne mit 64 oder mehr EUs in 7nm kombiniert, ist AMD bei RDNA3, Zen4 und alles in 5nm, da können sie dann auch ~8 WGPs verbauen und vielleicht erstmals auf Die-Stacking setzen und einen GDDR6-Chip draufpacken.

AlterSack
2020-03-22, 19:53:18
- es bleibt bei 7nm, und die Fläche wird allein schon durch die neuen CPU/GPU-Architekturen steigen, selbst bei gleichbleibender CU-Zahl


Wenn man den zukünftigen XBox-SOC anschaut,
360mm², 56CU (52 aktiv), dazu die 8 CPU Kerne + IO + Videokram + Speicherinteface etc.,
dann sehe ich nicht, dass RDNA2 sehr flächenintensiv ist, im Gegenteil.

SKYNET
2020-03-22, 19:57:50
Ich würde Stand jetzt stark darauf tippen, dass Van Gogh nur 4, maximal 5 WGPs im Vollausbau haben wird, und keinerlei extra Speicherlösung.

Aus mehreren Gründen:
- es bleibt bei 7nm, und die Fläche wird allein schon durch die neuen CPU/GPU-Architekturen steigen, selbst bei gleichbleibender CU-Zahl
- RDNA1 wird übersprungen, so dass zu den 25% mehr IPC je CU auch noch die Effizienz- und etwaige weitere IPC-Verbesserungen von RDNA2 hinzukommen -> selbst mit 8 CUs vermutlich bereits ~30-40% mehr Leistung als Renoir's IGP (zumindest wenn nicht bandbreitenlimitiert)
- da Sonderlösungen für den Speicher zu teuer und aufwändig sind, würde alles über 4 WGP/8CU eh voll ins Bandbreitenlimit rennen
- einer der Hauptgründe, warum AMD bei Renoir überhaupt so bei den CUs gespart hat dürfte sein, dass sie sich endlich eingestanden haben, was wenn man ehrlich ist schon seit Jahren recht deutlich zu sehen war: Mindestens ein Drittel bis die Hälfte der Einheiten war im Grunde verschwendete Fläche, da a) meist am/im Bandbreitenlimit, b) für richtiges Gaming immer noch zu lahm, und dadurch c) entweder deaktiviert (bei dedizierter GPU) oder nur für Office, Websurfen, 2D-Gaming etc. verwendet, wo alles über 3-4 CUs im Grunde immer noch Overkill ist.

Hinzu kommt noch, dass die Konkurrenz bis 2022 nur aus Tiger Lake (nur 4 Kerne) und Rocket Lake (nur 32 EUs, wahrscheinlich auch nur ~1,1-1,2 GHz IGP-Takt) bestehen wird, insofern reichen 4 RDNA2-WGPs @1,8-2,0 GHz mMn völlig.

Bis Intel 8 oder mehr Kerne mit 64 oder mehr EUs in 7nm kombiniert, ist AMD bei RDNA3, Zen4 und alles in 5nm, da können sie dann auch ~8 WGPs verbauen und vielleicht erstmals auf Die-Stacking setzen und einen GDDR6-Chip draufpacken.


mich würd nicht wundern wenn VG bereits DDR5 unterstützt... somit sind locker über 100GB/s drinne... AMD wird auch weiterhin klotzen und nicht kleckern, es gilt jetzt mit jeder generation intel hinter sich zu halten, entsprechend wird man in die vollen gehen.

robbitop
2020-03-22, 20:14:17
DDR5 kommt mit Zen 4.

JVC
2020-03-22, 20:34:24
Das geht schon fast zu glatt und schnell bei AMD...
Keine Ahnung auf was ich warten und was ich kaufen soll ... alles so , so .... :freak:

M.f.G. JVC

SKYNET
2020-03-22, 21:43:44
DDR5 kommt mit Zen 4.

ja, beim chiplet design... aber die APUs sind AiO :)

reaperrr
2020-03-22, 22:24:02
ja, beim chiplet design... aber die APUs sind AiO :)
Werden aber trotzdem die neuen AM5-Sockel brauchen, die AMD sicher erst mit Zen4 launchen wird (maximal vielleicht kurz vorher).

SKYNET
2020-03-22, 22:30:12
Werden aber trotzdem die neuen AM5-Sockel brauchen, die AMD sicher erst mit Zen4 launchen wird (maximal vielleicht kurz vorher).

Nö, dual IMC, kostet kaum platz...

Mobile DDR5, desktop DDR4

basix
2020-03-22, 23:27:40
Nö, RDNA2 benötigt nicht 60% mehr Transistoren pro CU als Vega, sondern als die PS4-Grafik, also GCN 1.1. Vega hat schon deutlich mehr Transistoren, die beim Sprung von Polaris hauptsächlich für Mehrtakt draufgingen.

Stimmt :up:

horn 12
2020-03-23, 00:04:53
Nun, Big Navi - RDNA 2 sollte bereits mit 80 CU und moderaten 1750 Mhz die RTX 2080 TI um etwa gute 20% hinter sich lassen,- und dies wären in etwa die Taktraten einer RX 5700 Stock.
Da sind noch keine Verbesserungen miteinberechnet und die Primitiv Shader sind noch das Große, Unbekannte Fragezeichen,- da diese nun fix miteingebunden sind.

40 bis gar 50% über RTX 2080TI denke wäre machbar.

robbitop
2020-03-23, 07:07:19
ja, beim chiplet design... aber die APUs sind AiO :)

Es gibt aktuell nichts was dafür spricht. Auch verdoppelt ddr5 ggü lpddr4 nicht die Taktraten.
Zumal es einem Produkt auch nichts bringt, den Speichertyp zu unterstützen ohne dass dieser in signifikanten Stückzahlen auf dem Markt ist (wenn er dann überhaupt schon gelauncht wurde) und man dann unnötig viel Kernfläche mit sich herumschleppt für zu viele CUs.
Es kommt eh alle 4-5Q ein neues Produkt raus.

@Primitive Shader
Das muss explizit vom Entwickler implementiert sein. Siehe Turing. Genau wie VRS.

HOT
2020-03-23, 07:59:35
DDR5 kommt mit Zen 4.
Das stimmt. Aber van Gogh wird trotzdem beides können. Der wird wie bei Carrizo damals (Bristol Ridge = Carrizo) sicherlich noch für AM4 kommen und dann später für AM5.

horn 12
2020-03-23, 09:35:20
Mit RTX 2080TI Leistung und Plus 20+ Prozent wäre man schon im Bereich von absolut stabilen 60+ Fps und denke schlussendlich ist RDNA 2 nochmal stärker unterwegs als nur plus 20%

SKYNET
2020-03-23, 18:10:06
Mit RTX 2080TI Leistung und Plus 20+ Prozent wäre man schon im Bereich von absolut stabilen 60+ Fps und denke schlussendlich ist RDNA 2 nochmal stärker unterwegs als nur plus 20%


bin eher gespannt was mit 5nm abgeht... die packdichte erhöht TSMC um satte 187%, also 1.87x soviele transistoren auf der gleichen fläche, damit könnte AMD einen monsterchip(160+ CUs) im miniformat erschaffen...

basix
2020-03-23, 18:36:04
bin eher gespannt was mit 5nm abgeht... die packdichte erhöht TSMC um satte 187%, also 1.87x soviele transistoren auf der gleichen fläche, damit könnte AMD einen monsterchip(160+ CUs) im miniformat erschaffen...

1.87x kannst du dir abschminken. Das gilt nur für Logik. SRAM skaliert nur mit 1.32x. Im Schnitt können wir wohl eher so mit ca. 1.50x rechnen.

unl34shed
2020-03-23, 18:42:07
bin eher gespannt was mit 5nm abgeht... die packdichte erhöht TSMC um satte 187%, ...

sorry muss klugscheißen

Berniyh
2020-03-23, 18:55:13
sorry muss klugscheißen
Und das wo das Klopapier doch grad so rar ist. :tongue:

reaperrr
2020-03-23, 19:20:55
1.87x kannst du dir abschminken. Das gilt nur für Logik. SRAM skaliert nur mit 1.32x. Im Schnitt können wir wohl eher so mit ca. 1.50x rechnen.
Einmal das, und zum anderen wäre ein Chip mit 160 CUs selbst bei 1,87-facher Skalierung (die 1,87 hat übrigens nur WikiChip errechnet, TSMC selbst(!) spricht nur von maximal 1,84x) wohl immer noch größer als der BigNavi mit 80 CU in 7nm, der gerüchteweise 505mm² misst. Weiß nicht so recht, was daran "Miniformat" sein soll.

Außerdem skaliert analoger Kram wie z.B. Speicherinterfaces in 5nm nur mit ca. 1,2-1,3x, noch etwas schlechter als SRAM.
Und für 160 CUs würde selbst ein 512bit GDDR6-SI hinten und vorne nicht mehr reichen. Also allein wegen dem SI ist eine Packdichte von mehr als 1,5x ggü. 7nm quasi ausgeschlossen, dass SRAM sowie die Perf-optimierten HPC-Transistoren ebenfalls Packdichte kosten kommt noch oben drauf. Tippe bei GPUs in der Praxis eher nur auf höchstens 1,4x Packdichte, und das ist m.E. schon eher etwas optimistisch, denn gerade GPUs verwenden viel Fläche für SRAM und SI.

Last but not least, 5nm bietet - zumindest wenn man auf Packdichte geht - nur 15% mehr Perf bei gleicher TDP, der Sprung ist in Sachen Perf VIEL kleiner als zwischen 14nm und 7nm. Bringt also nichts, 84% mehr Transistoren reinzubuttern, wenn du dann erstmal den Takt um ca. 1/3 senken musst, um die TDP zu halten.

Meiner Meinung nach wäre es schon eine positive Überraschung, wenn wir in 5nm mehr als 100 CUs in einer RDNA-GPU zu sehen bekommen. Ich würde jetzt nicht aus allen Wolken fallen, wenn's nur 96 werden (dann aber vermutlich mit etwas mehr Takt und/oder IPC).

robbitop
2020-03-23, 19:29:57
Das stimmt. Aber van Gogh wird trotzdem beides können. Der wird wie bei Carrizo damals (Bristol Ridge = Carrizo) sicherlich noch für AM4 kommen und dann später für AM5.

Quelle? Die Zyklen sind mit aktuell 5Q kurz genug un sowas unnötig zu machen. Man wird wohl kaum unnötig viele CUs mit sich herumschleppen.

HOT
2020-03-23, 23:47:52
Quelle? Die Zyklen sind mit aktuell 5Q kurz genug un sowas unnötig zu machen. Man wird wohl kaum unnötig viele CUs mit sich herumschleppen.

Gibt keine Quelle, das kann man sich doch zusammenreimen. AMD wird sicherlich gern 2 Jahreszyklen mit 2 APU fahren wollen, hat ja wenig Sinn jedes Jahr high end zu bringen. Ich würde immer abwechselnd high end und dann mainstream bringen. Bisher waren APUs immer 2 Jahre am Markt, Picasso ist ja kaum was anderes als RR.

robbitop
2020-03-24, 09:54:43
Ich glaube, dass die Vergangenheit nicht immer der beste Ratgeber für die Zukunft ist. Im Gegensatz zur Vergangenheit haben sich 2 wesentliche Dinge geändert:

1.) AMD hat jetzt wieder mehr RnD Budget
2.) AMD hat jetzt alle 5Q eine neue CPU uArch Iteration und eine neue GPU uArch Iteration auf der Roadmap.

Letzteres ist etwas auf dass sie sehr stolz zu sein scheinen und es entsprechend auch groß promoted haben. Und das gilt erst seit Zen 2 und RDNA/2.
Entsprechend werden sie in dem Zyklus APUs und CPUs releasen. Sie wissen genau, dass ihre Wettbewerbsfähigkeit von Execution abhängt und dass sie Intel "geweckt" haben. Bei Intel dauert es aufgrund der Größe und den Problemen mit 10 nm ein wenig. Aber wenn die erstmal richtig im Execution Mode sind, kann das durchaus gefährlich werden. Das hat man 2006 ja bereits erlebt. Core 2 und jährliches Tick-Tock. Schnell wurde AMD überrollt, da ihre Execution damals sehr zu wünschen übrig ließ. Den Fehler wird AMD nicht zweimal machen.

IMO ist es sehr wahrscheinlich, dass AMD weiterhin an seiner guten Execution festhält und entsprechend im ~5Q Abstand Produkte mit den jeweilig aktuellen uArchs veröffentlicht.

LasterCluster
2020-03-24, 11:13:22
Ich denke, dass es keine schlechte Strategie ist einfach ältere APUs noch etwas mitzuschleppen und mit ihnen den unteren Mainstreammarkt zu bedienen, da:

- Neue Fertgiungstechnologien die Kosten/Transistor erst mal kaum senken
- Neue Architekturen die Performance/Transistor eher verschlechtern (oder irre ich mich da?)

Also warum noch einen zusätzlichen Die fürs untere Mittelfeld entwickeln?
Etwas anders sieht es mMn im untersten Bereich aus (siehe Raven2). Hier ist der Kostendruck so hoch und die Ansprüche so niedrig, dass stark reduzierte Designs mit minimal CUs/Kernen notwendig sind. Irgendwann gibt es sicherlich hierfür einen 4c/RDNAx Nachfolger, wahrscheinlich dann mit DDR5 und neuem Sockel.

Complicated
2020-03-24, 12:21:09
IMO ist es sehr wahrscheinlich, dass AMD weiterhin an seiner guten Execution festhält und entsprechend im ~5Q Abstand Produkte mit den jeweilig aktuellen uArchs veröffentlicht.

Also warum noch einen zusätzlichen Die fürs untere Mittelfeld entwickeln?
Etwas anders sieht es mMn im untersten Bereich aus (siehe Raven2). Hier ist der Kostendruck so hoch und die Ansprüche so niedrig, dass stark reduzierte Designs mit minimal CUs/Kernen notwendig sind. Irgendwann gibt es sicherlich hierfür einen 4c/RDNAx Nachfolger, wahrscheinlich dann mit DDR5 und neuem Sockel.
Das sehe ich ebenso, vor allem wenn zeitgleich für HPC CDNA angekündigt wurde im GPU-Segment und eine HPC-APU ansteht die im Server-Segment, die Aufmerksamkeit erfordert und weiterentwickelt werden will. Das R&D im Lowend wäre strategisch falsch gesetzt, wenn dies einfach durch ältere Produkte abgedeckt werden kann, die schon refinanziert sind bei R&D. Das wäre die richtige Gewinnoptimierung mit zuverlässiger Roadmap.

Das unterste Lowend wird IMHO durch die embedded APUs gut abgedeckt und bedient einen vorhandenen Markt mit Spielautomaten und COM-Modulen für Medizin. Das schließen der Portfolio-Lücken sollte damit möglich sein.

Berniyh
2020-03-25, 17:50:24
https://www.heise.de/newsticker/meldung/AMD-laesst-angeblichen-Quellcode-von-Radeon-GPUs-offline-nehmen-4690558.html?wt_mc=rss.red.ho.ho.atom.beitrag.beitrag

Bei dem GitHub-Repositorium handelte es sich um Quellcode von drei AMD-Grafikeinheiten, meldet die Webseite TorrentFreak: Navi 10 (Radeon RX 5700 XT), Navi 21 (vermutlich für kommende High-End-Grafikkarten) und Arden (Microsoft Xbox Series X). Der Quellcode beschreibt, wie die Logikfunktionsblöcke funktionieren, und lässt somit tiefgehende Rückschlüsse auf AMDs Grafikarchitektur RDNA (2) zu.

Klingt brisant.

Leonidas
2020-03-25, 18:16:00
Ist die Frage, ob dies der Konkurrenz wirklich derart weiterhilft. Am ehesten noch Seiteneinsteigern, die sich das Know-How erst noch erarbeiten müssen - sprich chinesische Chipentwickler.

Berniyh
2020-03-25, 19:06:23
Technisch wäre das für Nvidia sicherlich nicht sooo interessant, aber es hilft einzuschätzen wo der Konkurrent steht bzw. was geplant ist.

Aber ich denke die Auswirkungen werden sich in Grenzen halten.

SKYNET
2020-03-25, 20:11:18
AMD dazu:
At AMD, data security and the protection of our intellectual property are a priority. In December 2019, we were contacted by someone who claimed to have test files related to a subset of our current and future graphics products, some of which were recently posted online, but have since been taken down.
While we are aware the perpetrator has additional files that have not been made public, we believe the stolen graphics IP is not core to the competitiveness or security of our graphics products. We are not aware of the perpetrator possessing any other AMD IP.
We are working closely with law enforcement officials and other experts as a part of an ongoing criminal investigation.

Piefkee
2020-03-28, 10:21:53
https://youtu.be/PW-7Y7GbsiY

Konsolen nutzen 7nm + (EUV)



SRAM für die Konsolen gibt es nur für 7nm + ( ganz) nach unten scrollen.

Two Port, Ultra High Density Register File 256K Sync Compiler, TSMC 7FF Plus Periphery Optional-Vt/Cell Std Vt

https://www.synopsys.com/dw/emllselector.php?f=TSMC&n=7&s=r3YRJQ

unl34shed
2020-03-28, 10:55:39
Eintrag nr12 bei 7nm :confused:

Two Port, Ultra High Density Register File 256K Sync Compiler, TSMC 7FF Periphery Optional-Vt/Cell Std Vt

tEd
2020-03-28, 11:03:29
Eintrag nr12 bei 7nm :confused:

Debunked ;D

unl34shed
2020-03-28, 11:06:33
Ich meine das ist nicht mal neu rein gekommen, sondern taucht auch in seinem Video auf...

Neben der Annahme, dass man SRAM nur in EUV bauen könnte oder Synopsis die einzigen sind, die das können...

Piefkee
2020-03-28, 11:11:52
Eintrag nr12 bei 7nm :confused:

Was willst du damit sagen ?

unl34shed
2020-03-28, 11:13:22
Hast du das Video gesehen?
Er meint die Konsolen sind 7nm FF+(EUV) weil es den dual port SRAM nur in dieser Node gibt und das ist eben Käse.

Piefkee
2020-03-28, 16:38:30
Hast du das Video gesehen?
Er meint die Konsolen sind 7nm FF+(EUV) weil es den dual port SRAM nur in dieser Node gibt und das ist eben Käse.

Äh ok dir fehlt die Info das es genau diese Typ Bezeichnung für „Arden“ anscheinend verwendet wird. Quelle naja sieh aktuelle AMD News der letzten Tage...

Platos
2020-03-31, 14:00:30
@Update:


Karten (100 bis 150) in Europa eingetroffen …
Launch innerhalb 2 bis 3 Wochen

RTX 2080TI wird übertroffen, oft nur gering,- teilweise im 20 bis 25% Mehrbereich.
RDNA 2 ist nicht komplett schnell,- dies braucht alles seine Zeit.

Launch soll aus dem "Nichts" kommen, wie damals die Radeon VII zur CES und am 07.02.2019 Launchtag.
So "wirklich gut" wird RDNA 2 wohl wirklich nicht und dies weiss wohl AMD selbst …
NV wird da mt der RTX 3080 schon besser dastehen können....

Preislich 799 Dollar/ 729 Euro wird wohl in etwa angestrebt.

Was wurde eig. daraus ?? :)

Bucklew
2020-03-31, 14:16:19
Was wurde eig. daraus ?? :)
horns Quelle hat sich wieder mal als Dampfplauderer entlarvt.

Platos
2020-03-31, 14:29:58
horns Quelle hat sich wieder mal als Dampfplauderer entlarvt.

Ich dachte horn wäre ne zuverlässige Quelle, ach so'n mist aber auch :)

y33H@
2020-03-31, 14:31:16
Quatsch, ohne Corona wäre RDNA2 längst da!!!111einself

N0Thing
2020-03-31, 14:42:05
Vermutlich bezog sich seine Quelle auf Corona und nicht RDNA2.

- Nur eine gering Anzahl ist aus Asien eingetroffen.
- Erscheint aus dem "Nichts".
- Der Vorgänger wird übertroffen.
- Die Inkubationszeit ist nicht komplett schnell, braucht seine Zeit.

:freak:

Platos
2020-03-31, 14:46:10
Ach so, das kann man natürlich mal verwechseln, passiert.

Kehaar
2020-03-31, 15:07:57
Quatsch, ohne Corona wäre RDNA2 längst da!!!111einself
Ist Deine Aussage jetzt nicht eigentlich ein NDA-Verstoß? X-D

Berniyh
2020-03-31, 21:06:20
Aber Corona ist doch RNA, nicht RDNA? :p

pilzsammler2002
2020-04-01, 11:20:22
Aber Corona ist doch RNA, nicht RDNA? :p
RDNA = RNA / DNA = Das gleiche, also korrekt :freak:

/ontopic
Ich bin gespannt wie das Raytracing performen wird :)

N0Thing
2020-04-01, 11:57:41
/ontopic
Ich bin gespannt wie das Raytracing performen wird :)

Ja, das bin ich auch. Und natürlich Perf/Watt und die Speicherausstattung des Topmodells mit RDNA2.

horn 12
2020-04-01, 14:57:57
https://wccftech.com/amd-radeon-rx-gamma-gpu-big-navi-benchmarks-specs/

Aprilscherz - Ansonsten TOP !!

350 Watt
GDDR 7 :-)
PCI Express 5.0
Displayport 2.0

Bucklew
2020-04-01, 16:36:38
Aprilscherz
Warum machst du deinen schon Ende Februar? :eek:

Daredevil
2020-04-01, 16:37:56
Wallah isch schwöre, wenn Horn heute einmal was richtiges ansagt, größter Streich der Nachkriegszeit, cüs.

horn 12
2020-04-10, 19:35:30
@edit

Gelöscht!

Linmoum
2020-04-10, 19:39:08
Horn, lass den Müll doch einfach. Du fällst permanent mit deinen """Infos""" auf die Schnauze weil alles kompletter Firlefanz ist. Das letzte Ding mit dem Launch ist ja noch nicht so lange her.

Screemer
2020-04-10, 19:40:29
lulz. also komplette rolle rückwärts. warum lässt du dich von deinen "quellen" eigentlich so verarschen und machst dich damit in mehreren foren zum angriffsziel?

erlgrey
2020-04-10, 19:52:24
release gleich mit dem legendären horntreiber oder wird das auch nix?

hör doch einfach auf mit dem unsinn.

Platos
2020-04-10, 19:55:07
Wow, also nach so nem totalen Fail, wie dem Letzten, würde ich hier nicht nochmals so mit absoluter Selbstverständlichkeit irgendwelche "Infos" von "Quellen" raushauen, horn.

Nimmst du dich eig. noch selbst ernst? Also ich könnte das ja nicht :D

horn 12
2020-04-10, 23:26:30
Bitte Mods alles löschen inkl. meinem Beitrag.
Dank!

[MK2]Mythos
2020-04-10, 23:42:06
Bitte Mods alles löschen inkl. meinem Beitrag.
Dank!

Wieso? Hat sich deine Information schon wieder als Ente erwiesen?

horn 12
2020-04-11, 03:32:46
NEIN!
Möchte dazu nix mehr berichten,- da doch immer in Frage gestellt.

=Floi=
2020-04-11, 04:30:32
Endlich kapiert! Es geht bergauf.

Platos
2020-04-11, 14:22:42
NEIN!
Möchte dazu nix mehr berichten,- da doch immer in Frage gestellt.

Aber was erwartest du denn? Dass man es nicht in Frage stellt? In Frage stellen sollte man alles, nicht nur dich.

Und vor allem posaunst du hier die "Infos" raus, als wären sie schon fest in Stein gemeiselt, quasi schon kurz vor einer öffentlichen Stellungsnahme.

Nur löst sich dann alles als Nebelkerze auf und es stimmt nicht. Was erwartest du also, wenn du deine angeblichen Infos als so selbstverständlich Richtig ansiehst, kein Stück hinterfragst, noch Quellen angibst und sie dann gnadenlos scheitern?

Kein wunder nimmt dich dann keiner mehr ernst. Deine Seriösität würde ja schon mal zunehmen, wenn du Quellen nennen würdest oder diese wenigstens mit einer gewissen Kritik verbreitest.

Aber nein, du stellst die Infos so dar, als wäre jetzt alles sicher und schon im Rollen und erwartest ernsthaft, dass man dir ohne Quellen glaubt.

Abgesehen davon, dass du allg. viel Zeug behaupteat, ohne Quellen anzugeben unabhängig von anstehender Hardware.

horn 12
2020-04-11, 15:01:11
Nun, jener hatte mir bereits November 2018 gesagt dass auf der CES 19 WAS GEZEIGT WIRD WAS KEINER ERWARTET.
und das die Radeon VII in geringen bis maximal mässigen Zahlen kommen wird und der Release zeitnah ist.

Denniss
2020-04-11, 15:54:47
Auf Großmessen wie der CES gibt es immer mal wieder überraschendes also kann deine "Quelle" auch einfach ins Blaue hinein geraten haben.
Vielleicht hat AdoredTV die gleiche Quelle denn seine "Quellen" erzählen auch viel Mist obwohl einige wenige sachen dann auch so ähnlich kommen wie von ihm "vorausgesagt".

BoMbY
2020-04-13, 11:43:49
Nicht dass es eine große Neuigkeit ist, aber hier wird von AMD "Big Navi" für High-End Gaming über 1440p offiziell bestätigt: https://youtu.be/RB-OEL8ttHY?t=683

TheGood
2020-04-13, 13:26:21
HAHA der Hype train :D wurde gut visualisiert.
Gut begrüllt, AMD

SKYNET
2020-04-13, 15:36:34
Nicht dass es eine große Neuigkeit ist, aber hier wird von AMD "Big Navi" für High-End Gaming über 1440p offiziell bestätigt: https://youtu.be/RB-OEL8ttHY?t=683


heisst für mich, 4k max out mit min 60fps über alle games... wenn das stimmt, wird es wirklich ein neues level... aber fahre da mal vorsichtig... die strecke hat mir noch zuviele kurven als das ich da den zug mit vollgas laufen lassen würde :freak:

horn 12
2020-04-13, 17:04:15
Nun, hinzu kommt noch RayTracing bei Vielen Neuen Games zwecks der kommenden Beiden Konsolen
Da gehe ich davon aus, dass Big Navi die 60 fps teilweise nicht stemmen wird.

Platos
2020-04-13, 18:13:03
heisst für mich, 4k max out mit min 60fps über alle games...

Wo ziehst du dass denn da raus ?

Screemer
2020-04-13, 18:44:25
Wo ziehst du dass denn da raus ?
das ist seine persönliche erwartungshaltung an "enthusiast gaming over 1440p". der inhalt gibt es halt nur nicht her. imho kann so eine einstellung nur enttäuscht werden.

Platos
2020-04-13, 20:27:15
das ist seine persönliche erwartungshaltung an "enthusiast gaming over 1440p". der inhalt gibt es halt nur nicht her. imho kann so eine einstellung nur enttäuscht werden.

Darauf wollte ich hinaus;):) Ich würde auf keinen Fall 4k 60FPS auf Ultra und always stable rechnen. Das wird eher 4k auf high und meistens 60 FPS sein.

Dafür muss man sich ja nur mal eine RTX 2080TI und Red Dead Redemption 2 ansehen. Auch wenn man noch oben rauf gibt an Leistung (+30%), wirst du dieses Setting nie erreichen. Die (AAA) Spiele sind doch sowieso immer so gemacht, dass man auf den aller höchsten Settings niemals 60FPS auf 4k hinbekommt (mit dem bei Spielerelease verfügbaren Topmodell).

M4xw0lf
2020-04-28, 19:57:11
Angebliche die sizes, gabs das schon?
https://www.reddit.com/r/Amd/comments/g9q7ch/rumoured_rdna2_die_sizes/

All of the following are supposedly within 5mm2:

Navi21 - 505mm2

Navi22 - 340mm2

Navi23 - 240mm2

Piefkee
2020-04-28, 19:59:12
https://www.ptt.cc/bbs/PC_Shopping/M.1588075782.A.C1E.html

Gerüchte über Die größe von Navi2x

N21 : 505.
N22 : 340.
N23 : 240.
> ± 5mm2.

Quelle ist "AquariusZi" Member des "PC Shipping forums". Ist eine ziemlich bekannter Leaker der bereits in der Vergangenheit einiges aus der TSMC Produktion berichtete. (Angeblich TSMC Angesteller).

OgrEGT
2020-04-28, 20:42:46
https://en.wikichip.org/wiki/7_nm_lithography_process#N7

Dort ist die Rede von 65MTr/mm2 für N7.
N7+ soll die Dichte bis zu 1.2x erhöhen also auf bis zu 78MTr/mm2.
Wären dann 39MrdTr für N21. Also ca bis zu 4x mehr als N10... Heftig für die "nur" 2x Anzahl an CUs...wenn es denn 80CUs werden sollten...

Edit
Ailuros würde (wohl zurecht) Milchmädchen Rechnung sagen... aber entweder hat N21 mehr CUs oder AMD hat die CUs deutlich vergrößert oder setzt neue FF Units ein...

Edit2
Sind wohl nur 41MTr/mm2 bei N10. Dann ergeben sich ca 25MrdTr für N21. Vgl. TU102 hat 18.6MrdTr

Berniyh
2020-04-28, 21:27:23
Angebliche die sizes, gabs das schon?
https://www.reddit.com/r/Amd/comments/g9q7ch/rumoured_rdna2_die_sizes/
Die 505 mm² geistern schon seit einiger Zeit durchs Netz.
Dass es gerade bei der Zahl "etwas" genauer ist, bei den anderen beiden aber ne 0 am Ende steht lässt mich etwas an der Geschichte zweifeln.

Der zweite Grund weshalb ich daran etwas zweifle ist, dass der kleinste Chip in der Liste (Navi23) 240 mm² groß sein soll.
Also in etwa so groß wie Navi10 (251 mm²).
Daran ist jetzt erst mal nix verkehrt, aber was sollen die 340 mm² dazwischen?

Fällt mir irgendwie schwer zu glauben, dass AMD 3 Chips auflegt die alle drei oberhalb vom jetzigen Navi10 platziert sein sollen.

https://en.wikichip.org/wiki/7_nm_lithography_process#N7

Dort ist die Rede von 65MTr/mm2 für N7.
N7+ soll die Dichte bis zu 1.2x erhöhen also auf bis zu 78MTr/mm2.
Wären dann 39MrdTr für N21. Also ca bis zu 4x mehr als N10... Heftig für die "nur" 2x Anzahl an CUs...wenn es denn 80CUs werden sollten...

Edit
Ailuros würde (wohl zurecht) Milchmädchen Rechnung sagen... aber entweder hat N21 mehr CUs oder AMD hat die CUs deutlich vergrößert oder setzt neue FF Units ein...

Edit2
Sind wohl nur 41MTr/mm2 bei N10. Dann ergeben sich ca 25MrdTr für N21. Vgl. TU102 hat 18.6MrdTr
Es gab schon Hochrechnungen, dass die 505 mm² mit den 80 CU ganz gut zusammen passen könnten.
Ich glaube das war sogar hier von Leo auf 3DC.

Sunrise
2020-04-28, 21:41:08
Wenn AMD drei Chips auflegt, kann das nur eines bedeuten, aggressive Preise und maximale Flexibilität in jedem Preisbereich.

Falls das allerdings alles RDNA2 sein soll, halte ich 240mm2 doch für etwas wenig, was soll das denn sein?

Piefkee
2020-04-28, 21:53:34
Wenn AMD drei Chips auflegt, kann das nur eines bedeuten, aggressive Preise und maximale Flexibilität in jedem Preisbereich.

Falls das allerdings alles RDNA2 sein soll, halte ich 240mm2 doch für etwas wenig, was soll das denn sein?

Ich finde es ehrlich gesagt ziemlich Schlüssig das ganze...
240mm^2 ist der Navi10 Ersatz.

Mich lässt der Gedanke nicht los das Navi1x eigentlich nicjt geplant war aber es zeitlich enge für AMD wurde. Warum einen RDNA & GCN Hybrid bringen wenn doch die Konsolen RDNA2 nutzen. Lisa hat ja gesagt das die nächste Generation Bottum -> Up wird. Und die 240mm^2 sind genau die richtige Größe für Gaming Laptops mit diskreter Grafik

Berniyh
2020-04-28, 22:23:33
Ich finde es ehrlich gesagt ziemlich Schlüssig das ganze...
240mm^2 ist der Navi10 Ersatz.
Ja, der Teil ist auch sehr realistisch.
Ich glaube halt nicht an einen Chip zwischen diesem (240mm² und Big Navi 505mm²).

Piefkee
2020-04-28, 22:27:16
Ja, der Teil ist auch sehr realistisch.
Ich glaube halt nicht an einen Chip zwischen diesem (240mm² und Big Navi 505mm²).

Warum den nicht ?
Ist ja fürn arsch 505mm^2 für kleine Ableger zu kastrieren. 340mm^2 ist ziemlich sicher mindesten 56CUs. Das ist definitiv 2080 Super Performance. Mehr als Series X

HOT
2020-04-28, 22:42:58
Ja, der Teil ist auch sehr realistisch.
Ich glaube halt nicht an einen Chip zwischen diesem (240mm² und Big Navi 505mm²).
Genau dieser Chip ist aber für viele interessant. NV macht sowas ja offenbar mit dem AM103 auch.
Werden wohl 40, 60 und 80 CUs haben. Bin mal gespannt auf die Ausstattung. Ich find den mittleren auch persönlich am interessantesten.

Linmoum
2020-04-28, 23:40:38
Su hat gerade "later this year" zu RDNA2 gesagt. Habt ihr ja letzten erst so gerne darüber diskutiert. ;)

Nvm, vergesst es. Sie wechselt fröhlich hin und her zwischen beidem. :tongue:

w0mbat
2020-04-29, 08:21:16
https://twitter.com/AMDNews/status/1255250269681704968
$AMD on track to launch next-generation gaming GPUs later this year with a 50% performance-per-watt increase compared to AMD current offerings.

Akkarin
2020-04-29, 11:31:58
Ist 240mm^2 nicht etwas groß für den kleinsten chip ? Damit kann man gut die x700er Serie oder vll. noch die x600er serie abdecken, aber man braucht noch mindestens eine, eher zwei SKUs darunter.

Und wie sähe das interface aus ? 256/384/512 bit ? 192/256/384 bit ? HBM fürs high-end ?

Ghost1nTh3GPU
2020-04-29, 11:43:34
Vielleicht geht man davon aus, dass Nvidia auch unterhalb der RTX2060 Leistung keine RT-GPUs verkaufen wird. Und da ist ein Navi23LE mit GTX1660/RX5600 Leistung wohl die Basis.
Möglich dass man hier wieder auf 32 CUs reduziert, aber 2GHz Base erreicht.

<180€ wird wohl bis 5nm/2021 erstmal Navi14/TU116 Gebiet bleiben.

mczak
2020-04-29, 12:10:59
Wobei ja Navi 14 eigentlich auch schon ziemlich gross ist.
Böse gesagt klafft zwischen IGP und RX 5500 ein Monsterloch im Lineup. Jedenfalls wenn man alte Heizkörper nicht als akzeptabel betrachtet.
Nvidia geht da deutlich weiter runter mit Chips der aktuellsten Generation (Tu 117), auch wenn die halt nicht das ganze Featureset besitzen.
Ich frage mich schon ob AMD da in dem Segment nicht mal was neues anbieten will.

w0mbat
2020-04-29, 12:40:03
Ich verstehe auch nicht wieso sie ne GPU gebracht haben die zwischen RX580 und RX590 liegt, es u.a. auch mit nur 4GB VRAM gibt und physikalisch nur mit PCIe x8 angebunden ist (wenn auch PCIe 4.0).

Vielleicht ist 7nm doch teurer als gedacht?

Ich hätte hier min. RX590 +5-10% angestrebt und nur 8GB.

Ravenhearth
2020-04-29, 12:55:08
Mich lässt der Gedanke nicht los das Navi1x eigentlich nicjt geplant war aber es zeitlich enge für AMD wurde. Warum einen RDNA & GCN Hybrid bringen wenn doch die Konsolen RDNA2 nutzen.
RDNA1 ist kein RDNA & GCN Hybrid. Warum hält sich dieses Gerücht so hartnäckig?

UV_Freak
2020-04-29, 12:59:55
https://www.ptt.cc/bbs/PC_Shopping/M.1588075782.A.C1E.html

Gerüchte über Die größe von Navi2x



Quelle ist "AquariusZi" Member des "PC Shipping forums". Ist eine ziemlich bekannter Leaker der bereits in der Vergangenheit einiges aus der TSMC Produktion berichtete. (Angeblich TSMC Angesteller).
Dieser Name in nem Deutschen Forum:freak:

Ghost1nTh3GPU
2020-04-29, 13:00:53
Ich verstehe auch nicht wieso sie ne GPU gebracht haben die zwischen RX580 und RX590 liegt, es u.a. auch mit nur 4GB VRAM gibt und physikalisch nur mit PCIe x8 angebunden ist (wenn auch PCIe 4.0).

Vielleicht ist 7nm doch teurer als gedacht?

Ich hätte hier min. RX590 +5-10% angestrebt und nur 8GB.



Da wäre man wieder zu nah an Navi10 gekommen.
An sich ist Navi14 schon richtig positioniert.
Es fehlt halt noch ein 80-100mm2 Navi. Gerade im 80-120€ Bereich muss man bei AMD ja zu Polaris greifen, der aber nichtmal die VP-Formate von YouTube sauber beschleunigen kann.
In einem Notebook/SFF-PC wo die CPU-Leistung knapper (und die Batterie ein Faktor) ist, ist da Polaris unbrauchbar.

So ein 700€ Ryzen 4000 Notebook wäre ja eine perfekte Basis für einen 2,5-3,0 TFLOPs 4GB Navi.

basix
2020-04-29, 13:11:08
Werden wohl 40, 60 und 80 CUs haben. Bin mal gespannt auf die Ausstattung. Ich find den mittleren auch persönlich am interessantesten.

Das passt aber nicht zu den Die-Size Unterschieden. 100mm2 vs. 165mm2 bei selber Differenz der CUs? Und das bei GPUs, wo normalerweise mehr CUs pro Fläche reinpassen, wenn die Die Size steigt (z.B. GP106 vs. GP102 -> 3x SMs bei 2.35x Fläche), weil man einen gewissen "fixed" Flächenbedarf für Display Controller etc. aufwenden muss?

40 CU bei 240mm2 für die kleinste Variante machen Sinn. 2560 Shader-Units wie bei Navi 10, 7nm EUV, RDNA2 CUs. 192bit oder 256bit? Ich tendiere auf ersteres. 60-64 CU für die 340mm2 Variante scheinen ebenfalls plausibel bei 256bit Busbreite und etwas schnellerem Speicher. Das passt dann auch im Vergleich zum Xbox Series X Chip mit 360mm2. Beim dicken 505mm2 Brummer würde ich aber eher 96-100 CUs und 384bit erwarten. Zu kaufen gibt es dann evtl. 92-96CU Chips. Speicher gleich schnell wie beim 60 CU Chip. Diese Werte würden bei diesen Chipgrössen meiner Meinung nach besser aufgehen.

Ist 240mm^2 nicht etwas groß für den kleinsten chip ? Damit kann man gut die x700er Serie oder vll. noch die x600er serie abdecken, aber man braucht noch mindestens eine, eher zwei SKUs darunter.

Und wie sähe das interface aus ? 256/384/512 bit ? 192/256/384 bit ? HBM fürs high-end ?

HBM fällt denke ich in dieser Generation noch weg, da GDDR6 günstiger ist und noch knapp ausreicht. Bei RDNA3 erwarte ich dann den High End Chip mit HBM.

Ob noch ein kleinerer Chip kommt? Würde Sinn machen, wenn man Top to Bottom Raytracing anbieten will. Evtl. kommt dort später etwas oder man nimmt Navi 14 für dieses Segment. Hat dann halt kein Ray Tracing. Ein N24 mit 20-24 CUs und 128 bit SI würde aber sehr viel Sinn machen (ca. 150mm2), für alles darunter hätte man die NextGen APU.

Im Prinzip sind die N21-N23 Die Sizes aber sehr vergleichbar zum Pascal Lineup (GP102-GP106). Einen Ticken grösser und in einem teureren Prozess. Deswegen werden die Preise einfach etwas höher sein. Eine GTX 1060 startete für 299$ MSRP, eine "RX 6600 XT" mit N23 würde dann für ca. 349$ an den Start gehen (gleich wie RX 5700). Eine "RX 6700 XT" mit N22 für 449-499$ und eine "RX 6800 XT" for 599-649$. Darüber gäbe es dann noch eine "6900 XT" mit N21 für 849-899$.

Das einzige was für mich völlig offen ist: Speichermengen. Mit 6-12 GByte wären die Karten arg knapp bestückt und 12-24 GByte würde ich zwar gerne sehen und würde dann auch passen für Raytracing und NextGen Spiele, aber da macht mir der Preis Kopfzerbrechen. Wo sind nur die 12 GBit Chips? Dann wären es 9-18 GByte.

Berniyh
2020-04-29, 15:27:10
Ich verstehe auch nicht wieso sie ne GPU gebracht haben die zwischen RX580 und RX590 liegt, es u.a. auch mit nur 4GB VRAM gibt und physikalisch nur mit PCIe x8 angebunden ist (wenn auch PCIe 4.0).

Vielleicht ist 7nm doch teurer als gedacht?
Jein. Ein bisschen vermutlich schon, Navi14 Karten sind ja auch noch relativ teuer.
Aber vor allem ist die Marge in dem Bereich sicherlich klein und 14nm Kapazitäten gibt es halt en masse.
Solange man die Bedürfnisse in dem Bereich mit "altem Schrott" bedienen kann wird man das wohl machen statt 7nm Kapazitäten dafür zu "verschwenden".

Berniyh
2020-04-29, 15:33:07
Es fehlt halt noch ein 80-100mm2 Navi. Gerade im 80-120€ Bereich muss man bei AMD ja zu Polaris greifen, der aber nichtmal die VP-Formate von YouTube sauber beschleunigen kann.
In einem Notebook/SFF-PC wo die CPU-Leistung knapper (und die Batterie ein Faktor) ist, ist da Polaris unbrauchbar.
THIS!

Danke, dass das auch mal ein anderer so sieht wie ich.
Es wird bei den GPUs immer über Spieleperformance etc. geredet, aber die Fähigkeiten und Funktionen bzgl. Multimediawiedergabe finden eigentlich nirgends Beachtung, dabei finde ich die gerade bei Low-End PCs und Notebooks die vermutlich eher für Office-Anwendungen, Surfacen etc. verwendet werden sogar deutlich wichtiger als die Spiele-Performance.

Screemer
2020-04-29, 16:15:23
amd will in dem preisbereich und leistungsbereich apus verkaufen. da wird es auf absehbare zeit imho nichts mehr in diese richtung geben.

HOT
2020-04-29, 16:23:40
Das passt aber nicht zu den Die-Size Unterschieden. 100mm2 vs. 165mm2 bei selber Differenz der CUs? [...]

Des stimmt wohl. Also eher 32-36 und 48-52 CUs.

Ghost1nTh3GPU
2020-04-29, 16:43:43
amd will in dem preisbereich und leistungsbereich apus verkaufen. da wird es auf absehbare zeit imho nichts mehr in diese richtung geben.
Nur zeigt 64-Bit GDDR6 selbst einer DDR5 APU die Rücklichter.

Mit Ryzen 4000 Mobile gibt es wirklich tolle Geräte ab 350€. Da wäre auf der halben Strecke zu 1000€ sicherlich ein kleiner Navi für 2-3fache 3D-Leistung denkbar und könnte den Ryzen Cores @15W mehr Spielraum lassen. Da muss man sich leider auf einen Schmalspur-Turing wie die GTX 1650 einlassen.

Screemer
2020-04-29, 16:53:25
das stimmt natürlich. ich denke aber wie gesagt nicht, dass sich da bei amd auf absehbare zeit was tun wird. schön wäre es natürlich, wenn ich damit daneben liegen würde und wir ende des jahres einen rdna2-chip im diesem größenbereich sehen würden. damit wären wirklich brauchbare reine amd spielenotebooks mit im bereich von 700-1000€ durchaus realistisch.

Berniyh
2020-04-29, 16:59:58
amd will in dem preisbereich und leistungsbereich apus verkaufen. da wird es auf absehbare zeit imho nichts mehr in diese richtung geben.
Warum sollte ich 200€ für eine Grafikkarte zu einem 3950X ausgeben nur weil man keine günstigen GPUs mehr anbieten will?

Der Preis der 5500(XT) war einer der wesentlichen Gründe (neben der Nichtverfügbarkeit von B550 Boards) die mich abgehalten haben mein neues Desktopsystem aufzubauen.

mboeller
2020-04-29, 17:51:50
60-64 CU für die 340mm2 Variante scheinen ebenfalls plausibel bei 256bit Busbreite

IMHO eher >= 64CU in 340mm²

Der XBox-SX SoC hat 360mm² und 56 RDNA2-CU's (4CU als Yield-Reserve) incl. min. 40mm² für die ZEN2 Core (die ZEN-Cores im Renoir sind ca. 42mm² groß) und hat ein 320bit Speicherinterface was ja auch noch mal ein wenig Die-Area kostet.

Für die 56CU bleiben deshalb IMHO nur max. 300mm² übrig. 8CU (56->64) benötigen bestimmt keine 40mm²

Der_Korken
2020-04-29, 20:36:35
IMHO eher >= 64CU in 340mm²

Der XBox-SX SoC hat 360mm² und 56 RDNA2-CU's (4CU als Yield-Reserve) incl. min. 40mm² für die ZEN2 Core (die ZEN-Cores im Renoir sind ca. 42mm² groß) und hat ein 320bit Speicherinterface was ja auch noch mal ein wenig Die-Area kostet.

Für die 56CU bleiben deshalb IMHO nur max. 300mm² übrig. 8CU (56->64) benötigen bestimmt keine 40mm²

Und das Speicherinterface in N22?

Tatsächlich brauchen IMC und PHYs schon fast so viel Fläche wie die 40 CUs von N10 (ohne L1/L2 Cache und Frontend) zusammen:

https://images.hothardware.com/contentimages/article/2874/content/small_navi-die.jpg

Ich weiß nicht, ob AMD ihre Chips wieder so mit CUs vollstopft wie einst GCN. Da man für Compute jetzt eigene Chips entwickelt, braucht man Rohleistung nur dann, wenn man sie auch auf die Straße bekommt. Der Takt scheint ja ordentlich gestiegen zu sein, wie man an den PS5-Specs sieht. Eventuell versucht AMD lieber die Leistung pro CU zu steigern z.B. durch noch höhere IPC, um nicht wieder in Skalierungsprobleme zu laufen. Also eher Nvidias bisherige Strategie, die auch gut funktioniert hat.

Iscaran
2020-04-29, 20:54:04
Ich möchte aufgrund der Die Sizes nochmal die Idee der Chiplets einwerfen:
Mit den Die-Sizes wäre ein 2-Chiplets, 3-Chiplets, 4-Chiplets design doch eigentlich GENAU drin.

Nur mal grob spekuliert mit 24 CU pro "Chiplet":

GPU Fläche in mm2 CU Fläche/CU mm2
Navi14 158 24 6.6
Navi10 251 40 6.3
Navi21 240 48 5.0
Navi22 340 72 4.7
Navi23 505 96 5.3

Nehmen wir mal an man kriegt +20% Packdichte relativ zu Navi14 hin (das wären +25% zu Navi10).

Laut wikichip: wäre N7+ genau +20% Pack density:
https://en.wikichip.org/wiki/7_nm_lithography_process#N7.2B

EDIT: 5.0 zu 6.3 (also Navi21 zu Navi10) wären fast genau 20% Packdichte mehr./EDIT.

Nur der Die vom Navi22 erschiene hier "etwas" zu klein...sonst würde das gut hinkommen.
Aber wenn Navi22 statt 340mm^2, z.B. 350 wäre, würds wieder fast perfekt passen.

Mit so einem Ansatz könnte ich mir auch vorstellen sind die Maskenkosten etc. für AMD nicht sehr groß. Eben maximale Flexibilität durch "gepappte"-Chiplets :-).

Mit dem Chiplet-Ansatz könnte man ggf. ja auch direkt die Speicheranbindung "skalieren"...128Bit pro Chiplet z.B:
Dann wäre 24 CU 128 Bit, 48CU 256 Bit, 72 CU 384 Bit usw.

Iscaran
2020-04-29, 21:00:48
Nachtrag:

Navi14 wäre dann im Grunde der Testballon gewesen für den single Chiplet. Der kommt evtl. als "Refresh" Navi24 oder Navi 15 oder whatever dann auch nochmal evtl.
Oder AMD spart sich das, weil Navi14 eh schon gut läuft und wegen ein bisschen optimierung lohnt das nicht mehr auch den Chip neu aufzulegen.

Piefkee
2020-04-29, 21:52:05
RDNA1 ist kein RDNA & GCN Hybrid. Warum hält sich dieses Gerücht so hartnäckig?

Naja weil es halt so ist.
RDNA nutzt die GCN ISA. Es ist eine andere Implementieung natürlich . Aber es ist immer noch „ähnliche“ ISA. So sieht das übrigens auch AMD... kann die gerne das Interview raussuchen von wo genau diese Frage aufkam. Deswegen ist der natürlich der Hybrid Name den vergeben habe falsch. RDNA ist eine neue Architektur die GCN ISA verwendet. Ob sich das bei RDNA ändert wird ja vermutet...

Piefkee
2020-04-29, 21:58:43
Nachtrag:

Navi14 wäre dann im Grunde der Testballon gewesen für den single Chiplet. Der kommt evtl. als "Refresh" Navi24 oder Navi 15 oder whatever dann auch nochmal evtl.
Oder AMD spart sich das, weil Navi14 eh schon gut läuft und wegen ein bisschen optimierung lohnt das nicht mehr auch den Chip neu aufzulegen.

Chiplets werden kommen aber ich denke erst später. Der Zeitpunkt wann sowohl AMD als auch Nvidia Chiplets können müssen, ist wenn High-NA EUV verfügbar ist. Dadurch spart man sich maßige Belichtungen. Der Nachteil der Geschichte ist jedoch das das Rectile Limit von Aktuell 858 mm² auf 429 mm² halbiert wird.
Dann wird es einfach aus wirtschaftlichen Sicht zu teuer noch Riesige Dies zu produzieren.

Bisher liegt das Limit der Maske (Reticle) bei 858 mm² (33 x 26 mm), diese trägt das Abbild des Chips, der dutzend- oder hundertfach auf dem Wafer belichtet wird. Mit High-NA wird jedoch ein anamorphes Linsen-Array verwendet, weshalb sich das Reticle-Limit auf 429 mm² (16.5 x 26 mm) halbiert

https://www.golem.de/news/euv-halbleiterfertigung-asml-bereitet-sich-auf-high-na-belichtung-vor-2003-147501.html

SKYNET
2020-04-29, 22:22:16
Wenn AMD drei Chips auflegt, kann das nur eines bedeuten, aggressive Preise und maximale Flexibilität in jedem Preisbereich.

Falls das allerdings alles RDNA2 sein soll, halte ich 240mm2 doch für etwas wenig, was soll das denn sein?

Heisst eher das die yieldrate extrem gut ist, das kaum abfall abfällt um damit kastrierte chips zu basteln... Die dinger sind ja zu 100% schon bei den boardpartnern bzw. massenproduktion um die designs zu backen, in 5 monaten isses ja schon soweit.

Screemer
2020-04-29, 22:52:52
Naja weil es halt so ist.
RDNA nutzt die GCN ISA. Es ist eine andere Implementieung natürlich . Aber es ist immer noch „ähnliche“ ISA. So sieht das übrigens auch AMD... kann die gerne das Interview raussuchen von wo genau diese Frage aufkam. Deswegen ist der natürlich der Hybrid Name den vergeben habe falsch. RDNA ist eine neue Architektur die GCN ISA verwendet. Ob sich das bei RDNA ändert wird ja vermutet...
Evtl. glaubst du ja jemandem der sich damit auskennt:

AMD64 ist vollstaendig Abwaertskompatibel und eine Erweiterung von x86. GCN-Generationen haben nicht die selbe ISA. Es ist inkompatibel.

Um diesen Post herum kannst du noch mehr Einordnung zu dem Thema finden.

Der_Korken
2020-04-29, 23:47:51
Mit dem Chiplet-Ansatz könnte man ggf. ja auch direkt die Speicheranbindung "skalieren"...128Bit pro Chiplet z.B:
Dann wäre 24 CU 128 Bit, 48CU 256 Bit, 72 CU 384 Bit usw.

Das wäre so aber kein Chiplet-Ansatz mehr, sondern ein Multi-Chip-Ansatz wie bei Zen1. Das ist sicherlich ein Routing-Alptraum, wenn du vier GPUs auf einem Package hast, die sich jeweils gegenseitig hunderte GB/s zuschieben. Ohne Interposer sicherlich auch gar nicht möglich und wenn man schon einen Interposer hat, kann man auch direkt auf HBM gehen.

Sollte AMD auf Chiplets setzen, würde ich eher eine Konfig wie Ryzen 3000 erwarten. Ein I/O-Chip, der den IMC, die PCIe PHYs und das Display I/O beinhaltet. Dazu wahlweise ein oder zwei GPU-Chiplets und entsprechend ein oder zwei HBM-Stacks. Zwischen IOD und GPU-Chiplets wird dann ein 1024 (oder gar 2048)bit breiter Bus verwendet, eventuell noch ein zusätzlicher zwischen den GPU-Chiplets, damit die ihre Berechnung synchronisieren können. Das muss aber dann von Beginn an in der Architektur eingeplant gewesen sein, dass man das Frontend verteilt über zwei Chips laufen lassen kann, so dass beide Hälften nur minimal kommunizieren müssen.

Vier GPU-Chiplets klingt zu krass. Ein IOD, der sowohl mit einem als auch mit vier Chiplets läuft, wäre extrem verschwendet, weil die Karte mit einem Chiplet nur 1/4 des IOD nutzen würde aber trotzdem diesen großen IOD verbauen muss. Also Minimum 2 Chiplets, aber dann kann man auch lieber doppelt so große Chiplets bauen um Datenaustausch zu sparen und nur wahlweise einen oder zwei verbauen. Alles darunter kriegt nen eigenen Chip.

Also exemplarisch für RDNA2 sowas wie:

6900XT: 40+40CUs, IOD, 2x8GB HBM 3,2Gbps
6900: 32+32CUs, IOD, 2x8GB HBM 2,4Gbps
6700XT: 40 CUs, IOD, 1x8GB HBM 3,2Gbps
6700: 32 CUs, IOD, 1x8GB HBM 2,4Gbps
6500XT: 24 CUs, monolithisch, 8GB GDDR6 16Gbps (128bit)
6500: 20 CUs, monolithisch, 4/8GB GDDR6 14Gbps (128bit)

Wären 3 Masken, alle <150mm².

Iscaran
2020-04-30, 00:27:03
Sollte AMD auf Chiplets setzen, würde ich eher eine Konfig wie Ryzen 3000 erwarten.Ein I/O-Chip, der den IMC, die PCIe PHYs und das Display I/O beinhaltet.


Ja so ähnlich Stelle ich mir das vor - nur das man eben den I/O Chipteil sozusagen auch als "Teil" des Chiplets ausführt. So daß dieser "mitskaliert".

Der Vorteil einer special Purpose GPU ist, anders als bei CPU dass man kaum Kommunikation zwischen CUs braucht.

Man benötigt eine "kleine" Steuereinheit die via Daten-Bus dann die Daten an die CUs überträgt.

HBM nutzt AMD ja bereits in Vega z.B. Ich kann mir aber vorstellen daß man gerade wenn man ein HBM "interface" zentral in der Steuereinheit baut kann man von dort "easy" die Daten an die CU-Chiplets weiterverteilen.

Die Hauptfrage die sich mir hier stellt ist - kann man das I/O Teil so bauen daß man es mit den Chiplets "skaliert".

Außerdem vermute ich, dass AMD einen etwas anderen Weg wählt z.B. Raytracing zu implementieren.
Für RT braucht man eine Kommandoeinheit die möglichst den Überblick behält und den Rest kann man wunderbar parallelisieren. Die CUs sind prinzipiell durchaus geeignet RT-Matrizen zu berechnen (Irgendwo hatte ich dazu mal was gelesen, finde es aber grad nicht). Was fehlt bislang ist eine Steuereinheit.

Ein weiter Vorteil der "Chipletisierung"...man könnte sozusagen 1 Chiplet für "RT" verwenden, während das andere derweil die Texturen, Geometrie etc. macht.


Also exemplarisch für RDNA2 sowas wie:

6900XT: 40+40CUs, IOD, 2x8GB HBM 3,2Gbps
6900: 32+32CUs, IOD, 2x8GB HBM 2,4Gbps
6700XT: 40 CUs, IOD, 1x8GB HBM 3,2Gbps
6700: 32 CUs, IOD, 1x8GB HBM 2,4Gbps
6500XT: 24 CUs, monolithisch, 8GB GDDR6 16Gbps (128bit)
6500: 20 CUs, monolithisch, 4/8GB GDDR6 14Gbps (128bit)

Wären 3 Masken, alle <150mm².

Möglich. Ich sehe den Ansatz aber eher so:
24 CU+ 1/x IOD = 1 Chiplet. So daß jedes Chiplet seine eigene Bandbreite mitbringt.

So oder so - ich denke Navi 2x wird STARK...ob es reicht auch gegen Ampere im Top Segment mitzuhalten. Unklar. Aber es wird auf jeden Fall eine deutliche Steigerung zu Navi 1x und auf jeden Fall genug Performance um wie die 5700/5700 XT im wichtigen Mainstream/High-end Segment auch gegenüber Ampere mitzumachen.

Der_Korken
2020-04-30, 00:49:50
Dein Ansatz hat den Nachteil, dass kein I/O in 12nm ausgelagert werden kann. Außerdem müssen deine Chips insgesamt vier fette Datenleitungen haben - eine für den eigenen Speicher und jeweils eine für die anderen Chips, denn wenn ein Chip in einer Vier-Chip-Konfig auf eine Speicheradresse zugreift, dann liegen die Daten in 75% der Fälle bei einem anderen Chip im Speicher und müssen rübertransferiert werden. Ich denke dass AMD beim einem GPU-Design dieser Art direkt Nägel mit Köpfen macht, sodass sie z.B. nur CUs+Frontend in bis dahin 5nm fertigen müssen und den Rest in einem älteren Prozess.

Iscaran
2020-04-30, 00:53:49
Mir ist der alte Post von reaperr eingefallen, wo er die CU-Größe von Navi10 angibt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12238074#post12238074

Ein Navi-WGP (2 CUs nach alter Rechnung) ist nur ~4,05mm² groß, selbst eine einzelne Vega10-CU in 14nm ist größer (~4,15mm²), und 2 Vega20-CUs in 7nm sind nur unwesentlich kleiner (2x ~1,9mm² = ~3,8mm²).

Von den 251mm² von Navi10 werden nur ~81mm² durch die CUs/WGPs belegt, also nicht mal ein Drittel der GPU.


Wenn ich das mal auf die Die-Sizes anwende und einen Chipletartigen Aufbau mit einem mitskalierenden I/O Teil sehe dann könnte das sehr gut aufgehen;

Ausgehend von reaperrs Angaben wäre ein CU von Navi10 ca 2.025 mm^2 groß.

Berechne ich einfach mal damit Navi2x ergeben sich:

GPU Fläche #CU Fläche der CU [mm2] Restfläche [mm2]

Navi14 158 24 48.6 109.4
Navi10 251 40 81 170
Navi231 240 48 97.2 142.8
Navi22 350 72 145.8 204.2
Navi213 505 96 194.4 310.6

Wenn ich dann mal 20% höhere Packdichte annehme ergibt sich witzigerweise folgendes Bild
Navi21 240 48 81 159
Navi22 350 72 121.5 228.5
Navi23 505 96 162 343

Die Restflächen liegen damit 1.) Im Bereich von Navi10 für Navi231. Und sie skalieren nahezu EXAKT mit den CUs mit.
Restfläche von Navi22 bei 20% höherer Packdichte wäre genau 1.44x mal die von Navi231
Die Restfläche von Navi213 wäre genau 2.16x mal die von Navi231.

Ein Chiplet daß einen mitskalierenden I/O Teil enthälte würde sich genau so verhalten denke ich.

Sonst müssten ja die Restflächen immer mehr Abweichen.

Nightspider
2020-04-30, 01:25:15
Wie stehen aktuell die Chancen für 7nm+ (EUV)?

Gabs da nochmal Indizien?

Sunrise
2020-04-30, 01:42:16
Wie stehen aktuell die Chancen für 7nm+ (EUV)?

Gabs da nochmal Indizien?
Aktuell deutet alles auf N7P hin.

Mortalvision
2020-04-30, 12:50:46
Navi 21 scheint ja sehr fett zu werden. Das wären ja locker 50% mehr spekulierte Leistung als die VII. Ich sehe nur wieder rot beim GDDR statt HBM2. Wird bestimmt eine noch stärkere Grillkarte als die VII, also ohne custom Designs bestimmt unerträglich :usweet:

DrFreaK666
2020-04-30, 13:43:16
Navi 21 scheint ja sehr fett zu werden. Das wären ja locker 50% mehr spekulierte Leistung als die VII. Ich sehe nur wieder rot beim GDDR statt HBM2. Wird bestimmt eine noch stärkere Grillkarte als die VII, also ohne custom Designs bestimmt unerträglich :usweet:

Wurde nicht ein neuer Kühler geleakt?

ianm
2020-04-30, 13:54:07
Navi 21 scheint ja sehr fett zu werden. Das wären ja locker 50% mehr spekulierte Leistung als die VII. Ich sehe nur wieder rot beim GDDR statt HBM2. Wird bestimmt eine noch stärkere Grillkarte als die VII, also ohne custom Designs bestimmt unerträglich :usweet:
Warum?

@AMDNews
$AMD on track to launch next-generation gaming GPUs later this year with a 50% performance-per-watt increase compared to AMD current offerings.
https://twitter.com/AMDNews/status/1255250269681704968

Wenn man sieht was bei Navi 10 mit UV bei ~150W an Leistung geht und Navi 2X das Ganze bei 75W schaffen soll...

@Iscaran: Navi 21 ist der dicke Chip, nicht Navi 23. ;)

edit:
https://tech4gamers.com/wp-content/uploads/2020/03/AMD-Radeon-RX-Navi-2X-696x441.jpg
https://tech4gamers.com/amd-confirms-gpus-with-rdna-2-0-navi-2x-in-q4-2020/

Ravenhearth
2020-04-30, 13:59:31
Warum?

@AMDNews
$AMD on track to launch next-generation gaming GPUs later this year with a 50% performance-per-watt increase compared to AMD current offerings.
https://twitter.com/AMDNews/status/1255250269681704968

Wenn man sieht was bei Navi 10 mit UV bei ~150W an Leistung geht und Navi 2X das Ganze bei 75W schaffen soll...
Das wären 100W, nicht 75W. Mit 75W wär man bei der doppelten Perf/W.

ianm
2020-04-30, 14:01:39
Argh, du hast natürlich Recht. Trotzdem kein so kleiner Sprung.

Berniyh
2020-04-30, 17:23:46
Noch eine Sache sollte man evtl. zu diesen geleakten Chipgrößen – so sie denn stimmen – hinzufügen:
505 mm² wären dann der größte Chip (für Gaming) den AMD herstellt und es wird auch auf absehbare Zeit nichts größeres kommen.
Navi21 wäre dann der sogenannte "Nvidia Killer", für den Fall, dass es die Bezeichnung jemals gegeben hätte.
Und laut Hochrechnungen mit ca. 80 CU, evtl. ein bisschen mehr. In jedem Fall aber nicht über 100 (das gibt die Fläche doch einfach nicht her).

Eine potentieller 3000er Titan seitens Nvidia würde AMD damit wohl eher nicht knacken, fände ich persönlich auch absolut nicht schlimm.
Aber Konkurrenz im High-End/Enthusiast Bereich wäre schon sehr hilfreich.
Sofern das kein Rohrkrepierer wird wird die Navi21 Karte wohl auch den Weg in meinen Gaming PC finden. :)

Mortalvision
2020-04-30, 17:56:17
Vertraue NIE darauf, dass AMD jemals ein "kühles" Kühlerdesign ab OEM verbaut :usweet: Das sind doch die Karten, mit denen die Minizimmer im Winter geheizt werden ;)

€ Sieht schick aus, wird aber wie üblich Standardkost sein.

Iscaran
2020-04-30, 18:38:52
Warum?

@Iscaran: Navi 21 ist der dicke Chip, nicht Navi 23. ;)


Corrected. :-). Danke.

ianm
2020-04-30, 22:23:20
Vertraue NIE darauf, dass AMD jemals ein "kühles" Kühlerdesign ab OEM verbaut :usweet: Das sind doch die Karten, mit denen die Minizimmer im Winter geheizt werden ;)

€ Sieht schick aus, wird aber wie üblich Standardkost sein.
Ich kaufe auch nur custom, aber wenigstens gehen sie vom blower design weg.

HOT
2020-04-30, 23:44:26
Aktuell deutet alles auf N7P hin.

Nope deutet alles auf N7+ hin und zwar für alle Produkte und wahrscheinlich auch für die SoCs. Und zwar aus dem einfachen Grund, weil alle bisherigen Produkte bis auf V20 schon N7P sind, AMD spricht aber immer von verbesserten 7nm.

reaperrr
2020-05-01, 11:00:50
Dass die kommenden GPUs und CPUs N7+ sind denke ich zwar auch, aber wo zur Hölle kommt das
Und zwar aus dem einfachen Grund, weil alle bisherigen Produkte bis auf V20 schon N7P sind, AMD spricht aber immer von verbesserten 7nm.

her?

Alles, was ich bisher von AMD gesehen/gelesen habe, spricht erst ab RDNA2/Zen3 von verbessertem 7nm.

Lehdro
2020-05-01, 11:57:58
Dass die kommenden GPUs und CPUs N7+ sind denke ich zwar auch, aber wo zur Hölle kommt das her?

Alles, was ich bisher von AMD gesehen/gelesen habe, spricht erst ab RDNA2/Zen3 von verbessertem 7nm.
Alles das, was AMD in der zweiten Generation an 7-nm-Produkten plant, wird eine verbesserte Fertigung in 7 nm sein. Die CPU-Chiplets auf Basis von Zen 2 werden in N7 bei TSMC gefertigt. Dabei handelt es sich um die erste Generation der Fertigung in 7 nm bei TSMC, die eine DUV-Lithografie (Deep Ultra Vilolett) verwendet. Für die aktuellen Navi-GPUs verwendet AMD bei TSMC bereits N7P.
Quelle (https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/52493-amd-erlaeutert-7nm-7nm-und-was-sich-dahinter-verbergen-koennte.html)

Sunrise
2020-05-01, 16:18:15
Das halte ich weiterhin für eine sehr dünne Begründung, das als Garant dafür herzunehmen, dass nun alles auf N7+ kommt, nur weil Navi auf N7P war. Ich ging ursprünglich auch davon aus, weil AMD dies ja auf der Prozess-Roadmap direkt für RDNA2 auf eine Slide so geschrieben hatte.

Nach den letzten Monaten und den Infos (bzw. sehr schwammigen Angaben von "enhanced") und der Bestätigung von MS, das auch hier "enhanced" 7nm zum Einsatz kommt, glaube ich da aber nichtmehr dran. Auch weil Lisa auf eine Frage hierzu ausweichend war, und auf die jeweiligen Produkt-Vorstellungen verwies.

Man muss sich alleine mal vorstellen, wieviel Kapazität TSMC haben müsste, um alles (Konsolen-SoCs und alle GPUs) auf N7+ zu fertigen. Zusätzlich hat TSMC nicht unendlich viele EUV-Belichter von ASML, die auch einen noch deutlich geringeren Output als 7nm DUV haben. Zusätzlich benötigt vor allem Apple einen Großteil der EUV-Belichter bei 5nm, da EUV-exklusiv.

Diese "Hoffnung" hat wohl mit der Realität nicht viel gemein. Warum da von AMD so ein Geheimnis darum gemacht wird, erschließt sich mir aber auch nicht.

Bei Zen3 wurde im Übrigen das + von AMD auch entfernt, weil es ja zu "Verwirrungen" kommen könnte. Dennoch, IMHO ist das einfach nur unrealistisch, jetzt von EUV für alles auszugehen, das fußt eher auf Wunschdenken.

Benutzername
2020-05-01, 18:13:18
Das halte ich weiterhin für eine sehr dünne Begründung, das als Garant dafür herzunehmen, dass nun alles auf N7+ kommt, nur weil Navi auf N7P war. Ich ging ursprünglich auch davon aus, weil AMD dies ja auf der Prozess-Roadmap direkt für RDNA2 auf eine Slide so geschrieben hatte.

Nach den letzten Monaten und den Infos (bzw. sehr schwammigen Angaben von "enhanced") und der Bestätigung von MS, das auch hier "enhanced" 7nm zum Einsatz kommt, glaube ich da aber nichtmehr dran. Auch weil Lisa auf eine Frage hierzu ausweichend war, und auf die jeweiligen Produkt-Vorstellungen verwies.

Man muss sich alleine mal vorstellen, wieviel Kapazität TSMC haben müsste, um alles (Konsolen-SoCs und alle GPUs) auf N7+ zu fertigen. Zusätzlich hat TSMC nicht unendlich viele EUV-Belichter von ASML, die auch einen noch deutlich geringeren Output als 7nm DUV haben. Zusätzlich benötigt vor allem Apple einen Großteil der EUV-Belichter bei 5nm, da EUV-exklusiv.

Diese "Hoffnung" hat wohl mit der Realität nicht viel gemein. Warum da von AMD so ein Geheimnis darum gemacht wird, erschließt sich mir aber auch nicht.

Bei Zen3 wurde im Übrigen das + von AMD auch entfernt, weil es ja zu "Verwirrungen" kommen könnte. Dennoch, IMHO ist das einfach nur unrealistisch, jetzt von EUV für alles auszugehen, das fußt eher auf Wunschdenken.

Vermute ich auch, daß so viel N7P gar nicht produziert werden kann.


Das 7nm+ meinte vielleicht Prozessverbesserungen beim 7nm DUV Prozess?

Complicated
2020-05-01, 18:49:40
Man muss sich alleine mal vorstellen, wieviel Kapazität TSMC haben müsste, um alles (Konsolen-SoCs und alle GPUs) auf N7+ zu fertigen. Zusätzlich hat TSMC nicht unendlich viele EUV-Belichter von ASML, die auch einen noch deutlich geringeren Output als 7nm DUV haben. Zusätzlich benötigt vor allem Apple einen Großteil der EUV-Belichter bei 5nm, da EUV-exklusiv.

Hier muss etwas präzisiert werden.
7nm+ hat 4 EUV-Layer und ca. 50 Layer die doppelt und teilweise 4-fach belichtet werden müssen. Auch wenn der DUV-Waferoutput deutlich schneller ist als EUV , so ist es nicht über 30-mal schneller (ich habe jetzt ohne 4-fach Belichtung gerechnet der einfachheithalber)
Ein kompletter 7nm+Wafer muss 4 mal durch die EUV-Belichtung laufen und über 90 mal durch den DUV-Belichter laufen. Und genau hier liegt ja aktuell TSMCs Vorsprung -> wenige EUV-Layer. 5nm ist ebenfalls nicht EUV-only (14 EUV-Layer von über 50) und Apple hat die auch nicht exklusiv gebucht, was heißen soll es reicht auch für andere Kunden noch übrig.


Siehe solche Meldungen:
https://www.pcgamer.com/amd-zen-4-specific-5nm-enhanced-node/

But the piece also goes on to say that: "TSMC is said to have developed a 5nm enhanced version of its process specifically for AMD, which has a capacity requirement of no less than 20,000 12-inch wafers per month."
It does need to be said we're relying on machine translation here from the original Chinese, but we've gone through a few different sources to try and get it nailed down. One of those translation sources didn't seem to suggest that it was necessarily an AMD-specific node, so there does need to be a certain amount of sodium ingested at this point.

HOT
2020-05-02, 07:38:02
Da Apple und kein größerer anderer Hersteller N7+ nicht nutzt wäre der fast "AMD-exklusiv" (gibt nen Haufen anderer Kunden, wie Huawei mit zusammengestauchten Bestellungen und viele kleinere AFAIK). Aber ich muss mich korrigieren, die SoCs sind sehr sicher N7P, denn die Chips sind ja schon seit Frühsommer 2019 im Umlauf, das wäre etwas früh für N7+. Zen3 wird mMn ziemlich sicher N7+, auch wegen des verbesserten SRAMs, RDNA2 ist vollkommen unklar.
AMD wird mMn N5 nicht so schnell nutzen, obwohl sie es theoretisch können. Der Zeitplan sieht eher danach aus, dass man für Zen4/RDNA3 N5P nutzen wird.

Was mMn ebenfalls noch passieren wird, ist, dass man alle kleinen Grafikchips (P32 bis N14) in 2021 durch 2-3 weitere RDNA2 kleine bis Kleinstchips (irgendwo zwischen 10-24CUs) in N6 ersetzen wird. N10 wird ja schon durch N23 ersetzt, also das Kleingemüse dann durch neues Kleingemüse und in 22 fängt RDNA3 dann wieder oben an.

reaperrr
2020-05-02, 15:17:51
AMD wird mMn N5 nicht so schnell nutzen, obwohl sie es theoretisch können. Der Zeitplan sieht eher danach aus, dass man für Zen4/RDNA3 N5P nutzen wird.

Je nachdem, bis wann der jeweilige Chip für die Validierung fertig sein muss, könnte Zen4 noch auf N5 mit HPC-Zellen setzen. Aber N5P für RDNA3 ist stark anzunehmen.

SKYNET
2020-05-02, 16:12:30
gehe eh davon aus das bei AMD zuerst die mittleklasse der grakas in 5nm vom band laufen wird, man will sicherlich erstmal testen wie gut das funktioniert bevor man nen "full in" macht.

Complicated
2020-05-02, 16:26:42
Spekuliert:
Ausser sie fangen an 5nm für CDNA2 Chiplets zu nutzen. Das könnte auch Monate früher möglich sein, noch vor RDNA3 und Zen4. Die Yields könnten besser als bei Apple SoCs liegen in der frühen ramp up Phase. Und das könnte auch mit dem Deal zusammenhängen, den TSMC mit AMD gemacht hat.
Wird spannend sein zu sehen wie CDNA aufgebaut ist, vielleicht kann man da schon Rückschlüße ziehen ob ein Chiplet Design nachfolgen soll.

Berniyh
2020-05-02, 17:47:45
Zuletzt war wohl immer ein Compute Chip Vorreiter bei der Fertigungstechnologie. Erst die Vega20 (N7) und jetzt wohl CDNA1/Arcturus (vermutlich N7+).
Bei 5nm dürfte es wie Complicated richtig bemerkt hat wohl CDNA2 (Arcturus 2? oder evtl. auch Draco) sein.

AffenJack
2020-05-02, 18:29:27
Was auch immer für eine CPU in Frontier (Exascale Supercomputer) steckt, dürfte das erste AMD Produkt in 5nm werden. Wir wissen, dass da Semi-Custom CPUs sind, die wahrscheinlich schon Anleihen von Zen 4 haben und in 5nm kommen. Dazu vll CDNA2 in 5/6nm?

Sunrise
2020-05-02, 18:59:03
...5nm ist ebenfalls nicht EUV-only (14 EUV-Layer von über 50) und Apple hat die auch nicht exklusiv gebucht, was heißen soll es reicht auch für andere Kunden noch übrig.
Gemeint ist, dass es kein 5nm-Prozess gibt, ohne dass EUV zum Einsatz kommt, im Gegensatz zu 7nm, der als "Hauptprozess" voll DUV ist, ebenso N7P, eine verbesserte Version davon. Nur N7+ ist eben so eine Art "Pipecleaner" für EUV auf 7nm. 6nm ist dann nochmals so eine Sonderlocke, auch ausschließlich nur mit EUV-Anteil.

Da bei weiteren Verkleinerungen immer mehr Schichten mit EUV belichtet werden (bzw. bald eben High-NA EUV, wofür aber wieder neue Belichter von ASML benötigt werden) bestehen hier immer mehr Abhängigkeiten und wesentliche Verteuerungen, die natürlich abgewogen werden müssen, und endlos sind diese Kapazitäten eben nicht.

Warum sich nun ein IHV wie AMD für die ein oder anderen Prozessvariante entscheidet, hat sicher mehr als genug Parameter, die eine Rolle spielen können, von außen nur sehr schwer zu beurteilen. Der eine ermöglicht deutlich mehr Dichte und/oder Performance, der andere ist eben nur "leicht verbessert", aber hat praktisch identische Design-Regeln.

Wenn AMD z.B. nach Zen2 (N7) mit N7P erste, aber sehr gute Erfahrungen (Navi) gesammelt hat, und mit MS und SONY gewisse Parameter garantieren kann, werden da sicher auch keine Experimente gemacht, wenn man die Vorlaufzeit dieser SoCs mal betrachtet.

Alles andere ist derweil pure Spekulation, für mich persönlich daher erstmal N7P als gegeben, außer es wird wirklich explizit darauf hingewiesen, dass EUV im Spiel ist.

Bei den GPUs und Zen3 würde es mich aber tatsächlich extrem wundern, wenn die nicht auf N7+ wären, denn rein theoretisch dürfte N7+ nur Vorteile bieten, wenn man ein Design darauf auslegt.

Zuletzt war wohl immer ein Compute Chip Vorreiter bei der Fertigungstechnologie. Erst die Vega20 (N7) und jetzt wohl CDNA1/Arcturus (vermutlich N7+).
Bei 5nm dürfte es wie Complicated richtig bemerkt hat wohl CDNA2 (Arcturus 2? oder evtl. auch Draco) sein.
Ja, N7+ macht bei so einem Chip extrem Sinn, da allein die Dichte ja laut TSMC 15-20% besser sein soll, als noch bei N7. Zusätzlich scheint man auch ordentlich an Effizienz zu gewinnen, womit man da ordentlich Compute-Leistung unterbringen kann, die man sogar noch moderat/hoch takten kann, ohne dass man gleich die 300W sprengt. Wenn das wirklich die vermuteten Zahlen werden, ist Arcturus ja ein ziemliches Brett, da eben kein gewöhnlicher, alles-erschlagender GCN-Chip mehr und man sich voll auf dessen Einsatzgebiet konzentrieren konnte.

Ich bin mal gespannt, ob NV bei HPC-Ampere ähnliche Ansätze verfolgt.

davidzo
2020-05-03, 03:29:33
Nope deutet alles auf N7+ hin und zwar für alle Produkte und wahrscheinlich auch für die SoCs. Und zwar aus dem einfachen Grund, weil alle bisherigen Produkte bis auf V20 schon N7P sind, AMD spricht aber immer von verbesserten 7nm.

Das Original Gerücht von AquariusZi klingt eher nach N6.

2. By TSMC's definition, N20 family is no longer using 7nm.

Er sagt nicht "no longer N7" sondern" no longer 7nm", das schließt also alle 7nm Prozesse ein, also N7, N7P und auch N7+. Das würde vom Zeitrahmen auch gerade so passen, N7+ ist schon seit bald nem Jahr verfügbar. N6 soll keine neuen designrules haben, aber yield und kostenoptimierter sein, ist also nur die bezeichnung für einen maturisierten, getweakten, kostenoptimierten n7+ EUV Node bevor man bei 5nm wieder komplett neue Designregeln und Masken braucht hat.

Berniyh
2020-05-03, 07:55:50
Er sagt nicht "no longer N7" sondern" no longer 7nm", das schließt also alle 7nm Prozesse ein, also N7, N7P und auch N7+.
Ich glaube so spitzfindig darf man da nicht vorgehen.
Das sind Beiträge in einem Forum. Überleg mal wie präzise definiert die Leute hier (oder sonstwo) ihr Zeug von sich geben …

Ne, sein "no longer 7nm" kann alles mögliche bedeuten. Das was du gemeint hast oder auch "nur" "no longer N7" als auch "no longer 7nm DUV".
Darf man nicht überinterpretieren. Zumal ja auch sehr weitläufig im Internet die Bezeichnung "7nm" mit "N7" gleichgesetzt wurde (sowie 7nm+ mit N7+).

HOT
2020-05-03, 08:51:51
Das Original Gerücht von AquariusZi klingt eher nach N6.



Er sagt nicht "no longer N7" sondern" no longer 7nm", das schließt also alle 7nm Prozesse ein, also N7, N7P und auch N7+. Das würde vom Zeitrahmen auch gerade so passen, N7+ ist schon seit bald nem Jahr verfügbar. N6 soll keine neuen designrules haben, aber yield und kostenoptimierter sein, ist also nur die bezeichnung für einen maturisierten, getweakten, kostenoptimierten n7+ EUV Node bevor man bei 5nm wieder komplett neue Designregeln und Masken braucht hat.
Das ist ein verdammt guter Punkt. Stimmt, würde zeitlich passen und würde durchaus direkte Vorteile bringen.

Daraus ergäbe sich dann folgendes Bild:
- CDNA1 -> N7+
- SoCs -> N7P, später N6 (keine neuen Designrules)
- Zen3 -> N7+
- RDNA2 -> N6
- CDNA2 -> N5
- Zen4 -> N5
- RDNA3 -> N5P

AffenJack
2020-05-03, 09:13:04
Das Original Gerücht von AquariusZi klingt eher nach N6.

Dann hätte AMD das auch so kommuniziert, aber AMD sagt 7nm für RDNA2.
Außerdem ist N6 zu spät, denn N6 geht erst Ende des Jahres in Produktion, also erst 2021 Produkte.

OgrEGT
2020-05-03, 09:19:25
N6 wäre für RDNA2 wirklich knapp. Bei wikichip hieß es dass Volume Production erst Ende des Jahres beginnt. RDNA2 soll aber schon Oktober launchen.
https://fuse.wikichip.org/news/3227/tsmc-q4-7nm-dominates-revenue-preps-5nm-ramp-6nm-by-eoy/

Edit: zu spät

HOT
2020-05-03, 09:23:45
Navi war auch weit vor den ganzen Smartphone SoCs in N7P auf dem Markt.

OgrEGT
2020-05-03, 09:29:06
Welche GPUs launchen eigentlich im Oktober? N23 N21 oder auch gleichzeitig die anderen?

y33H@
2020-05-03, 09:31:32
Wie können bei N7P (DUV) und N6 (EUV) die Design Rules gleich sein?

OgrEGT
2020-05-03, 09:37:33
Wie können bei N7P (DUV) und N6 (EUV) die Design Rules gleich sein?

Könnte sein dass dies für die Layer gilt die auch bei N6 noch mit DUV belichtet werden.

HOT
2020-05-03, 09:44:11
https://www.anandtech.com/show/14290/tsmc-most-7nm-clients-will-transit-to-6nm

Jo geht. Übrigens ist N6 nicht zu N7+ kompatibel, der hat tatsächlich andere Designrules als N7(P) und N6. Ich denke N7+ muss man als kompromesslosen High-End-Prozess sehen, N6 ist der EUV-Sparprozess für neue Produkte und Produkte, die von N7(P) refresht werden. N6 direkt zu nutzen (also dafür entworfene Maske) bedeutet 18% weniger Flächenbedarf, nen Tacken mehr Flächeneinsparung als bei N7+. Billig und dicht gepackt, ideal für Grafikchips.

Start der Massenproduktion ist bislang nicht offiziell angegeben worden, so wie ich das sehe. Anandtech schätzt Jahreswechsel, ich nehme an, da kommt das auch her. Risc-Production startete in Q1. Ich nehme an, der Start der Massenproduktion korreliert mit dem Start von N2x, daher kann man auch wieder mit einer ziemlich schlechten Verfügbarkeit rechnen mMn, genau wie beim Navi10 Launch.

Und ja, es wird sicherlich erst mal nur N21 geben. N22 und 23 sind sicherlich erst 2021 zu erwarten, vermutlich zur CES, allein wegen Vorproduktion und Produktionskapazität.

y33H@
2020-05-03, 09:48:36
Dass die Design Rules gleich sind bei N7 und N6 sagte TSMC oft genug, ich würde gerne den technischen Hintergrund halbwegs erfahren/verstehen.

HOT
2020-05-03, 10:00:52
Das ist ne gute Frage ich nehme an, du brauchst ein Tool, dass dir aus der Maske für den entprechenden Layer ne neue für EUV herstellt und das ohne groß Arbeit da reinstecken zu müssen.
EUV zu belichten ist doch immer genauer als klassisch, von daher wirds da ja auch kein Problem bei der Transition geben nehme ich an. Hast eben keine Flächenersparnis.

Badesalz
2020-05-03, 10:42:08
Für das Wärmemanagment eigentlich ein steiles Ding :smile:

edit:
Imho heisst es eh, daß man die Masken mit relativ wenig Aufwand (ergo, lohnend) migrieren kann. Nicht, daß sich alles einfach 1:1 übernehmen lässt.

Complicated
2020-05-03, 11:16:29
Das ist ein verdammt guter Punkt. Stimmt, würde zeitlich passen und würde durchaus direkte Vorteile bringen.
Nur kommt N6 erst ca. 6 Monate nach N5 - somit ist es wohl eher weniger wahrscheinlich für neue Produkte bei AMD. N6 wird für 7nm das was 12nm für 14nm waren. Optimiert für günstige Designs und damit ein Prozessnode der gut für einen Refresh von 7nm-Produkten taugt, für die N5 noch zu teuer ist.


https://pics.computerbase.de/8/9/6/4/7/1-1080.be76cf1f.jpg

https://www.tsmc.com/english/dedicatedFoundry/technology/7nm.htm
At the same time, its design rules are fully compatible with TSMC's proven N7 technology, allowing its comprehensive design ecosystem to be reused. As a result, it offers a seamless migration path with a fast design cycle time with very limited engineering resources for customers to achieve the product benefits from the new technology offering.

basix
2020-05-03, 11:18:43
Das ist ein verdammt guter Punkt. Stimmt, würde zeitlich passen und würde durchaus direkte Vorteile bringen.

Daraus ergäbe sich dann folgendes Bild:
- CDNA1 -> N7+
- SoCs -> N7P, später N6 (keine neuen Designrules)
- Zen3 -> N7+
- RDNA2 -> N6
- CDNA2 -> N5
- Zen4 -> N5
- RDNA3 -> N5P

Dem stimme ich grundsätzlich zu. Aber würde es nicht mehr Sinn machen, wenn CDNA2 und Zen4 nicht auch in N5P kommen? Der Prozess ist laut Gerüchten AMD exklusiv, 20kwpm und N5P > N5 von der Spezifikation her sowie ab Ende 2020 / Anfang 2021 Spruchreif. Perfektes Timing für CDNA2 und Zen4.

Complicated
2020-05-03, 11:27:00
Das würde es. RDNA2 wird kaum auf 6N warten und somit nach Zen4 kommen.
Man weiß allerdings nicht ob N5P der Prozeß für AMD (Exklusiv ist ja ebenfalls nicht gesagt Lediglich, daß AMD hier mit entwickelt und optimiert - das kann später auch für andere verfügbar sein) ist. Es könnte auch eine Variante sein, die nicht in der Roadmap steht und auch nicht für alle Produkte geplant sein muß anfangs. Hier wird vieles die Wafer-Kapazität entscheiden.

horn 12
2020-05-03, 14:50:58
Release Big Navi warscheinlich Ende Quartal 3- spätestens Anfang Quartal 4
Nvidia lauert dabei mit der RTX 3080 ums Eck.

Denniss
2020-05-03, 15:25:02
machst du einen auf AdoredTV? Lange im Nebel rumstochern und dann zufällig mal was treffen?

JVC
2020-05-03, 15:35:10
Ich hoffe das ich schon noch Heuer "N21" in die Finger bekomme...
(mit HDMI 2.1)

Bei NV weis ich noch nicht, ob die sicher HDMI 2.1 haben werden?

Würd mir nur ungern noch ne NV holen...
In NV-Treads werd ich schneller auch mal angepöbelt, wenn ich was frage. (sind AMD-User toleranter?)
Ich habe mit der NV mehr Probleme, als ich mit AMD je hatte. (Glück/Pech?)
Irgendwie ist mir NV einfach verdammt unsympathisch. (3dfx, GPP, NDA.....)

M.f.G. JVC

Platos
2020-05-03, 16:41:45
@JVC: Na weil du oftmals Dinge behauptest, die nicht mal ansatzweise belegt sind und sie als praktisch gesichert darstellst.

Dann noch solche provokante Aussagen wie "sind AMD-User toleranter?" oder dass du nvidia als das Böse darstellst und AMD als das Gute.

Ja und das machst du dann auch noch bei Leuten, die ganz klar einer "Seite" angehören (wie du ja auch) und ich würde sagen, das ist der Grund sind die 2 Gründe, JVC. Beides kannst du angehen.

@horn 12: "Leakst" du jetzt solange, bis mal etwas stimmt?

Langlay
2020-05-03, 16:46:48
@horn 12: "Leakst" du jetzt solange, bis mal etwas stimmt?

Naja wenn Big Navi dieses Jahr noch kommt wird es wohl bis spätestens Mitte-Ende Nov. gelauncht halt rechtzeitig zum Weihnachtsgeschäft. Da muss man jetzt kein grosser Prophet sein.

Loeschzwerg
2020-05-03, 16:58:00
Würd mir nur ungern noch ne NV holen...


Dann lass es, egal ob AMD was liefert oder nicht. Du willst einfach mit NV nichts zu tun haben, Punkt aus.

Platos
2020-05-03, 17:48:36
Naja wenn Big Navi dieses Jahr noch kommt wird es wohl bis spätestens Mitte-Ende Nov. gelauncht halt rechtzeitig zum Weihnachtsgeschäft. Da muss man jetzt kein grosser Prophet sein.

Ja, das kommt noch dazu. Aber ich meinte ja nicht, dass das wirklich "Leaks" von ihm sind:biggrin:

Berniyh
2020-05-03, 17:59:00
Naja wenn Big Navi dieses Jahr noch kommt wird es wohl bis spätestens Mitte-Ende Nov. gelauncht halt rechtzeitig zum Weihnachtsgeschäft. Da muss man jetzt kein grosser Prophet sein.
Könnte es sich ja noch einfacher machen:
Also ich hab aus verlässlicher Quelle gehört, dass Big Navi dieses Jahr veröffentlicht wird. :D

davidzo
2020-05-04, 18:37:23
Dann hätte AMD das auch so kommuniziert, aber AMD sagt 7nm für RDNA2.

Wa genau verstehst du an
by TSMCs definition
nicht?

Das ist ne News über ein AMD Produkt, wieso hat er wohl explizit TSMC erwähnt und nicht AMD?
AMD hat bei Pinnacle Ridge auch nie 12nm kommuniziert vor dem Launch. In den roadmaps stand immer nur 14nm+ oder "process enhancements". Selbst beim Matisse i/o-die und x570 war man sich bis zuletzt unsicher ob man 14nm oder 12nm dazu sagt.

Wie können bei N7P (DUV) und N6 (EUV) die Design Rules gleich sein?
Ganz einfach, weil die DUV Layer ähnlich sind bzw. dieselben Designrules haben wie N7P. Ersetzte die ersten fünf 5 layer durch EUV Layer und fertig ist der neue Prozess:
https://en.wikipedia.org/wiki/7_nm_process#7_nm_process_nodes_and_process_offerings

neben designrules geht es aber auch um IP, tooling, testing equipment etc.
Zum Beispiel: Wenn du einen DDR4 Speichercontrollerfür N7P lizensiert hast, dann lässt sich der ebenfalls auf N6 implementieren. Bei N7+ ist viel weniger lizensierbare IP verfügbar/Kompatibel.



Nur kommt N6 erst ca. 6 Monate nach N5 - somit ist es wohl eher weniger wahrscheinlich für neue Produkte bei AMD. N6 wird für 7nm das was 12nm für 14nm waren. Optimiert für günstige Designs und damit ein Prozessnode der gut für einen Refresh von 7nm-Produkten taugt, für die N5 noch zu teuer ist.


https://pics.computerbase.de/8/9/6/4/7/1-1080.be76cf1f.jpg

https://www.tsmc.com/english/dedicatedFoundry/technology/7nm.htm

Die Grafik scheint nicht der aktuelle Stand zu sein, der Link jedoch schon. Risk production ist Q1 2019 angelaufen und high volume soll in Q4 laufen. Das würde knapp reichen falls AMD gleich als erstes dabei ist. Was nicht ungewöhnlich ist, wenn man sich mal Vega20 anschaut der auch als Radeon Instinct schon in 2018 auf den Markt kam. Und das war sogar ein "full node" sprung wo man definitiv neue tools und IP brauchte.

TSMC hatte mitte letzten jahres schon gesagt dass die meisten Customer von N7 auch auf N6 wechseln werden. Wenn das mal kein Wink mit dem Zaunpfahl war?
https://www.anandtech.com/show/14290/tsmc-most-7nm-clients-will-transit-to-6nm

Complicated
2020-05-04, 18:56:08
N6 kann nicht vor N5 kommen, da er teilweise darauf basiert. Die Roadmap zeigt auch keine risc production an, dennoch zeigt sie die zeitlichen Abstände zwischen den Prozessen, die sich kaum ändern werden. N5 mass production ist ja in Q1/2020 angelaufen, für Apple. AMD wird mit Zen4 dennoch erst 2021 N5 nutzen.

TSMC sagte diejenigen, welche nicht nach 5nm migrieren, haben einen Kostengünstigen N6 den Sie nutzen können und von den N5 Entwicklungen profitieren wird. Das sind über 90% der Kunden, die alle Schlange stehen für die begrenzte Waferzahl. AMD wird das wohl erst mit einem 7nm Refresh Wafer nutzen, falls überhaupt.

davidzo
2020-05-04, 19:07:14
N6 kann nicht vor N5 kommen, da er teilweise darauf basiert. Die Roadmap zeigt auch keine risc production an, dennoch zeigt sie die zeitlichen Abstände zwischen den Prozessen, die sich kaum ändern werden. N5 mass production ist ja in Q1/2020 angelaufen, für Apple. AMD wird mit Zen4 dennoch erst 2021 N5 nutzen.

TSMC sagte diejenigen, welche nicht nach 5nm migrieren, haben einen Kostengünstigen N6 den Sie nutzen können und von den N5 Entwicklungen profitieren wird. Das sind über 90% der Kunden, die alle Schlange stehen für die begrenzte Waferzahl. AMD wird das wohl erst mit einem 7nm Refresh Wafer nutzen, falls überhaupt.

Ja, Risk von N5 soll schon seit Ende 2019 laufen und ist wohl demnächst in Volume, das ist vor N6.
Aber wo hast du das her dass N6 auf N5 basieren soll? Bisher deutet alles daraufhin das N6 auf N7P basiert. 5Layer EUV vs 14 layer/Alle EUV, das sind völlig andere Rahmenbedingungen.

Complicated
2020-05-04, 19:38:26
https://fuse.wikichip.org/news/2567/tsmc-talks-7nm-5nm-yield-and-next-gen-5g-and-hpc-packaging/
N6 is the EUV equivalent of N7. It is planned to use more EUV layers than N7+. It is both design rule and IP-compatible with N7 and is intended to be the main migration path for most customers. N7 designs may be taped out again on N6 leveraging EUV masks and the fidelity improvements or re-implemented to take advantage of the poly over diffusion edge (PODE) and continuous diffusion (CNOD) standard cell abutment rules which are said to provide an additional 18% density improvement. It’s worth highlighting that N6 is unique in that it will actually enter risk production early next year and ramp by the end of the year 2020. This means it will ramp after N5. For that reason, TSMC says that N6 builds on both N7+ and N5 EUV learnings.

Auch wenn N6 mit N7 kompatibel ist, hat der zusätzliche EUV-Layer gegenüber 7nm+ wohl seinen Ursprung aus der 5nm Technologie. Besonders die Output-Geschwindigkeit der EUV-Layer hat hier wohl eine deutliche Verbesserung erfahren, so dass dieser Node eben günstig wird und höhere Volumina ermöglicht.

maximus_hertus
2020-05-04, 19:59:57
Naja wenn Big Navi dieses Jahr noch kommt wird es wohl bis spätestens Mitte-Ende Nov. gelauncht halt rechtzeitig zum Weihnachtsgeschäft. Da muss man jetzt kein grosser Prophet sein.

Track-Record Radeon-Launches zum Jahresende:

HD 79x0 => "Launch" Weinachten, echter Launch Januar
HD 69x0 => Launch eine Woche vor Weihnachten

Ich bin mir allerdings auch sicher, dass Lisa Su das besser hinbekommt. Ihre bzw. AMD "Execution" war bisher ja recht gut.

Sunrise
2020-05-04, 20:14:45
Der Plan ist, dass Zen3 und das neue GPU Line-Up Ende des Jahres möglichst parallel vorgestellt - und wenn ich das richtig interpretierte - auch kaufbar sind.

AMD hat dieses Jahr alle Hände voll zu tun.

Was vorher war, Schnee von gestern...die Karten sind neu gemischt worden.

SKYNET
2020-05-04, 20:34:48
man kann als ziemlich gesicher ansehen, dass das komplette lineup(CPUs und GPUs) vor black friday / cyber monday voll verfügbar sein wird, AMD weiss um das geschäft das damit laufen wird, in den USA ist das mit abstand umsatzträchtigste wochenende(die meisten händler machen an dem WE 50% von dem jahresumsatz).

Ghost1nTh3GPU
2020-05-15, 21:53:21
Wäre es denkbar, dass Navi2X vielleicht auch den Infinity Fabric wie Vega20 mitbringt und man mit einem entsprechenden Zen3 Board hier direkt eine ~200GB/s Verbindung zwischen GPU und CPU herstellen könnte?

Screemer
2020-05-15, 22:06:03
durchaus und damit auch direkte anbindung an pcie4-ssds.

Daredevil
2020-05-15, 22:22:45
Hat AMD nicht genug damit zutun, Drölfmillionen Konsolen zu schmieden? :<
Und sind generell Grafikkarten eigentlich wichtig für so ein Weihnachtsgeschäft?

Irgendwie habe ich selten das Gefühl, als würden die sowas mitnehmen wollen.
Radeon VII zu Anfang des Jahres, Navi im Sommer. So richtige "Weihnachtsprodukte" waren das jetzt nicht.

PS: Wenn so ne PCIe4 SSD nun echt nen Kracher wäre für neue Spiele, wäre das mal allergrößtes Intel Mobbing. ;D
Da wird einem schon an den Haaren gezogen ( Prozessoren ), dann wird einem direkt nochmal das Beinchen hinterher gestellt ( SSD Gen 4 ).

Berniyh
2020-05-15, 22:44:24
Wäre es denkbar, dass Navi2X vielleicht auch den Infinity Fabric wie Vega20 mitbringt und man mit einem entsprechenden Zen3 Board hier direkt eine ~200GB/s Verbindung zwischen GPU und CPU herstellen könnte?
Im Grunde bringt auch schon Navi1x was derartiges mit, wobei ich mir nicht mehr sicher bin, ob das IF hieß oder anders, war aber letztendlich das Äquivalent dazu.

Aber auf AM4 dürfte die von dir genannte Nutzung ausgeschlossen sein. Auf Genesis vermutlich auch.
Ich denke solche Späße bleiben eher der CDNA Linie vorbehalten. Zumindest vorerst.

Berniyh
2020-05-15, 22:45:30
durchaus und damit auch direkte anbindung an pcie4-ssds.
Wozu?

w0mbat
2020-05-16, 02:05:14
Damit kann man direkt von der PCIe NVMe SSD in den VRAM laden, ohne Umweg über die CPU.

Ghost1nTh3GPU
2020-05-16, 08:57:48
Auch die CPU könnte profitieren, wenn man den >100GB/s RAM der GPU mitnutzen könnte, für Latenz unkritische Berechnungen. Ebenso würden die PCIe Lanes der CPU entlastet werden um da weitere Geräte anzuschließen - NVMe Raid0 ;D.

Hoffentlich nutzt AMD das Potential dieser Plattform.

Berniyh
2020-05-16, 09:05:27
Damit kann man direkt von der PCIe NVMe SSD in den VRAM laden, ohne Umweg über die CPU.
Das ist mir schon klar, aber was bringt mir das?
Aus dem RAM laden ginge immer noch schneller als direkt von der SSD und RAM ist heutzutage doch selten bei Spielen begrenzt.

Bei Konsolen mit begrenztem – und geteiltem – RAM verstehe ich das noch so halbwegs, aber beim PC dürfte die RAM Menge – verteilt auf GPU und System – im Schnitt doch deutlich höher sein.
Und wenn jetzt noch nicht, dann in 1-2 Jahren.

basix
2020-05-16, 09:33:05
Das ist mir schon klar, aber was bringt mir das?
Aus dem RAM laden ginge immer noch schneller als direkt von der SSD und RAM ist heutzutage doch selten bei Spielen begrenzt.

Bei Konsolen mit begrenztem – und geteiltem – RAM verstehe ich das noch so halbwegs, aber beim PC dürfte die RAM Menge – verteilt auf GPU und System – im Schnitt doch deutlich höher sein.
Und wenn jetzt noch nicht, dann in 1-2 Jahren.

Dekompression von Daten und nachladen von Texturen direkt von der GPU (z.B. via SFS). Oder willst du 10 CPU-Kerne dafür verwenden?

Zossel
2020-05-16, 12:00:53
Wäre es denkbar, dass Navi2X vielleicht auch den Infinity Fabric wie Vega20 mitbringt und man mit einem entsprechenden Zen3 Board hier direkt eine ~200GB/s Verbindung zwischen GPU und CPU herstellen könnte?

Schneller als das RAM was an der CPU hängt ist sinnlos.
Eine kohärente Verbindung mit HBCC könnte evtl. helfen Anschluss an die neuen Konsolen zu finden.

Complicated
2020-05-16, 12:10:45
Schneller als das RAM was an der CPU hängt ist sinnlos.
Eine kohärente Verbindung mit HBCC könnte evtl. helfen Anschluss an die neuen Konsolen zu finden.
Diese Aussage ist seltsam. Warum sollte der CPU RAM ein Limit beim Transfer zwischen CPU und GPU darstellen? Kannst du das näher erläutern?

w0mbat
2020-05-16, 12:22:22
Aus dem RAM laden ginge immer noch schneller als direkt von der SSD und RAM ist heutzutage doch selten bei Spielen begrenzt.
Die Daten sind ja erstmal auf der SSD, wieso sollte es schneller sein diese zuerst in den RAM und dann in den VRAM zu laden, anstatt direkt in den VRAM?

Berniyh
2020-05-16, 12:34:22
Die Daten sind ja erstmal auf der SSD, wieso sollte es schneller sein diese zuerst in den RAM und dann in den VRAM zu laden, anstatt direkt in den VRAM?
Klar, aber wie oft kommt es in der Realität dann vor, dass du Daten von der SSD brauchst, wenn du genügend RAM hast?
Irgendwann werden die Daten mal geladen und wenn man ein vernünftiges Speichermanagement hat, dann werden die benötigten Daten auch schon von der SSD geladen bevor sie gebraucht werden.

Ne, wenn du genügend RAM/VRAM hast und halbwegs vernünftig programmierst, dann ist das Problem nicht wirklich eins. Und heutzutage hat ja praktisch jeder halbwegs gut ausgestattete PC 16+8 GB. Mit Tendenz zu mehr.
Bei der PS5 ist RAM halt eher limitiert, deshalb muss man dann etwas kreativer werden.
Und bei den PC Usern die hier knausrig sind (also z.B. 8+6 GB haben) soll man dann erwarten, dass die sich dafür dann eine teure SSD kaufen? bezweifle ich.

Platos
2020-05-16, 12:57:22
Die Sony-SSD lädt mit 5.5GB/s und sie geben an, bei normalen SSDs würde das einer 7GB/s SSD entsprechen (unter anderem, weil die Sony SSD 6 priority Levels hat und vlt. noch anderem).

Wie willst du das also jetzt mir einer HDD machen? Für 7GB bräuchte eine HDD (150MB/s) 47s (die beschissene Zugriffszeit noch nicht einmal eingerechnet). Nur kann man das so nicht anschauen. Weil die Konsolen jetzt ne SSD haben, müssen sie ja eben nicht mehr die nächste halbe Minute an potentiellen Daten vorladen.

Der Datenstrom steigt erheblich an und das müsste am PC nun immer noch von der HDD in den RAM geladen werden. Die ist aber so langsam, dass die Vorladezeit von (sagen wir) 30s noch viel höher wird. Ergo gibt es deutlich mehr potentielle Daten (also steigt das nicht proportional).

Angenommen die SSD bei Sony wäre in einem Spiel im Schnitt zu 4GB/s ausgelastet, dann kann man jetzt nicht einfach schlussfolgern, am PC muss man demnach 4000MB/150MB/s= 27s vorladen. Man müsste deutlich mehr wie 27s vorladen, da die Menge an potentiellen Daten steigt (und abgesehen davon ist die Zugriffszeit hoch, also sowieso nochmals deutlich mehr Vorladezeit). Ergo steigt der RAM bedarf extrem an und nicht Proportional zur Auslastung der SSD in den Konsolen.

Also wenigstens eine vernünftige Sata SSD mit 350-550MB/s und guten Zugrifsszeiten wird vermutlich standart werden. Es kommt auch billiger, wie 64GB RAM kaufen zu müssen.

Troyan
2020-05-16, 13:02:28
Das stimmt doch nicht. Würde die SSD dauernd mit 4GB/s Daten in den VRAM speichern, müssten jede Sekunde 1/3 ausgetauscht werden. Wir absurd ist das denn bitte?

Wie sollen so Spiele entwickelt werden? Das wäre das Ende von Interaktion jeglicher Art, da die Engine immer im Voraus wissen muss, was der Spieler macht.

Platos
2020-05-16, 13:05:23
Das war ein Beispiel... Es geht darum, dass der RAM verbrauch am PC mit einer HDD nicht proportional mitsteigt im Vergleich zur durchschnittlichen Leserate an der PS5/XSX, sondern eben viel höher, weil mehr vorgeladen werden muss.

Und abgesehen davon: Ja klar, in gewissen Szenen könnte durchaus passieren. Die Szene in der UE5 Demo, in der sie am Schluss da hinunterspringt, wird sicherlich ähnliche Datenraten verursacht haben (GB-Bereich).

Edit: Und vor allem: Nur schon, wenn es so eine kurze Szene wie in der UE5 Demo gibt, dann müsste man am PC mit HDD quasi fast alles in den RAM vorladen, was potentiell an Daten gebraucht wird. Auch wenn es nur kurze Szenen sind, es ist nicht wichtig, was die durch das ganze Spiel durchschnittliche Lesegeschwindigkeit der SSD war, es reicht, wenn es immer wieder mal solche Szenen gibt. Das steigt den RAM bedarf am PC in den Himmel.

Zossel
2020-05-16, 13:10:34
Diese Aussage ist seltsam. Warum sollte der CPU RAM ein Limit beim Transfer zwischen CPU und GPU darstellen? Kannst du das näher erläutern?

CPUs verarbeiten Daten die im RAM liegen.

Zossel
2020-05-16, 13:15:41
Bei der PS5 ist RAM halt eher limitiert, deshalb muss man dann etwas kreativer werden.
Und bei den PC Usern die hier knausrig sind (also z.B. 8+6 GB haben) soll man dann erwarten, dass die sich dafür dann eine teure SSD kaufen? bezweifle ich.

Schlauer ist es nur das zu laden was man wirklich benötigt, und das ist es was die PS5 anstrebt.

Berniyh
2020-05-16, 18:32:00
Ja, wie gesagt, wenn du begrenzt RAM zur Verfügung hast wie bei der PS5 macht das Sinn.
Aber am PC braucht es das einfach nicht wirklich.

bzgl. Thema HDD: man kann eine SSD als minimale Systemvoraussetzung reinschreiben, dann kann sich keiner beschweren, wenn er meint das von einer HDD laden zu müssen.
Das Argument fällt also weitgehend weg.

just4FunTA
2020-05-16, 18:39:58
naja wir dümplen hier immernoch mit 8gb vram rum und so wie es aussieht werden die nächsten Grakas auch nicht viel mehr bieten, also auch aufm pc wird es in die Richtung der Konsolen gehen.

][immy
2020-05-16, 18:41:12
Ja, wie gesagt, wenn du begrenzt RAM zur Verfügung hast wie bei der PS5 macht das Sinn.
Aber am PC braucht es das einfach nicht wirklich.

bzgl. Thema HDD: man kann eine SSD als minimale Systemvoraussetzung reinschreiben, dann kann sich keiner beschweren, wenn er meint das von einer HDD laden zu müssen.
Das Argument fällt also weitgehend weg.
außer das du noch keine SSD am PC wirklich vorraussetzen kannst für große Spiele. Da würdest du dir relativ viele potentielle Kunden vergraulen.
Am PC erfolgt so etwas halt sehr langsam und das nicht grad viele bezahlbare und große SSDs verfügbar sind (>2TB) wird es noch eine Weile dauern bis das am PC normal wird.

Ich bin zwar auch komplett auf SSDs in meinem PC umgestiegen, aber die Größe ist nach wie vor etwas, wo es hapert. Und Next-Gen Spielen wollen ja auch gern mal größer werden.

Ghost1nTh3GPU
2020-05-16, 18:54:07
Wer neuere Titel spielt, wird wohl kaum noch eine HDD für diese nutzen. Erst recht wenn selbst in Fertig-PCs SSD Standard seit mindestens 3 Jahren ist.

Aber eine >5GB/s SSD könnte in PCs so manches Problem lösen. Ein Infinity Band Connect zwischen CPU und GPU noch weitere darüber hinaus.

just4FunTA
2020-05-16, 19:09:08
ja also hdds sind in gamingpcs schon lange tot..

maximus_hertus
2020-05-16, 19:29:07
ja also hdds sind in gamingpcs schon lange tot..

Ist das so? Gibt es belastbare Zahlen? Also wieviele Gaming PCs die SSD auch für alle Spiele Installationen nutzen?

Screemer
2020-05-16, 19:35:25
absolut nicht. das ist ein schlichter blick aus dem goldenen käfig. ich kenne dutzende spieler die zwar ssds im rechner haben aber diese nicht für spiele nutzen. das problem ist nämlich auch, dass kaum einer der launcher einfaches verschieben von gamefiles zwischen datengrab und ssd auf einfache art bereitstellt. windows hatte mit symlinks alles an bord was man für simples swappen von ordnern bräuchte.

just4FunTA
2020-05-16, 20:25:24
Ist das so? Gibt es belastbare Zahlen? Also wieviele Gaming PCs die SSD auch für alle Spiele Installationen nutzen?


du brauchst da keine Zahlen, wer so Spiele wie die auf der Unreal Präsentation spielen will der nutzt doch keine HDD in seinem Rechner für Spiele. Klar habe ich auch noch eine Hdd als Datengrab und für alte Spiele die ich nicht löschen möchte aber halt nur alle paar Monate/Jahre starte. Wobei es inzwischen auch etwas unnötig ist mit der 1gig Leitung ist so ein Spiel ja ruckzuck über Steam gezogen, kann ich im Prinzip auch löschen.



Aber für die Spiele die ich öfters Spiele nutze ich natürlich eine ssd, die Kosten aktuell gerade mal ~75€ für eine 500gig Platte. Der nächste Schritt sind dann die richtig schnellen ssd aber selbst die kosten nicht wirklich mehr79€ für ne ssd(3.5gb/sec Lesend) die schneller ist als die in der XSX die nur 2.4gb/s hat ist ja jetzt nicht die Welt.


Klar wer meint er muss seine komplette Steambibliothek installieren der kommt auch mit hdds nicht aus..

Zossel
2020-05-17, 07:49:58
Aber für die Spiele die ich öfters Spiele nutze ich natürlich eine ssd, die Kosten aktuell gerade mal ~75€ für eine 500gig Platte. Der nächste Schritt sind dann die richtig schnellen ssd aber selbst die kosten nicht wirklich mehr79€ für ne ssd(3.5gb/sec Lesend) die schneller ist als die in der XSX die nur 2.4gb/s hat ist ja jetzt nicht die Welt.

Die Zugriffspattern sind massiv parallel und latenzsensitiv, Bytes/sec ist ein untergeordnetes Merkmal.

r3ptil3
2020-05-17, 11:37:32
ja also hdds sind in gamingpcs schon lange tot..

https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

Man beachte bspw. Auflösung, Kerne und freien Speicherplatz, was Nahe legt, dass die meisten sehr wohl noch eine HDD nutzen.

Slipknot79
2020-05-17, 11:47:05
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

Man beachte bspw. Auflösung, Kerne und freien Speicherplatz, was Nahe legt, dass die meisten sehr wohl noch eine HDD nutzen.


Glaube ned dass die Umfrage differenzieren kann ob ne HDD System-/Spieleplatte ist oder Archiv.

Glaube aber auch, dass noch viele ne HDD als System-/Spieleplatte verwenden. :rolleyes:

Ghost1nTh3GPU
2020-05-17, 12:31:23
Grundsätzlich reicht ja eine HDD (7200 UPM, Platter mit hoher Dichte) bei aktuellen Spielen aus, aber jetzt ist halt auch mal ein Sprung bei den Disk-IO-Anforderungen abzusehen. Auch wenn der 10 Jahre alte PC schon Hexa-Core und 2GB DX11 GPU hat, ist das vom Zeitraum verhältnismäßig so, als wöllte man Xbox360/PS3 Titel auf seiner Vodoo/Pentium1 spielen. Aber wenn man noch einen freien PCIe Slot hat kann selbst so ein System in der GB/s-SSD-Liga mitspielen. Was die eigentliche Fortschritte wieder sehr klein macht.

Wenn eine PS5 ~20 Mio Polys pro Frame berechnen kann, sind wir mit Post-Navi2/Ampere sicherlich in Richtung 100 Mio. PCIe scheint eine beschleunigte Entwicklung zu erfahren. Aber da könnte der Bedarf vielleicht höher sein.

Am besten wäre AMD vereint unter 5nm endlich Navi mit Zen: 8-16 Zen4 Core, 64MiB gemeinsamer Cache, 52-80CUs, 320-Bit GDDR6 + 64-Bit DDR5 DIMM.

Platos
2020-05-17, 13:15:28
Also wir werden es dann ja sehen, aber ich denke, in ~3 Jahren ist ne Sata-SSS Standart für AAA Titel bzw. Mindestvoraussetzung. Vlt. gibts ja auch ein extrem abgespecktes Seting für ultra low, dass dann einfach beschissen aussieht, so einfach damits dann doch noch funktioniert für die, die nichts auf Grafik geben. Sowas könnte ja auch gut sein, aber abgesehen von auf "Low" wird ne SSD Mindestanforderung sein, prognostiziere ich jetzt mal (also ab mittel).

Die ganzen Stammkunden-Lol und CS-Gamer, MMO(RPG) etc. brauchen deswegen natürlich keine SSD.

https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

Man beachte bspw. Auflösung, Kerne und freien Speicherplatz, was Nahe legt, dass die meisten sehr wohl noch eine HDD nutzen.

Solche Umfragen sind fürn Arsch. Wichtig ist nicht, was der Steamuser hat, wichtig ist, was ein potentieller Kunde für Hardware hat.

Und nicht jeder Steamuser ist ein potentieller Kunde. Potentiell im Sinne von relevant potentiell.

Daredevil
2020-05-17, 13:23:01
Ich glaube auch durchaus, dass viele noch Festplatten nutzen, erstens gehen die so oder so selten kaputt, noch sind SSDs für manche schlicht auch teuer.
Im schlechtesten Fall hat jemand ne 16mbit Leitung und ne 500GB SSD in der Kiste, da installierst du dann 3-4 Spiele von höhe eines WoW oder GTA und dann ist die Kiste quasi voll.
Da ist dann im Endeffekt eine 4TB HDD ein Segen, weil man Spiele "Hamstern" kann und nicht immer erneut runterladen, wie wir Schnösel mit unseren 1Gbit Leitungen. :C

So schlecht sind die heutigen Konsolen da nun auch nicht unbedingt.

Platos
2020-05-17, 13:43:03
Ja jetzt kommen wieder die, die ihre ganze Steambibliothek installiert haben wollen. Enthusiastenblase und so.

Dass Leute ne HDD haben, habe ich btw. nie bestritten und eig. habe ich nie gesagt, dass alle ne SSD haben. Ich habe nur gesagt, dass die Steam-Statistik fürn Popo ist (in diesem Fall).

Daredevil
2020-05-17, 13:45:44
Ja natürlich ist sie das. :D
"Free Storage" hast du ja auch, wenn ne SSD+HDD in der Kiste ist, oder du deinen 256GB USB Stick angeschlossen hast.

Dass der Total Hard Disc Space sinkt, spricht dann eher für pro SSD.

Platos
2020-05-17, 13:50:31
Ja, und wie von jemandem hier angemerkt, kann Steam vermutlich nicht zwischen Systemplatte/Gameinstallationsplatte unterscheiden bzw. wird es nicht angegeben.

Ich meinte, man kann als Spieleanbieter auf Steam für Geld genau nachschauen, welche Spiele "meine" Spieler sonst noch spielen, wie oft, wann, welche Hardware sie haben etc.

Sinkt der totale Harddiskspeicherplatz? Müsste ich mir mal ansehen. Aber wie gesagt, relevant ist hald, was potentielle Kunden an Hardware haben und nicht die Tausenden Lol-Gamer etc und das kann man nicht Unterscheiden.

Aber ein ultra-low Setting, welches keine SSD braucht, wirds vlt. durchaus geben. Meiner Ansicht nach, wird aber der ganze Rest eben ne SSD voraussetzen in 3 Jahren. Aber vlt. täusche ich mich ja.

Edit: Stimmt, bei den Steamumfragen wird immer noch nicht zwischen SSD und HDD unterschieden, wie lächerlich. Da frage ich mich, was ich hier noch diskutiere. Aber abgesehen davon hat ja selbst dort 50% weniger als 1TB Speicher, was ja schonmal für 50% SSD spricht, denn ne HDD kleiner als 1TB werden dann wohl doch die wenigsten haben, ausser vlt. die mit uralten Laptops, aber die sind so oder so nicht relevant.

Also selbst wenn man die Steamstatistik ernst nehmen würde, sieht es ganz so danach aus, dass sehr viele ne SSD haben bzw. werden in 2-3 Jahren noch viel mehr eine haben.
Und nur mal so als kleine Veranschaulichung, wie wertlos Steamumfragen sind: Da gibts noch 20% mit ner 2-Kern CPU und jetzt mal AAA Spiele anschauen wie AC: Läuft niemals spielbar auf 2 Kernen und auf 4 Kernen würden die Enthusiasten hier sagen, läufts auch nicht gut. Also Steamumfragen anschauen und einfach so darauf schliessen, es ginge nicht, weils noch viele Leute gibt, funktioniert nicht. Habe ich somit gerade bewiesen.

just4FunTA
2020-05-17, 15:10:44
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

Man beachte bspw. Auflösung, Kerne und freien Speicherplatz, was Nahe legt, dass die meisten sehr wohl noch eine HDD nutzen.mir ging es aber um gamingpcs und nicht um pcs mit denen halt auch noch gespielt wird. Es kann mir doch keiner erzählen das er sich heutzutage einen Gamingpc zusammenbaut und keine SSD da reinhaut, zusätzlich eine hdd als datengrab bzw für alte Spiele stört ja nicht weiter..

TheGood
2020-05-17, 17:11:13
Die Diskussion ist doch mühsig. Es wird in Zukunft schlichtweg spiele geben, die genau das voraussetzen. Dann muss der PC Spieler einfach nachziehen oder sich ne Konsole kaufen. DAs ist simple Marktwirtschaft. So lief es beim Arbeitsspeicher oder Graka speicher auch immer.

Es liegt aber auch klar auf der Hand, dass es sich im ersten Jahr um maximal ne Handvoll von spielen handeln wird, vor allem um Exklusivtitel, weil einfach noch viel zu wenig Konsolen verkauft worden sind.

Allein das Releasefenster der UE5 mit Ende 2021 zeigt dies ja schon.

GGf. ist das ja auch der Grund warum, wenn man mancher Spekulation glauben darf, Ampere nur ne kurze Laufzeit haben wird und Hopper sehr schnell nachfolgen wird. Nvidia scheint hier ggf. "nachbessern" zu müssen und das ist jetzt nicht als Flamewar oder so gemeint, sondern tatsächlich ein ernsthafter Gedankengang. Da Nvidia schon lange nicht mehr innerhalb so kurzer Zeit zwei neue Generationen herausgebracht hat..

bloodflash
2020-05-17, 17:48:10
Was wird hier denn noch diskutiert?


Selbst bei Office-PCs ist eine einfache SATA-SSD ein unglaublicher Boost.


HDDs sind tot!
Nur weil das hier und da in Komplett-PCs verbaut wird, ist das doch kein Nobrainer.



Nur weil einige Spielehersteller noch Rücksicht nehmen, ist das doch keine Option seit mittlerweile 2-3 Jahren.


Erwartet hier einer Max-Performance mit einer GTX 960 unter 1080p?


Selbst ein "billiger" Gaming-PC mit 16GB/8GB hat vor 1,5 Jahren eine 512er-PCIe-SSD im Budget von 700,-EUR beinhaltet.


Wer seitdem was anderes kauft, kauft Crap!
Jetzt kommen halt die Anforderungen...

Hasenpfote
2020-05-18, 14:18:35
Warum wird SSD vs HDD in nem GPU-Thread diskutiert?

w0mbat
2020-05-18, 14:39:24
Wegen neuer Technologie mit der man direkt von der SSD in den VRAM laden kann.

HOT
2020-05-18, 15:14:40
Das ist auch so ne Nummer, die ich nie verstehen werde. Ich hab seit 5-6 Jahren meine wichtigen Spiele selbstverständlich auf ner SSD, weil die Ruckelei und das mangelhafte Streaming auf einer HDD einfach furchtbar nervig ist. Dass man darüber heute überhaupt noch diskutiert in Zeiten einer Intel 660p ist einfach lächerlich. Natürlich wird das Streaming suksessive immer "schlimmer" werden und von einer HDD kaum noch zu bewältigen sein, dafür braucht man kein direktes in-den-VRAM laden Feature. Das versteht sich von selbst.

JVC
2020-05-18, 16:48:52
Ich denke AMD hat ganz einfach HBCC weiterentwickelt und optimiert.
Beide Konsolen können es ... (PS5 kann laut Gerücht "48Gb GPU-Ram" bereit stellen)
RDNA2 bringt es vermutlich auch am PC ...

Wenn das gut klappt, genügen m.M.n. 12-16Gb GPU-RAM locker
um mit den Konsolen mit halten zu können.
(um so schneller die SSD, um so "mehr Ram" bekommt man)

Ich würde gerne den Sommer überspringen :freak:

M.f.G. JVC

Complicated
2020-05-18, 16:57:13
Es ist durchaus ein Unterschied ob der Zugriff auf zu streamende Texturen via HBCC über den VRAM auf eine direkt angeschloßene SSD stattfindet - ohne CPU. Oder ob der Zugriff auf die SSD über den IO-Zugriff noch von der CPU verwaltet wird. Die Radeon SSG bietet ja bis 2 TB SSD auf diese Weise an für große Videobearbeitungen: https://www.computerbase.de/2016-07/amd-radeon-pro-ssg-grafikkarte-m2-ssd/
Das für Spiele umgesetzt könnte schon noch mal eine Entlastung der CPU für das Texturstreaming bedeuten. AMD hat ja auch eine neue Revison der StoreMI Software für Q2 angekündigt (https://www.amd.com/system/files/documents/storemi-product-change-advisory.pdf), die ja genau dafür da ist - wer weiß was da kommt ;) Vor allem, da die alte so abrupt komplett eingestellt wurde.
Instead, AMD will focus its internal development resources on a replacement solution with a rearchitected feature set and a planned release window of 2Q20.

JVC
2020-05-18, 20:00:12
"Vielleicht sieht das Bild ja dann nicht unbedingt auf der Teureren Graka besser aus" :freak:

"4-8K" unterstützt durch VRS+"HBCC-Texturen" muss bombe aussehen :eek:
Sobald das Bild sich beruhigt weil man genauer hinsieht sind die "High Res Texturen" schon lange da :cool:

Ach ich Tagträume nur mal wieder :redface:

M.f.G. JVC

pixeljetstream
2020-05-18, 21:44:21
Bei all der Geometrie, sieht man die Texturen eh nicht mehr ;)

mironicus
2020-05-19, 21:00:06
Gibt es eigentlich bis jetzt noch keine zuverlässigen Informationen oder Leaks über RDNA2-GPUs?

Die 2.1 GHz GPU-Takt bei Renoir-Desktop-APUs lässt aber hoffen (obwohl es nur Vega ist), dass Taktraten über 2 GHz "normal" sein sollten bei zukünftigen AMD-GPUs. Auch die PS5-GPU soll ja mit über 2 GHz takten.

Das wären doch interessante Spekulationen... 2.1 GHz 2.2 GHz 2.3 GHz. Vielleicht kann AMD seinen Konkurrenten tatsächlich mit Big Navi schlagen, mit einem nicht allzu großen Chip.

Zossel
2020-05-19, 21:41:27
Es ist durchaus ein Unterschied ob der Zugriff auf zu streamende Texturen via HBCC über den VRAM auf eine direkt angeschloßene SSD stattfindet - ohne CPU. Oder ob der Zugriff auf die SSD über den IO-Zugriff noch von der CPU verwaltet wird. Die Radeon SSG bietet ja bis 2 TB SSD auf diese Weise an für große Videobearbeitungen: https://www.computerbase.de/2016-07/amd-radeon-pro-ssg-grafikkarte-m2-ssd/

Hier tauchen die SSDs ganz normal in Windows als Filesystem auf: https://www.amd.com/system/files/documents/ssg-driver-installer-guide.pdf
Und AMD wird bestimmt nicht NTFS auf GCN/RDNAx portiert haben plus die Windows Virtual Memory Verwaltung. Fast Jeder Windowspatch müsste dann für GCN/RDNAx nachgezogen werden, das ist ein Support-Alptraum.

Wahrscheinlich ist da lediglich ein PCIe Switch verbaut. Die CPU ist dann einfach ein "Coprozessor" für die GPU, lediglich die DMA-Transfers für die Nutzdaten bleiben auf der Karte, getriggert von der CPU.

Gebrechlichkeit
2020-05-20, 04:13:38
RDNA2.0+ in 5/7nm + 100GB SSD? als Antwort auf die Ampere Reihe. Waere sowas Ende 2020 bereits moeglich?

JVC
2020-05-20, 09:05:43
RDNA2.0+ in 5/7nm + 100GB SSD? als Antwort auf die Ampere Reihe. Waere sowas Ende 2020 bereits moeglich?
RDNA 2.0 in 7nm+ mit 16Gb +32Gb"SSD" =48Gb für die Gpu...
Könnte ich mir vorstellen und ich würde mich darauf freuen :wink:

M.f.G. JVC

basix
2020-05-20, 10:18:18
RDNA 2.0 in 7nm+ mit 16Gb +32Gb"SSD" =48Gb für die Gpu...
Könnte ich mir vorstellen und ich würde mich darauf freuen :wink:

M.f.G. JVC

Wieso nicht gleich 64 GByte? :) 1TB QLC kostet 100 Euro für den Endkunden, da dürften 64 GByte keine 5 Euro kosten. Spot Preise sind momentan 3.10$ für 256 Gbit und 5.80$ für 512 Gbit TLC. QLC wäre noch günstiger.

16GB für Mobile und Low End, 32 GB für Midrange und 64 GB für High End :D Das ganze an 2x PCIe 4.0 Lanes angebunden mit externem Flash Controller?

Was ich aber nicht weiss:
Man würde ja gerne 4-8 NAND-Channels haben, um mehr Bandbreite zu erhalten. Ich weiss nicht, ob man dazu z.B. 4x 16GB Chips stapeln müsste, vermutlich schon.

Platos
2020-05-20, 12:29:40
RDNA2.0+ in 5/7nm + 100GB SSD? als Antwort auf die Ampere Reihe. Waere sowas Ende 2020 bereits moeglich?

Du meinst ne gratis SSD dazu oder direkt auf der Grafikkarte verlötet ? Ersteres wird sicher nicht passieren und letzteres eher auch nicht.

Zossel
2020-05-20, 14:01:22
Du meinst ne gratis SSD dazu oder direkt auf der Grafikkarte verlötet ? Ersteres wird sicher nicht passieren und letzteres eher auch nicht.

Wäre auch ziemlich blöd, wenn beim Spielstart erstmal alle Texturen auf die GPU-SSD kopiert werden müssten.
Pagen aus dem Host-Filesystem ist da die wesentlich bessere Erfahrung.

Complicated
2020-05-20, 14:57:35
Woher diese Erkenntnis schon wieder? Wie viele Test hast du gesehen (abgesehen, daß du das technisch anscheinend völlig anders einschätzt als es Real funktioniert)?

Platos
2020-05-20, 15:10:46
Wäre auch ziemlich blöd, wenn beim Spielstart erstmal alle Texturen auf die GPU-SSD kopiert werden müssten.
Pagen aus dem Host-Filesystem ist da die wesentlich bessere Erfahrung.

Ja, jedes mal 100GB kopieren oder was :D Und das wären dann ja Schreibzugriffe, also wäre die SSD schnell tot.

Vor allem: Was machen denn die Leute, die schon eine SSD haben? Die müssen das dann alles mitbezahlen?

Edit: Und bei allen nicht SSD Besitzer müssten die Daten ja von einer HDD gelesen werden. Also 100GB lesen mit 150MB/s ? Jedes mal 10min warten, wenn man das Spiel einwirft/wechselt:confused: Und wenn man sowieso schon ne SSD hat, erübrigt sich die Sinnhaftigkeit sowieso.

Zossel
2020-05-20, 16:05:06
Woher diese Erkenntnis schon wieder? Wie viele Test hast du gesehen (abgesehen, daß du das technisch anscheinend völlig anders einschätzt als es Real funktioniert)?

Aus dem Ziel (Viel Spieldaten (Texturen, etc.) ohne lange Ladezeiten) und dem PS-Vortrag + Sonypatent ergibt sich schon zwangsläufig die Implementierung.

Wie könnte den den eine interne GPU-SSD dieses Ziel besser erreichen?

Complicated
2020-05-20, 16:57:52
CCIX und GenZ, die Basis von HBCC über die IF (PCIe) der Radeon GPUs:
Der Quatsch mit Windows und Patches funktioniert nun mal so nicht wenn die GPU Speicher direkt adressieren kann. Da ist kein OS beteiligt, solange die GPU die Ergebnisse nicht in das System für die CPU übermittelt zur Bilddarstellung.
https://techgage.com/article/amd-details-vega-architecture-hbm2-ncu-primitive-shaders/
https://techgage.com/article/siggraph-2016-a-look-at-amds-upcoming-radeon-pro-wx-gpus/
While the user will be able to tweak some things with this storage, like how it’s used, it’s not going to be user-accessible from the standpoint of double-clicking on a drive in your “This PC” window. It will be internal memory that’s managed entirely in hardware.
https://www.anandtech.com/show/10751/gen-z-consortium-formed-developing-a-new-memory-interconnect

Gebrechlichkeit
2020-05-20, 18:01:22
Du meinst ne gratis SSD dazu oder direkt auf der Grafikkarte verlötet ? Ersteres wird sicher nicht passieren und letzteres eher auch nicht.


Ein m2 slot 22xx auf der GPU/Platine, mit pcix 4.0 16x facher Anbindung. 32GB/s read&write*, 64GB m2 "extension ssd" speziell fuer die AMD hergestellt. Platz fuer die meist-benutzen assets wie halt die Radeon SSG nur halt fuer´s gaming. Der ganze Level und mehr befindet sich dann auf der "GPU SSD", alles andere wird gestreamt von der SATA3 6Gbps (mind.) SSD.

Und SSDs ab 2018+ kann man mit bis zu 50TB/tag gelesen/beschrieben werden, teils sogar weitaus mehr als 50TB/tag, die halten das schon aus. Sobald die perf. droppt, unter 50% ersetzt man die nennen wir sie mal "assets-ssd" durch eine neue. Wenn die SSD der PS5 ausreicht, dann braeuchte man wohl bloss eine mini-ssd auf der GPU PCB mit pcie 4.0 und 4x Anbindung (8GB/s fuer 1440p,30fps | fuer 4K wohl 32GB/s).

Natuerlich waere eine GPU mit 32GB vram oder mehr besser, but those suckers just don´t get it.

Edit: Und bei allen nicht SSD Besitzer müssten die Daten ja von einer HDD gelesen werden. Also 100GB lesen mit 150MB/s ?


it´s da fiutschur, bei an ESESDEE! f#ck´em! :biggrin: