PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 [31] 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

unl34shed
2020-05-20, 18:04:18
Kleiner Fehler im Plan, M2 hat nur 4 PCIe Lanes also knapp unter 8GB/s

Platos
2020-05-20, 18:11:27
Ja ok, AMD designt eine (zusätzliche) 16 PCI-E Schnittstelle auf der GPU (dessen 16 Lanes dann auch noch an der GPU natürlich angebunden werden müssen, nicht nur auf der Platine) und das mit einer 32GB/s SSD.

Und 50TB pro Tag? Wie lange soll das halten? Ein halbes Jahr? Und dann auch noch eine 100GB SSD ?

Sag mal, was rauchst du ? :D

Gebrechlichkeit
2020-05-20, 19:13:25
Ja ok, AMD designt eine (zusätzliche) 16 PCI-E Schnittstelle auf der GPU (dessen 16 Lanes dann auch noch an der GPU natürlich angebunden werden müssen, nicht nur auf der Platine) und das mit einer 32GB/s SSD.

Und 50TB pro Tag? Wie lange soll das halten? Ein halbes Jahr? Und dann auch noch eine 100GB SSD ?

Sag mal, was rauchst du ? :D

Natuerlisch waren GB gemeint, nicht TB. :biggrin:

2018
SSD Crucial BX480 (SATA3 6Gbps)
120TBW endurance auf 3 Jahre (Garantie), 122,880MB
pro Jahr 40,9TB (12 Monate)
pro Monat 3,4TB (30 Tage)
pro Tag 113GB read&write

2020
HP EX950 SSD 4x pcie 4.0
160TBW (256GB) bis 1,300TBW (https://www.techpowerup.com/review/hp-ex950-2-tb-m-2-nvme-ssd/) (2TB)

1300TBW auf 5 Jahre garantiert
1,300,000,000MB
260,000,000MB pro Jahr
21,666MB pro Monat
722GB pro Tag read&write

Man nehme nun einer von diesen nand flash chips, 2TB werden nicht gebraucht (2 sollten ausreichend, ggf. 4 stueck). Diese evtl. direkt auf der GPU Platin anbringen, 4x extra lanes drauchklatschen und zweiten controller bzw. arm cpu aka hw decompressor.

Im zweiten pcie 16x slot kommt ne Physi... Raytacing Addon Karte rein, ggf. hier die SSD anbringen? Was ist daran so abwegig. :biggrin:

Platos
2020-05-20, 20:11:06
Im zweiten pcie 16x slot kommt ne Physi... Raytacing Addon Karte rein, ggf. hier die SSD anbringen? Was ist daran so abwegig. :biggrin:

Du machst mich fertig :D Träum mal weiter, wenn du denkst, dass AMD das bei Consumerkarten macht. Dadurch kostet die Karte mal fix ein paar hundert mehr.

Aber ich nehme mal an, so ernst meinst du das ganze nicht.

Zossel
2020-05-20, 20:37:20
Der Quatsch mit Windows und Patches funktioniert nun mal so nicht wenn die GPU Speicher direkt adressieren kann. Da ist kein OS beteiligt, solange die GPU die Ergebnisse nicht in das System für die CPU übermittelt zur Bilddarstellung.

Kannst du das bitte etwas ausführlicher ausführen, ich kann das nicht richtig nachvollziehen.

While the user will be able to tweak some things with this storage, like how it’s used, it’s not going to be user-accessible from the standpoint of double-clicking on a drive in your “This PC” window. It will be internal memory that’s managed entirely in hardware.

Das von mir verlinkte PDF von AMD zeigt die SSDs allerdings als Windows Laufwerke.

Complicated
2020-05-20, 22:03:06
Das dient lediglich der Adreßverwaltung und Bekanntmachung zum OS. Da ein unified memory besteht, sind keine Transfers zwischen GPU und CPU nötig (Zero-Copy/Pointers), sondern der jeweilige Prozessor liest und schreibt direkt an den entsprechenden Speicherort (atomic read/write/modify).
Spezifikationen hier. (http://www.hsafoundation.com/html_spec111/HSA_Library.htm#SysArch/Topics/SysArch_title_page.htm%3FTocPath%3DHSA%2520Platform%2520System%2520Architecture% 2520Specification%2520Version%25201.1%2520%7C_____0)
Quellen um sich damit einzulesen kann ich dir nennen:
https://genzconsortium.org/wp-content/uploads/2018/05/20170303_Gen-Z-DRAM-and-SCM-Overview.pdf
https://genzconsortium.org/wp-content/uploads/2018/05/20170303_Gen-Z-DRAM-and-SCM-Overview.pdf

Hier die Basis -Informationen damals vor 7 Jahren als Slideshow einfach beschrieben vom Konzept her:
http://www.planet3dnow.de/cms/1291-amd-prasentiert-hsa-details-auf-der-hotchips-25/

BoMbY
2020-05-21, 14:01:14
Ja ok, AMD designt eine (zusätzliche) 16 PCI-E Schnittstelle auf der GPU (dessen 16 Lanes dann auch noch an der GPU natürlich angebunden werden müssen, nicht nur auf der Platine) und das mit einer 32GB/s SSD.

Und 50TB pro Tag? Wie lange soll das halten? Ein halbes Jahr? Und dann auch noch eine 100GB SSD ?

Sag mal, was rauchst du ? :D

Im einfachsten Fall nutzt man eine PCIe-Switch, welcher ehh schon manchmal verbaut wurde, abgesehen davon gibt es ja zum Beispiel auch schon jetzt Karten mit zusätzlichem Infinity Fabric Link welcher vermutlich auch anders gemuxed werden kann.

Abgesehen davon hat AMD bereits die AMD Radeon Pro SSG mit 2 NVMe Laufwerken verkauft. Und wenigstens eine der neuen Konsolen sieht das auch wohl vor wenn ich das richtig im Kopf habe.

Und die Haltbarkeit sollte kein Problem sein da solche Schreibraten unrealistisch sind, der Speicher wird wohl hauptsächlich für Sachen verwendet die öfter gelesen als geschrieben werden.

Platos
2020-05-21, 15:23:01
Ja, die AMD Radeon Pro SSG kostet ~5000 Euro (Anfangs 7000$)... Und seit wann ist eine Konsole eine Consumergrafikkarte?

Leonidas
2020-05-22, 08:51:03
Nächste Grafikkarten-Generationen von AMD & nVidia im September (lt. DigiTimes):
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-21-mai-2020

BlacKi
2020-05-23, 11:04:49
neue leaks

ein neuer chip, genau wie bei navi10 breit gefächert in den markt geschickt.
https://hardwareleaks.com/wp-content/uploads/2020/05/Screen-Shot-2020-05-22-at-22.59.18-768x312.png

https://hardwareleaks.com/2020/05/23/exclusive-future-amd-gpu-stack-navi21-navi10-refresh/

horn 12
2020-05-23, 13:42:45
XTX klingt schon mal nicht sooo toll
Hoher Verbrauch und wohl Wassergekühlt
Gut möglich, oder ?

OgrEGT
2020-05-23, 15:26:33
XTX klingt schon mal nicht sooo toll
Hoher Verbrauch und wohl Wassergekühlt
Gut möglich, oder ?

Warum?
"XTX" ist ein klassisches von ATI/AMD genutztes Suffix.
"Ti" heißt ja auch nicht automatisch hoher Verbrauch, sondern weißt auf ein gewisses Peformance Segment hin.

Zudem sind die Navi 1x GPUs eigentlich sehr effizient.

BlacKi
2020-05-23, 15:33:14
n21Xe mit 8gb gddr6?

Ghost1nTh3GPU
2020-05-23, 15:35:00
Die letzte XTX als Produktbezeichnung war die X1950XTX. Seit dem ist es intern das Kürzel der besten Chipvariante.

Nach dem AMD nun auch auf Dual-Fan setzen will, braucht es keine Wasserkühlung.

Ausser Navi2 und Ampere kreuzen die Schwerter bei >>300W. Return of "Ultra Extreme" VS "XT Platinum Edition" ;D

BlacKi
2020-05-23, 15:54:23
dual und tripple wenn ich richtig gelesen habe.

Dampf
2020-05-23, 15:54:53
n21Xe mit 8gb gddr6?

Die 5600XT hat 6 GB. Wenn similar also ähnlich in Performance und Ausstattung bedeutet, dann hat die 6600XT ebenfalls 6 GB. Gleiches gilt dann natürlich auch für die anderen Karten, die werden dann 8 GB haben.

BlacKi
2020-05-23, 16:00:54
ich denke n21 wird 384bit SI haben. 256bit ist ausgeschlossen. das wäre viel zu SI limitiert. ist HBM immernoch im rennen hier im Spek. fred?

amdfanuwe
2020-05-23, 16:09:06
Das similar bezieht sich nur auf die Abstufungen der Karten untereinander mit Differenzierung in der CU Anzahl.
Mit 80/76CU für die XTX und XT Variante wären 6GB für die XE Variante, die noch wesentlich schneller als eine 7700XT wird, schon peinlich. 8GB wie bei der 2080Super sollten es schon minimum sein.

Odal
2020-05-23, 16:40:16
Scheint so als sei der richtige HighEnd Chip nur ein Mythos / gestorben, und es kommt 5700 + X Nachfolger. Find ich persönlich ja gut.

Gipsel
2020-05-23, 17:03:12
Die 5600XT hat 6 GB. Wenn similar also ähnlich in Performance und Ausstattung bedeutet, dann hat die 6600XT ebenfalls 6 GB. Gleiches gilt dann natürlich auch für die anderen Karten, die werden dann 8 GB haben.
Scheint so als sei der richtige HighEnd Chip nur ein Mythos / gestorben, und es kommt 5700 + X Nachfolger. Find ich persönlich ja gut.Das Ding hat nach der Meldung doppelt so viele CUs und ist doppelt so groß wie Navi10 (was nicht heißt, daß das Alles stimmt, da die Die-Größe auch schon für Arcturus genannt wurde). Denkt doch mal nach!

mboeller
2020-05-23, 17:20:05
Das Ding hat nach der Meldung doppelt so viele CUs und ist doppelt so groß wie Navi10 (was nicht heißt, daß das Alles stimmt, da die Die-Größe auch schon für Arcturus genannt wurde). Denkt doch mal nach!

Die haben halt so wie ich nur die Tabelle gesehen und nicht den Text gelesen


Navi21


Up to 80 compute units/5120 GPU cores
A die size of around 505mm²
50% better performance per watt

mironicus
2020-05-23, 17:26:52
5700XT*2 und vielleicht >2100 MHz.
+ IPC-Steigerung?

Wie viel % schneller wäre das als eine RTX 2080 Ti?

BlacKi
2020-05-23, 18:00:05
5700XT*2 und vielleicht >2100 MHz.
+ IPC-Steigerung?

Wie viel % schneller wäre das als eine RTX 2080 Ti?
selbst mit 16gbps gddr6 mit 384bit würde die rechenleistung verhungern. man muss immer das mögliche SI mit einbeziehen. da das SI dann nur maximal 50-65% schneller wäre, würde ich die leistung eher bei 1,7-1,9x von einer 5700xt sehen. also 15-30% schneller als eine 2080ti.

mit 512bit SI oder HBM könnte das auch deutlich mehr sein. zumindest ohne DLSS:devil:

Linmoum
2020-05-23, 18:04:07
5700XT*2 und vielleicht >2100 MHz.
+ IPC-Steigerung?

Wie viel % schneller wäre das als eine RTX 2080 Ti?
Such dir was aus. Doppelte CUs, mehr Bandbreite, höherer Takt, etwaige IPC-Steigerungen. Gegebenenfalls Features, die auch mal funktionieren. :cool:

Eine 2080Ti liegt in UHD rund 50-60% vor einer 5700XT.

Berniyh
2020-05-23, 18:08:01
Also ich bin bei diesem "Leak" sehr skeptisch.
Im Grunde wirkt es auf mich so als hätte einer die bislang bekannten Infos (dazu gehört auch die PCI ID) genommen und auf Basis der letzten Produktnamen sich was neues zusammen gereimt.

Zumal es etwas mit den letzten Leaks clasht, denn wenn AMD wirklich drei Chips mit genannter Abstufung (High End, Mainstream, Lower Mainstream) auf Basis von Navi2x anbietet, dann macht in meinen Augen eine Navi21 XE (also 6600XE o.ä.) einfach keinen Sinn.
Diese Aufgabe hätte Navi22 zu erfüllen und wäre dabei angesichts der Chipgröße auch günstiger.

Ne, ich glaube das was hardwareleaks hier veröffentlicht hat ist – abgesehen von dem bereits bekannten Anteil – erfunden.
Und der Vergleich zwischen einem Big Navi und Navi10 ist sowieso auch hanebüchen.
ich denke n21 wird 384bit SI haben. 256bit ist ausgeschlossen. das wäre viel zu SI limitiert. ist HBM immernoch im rennen hier im Spek. fred?
Mir wäre nicht bekannt, dass es zu Navi2x hier irgendwelche Infos gibt.
Das Einzige was es meines Wissens gibt ist eben diese Aussage von AMD von vor einigen Jahren, dass man HBM2 im Consumerbereich nicht mehr anbieten will.
Navi12 scheint zwar HBM2 zu unterstützen, aber ok, der Chip hat es ja auch nicht in den Consumerbereich geschafft.

HOT
2020-05-23, 18:12:45
Das sind doch nur die PCI-IDs, die hat einfach jemand sinnvoll zugeordnet. Mit N10 gab es ähnlich viele IDs, deswegen der Vergleich. Mir kommt das alles sehr plausibel vor.

Ich glaub, das kann man wirklich fast so festzurren mittlerweile:

N21XT -> 5120 Shader (80CUs), 505mm², 16GB HBM2E 2,8-3,2GHz, ca. 220W Chip-TDP, um die 2GHz Takt

Ravenhearth
2020-05-23, 18:17:59
Ich hoffe, dass Navi21 mit 512 Bit und 16 GB (GDDR6) erscheint, AMD also richtig auf die Kacke haut. Schließlich hatte die Radeon VII auch schon 16GB und Big Navi wird wesentlich schneller, alles andere wäre schon enttäuschend. Auch braucht man genug Bandbreite, um die 80 CUs zu füttern, insbesondere mit Raytracing. Und man hätte einen Vorteil gegenüber Nvidia, falls sich die Gerüchte bewahrheiten, dass die 3080 Ti nur 12GB bekommt. Leistungsmäßig könnte es zwischen den beiden ein Kopf-an-Kopf-Rennen geben. Erinnert hat Hawaii vs. GK110.

Das sind doch nur die PCI-IDs, die hat einfach jemand sinnvoll zugeordnet. Mit N10 gab es ähnlich viele IDs, deswegen der Vergleich. Mir kommt das alles sehr plausibel vor.

Ich glaub, das kann man wirklich fast so festzurren mittlerweile:

N21XT -> 5120 Shader (80CUs), 505mm², 16GB HBM2E 2,8-3,2GHz, ca. 220W Chip-TDP, um die 2GHz Takt
Die 505mm² könnten auch von Arcturus sein, und an HBM glaube ich nicht. Ansonsten stimm ich dir zu.

[MK2]Mythos
2020-05-23, 18:21:05
Ich denke auch dass der Chip wieder mit HBM kommt, ansonsten würde er bei den Specs doch komplett an Speichernandbreite verhungern?

Berniyh
2020-05-23, 18:22:56
Das sind doch nur die PCI-IDs, die hat einfach jemand sinnvoll zugeordnet. Mit N10 gab es ähnlich viele IDs, deswegen der Vergleich. Mir kommt das alles sehr plausibel vor.
Die waren vorher schon bekannt und es gibt auch bei Navi10 mehr IDs als genutzt werden.
Gerade für solche Experimente wie die 5600XT, welche sicherlich nicht von Anfang an geplant war.
Zumal hier nur eine ID genannt ist, nämlich 731F. Navi21 geht aber von 7310 bis 731F.
Ich hoffe, dass Navi21 mit 512 Bit und 16 GB (GDDR6) erscheint, AMD also richtig auf die Kacke haut.
Bevor man das macht nimmt man sicherlich doch eher wieder HBM2.

HOT
2020-05-23, 18:26:27
[...]


Die 505mm² könnten auch von Arcturus sein, und an HBM glaube ich nicht. Ansonsten stimm ich dir zu.
Glaub ich nicht. Arctururs ist mMn 600-800mm² groß. Das wird mit Vega nichts mehr zu tun haben, außer dem Befehlssatz und da wirds soviel Caches und Zusatzeinheiten und I/O geben, dass das Ding total aufgeblasen wird. V20 hatte schon 330mm², Arcturus wird weit mehr als doppelt so groß ausfallen mMn.

Lehdro
2020-05-23, 18:27:23
Zumal es etwas mit den letzten Leaks clasht, denn wenn AMD wirklich drei Chips mit genannter Abstufung (High End, Mainstream, Lower Mainstream) auf Basis von Navi2x anbietet, dann macht in meinen Augen eine Navi21 XE (also 6600XE o.ä.) einfach keinen Sinn.
Ja, weil du den Fehler machst und aus den genannten Abstufungen die Performance -> Mittelklasse herleiten willst.

Das kann genauso gut eine 6900XT, 6850XT und eine 6800XT sein. Oder 6900XT, 6900 und 6800XT. Oder, oder oder.
Dass der Big Chip 3 mal verwurstet wird im Portfolio ist nun echt nichts ungewöhnliches und ist so schon ziemlich häufig vorgekommen: Z.B. HD 7970, HD 7950 und "HD 7930" -> HD 7870 Tahiti LE. Die Navi 10 wurde dort nur als Beispiel zur Abstufung genommen weil es halt bekannt ist, vorher war eine zeitlang nur eine zweifache Verwendung aktuell (R9 290 + R9 290X etc).

Odal
2020-05-23, 18:37:29
Das Ding hat nach der Meldung doppelt so viele CUs und ist doppelt so groß wie Navi10 (was nicht heißt, daß das Alles stimmt, da die Die-Größe auch schon für Arcturus genannt wurde). Denkt doch mal nach!
Die haben halt so wie ich nur die Tabelle gesehen und nicht den Text gelesen

Ich hab sehr wohl den Text gelesen. Von der Fläche und somit den ALUs wird einiges für die Realisierung von Raytracing entfallen, und beim Rest würde ich mal von +60% Mehrleistung ausgehen, was ein üblicher Nachfolger 5700XT sein dürfte der ein bisschen Richtung davon gezogener Konkurenz gedrückt wurde.
Es sollte aber ein Stück entfernt von einer potentiellen 3080-TI sein und somit kein Highend.

HOT
2020-05-23, 18:38:47
5120 Shader mit 2GHz? Das muss die 3080Ti erst mal packen. Das wird zwar klappen, aber insgesamt wird das dieses mal eher knapp ausfallen mMn. Interessant ist da eher, wie die unterschiedlichen Ansätze bei RT dann letztendlich in der Anwendung ausfallen beispielsweise.

Berniyh
2020-05-23, 18:41:33
Ja, weil du den Fehler machst und aus den genannten Abstufungen die Performance -> Mittelklasse herleiten willst.

Das kann genauso gut eine 6900XT, 6850XT und eine 6800XT sein. Oder 6900XT, 6900 und 6800XT. Oder, oder oder.
Dass der Big Chip 3 mal verwurstet wird im Portfolio ist nun echt nichts ungewöhnliches und ist so schon ziemlich häufig vorgekommen: Z.B. HD 7970, HD 7950 und "HD 7930" -> HD 7870 Tahiti LE. Die Navi 10 wurde dort nur als Beispiel zur Abstufung genommen weil es halt bekannt ist, vorher war eine zeitlang nur eine zweifache Verwendung aktuell (R9 290 + R9 290X etc).
Du hast mich falsch verstanden. Mit 3 Chips meinte ich Navi21, 22 und 23.

Die Aussage war: warum brauche ich eine vierte Navi21 Variante, wenn ich noch zwei kleinere Chips in der Hinterhand habe? Macht meiner Meinung nach einfach keinen Sinn.

Eine 3 Navi21 + 3 Navi22 + 2-3 Navi23 Aufstellung mag ich noch halbwegs glauben, aber sowas wie 4 + 3 + 2 erscheint mir suspekt.
Und wie gesagt, außer dem Übertrag der Namen von Navi10 auf Navi21 ist in diesem Leak praktisch nichts neues enthalten.

HOT
2020-05-23, 18:44:43
War bei Tahiti auch so. Man braucht das beispielsweise, wenn man viele Salvage-Parts hat, die mehr kaputt sind als die XL-Variante. Ist doch einfach - und ziemlich wahrscheinlich bei 505mm².

Berniyh
2020-05-23, 18:49:41
War bei Tahiti auch so. Man braucht das beispielsweise, wenn man viele Salvage-Parts hat, die mehr kaputt sind als die XL-Variante. Ist doch einfach - und ziemlich wahrscheinlich bei 505mm².
Ich will auch nicht sagen, dass das komplett ausgeschlossen ist, aber ich bin halt sehr skeptisch bei diesem Leak. Das hätte sich problemlos einfach jemand ausdenken können auf Basis der verfügbaren Daten.

|MatMan|
2020-05-23, 18:53:30
5120 Shader mit 2GHz? Das muss die 3080Ti erst mal packen. Das wird zwar klappen, aber insgesamt wird das dieses mal eher knapp ausfallen mMn. Interessant ist da eher, wie die unterschiedlichen Ansätze bei RT dann letztendlich in der Anwendung ausfallen beispielsweise.
Typische HOT-Prognose - extrem optimistisch für AMD, aber der Konkurrenz nix zutrauen. Für uns Konsumenten und den Markt wäre es super, naja wobei AMD in letzter Zeit einfach nVidia's Preisniveau mitgeht, aber immerhin könnte man wählen...

Ex3cut3r
2020-05-23, 19:07:56
Jajaja, bei der Vega 64 hätte es ja auch alles so schön werden können. Navi halte ich zwar insgesamt für eine gute/richtige Architektur, trotzdem bleibe ich bei AMD immer skeptisch.

basix
2020-05-23, 19:15:13
Jajaja, bei der Vega 64 hätte es ja auch alles so schön werden können. Navi halte ich zwar insgesamt für eine gute/richtige Architektur, trotzdem bleibe ich bei AMD immer skeptisch.

Die Indizien sind aber deutlich positiver als bei Vega. Was war vor Vega? Polaris. Der hat die hohen Erwartungen damals nicht erfüllt. War zwar dann dennoch ein Erfolg für AMD (4 Jahre Lebensdauer, Mining Boom, günstig zu produzieren).

Heute haben wir mit RDNA und Renoir zwei Beispiele mit sehr guten Fortschritten. Beide Male AMDs Vorgaben und Aussagen sogar übertroffen. Wenn man das mit der 1.5x Steigerung der Energieeffizienz für RDNA2 verknüpft, sollte 2x 5700 XT bei 300W machbar sein. Wenn wir Glück haben sogar etwas mehr Leistung und/oder etwas weniger Stromverbrauch. Die NextGen Konsolen bieten ebenfalls ein Indiz für hohe Leistung, nur wissen wir dort den Stromverbrauch noch nicht.

Momentan vermute ich einen kleinen Vorsprung für Nvidia was Energieeffizienz angeht (Ampere vs. RDNA2). Das wäre aber dennoch ein riesen Schritt und Erfolg für AMD, da Technologieparität auf Seiten Herstellprozess.

Linmoum
2020-05-23, 19:21:48
Jajaja, bei der Vega 64 hätte es ja auch alles so schön werden können.
Im Vergleich zu damals Vega mit GCN hat man jetzt aber mit RDNA eine Grundlage, wo bereits ein 40CU-Chip mit dem einstigen 64CU-Flagschiff den Boden aufwischt. Und das deutlich.

Die Vorzeichen sind komplett andere und wenn sie bei RDNA2 einen ähnlich großen Sprung hinlegen (was nach eigenen Angaben ja bei Perf/Watt schon der Fall zu sein scheint), dann ist da sehr viel möglich.

Ravenhearth
2020-05-23, 19:25:38
Die Indizien sind aber deutlich positiver als bei Vega. Was war vor Vega? Polaris. Der hat die hohen Erwartungen damals nicht erfüllt. War zwar dann dennoch ein Erfolg für AMD (4 Jahre Lebensdauer, Mining Boom, günstig zu produzieren).

Heute haben wir mit RDNA und Renoir zwei Beispiele mit sehr guten Fortschritten. Beide Male AMDs Vorgaben und Aussagen sogar übertroffen. Wenn man das mit der 1.5x Steigerung der Energieeffizienz für RDNA2 verknüpft, sollte 2x 5700 XT bei 300W machbar sein. Wenn wir Glück haben sogar etwas mehr Leistung und/oder etwas weniger Stromverbrauch. Die NextGen Konsolen bieten ebenfalls ein Indiz für hohe Leistung, nur wissen wir dort den Stromverbrauch noch nicht.

Momentan vermute ich einen kleinen Vorsprung für Nvidia was Energieeffizienz angeht (Ampere vs. RDNA2). Das wäre aber dennoch ein riesen Schritt und Erfolg für AMD, da Technologieparität auf Seiten Herstellprozess.
Denke ich auch. Ampere und RDNA 2 könnten beide ~30-40% über der 2080 Ti herauskommen, Ampere mit ~250W und RDNA2 mit ~300W.

Daredevil
2020-05-23, 19:27:24
Wäre Vega nicht Vega gewesen sondern RDNA, hätte das Mining nicht so viel Geld reingespült, insofern war Vega schon sehr gut für AMD, nur halt okay für Gamer.

Wenn AMD HBM reinknallt, wäre das für Miner ganz gut, so als Backup zum Gaming. :)

gedi
2020-05-23, 19:35:33
Die Indizien sind aber deutlich positiver als bei Vega. Was war vor Vega? Polaris. Der hat die hohen Erwartungen damals nicht erfüllt. War zwar dann dennoch ein Erfolg für AMD (4 Jahre Lebensdauer, Mining Boom, günstig zu produzieren).

Heute haben wir mit RDNA und Renoir zwei Beispiele mit sehr guten Fortschritten. Beide Male AMDs Vorgaben und Aussagen sogar übertroffen. Wenn man das mit der 1.5x Steigerung der Energieeffizienz für RDNA2 verknüpft, sollte 2x 5700 XT bei 300W machbar sein. Wenn wir Glück haben sogar etwas mehr Leistung und/oder etwas weniger Stromverbrauch. Die NextGen Konsolen bieten ebenfalls ein Indiz für hohe Leistung, nur wissen wir dort den Stromverbrauch noch nicht.

Momentan vermute ich einen kleinen Vorsprung für Nvidia was Energieeffizienz angeht (Ampere vs. RDNA2). Das wäre aber dennoch ein riesen Schritt und Erfolg für AMD, da Technologieparität auf Seiten Herstellprozess.



Ich glaube Nextgen NV ist im Vergleich zu RDNA2 ne Niete. Ich denke sonst wäre das Ding längst draußen. Corona vorzuschieben-meh. Auch wenn es andere nicht glauben wollen, aber von Lisa selbst bestätigt wurde, ist RDNA2 effizient und hat hat mit Vega nix mehr am Hut. Wie beim R300 auch, the Game has changed

Linmoum
2020-05-23, 19:46:59
Naja, nicht unbedingt.

GM204 -> GP104 waren 20 Monate (Sep 2014 - Mai 2016)
GP104 -> TU104 waren 28 Monate (Mai 2016 - Sep 2018)
TU104 -> GA104 wären 24 Monate (Sep 2018 - Sep 2020), falls die Meldung von Digitimes stimmt.

Das passt schon zu 'nem normalen Produktzyklus und muss nichts heißen.

Der_Korken
2020-05-23, 20:04:08
Ich hoffe, dass Navi21 mit 512 Bit und 16 GB (GDDR6) erscheint, AMD also richtig auf die Kacke haut.

Ich hoffe es nicht, denn das ging immer in die Hose: R600, Fiji, Vega. Die wahren Gewinner waren die kleineren, effizienteren Chips, wie RV770, RV870, Pitcairn. Auch dass Renoir nur mit 8CUs kam und trotzdem den Vorgänger zersägt, passt da gut ins Schema. Bevor wir 512bit SI sehen, wird AMD lieber HBM2 bringen, weil es einfach effizienter ist und mehr Spielraum für die CUs lässt. 80 CUs, die dann jeweils noch 20% höher takten und noch mehr IPC haben und damit 2,5x so schnell wie N10 sein sollen, klingt für mich auch nicht plausibel. Wie soll das verbrauchstechnisch gehen? 225W*2,5/1,5 = 375W. Da glaube ich schon eher, dass AMD uns mit einem überraschend schlanken und effizienten Design überrascht, z.B. 64 CUs mit 2,2Ghz (PS5-Takt), gepaart mit nur 256bit SI und 16GB VRAM, dafür aber ein fetter Cache (16 oder 32MB), um viele VRAM-Zugriffe zu puffern. An den Pseudo-Dieshots von N10 sieht man, dass die GDDR6-PHYs extrem viel Platz brauchen, da könnte es nicht nur Strom und Leitungen sondern auch Diespace sparen, stattdessen mehr Cache zu verbauen (sofern das als Kompensation reicht).

BlacKi
2020-05-23, 20:07:11
muss man big navi mit ga102 vergleichen? reicht es nicht das man preisleistungstechnisch paroli bieten können wird? denn:

keiner nimmt dlss in den mund. egal wie schnell big navi ist, es wird nie genug sein. selbst wenn enthusiasten lieber nativ spielen, 90% entscheiden sich eh für dlss. ich seh schon die leute cyberpunk benchmarkwerte mit ner 3060 posten, die sich über big navi lustig machen.

Ravenhearth
2020-05-23, 20:11:11
R600, Fiji und Vega hatten aber alle das Problem, dass AMDs damalige Architektur nicht so effizient war wie die Konkurrenz und bei den letzten beiden auch die Skalierung suboptimal war. Mit RDNA2 hat man diese Probleme wohl nicht. Deswegen erinnert mich das auch eher an Hawaii, der zu dem Zeitpunkt AMDs größte GPU war. Ging also nicht immer in die Hose. ;)

Linmoum
2020-05-23, 20:17:53
keiner nimmt dlss in den mund. egal wie schnell big navi ist, es wird nie genug sein. selbst wenn enthusiasten lieber nativ spielen, 90% entscheiden sich eh für dlss. ich seh schon die leute cyberpunk benchmarkwerte mit ner 3060 posten, die sich über big navi lustig machen.Wie soll man sich für DLSS entscheiden, wenn erst bei gefühlten fünf Spielen (oder sind es schon mehr?) das Gesamtpaket - dank 2.0 - stimmt? Die Verbreitung und Qualität (in Verbindung mit der Performance) ist ein noch größeres Desaster als Raytracing bisher in den mehr als eineinhalb Jahren.

Um sich über irgendwas lustig zu machen, braucht es die Verbreitung flächendeckend und nicht nur in 5% (ok, vielleicht eher 0,5%) der Spiele. Der Rest wird auch weiterhin auf klassischem Wege Performance benötigen.

Der_Korken
2020-05-23, 20:20:39
R600, Fiji und Vega hatten aber alle das Problem, dass AMDs damalige Architektur nicht so effizient war wie die Konkurrenz und bei den letzten beiden auch die Skalierung suboptimal war. Mit RDNA2 hat man diese Probleme wohl nicht. Deswegen erinnert mich das auch eher an Hawaii, der zu dem Zeitpunkt AMDs größte GPU war. Ging also nicht immer in die Hose. ;)

Vielleicht war die Architektur nicht so effizient weil die Chips groß waren? Skalierung war sicherlich ein Problem, wenn man sich anschaut wie wenig Tahiti gegenüber Pitcairn oder Fiji gegenüber Hawaii rausgeholt haben. Ob RDNA gut skaliert wissen wir noch gar nicht, weil es oberhalb von 40CUs keine GPU auf dessen Basis gibt. Ich würde lieber nicht so hoch stapeln. Wenn AMD auf 1,7-18x N10-Leistung kommt mit max. 250W Verbrauch und <=350mm² wäre das gut (und teuer) genug.

Dampf
2020-05-23, 20:24:57
Wie soll man sich für DLSS entscheiden, wenn erst bei gefühlten fünf Spielen (oder sind es schon mehr?) das Gesamtpaket - dank 2.0 - stimmt? Die Verbreitung und Qualität (in Verbindung mit der Performance) ist ein noch größeres Desaster als Raytracing bisher in den mehr als eineinhalb Jahren.

Um sich über irgendwas lustig zu machen, braucht es die Verbreitung flächendeckend und nicht nur in 5% (ok, vielleicht eher 0,5%) der Spiele. Der Rest wird auch weiterhin auf klassischem Wege Performance benötigen.

Seh ich auch so, DLSS ist derzeit noch keine Gefahr für AMD. Dafür ist die Verbreitung viel zu gering. Bei RDNA3 sollten sie sich allerdings Gedanken machen.

Ravenhearth
2020-05-23, 20:33:38
Vielleicht war die Architektur nicht so effizient weil die Chips groß waren? Skalierung war sicherlich ein Problem, wenn man sich anschaut wie wenig Tahiti gegenüber Pitcairn oder Fiji gegenüber Hawaii rausgeholt haben. Ob RDNA gut skaliert wissen wir noch gar nicht, weil es oberhalb von 40CUs keine GPU auf dessen Basis gibt. Ich würde lieber nicht so hoch stapeln. Wenn AMD auf 1,7-18x N10-Leistung kommt mit max. 250W Verbrauch und <=350mm² wäre das gut (und teuer) genug.
Naja, bspw. Polaris ist jetzt auch nicht wirklich effizienter (https://www.3dcenter.org/dateien/abbildungen/Grafikkarten-FullHD-Performance-Verbrauch-Index-Maerz-2020.png) als Vega, obwohl er deutlich kleiner ist. Seit Maxwell hatte GCN einfach grundlegend einen zu hohen Verbrauch gegenüber Nvidias Architekturen.
Ja, auch wenn wir noch nicht wissen, wie gut Navi wirklich skaliert, ist die technische Basis dennoch eine wesentlich bessere. "Scalability" war mit das erste, was AMD über Navi verraten hat.
Warum denn <=350mm²? Das finde nun wieder sehr optimistisch für einen Chip mit womöglich 80 CUs, aber selbst für 64 CUs könnte das knapp werden. Navi10 hat 250mm².

mboeller
2020-05-23, 20:38:31
Ich hab sehr wohl den Text gelesen. Von der Fläche und somit den ALUs wird einiges für die Realisierung von Raytracing entfallen, und beim Rest würde ich mal von +60% Mehrleistung ausgehen, was ein üblicher Nachfolger 5700XT sein dürfte der ein bisschen Richtung davon gezogener Konkurenz gedrückt wurde.
Es sollte aber ein Stück entfernt von einer potentiellen 3080-TI sein und somit kein Highend.


Wieso?

der neue XBox SoC hat 360mm² incl. 8Core CPU, 56CU (4 CU sind Reserve) und 320bit Speicherinterface. Die CPU braucht ca. 40mm²

80/56 x 320 = 457mm² ... und dabei würde der UnCore sogar gleich mitwachsen, nicht nur die CUs. Sollte also noch für 512bit reichen.

Raytracing braucht anscheinend nur wenig mm²

Berniyh
2020-05-23, 20:47:42
R600, Fiji und Vega hatten aber alle das Problem, dass AMDs damalige Architektur nicht so effizient war wie die Konkurrenz und bei den letzten beiden auch die Skalierung suboptimal war. Mit RDNA2 hat man diese Probleme wohl nicht. Deswegen erinnert mich das auch eher an Hawaii, der zu dem Zeitpunkt AMDs größte GPU war. Ging also nicht immer in die Hose. ;)
Vega ist im Grunde eigentlich gar nicht soooo ineffizient, wenn am korrekten Betriebspunkt betrieben und, wenn für den richtigen Anwendungszweck eingesetzt.

Nur für Spiele musste man die Karte halt hochprügeln um halbwegs mitzuhalten, da die Spiele nicht einfach dafür zu optimieren waren (bzw. gar nicht optimiert wurden).

BlacKi
2020-05-23, 21:13:38
Vega ist im Grunde eigentlich gar nicht soooo ineffizient, wenn am korrekten Betriebspunkt betrieben und, wenn für den richtigen Anwendungszweck eingesetzt.
welche karte ist das nicht? die 1080ti ist kleiner und "nur" im 16nm prozess hat keinen hbm vorteil beim verbrauch und hat das bessere perf/watt verhältniss am optimalen betriebspunkt. lediglich beim preis hat/hatte sie einen nachteil.

leider ist das nur OT.

Um sich über irgendwas lustig zu machen, braucht es die Verbreitung flächendeckend und nicht nur in 5% (ok, vielleicht eher 0,5%) der Spiele.
danke für die predikt des akutellen stands, deshalb hab ich auch cyberpunk angeführt und freiräume für andersdenkende eingeräumt(10%). mit den kommenden spielen kann der anteil nur steigen. und in den benchmark parkours von ende20 und 21 werden mindestens 50% der spiele dlss unterstützen.

isch habe fertig

Ex3cut3r
2020-05-23, 21:44:27
Cyberpunk ist aber das kommende jeder haben will Game, und das wird Stand jetzt vollen Nvidia Support mit RTX, DLSS und Co. bekommen. Deswegen ist Blackis Gedanke gar nicht so unrealistisch.

Ich bleibe weiterhin skeptisch, es wäre schön für alle, wenn Big Navi die 3080 Ti erreichen kann, ich glaube eher dass Sie sich mit der 3080 non Ti wenn nicht gar mit der 3070 rumschlagen wird. Und die Ti ist wieder auf weiter Front alleine unterwegs.

Es ist ja allgemein bekannt, dass hier im Forum von AMD viel erwartet wird, und hinterher ist dann die große Ernüchterung da, ich erwarte weniger, und lasse mich dann hoffentlich positiv überraschen.

Der_Korken
2020-05-23, 22:09:44
Naja, bspw. Polaris ist jetzt auch nicht wirklich effizienter (https://www.3dcenter.org/dateien/abbildungen/Grafikkarten-FullHD-Performance-Verbrauch-Index-Maerz-2020.png) als Vega, obwohl er deutlich kleiner ist.

Das ist ja kein Widerspruch zu meinem Post. Vega ist groß und ich glaube, dass das mit ein Grund für die Ineffizienz war. Hätte man z.B. nur 40 CUs wie bei Navi gebracht, wäre imho deutlich mehr Leistung bei rumgekommen, als der Unterschied zwischen 40 und 64 CUs impliziert. Auf den APUs scheint mir Vega relativ effizient zu sein. Das hilft natürlich nicht, wenn man Polaris nicht ersetzen, sondern durch einen Highend-Part ergänzen will, deswegen haben sie den Chip so aufgepumpt. Gebracht hat es aber imho zu wenig.

Warum denn <=350mm²? Das finde nun wieder sehr optimistisch für einen Chip mit womöglich 80 CUs, aber selbst für 64 CUs könnte das knapp werden. Navi10 hat 250mm².

Finde ich nicht. Die Packdichte von N10 ist mit ~40M/mm² extrem schlecht im Vergleich zu Renoir (>60M/mm²), obwohl letzterer auch einiges an I/O mit an Bord hat. Wenn man sich den "Die"shot von N10 anschaut, sieht man, dass allein die Memory PHYs, Display I/O und diese grünen Blöcke zwischen den PHYs, die vermutlich der IMC sind, gut 40% der Diefläche ausmachen. CUs, Cache und Frontend dagegen nur 60%. Wenn man das SI klein hält, bekäme man auch in 350mm² eine Menge unter. Sollte Nvidia die Gaming-Chips tatsächlich in 8nm bringen, könnte ein kompakter Chip von AMD durchaus für einen "RV770-Moment" sorgen und das halte ich für wahrscheinlicher, als das AMD direkt auf mehr als doppelte Performance gegenüber dem Vorgänger aufrüstet.

https://images.hothardware.com/contentimages/article/2874/content/small_navi-die.jpg

Ravenhearth
2020-05-23, 22:33:08
Das macht Sinn. Wenn man allerdings 64 CUs in 350mm² unter bekäme, wieso sollte man nicht noch ein wenig weiter gehen? Der Sprung zu 80 CUs und knapp über 400mm² wäre nicht die Welt. Und wenn die Architektur vernünftig bis 64 CUs skaliert (anders als GCN), dann sollten 80 CUs ebenso drin sein.

Der_Korken
2020-05-24, 00:31:56
Ich denke, dass die Speicheranbindung eine große Rolle spielt, wie die Chips dimensioniert werden, da dafür eine Menge Chipfläche draufgeht. Wenn man z.B. 64 CUs gut mit 256bit SI füttern kann, bräuchte man für 80 CUs entsprechend 320bit, damit das aufgeht. Damit gehen aber nur 10GB VRAM, die auf Dauer etwas knapp wären für doppelte N10-Performance oder aber 20GB, die die Karte nur unnötig teuer in der Fertigung machen. Dann wären vielleicht 384bit und 12GB besser, aber man verschenkt wieder Chipfläche durch das zu große SI.

Sunrise
2020-05-24, 00:45:48
...Sollte Nvidia die Gaming-Chips tatsächlich in 8nm bringen, könnte ein kompakter Chip von AMD durchaus für einen "RV770-Moment" sorgen und das halte ich für wahrscheinlicher, als das AMD direkt auf mehr als doppelte Performance gegenüber dem Vorgänger aufrüstet.
Genau dieser "RV670 bzw. RV770-Moment" wird ja auch angepeilt.

AMD möchte aggressiv und disruptiv auftreten, also kompakte und leistungsstarke, für den Preis sehr gute Performance vorstellen, sodass man im jeweiligen Tier/Segment NV Marktanteile abnimmt, und dafür benötigt es eine geschickte Kombination aus Größe, Leistung und Preis, mehrere SKUs und Chips, die - ähnlich N10 - auch noch gute Margen abwerfen.

Sie können da eigentlich nur gewinnen, denn NV hatte bisher in vielen Segmenten praktisch keine Konkurrenz, und dieses positive Schweigen ist auch viel besser als permanent irgendwelche Versprechungen, die nicht gehalten werden. AMD stapelt derzeit eher tief und lässt dann die Produkte für sich sprechen.

Dennoch definieren sich Gaming-GPUs ja nicht nur durch Leistung, Preis und Speicherausstattung, denn im Gaming-Markt hat sich NV z.B. mit DLSS definitiv Lob verdient, sodass ich hoffe, dass AMD da schnellstmöglich mitziehen kann. NV schläft ja nicht, da wird es kontinuierlich weitere Verbesserungen geben.

Raff
2020-05-24, 00:52:36
Ich denke, dass die Speicheranbindung eine große Rolle spielt, wie die Chips dimensioniert werden, da dafür eine Menge Chipfläche draufgeht. Wenn man z.B. 64 CUs gut mit 256bit SI füttern kann, bräuchte man für 80 CUs entsprechend 320bit, damit das aufgeht. Damit gehen aber nur 10GB VRAM, die auf Dauer etwas knapp wären für doppelte N10-Performance oder aber 20GB, die die Karte nur unnötig teuer in der Fertigung machen. Dann wären vielleicht 384bit und 12GB besser, aber man verschenkt wieder Chipfläche durch das zu große SI.

Wenn man bedenkt, wie lange es schon 6- und 8-GiByte-Grafikkarten gibt, wären 20 GiB gar nicht so verkehrt. Wir haben uns schon so sehr an die jahrelange Stagnation gewöhnt, dass das nach viel aussieht. Mit den Maßstäben von 2010 (extrapolierte Entwicklung seitdem) wären wir schon lange im Mainstream bei dieser Kapazität.

MfG
Raff

Ravenhearth
2020-05-24, 01:20:28
Ich denke, dass die Speicheranbindung eine große Rolle spielt, wie die Chips dimensioniert werden, da dafür eine Menge Chipfläche draufgeht. Wenn man z.B. 64 CUs gut mit 256bit SI füttern kann, bräuchte man für 80 CUs entsprechend 320bit, damit das aufgeht. Damit gehen aber nur 10GB VRAM, die auf Dauer etwas knapp wären für doppelte N10-Performance oder aber 20GB, die die Karte nur unnötig teuer in der Fertigung machen. Dann wären vielleicht 384bit und 12GB besser, aber man verschenkt wieder Chipfläche durch das zu große SI.
Ich bezweifle irgendwie, dass 256 Bit für 64 CUs reichen... Das sind 60% mehr CUs als bei Navi10 bei maximal 29% mehr Bandbreite (mit 18 Gbps), und Raytracing braucht viel Bandbreite. Nvidia kombiniert bei Ampere laut Gerüchten ja auch 60 SMs mit 320 Bit bzw. 48 SMs mit 256 Bit. Bei GA102 sogar 84 SMs mit 384 Bit. Und das alles mit 18 Gbps. Daher fände ich es bei AMD nicht schlecht, würden sie bei 80 CUs auf 512 Bit mit 14 Gbps gehen, damit hätten sie eine ähnliche Bandbreite wie GA102, aber mehr Speicher. Bei 64 CUs reichen wohl auch 384 Bit/14 Gbps/12GB. Und hängt die Größe des SI nicht auch von der angestrebten Speicher-Taktrate ab? Wenn das SI breiter, aber auf weniger Takt ausgelegt ist, wird es evtl. gar nicht (so viel) größer. Und die Anforderungen an das PCB etc. wären geringer.

Der_Korken
2020-05-24, 01:21:05
Wenn man bedenkt, wie lange es schon 6- und 8-GiByte-Grafikkarten gibt, wären 20 GiB gar nicht so verkehrt. Wir haben uns schon so sehr an die jahrelange Stagnation gewöhnt, dass das nach viel aussieht. Mit den Maßstäben von 2010 (extrapolierte Entwicklung seitdem) wären wir schon lange im Mainstream bei dieser Kapazität.

MfG
Raff

Das absurde ist ja, dass damit nicht wenige mehr VRAM im System hätten als normalen RAM. Ich glaube, dass AMD hier nicht vorpreschen will, denn im Moment bringen mehr als 12 GB quasi null. Ich war ja beim Test der 5600XT schon erstaunt, dass die 6GB in den meisten Fällen gereicht hat. Die Entwickler dürften sich hier nach Nvidia richten und da sieht es ja nach einer weiteren 8GB-Gen aus.

Es ist ja auch so, dass VRAM-Bedarf hauptsächlich vom Spiel abhängt und weit weniger von der Auflösung. 4K braucht gut dreimal so viel Leistung wie 1080p, aber bei weitem nicht dreimal so viel VRAM. Nichtmal doppelt so viel. Dadurch will man innerhalb einer Gen nicht eine Speicherverteilung haben wie 4/8/16GB (Lowend/Midrange/Highend), auch wenn das dem Leistungsverhältnis entsprechen mag, sondern eher sowas wie 6/8/12GB oder 8/12/16GB. Das macht es schwer den Speicherausbau auszutarieren. Meint ihr, wir sehen vielleicht die 1,5GB-Speicherchips, um z.B. einen 256bit-Chip auch mit 12GB bringen zu können statt nur mit 8GB (zuwenig) oder 16GB (zu teuer)?

Edit:

Ich bezweifle irgendwie, dass 256 Bit für 64 CUs reichen... Das sind 60% mehr CUs als bei Navi10 bei maximal 29% mehr Bandbreite (mit 18 Gbps), und Raytracing braucht viel Bandbreite. Nvidia kombiniert bei Ampere laut Gerüchten ja auch 60 SMs mit 320 Bit bzw. 48 SMs mit 256 Bit. Bei GA102 sogar 84 SMs mit 384 Bit. Und das alles mit 18 Gbps. Daher fände ich es bei AMD nicht schlecht, würden sie bei 80 CUs auf 512 Bit mit 14 Gbps gehen, damit hätten sie eine ähnliche Bandbreite wie GA102, aber mehr Speicher. Bei 64 CUs reichen wohl auch 384 Bit/14 Gbps/12GB. Und hängt die Größe des SI nicht auch von der angestrebten Speicher-Taktrate ab? Wenn das SI breiter, aber auf weniger Takt ausgelegt ist, wird es evtl. gar nicht (so viel) größer. Und die Anforderungen an das PCB etc. wären geringer.

Ich glaube 512bit SI kann man ausschließen. Wenn der Chip so viel Bandbreite braucht, baut AMD lieber zwei HBM-Stacks dran, die schaffen auch 800GB/s mit 16GB, aber machen die ganze Konstruktion wahrscheinlich 50W sparsamer. Und das ist durchaus ein Faktor, weil so ein Riesenchip mit Verbrauch bzw. Kühlbarkeit zu kämpfen haben wird. Bezüglich der Frage, ob 256bit für 64 CUs reichen: Das hängt von der Architektur ab. Sparsamkeit mit externem Traffic wird immer wichtiger für Effizienz (und somit auch für Maximalleistung) und AMD wird sicherlich versuchen mit mehr Cache oder mehr Datenlokalität den Bedarf an externer Bandbreite zu minimieren. Nvidia soll angeblich auch 40% mehr Leistung bringen ohne das SI zu vergrößern. Zum Thema Raytracing hat hier im Forum mal jemand geschrieben, dass die Datenlokalität da im Allgemeinen sehr schlecht ist und Caches deswegen wenig helfen bzw. man viel Bandbreite braucht. Allerdings wurde erwähnt, dass es Methoden gäbe (Binning, Reordering?), mit denen sich die Lokalität immens verbessern ließe.

BlacKi
2020-05-24, 01:44:30
mir ist kein beispiel bekannt das der vram der highend/enthusiast grafikkarte nicht gereicht hätte. gerade enthusiast muss immer vorangehen.

wenn 12/16gb im mark stark vertreten ist, erst dann werden die spiele entwickler das auch nutzen. solange keiner keine breite masse 16gb hat, solange wird man 16gb nicht brauchen. soll das der dauerzustand sein? was ist mit amd passiert das man das umherwerfen von vram als totschlagargument hat sein lassen? zumindest war das früher mal so zu hawaii und tahiti zeiten.

Der_Korken
2020-05-24, 01:54:26
wenn 12/16gb im mark stark vertreten ist, erst dann werden die spiele entwickler das auch nutzen. solange keiner keine breite masse 16gb hat, solange wird man 16gb nicht brauchen. soll das der dauerzustand sein? was ist mit amd passiert das man das umherwerfen von vram als totschlagargument hat sein lassen? zumindest war das früher mal so zu hawaii und tahiti zeiten.

Die Frage ist ja, ob dieser VRAM-Überfluss was gebracht hat für AMD. Wenn es nur die Marge geschmälert aber nicht die Verkaufszahlen erhöht hat, ist es nur logisch, dass AMD seine Strategie ändert. Nvidia hat immer noch die meisten Marktanteile und bestimmt somit auch zu einem großen Teil, wieviel VRAM die Spiele in max. Settings verbrauchen dürfen. Denn wenn es auf einer 2080Ti (oder bald 3080Ti) nicht läuft, läuft es nirgendwo. Ich kann mir schon vorstellen, dass AMD sich da lieber nach Nvidia richtet und erst aufrüstet, wenn Nvidia es auch tut. Für den Kunden wäre es natürlich besser, wenn AMD überall direkt 16GB draufpackt, aber die sind nunmal nicht die Heilsarmee.

Daredevil
2020-05-24, 01:55:40
Und wieso sollte VRAM auf einmal so massiv wichtig sein, während sich schwachbrüstige Konsolen davon verabschieden, weil sie anscheinend rasant schnell Daten aus der SSD hin und herschubsen?
Bis ne VII mal bis oben voll ist, ist die Karte vermutlich zu langsam für die Anwendung.

Und Lisa sagt ja auch selbst, sie gehen lieber konstant kleine aber sichere Schritte als große mit viel Risiko.
Das ist in ihrer Position halt auch wichtig, weil sie in der GPU Sparte nicht sowas entwaffnetes wie Intel gegenüber stehen haben, sondern den hier:
https://o.aolcdn.com/images/dims?quality=85&image_uri=http%3A%2F%2Fwww.blogcdn.com%2Fwww.engadget.com%2Fmedia%2F2010%2F09%2F nvidia-tattoo-09242010.jpg&client=amp-blogside-v2&signature=50bd332d0d7f108fde608439e4469bba557cf107

Ravenhearth
2020-05-24, 02:50:41
Ich glaube 512bit SI kann man ausschließen. Wenn der Chip so viel Bandbreite braucht, baut AMD lieber zwei HBM-Stacks dran, die schaffen auch 800GB/s mit 16GB, aber machen die ganze Konstruktion wahrscheinlich 50W sparsamer. Und das ist durchaus ein Faktor, weil so ein Riesenchip mit Verbrauch bzw. Kühlbarkeit zu kämpfen haben wird.
Ich weiß nicht, GA102 soll ja auch auf über 800 GB/s kommen und das mit GDDR6. Und ich frage mich, ob 384 Bit auf 18 Gbps wirklich sparsamer sind als 512 Bit mit 14 Gbps, die Taktrate erhöht den Verbrauch ja nicht unwesentlich. Klar wäre HBM beiden gegenüber sparsamer, aber wohl auch teurer. Ich denke, am Ende wird die gewünschte Speichermenge entscheiden, ob AMD ein schmaleres Interface mit mehr Takt (weniger Speicher) oder ein breiteres Interface mit weniger Takt (mehr Speicher) wählt. Ich halte beides für möglich, letzteres wäre aber schöner.

Bezüglich der Frage, ob 256bit für 64 CUs reichen: Das hängt von der Architektur ab. Sparsamkeit mit externem Traffic wird immer wichtiger für Effizienz (und somit auch für Maximalleistung) und AMD wird sicherlich versuchen mit mehr Cache oder mehr Datenlokalität den Bedarf an externer Bandbreite zu minimieren. Nvidia soll angeblich auch 40% mehr Leistung bringen ohne das SI zu vergrößern.
Wie gesagt, Nvidia geht angeblich auf 18 Gbps. Zumal GA103 mit 320 Bit durchaus auch ein etwas breiteres Interface als TU104 haben soll.

pixeljetstream
2020-05-24, 07:39:02
Die interfaces brauchen relativ gesehen mehr Platz auf dem Chip heute als früher. Daher der Kostenfaktor.

LasterCluster
2020-05-24, 10:18:19
Und wieso sollte VRAM auf einmal so massiv wichtig sein, während sich schwachbrüstige Konsolen davon verabschieden, weil sie anscheinend rasant schnell Daten aus der SSD hin und herschubsen?


Die schnelle SSD wird aber gerade dafür verwendet möglichst viel der 16GB Ram wirklich als VRAM nutzen zu können und nicht als Puffer für die lahme HDD. Es könnte also für 8GB Karten auf dem PC schnell eng werden. Unter 16GB für High-end ist nur absurd, wenn mann an die 500€+ Preise denkt. Ist ja mehr als die Konsolen kosten.

JVC
2020-05-24, 10:23:04
https://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/Support-for-PC-Xbox-Series-X-1350528/
"Nach einigen Diskussionen rund um die Technologie-Demo zur Unreal Engine 5 auf der Playstation 5 bestätigt nun Epic Games,
dass die Grafikengine auch auf der Xbox Series X und High-End-PCs voll lauffähig sein wird."

Anscheinend inklusive aller Features :up:

M.f.G. JVC

mironicus
2020-05-24, 10:23:08
Ich kann mir schon vorstellen, dass AMD mit 16 GB-Karten kommt.

Der Zeitpunkt an dem RTX 2080 Ti-Besitzer ihre alten Karten noch zu guten Preisen verkaufen können, wird knapp.

Angenommen, AMD verlangt 699 Dollar für ein Big Navi mit 16 GB, die dann tatsächlich 40% schneller ist als eine alte Ti, dann wird NVidia auch nicht mehr 1200 Euro verlangen können für ihre Nachfolgekarte. Die Zeit der Melkerei ist dann vorbei.

amdfanuwe
2020-05-24, 10:32:30
Angenommen, AMD verlangt 699 Dollar für ein Big Navi mit 16 GB, die dann tatsächlich 40% schneller ist als eine alte Ti, dann wird NVidia auch nicht mehr 1200 Euro verlangen können für ihre Nachfolgekarte. Die Zeit der Melkerei ist dann vorbei.
Angenommen AMD ist kein Sozialverein und nimmt für eine Solche Karte mehr als 1200 €uro, dann sind sie Preis/Leistung immer noch besser.

Daredevil
2020-05-24, 10:33:24
Warum sollte AMD eine 40% schnellere Karte für die Hälfte des Preises anbieten?
Um die Aktionäre zu ärgern?

Wenn AMD sowas macht, dann ( hoffentlich ) für 999€ mit HBM2, damit die VII ordentlich begraben wird.

Aber 40% ist einfach surreal, wieso sollte AMD sowas können und Nvidia nicht?
Vergiss nicht, das AMD nicht einfach ne Navi hochskalieren wird, weil irgendwo ja auch noch RT mitgetragen werden muss.

dildo4u
2020-05-24, 10:37:16
Wie kommst du auf solche Märchenwerte wenn GDDR6 das gar nicht hergibt?
Was immer AMD bringt hat weniger Bandbreite als Radeon 7.

Ghost1nTh3GPU
2020-05-24, 10:46:25
Eine 24GB GDDR6 Karte für $999 wäre doch ein nette Ansage, erst Recht wenn diese vielleicht auf Titan RTX Niveau liegt.
Wenn man sich eine 8GB RX 5500 für ~200€ anschaut, sollte das auch noch genügend Marge abwerfen.

Wenn der 14Gbps GDDR6 gegenüber 18Gbps erheblich Preisvorteile hat, kann hier AMD vielleicht die Palette deutlich besser ausstatten.

24GB - $999
20GB - $699
16GB - $499
12GB - $329

Linmoum
2020-05-24, 10:49:45
Aber 40% ist einfach surreal, wieso sollte AMD sowas können und Nvidia nicht?
Vergiss nicht, das AMD nicht einfach ne Navi hochskalieren wird, weil irgendwo ja auch noch RT mitgetragen werden muss.
Wer sagt, dass Nvidia das nicht kann (und nicht machen wird)?

Die +50 Perf/Watt ggü. RDNA waren auch völlig überraschend und das hat niemand im Ansatz erwartet, zumal N10 & Co. ja auch schon in N7P gefertigt werden.

Ich würde weder über- noch untertreiben. Aber dass man unter Berücksichtigung aller Eventualitäten auch (mehr als) doppelte 5700XT-Performance schafft, halte ich nicht für ausgeschlossen.

Berniyh
2020-05-24, 11:07:45
Ich glaube 512bit SI kann man ausschließen. Wenn der Chip so viel Bandbreite braucht, baut AMD lieber zwei HBM-Stacks dran, die schaffen auch 800GB/s mit 16GB, aber machen die ganze Konstruktion wahrscheinlich 50W sparsamer. Und das ist durchaus ein Faktor, weil so ein Riesenchip mit Verbrauch bzw. Kühlbarkeit zu kämpfen haben wird. Bezüglich der Frage, ob 256bit für 64 CUs reichen: Das hängt von der Architektur ab. Sparsamkeit mit externem Traffic wird immer wichtiger für Effizienz (und somit auch für Maximalleistung) und AMD wird sicherlich versuchen mit mehr Cache oder mehr Datenlokalität den Bedarf an externer Bandbreite zu minimieren. Nvidia soll angeblich auch 40% mehr Leistung bringen ohne das SI zu vergrößern. Zum Thema Raytracing hat hier im Forum mal jemand geschrieben, dass die Datenlokalität da im Allgemeinen sehr schlecht ist und Caches deswegen wenig helfen bzw. man viel Bandbreite braucht. Allerdings wurde erwähnt, dass es Methoden gäbe (Binning, Reordering?), mit denen sich die Lokalität immens verbessern ließe.
Jup, so sehe ich das auch.

Tatsächlich hoffe ich sogar, dass Big Navi mit 16 GB HBM2e kommt. evtl. etwas teurer, aber ich denke die Vorteile gegenüber einem 512bit GDDR6 Setup überwiegen deutlich.
Wahrscheinlicher ist vermutlich auch bei Big Navi 384bit GDDR6, aber bei 80CU (laut Gerüchten und das sind ja immerhin doppelt so viele wie bei Navi10) ist das schon arg knapp dimensioniert.

Ein 64CU Chip dagegen dürfte ziemlich sicher mit 384bit GDDR6 kommen.

Berniyh
2020-05-24, 11:10:41
Wer sagt, dass Nvidia das nicht kann (und nicht machen wird)?

Die +50 Perf/Watt ggü. RDNA waren auch völlig überraschend und das hat niemand im Ansatz erwartet, zumal N10 & Co. ja auch schon in N7P gefertigt werden.

Ich würde weder über- noch untertreiben. Aber dass man unter Berücksichtigung aller Eventualitäten auch (mehr als) doppelte 5700XT-Performance schafft, halte ich nicht für ausgeschlossen.
Klar, da hast du schon recht.

Ich denke diese Erwartungshaltung kommt hauptsächlich daher, dass AMD einen Rückstand in Sachen Gaming-Effizienz aufzuholen hat. So einen Rückstand aufzuholen ist halt schwieriger als einen großen Vorsprung zu halten (oder weiter auszubauen).
Pascal/Turing ist halt schon eine recht effiziente Gaming-Architektur. Da noch mal deutlich einen oben drauf zu setzen ist nicht unmöglch, aber auch nicht geschenkt. ;)

Sunrise
2020-05-24, 11:13:06
Einem High-End Käufer ist es im Prinzip vollkommen egal, ob er für AMD $999 oder gleich bei NV $1199 für die dicke Ti-Berta hinlegt, daher wird AMD diese Preispunkte auch bewusst ignorieren und sich im Preisbereich $599-699 bewegen, denn nur das würde wirklich einschlagen und einen Kampf um Marktanteile auslösen. AMD wird das Wort disruptiv nicht benutzt haben, wenn sie nicht auch über den Preis (Gesamtpaket zählt) gehen werden. Nur das würde viele dazu bewegen, NV trotz evtl. minimaler Mehrperformance zum fast den doppelten Preis liegen zu lassen, wenn AMD sich wieder an älteren Traditionen orientiert und Konsolen mit sehr potenter RDNA2-HW deutlich billiger sein werden, da auch hier eine gewisse Konkurrenz entsteht.

Auch bei Zen hat Intel einfach nur mal zugeschaut während AMD jetzt quasi überall (außer Takt) vorbeigerannt ist. Trotz praktisch Prozess-Parität wird das so passieren und macht dann deutlich, wie lächerlich diese Preisentwicklung ist, weil eben keine Konkurrenz da war.

Es ist für mich nur noch die Frage, ob AMD max. 12 oder 16GB anbietet, wobei ich da eher zu Letzterem tendiere, da die VII auch 16GB hatte. Die XTX hat dann das Maximum und man stuft das entsprechend der deaktivierten Einheiten ab.

Alles darüber wird IMHO zu teuer und von 20GB sollte man sich (außer bei einer Titan) bei schnellem GDDR6-Speicher denke ich verabschieden. Die Nachfrage der Konsolen wird gigantisch sein, das macht die Sache nicht billiger.

mironicus
2020-05-24, 11:15:56
Die Preise werden fallen. Eine Grafikkarte mit der Leistung einer 5700 XT wird nur noch 250-300 Euro kosten. Doppelte Leistung mit Navi 21 dann 650-750 Euro.

Ein beschnittener Big Navi mit RTX 2080 Ti-Leistung dann vielleicht für 450-500 Euro.

AMD will ja in den Massenmarkt und nicht NVidia kopieren. Die NVidia-Preise sind Monopolisten-Preise.

robbitop
2020-05-24, 11:15:58
Wobei ich mit DLSS 2.0 (und deren potenzielle Nachfolger) schon mittelfristig eine starke „Bedrohung“ sehe. Es ist zwar nicht kompromisslos - aber es steigert Performance/BQ doch schon ziemlich intensiv. Es scheint nicht extrem aufwändig zu implementieren zu sein, so dass man davon ausgehen kann, dass die Verbreitung schnell zunehmen wird. Für den Markt und den Endverbraucher kann man nur hoffen, dass AMD an etwas ähnlichem arbeitet.

Dampf
2020-05-24, 11:22:33
Naja, scheinbar ist es doch nicht so leicht zu implementieren, sonst hätten wir jetzt seit Ankündigung von DLSS 2.0 jede Woche neue DLSS Titel bekommen. Aber nun haben wir Ende Mai und es ist kein einziger DLSS Titel in Sicht, nicht mal RDR2, was von DLSS am meisten profitieren könnte.

Also nö, keine Gefahr für AMD.

BlacKi
2020-05-24, 11:25:13
Die +50 Perf/Watt ggü. RDNA waren auch völlig überraschend und das hat niemand im Ansatz erwartet, zumal N10 & Co. ja auch schon in N7P gefertigt werden.
ich hab schon weiter vorne erklärt wie man einfach 50%perf/w erhält, selbst ohne neuen prozess.

wenn die tdp schon bei 225w bei CU (5700xt) liegt, dann wird big navi mit 80cu zwangläufig eine bessere per/w haben, weil man unter 300w bleiben möchte, was man mit weniger boosttakt, durch powerlimitierung, erreicht. dann reichen auch wieder 384bit, welch ein zufall? zufall? überraschend? i dont think so.

2100mhz könnte er ja trotzdem erreichen, aber dann eben mit über 400w bei OC.

Ghost1nTh3GPU
2020-05-24, 11:25:47
Wobei ich mit DLSS 2.0 (und deren potenzielle Nachfolger) schon mittelfristig eine starke „Bedrohung“ sehe. Es ist zwar nicht kompromisslos - aber es steigert Performance/BQ doch schon ziemlich intensiv. Es scheint nicht extrem aufwändig zu implementieren zu sein, so dass man davon ausgehen kann, dass die Verbreitung schnell zunehmen wird. Für den Markt und den Endverbraucher kann man nur hoffen, dass AMD an etwas ähnlichem arbeitet.

Ich denke von Microsoft könnte da eine entsprechende Initiative kommen. Die wären bestimmt auch daran interessiert, wenn die XSX bei den Backward-Compability-Titeln vielleicht auch "8K" liefern könnte. Man hat ja schon ein DirectML Beispiel gezeigt wo man in Xbox1 Titeln HDR erzeugt hat.

robbitop
2020-05-24, 11:33:27
Naja, scheinbar ist es doch nicht so leicht zu implementieren, sonst hätten wir jetzt seit Ankündigung von DLSS 2.0 jede Woche neue DLSS Titel bekommen. Aber nun haben wir Ende Mai und es ist kein einziger DLSS Titel in Sicht, nicht mal RDR2, was von DLSS am meisten profitieren könnte.

Also nö, keine Gefahr für AMD.
Top Argument. Es ist schon seit ein paar Wochen raus und es sind nur 5(?) Spiele. X-D
Ich spreche von mittelfristig und neuen Releases. Kaum Studios investieren nach Release die Zeit/Aufwand so etwas nachzulegen. Neue Releases und mittelfristig.

mironicus
2020-05-24, 11:41:51
DLSS gibt es erst dann viel mehr, wenn Microsoft und AMD gemeinsam beschließen, es zu unterstützen. Sie nennen das Features dann aber anders. :)

Berniyh
2020-05-24, 11:42:00
Einem High-End Käufer ist es im Prinzip vollkommen egal, ob er für AMD $999 oder gleich bei NV $1199 für die dicke Ti-Berta hinlegt, daher wird AMD diese Preispunkte auch bewusst ignorieren und sich im Preisbereich $599-699 bewegen, denn nur das würde wirklich einschlagen und einen Kampf um Marktanteile auslösen.
Nette denke, aber die Preispolitik zuletzt (siehe Navi10 und Navi14 Chips) zeigt eigentlich ziemlich deutlich, dass AMD an einem Preiskampf gar nicht wirklich interessiert ist.
Dazu ist die 7nm Fertigung wohl noch zu teuer.

unl34shed
2020-05-24, 11:43:08
Wenn der 14Gbps GDDR6 gegenüber 18Gbps erheblich Preisvorteile hat, kann hier AMD vielleicht die Palette deutlich besser ausstatten.

24GB - $999
20GB - $699
16GB - $499
12GB - $329

Das Problem ist, dass du mit einem Größeren Speicher auch mehr Bandbreite haben musst, sonst kannst du damit fast nichts anfangen.
Die Aktuelle Gen hat eine Bandbreite, die es nicht mal erlaubt, dass man den gesamten Speicher bei 60FPS!!!, pro Frame komplett zu lesen (ca. 80-90% davon). Wenn man den Speicher also einfach verdoppelt liegt er nur brach.

IMO wird es einen Umbruch auf einen Flash cache auf der Graka kommen, der Vorteil sollte enorm sein. Ja mit Direct-Store arbeitet MS daran die System SSD zu nutzen, aber deren Geschwindigkeit ist nicht garantiert.

Nachladeruckler wirst du in beiden Fällen reduzieren können, mit Flash aber zu einem deutlich niedrigeren Preis/GB.

Ich bezweifel aktuell, dass man wirklich auf ein >384bit GDDR Interface gehen wird und im Consumerbereich auch nicht auf 2GB Chips setzen wird, von daher ist man auf 12GB Limitiert. Erst mit HBM wird man auf mehr Speicher kommen. Einfach aus Perf/W Sicht.

Linmoum
2020-05-24, 12:08:46
wenn die tdp schon bei 225w bei CU (5700xt) liegt, dann wird big navi mit 80cu zwangläufig eine bessere per/w haben, weil man unter 300w bleiben möchte, was man mit weniger boosttakt, durch powerlimitierung, erreicht. dann reichen auch wieder 384bit, welch ein zufall? zufall? überraschend? i dont think so.
Es geht aber nicht um "zwangsläufig bessere perf/watt", sondern um das Ausmaß und die konkreten 50%. Himmelweiter Unterschied.

Nach deiner Logik hätte eine Vega64 allerdings auch sparmsamer sein müssen als eine RX 580 - was sie aber nicht ist, sie ist sogar ineffizienter. Und da wollte AMD auch unter 300W bleiben. ;) Und selbst eine deutlich näher am Sweetspot betriebene Vega56 ist nur marginal effizienter als eine RX580. Und die Vegas hatten wohlgemerkt sparsamen HBM an Bord.

Daredevil
2020-05-24, 12:20:35
Und selbst eine deutlich näher am Sweetspot betriebene Vega56 ist nur marginal effizienter als eine RX580. Und die Vegas hatten wohlgemerkt sparsamen HBM an Bord.
Wie kommst du denn darauf?
Das ist schlicht Quatsch, Vega kann mit 100w das leisten, was eine 580 Stock hinbekommt.
Viele Einheiten und wenig Takt schnellt die Effizienz in die Höhe, siehe bei der 2080ti.

horn 12
2020-05-24, 12:21:55
RTX 2080TI Leistung 12 GB für 479 Euro
RTX 2080TI plus 15% 16GB 599 Euro
Und RTX 2080TI plus 35% inkl. 16GB HBM² für 799 Euro

Linmoum
2020-05-24, 12:39:16
Wie kommst du denn darauf?
Das ist schlicht Quatsch, Vega kann mit 100w das leisten, was eine 580 Stock hinbekommt.
Viele Einheiten und wenig Takt schnellt die Effizienz in die Höhe, siehe bei der 2080ti.Aha, das ist also Quatsch.

https://i.gyazo.com/c80d226b4a8ee79a29e540127adc9d97.png
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/#abschnitt_performance_pro_watt

Was eine Karte wie leisten kann, wenn man den Verbrauch auf einen bestimmten Wert drosselt, ist nur vollkommen irrelevant. So wird ein Produkt schließlich nicht in den Markt entlassen und nur darauf kommt es an. Selbst tweaken und dann vergleichen kann man als Nerd untereinander tun und aufzeigen, was möglich ist. Das hat mit der Realität der Hersteller und GPUs aber nichts zu tun. Hatte es noch nie.

Screemer
2020-05-24, 12:47:23
Du schriebst aber "deutlich näher am sweet Spot" und das ist auch eine v56 Stock eben nicht.

Daredevil
2020-05-24, 12:48:12
Dann red doch nicht von einer „näher am Sweetspot betriebene“ Karte, wenn das für dich ein Ausschlusskriterium ist.
Der „Sweetspot“ ist bei einer 56 Meilenweit entfernt und nicht mal in der Nähe von nah.

SKYNET
2020-05-24, 12:48:18
RTX 2080TI Leistung 12 GB für 479 Euro
RTX 2080TI plus 15% 16GB 599 Euro
Und RTX 2080TI plus 35% inkl. 16GB HBM² für 799 Euro

fairy-train abfahrt gleis 7, bitte alles einsteigen....

Ravenhearth
2020-05-24, 12:55:55
Ich denke auch nicht, dass die 50% mehr Perf/W von RDNA2 nur dadurch zustande kommen, dass AMD Big Navi am Sweetspot betreibt. Sie brauchen diese Effizienz in allen Marktsegmenten, insbesondere Mobile. Und mit Maxwell wurde gezeigt, dass solche Steigerungen Fertigungs-agnostisch möglich sind.

OgrEGT
2020-05-24, 13:02:34
RTX 2080TI Leistung 12 GB für 479 Euro
RTX 2080TI plus 15% 16GB 599 Euro
Und RTX 2080TI plus 35% inkl. 16GB HBM² für 799 Euro

fairy-train abfahrt gleis 7, bitte alles einsteigen....

Wenns so kommt wär ich dabei xD

mironicus
2020-05-24, 13:02:45
fairy-train abfahrt gleis 7, bitte alles einsteigen....

Wie willst du so hohe GPU-Preise rechtfertigen, wenn schon die nächste Xbox die Grafikleistung einer >RTX 2080 hat, dabei als komplettes System aber nur 500 Euro kostet?

AMD könnte für Renoir auch viel mehr Geld verlangen, aber du kriegst Notebooks mit Core i9-Leistung und 8 Kernen/16 Threads jetzt für 600 Euro.

Die GPU-Preise im Enthusiasten-Bereich werden massiv fallen, 1000 Euro für Grafikkarten sind nicht normal.

AMD will auch im Grafikkartenmarkt "disruptiv" sein. Dank der Konsolen werden zweistellige Millionenzahlen an GPUs in 7 nm produziert, so teuer kann der Prozess gar nicht mehr sein.

Linmoum
2020-05-24, 13:13:52
Wie willst du so hohe GPU-Preise rechtfertigen, wenn schon die nächste Xbox die Grafikleistung einer >RTX 2080 hat, dabei als komplettes System aber nur 500 Euro kostet?War auch in der Vergangenheit schon irrelevant. Gekauft wird trotzdem.

Ich sehe keinen Grund, warum die GPU-Preise stark fallen sollten. Wenn Hersteller sehen, dass die Leute so viel Geld bereit sind auszugeben, dann bieten sie die Produkte auch für mehr Geld an. Alles andere wäre wirtschaftlich absurd.

Davon ab scheint Big Navi ein >500mm² Chip zu sein, da verbietet sich schon allein aus diesem Grund ein Vergleich mit den Konsolen.

Wenn Nvidia eine 2080Ti+40% bringt, dann wird eine solche GPU nicht für 800€ über die Ladentheke gehen. Also ich bitte euch. Bei AMD genauso wenig.

Ravenhearth
2020-05-24, 13:16:38
Wie willst du so hohe GPU-Preise rechtfertigen, wenn schon die nächste Xbox die Grafikleistung einer >RTX 2080 hat, dabei als komplettes System aber nur 500 Euro kostet?
Wenn die Leute weiterhin 1000€ auf den Tresen legen, ist das vollkommen egal. :redface: Aber wenn die Gerüchte stimmen, wird die 3070/GA104 schon so schnell wie ne Series X, dann passt das wieder. Natürlich ist ein vollständer PC deutlich teurer als die Xbox, aber die wird auch zum Herstellungspreis verkauft und das Geld wird über Spiele und Abos gemacht, auf dem PC muss das aber über die Hardware passieren.

AffenJack
2020-05-24, 13:18:18
Wie willst du so hohe GPU-Preise rechtfertigen, wenn schon die nächste Xbox die Grafikleistung einer >RTX 2080 hat, dabei als komplettes System aber nur 500 Euro kostet?

AMD könnte für Renoir auch viel mehr Geld verlangen, aber du kriegst Notebooks mit Core i9-Leistung und 8 Kernen/16 Threads jetzt für 600 Euro.

Die GPU-Preise im Enthusiasten-Bereich werden massiv fallen, 1000 Euro für Grafikkarten sind nicht normal.

AMD will auch im Grafikkartenmarkt "disruptiv" sein. Dank der Konsolen werden zweistellige Millionenzahlen an GPUs in 7 nm produziert, so teuer kann der Prozess gar nicht mehr sein.

Die Konsolenhersteller interessiert es weniger, wenn sie 0 verdienen oder Minus machen. Mit Grafikkarten will AMD aber Geld verdienen. AMD will da nicht disruptiv sein, wie man auch an Navi sieht.

Sollte Big Navi stark genug sein, dann wird auch Big Navi 1000€ kosten. Fallen wird da gar nix an den Preisen. Nur gehe ich davon aus, dass man noch von GA102 geschlagen wird und Big Navi sich daher eher bei 600-800€ einpendelt.

mironicus
2020-05-24, 13:25:50
AMD muss etwas anbieten, damit die Leute in Scharen wieder zu ihnen zurückkommen. Genau wie sie es mit Zen 2 geschafft haben.

Der_Korken
2020-05-24, 13:26:13
Das Problem ist, dass du mit einem Größeren Speicher auch mehr Bandbreite haben musst, sonst kannst du damit fast nichts anfangen.
Die Aktuelle Gen hat eine Bandbreite, die es nicht mal erlaubt, dass man den gesamten Speicher bei 60FPS!!!, pro Frame komplett zu lesen (ca. 80-90% davon). Wenn man den Speicher also einfach verdoppelt liegt er nur brach.

Es liegen auch Daten im VRAM, die nur ab und zu mal angefasst werden müssen. Es wird ja nicht der ganze VRAM sequenziell durchgescannt pro Frame. Außerdem ist das Verhältnis bei alten Karten noch schlechter, z.B. bei der GTX1070, die ihre 8GB pro Sekunde nur 32 mal einlesen konnte. Trotzdem wäre niemand auf die Idee gekommen zu sagen, dass die mit nur 4GB genauso gut gewesen wäre, nur weil die Bandbreite nicht sinkt.

Allerdings stimmt es auch, dass eine zu große VRAM-Inflation eigentlich Quatsch ist und irgendwann Daten nur auf Halde liegen. Der HBCC-Ansatz von Vega war eigentlich sehr spannend, da AMD vor Vega-Release behauptete, dass ca. 50% des allokierten Speichers gar nicht oder selten gebraucht wird und z.B. in den normalen RAM ausgelagert werden könnte. Ich hatte nur das Gefühl, dass dieses Auslagerungs-Konzept nie gut implementiert wurde und in der Praxis mehr Probleme gemacht als gelöst hat. Eventuell wird das bei den Konsolen jetzt mal vernünftig gelöst und wir sehen deswegen eine Stagnation der VRAM-Menge bei der aktuellen Gen.

Complicated
2020-05-24, 13:47:43
Es könnte sein (spekuliert), dass da mit dem angekündigten StoreMI Relaunch in Q2/2020 etwas in den "neuen Features" dabei ist, was beim Gaming den VRAM/Streaming entlastet. Es scheint AMD hat da etwas vor...vielleicht HBCC-Funktionen für dGPUs über Treibreintegration mit der neuen IF 3.0 für dGPUs (https://www.anandtech.com/show/15596/amd-moves-from-infinity-fabric-to-infinity-architecture-connecting-everything-to-everything)?
An exciting new version, with enhanced features, is planned for release in 2Q20. Please see the Product Change Advisory (https://www.amd.com/system/files/documents/storemi-product-change-advisory.pdf) for more information.

5CH4CHT3L
2020-05-24, 13:54:28
AMD muss etwas anbieten, damit die Leute in Scharen wieder zu ihnen zurückkommen. Genau wie sie es mit Zen 2 geschafft haben.
AMD kann das aber nur anbieten, wenn die Herstellung auch entsprechend günstig ist. Wenn man wieder massiv Die-Fläche und HBM auffahren muss, nur um an Nvidias Topmodelle ranzukommen, kann man es sich nich leisten in den Preiskampf zu gehen.

aufkrawall
2020-05-24, 13:55:28
Allerdings stimmt es auch, dass eine zu große VRAM-Inflation eigentlich Quatsch ist und irgendwann Daten nur auf Halde liegen.
Mehr Speicher ist nie Quatsch. Es obliegt dem Entwickler, diesen sinnvoll zu nutzen.
Ist nur nicht so einfach, wenn Konsolen oder Krüppel-PCs die Mindest-Spec sind.

Trotzdem find ich das "Hardware"-Streaming der PS5 sehr interessant. Anhand der Exclusives wird man dann sehen, was es wirklich bringt.

Daredevil
2020-05-24, 13:58:35
Mehr Speicher kostet halt eben auch mehr Saft, egal ob GDDR oder HBM und das fehlt dann wem? Der GPU selbst.

aufkrawall
2020-05-24, 14:04:12
Kann man vernachlässigen, siehe Navi GPU- vs. Board-Verbrauch.

boxleitnerb
2020-05-24, 14:06:22
Und ich denke, der Transfer - nicht das Vorhalten der Daten - braucht die meiste Energie. Wenn nun der RAM weil voll teilweise geleert und wieder mit anderen Daten gefüllt wird, verschwendet das in manchen Fällen sicher mehr Energie.

Daredevil
2020-05-24, 14:12:16
Kann man vernachlässigen, siehe Navi GPU- vs. Board-Verbrauch.
Bei meiner VII sind das knapp 10w pro Karte, wenn ich von 1000Mhz auf 800hz runter gehe bei gleicher Speicher Performance. ( Da GPU Takt limitiert. )
Für mich sind 10w viel, bei nem Gesamtverbrauch von 130w pro Karte. ^^

Bei der 2080ti sieht es nicht anders aus bei Compute Kram. Wenn der Speicher nicht genutzt wird, bringt starkes untertakten so um die 10-15w.

Der_Korken
2020-05-24, 14:13:17
AMD kann das aber nur anbieten, wenn die Herstellung auch entsprechend günstig ist. Wenn man wieder massiv Die-Fläche und HBM auffahren muss, nur um an Nvidias Topmodelle ranzukommen, kann man es sich nich leisten in den Preiskampf zu gehen.

Deswegen werden sie im Zweifelsfall lieber auf ein Highend-Modell verzichten, denn das hat die höchsten Entwicklungskosten, die größten Risiken, dass irgendwas nicht so skaliert wie geplant und den kleinsten potenziellen Kundenkreis. Dann lieber die Manpower in optimierte Midrange-Chips stecken: RV770-Strategie.

Mehr Speicher kostet halt eben auch mehr Saft, egal ob GDDR oder HBM und das fehlt dann wem? Der GPU selbst.

Mehr Speicher im Sinne von mehr GB dürften kaum was ausmachen. Es gibt ja von diversen GPUs Modelle mit halben bzw. doppelten Speicher und da wäre mir nicht bekannt, dass Speicherkapazität an sich da nennenswert Strom zieht. Was anderes ist es, wenn man mehr Speicherchips verbaut, die dann mehr Datenleitungen und mehr PHYs auf dem Die nach sich ziehen. Strom zahlt man also für Bandbreite, nicht oder kaum für Kapazität an sich.

chaospanda
2020-05-24, 14:27:24
6arLcq862ns
Ein bisschen Speku von Igor zu neuen Navi-Karten :) (Soweit ich das gesehen habe, wurde es noch nciht gepostet)

AlterSack
2020-05-24, 15:43:54
Wie kommst du denn darauf?
Das ist schlicht Quatsch, Vega kann mit 100w das leisten, was eine 580 Stock hinbekommt.
Viele Einheiten und wenig Takt schnellt die Effizienz in die Höhe, siehe bei der 2080ti.

Jo, sehe ich ähnlich. Hab seit letztem Jahr eine Vega56 im Rechner.
Zusammen mit einem ryzen 5 1600 braucht der gesamte Rechner
bei F1-2019 mit begrenzung auf 60 fps unter Verwendung von Radeon-Chill
zwischen ca.140-170 Watt. Die Vega dümpelt dann in der Regel bei 700 bis 800, vllt. kurz auch bei 900 Mhz vor sich hin. Bin sehr zufrieden mit dem Gerät.

Platos
2020-05-24, 16:44:39
Wer hätte das gedacht mit FPS-Cap und Fifa bei 700-900MHz.

gedi
2020-05-24, 19:06:07
Wenn die 505 mm^2 auch nur annähernd stimmen sollten, dann hat es sich bei Big-Navi wohl mit einem herkömmlichen SI und VRam. Uni gehen 400mm^2 für die GPU drauf, der Rest für RT. Verbaut wird wohl HBM2. Ich denke das Ding wird richtig schnell

Langlay
2020-05-24, 19:18:52
Verbaut wird wohl HBM2.

Ist aufjedenfall wahrscheinlicher als ein 512Bit Speicherinterface, was ich immernoch für schwer realisierbar halte.

Aber so 16GB HBM2 Speicher würden mir auch völlig reichen. Auf ein VRAM Downgrade hab ich allerdings wenig Bock.

Hasenpfote
2020-05-24, 19:27:50
Wenn die 505 mm^2 auch nur annähernd stimmen sollten, dann hat es sich bei Big-Navi wohl mit einem herkömmlichen SI und VRam. Uni gehen 400mm^2 für die GPU drauf, der Rest für RT. Verbaut wird wohl HBM2. Ich denke das Ding wird richtig schnellWird ja auch mal Zeit. Die 5700XT ist ja auch nur ~25% schneller als ne Vega 64 (laut Review bei computerbase). Die letzten Jahre im GPU-Markt konnte man IMO total vergessen (vom Mining-Schwachsinn gar nicht zu reden).

genervt
2020-05-24, 20:16:42
Wenn die 505 mm^2 auch nur annähernd stimmen sollten, dann hat es sich bei Big-Navi wohl mit einem herkömmlichen SI und VRam. Uni gehen 400mm^2 für die GPU drauf, der Rest für RT. Verbaut wird wohl HBM2. Ich denke das Ding wird richtig schnell

würde mir hbm2 wünschen für das high end. aber ist es auch wahrscheinlich? sind die preise und Stückzahlen soweit?
der chip soll ja bis nach unten skaliert werden, d.h. wir würden bis zur Mittelklasse hbm2 sehen. das glaube ich leider nicht. ich vermute gddr6.
bisher hatte AMD mit hbm kein Glück
@Hasenpfote
25% schneller mit nur 62,5% der Recheneinheiten von Vega64 halte ich für mehr als ordentlich. Hoffe ich habe mich nicht allzu sehr verrechnet im Kopp

HOT
2020-05-24, 20:39:43
Lt Igor ist das lineup gemischt mit HBM und GDDR6. Die Wahrscheinlichkeit für HBM bei N21 ist extrem hoch. Alle weiteren werden mMn auf 16GT/s GDDR6 setzen.

mironicus
2020-05-24, 20:45:55
Die Varianten für Apple werden sicherlich mit HBM ausgestattet sein, für den Mac Pro.

Vielleicht ist es ja die XTX-Variante die mit HBM für den PC kommt, inkl. Wasserkühlung macht die dann alles platt. :D

Hasenpfote
2020-05-24, 20:49:46
@Hasenpfote
25% schneller mit nur 62,5% der Recheneinheiten von Vega64 halte ich für mehr als ordentlich. Hoffe ich habe mich nicht allzu sehr verrechnet im KoppSelbst wenn Du Dich verrechnet hast, Pi mal Daumen hast Du sicher Recht. ;) (ich mag Leute, die lieber grob überschlagen, als Blödsinn auf zwei Stellen hinter'm Komma zu berechnen).

Ändert aber nichts daran, dass ich als Kunde nur wenig davon hatte! Ich zumindest werde von 25% Leitungsplus nicht dazu motiviert, 400€ auf den Tisch zu packen.Die 5700XT ist auf dem Niveau auf einer 1080 Ti! Einer Karte von 2017! 2017!!!einself! Eine 7nm Karte läuft auf dem Niveau einer 16nm Karte! :freak:

Korvaun
2020-05-25, 09:48:22
Selbst wenn Du Dich verrechnet hast, Pi mal Daumen hast Du sicher Recht. ;) (ich mag Leute, die lieber grob überschlagen, als Blödsinn auf zwei Stellen hinter'm Komma zu berechnen).

Ändert aber nichts daran, dass ich als Kunde nur wenig davon hatte! Ich zumindest werde von 25% Leitungsplus nicht dazu motiviert, 400€ auf den Tisch zu packen.Die 5700XT ist auf dem Niveau auf einer 1080 Ti! Einer Karte von 2017! 2017!!!einself! Eine 7nm Karte läuft auf dem Niveau einer 16nm Karte! :freak:
Dafür kostet die Karte ja auch nur ca. 400€. Wieviel hat die 1080ti anno 2017 gekostet? Ist also nicht ganz so schlimm, aber noch schneller & noch günstiger wäre natürlich besser...

Für Leute die von der 1080ti aufrüsten wollen ist die Karte sicherlich die falsche ;)

JVC
2020-05-25, 11:18:38
Für Leute die von der 1080ti aufrüsten wollen ist die Karte sicherlich die falsche ;)
Für mich wäre eine Theoretische "N21, 80Cu, 16Gb HBM+HBCC, mit HDMI 2.1"
durchaus ein Upgrade wert :wink:

M.f.G. JVC

BlacKi
2020-05-25, 11:24:58
Für mich wäre eine Theoretische "N21, 80Cu, 16Gb HBM+HBCC, mit HDMI 2.1"
durchaus ein Upgrade wert :wink:

M.f.G. JVC
das war auch nicht sein punkt, ich glaube für jeden wäre die performance von navi 21 ein grund zum upgraden von einer 1080ti. nicht das downgrade auf 5700xt.

y33H@
2020-05-25, 11:57:01
Für mich wäre eine Theoretische "N21, 80Cu, 16Gb HBM+HBCC, mit HDMI 2.1" durchaus ein Upgrade wert :wink:Du würdest doch auf eine iGPU wechseln nur um HDMI 2.1 zu kriegen :freak:

WedgeAntilles
2020-05-25, 12:10:04
Deswegen werden sie im Zweifelsfall lieber auf ein Highend-Modell verzichten, denn das hat die höchsten Entwicklungskosten, die größten Risiken, dass irgendwas nicht so skaliert wie geplant und den kleinsten potenziellen Kundenkreis. Dann lieber die Manpower in optimierte Midrange-Chips stecken: RV770-Strategie.

Und das ist IMO die genau richtige Strategie.

Es ist nicht entscheidend, ob man an die 2080 oder gar 2080TI herankommt. (bzw. dann eben das Ampere-Equivalent).
Klar ist die Krone "schnellste GraKa" schön - mehr aber auch nicht.

Der Anteil der Spitzenkarten (2080 aufwärts) am Gesamt-GraKa-Markt ist recht klein. Klar sind die Margen da sicherlich sehr schön, aber unterm Strich ist der Low bis obere Midrange Bereich das, wo das meiste Geld verdient wird.
(Zumal die Margen der 2080TI auch nur so hoch sind, weil AMD da keine Konkurrenz hat. Wenn AMD da jetzt mitmischen will, darf AMD nicht mit den heutigen Margen kalkulieren. Die Margen würden - für beide Anbieter - deutlich sinken.)

Die 5700 und 5700XT zeigt doch wunderbar, auf was es ankommt:
Eine gute Karte, die mehr FPS für den Euro bietet wie Nvidia.
Und dabei in einem für viele Spieler interessanten Preissgment angesiedelt ist.

Der Lohn? Sehr gute Marktanteile in diesem Bereich.

Das ist auch der Bereich, der für BigNavi wichtig ist.
Scheiß auf 3080TI, Titan und was weiß ich was.

Wenn AMD die 3070 unter Druck setzt, ist das genau die richtige Strategie.

Und BITTE steckt nicht massig Kohle in einen BigNavi der die TI angreifen soll.
Spart euch das Geld und bringt von Anfang an gute Treiber.
Keine notwendige Bios-Updates, Bios-Wirrwarr und so weiter.

Das sind die Gründe, die immer noch viele zu Nvidia tendieren lassen.
Ob AMD oder Nvidia die schnellste Karte haben, dürfte der absoluten Masse so was von wurscht sein...

-=Popeye=-
2020-05-25, 12:36:33
Sehe ich anders, BigNavi sollte sich schon auf 2080Ti (Custom) Niveau bewegen alles andere wäre für 1080Ti User uninteressant.

w0mbat
2020-05-25, 12:41:04
Wenn AMD in 2020 mit 7nm+ und RDNA2 nicht mal eine 2080Ti schlägt sieht es mMn schlecht aus. Also wenn sie mit bigNavi wirklich versuchen wieder im high-end mitzumischen.

JVC
2020-05-25, 12:43:31
Du würdest doch auf eine iGPU wechseln nur um HDMI 2.1 zu kriegen :freak:
Fassst :freak:

Will halt möglichst bald auf den neuen Standard ... 4K 120Hz 8K 60Hz +VRR +LFC auf nem Fernseher :uroll:

M.f.G. JVC

mironicus
2020-05-25, 12:46:54
Du würdest doch auf eine iGPU wechseln nur um HDMI 2.1 zu kriegen :freak:

Ein Ryzen 4700G + Mainboard sind auf jeden Fall eine Option, um z.B. eine bereits vorhandene RTX 2080 Ti mit HDMI 2.1 zu versorgen, falls sich ein GPU-Upgrade dieses Jahr nicht lohnt (wegen 20-30% z.B. nicht, da kann man die Generation gleich überspringen).

Ein Upgrade auf ein Oled-TV (bis 50 Zoll) mit 4K120 und 120 Hz und HDMI 2.1 ist eine der nächsten großen Anschaffungen.

Der_Korken
2020-05-25, 12:49:28
Wenn AMD in 2020 mit 7nm+ und RDNA2 nicht mal eine 2080Ti schlägt sieht es mMn schlecht aus. Also wenn sie mit bigNavi wirklich versuchen wieder im high-end mitzumischen.

Der erste Satz ist Quatsch. Wenn AMD eine Karte bringt, die "nur" so schnell wie eine 2080Ti ist, mit 250mm² auskommt, 400€ kostet und 150W verbraucht, dann ist das ganz sicher kein Fail. Im übrigen glaube ich schon, dass die schnellste Navi-Karte die 2080Ti schlagen wird, einfach wegen der 50% besseren Effizienz und weil dies auch in etwa dem Rückstand auf die 2080Ti entspricht. Ich bezweifle aber, dass AMD darüber hinaus groß auf die Kacke hauen wird, auch wenn viele AMD-Fans das gerne sehen würden.

WedgeAntilles
2020-05-25, 12:49:52
Sehe ich anders, BigNavi sollte sich schon auf 2080Ti (Custom) Niveau bewegen alles andere wäre für 1080Ti User uninteressant.

Missverständnis.
BigNavi muss natürlich auf 2080TI Niveau kommen. (Was ja fast zwangsläufig ist - die 5700XT ist ja schon bei der 2070er. Dass der Nachfolger quasi gar nicht schneller wird ist doch ausgeschlossen. Und wenn die 1/3 schneller wird, ist es ja schon in etwa 2080 TI Niveau)

Ich meinte es ist schnuppe, dass die aktuelle 5700XT nicht an die 2080TI ran kommt.

Und es ist egal, falls BigNavi nicht an die Ampere 3080TI herankommen wird.

Da habe ich mich unklar ausgedrückt, sorry.

Bucklew
2020-05-25, 13:07:55
Wenn AMD eine Karte bringt, die "nur" so schnell wie eine 2080Ti ist, mit 250mm² auskommt, 400€ kostet und 150W verbraucht, dann ist das ganz sicher kein Fail.
Ist auch kein Fail, sondern einfach nur schlicht komplett unmöglich.

Vielleicht erfüllt AMD eine dieser Metriken mit RDNA2 - aber wohl kaum alle gleichzeitig. Wo soll das denn plötzlich herkommen? Egal was AMD macht, wenn man die versprochene P/W Verbesserung (+50% auf RDNA1) zur Basis nimmt, kommt man bei einem PowerBudget von ~250W gerade mal auf 2080Ti Niveau. Wo soll da eine zusätzlich 100W Ersparnis herkommen? :ugly:

Piefkee
2020-05-25, 13:20:54
Im übrigen glaube ich schon, dass die schnellste Navi-Karte die 2080Ti schlagen wird, einfach wegen der 50% besseren Effizienz und weil dies auch in etwa dem Rückstand auf die 2080Ti entspricht. Ich bezweifle aber, dass AMD darüber hinaus groß auf die Kacke hauen wird, auch wenn viele AMD-Fans das gerne sehen würden.

Naja die Frage ist, wie willst du den noch mehr oben drauf-packen? Sollte jetzt die Gerüchte um 505mm^2 und 80CUs stimmen. Dann wird das definitiv mit neuen Archi doppelt so schnell als eine 5700XT -->sollte man ca. 30-50% über einer 2080Ti FE landen.

dildo4u
2020-05-25, 13:22:47
Warum rechnet ihr nur die CU hoch,wo kommt die nötige 1TB Bandbreite her?

Piefkee
2020-05-25, 13:24:19
Ist auch kein Fail, sondern einfach nur schlicht komplett unmöglich.

Vielleicht erfüllt AMD eine dieser Metriken mit RDNA2 - aber wohl kaum alle gleichzeitig. Wo soll das denn plötzlich herkommen? Egal was AMD macht, wenn man die versprochene P/W Verbesserung (+50% auf RDNA1) zur Basis nimmt, kommt man bei einem PowerBudget von ~250W gerade mal auf 2080Ti Niveau. Wo soll da eine zusätzlich 100W Ersparnis herkommen? :ugly:

Naja
5700(non-XT) = 185W --> 64% einer 2080Ti
50% P/W -->96% 2080Ti bei 185W

Piefkee
2020-05-25, 13:30:44
Warum rechnet ihr nur die CU hoch,wo kommt die nötige 1TB Bandbreite her?

Naja GDDR6 18 Gbps..
bei 384-Bit hast du das doppelte als bei Navi10

Die Geschwindigkeit würde bis zu 576 Gigabyte pro Sekunde (256-Bit-Interface) beziehungsweise bis zu 864 Gigabyte pro Sekunde (384-Bit-Interface) betragen.

HOT
2020-05-25, 13:42:22
Das Ding hat ganz sicher kein GDDR. Und mehr als 16GT werden von AMD eh nicht verbaut.

w0mbat
2020-05-25, 13:44:45
Der erste Satz ist Quatsch. Wenn AMD eine Karte bringt, die "nur" so schnell wie eine 2080Ti ist, mit 250mm² auskommt, 400€ kostet und 150W verbraucht, dann ist das ganz sicher kein Fail. Im übrigen glaube ich schon, dass die schnellste Navi-Karte die 2080Ti schlagen wird, einfach wegen der 50% besseren Effizienz und weil dies auch in etwa dem Rückstand auf die 2080Ti entspricht. Ich bezweifle aber, dass AMD darüber hinaus groß auf die Kacke hauen wird, auch wenn viele AMD-Fans das gerne sehen würden.
Ich verstehe nicht, wieso du jetzt den zweiten Satz, der an den ersten Satz ja eine direkte Bedingung stellt, komplett ignorierst und dann deine Antwort beginnst mit "Der erste Satz ist Quatsch" :confused:

Bucklew
2020-05-25, 14:08:22
Naja
5700(non-XT) = 185W --> 64% einer 2080Ti
50% P/W -->96% 2080Ti bei 185W
Ja, passt null. Langsamer als ne 2080Ti und deutlich oberhalb der 150W.

Danke :ugly:

Der_Korken
2020-05-25, 14:35:18
Ist auch kein Fail, sondern einfach nur schlicht komplett unmöglich.


Das sollte auch keine Prognose sein, sondern war eher an das Narrativ gerichtet, dass AMD unbedingt die 3080Ti erreichen muss, sonst ist RDNA2 ein Fail. Das sehe ich anders.

Ich verstehe nicht, wieso du jetzt den zweiten Satz, der an den ersten Satz ja eine direkte Bedingung stellt, komplett ignorierst und dann deine Antwort beginnst mit "Der erste Satz ist Quatsch" :confused:

Mit deinem zweiten Satz erhältst du eine Tautologie: Wenn AMD im Highend mitmischt, dann werden sie auch mit den Highend-Karten von Nvidia mithalten und wenn AMD nicht mit den Highend-Karten mithält, dann mischen sie auch nicht im Highend mit.

Wie "big" "Big Navi" wird, weiß keiner. Es könnte nur wieder jede Menge Enttäuschung geben, wenn doch kein 500mm²-Gaming-Chip kommt, der alles andere platt macht. Imho passt so ein Chip nicht in die Strategie, die AMD im Moment fährt. Wenn RDNA2 so einschlägt wie Zen2, dann wird AMD mit RDNA3 sicherlich versuchen ganz oben anzugreifen. Ein Schritt nach dem anderen.

Bucklew
2020-05-25, 14:45:28
Das sollte auch keine Prognose sein, sondern war eher an das Narrativ gerichtet, dass AMD unbedingt die 3080Ti erreichen muss, sonst ist RDNA2 ein Fail. Das sehe ich anders.
Nun ja, sollte sich das Gerücht mit der Verdoppelung als wahr heraus stellen, dann ist der Chip natürlich von AMD als HighEnd gedacht. Da sollte sich die Karte eher mit einer 3080Ti messen lassen können, als mit ner 3080. Sonst ist AMD wieder mit stumpen Waffen am kämpfen, wie mit Vega10.

Piefkee
2020-05-25, 15:19:44
Das Ding hat ganz sicher kein GDDR. Und mehr als 16GT werden von AMD eh nicht verbaut.

Wette geh ich gerne ein das AMD kein HBM2 verbaut...

WedgeAntilles
2020-05-25, 15:26:21
Sonst ist AMD wieder mit stumpen Waffen am kämpfen, wie mit Vega10.

Wenn AMD im Preisbereich 250-400 Euro massiv Marktanteil gewinnt (wie mit der 5700 / 5700XT) reicht das doch?
Dazu im Einsteigerbereich ordentlich positioniert sein und du bist gut aufgestellt.
Nicht perfekt, aber - übertrieben gesagt - von 0 auf 100 ist halt schwer.

Das große Geld wird im Bereich bis maximal 600 Euro gemacht.
Drüber hinaus sind die Verkaufszahlen schlicht zu niedrig.

Ob RNDA2 ein großer Erfolg oder gar ein Fail wird hängt IMO nicht davon ab, ob man die 3080TI erreicht oder nicht.
Sondern ob AMD damit Geld verdient, Marktanteile holt.
Und das ist unabhängig von 3080TI Leistung oder nicht.

Vielleicht liege ich völlig falsch, aber der Großteil des Marktes sucht doch nicht eine Alternative im Bereich 1000 Euro.
Die meisten Leute wollen eine gute Karte, die bezahlbar bis 400 Euro oder so ist.
Wer die absolute Leistungskrone hat - wen interessiert das?

Klar sollte AMD auf längere Sicht auch im High-End Bereich wieder vertreten sein. Aber wenn man bedenkt wo AMD vor 3 Jahren war ist das IMO zu viel erwartet.

DrFreaK666
2020-05-25, 15:26:54
Nun ja, sollte sich das Gerücht mit der Verdoppelung als wahr heraus stellen, dann ist der Chip natürlich von AMD als HighEnd gedacht. Da sollte sich die Karte eher mit einer 3080Ti messen lassen können, als mit ner 3080. Sonst ist AMD wieder mit stumpen Waffen am kämpfen, wie mit Vega10.

Am Ende sollte man die Karten vergleichen, die gleich teuer sind. Wenn Big Navi so teuer wird wie die 3080 und in etwa so schnell ist, dann sollte man sie auch mit ihr vergleichen und nicht mit der 3080Ti

Complicated
2020-05-25, 15:26:55
Ja, passt null. Langsamer als ne 2080Ti und deutlich oberhalb der 150W.

Danke :ugly:
Mit 40 CUs
Naja
5700(non-XT) = 185W --> 64% einer 2080Ti
50% P/W -->96% 2080Ti bei 185W
-> Spekulierte 80 CU ergeben dann 192% anstatt 96% für Big Navi. (unwahrscheinlich, dass diese im selben Powerbudget unterwegs sind.)

HOT
2020-05-25, 15:36:18
Wette geh ich gerne ein das AMD kein HBM2 verbaut...

Da halte ich jede Wette dagegen, da AMD nicht die erforderliche Speicherbandbreite auf anderem Wege hinbekommen wird. Die haben sicherlich kein Kartentraining mit TUL und anderen Partnern gemacht, das dafür erforderlich ist, um mehr als 15,5GT/s hinzubekommen (2080 Super), anders als NV. Ich wette sogar, dass die Karten sogar mit 14GT weiterhin ausgestattet werden, mit Rücksicht auf die Partner.

Berniyh
2020-05-25, 15:37:01
Naja GDDR6 18 Gbps..
bei 384-Bit hast du das doppelte als bei Navi10
Aber konnte man darauf schon in der Planung setzen (im Sinne von "absolut sicher") als das Ding konzipiert wurde?
Mit HBM2 hat man bereits jahrelang Erfahrung und das kann das auch.
Abgesehen vom Preis scheint mir das aus der Risikobetrachtung fast die sicherere Variante zu sein im Sinne der Zukunftsplanung (vor 2-3 Jahren).

HOT
2020-05-25, 15:44:22
Richtig. Man braucht die Partner nicht zusätzlich belasten, kann N22 mit 384Bit und N21 mit 256Bit 14GT/s weiterhin ausstatten. Nur der große N21 braucht dann ja HBM, was ja problemlos machbar ist. Die Frage ist hier eigentlich nur noch die HBM-Konfiguration, hier ist vieles möglich.

Damit hätte man auch sinnvolle Speichermengen: N23 -> 8GB, N22 -> 12GB und N21 -> 16GB.

Hasenpfote
2020-05-25, 15:52:31
Das große Geld wird im Bereich bis maximal 600 Euro gemacht.
Drüber hinaus sind die Verkaufszahlen schlicht zu niedrig.Damals, als ich noch jung und knackig war, also als die Dinos noch über den Planeten stampften und das Klima 5C wärmer war, damals lagen Grafikkarten bei maximal 600€. Da war das High-End/Enthusiast/KingOfSchnitzel. Da wurde der GESAMTE Umsatz mit Grafikkarten bis 600€ gemacht. Ok, die GTX Titan war deutlich und die 780 Ti knapp drüber. Aber vielleicht sollte man das trotzdem mal im Hinterkopf behalten, wie sehr wir eigentlich über die letzten Jahre gemolken wurden.

Bucklew
2020-05-25, 16:22:36
Am Ende sollte man die Karten vergleichen, die gleich teuer sind. Wenn Big Navi so teuer wird wie die 3080 und in etwa so schnell ist, dann sollte man sie auch mit ihr vergleichen und nicht mit der 3080Ti
Ob AMD bei der Planung eines 500mm² 7nm Chips mit dieser Preisklasse gerechnet hat....?

Mit Vega ist man ja auch vollständig neben dem eigentlichen Preisziel gelandet, für das man den Chip mal geplant hatte.

Mit 40 CUs

-> Spekulierte 80 CU ergeben dann 192% anstatt 96% für Big Navi. (unwahrscheinlich, dass diese im selben Powerbudget unterwegs sind.)
Ob AMD sich nochmal traut einen 370W Chip auf den Markt zu werfen....?

Ravenhearth
2020-05-25, 16:49:16
Mit 40 CUs

-> Spekulierte 80 CU ergeben dann 192% anstatt 96% für Big Navi. (unwahrscheinlich, dass diese im selben Powerbudget unterwegs sind.)
Naja man wird die 50% mehr Performance nicht mit 40 CUs erreichen, deswegen werden 80 CUs auch nicht 92% schneller als ne 2080 Ti :freak:

HOT
2020-05-25, 17:05:43
N10 gibts bei den guten Modellen mit ca. 1,8GHz mit 40CUs.
Das bedeutet, 80CUs + mehr IPC + 2GHz+ Takt sind weit mehr als doppelt so schnell als eine 5700XT. Nur mal, von welchen Größenordnungen wir hier sprechen. Natürlich reden wir hier wieder von um die 300W. Für die 3080Ti gilt analog ähnliches, da die ja auch mit 80SMs (also salvage von 84SMs) bei >2GHz und ähnlicher oder gar etwas weniger Bandbreite erwartet wird.

HTB|Bladerunner
2020-05-25, 17:17:42
Ich kann mir die Verwendung von HBM2 bei einem reinen Gamer-Chip auch nicht vorstellen. Damit das wirtschaftlich ist, müsste man Big-Navi auch im Profi-Segment verwursten können (siehe Radeon VII). Mit der Radeon Instinct MI100 hat sich dieses Szenario allerdings erledigt.

HOT
2020-05-25, 17:21:43
Geht nicht anders. 512Bit macht keiner und schnelle GDDR6 wirds bei AMD nicht geben. Ich sehe einfach keine andere Option. Außerdem ist es ja auch problemlos machbar und die Preisklasse ist hoch.

Complicated
2020-05-25, 17:58:55
Geht nicht anders. 512Bit macht keiner und schnelle GDDR6 wirds bei AMD nicht geben.
Ich verstehe das nicht ganz. Woran machst du das fest?
Soweit ich sehen kann hat die RX 5600/5700 ebenso wie die RX 2080/2070 14gbps GDDR6 VRAM verbaut. Auch die Ti hat die selben verbaut. Lediglich die RX 2080 Super hat als einzige 15,5 Gbps hoch getaktet.

Rampage 2
2020-05-25, 18:54:36
Das Ding hat ganz sicher kein GDDR. Und mehr als 16GT werden von AMD eh nicht verbaut.

20GT vielleicht nicht, aber 18GT (= 864GB/sek. @ 384Bit SI) sollten schon bis zum Herbst dieses Jahres spruchreif sein - ich hatte schon mehrfach die News von den Rambus-PHYs hier und Anderswo verlinkt...

Und bzgl. "Kartentraining": bis jetzt (N10) vielleicht nicht, aber woher willst du wissen, dass AMD das mittlerweile (N21/23) immer noch nicht macht?

Egal, welches Kind es am Ende wird, 800+ GB Bandbreite braucht BigNavi mindestens, sofern es wirklich 80CUs hat - dasselbe bei BigAmpere (GA102). Wenn wir mal vom Optimalfall ausgehen, dass doppelt so viele CUs nicht automatisch doppelt so viel Bandbreite brauchen, sondern nur +75% (etwa durch Verbesserungen an der Bandbreite-Effizienz/DCC), dann kommt man ziemlich genau auf 784GB/sek. erforderliche Bandbreite und BigAmpere wird vermutlich sogar ein paar GB mehr brauchen...

HBM -> zu teuer (und angeblich hat AMD selbst gesagt, kein HBM mehr für Gaming-GPUs!)

512Bit GDDR6 16GT -> belegt angeblich zuviel Die-Fläche

384Bit GDDR6 18GT -> Sweetspot/Kompromiss, der die BB-Anforderungen knapp erfüllt und die Speichermenge lässt sich verdreifachen* !

* = bezogen auf N10

Irgendein Weg muss ja gefunden werden...

R2

Langlay
2020-05-25, 19:01:38
512Bit GDDR6 16GT -> belegt angeblich zuviel Die-Fläche


Das grosse Problem ist nicht die Die-Fläche. Sondern das du 16 Speichermodule um den Chip verteilen musst, alle gleich weit weg. Und den PCI-E Bus musst du dann natürlich auch noch unterbringen.

Wenn man das überhaupt hinbekommst wage ich zubezweifeln das man mit so einem Aufbau dann irgendwelche Rekorde in Sachen Takt holen wird. Imo hat man dann halt im besten Fall ein 512Bit Speicherinterface das unterm Strich kaum schneller ist als ein 384Bit mit schnellerem Speicher.

Und bei einer Grafikkarte die 600-800€ kostet wird, werden 2 Stacks HBM sicherlich machbar sein.


https://abload.de/img/amd-radeon-r9-290-4gba9jt3.jpg

So sehen 512Bit bei Hawaii aus, wie man sieht optimales Layout ist anders.

Raff
2020-05-25, 19:18:03
Und das Ding verliert selbst bei Knüppel-Designs wie der Lightning das Displaysignal bei zu viel Last. :ulol:

MfG
Raff

Rampage 2
2020-05-25, 19:43:45
Das grosse Problem ist nicht die Die-Fläche. Sondern das du 16 Speichermodule um den Chip verteilen musst, alle gleich weit weg. Und den PCI-E Bus musst du dann natürlich auch noch unterbringen.

Und bei einer Grafikkarte die 600-800€ kostet wird, werden 2 Stacks HBM sicherlich machbar sein.


https://abload.de/img/amd-radeon-r9-290-4gba9jt3.jpg

So sehen 512Bit bei Hawaii aus, wie man sieht optimales Layout ist anders.

Wie wurde es denn dann bei R600 (2007) und GT200/b (2008/2009) gelöst? R600 mag ja ein Fail gewesen sein, aber GT200/b war sehr schlagkräftig - und hatte ein 512Bit SI. Warum müssen es außerdem unbedingt 32Bit-Speicherchips sein? Gingen nicht auch 8 64Bit-Chips? Oder Clamshell-Mode?


Wenn man das überhaupt hinbekommst wage zubezweifeln das man mit so einem Aufbau dann irgendwelche Rekorde in Sachen Takt holen wird. Imo hat man dann halt im besten Fall ein 512Bit Speicherinterface das unterm Strich kaum schneller ist als ein 384Bit mit schnellerem Speicher.

Also ein 512Bit SI würde schon mit nur 16GT (= 1TB/sek. BB) sämtliche Bandbreiten-Probleme vollständig lösen - sowohl bei AMD als auch bei Nvidia. Außerdem würde es größere Speicherbestückungen (16GB, 32GB) ermöglichen als 384Bit und wäre vielleicht sogar sparsamer als Letzterer @ 18+ GT...

R2

robbitop
2020-05-25, 19:48:26
Ich nehme an, AMD und NV stehen vor der gleichen Herausforderung. Sowohl GA102 als auch big RDNA2 sollten deutlich mehr Rohleistung haben als TU102.

Ich tippe auf entweder 384bit bei 18 GT/s oder gleich HBM. Für das Launch Window in Q3/4 2020 sollte 18 GT/s GDDR6 sicherlich verfügbar sein.

Die Frage ist, ob HBM noch immer preislich und in Bezug auf Verfügbarkeit problematisch ist. Das hat Vega und Fijii damals nicht besonders gut getan...

genervt
2020-05-25, 20:08:55
Ich bleibe dabei: HBM2 sehen wir nur im Profi Segment oder bei Apple. HBM hat sich bisher nicht als massentauglich erwiesen und ein Seitenblick auf SeriesX und PS5 zeigt dort auch nur GDDR6.
Die XTX wird durch binning Top-Modell, da erwarte ich kein abweichendes SI.

Linmoum
2020-05-25, 20:09:48
Ich bleibe dabei: HBM2 sehen wir nur im Profi Segment oder bei Apple. HBM hat sich bisher nicht als massentauglich erwiesen und ein Seitenblick auf SeriesX und PS5 zeigt dort auch nur GDDR6.
Die XTX wird durch binning Top-Modell, da erwarte ich kein abweichendes SI.Würdest du denn eine 2080Ti bei dem Preis als "massentauglich" bezeichnen? ;)

genervt
2020-05-25, 20:23:07
Würdest du denn eine 2080Ti bei dem Preis als "massentauglich" bezeichnen? ;)

Der Preis spielt zwar auch eine Rolle inkl. Package etc. Ich sehe eher die Verfügbarkeit kritisch. War es nicht so, dass Vega teilweise sehr schlecht verfügbar war, weil man auf Speicherbausteine gewartet hat? Gibt ja doch mehr Auswahl an Chips bei GDDR6 als bei HBM.

HOT
2020-05-25, 20:28:11
Rampage 2
Die PCBs sind heute nicht dafür geeignet soviele GDDR6-Module über 512Bit in hoher Geschwindigkeit anzubinden. NV hatte ja schon schwierigkeiten 16GT/s über 256Bit anzubinden (siehe 2080 Super, die hat keine 16GT/s, weil die Signalqualität auf dem PCB sonst zu schlecht wird). Um wenigstens > 16GT/s mit 384Bit zu schaffen, musst du die Bohrungen im PCB verändern um Reflexionen von Signalen zu verhindern. Genau das hat NV mit der Freigabe von 16GT/s Speicher für die 2080Ti gemacht. Damit waren die Hersteller in der Lage, massentaugliche Fertigungsverfahren dafür zu entwickeln.
AMD hat solche Schwerze meines Wissens nicht gemacht, also wird AMD auch maximal auf 15,5GT/s bei 256Bit setzen, bei 384Bit dann entsprechend 14GT/s.
AMD hat das deshalb eben nicht gemacht, weil die sowieso HBM verwenden für das Hochleistungsprodukt.
Wahrscheinlich sieht das dann folgendermaßen aus:

N10-Refresh: 40 CUs + 256Bit 14GT/s GDDR6
N23: 36 CUs + 256Bit 14-15,5GT/s GDDR6
N22: 48-52 CUs + 384Bit 14 GT/s GDDR6
N23: 80 CUs + 2048Bit 3,2GT/s HBM2e

NV wird auf 18GT/s setzen (wobei diese Speicher immer noch nicht verfügbar sind meines Wissens, sondern nur der RAMBUS PHY, was genau gar nichts heißt - es gibt bislang maximal nach wie vor 16GT/s GDDR6-RAM), das ist sicher richtig. Die haben aber eben ihre Hersteller auch darauf vorbereitet, sowas produzieren zu können. Bei Release der von mir spekulierten Titan im September wird man sicherlich auch endlich etwas passenden RAM bekommen können.

genervt
Das ergibt keinen Sinn. Entweder alle N21 HBM oder keiner.
HBM ist zudem gut verfügbar, wenn auch etwas teuer z.Zt., da weiterhin hohe Nachfrage, aber Microns Einstieg wird die Preise weiter normalisieren. GDDR6 > 16GT/s gibts momentan schlicht nicht.
Die Speicherpreise sind aber bei den Produktionsmengen von 1000€-Karten, wie der N21XT, zudem auch ziemlich egal. Die Salvagevarianten kann man ja mit günstigen 2,4GT/s (XL) und 2,0GT/s (XLE) ausrüsten.

Berniyh
2020-05-25, 20:53:54
20GT vielleicht nicht, aber 18GT (= 864GB/sek. @ 384Bit SI) sollten schon bis zum Herbst dieses Jahres spruchreif sein - ich hatte schon mehrfach die News von den Rambus-PHYs hier und Anderswo verlinkt...
Das stimmt schon, aber die Planung so einer Karte wird ja nicht jetzt gemacht, sondern vor 2-3 Jahren.
Und vor 2-3 Jahren war ggf. halt nicht klar, dass man die notwendige Bandbreite gut mit 384 Bit GDDR6 stemmen könnte.
Bei HBM2 hingegen sollte das auch damals kein Thema gewesen sein.

AMD hat zwar im Bereich der Speicherinterfaces ein sehr flexibles Design, aber ob es flexibel genug ist solche Entscheidungen innerhalb von etwa 1-1.5 Jahren (vor Release) zu treffen?

Berniyh
2020-05-25, 20:54:26
Ich bleibe dabei: HBM2 sehen wir nur im Profi Segment oder bei Apple. HBM hat sich bisher nicht als massentauglich erwiesen
Big Navi hat mit "Massentauglichkeit" auch wohl kaum etwas am Hut. ;)

robbitop
2020-05-25, 20:57:40
So massentauglich wie es eine High End Grafikkarte sein kann. :)

Gipsel
2020-05-25, 20:58:05
Da halte ich jede Wette dagegen, da AMD nicht die erforderliche Speicherbandbreite auf anderem Wege hinbekommen wird. Die haben sicherlich kein Kartentraining mit TUL und anderen Partnern gemacht, das dafür erforderlich ist, um mehr als 15,5GT/s hinzubekommen (2080 Super), anders als NV. Ich wette sogar, dass die Karten sogar mit 14GT weiterhin ausgestattet werden, mit Rücksicht auf die Partner.Kartentraining? Wo hast Du denn das her? Gibt es dazu einen Link?
Sicher benötigt ein höher getaktetes Interface bessere Boards (siehe PCIe Gen4 mit 16 GT/s). Aber was soll daran jetzt so das übergroße Problem sein? Man muß halt die teuren 16 GT/s oder gar 18 GT/s Samsung GDDR6-Chips kaufen und in die GPU PHYs integrieren, die das schaffen. Aber dann geht das schon.

======================

Das stimmt schon, aber die Planung so einer Karte wird ja nicht jetzt gemacht, sondern vor 2-3 Jahren.
Und vor 2-3 Jahren war ggf. halt nicht klar, dass man die notwendige Bandbreite gut mit 384 Bit GDDR6 stemmen könnte.Schau mal, wann Samsung die GDDR6-Chips mit >=16 GT/s angekündigt hat! Die Pressemeldung mit Verkündung des Beginn der Massenproduktion und Nennung von 18 GT/s Geschwindigkeit ist von Januar 2018. Da passen 2-3 Jahre (also sagen wir mal 2,5) doch perfekt! ;)

Daredevil
2020-05-25, 21:20:42
Ich bleibe dabei: HBM2 sehen wir nur im Profi Segment oder bei Apple. HBM hat sich bisher nicht als massentauglich erwiesen

Wasen mit Fiji, Vega oder der VII?
Sind doch alles Produkte, wo AMD nichts verschenkt.

unl34shed
2020-05-25, 21:36:50
Kartentraining? Wo hast Du denn das her? Gibt es dazu einen Link?

Ich glaube, dass bezieht sich auf Igors Video, in dem er erklärt wie genial Nvidia doch ist, weil sie blind und burried vias verwenden, um schnelleren Speicher Takt bei Ampere zu ermöglichen.
y4kjWK3jJEQ

Im Prinzip wurde da Industriestandard als Raketenwissenschaft verkauft und mal wieder von der Presse (ohne nachzufragen) eine Kuh durchs Dorf getrieben...

robbitop
2020-05-25, 21:48:35
Zumal doch anzunehmen ist, dass der Vendor das Know How auch für AMD Karten übertragen kann.

Langlay
2020-05-25, 21:49:23
Wie wurde es denn dann bei R600 (2007) und GT200/b (2008/2009) gelöst? R600 mag ja ein Fail gewesen sein, aber GT200/b war sehr schlagkräftig - und hatte ein 512Bit SI. Warum müssen es außerdem unbedingt 32Bit-Speicherchips sein? Gingen nicht auch 8 64Bit-Chips? Oder Clamshell-Mode?


https://www.rambus.com/interface-ip/ddrn-phys/gddr6/

The GDDR6 interface supports 2 channels, each with 16 bits for a total data width of 32 bits

Es gibt keine 64 Bit GDDR6 Chips. Bei dem GT200 wurde das mit 4 Memorychips links, 6 Memorychips oben und 6 Memorychips rechts von der GPU realisiert.

Allerdings war das auch noch GDDR3. Es ist anzunehmen das moderner GDDR6 höhere Anfordungen stellt und Toleranzen an Signalqualität und Unterschiede in den Laufzeiten niedriger ist als das bei den Vorgängern.
Daher das was mit GDDR3 oder GDDR5 (R9 290X/390X) funzt muss mit GDDR6 nicht mehr zwingend funktionieren.





Also ein 512Bit SI würde schon mit nur 16GT (= 1TB/sek. BB) sämtliche Bandbreiten-Probleme vollständig lösen - sowohl bei AMD als auch bei Nvidia. Außerdem würde es größere Speicherbestückungen (16GB, 32GB) ermöglichen als 384Bit und wäre vielleicht sogar sparsamer als Letzterer @ 18+ GT...

R2


16GT ist schon relativ hoch, ist mehr als AMD aktuell bei Navi10 verbaut. Ich würde davon ausgehen das ein 512Bit Speicherinterface eher langsamer wäre als Navi10. Siehe Tahiti vs. Hawaii. Davonab das 512Bit Interface mit 16GT Speicher wird wahrscheinlich nicht sparsamer sein als ein 384Bit mit 18GT. Dafür ist imo der Unterschied im Speichertakt zu klein.

unl34shed
2020-05-25, 21:52:30
Zumal doch anzunehmen ist, dass der Vendor das Know How auch für AMD Karten übertragen kann.

Das zwar auch, aber eigentlich ist sogar schon anzunehmen, dass ein Hardwaredesigner bei einem Grafikkarten Hersteller in der Lage ist, mit HF Signalen umzugehen und welche Standard es da in der Fertigung gibt :freak:

basix
2020-05-25, 21:58:14
Ich glaube, dass bezieht sich auf Igors Video, in dem er erklärt wie genial Nvidia doch ist, weil sie blind und burried vias verwenden, um schnelleren Speicher Takt bei Ampere zu ermöglichen.

Im Prinzip wurde da Industriestandard als Raketenwissenschaft verkauft und mal wieder von der Presse (ohne nachzufragen) eine Kuh durchs Dorf getrieben...

Buried Vias sind halt deutlich teurer. Industriestandard hin oder her. In einem Gerät mit Massenproduktion will man das darum nicht unbedingt haben. Vor allem wenn das PCB so grossflächig ist. Quelle (http://www.flowcad.ch/cms/upload/downloads/PCBRoadshow2017Kostenfaktoren.pdf) der Folie

unl34shed
2020-05-25, 22:18:22
40% mehr klingt zwar viel, aber der Anteil der PCB an den Gesamtkosten der GPU sind kaum der Rede wert.
Das PCB einer heutigen GPU dürfte unter 20$ kosten, bei den Massen, die bestellt werden. Wenn man überlegt, dass die Alternative ein weiterer Speicherchip wäre, sind 40% <= 8$ ein Witz.

Odal
2020-05-25, 22:22:00
Damals, als ich noch jung und knackig war, also als die Dinos noch über den Planeten stampften und das Klima 5C wärmer war, damals lagen Grafikkarten bei maximal 600€. Da war das High-End/Enthusiast/KingOfSchnitzel. Da wurde der GESAMTE Umsatz mit Grafikkarten bis 600€ gemacht. Ok, die GTX Titan war deutlich und die 780 Ti knapp drüber. Aber vielleicht sollte man das trotzdem mal im Hinterkopf behalten, wie sehr wir eigentlich über die letzten Jahre gemolken wurden.

Na damals als ich noch Schüler war, da gab es noch die gute alte D-Mark und das "Highend" für <400DM (z.B. TNT2 Ultra) und das tolle war es gab die gleichen Chips + Ram mit etwas weniger Takt (TNT2) für <200DM was sich meist auf Ultra niveau prügeln lies.

Oder die X800GTO ... 12 Pipes statt 16 pipes.... 400Mhz statt 525 lies sich auf 16 pipes freischalten und mit vmod auf 525 Mhz übertakten...

HighEnd leistung für deutlich unter 200€ - das waren noch Zeiten

basix
2020-05-25, 22:37:53
Zur Speicherinterface Diskussion:
Ich tendiere mittlerweile stark zu HBM2e für den RDNA2 Top Dog. Hynix und Samsung bieten mittlerweile 16 Gbit Chips an. Damit würde man bei 2 Stapeln und 4-hi auf 16 GByte kommen. Das wäre eigentlich ganz gut. Zumindest besser als nochmals 11-12 GByte ;) 384bit GDDR6 wäre möglich und 512bit halte ich für ausgeschlossen. HBM2e hat aber zwei deutliche Vorteile: Geringerer Verbrauch und deutlich geringerer Flächenbedarf. Ersterer Vorteil ist klar. Das Thema Flächenbedarf wird bei immer teurer werdenden Prozessen aber immer gewichtiger. Unter dem Strich könnte eine 16 GByte HBM2e Lösung + Interposer gar nicht so viel teurer sein als die selbe Menge GDDR6 mit 18 GT/s. Für den allfälligen Aufpreis erhält man aber relativ viel Power Budget für den Chip, könnte bei selber Chipfläche mehr Einheiten verbauen (z.B. 96 anstatt 80 CUs) oder der Chip wird kleiner (geringere Kosten).

Ein paar Überlegungen dazu:

HBM2e erzeugt bei 2 Stapeln von für 2020 angekündigten Produkten 820-1070 GB/s (Samsung (https://news.samsung.com/global/samsung-to-advance-high-performance-computing-systems-with-launch-of-industrys-first-3rd-generation-16gb-hbm2e)) oder 920 GB/s (Hynix (https://www.skhynix.com/eng/pr/pressReleaseView.do?seq=2809&offset=1)), passt für 80-96 CUs und man hätte sogar 2nd Source beim Speicher
Bei Navi 10 werden 25% der Fläche nur für das SI benötigt. Inkl. anderen fixen Anteilen wie I/O und Display Controller steigt der Anteil auf 40%. Somit bleiben nur noch 60% für WGPs und Shader Engines übrig
Beim angenommenen 505mm2 Die benötigt ein 384bit SI etwa 18-20% der Gesamtfläche und inkl. I/O und Display Controller dann 25%. Somit bleiben 75% für die Recheneinheiten übrig
HBM spart in etwa 50% der Fläche verglichen mit einem GDDR6 SI (ganz grob abgeschätzt anhand Navi 10 und Vega 10)
Mit HBM hätte man also 85% des Chips für die Recheneinheiten zur Verfügung
85% / 75% = 1.13 --> Das würde für +20% CUs bei unveränderter Anzahl Shader Engines (Annahme = 4 Stück) reichen
96 anstatt 80 CUs würde einen deutlich effizienteren Betriebspunkt bei selber Performance erlauben und man hätte bei Bedarf (starke Ampere Derivate) noch etwas Reserve. Effizienter Betriebspunkt + HBM Effizienz = 250W @ 92 CU @ 1.8 GHz? Taktrate entspricht XBSX Takt.
Mit einem Halo Produkt kann AMD viel Mindshare gewinnen und aufgrund der "schnellsten aller Klassen" Charakteristik auch hohe Preise verlangen (was allfällig hohe HBM2e Preise wieder relativiert)


Edit:
Guter Punkt von Sunrise zwei Posts weiter. Mit 8-hi oder 12-hi Stacks kann man High End / Prosumer Beschleuniger für Apple und Workstations mit wenig Aufwand realisieren.

40% mehr klingt zwar viel, aber der Anteil der PCB an den Gesamtkosten der GPU sind kaum der Rede wert.
Das PCB einer heutigen GPU dürfte unter 20$ kosten, bei den Massen, die bestellt werden. Wenn man überlegt, dass die Alternative ein weiterer Speicherchip wäre, sind 40% <= 8$ ein Witz.

Da hast du schon recht. Aber 8$ bei 1 Mio GPUs ergibt ein schönes Sümmchen. Bei einem weiteren Speicherchip hätte man wenigstens auch mehr Kapazität und günstigeren Speicher ;)

HarryHirsch
2020-05-25, 22:38:52
Als ich Schüler war haben 4MB RAM 400.-DM gekostet.
Mein Penis war schon etwas härter nach dem Kauf.

Sunrise
2020-05-25, 22:43:30
...HBM -> zu teuer (und angeblich hat AMD selbst gesagt, kein HBM mehr für Gaming-GPUs!)

512Bit GDDR6 16GT -> belegt angeblich zuviel Die-Fläche

384Bit GDDR6 18GT -> Sweetspot/Kompromiss, der die BB-Anforderungen knapp erfüllt und die Speichermenge lässt sich verdreifachen* !

* = bezogen auf N10

Irgendein Weg muss ja gefunden werden...

R2
Nicht nur angeblich, es wurde im Prinzip genau so gesagt. Allerdings darf man nicht vergessen, und das übersehen hier meiner Meinung nach einige, dass Big Navi nicht ausschließlich Consumer anspricht, auch Apple wird wohl einen nicht unerheblichen Teil von Big Navi (N21) abnehmen (es gibt bis zu 10! SKUs), und Apple verbaut aktuell beim MacPro Vega20 mit 32GB HBM2...

Das macht die Sache jetzt nicht einfacher...denn eigentlich ist Arcturus (CDNA1) ja der Nachfolger von Vega20. Nur wissen wir aktuell nich nicht, ob das Teil komplett zum HPC-AI-Beschleuniger degradiert wurde.

Ich tendiere aber auch eher zum 384bit SI mit schnellem GDDR6, nur würde ich aktuell nichts ausschließen wollen.

unl34shed
2020-05-25, 22:47:03
Nicht nur angeblich, es wurde im Prinzip genau so gesagt.

AFAIK haben sie gesagt, dass man den Speicher Typ wählt, der für die Anwendung notwendig ist. Eine Absage zu HBM im Gaming/Consumer gab es in diesem Sinne nicht. Das hat so weit ich mich noch erinnere nur dazu gedichtet :wink:

Sunrise
2020-05-25, 22:52:18
AFAIK haben sie gesagt, dass man den Speicher Typ wählt, der für die Anwendung notwendig ist. Eine Absage zu HBM im Gaming/Consumer gab es in diesem Sinne nicht. Das hat so weit ich mich noch erinnere nur dazu gedichtet :wink:
Ja, stimmt, kann man jetzt verschieden auslegen, nur verstehe ich das eben so, dass "Anwendung" in diesem Fall (ist ja High-End/Workstation) verschieden sein kann, wenn N21 nicht nur für Gaming verkauft wird, was wohl so sein wird. Und dann wäre auch HBM rein theoretisch wieder im Rennen. Die Kosten für diese hochselektieren GDDR6 sind sicher nicht gering, auch wenn das bei den höheren Preisen weniger eine Rolle spielen sollte. Will AMD aber vor allem auch preislich aggressiv agieren, ist GDDR6 wahrscheinlich dennoch die bessere Wahl. Die VII war kein gutes Geschäft für AMD, das war ja eher notgebohren, auch wenn die Speicherspecs nach wie vor beachtlich sind.

unl34shed
2020-05-25, 22:54:41
Habs gefunden:
MP: You bet, and we’ve been in this space for years. We led the way at AMD of bringing HBM to GPUs – it’s on a silicon interposer using a 2.5D packaging technique. What makes it critical is getting the right memory solution for the workload, and you also have to hit the right cost/performance targets. It’s a tricky balance that you have to make for every product. In high performance GPU computation, HBM is a must, and you see it on our MI roadmap. At every other point, we always look at the right solution, and both GDDR and DDR have great roadmaps that are being executed on, and we’ve been leveraging these technologies successfully. We will do the same moving forward, looking at each of our products and asking where the industry is going, what the workload requirements for each product are meant to be, and what are the cost/performance metrics of each memory solution.
Quelle: https://www.anandtech.com/show/15268/an-interview-with-amds-cto-mark-papermaster-theres-more-room-at-the-top

Auslegung ist da eigentlich klar.

Linmoum
2020-05-25, 22:54:55
Mir ist spontan nur die Aussage dahingehend von Papermaster in den Sinn gekommen:

We led the way at AMD of bringing HBM to GPUs – it’s on a silicon interposer using a 2.5D packaging technique. What makes it critical is getting the right memory solution for the workload, and you also have to hit the right cost/performance targets. It’s a tricky balance that you have to make for every product. In high performance GPU computation, HBM is a must, and you see it on our MI roadmap. At every other point, we always look at the right solution, and both GDDR and DDR have great roadmaps that are being executed on, and we’ve been leveraging these technologies successfully. We will do the same moving forward, looking at each of our products and asking where the industry is going, what the workload requirements for each product are meant to be, and what are the cost/performance metrics of each memory solution.
https://www.anandtech.com/show/15268/an-interview-with-amds-cto-mark-papermaster-theres-more-room-at-the-top

BlacKi
2020-05-25, 23:14:01
Ich tendiere aber auch eher zum 384bit SI mit schnellem GDDR6, nur würde ich aktuell nichts ausschließen wollen.
sehe ich auch so.
meine einschätzung mit gddr6 für big navi die ich bookmarke:

80 CU / 12gb 16Gbps Chips 768GB/s / Game GPU clock 1650-1750mhz 290w powerlimitiert(OC 2100-2200mhz ca. 450w verbrauch) / 3DC index 4k 288%

Langlay
2020-05-25, 23:26:04
sehe ich auch so.
meine einschätzung mit gddr6 für big navi die ich bookmarke:

80 CU / 12gb 16Gbps Chips 768GB/s / Game GPU clock 1650-1750mhz 290w powerlimitiert(OC 2100-2200mhz ca. 450w verbrauch) / 3DC index 4k 288%

Das wäre imo zuwenig. Das ist ungefähr der Takt und der Verbrauch den die VII so Stock machst.

Meine Variante :

80 CU / 16 GB HBM2 2 Stacks 2048bit ~900GB/s Game GPU clock 1750-1850mhz 250W powerlimitiert(OC 2100+ Mhz >400Watt)

Dampf
2020-05-25, 23:44:52
Das wäre imo zuwenig. Das ist ungefähr der Takt und der Verbrauch den die VII so Stock machst.

Meine Variante :

80 CU / 16 GB HBM2 2 Stacks 2048bit ~900GB/s Game GPU clock 1750-1850mhz 250W powerlimitiert(OC 2100+ Mhz >400Watt)

HBM2 wirds nicht geben.

Linmoum
2020-05-25, 23:49:07
Stimmt, HBM2e. :P

Daredevil
2020-05-26, 00:00:29
Kann mir das mal jemand erklären?
Wieso ist es 2017 möglich, HBM auf ne 400€ Karte zu schnallen, welche dann später für 200€ vertickt wird, aber 2020 es es "unmöglich" HBM auf ne teurere Karte zu erwarten?
Wo isn da der Sinn? Ist HBM wie guter Wein, der reift oder was?

Dampf
2020-05-26, 00:09:42
Kann mir das mal jemand erklären?
Wieso ist es 2017 möglich, HBM auf ne 400€ Karte zu schnallen, welche dann später für 200€ vertickt wird, aber 2020 es es "unmöglich" HBM auf ne teurere Karte zu erwarten?
Wo isn da der Sinn? Ist HBM wie guter Wein, der reift oder was?

Basiert die 400€ Karte denn auch auf der brandneuen RDNA2 Architektur? :tongue:

Linmoum
2020-05-26, 00:10:29
Der Unterschied ist der, dass man damals einen Chip für alles verwursten musste, weil man nicht die Möglichkeiten/Mittel hatte, eine klare Trennung zwischen HPC und Gaming zu vollziehen.

Jetzt hat man mit CDNA und RDNA eine klare Trennung und nicht mehr einen einzigen Chip, mit dem man irgendwie alle Segmente abdecken muss (und weswegen man auch HBM auf Gaming-GPUs zu sehen bekam).

Auch, wenn ich weiterhin damit rechne, dass das RDNA2-Flagschiff doch eher HBM2e haben wird.

Daredevil
2020-05-26, 00:14:52
Von CDNA ist aber noch überhaupt nichts zu sehen, außer als VII, die sicherlich auch gerne einen Nachfolger sucht in solchen Geräten wie MacPro o.ä. ( Wo heute noch ne Vega reingeschnallt wird )
Der iMac möchte an der Stelle sicherlich auch einen gescheiten Nachfolger haben und keine "Only Gaming" Grafikkarte.

Ich weiß, dass AMD das gerne trennen möchte, aber ob die den Luxus haben, das ganze schon jetzt zu tun? Da bin ich mir irgendwie nicht so sicher.
Vega als "Compute" Einheit ist ja auch noch in der Notebook APU drin.

Ravenhearth
2020-05-26, 01:03:17
Kann mir das mal jemand erklären?
Wieso ist es 2017 möglich, HBM auf ne 400€ Karte zu schnallen, welche dann später für 200€ vertickt wird, aber 2020 es es "unmöglich" HBM auf ne teurere Karte zu erwarten?
Wo isn da der Sinn? Ist HBM wie guter Wein, der reift oder was?
Vega hatte afaik sehr geringe Margen. Nur weil es möglich war, war es nicht unbedingt sehr lohnenswert für AMD. Da möchten sie nicht noch einmal hin.

Langlay
2020-05-26, 01:26:35
Vega hatte afaik sehr geringe Margen. Nur weil es möglich war, war es nicht unbedingt sehr lohnenswert für AMD. Da möchten sie nicht noch einmal hin.


Wenn das Teil in Bezug auf Navi10 ,am Ende 66% mehr Performance liefert, wird die Karte nicht in die Verlegenheit kommen für 400€ verkauft werden zu müssen. Ich würde erwarten das Big Navi teurer wird als die Radeon VII.

Da sollte genug Budget für HBM2 da sein. Und HBM2 ist die Lösung mit den meisten Vorteilen. (Genug Bandbreite, wenig Energieverbrauch, gute VRAM Menge (16GB)

Der_Korken
2020-05-26, 01:35:20
In der Leistungsspitze kann man die Preise nach oben schrauben, wie z.B. bei der 2080Ti. Sollte AMD tatsächlich so einen Riesenchip bringen, wäre HBM imho eine gute Wahl, weil dann mehr Fläche und Strom für die CUs übrig bleiben, wie basix hier vorgerechnet hat. Hier spielen die letzten Dollar Marge weniger eine Rolle, als vielmehr die absolute Leistungskrone. Beim 3070-Konkurrenten sieht das natürlich ganz anders aus.

Rampage 2
2020-05-26, 01:46:07
Wenn die 3080 Ti wieder nur GA102-Salvage sein sollte, dann wird sie ziemlich exakt genauso viele Shader-Cluster haben, wie der hypothetische 80CU-BigNavi:

3080 Ti: 80 von 84 SMs aktiv -> 5120 SPs

BigNavi: 80 CUs -> 5120 SPs

Da RDNA2 sowohl von der Taktbarkeit besser (oder gleich gut) und von der Effizienz pro Recheneinheit ebenfalls gleich gut (oder mit Glück sogar etwas besser) sein sollte wie Ampere, sehe ich diesmal gute Chancen für einen Gleichstand oder gar Leistungskrone im Enthusiast-Segment.:)

Dann wird auch AMD dafür 800€ verlangen können und Nvidia darf auch für Gx102 seine geliebte Marge begraben;D

R2

Leonidas
2020-05-26, 06:37:58
Mehr Speicher kostet halt eben auch mehr Saft, egal ob GDDR oder HBM und das fehlt dann wem? Der GPU selbst.


Die Interfaces kosten Saft, der Speicher selber kaum. 8 GB GDDR6 dürften ca. 6-10W allein für den Speicher ziehen. Das Interface ist schwer schätzbar, aber 256 Bit mit guter Taktrate sind sicherlich bei ca. 50W oder in einem ähnlichen Rahmen.




Als ich Schüler war haben 4MB RAM 400.-DM gekostet.


... und ich bin trotzdem den kompletten Weg gegangen: 2 MB - 4 MB - 8 MB - 16 MB - 32 MB - 64 MB - 128 MB - 256 MB. Die letzten Schritte auf einem Tyan-Mainboard mit 8 Speichersteckplätzen. Ich hatte am Ende von jeder Speichermenge (bis 128 MB) exakt einen Stick, nur von 2 MB dann zwei Sticks = 8 Sticks mit insgesamt 256 MB Speicher. Lief 1a.

OgrEGT
2020-05-26, 07:48:38
Die Leaks sprechen von 4 N21 Varianten. Ich glaube es ist nicht sehr wahrscheinlich dass es unterschiedliche N21 Varianten mit unterschiedlichen Speicherinterfaces geben wird da einerseits zu aufwendig und es andererseits nicht mehr der gleiche Chip sein könnte und eine andere Bezeichnung haben müsste. Die verschiedenen N21 Varianten deuten doch eher auf einen Chip hin der unterschiedlich bzgl CU und Speicherinterface aktiviert und ggf gebinnt ist. Also entweder haben alle ein HBM2e oder alle ein GDDR6 Interface. Ersteres mMn aufgrund der Kosten insb im Performance Segment unwahrscheinlich.

basix
2020-05-26, 09:23:05
Die Leaks sprechen von 4 N21 Varianten. Ich glaube es ist nicht sehr wahrscheinlich dass es unterschiedliche N21 Varianten mit unterschiedlichen Speicherinterfaces geben wird da einerseits zu aufwendig und es andererseits nicht mehr der gleiche Chip sein könnte und eine andere Bezeichnung haben müsste. Die verschiedenen N21 Varianten deuten doch eher auf einen Chip hin der unterschiedlich bzgl CU und Speicherinterface aktiviert und ggf gebinnt ist. Also entweder haben alle ein HBM2e oder alle ein GDDR6 Interface. Ersteres mMn aufgrund der Kosten insb im Performance Segment unwahrscheinlich.

Wie kommst du auf die Idee mit unterschiedlichen SI? Die Varianten haben selbstverständlich entweder alle GDDR6 oder alle HBM2. Alles andere macht wie du sagst keinen Sinn.

robbitop
2020-05-26, 09:27:39
Na damals als ich noch Schüler war, da gab es noch die gute alte D-Mark und das "Highend" für <400DM (z.B. TNT2 Ultra) und das tolle war es gab die gleichen Chips + Ram mit etwas weniger Takt (TNT2) für <200DM was sich meist auf Ultra niveau prügeln lies.

Oder die X800GTO ... 12 Pipes statt 16 pipes.... 400Mhz statt 525 lies sich auf 16 pipes freischalten und mit vmod auf 525 Mhz übertakten...

HighEnd leistung für deutlich unter 200€ - das waren noch Zeiten
Und es gab alle 12 Monate eine Leistungsverdopplung ohne große Preiserhöhung und entsprechende Sprünge in der Bildqualität. (Ende der 90er sogar alle 6-9 Monate) War eine tolle Zeit.
Aber dafür hält HW heute deutlich länger, da die Produktzyklen viel länger und die Sprünge trotzdem kleiner sind. Man kann mit einem High End PC locker 5-6 Jahre eigentlich alles sehr gut spielen. :)

Berniyh
2020-05-26, 09:45:31
Von CDNA ist aber noch überhaupt nichts zu sehen
Hast du die letzten Monate geschlafen? Nichts von Arcturus mitbekommen?

robbitop
2020-05-26, 09:47:18
Naja aber es gibt noch kein konkret angekündigtes Produkt und noch ist kein Launch eines CDNA Produktes in Sichtweite, oder?

BlacKi
2020-05-26, 09:47:39
Kann mir das mal jemand erklären?
Wieso ist es 2017 möglich, HBM auf ne 400€ Karte zu schnallen, welche dann später für 200€ vertickt wird, aber 2020 es es "unmöglich" HBM auf ne teurere Karte zu erwarten?
Wo isn da der Sinn? Ist HBM wie guter Wein, der reift oder was?
es gab den hpc faktor. es war ein non gaming chip, der etwas gaming konnte. den abfall hat man dann im gaming verkauft. es gab gaming fremde bereiche die die entwicklungskosten übernahmen. und es gibt die unbekannte fragestellung warum kein anderer hersteller für gaming hbm in betracht zieht. der grund, obwohl wir ihn nicht exakt kennen, wird derselbe sein, warum big navi kein hbm bekommt.

basix
2020-05-26, 09:56:37
Das Marktumfeld hat sich aber deutlich geändert: GDDR6 ist sehr teuer verglichen mit GDDR5, 7nm ist deutlich teurer als 14nm, Interposer und HBM werden mittlerweile breitflächig in gewissen Produktkategorien eingesetzt (somit günstiger als früher), die High End Karten wurden deutlich teurer.

Das Hauptargument gegen HBM, die hohen Kosten, hat sich dadurch deutlich entschärft verglichen zu 2017. Dazu kommt eben noch das Argument Energieeffizienz und dass AMD einen "Nvidia Killer" auflegen will, um im High End Segment wieder Fuss zu fassen. Ich sage nicht, dass HBM zwingend ist. Aber gerade heute hätte es mehr Vorteile denn je und die Nachteile sind weniger gewichtig als auch schon.

BlacKi
2020-05-26, 10:06:28
Das Marktumfeld hat sich aber deutlich geändert: GDDR6 ist sehr teuer verglichen mit GDDR5, 7nm ist deutlich teurer als 14nm, Interposer und HBM werden mittlerweile breitflächig in gewissen Produktkategorien eingesetzt (somit günstiger als früher), die High End Karten wurden deutlich teurer.

Das Hauptargument gegen HBM, die hohen Kosten, hat sich dadurch deutlich entschärft verglichen zu 2017. Dazu kommt eben noch das Argument Energieeffizienz und dass AMD einen "Nvidia Killer" auflegen will, um im High End Segment wieder Fuss zu fassen. Ich sage nicht, dass HBM zwingend ist. Aber gerade heute hätte es mehr Vorteile denn je und die Nachteile sind weniger gewichtig als auch schon.
es fehlt, wie oben erwähnt, aber das hpc segment, das die entwicklungskosten übernimmt.

basix
2020-05-26, 10:13:37
es fehlt, wie oben erwähnt, aber das hpc segment, das die entwicklungskosten übernimmt.

Welche Entwicklungskosten? Sind die bei HBM so viel höher als mit GDDR6? Etwas höher sicher, aber vermutlich nicht wahnsinng im Vergleich zum Rest (Chipdesign, Architektur, SW-Stack usw.). Entwicklungskosten werden über den ganzen Produktstack abgewälzt, was auch die kleineren Chips beinhaltet (welche sicher mit GDDR6 kommen werden). Und AMD hat schon seit Fiji HBM-Produkte, die Entwicklungsarbeit bzw. Grundlagenarbeit wurde hier schon lange geleistet. Wenn das Produkt gut wird, sind die Kosten schnell reingeholt.

Zudem: Was ist mit CAD Workstations, Rendering Workstations, Raytracing/Rendering Farmen (~HPC) und Apple? Es gäbe also schon High Margin Geschäftsfelder und Enthusiast Gaming erreicht definitiv auch >50% Marge.

Bucklew
2020-05-26, 10:23:15
Da RDNA2 sowohl von der Taktbarkeit besser (oder gleich gut) und von der Effizienz pro Recheneinheit ebenfalls gleich gut (oder mit Glück sogar etwas besser) sein sollte wie Ampere, sehe ich diesmal gute Chancen für einen Gleichstand oder gar Leistungskrone im Enthusiast-Segment.
Ne 3080Ti soll nicht mal 20% schneller als ne 2080Ti werden?

*LOL*

;D;D;D

HOT
2020-05-26, 10:44:41
Naja aber es gibt noch kein konkret angekündigtes Produkt und noch ist kein Launch eines CDNA Produktes in Sichtweite, oder?
Da man davon so überhaupt nichts hört, gärt bei mir langsam der Verdacht, dass das vielleicht das erst AMD N5-Produkt sein könnte und erst 21 oder noch knapp 20 kommt... in guter Vega20-Tradition.

Bucklew
Es kristallisiert sich jedenfalls heraus, dass N21 und GA102 in einer ähnlichen Liga spielen. Ob der eine oder der andere 10% darüber herauskommt ist eigentlich egal. Gut für den Kunden ist es alle Mal.

robbitop
2020-05-26, 11:05:58
Davon ist anhand der Indizien auszugehen. Ausführungseinheiten scheinen ähnlich zu sein von der Menge. Der Takt von RDNA2 scheint auch besser geworden zu sein (PS5 2,2 GHz) - auch Ampere soll >2 GHz operieren.
Dazu kommt RT und sicherlich ein wenig mehr Rohleistungsnormierte Performance als Navi10.
Es wird auf wahrscheinlich grob ein Pari werden, wenn man von der jetzigen Informationlage ausgeht. +/-10%.

Allerdings braucht man mittelfristig eine Alternative zu DLSS 2.0. Noch ist die Verbreitung klein - aber das kann sich ändern. Das ist schon ein recht disruptives Verfahren IMO. Wenn die Reviewer darauf kommen, GA102 mit DLSS zu benchen, wird das die Ergebnisse schon beeinflussen.

mironicus
2020-05-26, 11:11:32
Wie kommt das eigentlich zustande, dass AMD in allen Bereichen so aufholt? Wird RDNA2 uns so einen Moment bescheren wie Zen2?

JVC
2020-05-26, 11:13:57
Wird RDNA2 uns so einen Moment bescheren wie Zen2?
Ich hoffe doch :smile:
Und RDNA3 dann wie Zen3/4 ;)

M.f.G. JVC

Timbaloo
2020-05-26, 11:21:37
Wie kommt das eigentlich zustande, dass AMD in allen Bereichen so aufholt?
Das ist doch das gleiche wie vor jedem Radeon-Release der letzten Jahre. Fury, Vega, Vega 2, ... der Hypetrain wird solange beschleunigt bis er in die Mauer des Releases einschlägt und die Trümmer versinken dann langsam in einem austrocknenden See aus "fine wine". Am Ende ist der Unterschied wieder deutlich, nichts ändert sich wirklich. AMD wird aufholen, aber nicht einholen.

Bucklew
2020-05-26, 11:27:03
Da von Vega auf RDNA2 zu schließen ist wie von Bulldozer auf ZEN2!
Bulldozer war 2011, Zen2 war 2017.
Vega war 2017 und RDNA2 2020 (eventuell).

Ihr solltet euer Jubelgeheul schleunigst einpacken, sonst wird es wieder peinlich ohne Ende - nicht, dass es die üblichen Verdächtigen jemals gestört hätte, wenn ihr Hypetrain komplett am Prellbock Realität zerstört wurde. Zwei Tage später wird wieder Gas gegeben.

Echt traurig, dass eine sinnvolle Spekulation überhaupt nicht möglich ist. Wird von Leuten wie HOT immer komplett geschreddert die Diskussion.

Ravenhearth
2020-05-26, 11:54:59
Wer im Glashaus sitzt...

HOT
2020-05-26, 11:55:09
Bucklew macht den Trump hier :D.


basix
HBM hat sich längst zu einem Standardspeicher gemausert. Wie gesagt steigt ja auch Micron dieses Jahr in die Produktpalette mit ein, damit ist der Standard ab diesem Jahr absolut massentauglich geworden. Auch NV wird mMn irgendwann umsteigen, weil einfach die Vorteile die Nachteile überwiegen.

mironicus
2020-05-26, 11:55:57
Geht vom schlimmsten aus und lasst euch am Ende positiv überraschen. ;D

Meine schlimmste Befürchtung: 16 GB HBM und nur 2 TB Transferrate, so dass die Karte knapp das Ziel verfehlt für 4K/120 FPS Gaming geeignet zu sein.

erlgrey
2020-05-26, 12:07:34
Mit einem Punkt hat bucklew schon recht, dieses durchgängige anheizen des hypetrains ist alles andere als sinnvoll, am Ende sind "die Leute" enttäuscht weil das selbstgesteckte und immer höhere Ziel um 10% verfehlt wird.

Ich freue mich auch über halbwegs fundierte Spekulation aber teilweise fragt man sich schon, ob sich manche nicht einfach mit aller Gewalt enttäuschen wollen.

robbitop
2020-05-26, 12:08:17
Wie kommt das eigentlich zustande, dass AMD in allen Bereichen so aufholt? Wird RDNA2 uns so einen Moment bescheren wie Zen2?
Man hat ein gutes Management (im Gegensatz zu vor 5-10 Jahren) und hat nun auch wieder mehr Budget für RnD. Bis das in entsprechende Produkte mündet, dauert das natürlich auch.

Der neue Leapfrog Cycle hilft sicherlich auch. Jedes Jahr eine iterativ verbesserte uArch mit klaren Designfreeze Terminen. Schafft es ein Feature nicht -> kein Problem dann nächstes Jahr. Das zwingt zu guter Execution. Das ist schonmal die halbe Miete.

HOT
2020-05-26, 12:08:39
Ich seh keinen Hypetrain. Eher einen Hype-Bummelzug. Außerdem ist der Hypetrain auf der grünen Seite schon 3x entgleist hier im Forum dieses Jahr ;).
Es sieht hier glaub ich fast keiner so, dass N21 jetzt GA102 wirklich satt schlagen kann. Ein Hype sieht da anders aus.

Badesalz
2020-05-26, 12:09:12
Allerdings braucht man mittelfristig eine Alternative zu DLSS 2.0. Noch ist die Verbreitung klein - aber das kann sich ändern. Das ist schon ein recht disruptives Verfahren IMO. Wenn die Reviewer darauf kommen, GA102 mit DLSS zu benchen, wird das die Ergebnisse schon beeinflussen.Ich sehe selbst als 2.0 in diesem Zermatschen immernoch keinen High-End Sinn.

Ich hab aber allgemein wohl kein aktuelles Weltverständnis... Wie man so verblödet sein kann sich darüber zu freuen, daß Leute z.B. ~330€ für eine 2060 6GB bezahlen müssen, eben dank AMD, das begreife ich auch nicht.

HOT
2020-05-26, 12:12:08
Nope, die Scheisse wird ja gekauft für den Preis. Einfach mal liegen lassen und die Lage bessert sich.

robbitop
2020-05-26, 12:12:31
Bulldozer war 2011, Zen2 war 2017.
Vega war 2017 und RDNA2 2020 (eventuell).

Ihr solltet euer Jubelgeheul schleunigst einpacken, sonst wird es wieder peinlich ohne Ende - nicht, dass es die üblichen Verdächtigen jemals gestört hätte, wenn ihr Hypetrain komplett am Prellbock Realität zerstört wurde. Zwei Tage später wird wieder Gas gegeben.

Echt traurig, dass eine sinnvolle Spekulation überhaupt nicht möglich ist. Wird von Leuten wie HOT immer komplett geschreddert die Diskussion.
Die Bulldozer uArch wurde bis 2016 iteriert. Zuletzt mit Excavator. Wer hätte 2016 an Zen geglaubt?

IMO sind die Indizien zumindest da, dass AMD aufholt. Überholen ist IMO unwahrscheinlich, weil NV extrem viel RnD hat und auch nie lockerläßt.
Aber RDNA1 hat schon gezeigt, dass man ein großes Stück aufgeholt hat. RDNA2 scheint ja mit Serientaktraten von bis zu 2,2 GHz in einer Konsole auch einiges aufgeholt zu haben.
Es wird zumindest kein Vega vs Pascal mehr werden. Es ist nicht unwahrscheinlich, dass der Abstand stark schrumpfen wird.

Und genau das ist für den Endkunden das beste. Denn nur mit Wettbewerb gibt es auch gutes P/L.

Ich sehe selbst als 2.0 in diesem Zermatschen immernoch keinen High-End Sinn.
Es wird sicherlich nicht die letzte Version sein. Und natürlich ist sowas ohne Kompromisse. Aber es gibt die Option auf höhere Auflösung, die es sonst nicht gegeben hätte. Damit ist die resultierende Endqualität sicherlich gesteigert. 4K zu den Kosten von <1440P - klar sieht natives 4K oft (aber nicht immer) besser aus als DLSS 2.0 - aber die gesteigerte Auflösung sollte das Endergebnis verbessern.
Auf einmal kann man mit Midrangekarten auch 4K spielen.

dargo
2020-05-26, 12:13:50
Wie kommt das eigentlich zustande, dass AMD in allen Bereichen so aufholt?
Indem man wieder Geld verdient und investiert? :uconf2:

mironicus
2020-05-26, 12:29:01
Indem man wieder Geld verdient und investiert? :uconf2:

Das ist doch keine Erklärung. In Wirklichkeit war es so:
Ein Prophet erschien bei AMD und verkündete "Ich zeige euch den richtigen Weg zum Erfolg. Folgt mir und ihr werdet in jedem Bereich alle hinter euch lassen."

Intel haben sie bereits hinter sich gelassen, jetzt ist NVidia fällig. :freak:

dargo
2020-05-26, 12:33:46
@mironicus

Ich sehe nicht wo Nvidia Fertigungsprobleme parallel zu Intel hat, du etwa? Ein wichtiger Aspekt beim Erfolg von Zen.

Badesalz
2020-05-26, 12:45:26
Es wird sicherlich nicht die letzte Version sein. Und natürlich ist sowas ohne Kompromisse. Aber es gibt die Option auf höhere Auflösung, die es sonst nicht gegeben hätte. Damit ist die resultierende Endqualität sicherlich gesteigert. 4K zu den Kosten von <1440P - klar sieht natives 4K oft (aber nicht immer) besser aus als DLSS 2.0 - aber die gesteigerte Auflösung sollte das Endergebnis verbessern.
Auf einmal kann man mit Midrangekarten auch 4K spielen.Ich lese wahrscheinlich nur die falschen Artikel und schau mir falsche Videos dazu an... Ein Regress ist IMMER zu sehen. Ob der wirklich relevant ist und wo demgegenüber an anderen Stellen die Wins liegen, darüber kann man natürlich quatschen.
Darüber, daß native 4k nicht immer besser aussehen als 2.0, eher weniger.

Das ist mir wie so oft bei den Grünen, wie auch oft bei den sonstigen Optimierungen, zu viel Rumtrickserei. Wobei so wirklich aufgeflogen sind die damit leider nur paar wenige Male. Wenigstens das mit dem... Schnee ;) sollte man aber noch kennen.
Bei AMD ist das grad einfacher. RIS nicht übertrieben an und man hat an jeder Ecke und Stelle den Eindruck irgendwo auf >50% des Weges zu sein, zu der nächsthöheren Auflösungsstufe. Fertig.

Vom Ansatz her sozusagen eher der umgekehrte Weg, aber um 4k mit einer Midrange (Geld spar) spielen zu können, dafür muss man halt erst einen brauchbaren 4k Monitor bezahlt haben.
Das ist imho auch keine schlechte Frage wer denn alles so auf 4k Gaming aus ist, und das dann mit einer Midrange vorhat...

@Bucklew
Da frage ich mich halt nur immer: Warum sieht man davon nix in den Produkten?Ich schätze dir selbst fällt das nicht so auf, aber du stellst Fragen zu Thesen auf, die du dir davor aus dem Finger saugst. Das ist sowas wie Baden im eigenen Pipi... Die Anzahl der rotierenden und sonstigen, ausdrucksstärksten Smileys, deutet darauf, daß du entweder leicht angetrunken bist oder dich in einer starken Stressituation befindest :confused:

Kannst du auch NORMAL reden? Ich war grad in deinem Profil und hab nach Beiträgen gesucht wo du dich normal unterhälst. Da muss man pro Seite schon ordentlich scrollen für diese Rosinen.

mironicus
2020-05-26, 12:51:45
Ja, NVidia ist schwerfälliger geworden. Und mit 12 nm-Chips konnten sie massiv Geld verdienen und sich auf der Position ausruhen.

Aber ich denke mit RDNA2 steht AMD endlich auch der Laptopmarkt offen. Schaut euch doch mal die ganzen Laptops mit GTX und RTX-Einheiten an. Da ist wirklich viel zum "aufholen".

Wenn AMD ein besseres Produkt liefert als NVidia, dann habe ich kein Problem zu wechseln. Ich bin letztes Jahr auch von Intel zu AMD (Zen 2) gewechselt und bereue es keine Sekunde.

Dampf
2020-05-26, 13:01:00
Wenn AMD ein besseres Produkt liefert als NVidia...

Mit RDNA1 sicher nicht.
Bis RDNA2 kommt wirds noch ne ganze Weile dauern. Erstmal kommen die RDNA1 Dinger in die Laptops. Und die gehen hoffnungslos unter gegen RTX wegen DLSS und DX12 Ultimate Support.

Badesalz
2020-05-26, 13:02:53
@mironicus
"Besseres" wird imho nichts schnelleres sein. Mit RDNA2 noch nicht. Imho. Ich sehe auch nicht wo und wann das plötzlich sich so wandeln köntne wie bei den CPUs. Oder, warum das überhaupt idealerweise so sollte.

Wenn sie aber was bringen wo sich die Leute endlich entspannt fragen können, ob das Mehr für das Geld bei NV, auch wirklich nenneswert lohnend ist - also wo AMD mit RDNA1 schon auf dem halben Weg dahin war - dann kann auch die GPU-Sparte endlich bisschen Luft nach oben bekommen.

Für Leute die das nicht für gut genug befinden gibt es dann immernoch den Win, eine Grüne preiswerter als erwartet zu bekommen ;) Warum sollte irgendjemand ein Problem damit haben? Ok wenn man Bucklew kennt entwickelt man nicht grad grüne Symphatien, aber solchen Irrsinn mal ausgeblendet? Eben.

Da gibt es also von keiner Seite etwas daran auszusetzen sich AMD kleinwenig stärker als jetzt zu wünschen.

mironicus
2020-05-26, 13:24:47
Ich wette, beim GPU-Takt wird AMD dieses Mal NVidia hinter sich lassen.
Wie sie z.B. bei Renoir die Anzahl der CU gesenkt haben, aber den Takt massiv steigern konnten. Schon der Desktop-Ableger soll ja 2,1 GHZ haben. Und das ist nur ein Vega. Da kann man nur gutes erwarten.

JVC
2020-05-26, 13:33:44
Wird halt endlich mal wieder ne richtige Gaming-GPU.
(wurde ja ordentlich entschlackt und ausgemistet)

Ich denke schon das NV auch dieses mal merklich vorne bleibt.
Aber ich freu mich trotzdem auf die kommenden AMD
und ich denke das sie meine Anforderungen zur genüge erfüllen werden.

M.f.G. JVC

genervt
2020-05-26, 13:58:55
Ich gehe auch fest davon aus, dass NV vorne bleibt mit der 3080 Ti. Ich gehe aber auch davon aus, dass der GA102? deutlich größer wird als AMDs Navi 21.
NV10 in der höchsten Ausbaustufe 2070 Konkurrent, NV21 dann schon 3080 Konkurrent. Das wäre doch schon mal ein Sprung bzw. eine Ansage. Ich bzwifle zwar, dass wir niedrigere Preise sehen werden, aber so oder so wird im Einstiegssegment endlich mal wieder deutliche Mehrperformance geboten, weil die anderen SKUs nach unten rücken.
Ryzen 1 musste Intel auch nicht schlagen, nur mal wieder konkurrenzfähig sein. Darauf muss man dann halt aufbauen und weiter am Ball bleiben. GPUs haben nunmal einen längeren Zyklus als CPUs.
Das große Fragezeichen wird für mich aber die Raytracing Performance. Wie wird der Vergleich NV vs AMD.

mboeller
2020-05-26, 14:00:12
Ich wette, beim GPU-Takt wird AMD dieses Mal NVidia hinter sich lassen.
Wie sie z.B. bei Renoir die Anzahl der CU gesenkt haben, aber den Takt massiv steigern konnten. Schon der Desktop-Ableger soll ja 2,1 GHZ haben. Und das ist nur ein Vega. Da kann man nur gutes erwarten.

und IMHO am wichtigsten: 8CU @ 1750MHz bei max. 15w

nur deshalb ist es ja glaubhaft, das RDNA2 Karten wirklich 50% mehr Leistung pro Watt erreichen werden.

Hakim
2020-05-26, 14:51:56
Das große Fragezeichen wird für mich aber die Raytracing Performance. Wie wird der Vergleich NV vs AMD.

Da bin ich auch gespannt, NV hat halt eine Generation Vorsprung gehabt und baut darauf auf. Ich tippe irgendwo zwischen Turing und Ampere

genervt
2020-05-26, 15:09:27
Da bin ich auch gespannt, NV hat halt eine Generation Vorsprung gehabt und baut darauf auf. Ich tippe irgendwo zwischen Turing und Ampere
ATI hatte damals bei Tesselation auch die erste Karte mit HW-support N-Patches bei C&C Renegade as i remember und war danach auch immer hinter NV in der Performance. ICh bin gespannt wie überhaupt die Implemnetierung bei AMd aussehen wird -> so wird es ja dann auch in den Konsolen umgesetzt.

Berniyh
2020-05-26, 15:27:13
Naja aber es gibt noch kein konkret angekündigtes Produkt und noch ist kein Launch eines CDNA Produktes in Sichtweite, oder?
Arcturus wurde im März angekündigt/gelauncht. Ab wann auch verkauft/ausgeliefert wird weiß ich nicht.

Berniyh
2020-05-26, 15:33:31
es fehlt, wie oben erwähnt, aber das hpc segment, das die entwicklungskosten übernimmt.
Ich sehe da keine hohen Entwicklungskosten.
Fertigungskosten ja, zusätzliche Kosten weil ggf. teurer auch.
Aber Entwicklungskosten? Wohl kaum. AMD hat den Bereich um die Interfaces schon sehr flexibel aufgebaut, das hat man auf früheren Folien mehrfach gezeigt (z.B. Stichwort SPD Interfaces, die uns damals ja die Einordnung Navi12 vs. Navi14 vs. Navi10 aufgeschlüsselt hatten).
Eben, damit man hier verschiedene Ansätze wagen kann. Ob man das dann auch in die Tat umsetzt ist wieder eine andere Frage.

HOT
2020-05-26, 15:38:37
Irgendwo war mal so ne Liste aus 2015 oder so, wo die Mannstunden für die neuen Prozesse prognostiziert wurden und da waren die Sprünge für die Chipentwicklung pro neuem Prozess gewaltig. Allerdings ist das auch mehr oder weniger Kaffeesatzleserei gewesen, da ja alle Hersteller ihre Tools für das automatische Design immer weiter entwickelt haben. Was die Entwicklung wirklich kostet wird ein Geheimnis der Entwickler bleiben.

Berniyh
2020-05-26, 15:50:26
und IMHO am wichtigsten: 8CU @ 1750MHz bei max. 15w

nur deshalb ist es ja glaubhaft, das RDNA2 Karten wirklich 50% mehr Leistung pro Watt erreichen werden.
Weil eine kleine Vega GPU etwas erreicht wird +50% bei RDNA2 glaubhaft? Die Logik finde ich eigenartig. ;)

Brillus
2020-05-26, 16:51:45
Weil eine kleine Vega GPU etwas erreicht wird +50% bei RDNA2 glaubhaft? Die Logik finde ich eigenartig. ;)

Die Aussage da war auch das es so gut klappt, weil die da Sachen mit Hilfe des CPU Teams gefunden haben das nun auch bei den RDNA2 Chips einbaut.

Die Frage ist halt wieviel RDNA1 vs VEGA am Verbrauch ausmacht ohne diese Scret Sauce wird RDNA wohl mehr ziehen.

Also 15W( - CPU-Verbrauch) * 10 * Vega-> RDNA Faktor + MemoryInterface Verbrauch = Navi21 Verbrauch @1750 MHz. Das dann noch mal Verbrauchsfaktor 1750-> 2200 MHz geteilt durch 2*5700XT Verbrauch.

Zu viele Unbekannte um sicher zu sein ob da < 2/3 (+50% Effizienz) raus kommt oder nicht aber zumindest nicht unplausibel.

basix
2020-05-26, 17:25:24
Weil eine kleine Vega GPU etwas erreicht wird +50% bei RDNA2 glaubhaft? Die Logik finde ich eigenartig. ;)

Ist zumindest ein Indiz. Erstens sind die +50% von David Wang offiziell kommuniziert worden und zweitens hat Lisa Su höchststelbst gesagt, dass man die Learnings von Renoir auf RDNA übertragen kann. RDNA1 kann es nicht sein, also rückt RDNA2 in den Fokus ;)

So unlogisch ist es nicht, nur lückenhaft in der Argumentation :D

Edit @bucklew:
RDNA2 hat deutlich positivere Vorzeichen als Vega und Polaris. Diese waren deutlich verzögert und von Manpower Problemen geplagt. RDNA2 wurde mit viel Push von Seiten Konsolen getragen und AMD hatte wieder Geld. Ausserdem hat RDNA1 bewiesen, dass AMD effiziente Architekturen liefern kann und hat dessen kolportierte +50% Effizienzsteigerung sogar übertroffen (+65% 5700XT vs. V64; +50% 5700 vs V56). Ich bitte dich also, diese Vega und Polaris Vergleiche sein zu lassen, weil das jetzt schon ewigs her ist und im hier und heute für RDNA2 keine Relevanz hat. Wir wissen alle, das die Vage und Polaris gegen Nvidia Pascal in Games deutlich das Nachsehen hatten. Also, lieber den RDNA2 Thread mit etwas Konstruktivem füllen ;)

Und zum die Aussage nochmals zu unterstreichen, wieso man glaubt, dass Navi 21 in etwa auf GA102 Niveau liegen könnte:

300W / 225W * 1.5 = 2.0 --> 2.0x 5700XT für Navi 21.
Bei Ampere geht man momentan von ca. +40-50% Mehrleistung gegenüber einer 2080 Ti aus.
Eine 2080 Ti ist ca. 1.5x schneller als eine 5700XT --> 1.5 * 1.5 = 2.25x 5700XT für GA102


Man liegt also in Reichweite. Und das ist simple Mathematik auf Basis der vorliegenden Informationen und dem letzten Stand der Gerüchteküche.

Der_Korken
2020-05-26, 17:45:35
Dass RDNA1 noch nicht das volle Potenzial von 7nm gezeigt hat, steht für mich fest seit ich die Packdichten von Renoir und mittlerweile auch GA100 kenne. Da sehe ich 50% mehr Transistoren pro mm² und da Renoir von AMD selbst kommt, liegt es nicht daran, dass Nvidia 7nm so viel besser beherrscht. Es scheint eher so zu sein, dass RDNA1 einfach irgendein Zwischenstand war, den man released hat, damit man 2019/2020 überhaupt irgendwelche GPUs verkauft. Die alten N1X-Chips würden dann auch relativ zeitnah ersetzt werden, wenn die neuen auch auf >40% mehr Packdichte kommen und man somit für die gleiche Leistung deutlich kleinere Chips braucht. Auch der geringere Verbrauch bedeutet mehr Leistung pro mm², wenn man an Notebook-GPUs denkt.

Complicated
2020-05-26, 18:49:39
Da man davon so überhaupt nichts hört, gärt bei mir langsam der Verdacht, dass das vielleicht das erst AMD N5-Produkt sein könnte und erst 21 oder noch knapp 20 kommt... in guter Vega20-Tradition.

https://images.anandtech.com/doci/15593/CDNA_Roadmap_Master_575px.jpg


Das erste CDNA-Produkt hat IF 2.0 und kann somit nicht mit Zen3 genutzt werden. Also wird es einen ganzen Produktzyklus geben vor Zen3 mit CDNA-GPUs. CDNA2 ist schon in der Pipeline für Zen3-basierende Epyc.


Und hier gabs ja Lebenszeichen:

AMD CDNA Architecture Based Arcturus GPU ‘Radeon Instinct’ Test Board Spotted – 120 CUs With 7680 Cores, 1200 MHz HBM2 Clock, 878 MHz GPU Clock (https://wccftech.com/amd-cdna-architecture-radeon-instinct-arcturus-gpu-120-cu-7680-cores/)

Brillus
2020-05-26, 19:02:14
Und hier gabs ja Lebenszeichen:

AMD CDNA Architecture Based Arcturus GPU ‘Radeon Instinct’ Test Board Spotted – 120 CUs With 7680 Cores, 1200 MHz HBM2 Clock, 878 MHz GPU Clock (https://www.forum-3dcenter.org/vbulletin/AMD CDNA Architecture Based Arcturus GPU ‘Radeon Instinct’ Test Board Spotted – 120 CUs With 7680 Cores, 1200 MHz HBM2 Clock, 878 MHz GPU Clock)

Link kaputt

Complicated
2020-05-26, 19:19:20
Link kaputthttps://wccftech.com/amd-cdna-architecture-radeon-instinct-arcturus-gpu-120-cu-7680-cores/
Neuer Versuch ;)
Und oben repariert.

horn 12
2020-05-27, 07:35:45
Interessant, ab 22 Minuten:

https://www.youtube.com/watch?time_continue=20&v=mMai43jLd0Q&feature=emb_logo

erlgrey
2020-05-27, 07:43:23
ist adored deine insider quelle bei AMD?

bloodflash
2020-05-27, 08:46:43
Interessant, ab 22 Minuten:

https://www.youtube.com/watch?time_continue=20&v=mMai43jLd0Q&feature=emb_logo


Puuh, kannst Du die "neuen" Erkenntnisse nicht hier reinschreiben?
Der Typ bearbeitet tatsächlich Exceltabellen in einem YT-Video!? :freak:
Strange

Denniss
2020-05-27, 09:02:19
Wer tatsächlich noch AdoredTV als "Quelle" benutzt dem ist wirklich nicht mehr zu helfen.

Berniyh
2020-05-27, 09:21:45
Puuh, kannst Du die "neuen" Erkenntnisse nicht hier reinschreiben?
Der Typ bearbeitet tatsächlich Exceltabellen in einem YT-Video!? :freak:
Strange
Kurzzusammenfassung: er sagt im Grunde selbst, dass er keine Ahnung hat (also keine unbekannten Informationen) und stellt auf Basis der letzten Leaks und den Infos zu den Konsolen ein paar (Milchmädchen-)Rechnungen zu RDNA2 an.

Letztendlich muss man das Video nicht gesehen haben. Seine Rechnungen sind halbwegs ok, aber stehen halt auf sehr wackeligem Boden, da sehr viele unsichere Annahmen drinnen stecken. Sollte also die nachfolgenden Aussagen mit großer Vorsicht genießen.

Wesentliche Aussagen:
- Er behauptet (auf Grund der Fläche, die nicht aufgeht, da 505 mm2 > 2*240 mm2), dass Navi21 96 CU hat wovon 80 aktiv sind (Redundanz)
- Big Navi soll 37% schneller als eine 2080 Ti sein
- Er erwartet ein 512 Bit Speicherinterface
- Er erwartet Navi22 oberhalb der 2080 Ti

JVC
2020-05-27, 09:46:08
Ich würde mich zwar auch über 512bit freuen, (auf die 8Gb 390 schiel, die noch immer FHD meistert bei ~333Waaa..)
aber da halte ich HBM fast schon für vernünftiger/besser.

Ich würde den "HBM Aufpreis" gerne zahlen :)
Hauptsache min 16Gb und HDMI 2.1 ^^

M.f.G. JVC