PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

davidzo
2022-10-12, 12:20:53
Wo hast du die Cache Bandbreite von AD102 her? Das wäre nur ein Drittel der Ampere Bandbreite (3090 ca. 3tb/s)

Verwechselst du das nicht vielleicht mit der GDDR Speicherbandbreite?
Wozu sollte man einen Cache einführen der praktisch genau so schnell ist wie der Gang zum DRAM. Nur zum Energiesparen und für die etwas bessere Latenz lohnt sich das wohl kaum?!


Locuza hatte geschätzt dass die Bandbreite bei 48x 2MB Slices auf 6tb/s hinausläuft. Wir haben hier keinen fullchip, aber höhere Taktraten, weshalb das schon stimmen könnte.
Es sei denn die Annahme der slices bzw. deren Busbreite ist falsch und es sind nur 24x 4mb Slices. Dann wäre die Bandbreite auf Ampere-Niveau und damit im Verhältnis zur Rechenleistung halbiert.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80857&stc=1&d=1665570368

robbitop
2022-10-12, 12:25:00
Bei N21XTX sind es DCUs : 80 CUs (compute Units) = 40 DCUs (Dual-compute Units).
Pro DCU sind es 128SPs (Shader-Prozessoren). Es ist natürlich schlau, entsprechend der DCUs die Shader auch so anzusprechen, dass die effektiv ausgelastet werden können.

Bei N31XT ändert sich die uArch wieder, weil u.a. an die Auslastung bei zunehmender Breite zu verbessern. 12288SP = 48WGP.
Diese Maßnahme verbessert die Auslastung aber nicht, sondern das Gegenteil. Aber diese Maßnahme ist wahrscheinlich vergleichbar mit Turing -> Ampere. Man kann relativ günstig (Transistorcount) den FP Durchsatz verdoppeln.

Es ist auch noch nicht klar, wie die WGPs die Verdopplung des FP Durchsatzes ermöglichen. VLIW2 bei gleicher FPU Anzahl der tatsächlich doppelt so viele FPUs. (Register sollen IIRC ja immerhin um +50% erhöht worden sein - die Frage ist ob die Schedulerresources auch erweitert wurden)

BavarianRealist
2022-10-12, 12:43:04
AMD macht es diesmal richtig: abwarten und schauen, was Nvidias Ada kann und zu welchen Konditionen Nvidia diese in den Markt bingen. Und dann die eigenen Navi3x-Produkte entsprechend am Markt zu platzieren:

Nachdem es auf absehbare Zeit kaum mehr Wafer-Knappheiten (zumindest bei 7nm/6nm) geben dürfte, kann AMD hier mit aggressiven Preisen in den Markt gehen und Nvidia diesmal kräftig Marktanteile abjagen...und Intel gleichzeitig klar machen, dass sie in diesem Markt nichts zu gewinnen haben und besser gleich wieder verlassen. Vor allem Navi33 in 6nm dürfte günstig herzustellen sein (wenn die Gerüchte stimmen!), sodass AMD diesen sehr aggressiv in den Markt geben könnte, vor allem in den Notebook-Markt.

AMD könnte (im Gegensatz zum CPU-Markt) daher im GPU-Markt aggressiv vorgehen, weil Kapazitäten und vermutlich die Kosten-Situation es hergeben dürften. Sie könnten damit vor allem zusammen mit Dragen-Range (Zen4) gewaltig ins Gaming-Notebook-Segment eindringen, das bisher her eher Intel zusammen mit Nvidia beherrscht. Ebenso könnten günstige Performance-Grakas dem Gaming-Desktop (und damit AMDs neuer Zen4-Plattform) zu Absatz verhelfen.

vinacis_vivids
2022-10-12, 12:45:45
Wo hast du die Cache Bandbreite von AD102 her? Das wäre nur ein Drittel der Ampere Bandbreite (3090 ca. 3tb/s)

Verwechselst du das nicht vielleicht mit der GDDR Speicherbandbreite?


Sry, habs verwechselt mit der SI-Bandbreite. Die 1TB/s gelten für Speicherbandbreite.

Bei N21 weiß ich, dass es knapp 2TB/s effektive Bandbreite vom IF$ sind, je nach Takt.

Mit Ampere Cache-System habe ich mich nicht weiter beschäftigt (außer der SI-Bandbreite).

Locuza
2022-10-12, 13:25:00
Wo hast du die Cache Bandbreite von AD102 her? Das wäre nur ein Drittel der Ampere Bandbreite (3090 ca. 3tb/s)

Verwechselst du das nicht vielleicht mit der GDDR Speicherbandbreite?
Wozu sollte man einen Cache einführen der praktisch genau so schnell ist wie der Gang zum DRAM. Nur zum Energiesparen und für die etwas bessere Latenz lohnt sich das wohl kaum?!

Locuza hatte geschätzt dass die Bandbreite bei 48x 2MB Slices auf 6tb/s hinausläuft. Wir haben hier keinen fullchip, aber höhere Taktraten, weshalb das schon stimmen könnte.
Es sei denn die Annahme der slices bzw. deren Busbreite ist falsch und es sind nur 24x 4mb Slices. Dann wäre die Bandbreite auf Ampere-Niveau und damit im Verhältnis zur Rechenleistung halbiert.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80857&stc=1&d=1665570368
Hier hat man schon nachgemessen:
https://zhuanlan.zhihu.com/p/572660018


https://pic1.zhimg.com/v2-8ba359b39c97b9c65e0e046341a3f200_r.jpg
5.2 TB/s fließen durch den L2$ (4090), GA102 (3080 Ti) packt ~2.8 TB/s, man hat also höchstwahrscheinlich die Busbreite pro Tile verdoppelt bzw. ich würde nach wie vor von 48x 2MB Tiles ausgehen (für den vollen Chip).

https://pic2.zhimg.com/80/v2-fc132e70de85a47dad7fda3329fed66d_720w.webp
Relativ zur 3080 Ti sind die L2$-Latenzen etwas gestiegen, absolut fallen sie dank höherem Takt dennoch ~15% niedriger aus.
Die Latenz zum G6X-Speicher hat Nvidia verbessern können, diese fällt besser aus als der reine Taktunterschied.

fondness
2022-10-12, 13:34:04
Dann ist ja AMD den richtigen Weg gegangen:

+GHz
nur +20% "SM" (N21 40 WGP; N31 48 WGP)
dafür die Leistung pro WGP aufgebohrt.

Wurde das eigentlich schon untersucht? Also was genau skaliert nicht bei Ada? Wie verhält sich Ada vs. Ampere pro Takt? Also verpuffen die zusätzlichen Einheiten fast vollständig? Oder verpufft der höhere Takt? Oder ist es eine Mischung aus beiden?

robbitop
2022-10-12, 13:45:30
Takt sollte ja eigentlich alles 1:1 verbessern weil alles schneller taktet. Es sei denn man ist im Memorybottleneck.

Was seltsam ist: die 4080 12GB (offizielle Bezeichnung) ist laut NV eigenen Benchmarks ~13% langsamer als die 3090 ti. Beide haben 40 GFLOPs. Die 4080 erreicht diese aber eher über den Takt, weil sie weniger SMs hat als die 3090ti.
Und das müsste eigentlich umgekehrt sein. Ggf. ist die 4080 12 GB aber auch durch Memory gebottleneckt. Das müsste man mal untersuchen. Eigentlich baut man schon lange keine SKUs mehr die out of the box unbalanciert (also in einem dominierenden Bottleneck hängen).

davidzo
2022-10-12, 13:48:46
Wow, das Cachesystem haben sie ja aber gut verbessern können!

Vor allem die 40tb/s beim L1 wundern mich, es sollten eigentlich nur 30TB/s sein durch 56% mehr SMs und 47% mehr Takt. Eigene Taktdomäne?

Der L2 Bandbreitenzuwachs ist zwar am geringsten, vor allem nicht ganz im gleichen Verhältnis wie die Rechenleistung, aber der wird halt auch viel größer. Das wird nicht das Bottleneck sein. L2 latenz? Hm, eher nicht denn der L1 ist groß.


Wie geht das eigentlich rechnerisch auf, wenn man die Busbreite verdoppelt, die Bandbreite aber trotz taktzuwachs kaum doppelt so hoch ist? Eigene Taktdomäne wie bei AMDs InfinityCache?


Es wird wohl doch eher ein Software / CPU Bottleneck sein was GA102 zurückhält. Oder Frontend, scheduling ressourcen?

Robbitops Hinweis auf AD104s schlechte Skalierung ist aber auch sehr interessant. Das CPU-Limit dürfte diesen Chip ja nicht so stark einbremsen.

vinacis_vivids
2022-10-12, 13:51:20
Vermutlich verschlingt der Takt, bzw. die Verlängerung der ALUs bei AD104 zu viele Transistoren.

bbott
2022-10-12, 13:51:35
Takt sollte ja eigentlich alles 1:1 verbessern weil alles schneller taktet. Es sei denn man ist im Memorybottleneck.

Was seltsam ist: die 4080 12GB (offizielle Bezeichnung) ist laut NV eigenen Benchmarks ~13% langsamer als die 3090 ti. Beide haben 40 GFLOPs. Die 4080 erreicht diese aber eher über den Takt, weil sie weniger SMs hat als die 3090ti.
Und das müsste eigentlich umgekehrt sein. Ggf. ist die 4080 12 GB aber auch durch Memory gebottleneckt. Das müsste man mal untersuchen. Eigentlich baut man schon lange keine SKUs mehr die out of the box unbalanciert (also in einem dominierenden Bottleneck hängen).
Die 4080 12G wird dann wohl durch die Bandbreite ausgebremst, evtl. auch schon durch Titel, welche mehr als 12GB nutzen?!

Diese RAM geiz ist geil Mentalität ;D :freak:

robbitop
2022-10-12, 13:54:07
Vermutlich verschlingt der Takt, bzw. die Verlängerung der ALUs bei AD104 zu viele Transistoren.

Es ist eher wahrscheinlich, dass ein gewisses Spektrum an Gründen die Ursache dafür ist.
Takt ist sicherlich eines davon. Neue Hardware für Raytracing, größere, schnellere Caches sicherlich weitere. Sind sicherlich noch andere Gründe.
Wir kennen ja nur high level blockschaltbilder - die physikalische Implementierung ist es am Ende wo oft die großen Unterschiede zu finden sind.

Die 4080 12G wird dann wohl durch die Bandbreite ausgebremst, evtl. auch schon durch Titel, welche mehr als 12GB nutzen?!

Diese RAM geiz ist geil Mentalität ;D :freak:
Kann aber nicht muss. Was dagegen spricht:

1. Moderne SKUs werden schon lange ausbalanciert und nicht mehr mit einem dominierenden Bottleneck ausgelegt. Das ist kosteneffizienter (da jegliche Überdimensionierung die im Bottleneck hängt nicht mitbezahlt werden muss)

2. Bandbreite pro Rechenleistung:

4090: 82,5 GFLOP/s + 1018 GB/s -> 12,3 (GB*s/GFLOP*s)
4080 12G: 40 GFLOP/s + 503 GB/s -> 12,57 (GB*s/GFLOP*s)

Das sind Werte von Techpowerup - die boost Taktraten werden die Rechenleistung jeweils anheben aber sicherlich in einem ähnlichen Maß, so dass sich das herauskürzen sollte.
Wie man sieht haben beide GPUs grundsätzlich rechenleistungsnormiert gleiche Bandbreite.

3. L3 Cache
4090: 82,5 GFLOP/s + 72 MiB L3 -> 0,87 MiB L3 pro GLFOP
4080 12G: 40 GFLOP/s + 48 MB L3 -> 1,2 MiB L3 pro GLFOP

L3 Cache pro Rechenleistung scheint sogar eher leicht besser dazustehen.

r3ptil3
2022-10-12, 14:06:19
Wo bleiben nun die Leaks?

davidzo
2022-10-12, 14:17:19
5.2 TB/s fließen durch den L2$ (4090), GA102 (3080 Ti) packt ~2.8 TB/s, man hat also höchstwahrscheinlich die Busbreite pro Tile verdoppelt bzw. ich würde nach wie vor von 48x 2MB Tiles ausgehen (für den vollen Chip).
Das hieße der Takt ist gleich geblieben trotz des 1.5x Nodesprung von Samsung 8N auf TSMCN4.

Lief denn der L2 mit Chiptakt bei Ampere, oder nicht?
Wenn ich von Chiptakt ausgehe, dann sieht es nach 32byte/clock aus.

3090ti
48slices*32b/clk*1800mhz = 2,8Tb/s

4090
36slices*64b/clk*2700mhz = 6,2TB/s - also zuviel

Könnten wir es hier mit 48byte/clock Anbindung pro slice zutun haben + Taktsprung oder eigene Taktdomäne?

Ich bin sehr gespannt ob AMD bei N31 ebenfalls auf 2mb slices geht statt vormals 4MB und damit die Bandbreite ebenfalls auf gute 6TB/s erhöht.

fondness
2022-10-12, 14:18:31
Takt sollte ja eigentlich alles 1:1 verbessern weil alles schneller taktet. Es sei denn man ist im Memorybottleneck.

Was seltsam ist: die 4080 12GB (offizielle Bezeichnung) ist laut NV eigenen Benchmarks ~13% langsamer als die 3090 ti. Beide haben 40 GFLOPs. Die 4080 erreicht diese aber eher über den Takt, weil sie weniger SMs hat als die 3090ti.
Und das müsste eigentlich umgekehrt sein. Ggf. ist die 4080 12 GB aber auch durch Memory gebottleneckt. Das müsste man mal untersuchen. Eigentlich baut man schon lange keine SKUs mehr die out of the box unbalanciert (also in einem dominierenden Bottleneck hängen).

Genau wegen der 4080 frage ich. Irgendwas drückt die IPC deutlich vs. Ampere, Nvidia gibt aber keinen Hinweis darauf woran es liegt. Für irgendwas müssen auch die vielen Transistoren drauf gegangen sein (lässt sich alleine mit der Einheitenskalierung nicht annähernd erklären). Vielleicht wurde für den höheren Takt wirklich die Pipeline verlängert ( das kostet natürlich IPC und Transistoren), war ja damals bei Vega nicht anders. Hoffentlich gibt es da in Zukunft noch genauere Untersuchungen.

robbitop
2022-10-12, 14:26:31
Naja und neue RT HW oder? ;)

DrFreaK666
2022-10-12, 14:29:58
Wir sind hier immer noch im Navi-Thread!

ChaosTM
2022-10-12, 14:37:05
Genau wegen der 4080 frage ich. Irgendwas drückt die IPC deutlich vs. Ampere, Nvidia gibt aber keinen Hinweis darauf woran es liegt. Für irgendwas müssen auch die vielen Transistoren drauf gegangen sein (lässt sich alleine mit der Einheitenskalierung nicht annähernd erklären). Vielleicht wurde für den höheren Takt wirklich die Pipeline verlängert ( das kostet natürlich IPC und Transistoren), war ja damals bei Vega nicht anders. Hoffentlich gibt es da in Zukunft noch genauere Untersuchungen.


Die 4080er ist auf **70er Level kastriert, das ist das Problem - leider..
Sollte daher auch deutlich unter 1k kosten.

fondness
2022-10-12, 14:41:00
Naja und neue RT HW oder? ;)

Schon klar, aber so viele Transistoren für das bisschen Mehrleistung in RT? Oder kommt da wirklich noch so viel per Entwicklersupport? Ansonsten hätte man wesentlich mehr RT-Performance, wenn man einfach die Einheiten weiter skaliert hätte. Es geht da immerhin um einen beträchtliches Transistorenbudget, das kaum erklärbar ist.

Selbst die RTX 4080 12 GB hat bsw. 7.8 Mrd mehr Transistoren als die schnellere 3090.

/Edit: Achso den Cache vergessen, das erklärt natürlich einiges.

Achill
2022-10-12, 14:47:43
[..]
Bei N21 weiß ich, dass es knapp 2TB/s effektive Bandbreite vom IF$ sind, je nach Takt.
[..]


Das stimmt so m.E. nicht. Die Effizenz einer Cache (egal ob SW oder HW) ist abhängig von der Hit-Rate. Schon AMD hat in Folien bei der Einführung dies entsprechend Dokumentiert, dass bei RDNA2 die Hit-Rate und damit Effektivität der Cache abhängig von der Auflösung ist. Damit ist die "effektive Bandbreite" nicht immer gleich sondern ändert sich in Abhängigkeit zur Auflösung (und wahrscheinlich noch anderen Parametern wie die Datenstruktur auf die man zugreift).

ChaosTM
2022-10-12, 14:49:19
Schon klar, aber so viele Transistoren für das bisschen Mehrleistung in RT? Oder kommt da wirklich noch so viel per Entwicklersupport? Ansonsten hätte man wesentlich mehr RT-Performance, wenn man einfach die Einheiten weiter skaliert hätte. Es geht da immerhin um einen beträchtliches Transistorenbudget, das kaum erklärbar ist.

Selbst die RTX 4080 12 GB hat bsw. 7.8 Mrd mehr Transistoren als die schnellere 3090.


DLSS3 Tensor Cores wahrscheinlich..

robbitop
2022-10-12, 14:56:45
Schon klar, aber so viele Transistoren für das bisschen Mehrleistung in RT? Oder kommt da wirklich noch so viel per Entwicklersupport? Ansonsten hätte man wesentlich mehr RT-Performance, wenn man einfach die Einheiten weiter skaliert hätte. Es geht da immerhin um einen beträchtliches Transistorenbudget, das kaum erklärbar ist.

Selbst die RTX 4080 12 GB hat bsw. 7.8 Mrd mehr Transistoren als die schnellere 3090.

/Edit: Achso den Cache vergessen, das erklärt natürlich einiges.
Naja so ziemlich alles was als Level 4 verbaut wurde braucht Entwicklersupport.
Wobei tatsächlich einige RT Titel auch out of the box weniger drop in RT haben.

DLSS3 Tensor Cores wahrscheinlich..
Das macht in der Hauptsache wohl eine Fixed Function unit namens Optical Flow Accelerator. Hatte Turing und Ampere auch schon. Wurde auf Ada Lovelace verbessert aber NV ist da nicht so drauf eingegangen.

vinacis_vivids
2022-10-12, 15:41:56
Das stimmt so m.E. nicht. Die Effizenz einer Cache (egal ob SW oder HW) ist abhängig von der Hit-Rate. Schon AMD hat in Folien bei der Einführung dies entsprechend Dokumentiert, dass bei RDNA2 die Hit-Rate und damit Effektivität der Cache abhängig von der Auflösung ist. Damit ist die "effektive Bandbreite" nicht immer gleich sondern ändert sich in Abhängigkeit zur Auflösung (und wahrscheinlich noch anderen Parametern wie die Datenstruktur auf die man zugreift).

Ändert nichts an meiner Aussage, dass die effektive Bandbreite bei N21 bei rund 2 TB/s liegt. Nur weil du die Auflösung änderst/erhöhst und damit die Hitrate senkst, ändert sich die effektive Bandbreite nicht.

Genauer gesagt kann man es so ausrechnen:
Speicherkanäle x 64 x FCLK ~ Effektive Bandbreite
Für N21XTX 256bit SI:
16 x 64 x 1940Mhz ~ 1986,65 GB/s

Für N31XTX 384bit SI wird es geschätzt so ein:
24 x 64 x 2600Mhz ~ 3993,36 GB/s

Deswegen gehe ich mit diesem "Wissen" recht entspannt in das Duell N31 vs AD102 wohlwollend und wissend, dass auch die Speicherbandbreite bei N31 ggü. N21 auch ordentlich steigt.

Ich denke AMD wird auch ordentlich an der Erhöhung der Hitrates arbeiten um den teuren IF$ auszuschöpfen. Für natives 4K und 5K sind so 192MB IF$ die obere Grenze. Um das ganze Random-Zeug einzufangen sind Größen wie 256/384/512 MB IF$ sind schlicht zu teuer und zu ineffizient. Die erhöhen zwar die Hitrate, aber nicht direkt die effektive Bandbreite, die von den o.g. Parametern abhängig ist.

robbitop
2022-10-12, 15:54:36
Ihr redet aneinander vorbei und es sind wohl eher Begrifflichkeiten. Wichtig ist ja am Ende was nutzbar ist und was nicht.
Wenn die Cachehitrate bei 0% ist, bringt die Cachebandbreite natürlich nichts und man hat effektiv die Bandbreite des VRAMs. Bei 100% bringt sie den vollen Betrag.
Also hat die Cachehitrate zumindest an der nutzbaren Bandbreite einen erheblichen Anteil

davidzo
2022-10-12, 16:21:38
Ändert nichts an meiner Aussage, dass die effektive Bandbreite bei N21 bei rund 2 TB/s liegt.

Es sind effektiv 2.4TB/s im L3 Cache für die 6900XT wie du anhand der Messdiagramme auf der letzten Seite bzw. bei ChipsandCheese sehen kannst. Und es sind afaik nicht 16 Slices a 64byte/clock, sondern 32x 4MB Slices.

Für N31 schätze ich dass man die Slicegröße auf 2mb senken wird um die Granularität auf 48slices zu erhöhen. Außerdem würde sonst die Bandbreite sinken wenn man von 32 Slices auf nur noch 24 (96mb) geht (768bytes/clock statt 1024). Die neue Busbreite des gesamtchips wären also 1536bytes/clock. 1024 wie bisher geht nicht mehr auf mit dem 384bit SI und den 6x MCDs.

48Slices * 32bytes/clock * 3000mhz = 4,6TB/s

Denkbar wäre aber auch dass man die Busbreite erhöht hat und eine niedrigere Clockdomain für den IFcache fährt um Energie zu sparen. Der Cache ist schließlich in 6nm und Offchip und bei den neuen CPUs fährt man auch 2Ghz max für das Infinity fabric. Würde ein bisschen den großen MCD-DIE erklären.

48Slices * 64bytes/clock * 2000mhz = 6,1TB/s

Exxtreme
2022-10-12, 16:29:52
Wo bleiben nun die Leaks?

Auf die Leaks bin ich auch gespannt. Aber womöglich kommt nichts, leider. Oder erst morgen da die Leaks eher aus den USA kommen. Und wir sind den Amis ~6h voraus.

Cyberfries
2022-10-12, 17:01:54
Es sind effektiv 2.4TB/s im L3 Cache für die 6900XT .... Und es sind afaik nicht 16 Slices a 64byte/clock, sondern 32x 4MB Slices.

Laut AMD sind es 16x64b @ 1,94 GHz (https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/59-1080.3c6a9086.png).
Also bei N31 vermutlich 24x64b für 3TB/s oder 6TB/s.

Wo bleiben nun die Leaks?

Kepler, der Leaks versprochen hatte, ist zurückgerudert, nicht heute (https://nitter.namazso.eu/Kepler_L2/status/1580199380853719041#m).

vinacis_vivids
2022-10-12, 17:09:26
Es sind effektiv 2.4TB/s im L3 Cache für die 6900XT wie du anhand der Messdiagramme auf der letzten Seite bzw. bei ChipsandCheese sehen kannst. Und es sind afaik nicht 16 Slices a 64byte/clock, sondern 32x 4MB Slices.

Für N31 schätze ich dass man die Slicegröße auf 2mb senken wird um die Granularität auf 48slices zu erhöhen. Außerdem würde sonst die Bandbreite sinken wenn man von 32 Slices auf nur noch 24 (96mb) geht (768bytes/clock statt 1024). Die neue Busbreite des gesamtchips wären also 1536bytes/clock. 1024 wie bisher geht nicht mehr auf mit dem 384bit SI und den 6x MCDs.

48Slices * 32bytes/clock * 3000mhz = 4,6TB/s

Denkbar wäre aber auch dass man die Busbreite erhöht hat und eine niedrigere Clockdomain für den IFcache fährt um Energie zu sparen. Der Cache ist schließlich in 6nm und Offchip und bei den neuen CPUs fährt man auch 2Ghz max für das Infinity fabric. Würde ein bisschen den großen MCD-DIE erklären.

48Slices * 64bytes/clock * 2000mhz = 6,1TB/s

Ähäm, meine Quelle ist original AMD:

https://abload.de/img/2022-10-1216_34_33-in0bfdm.png

N21XT:
16 x 64 x 1940Mhz = 1986,56 GB/s

Bei N21XT sind es 16 Speicherkanäle pro 16bit breiter Speicherkanal. Ob nun ein Kanal 8MB IF$ zugeordnet bekommt weiß ich nicht.
Bei GDDR6 sind es tatsächlich zwei voneinander unabhängige 16bit Kanäle. Deswegen ist der IF$ so geil, weil er gleichzeitig schreiben, löschen und verschieben kann.

Leider schweigt AMD auch viel über den IF$ und die genaue Funktionsweise.

Sehr sicher kann man davon ausgehen, dass der IF$ in der zweiten Generation bei N31 granuliert sein wird um den IF$ noch effizienter zu machen. Die großen Datenmengen, welche größer als der IF$ sind, werden sicherlich in den VRAM ausgelagert. Das erhöht die Hitrate des IF$ massivst.

Deshalb denke ich auch, dass N31 deutlich höher takten wird als AD102 (2,75-3,0 Ghz) und mit 3,3-3,5Ghz antreten wird.

davidzo
2022-10-12, 18:04:57
Laut AMD sind es 16x64b @ 1,94 GHz (https://pics.computerbase.de/9/5/8/1/6-a12126ebeb660e56/59-1080.3c6a9086.png).
Also bei N31 vermutlich 24x64b für 3TB/s oder 6TB/s.


Du meinst die realworld Messungen von 2,4Tb/s sind falsch? Ich glaube eher dass AMD die Folie auf Basis von labor-prototypen mit 1,9Ghz chiptakt und 250W gabstelt haben und der praktikant vergessen hat das auf die finale 6900XT SKU anzupassen.

Aber ja, interessant dass sie von 8mb slices an 64bit sprechen.
Ich hatte meine Aussage auf den Dieshot begründet, da sind es 4Mb slices à 32bit:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80859&stc=1&d=1665590466


Ähäm, meine Quelle ist original AMD:
N21XT:
16 x 64 x 1940Mhz = 1986,56 GB/s

N21XT ist halt ein Salvage Chip, schon gar nicht die radeon pro mit ihren geringen Taktraten und nur 60CU.

Der Full Chip heißt N21XTX und da rennt das IF mit ca. 2,3Ghz, was zufälligerweise genau der average Boostclock der Referenz 6900xt ist.


.

Achill
2022-10-12, 18:06:15
Ähäm, meine Quelle ist original AMD:

https://abload.de/img/2022-10-1216_34_33-in0bfdm.png

[..]


.. aber du scheint einen wichtigen Fakt überlesen zu haben. Am Ende des Balkens steht "Effektive .. Inf. Cache .. Peak.". Es ist das Maximum was erreicht werden kann aber eben nicht immer garantiert wird (über alle VRAM-Zugriffe). Die zwei Balken davor beziehen sich auch VRAM Bandbreite und nicht Cache-Bandbreite.

Das ist dann auch in anderen Thread ggf. der Stein des Anstoßes, wenn man eine grundlegend verfügbare Bandbreite mit einer möglichen Bandbreite vergleicht.

Die Bandbreite (oder eben auch die Latenz z.B. beim 5800X3D) der Cache ist wichtig - aber nur im Zusammenspiel mit anderen Variablen, weil es nicht viele aktuelle Spiele gibt, die sich mit 96 MB VRAM begnügen (Navi21).

davidzo
2022-10-12, 18:12:53
.. aber du scheint einen wichtigen Fakt überlesen zu haben. Am Ende des Balkens steht "Effektive .. Inf. Cache .. Peak.". Es ist das Maximum was erreicht werden kann aber eben nicht immer garantiert wird (über alle VRAM-Zugriffe). Die zwei Balken davor beziehen sich auch VRAM Bandbreite und nicht Cache-Bandbreite.

Unsinn, Peak bezieht sich auf den Energieverbrauch von 250W.

Wie gesagt, in realworld Messungen kannst du bei einer 6900XT irgendwas zwischen 2,3 und 2,6 TB/s messen im Bereich von 4mb bis 128MB: https://chipsandcheese.com/memory-bandwidth-data/
(GPUs/Vulkan/6900XT auswählen)

Und das ist schon inklusive aller API Overheads! (zugegebenermaßen bei Vulkan kaum vorhanden)

Da liegt doch der Verdacht recht nahe dass der IFcache direkt mit Chiptakt läuft, zumal dieselbe 6900xt auf feste 2,2Ghz eingebremst ja auch marginal niedrigere Bandbreiten liefert.

vinacis_vivids
2022-10-12, 18:35:01
Das kann nicht sein, dass der IF-CLK mit 2.2Ghz läuft,auch nicht synchron im Chiptakt. Bei meiner RX6800 sind es 1550Mhz im Standard-BIOS und bei einer 6800XT / 6900XT sind es 1940Mhz.

Der Chiptakt bewegt sich bei N21 von 2.2-2.7Ghz, also deutlich über dem Takt vom IF-Cache.

Ich werde mal schauen ob ich die Messungen von Chipsundchees nachvollziehen kann.

Cyberfries
2022-10-12, 19:03:34
Du meinst die realworld Messungen von 2,4Tb/s sind falsch?

Die Frage ist wo dieser Messwert herkommt, dafür müsste der Cache immerhin mit 2,4GHz rennen.
MWn läuft der mit der Infiniti Fabric Clock, für die schon 2,1-2,2GHz eine ordentliche Übertaktung darstellen.
Es ist mir auch kein Produkt mit fclk über 2GHz (Zen 4) bekannt,
weshalb ich auch die ein paar Seiten vorher gezeigten 4Tb/s anzweifle, für die 2,6GHz nötig wären.

Iscaran
2022-10-12, 20:40:19
Wenn ich das mal für die Architekturen ab 2020 nachrechne komme ich auf andere Werte:
Architektur | Mittelwert | Tiefstwert | Bestwert
RDNA 1 | 58,4 | 62,0 (5600) | 53,3 (5700)
RDNA 2 | 65,1 | 76,1 (6600) | 56,9 (6750xt)
Ada | 122,7 | 122,7 (4090) |
Ampere | 86.6 | 98,0 (3090ti) | 74,9 (3060ti)
Turing | 52,9 | 63,2 (Titan RTX) | 45,8 (2060)

Obwohl die Grundaussage bleibt, sieht der Vergleich der Topmodelle gleich nicht mehr so desaströs aus für die 4090.
Für die kleineren Adas werden die Werte wohl auch besser aussehen.


Hab mal in meinem Daten-Excel die Dual-Use Einheiten alle mal einheitlich mit dem Theoretisch denkbaren Float limit gerechnet (also 100% FP-Anteil) (also so wie Cyberfries bzw. die nVidia Marketing das macht)
Damit bekommt man dann diese Architektur-Mittelwerte:

Hersteller | Architektur | Gflops/%Index | relativ %
AMD | GCN3 | 79.55 | 100
AMD | GCN4 | 79.98 | 101
AMD | GCN5 | 90.13 | 113
AMD | RDNA1 | 63.20 | 79
AMD | RDNA2 | 65.98 | 83
nVidia | Maxwell | 62.33 | 100
nVidia | Pascal | 58.45 | 94
nVidia | Turing | 55.38 | 89
nVidia | Ampere | 89.02 | 143
nVidia | Ada | 122.70 | 197


Habe mal die jeweilige Veränderung in Flops/% (nenne ich mal "IPC") berechnet. (Weniger ist hier "besser")
Bei AMD sind GCN3, 4 praktisch identisch, GCN5 hat dann ca 15% "weniger" IPC aber mit RDNA1 und RDNA2 hat man die IPC drastisch verbessert (RDNA braucht nur 80% der FLops eines GCN3 um 1%Index Punkt zu erreichen.)

Bei nVidia hingegen sieht man das von Maxwell bis Turing die IPC zunächst mit jeder Generation leicht zunahm (Werte sinken unter 100%). Man hat also IPC gewonnen mit jeder Generation und WENIGER Flops/%-Index gebraucht.

Mit Ampere kam dann ein erster deutlicher "Rückschritt" in Flops/%, aber Ada toppt das nochmal erheblich.

Um nun den Bogen zu RDNA3 zurückzuschlagen.
Nehme ich mal aufgrund der Architektur verbreiterung IN DEN WGPs und anderer Veränderungen mal einen ÄHNLICHEN Drop in IPC an wie Ampere => Ada (~Ada braucht ca 122.7/89.0 = 1.38x mehr Flops/%-Index

Übertrage das auf ein RDNA3 Konstrukt mit 12.288 Shader units bei 3.2 GHz Clock und nehme 65.98 (RDNA2-Architektur baseline) *1.38 = 91.05 GFlops/Index% als "Architektur"-Maßzahl.

Landet man bei einem geschätzten 4k-Center Index von 860%-Punkten.

Das wäre also ca 28% schneller als 4090.

Langsam, finde ich es interessant mehr Leaks zu bekommen :-).

DrFreaK666
2022-10-12, 20:46:42
3,2GHz? Das glaube ich nicht ohne das der Verbrauch in die Höhe schnellt

Achill
2022-10-12, 20:55:15
Unsinn, Peak bezieht sich auf den Energieverbrauch von 250W.

[..]


Stimmt, ich konnte leider nicht richtig lesen.

horn 12
2022-10-12, 20:59:54
Langsam sollt´s los gehen!

https://twitter.com/KyleBennett

https://www.pcgamesn.com/amd/rdna-3-performance-vs-rtx-4090-ray-tracing

ChaosTM
2022-10-12, 21:05:43
tmi

Lyka
2022-10-12, 21:12:46
Sources close to Moore’s Law Is Dead have spoken out on how they believe AMD RDNA 3 will stack up against Nvidia RTX 4000 GPUs, specifically the RTX 4090. While the YouTuber didn’t share any exact quotes, they did say, “the general feeling I get today from AMD engineers is that they still expect RDNA 3 to have rasterisation performance that is competitive with the 4090.”

Sorry, das ist für mich mehr so eine Larifari-Aussage. Man erwartet Rasterisations Performance im Wettkampf mit der 4090. Das klingt für mich einfach nach ... nichts oder Nebel.

Ich sage nicht, dass es nicht stimmt. Aber die Website klingt hier für mich eher wie eine dieser Medienwebsiten, die "vermutet, dass Film XYZ ggf 2024 rauskommt".

Linmoum
2022-10-12, 21:16:34
Für Raster muss man halt auch auf 6900XT vs. 4090 gucken und nicht sehen, wie viel die 4090 auf eine 3090(Ti) drauflegt.

Da muss AMD dann auch ~90% aufholen. UHD natürlich, alles darunter ist witzlos. Raytracing logischerweise noch mehr und gerade letzteres wird IMO immer noch ein zu großer Abstand sein. Auch, wenn ich denke, dass er in Extrem-Szenarien kleiner ausfallen wird als mit RDNA2 vs. Ampere. Was aber auch der Fall sein sollte.

fondness
2022-10-12, 21:36:01
Langsam sollt´s los gehen!

https://twitter.com/KyleBennett

https://www.pcgamesn.com/amd/rdna-3-performance-vs-rtx-4090-ray-tracing

Zumindest DP2.1 ist nett. Die 4090 ist extrem schnell, aber für mehr als 4k 120hz braucht man verlustbehaftete Kompression. Für mich unverständlich.

Verification from multiple sources that @Radeon Navi 31 will support upcoming DisplayPort 2.1 specification. I am tremendously surprised that @NVIDIAGeForce 4090 only supports DP 1.4a. Props to @LinusTech for calling out the DP1.4/4090 shortcomings!

https://twitter.com/KyleBennett/status/1580247905956376576?t=CLEte4pWTGLBm5x3I4f0Jw&s=19

Platos
2022-10-12, 21:43:42
Gerade mit ihrem DLSS 3.0 erreicht man ja höhere Frameraten. Also schon seltsam.

Aber ich bin sicher, Troyan findet ne Ausrede.

fondness
2022-10-12, 21:54:54
Gerade mit ihrem DLSS 3.0 erreicht man ja höhere Frameraten. Also schon seltsam.

Aber ich bin sicher, Troyan findet ne Ausrede.

Stimmt seltsam. Was nützen die hohen frameraten wenn man sie nicht darstellen kann? Wundert mich, dass das kein Review aufgreift.

Zumal schon Ryzen 6000 DP2.0 unterstützt und Intel arc ebenso.

Platos
2022-10-12, 22:44:00
Ja, mit DLSS 3.0 kommt man ja mit max RT bei einem Cyberpunk (kein High-FPS Game) schon auf 100 FPS unter 4k!

Hat man dann andere Spiele, wird man gaaanz schnell über diese DP 1.4 Grenze hinaus gehen.

Ist also irgendwie schon strange. Ist ja jetzt keine RTX 4050, wo man sowieso nie mehr wie DP 1.4 bräuchte.

mr coffee
2022-10-12, 22:52:03
Vielleicht kommt ja die 4090Ti mit DP2.1. Ich würde mich kringeln vor lachen.
Bin echt gespannt auf den Move von AMD und hoffe auf ein ausgewogeneres Produkt als die bisherigen Angebote von nVidia.

ChaosTM
2022-10-12, 22:52:51
DP 1.4 ist einfach nur dumm für eine Graka in 2022.
Auch wenn man das jetzt noch nicht wirklich braucht.

Solche Karten kauft man für mehr als 1-2 Jahre...

unl34shed
2022-10-12, 22:56:02
Aber wie? Die wird doch auch weiterhin AD102 nutzen, der Die bekommt ja nicht DP2.1 weil man ein anderen Namen auf die Karte draufklebt. Auch ist es irgendwie schwer vorstellbar, das Nvidia so was nicht zum launch bei der 4090 angibt, bei HDMI2.1a aber nicht "zurückhält".

ChaosTM
2022-10-12, 22:58:01
NV kann so was problemlos nachrüsten mit Ti, oder was auch immer..

Wenn nicht, dann wäre das ein böses Versäumnis, welches ich mir kaum vorstellen kann in 2022 und in Hinblick auf eine 4090ti

Iscaran
2022-10-12, 23:05:48
3,2GHz? Das glaube ich nicht ohne das der Verbrauch in die Höhe schnellt

Na, wurden zumindest spekuliert. Ich denke >3 GHz wird man bei RDNA3 schon sehen.

Aber nehmen wir halt konservativ 2.75 GHz an, wäre so ein RDNA3 mit obiger Extrapolation immer noch +10% gegenüber einer 4090.

Und dass die IPC bei RDNA3 um ebenso ~40% einbricht wie bei Ampere => Ada, nun das muss ja auch erstmal passieren...was ist wenn die IPC annähernd auf RDNA2 niveau bleibt trotz Shader-Verdopplung ?

Dann sieht die 4090 kein Land. Aber ich denke ein derartiger IPC-Einbruch durch das Upscaling wäre schon plausibel.

ChaosTM
2022-10-12, 23:12:24
Wenn RDNA3 die Performance ohne mirco ruckler* auf die Straße bringt .. wäre das eine Revolution..

* "perfekte" frame times @ multi core

vinacis_vivids
2022-10-12, 23:19:23
Nicht nur eine Revolution, sondern auch gut für Kunden / Gamer, die keine überhöht spekulativen Preise bei der Konkurrenz bezahlen wollen. Ich gehe stark davon aus , dass N31XT (7900XT) schneller als die 4090 sein wird und auch günstiger.

Platos
2022-10-12, 23:20:02
Wenn RDNA3 die Performance ohne mirco ruckler auf die Straße bringt .. wäre das eine Revolution..

Warum mikroruckler? Gabs da Probleme bei RDNA 2 ?

ChaosTM
2022-10-12, 23:30:10
RDNA3 ist potentiell eine Multi Core Architektur -- da könnte so was auftreten..

iamthebear
2022-10-12, 23:55:12
1.) Mikroruckler gab es damals, da sich die Dual GPUs nach außen hin als 2 eigene GPUs ausgegeben haben und die Frames abwechselnd auf diesen berechnet wurden: Frame 1,3 und 5 auf GPU1 und 2, 4 und 6 auf GPU2.
Das Problem daran: Es ist schwierig das Ganze so zu timen, dass beide Karten immer ein halbes Frame versetzt sind. Im Worst case geben beide Karten 2 Frames zur gleichen Zeit aus, was nichts bringt und dann ist einmal Pause bis wieder beide Karten 2 Frames auf einmal ausspucken.

Das würde heute sowieso nicht mehr funktionieren, da seit DX12 nicht der Grafiktreiber sondern der Spieleentwickler sein Spiel auf die 2 GPUs verteilen muss, was keiner machen wird ohne entsprechenden Marktanteil der Karten und die Karten werden sich ohne Game Support kaum verkaufen

2.) RDNA3 ist KEINE Dual GPU. Es sitzen lediglich IF$ und memory controller auf den MCDs. Das ist vom Konzept jetzt nichts weltbewegendes. Das hat es in ähnlicher Form mit HBM alles schon gegeben.

vinacis_vivids
2022-10-12, 23:57:50
RDNA3 ist potentiell eine Multi Core Architektur -- da könnte so was auftreten..

Was ist denn für dich eine "Multi Core Architektur" ? :biggrin::biggrin::biggrin:

ChaosTM
2022-10-13, 00:00:06
wieder was gelernt - wenn GPU´s auf verschiedene Dies aufgeteilt liegen, kommt man auf solche Ideen..
ich hoffe du hast recht

Thomas Gräf
2022-10-13, 01:29:06
Im Gegensatz zur CPU darf Windows nur eine GPU sehen.
Ich weiß auch nicht ob überhaupt eine Gameengine für Multi GPU realisierbar wäre die auch sauber in Echtzeit arbeitet?
Hab mal sowas in Zusammenhang mit VR-Brillen gelesen, für jedes Auge eine eigene GPU für bessere Leistung usw. Aber da hats ja auch 2 Displays.

BlacKi
2022-10-13, 01:58:16
aber für mehr als 4k 120hz braucht man verlustbehaftete Kompression. Für mich unverständlich.


leute und ihre probleme. wenn visually lossless nichtmehr reicht. das driftet ja schon ins querdenken ab...

horn 12
2022-10-13, 02:22:17
Release Mitte Dezember und Lagsamer als RTX 4090 aber mehr als 50% Performance/ Watt.
Da hat man sich wohl nochmals umentschieden und auf die Performance Krone verzichtet, dafür aber die Effizienz gesteigert ?

https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/

ChaosTM
2022-10-13, 02:33:02
https://www.gpumag.com/amd-rdna-3/

gerade gefunden.. 20min alt

sagt aber sehr wenig aus

ok, same thing wie horn..

Gott1337
2022-10-13, 04:52:42
Release Mitte Dezember und Lagsamer als RTX 4090 aber mehr als 50% Performance/ Watt.
Da hat man sich wohl nochmals umentschieden und auf die Performance Krone verzichtet, dafür aber die Effizienz gesteigert ?

https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/
bei 300watt verliert die 4090 kaum Leistung, also effizient kann sie auch. AMD muss über den Preis gehen was ja jetzt auch nicht wirklich schwer sein dürfte.

OpenVMSwartoll
2022-10-13, 05:07:14
Wieder mal voreilige Schlüsse. Den Satz sollte man nicht überinterpretieren.

Klar wird es schwierig, mit der Performance der 4090 zu konkurrieren. Die Aussage ist, denke ich, bewusst vage.

dildo4u
2022-10-13, 05:11:20
Die Partner Karten gehen vermutlich deutlich weiter als die AMD Modelle.
Sie haben sich doch öffentlich gegen 400Watt + ausgesprochen.

amdfanuwe
2022-10-13, 05:29:17
Da hat man sich wohl nochmals umentschieden und auf die Performance Krone verzichtet, dafür aber die Effizienz gesteigert ?

wohl etwas zu spät dafür.
Schiffscontainer sind aktuell 3 Monate unterwegs (Asien - Europa)
https://www.flexport.com/research/ocean-timeliness-indicator/

horn 12
2022-10-13, 07:13:51
Die Ersten Chargen kommen mit dem Flieger, sicher!
Zudem gibt es ja die Option der Biose notfalls.

dargo
2022-10-13, 07:14:48
RDNA3 ist potentiell eine Multi Core Architektur -- da könnte so was auftreten..
Bitte keinen Blödsinn hier wieder verteilen.

Adam D.
2022-10-13, 07:25:27
Ich sehe das alles überhaupt nicht kritisch. Selbst wenn man die 4090 nicht erreicht - die Lücken zwischen 4080 und 4090 und "4080" und 4080 sind so dämlich groß (wenn man NVs eigenen Benchmarks glaubt), dass AMD da gut zwei Karten zwischen schieben kann. Und dann muss "nur" der Preis einigermaßen stimmen und man hat ein gutes Angebot.

horn 12
2022-10-13, 07:29:18
Exakt, 799 und 1049 Dollar wäre mal eine Ansage!
Beide bedeutend schneller als die 4080 12 und 16 GB
Zudem auch mehr Speicher!

dildo4u
2022-10-13, 07:36:14
Der Preis wird Grütze ebend weil die NV Karten so schwach sind alles was von AMD kommt ist 1000€+, da schneller als die 4080 12GB.
Die Preise ergeben sich schon daher da die alten High-End Karten noch lange nicht bei 500€ sind.

Linmoum
2022-10-13, 07:36:57
Vielleicht ja auch gleich $599, wer will schon an seinen Produkten großartig verdienen. ;D

Bleibt mal auf dem Teppich. Billiger als die 4090 womöglich, aber verschleudert wird da nichts. Leistung oberhalb einer 4080 16GiB heißt dann aber hoffentlich auch RT, sonst ist das für eine neue Architektur Ende 2022 eigentlich witzlos.

fondness
2022-10-13, 07:39:44
leute und ihre probleme. wenn visually lossless nichtmehr reicht. das driftet ja schon ins querdenken ab...

Genau deshalb gibts ja auch DP2.x, weil verlustbehaftete Kompression reicht....nicht. Was genau visually lossloess ist und was nicht driftet dann eher ins quer-denken ab. Jedenfalls ist es absurd Bildqualitätsunterschiede mit der Lupe zu suchen und dann die Bildausgabe verlustbehaftet zu komprimieren, vor allem da es nicht nötig wäre.

robbitop
2022-10-13, 08:28:59
Zumindest DP2.1 ist nett. Die 4090 ist extrem schnell, aber für mehr als 4k 120hz braucht man verlustbehaftete Kompression. Für mich unverständlich.
2.1 ist wahrscheinlich ein Typo/Brainfart.
DP 2.0 ist die neuste Spec. Ggf. hat er das mit HDMI verwechselt wo die neuste Spec 2.1 ist.

RDNA3 ist potentiell eine Multi Core Architektur -- da könnte so was auftreten..
Da musste ich schmunzeln. Du weißt schon, dass die Microruckler aus SLI Zeiten mit den Eigenheiten des AFR Verfahrens zusammenhingen? :)
Wenn man eine Multi GPU Lösung auf Hardwareebene mit großen Interconnects baut, dann ist das transparent zur Anwendung und alle dice arbeiten dann natürlich an einem Frame. Entsprechend kann es gar kein Mikroruckeln mehr geben. :)

Das erinnert mich noch an die 2000er Jahre mit Leuten wie Tombman. (ich habe damals tatsächlich 2x S3 Chrome S27 GPUs im "Multichrome" Mode für 3DCenter getestet und dieses Mikroruckeln gemerkt aber die Hintergründe waren damals noch nicht bekannt)

leute und ihre probleme. wenn visually lossless nichtmehr reicht. das driftet ja schon ins querdenken ab...
Es ist zwar nicht kriegsentscheidend aber ärgerlich wenn eine 2000 € GPU noch die alten Standards wie ihre Vorgänger unterstützt. DP1.4 und PCIe 4.0. Wer eine 2000 € GPU länger einsetzen möchte, ärgert sich dann ggf. in ein paar Jahren.
Wie gesagt: Nicht kriegsentscheidend aber ärgerlich IMO.

Dazu kommt, dass DSC oftmals von Monitorherstellern gar nicht genutzt wird und es damit ein halb theoretisches Konstrukt bleibt. Jahaa DP1.4 könnte ja theoretisch bis 240 Hz auf 4K mit DSC. Ich weiß auch nicht, warum DSC nicht so angenommen wird (ggf. werden die Scaler chips teurer?) aber gerade mit der 4090 und DLSS 3 wären 240 Hz bei 4K wirklich hilfreich, weil man halbwegs in die Range kommen kann um die bessere Bewegtschärfe mitzunehmen.
Wenn man dann noch 10 bit HDR will (weil wer will heutzutage schon noch SDR) war's das dann. DP2.0 Monitore gibt es zwar noch nicht aber die werden kommen und genau das ermöglichen.

fondness
2022-10-13, 09:02:00
2.1 ist wahrscheinlich ein Typo/Brainfart.
DP 2.0 ist die neuste Spec. Ggf. hat er das mit HDMI verwechselt wo die neuste Spec 2.1 ist.


Naja, er schreibt explizit "upcoming DP2.1" und bestätigt auch nochmal später, dass die Specs noch nicht öffentlich sind.

robbitop
2022-10-13, 09:06:25
Nagut - wäre aber super-duper ungewöhnlich. Normalerweise gibt es eine neue Spec und dann dauert es gute 2 Jahre bis zur Implementierung. Manchmal geht es schneller, wenn die Unterschiede sehr gering sind. So wie DP1.3 -> DP1.4.
Also entweder unterscheidet sich 2.1 von 2.0 nur sehr sehr gering oder es ist ein typo.

aufkrawall
2022-10-13, 09:25:42
Was genau visually lossloess ist und was nicht driftet dann eher ins quer-denken ab.
Bei Bro dürfte das 4k 144Hz 12 Bit Output mit DSC sein, und alle Gradienten sind komplett sauber. Ergo scheint es überhaupt keine Rolle zu spielen.

Taigatrommel
2022-10-13, 09:36:47
Exakt, 799 und 1049 Dollar wäre mal eine Ansage!
Beide bedeutend schneller als die 4080 12 und 16 GB
Zudem auch mehr Speicher!

Wieso sollte AMD die Karten bei entsprechender Performance zu günstigen Preisen anbieten? Gerade wenn die Karten bedeutend schneller sein sollten, wird AMD nichts zu verschenken haben. Man sieht ja bereits jetzt, dass Leute die 4090, trotz teilweise deutlich über 2000€ im Preis, selbst in finanziell unsicheren Zeiten den Händlern aus den Regalen reißen als gäbe es kein Morgen mehr. Mal blöd angenommen eine 7800 XT wäre tatsächlich schneller als eine 4080 16 GB, dann gibt es für AMD recht wenig Gründe, die Karte nicht auch für mindestens $1199 zu platzieren.
Den einzigen Grund für günstigere Preise sehe ich, wenn die Performance halt nicht auf einem entsprechenden Niveau ist oder man zumindest teilweise Abstriche wie z.B. erneut spürbar schlechtere RT Leistung in Kauf nehmen müsste. Dann kann man über günstigere Preise die Attraktivität steigern.

fondness
2022-10-13, 09:37:33
Bei Bro dürfte das 4k 144Hz 12 Bit Output mit DSC sein, und alle Gradienten sind komplett sauber. Ergo scheint es überhaupt keine Rolle zu spielen.

Es gibt einen Unterschied, sonst wäre es tatsächlich lossless. Immerhin reden wir hier von einer 3:1 Kompression. Ob, und wenn ja wie und wann man das sieht wäre mal eine interessante Untersuchung.

unl34shed
2022-10-13, 09:43:44
Wieso sollte AMD die Karten bei entsprechender Performance zu günstigen Preisen anbieten?

Dir ist schon bewusst, dass beide 4080 hoffnungslos überteuert sind und eigentlich beide ca. 300-400$ günstiger sein müssten bei der gebotenen Performance.

Daredevil
2022-10-13, 09:45:26
Was ändert das an Taigas Aussage? :<

TSMC hat im Quartal 80% mehr Gewinn ( ! ) gemacht als vorher.
Das wollen sie sicher auch von AMD haben. :D

Complicated
2022-10-13, 09:45:33
Es ist zwar nicht kriegsentscheidend aber ärgerlich wenn eine 2000 € GPU noch die alten Standards wie ihre Vorgänger unterstützt. DP1.4 und PCIe 4.0. Wer eine 2000 € GPU länger einsetzen möchte, ärgert sich dann ggf. in ein paar Jahren.
Wie gesagt: Nicht kriegsentscheidend aber ärgerlich IMO.

Dazu kommt, dass DSC oftmals von Monitorherstellern gar nicht genutzt wird und es damit ein halb theoretisches Konstrukt bleibt. Jahaa DP1.4 könnte ja theoretisch bis 240 Hz auf 4K mit DSC. Ich weiß auch nicht, warum DSC nicht so angenommen wird (ggf. werden die Scaler chips teurer?) aber gerade mit der 4090 und DLSS 3 wären 240 Hz bei 4K wirklich hilfreich, weil man halbwegs in die Range kommen kann um die bessere Bewegtschärfe mitzunehmen.Das könnte auch bewusst der Versuch sein dem eigenen GSync-Modul ein Alleinstellungsmerkmal zu verschaffen. Immer mehr Monitor Hersteller scheinen da abzuspringen. Und wenn Nvidia damit jetzt ein Problem löst, das es bisher gar nicht gab...

DLSS3 könnte dieser Stoß über Bande sein. Neuen Monitor braucht es zwar trotzdem, doch das Marketing mit "GeForce DLSS3-ready" könnte mit der Zwischenbildberechnung in Verbindung mit einem eigenen DSC-Modul verbunden werden. Auch passende höhere Preise könnte die Monitor-Hersteller wieder zu neuen Gsync-Modellen veranlassen.

Mal sehen ob es da bald Ankündigungen gibt.

aufkrawall
2022-10-13, 09:48:09
Es gibt einen Unterschied, sonst wäre es tatsächlich lossless. Immerhin reden wir hier von einer 3:1 Kompression. Ob, und wenn ja wie und wann man das sieht wäre mal eine interessante Untersuchung.
Dass es einen Unterschied gibt, heißt aber nicht, dass irgendein Sehorgan in der Fauna den auch wahrnehmen kann. Bei Videocodecs liegen zwischen Transparenz und lossless auch Magnituden an Bitratenreduktion. Verschiedenfarbige Gradienten sind der Härtefall schlechthin. Keine Ahnung, ob mit HDR noch andere Grenzfälle denkbar wären. Sollten dann aber auch beherrschbar sein.

The_Invisible
2022-10-13, 09:50:40
Wenn man dann noch 10 bit HDR will (weil wer will heutzutage schon noch SDR) war's das dann. DP2.0 Monitore gibt es zwar noch nicht aber die werden kommen und genau das ermöglichen.

Doch es geht mit DP1.4 mit DSC 4k@240@10bit ;) https://en.wikipedia.org/wiki/DisplayPort#Refresh_frequency_limits_for_HDR_video (unten "Limits including compression and chroma subsampling" aufklappen)

Hab hier einen Monitor mit 4k@144@10bit HDR via DP1.4 und HDMI2.1 und sehe keinen Unterschied

Troyan
2022-10-13, 09:51:54
Es gibt einen Unterschied, sonst wäre es tatsächlich lossless. Immerhin reden wir hier von einer 3:1 Kompression. Ob, und wenn ja wie und wann man das sieht wäre mal eine interessante Untersuchung.

Wird dann AMD auch unkomprimierte Speicherübertragungen nutzen? Weil es schon irgendwie absurd, wenn Memory Compression bei 4:1 liegt. :freak:;D

Ansonsten hat VESA zu DSC eine FAQ: https://www.displayport.org/faq/#tab-display-stream-compression-dsc

fondness
2022-10-13, 09:54:13
Wird dann AMD auch unkomprimierte Speicherübertragungen nutzen? Weil es schon irgendwie absurd, wenn Memory Compression bei 4:1 liegt. :freak:;D

Ansonsten hat VESA zu DSC eine FAQ: https://www.displayport.org/faq/#tab-display-stream-compression-dsc

Wenn man die Daten wieder vollständig rekonstruieren kann, also "lossless" ist das ja irrelevant. Aber danke für den Link.

robbitop
2022-10-13, 10:01:23
Das könnte auch bewusst der Versuch sein dem eigenen GSync-Modul ein Alleinstellungsmerkmal zu verschaffen. Immer mehr Monitor Hersteller scheinen da abzuspringen. Und wenn Nvidia damit jetzt ein Problem löst, das es bisher gar nicht gab...

DLSS3 könnte dieser Stoß über Bande sein. Neuen Monitor braucht es zwar trotzdem, doch das Marketing mit "GeForce DLSS3-ready" könnte mit der Zwischenbildberechnung in Verbindung mit einem eigenen DSC-Modul verbunden werden. Auch passende höhere Preise könnte die Monitor-Hersteller wieder zu neuen Gsync-Modellen veranlassen.

Mal sehen ob es da bald Ankündigungen gibt.
IMO ist der Zug abgefahren. G-Sync war eine der Nvidia Initiativen für Customer Retention. Ein Feature was Nvidia exklusiv ist. Seit VRR auch ohne G-Sync richtig gut geworden ist (die ersten Jahre waren ja sehr durchwachsen...) ist das Feature für die customer retention eigentlich wirkungslos geworden.
Ich glaube nicht, dass NV wirklich viel Geld mit den Modulen macht. Ich kann mir gut vorstellen, dass man das auslaufen lässt und sich auf die vielen anderen Initiativen zur Customer Retention fokussiert.

Dass es einen Unterschied gibt, heißt aber nicht, dass irgendein Sehorgan in der Fauna den auch wahrnehmen kann. Bei Videocodecs liegen zwischen Transparenz und lossless auch Magnituden an Bitratenreduktion. Verschiedenfarbige Gradienten sind der Härtefall schlechthin. Keine Ahnung, ob mit HDR noch andere Grenzfälle denkbar wären. Sollten dann aber auch beherrschbar sein.
Sehe ich auch so. 3:1 ist eine sehr sehr milde Kompression - fast im Bereich von loss less compression. Ich denke, das geht noch in Ordnung.

Doch es geht mit DP1.4 mit DSC 4k@240@10bit ;) https://en.wikipedia.org/wiki/DisplayPort#Refresh_frequency_limits_for_HDR_video (unten "Limits including compression and chroma subsampling" aufklappen)

Hab hier einen Monitor mit 4k@144@10bit HDR via DP1.4 und HDMI2.1 und sehe keinen Unterschied
Ah ok. Danke für die Richtigstellung. Nur leider gibt es in der Praxis einfach keine Modelle, die das beherrschen. Bringt einem dann auch nichts. Es gibt ein Modell von Samsung was 240 Hz bei 4K kann aber IIRC nur für 8 bit. Und selbst wenn es 10 bit wäre, ist 1x einziger Monitor nicht wirklich eine echte Auswahl.

Virtual
2022-10-13, 10:02:48
Dass es einen Unterschied gibt, heißt aber nicht, dass irgendein Sehorgan in der Fauna den auch wahrnehmen kann. ...
Gilt das für dich auch für alle FPS>144Hz? Eine Fliege bekommt das bestimmt hin, aber die Trockennasenprimaten eher nicht.

Taigatrommel
2022-10-13, 10:11:10
Dir ist schon bewusst, dass beide 4080 hoffnungslos überteuert sind und eigentlich beide ca. 300-400$ günstiger sein müssten bei der gebotenen Performance.

Wenn es aber so gesehen keine Alternative gibt, wieso sollte AMD den Samaritas spielen und die Karten im ähnlichen Leistungsbereich für deutlich geringere Preise unters Volk bringen? Ich halte bereits die 4090 hier in Deutschland für überteuert, von den 4080 braucht man ebenfalls kaum reden. Doch ich mache mir da keine Illusionen oder falsche Hoffnungen, dass AMD hier mit Produkten für 700-1000 Euro um die Ecke kommt, wenn sie diese aufgrund passender Leistung für deutlich mehr Geld unters Volk bringen können. Es wäre schön, wenn es anders aussehen würde, doch die letzten beiden Jahre, sowie der Launch der 4090 zeigt auch AMD, was die Leute bereit sind, auszugeben. Wieso also auf diesen Gewinn verzichten?

Platos
2022-10-13, 10:16:28
Gilt das für dich auch für alle FPS>144Hz? Eine Fliege bekommt das bestimmt hin, aber die Trockennasenprimaten eher nicht.

Natürlich kriegt ein Mensch das hin, wenn Bewegung im Spiel ist.

Oder kommst du jetzt mit mehr wie 24 FPS kann das Auge nicht sehen?

aufkrawall
2022-10-13, 10:16:52
Gilt das für dich auch für alle FPS>144Hz? Eine Fliege bekommt das bestimmt hin, aber die Trockennasenprimaten eher nicht.
Du meinst das jetzt allgemein, und nicht auf DSC bezogen?
Bei der Aktualisierungsrate kommt es arg auf den dargestellten Inhalt an. Der Maus-Cursor ist vor typischen Fensterhintergründen sicherlich für viele Menschen während schnellen Bewegungen bei 240Hz deutlich besser verfolgbar als bei 144Hz. Gibt aber Wichtigeres.

mksn7
2022-10-13, 10:32:57
Habe mal die jeweilige Veränderung in Flops/% (nenne ich mal "IPC") berechnet. (Weniger ist hier "besser")


Bitte nicht IPC... =)
Ich weiß ja, du wolltest vermutlich einfach nur nicht so oft das sperrige Flops/% tippen, aber IPC passt es finde ich jetzt wirklich nicht mehr... Wir reden ja von "Instructions Per Cycle".

Erstmal macht das überhaupt nur Sinn um zwei Geräte zu vergleichen die die gleiche ISA haben.
( Und es ist oft gar nicht so gut wenn ein Code hohe IPC hat, weil dann ist er incore bound, aber wohl schlecht vektorisiert. Wenn eine CPU einen AVX512 Pfad nimmt statt AVX256, dann geht die IPC meist runter, aber die performance steigt. Oder der code hat massive Lastimbalance und viele threads hängen in einem spin lock, die sehr hohe IPC erreichen (können), ohne etwas zu tun.)

Also eigentlich muss man sagen, die IPC von Ampere/Ada steigt. Es werden mehr Instruktionen als vorher pro Takt ausgeführt!

Ok, ich weiß schon, IPC wird landläufig immer verwendet als "taktbereinigte single thread performance".

Bei CPUs funktioniert das auch recht gut. Bei GPUs wird das schon schwieriger. Über single thread performance auf GPUs wird selten gesprochen (auch wenn ich das spannend finde, höhere single thread performance war ein explizities design goal bei RDNA).

Man kann es also auch als "performance pro kern und Takt" formulieren.

Bei GPUs stellt sich jetzt die Frage, was ist ein Kern? Ein SM/CU? Ein Scheduler? Eine FP unit? NVIDIA nennt letztere ja gerne "CUDA cores", aber das ist mal echt bullshit.

Wenn man eine FP unit als core sieht, dann kommt man bei deiner Betrachtungsweise heraus. Aber das macht man bei CPUs ja auch nicht, wenn eine CPU von 3 auf 4 ALUs/Ports verbreitert wird, oder eine 512bit breite execution units statt 256bit verbaut werden, spricht auch niemand davon dass da jetzt mehr cores drin sind.

Die natürlichste Entsprechung ist meiner Meinung nach ein quadrant/scheduler.

Durch doppelt soviele FP32 Einheiten:
- steigt die "Leistung pro SM und Takt"
- steigt die "Leistung pro Scheduler und Tat"
- sinkt die "Leistung pro FP unit und Takt"

Ich denke aber letzteres ist am irrelevantesten als Metrik für Effizienz bzgl Ressourceneinsatz. Doppelt soviele SMs zu verbauen kostet (bei weitem nicht, aber in die Richtung von) doppelt soviel chip Fläche, ähnlich bei den schedulern. Die INT units durch Kombiunits auszutauschen kostet bei weitem weniger.


Auf der einen Seite finde ich die Diskussion über Leistung pro Flop deswegen nicht ganz zielführend, andererseits hat NVIDIA sich das "Luftpumpe" gememe sich auch selbst eingebrockt, weil auf die Marketing slides halt auch "doppelt soviel cuda cores" geschrieben haben.

robbitop
2022-10-13, 10:36:20
Was gemeint ist ist rohleistungsnormierte Performance. Und die ist schon interessant wenn man uArchs vergleicht. (wenn auch nicht so relevant wie Perf/W oder Perf/USD)
Ich finde, dass klar ist was gemeint ist und eine Definitionsdiskussion keinen Mehrwert bringt.

Iscaran
2022-10-13, 10:39:38
EDIT: @mksn7: ja deswegen ja "IPC" in "". Klar geht es hier erstmal nur um Core-Leistung in "FlOps" und Flops/% sind in etwa soetwas wie eine Masszahl für die "effektive" Nutzung der tatsächlichen IPC/angekommeneLeistung. /EDIT.
Aber danke dennoch für deinen Ausführlichen Hinweise, warum die Bezeichnug einer Erläuterung bedarf!


So und nun etwas "Spekulation":/EDIT


https://www.gpumag.com/amd-rdna-3/

gerade gefunden.. 20min alt

sagt aber sehr wenig aus

Ist ja mehr ein teilweise fehlerhaftes (z.B. die 32 WGP = 7680 Shader bei N32, das sind nunmal rechnerisch nur 30 WGP, und von teil-deaktivierten WGPs spricht man dort nicht, was dann 32-2=30 gäbe) zusammenstöpseln der bisherigen Leak-Lage die einzige "neue" Aussage ist der "Performance guess" von +90-130% gegenüber 6900XT. Wobei sich das auf ein Gerücht vom April 2022 bezieht :rolleyes:
=> 348 % *1.9 - 2.3 = 660 - 800%

Die 4090 liegt ja so bei 670 - 680%. Die 4090 Ti mit +20% dazu wären dann auch ~800%.

N31 würde somit mit einer 4090 Ti gleich liegen in (klassischer) Performance (in reinem RT vermutlich weniger, aber der Rückstand nicht mehr so groß wie früher).

Ich spekuliere da lieber die Performance über die Architektur.
48 WGP, 4CU/WGP ? *64 Shader pro CU = 48*4*64 =12288 Shader
alternativ 48 WGP, 2CU pro WGP aber 128 Shader pro CU = 48*2*128 = 12288.

Ich vermute eher dass AMD hier den Weg auf 4CU / WGP gegangen ist und nicht einfach nur 2x Shader pro CU, das würde auch zu den Gerüchten der Erhöhung der L3 Caches und Register und so passen (IMHO).

Auch denke ich, dürfte dieser Weg zu einem niedrigen "IPC-Hit" führen.

Also ist eben gerade NICHT zu erwarten dass RDNA3 beim upscaling genauso stark einbricht wie es Ampere => Ada vormacht.

Rechnen wir das weiter um mal die Flops von RDNA3 abzuschätzen: 12288 *2.75 GHz = 67.6 TFlops

RDNA2 hatte bisher einen mittleren "Architektur-Wirkungsgrad" von 66 GFlops/%Indexpunkt.
Würde der Wirkungsgrad hier gleich bleiben, wären das 67600/66 = 1024 % 4k-Index.

Somit ist eigentlich nur noch die Frage, wieviel "IPC" verliert AMD durch die Shader-Aufdopplung relativ zu RDNA2.

1024/670 = 1.53x => RDNA3 kann theoretisch bis zu 53% "IPC" verlieren, relativ zu RDNA2 und wäre dann immer noch gleich schnell wie die 4090.
(oder wers gern anders rum berechnet 66 GFlops/%*1.53 = 101 GFlops/%
67600 / 101 = 670% 4k-Index.

Allerdings kann ich mir irgendwie einen derartigen IPC-Einbruch nicht wirklich vorstellen, wenn man sich mal die Historie von AMD anguckt.
Arch | GFlops/%Index
GCN3 | 79.55
GCN4 | 79.98
GCN5 | 90.13
RDNA1 | 63.20
RDNA2 | 65.98
RDNA3 | ?66-101?

So langsam denke ich, wird mir klar warum nVidia nun dringend vor AMD "releasen" musste, und dann gleich die 450 W TDP mit einpackt - obwohl die Karten eigentlich auch mit 300 W effizient sind.

Trotzdem sind ALLE gehyped weil ein Chip der einen 2 Fertigungs-Nodes Sprung hinlegt zwangsläufig einfach MASSIV schneller ist als der vorherige.

Aber rein auf die Architektur betrachtet, bin ich nun doch etwas skeptisch geworden ob Ada wirklich ein "großer Wurf" ist.

RDNA3, hmmm ist noch Wundertüte, kann in beide Richtungen ausschlagen. Fällt die "IPC" (bzw. der "Wirkungsgrad") ähnlich drastisch wie bei Ampere => Ada, kommt man so auf Höhe der 4090 raus.
Bleibt die IPC dagegen höher, sieht Ada die Rücklichter.

Exxtreme
2022-10-13, 10:43:02
Gilt das für dich auch für alle FPS>144Hz? Eine Fliege bekommt das bestimmt hin, aber die Trockennasenprimaten eher nicht.

Es gibt Leute, die das erkennen können. Auch ich merke einen Unterschied bei Mausbewegungen zwischen 144 Hz und 240 Hz. Nur kann ich nicht sagen was was ist. Es ist nur ein subtiler Unterschied.

Was Bildwiederholfrequenzen angeht, da gibt es Megatonnen an urban legends. :)

Virtual
2022-10-13, 11:12:58
Du meinst das jetzt allgemein, und nicht auf DSC bezogen?
Bei der Aktualisierungsrate kommt es arg auf den dargestellten Inhalt an. Der Maus-Cursor ist vor typischen Fensterhintergründen sicherlich für viele Menschen während schnellen Bewegungen bei 240Hz deutlich besser verfolgbar als bei 144Hz. Gibt aber Wichtigeres.
Nein, nicht direkt auf DSC bezogen, nur auf die Fauna bezogen, insbesondere auf Trockennasenprimaten, war ja dein Vorschlag.

OK, du setzt Grenzen (144Hz/240Hz/inhaltsabhängig) der Wahrnehmung, quantifizierst den sichtbaren Unterschied mit "sicherlich viele Menschen" als Vermutung, beziehst dich dabei exemplarisch auf den Mauszeiger.

Nun, die Fähigkeit des Motion-Tracking des menschlichen Hirns liegt weit, weit unterhalb von 144Hz, der Rest ist ein rein subjektiver Eindruck mehr oder weniger belegt durch entsprechende Studien. Gemäß dieser Studien dürfte es nur (sehr) wenige Menschen geben, die einen Unterschied zwischen 144Hz und 240Hz noch feststellen können, vorausgesetzt der Mauszeiger aktualisiert überhaupt die Position gemäß des Monitor-Refresh. Bezogen auf den subjekten Gesamtbildeindruck, den viele als Beleg anführen, verhält es sich ähnlich. Und nächstes Jahr kommen erste Monitore mit 540Hz auf den Markt. Wie viel mehr (DSC-)krank geht das noch?

"Gibt aber Wichtigeres" ... Du hast dich ja bei deinem Monitor auf 144Hz beschänkt, weniger Hz waren dir aber "sicherlich zu wenig"? Und, naja, die Monitor-Hersteller verdienen mit dem gehypten, subjektiven Eindruck der überschätzen menschlichen Wahrnehmungsfähigkeit >144Hz ein Schweinegeld. Gleichermaßen könnte man auch auch die "Sau" Displayport 1.4/2.0 mit/ohne DSC-Wahrnehmung durchs Dorf treiben, geschieht aber (noch) nicht.

DrFreaK666
2022-10-13, 11:16:09
Bin ich hier der einzige, der skeptisch ist was Preise und Performance angeht?
RDNA1 und 2 waren auch keine Preiswunder

Platos
2022-10-13, 11:20:14
Bin ich hier der einzige, der skeptisch ist was Preise und Performance angeht?
RDNA1 und 2 waren auch keine Preiswunder

Das ist so, aber die Leute wollen es nicht war haben "AMD kommt mit niedrigen Preisen" ;D

Ja, das haben wir gesehen die letzten Generationen. Sowohl bei CPU als auch GPU kam das nicht so raus bei Launch.

robbitop
2022-10-13, 11:21:06
Ich sehe das ehrlich gesagt auch nicht so kommen. AMD wird sich an Nvidia orientieren - sicherlich mit einem gewissen offset, wenn man etwas langsamer ist oder gewisse Features nicht hat oder weil die Marke nicht ganz so stark ist.
Die RDNA2 Karten waren ja auch günstiger als ihre Gegenstücke. Aber nicht revolutionär günstiger.

vinacis_vivids
2022-10-13, 11:26:42
1049USD für ne 24GB Karte, die schneller ist als 4090?
Das ist dann was für Scalper. Da macht AMD ja die kleinen Zwischenhändler reich. Gibt dann wieder Bots, die im AMD Shop jede Woche Mittwoch 15Uhr auf die Tastatur hauen.
Die Mining Zeiten sind vorbei. Das halte ich für unwahrscheinlich.
1599USD / 2000€ für die 4090 bedeutet für mich 1299USD / 1700€ für die 7900XT. AMD war über die Jahre hinweg preislich immer attraktiv, aber die Zeiten wo die Aktien verschleudert wurden, sind lange vorbei.

Linmoum
2022-10-13, 11:27:16
Bei RDNA2 haben sie sich preislich an der Raster-Performance orientiert. Das ist IMO jetzt aber nicht mehr gut genug. Ich hoffe wirklich, dass sie bei RT deutlich Faktor 2x liegen.

Raff
2022-10-13, 11:31:55
Faktor 2 reicht halt schlimmstenfalls nur für GA102 Full Fat (komplexe Raytracing-Workloads). Ich wünsche mir Faktor 3 bis 4. Eine Verdoppelung durch Einheitenverbesserung plus Takterhöhung werden das aber ziemlich sicher bringen. Hoffentlich mehr dadurch, dass AMD vom bisherigen Minimalisten-Ansatz abrückt. Bin sehr gespannt. =)

MfG
Raff

aufkrawall
2022-10-13, 11:37:01
"Gibt aber Wichtigeres" ... Du hast dich ja bei deinem Monitor auf 144Hz beschänkt, weniger Hz waren dir aber "sicherlich zu wenig"?
1. Hold Type Blur
2. Input Lag
3. Musst du mich nicht bekehren, dass die Sinnhaftigkeit von mehr als 144Hz deutlich abnimmt.
4. OT, warum fragst du hier überhaupt so komisches Zeug? Interessiert gerade im Kontext niemanden.

Virtual
2022-10-13, 11:51:38
...
4. OT, warum fragst du hier überhaupt so komisches Zeug? Interessiert gerade im Kontext niemanden.
"aufkrawall" ... entspann dich und schau in argumentativen den Spiegel ... dein Usprung-Beitrag hinsichtlich Fauna und DSC-Wahrnehmung war nicht weniger absurd und frei von Relevanz für den Faden.

robbitop
2022-10-13, 11:53:11
So langsam driften wir Offtopic. Lasst uns bei RDNA3 bleiben.

Badesalz
2022-10-13, 11:54:03
Was gemeint ist ist rohleistungsnormierte Performance. Und die ist schon interessant wenn man uArchs vergleicht.Funfact am Rande: Das sind schon eine ganze Ecke lang keine Mikroachitekturen mehr, sondern Nanoarchitekturen :smile:

Ich finde, dass klar ist was gemeint ist und eine Definitionsdiskussion keinen Mehrwert bringt.Wenn es nötig wäre würde ich dem uneingeschränkt zustimmen, aber ich sehe nichtmal die Notwendigkeit ;)

Wenn es aber so gesehen keine Alternative gibt, wieso sollte AMD den Samaritas spielen und die Karten im ähnlichen Leistungsbereich für deutlich geringere Preise unters Volk bringen?Warum sollen sie auch gleich DEUTLICH geringer sein? Und wieviel ist deutlich heutzutage?

aufkrawall
2022-10-13, 12:26:53
"aufkrawall" ... entspann dich und schau in argumentativen den Spiegel ... dein Usprung-Beitrag hinsichtlich Fauna und DSC-Wahrnehmung war nicht weniger absurd und frei von Relevanz für den Faden.
Es ging um DP 1.4 vs. 2, was bei den neuen Karten relevant ist. Wenn das für dich nicht Kontext ist, dann sind deine OT-Ausschweifungen natürlich nicht überraschend...

Berniyh
2022-10-13, 12:32:57
Ich verstehe die Aufregung um DP 1.4 vs. 2.0 nicht so recht. Es gibt doch eh keine Monitore mit DP 2.0 zu kaufen und wenn man sich die Entwicklung mit DP 1.4 anschaut, dann dürfte der Nachteil auch in der mittleren Zukunft marginal sein.
Zur Erinnerung: DP 1.4 wurde 2016 veröffentlicht, wirklich durchgesetzt hat es sich bei den Monitoren aber erst in den letzten 2 Jahren, d.h. von Veröffentlichung bis Nutzung sind so 5-6 Jahre vergangen.
Da bei DP 2.0 die Anforderungen wieder ordentlich gestiegen sind würde ich nicht damit rechnen, dass da vor 2024 mit wirklich vielen Displays zu rechnen ist. Und bis dahin sind dann ja noch mal 1-2 Generationen an GPUs rausgekommen.
Evtl. sollte man da also auf dem Teppich bleiben, der Nachteil von Nvidia ist da verschwindend gering, wenn sie nur DP 1.4 bieten.

robbitop
2022-10-13, 12:34:05
Kommt drauf an wie lange man die Karte behält würde ich sagen. Stand jetzt ist das so.

Berniyh
2022-10-13, 12:47:46
Ja natürlich, aber kauft man wirklich jetzt eine GPU mit dem Gedanken eine Funktionalität evtl.(!) mal in 2-3 Jahren zu nutzen? Also ich hab da meine Zweifel.
Ich weiß übrigens, wovon ich spreche. Ich hab nämlich Ewigkeiten gewartet bis endlich mal 4k Monitore mit DP 1.4 und 120 Hz verfügbar sind (zumal dann noch in der Größe, die ich mir wünsche).
Jetzt langsam erst kommen die ersten brauchbaren Produkte da raus. eine DP 1.4-fähige GPU habe ich aber schon gefühlt ewig …

robbitop
2022-10-13, 12:56:13
Die Welt ist nicht schwarz/weiß. Man kauft nicht wegen eines Kriteriums sondern aufgrund eines Spektrums an Kriterien. Und dies ist zumindest eines.
Ist es heute ein großer Nachteil? Nein. Ist es objektiv ein Nachteil der nennenswert ist und wäre es besser wenn Ada PCIe 5.0 und DP2.0 hätte? Auf jeden Fall.
Nicht so schlimm =! gut.

Intel ARC hat DP2.0
RDNA2 IGPs haben DP2.0
RDNA3 GPUs werden mindestens DP2.0 haben

Es wäre zeitlich gesehen also absolut möglich gewesen. Es ist mindestens schade, dass es nicht der Fall ist. Braucht man IMO nicht runterzuspielen.

Es gibt eine Menge Leute, die ihre Hardware lange behalten. Meine 1080 ti ist noch immer in meinem PC und tut noch gut. Ich ärgere mich aber, dass die Karte kein HDMI 2.1 hat, da mein 4K OLED nicht mit VRR ansteuerbar ist. Dank FSR 2.0 ist die Karte sogar noch gut nutzbar.

Schaut man sich die Steam HW Surveys an, sieht man, dass die Mehrzahl der Gamer noch Karten wie die 1060 haben. Wir sind hier etwas in einer Filter Bubble.

fondness
2022-10-13, 13:03:31
Ja natürlich, aber kauft man wirklich jetzt eine GPU mit dem Gedanken eine Funktionalität evtl.(!) mal in 2-3 Jahren zu nutzen? Also ich hab da meine Zweifel.
Ich weiß übrigens, wovon ich spreche. Ich hab nämlich Ewigkeiten gewartet bis endlich mal 4k Monitore mit DP 1.4 und 120 Hz verfügbar sind (zumal dann noch in der Größe, die ich mir wünsche).
Jetzt langsam erst kommen die ersten brauchbaren Produkte da raus. eine DP 1.4-fähige GPU habe ich aber schon gefühlt ewig …

Zum einen ist das auch ein Henne-Ei-Problem. Wenns keine Karten mit DP2.0 gibt, werden die Monitorhersteller erst recht keine Monitore damit bringen. Und zum anderen reden wir bei der 4090 von einer Karte die wieder mindestens 2 Jahre aktuell sein wird, mit DLSS3 sogar mit einer Feature für deutlich mehr fps wirbt und darüber hinaus ohnehin extrem schnell ist für aktuelle Spiele. Diese geballte Power dann unter Umständen nur komprimiert ausgeben zu können ist ein Kompromiss, den man in einer kompromisslosen Preisklasse vielleicht nicht unbedingt eingehen will.

Virtual
2022-10-13, 13:24:26
Es ging um DP 1.4a vs. 20, was bei den neuen Karten relevant ist. Wenn das für dich nicht Kontext ist, dann sind deine OT-Ausschweifungen natürlich nicht überraschend...
Nichts und niemand aus der Fauna der Erde nimmt den Unterschied bei 8K@60Hz bzw. 4k@240Hz mit/ohne DSC war ... so dein Argument, das durchaus seine Berechtigung hat, aber ebenso deplatziert ist, wie mein >144Hz Argument "niemand benötigt mehr als 144Hz". Es ist schlicht keine Begründung, warum ein seit Juni 2019 final spezifizierter DP 2.0 Support in einer 2022er Q3 Highend-GraKa (egal ob von AMD oder NV) nicht einzubauen ist. Einen technischen Hintergrund kann ich mir bei NVidias Expertise nicht vorstellen. Ergo, der 4090 fehlt aus mir technisch nicht nachvollziehbaren Gründen der DP 2.0 Anschluss und ich hoffe sehr, AMD geht nicht den gleichen Weg und bietet bei RDNA3-Highend aufwärts die Möglichkeit an, Monitore in 2023 mit DP 2.0 anzubinden ... völlig unabhängig der visuellen Sinnhaftigkeit für die Fauna der Erde. Es ist mir schlicht wichtig, und da bin ich bestimmt nicht alleine, so wie es auch viele >144Hz-Monitor Zocker gibt!

Berniyh
2022-10-13, 13:29:10
Nicht so schlimm =! gut.
[…]Braucht man IMO nicht runterzuspielen.
Es ging mir nicht darum das runterzuspielen, aber ich finde die Aufregung darüber ist hier auf den letzten paar Seiten etwas arg hoch gewesen.
Natürlich ist es ein Featurenachteil, das würde ich nie bestreiten.
Es gibt eine Menge Leute, die ihre Hardware lange behalten. Meine 1080 ti ist noch immer in meinem PC und tut noch gut.
Ich hab ne Vega am Laufen, mir brauchste das nicht zu erzählen. :D
Und davor war es ne 280X.
Ich ärgere mich aber, dass die Karte kein HDMI 2.1 hat, da mein 4K OLED nicht mit VRR ansteuerbar ist. Dank FSR 2.0 ist die Karte sogar noch gut nutzbar.
Ja, kann ich verstehen, HDMI sehe ich da allerdings auch etwas als Sonderfall an, da hat es ewig gedauert bis man vernünftige Specs für 4k zusammen hatte.

Zum einen ist das auch ein Henne-Ei-Problem. Wenns keine Karten mit DP2.0 gibt, werden die Monitorhersteller erst recht keine Monitore damit bringen.
Nicht so wirklich. Eigentlich ist hier schon seit Jahren recht klar, dass die GPUs die Henne und die Displays die Eier sind.
GPUs waren eigentlich immer deutlich früher mit der Unterstützung dran als die Monitore.

Liegt sicherlich aber auch daran, dass Monitore einem deutlich stärkeren Preiskampf ausgesetzt sind (zumal noch mit TVs, welche ja für Gaming auch immer besser nutzbar werden) als GPUs.
Dazu kommt, dass die Ressourcen für die Implementierung bei GPUs zentraler gebündelt sind, gibt ja nur 3 Hersteller. (von Embedded u.ä. mal abgesehen)
Ich würde daher wetten, dass die Implementierung neuer Anschlussstandards für die Hersteller von Monitoren pro Gerät teurer sind als bei GPUs und daher macht man es halt erst dann, wenn es wirklich sein "muss".

vinacis_vivids
2022-10-13, 14:04:12
Interessant ist auch, dass neben der 12288SP 24GB N31-Version nun häufiger wieder die 16.384SP Pro N3X Version mit 32GB ECC VRAM auftaucht. Vermutlich mit CDNA uArch Verwandtschaft und eventuell auch fp64 Fähigkeiten, neben den Int4/Int8, packed fp32 usw. Mal schauen wie da 2023 das SI angeordnet ist, ob 512bit (2x256bit) oder gar 2x384bit SI.

Für die Pro Version sind ohnehin die Display-Anschlüsse von höchster Qualität Pflicht. Finde es super, dass AMD da auch für den Desktop-Gamer die hohe Qualität am Bildschirm-Output einbaut. Für Leute die langsam von 4k auf 5k/6k umsteigen wollen (wie ich) wird das mega interessant.

Es könnten neben den stärkeren GPUs ruhig mehr 5120x2160 bzw. 5120x2880 Pix Monitore auf dem Markt kommen, gerne auch mit 144hz.

Ich hoffe AMD holt bei RDNA3 uArch insbesondere im RT auch viel Leistung aus der CPU raus. Der 7950X 16C/32T ist so dermaßen brachial in der Leistung, da muss AMD zulegen können was Kohärenz-Sortierung der Strahlen angeht (Stufe 4 Ray-Tracing).

Badesalz
2022-10-13, 14:27:15
Für Leute die langsam von 4k auf 5k/6k umsteigen wollen (wie ich) wird das mega interessant.Wenn es um FPS gehen würde, redest du grad über die 0,01%low Werte. Da hat AMD bestimmt dran gedacht :rolleyes:

Es könnten neben den stärkeren GPUs ruhig mehr 5120x2160 bzw. 5120x2880 Pix Monitore auf dem Markt kommen, gerne auch mit 144hzDie Modellvielfalt entspricht der Anfrage...

Crazy_Chris
2022-10-13, 14:29:29
Alleine schon für VR wird bei einer so teuren Karte unbedingt DP 2.0 gebraucht wenn man die Karte ein paar Jahre verwenden will. :mad:

vinacis_vivids
2022-10-13, 14:59:55
Wenn es um FPS gehen würde, redest du grad über die 0,01%low Werte. Da hat AMD bestimmt dran gedacht :rolleyes:

Die Modellvielfalt entspricht der Anfrage...

Ich bin recht geduldig geworden und sitze seit über 6 Jahren bei 4K fest.
Unter 5k geht's sehr wohl um fps, um 0,01% low etwas weniger. Der Unterschied zwischen 15-20fps Geruckel und 40-60fps ist gigantisch.

Zumal bin ich sehr empfindlich gegen irgendwelche drops, schlieren, blasse Farben, unscharfe Schrift usw. Mir ist auch klar dass nicht alle Wünsche auf einmal erfüllt werden können.

5k hat zudem deutlich mehr Details als 4k.
Mir ist auch klar, dass die meisten Leute, so ca. 80% mit der RX6600 für 250€ und 1080p zufrieden sind und mit Steamdeck CP2077 spielen, alles gut.

AMD wird womöglich mit den geringen Budged vllt. auch nicht ganz an die 4090 rankommen was RT angeht, aber das ist mir egal.

Tangletingle
2022-10-13, 15:04:28
Faktor 2 reicht halt schlimmstenfalls nur für GA102 Full Fat (komplexe Raytracing-Workloads). Ich wünsche mir Faktor 3 bis 4. Eine Verdoppelung durch Einheitenverbesserung plus Takterhöhung werden das aber ziemlich sicher bringen. Hoffentlich mehr dadurch, dass AMD vom bisherigen Minimalisten-Ansatz abrückt. Bin sehr gespannt. =)

MfG
Raff

Da wird glaube ich der Wunsch der Vater des Gedankens bleiben.

Weder glaube ich an solche Steigerungen bei rt, noch an niedrige Preise. AMD wird sich weiter an den Preisen von Nvidia orientieren und dort zugrundeliegend die Rasterperformance als Metric nutzen. Imho können wir froh sein, wenn überhaupt rt-leistung auf Höhe von Ampere raus kommt.

Dieses "AMD wird in Nvidia in den Preiskampf zwingen" ist einfach vorbei. Ihr Fokus liegt aktuell auf Datacenter und auch nur dort werden sie wachsen und entsprechende Margen einfahren. Graphics is Zusatzgeschäft das man mitnimmt, weil es sich eben aus dem Datacentergeschäft ergibt.

[MK2]Mythos
2022-10-13, 15:16:47
RT wird immer wichtiger. Wenn RDNA3 da nur auf Ampere Niveau landet, werden sie die Karten preislich extrem niedrig ansetzen müssen.
@displayport Diskussion: Die ist jetzt seit 2 Seiten pures offtopic, bitte auslagern. Wenn ich hier reinschaue will ich was neues zu rdna3 lesen und nicht wieso nvidias dp noch irgendwie "okayisch" ist.

Taigatrommel
2022-10-13, 15:22:51
Mythos;13137365']RT wird immer wichtiger. Wenn RDNA3 da nur auf Ampere Niveau landet, werden sie die Karten preislich extrem niedrig ansetzen müssen.
Sehe ich ähnlich, als Ray Tracing neu war, empfand ich es eher uninteressant. Das ist jetzt aber auch langsam vier Jahre her, inzwischen gibt es immer mehr Titel, die es unterstützen und oftmals gibt es halt deutliche Aufwertung in der Darstellung. Vor gut zwei Jahren mit RDNA2 war es mir noch relativ egal, spätestens dann mit Cyberpunk 2077 änderte sich die Priorität bzgl. RT für mich persönlich.

Wenn man "nur" Ampere-Leistung erreicht, dann würde ich dafür jedenfalls nicht wirklich mehr einen vierstelligen Preis bezahlen wollen.

Akkarin
2022-10-13, 15:23:18
Gibt es Infos zum Cache? Die Interfacebreite ist ja nur kaum gestiegen (+50% 31 vs 21, +33,3% 32 vs 22, kein unterschied 33 vs 23), gleichzeitig hat man mehr als doppelt so viele Shader, deutlich mehr Takt und bei 31 und 32 eine Chiplet-Konstruktion die Gundsätzlich eher mehr als weniger probleme mit der Bandbreite hat. Wird der L2/Infinity-Cache vergrößert (in Relation zum Interface)?

RDNA3 ist ja etwas gleich groß wie RDNA2, wo bekommt AMD die ganzen Transistoren her?

Platos
2022-10-13, 15:25:36
Ich bin recht geduldig geworden und sitze seit über 6 Jahren bei 4K fest.


:D Das hört sich witzig an ^^

Dabei ist 4k eig. erst seit Ampere wirklich gut spielbar (60FPS).

Aber 5k Monitore sollte es wirklich mal mehr geben. Nicht nur die 1-3 27-Zöller. Auch mal 30 und 32 Zoll. Am liebsten aber 21:9 Monitore 40" mit 2880p.

Während dem man beim TV schon seit ein paar Jahren jetzt auf 8k setzt, ist man beim Monitor noch bei 4k.

Ist schade. Ich könnte ja 5k gebrauchen. Aber der Monitormarkt ist sowieso abzocke. Während dem es bei den TVs hochqualitative Displays gibt, wird man bei Monitoren abgezockt. Völlig überteuert :D

Ich wünschte ja, Ultrawide wäre im TV Markt eine gängige Alternative. Leider gibts keine kleinen, hochqualitativen TVs. 42" ist bisschen gross am Schreibtisch.

vinacis_vivids
2022-10-13, 16:01:08
Gibt es Infos zum Cache? Die Interfacebreite ist ja nur kaum gestiegen (+50% 31 vs 21, +33,3% 32 vs 22, kein unterschied 33 vs 23), gleichzeitig hat man mehr als doppelt so viele Shader, deutlich mehr Takt und bei 31 und 32 eine Chiplet-Konstruktion die Gundsätzlich eher mehr als weniger probleme mit der Bandbreite hat. Wird der L2/Infinity-Cache vergrößert (in Relation zum Interface)?

RDNA3 ist ja etwas gleich groß wie RDNA2, wo bekommt AMD die ganzen Transistoren her?

N21XL, zumindest meine RX6800 schwimmt in Bandbreite. Hab da den IF-CLK von 1550Mhz auf 2000Mhz übertaktet. Also von 1,587 TB/s auf 2,048 TB/s.
Hier fehlt es eher an Rechenleistung.

Nach derzeitigen Infos sieht es so aus:

N21XTX -> N31XTX
Shader: 5120 -> 12288 (+140%)
Takt Ghz: 2,4 -> 3,2 (+33%)
fp32: 24,5 -> 78,6 (+220%)
VRAM-SI:256bit -> 384bit (+50%)
VRAM GB/s: 512 -> 960 (+87,5%)
IF$ MB: 128 -> 192 (+50%)
IF-CLK Mhz: 1940 -> 2600 (+34%)
IF$ GB/s: 1986 -> 3993 (+101%)

Zu beachten ist, dass der IF$ GB/s ein Limit bei 4TB/s hat durch TSMC Cowos. Es sei denn AMD nutzt den noch neueren I/O, was ich für unwahtscheinlich halte. Der VRAM GB/s bei 1018GB/s (21,2 Gbps VRAM-Steine), AMD wird etwas günstigeren VRAM nutzen, daher die 960 GB/s.

Man sieht irgendwie dass bei der Rechenleistung AMD locker mehr zulegen kann, aber durch den VRAM bzw. IF$ und IF$-Größe limitiert ist. Der IF$ der 2. Generation wird eine Schlüsselrolle übernehmen, über vorhandene Rechenleistung und hohen Takt mache ich mir da keine Gedanken.

Akkarin
2022-10-13, 16:28:08
[...]
Danke für die Infos.

Wobei beim IF-übertakten ja "nur" die Bandbreite des caches ansteigt, nicht die des Speichers? Über die Bandbreite des caches habe ich mir weniger sorgen gemacht als über dessen Größe und die Bandbreite zum VRAM. +50%/+87.5% sieht da eher nicht so toll aus.

OTOH wäre man mit +87.5% auf die Raster-Performance ja auch schon easy weit über der Raster-Performance von AD103.

gruntzmaker
2022-10-13, 16:43:23
Neue Leaks auf wwcftech.com:

https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/

RDNA 3 hat (wie erwartet) keine Chance gegen Nvidias neue Karten. Bei der Rasterleistung sieht es noch halbwegs ok aus, bei Raytracing ist es dann wohl aus und vorbei, wenn ich den Leak richtig interpretiere.

AMD muss dann über den Preis kommen und das dürfte wohl auch der Fokus gewesen sein. Imho sind die Karten aber damit bereits uninteressant, denn RX6000 dürfte wohl in RT kaum langsamer sein und somit ist Ampere ja schon fast eine Upgrade Perspektive, die Sinn ergibt. Speziell die ganzen 3090 ;).

why_me
2022-10-13, 16:46:28
Wie gut ist die trefferquote von dem Chinesen, von dem die Infos kommen?
Hatte der sich nicht bei Zen4 auch total vertan?

gruntzmaker
2022-10-13, 16:48:15
Wie gut ist die trefferquote von dem Chinesen, von dem die Infos kommen?
Hatte der sich nicht bei Zen4 auch total vertan?

Der ist für seine hohe Trefferquote eher bekannt... :/.

Badesalz
2022-10-13, 16:49:42
Mythos;13137365']RT wird immer wichtiger. Wenn RDNA3 da nur auf Ampere Niveau landet, werden sie die Karten preislich extrem niedrig ansetzen müssen.Ja. Wenn. Wie kommst du aber zu der These? Beruht auf?

@gruntzmaker
Wo unter dem Link steht etwas was drauf hindeuten könnte, daß die RX7 kaum erwähnenswert schneller RT macht als die RX6?

gruntzmaker
2022-10-13, 17:03:26
Ja. Wenn. Wie kommst du aber zu der These? Beruht auf?

@gruntzmaker
Wo unter dem Link steht etwas was drauf hindeuten könnte, daß die RX7 kaum erwähnenswert schneller RT macht als die RX6?

Es ist zwar nur ein Leak (und auch recht vage alles), aber so würde ich die Auffassung "both - grating & chasing lights" verstehen. Das erste dürfte für die Rasterleistung gelten und das Zweite für die schwache Raytracing Leistung. Naja und schwach war sie ja schon bei RX 6000. Es hat sich scheinbar nicht viel getan.

Disclaimer: Aber man kann alles Mögliche darin hinein deuten, schon klar. Würde eine andere Auslegung aber Sinn ergeben? So ein Ergebnis würde doch auch niemanden überraschen.

w0mbat
2022-10-13, 17:11:06
Ich hab das chinesische Original gelesen, es sagt exakt das Gegenteil aus, dass Navi31 sowohl in RT als auch in raster schneller ist. Die Übersetzung ist scheiße.

[MK2]Mythos
2022-10-13, 17:13:10
Ich hab das chinesische Original gelesen, es sagt exakt das Gegenteil aus, dass Navi31 sowohl in RT als auch in raster schneller ist. Die Übersetzung ist scheiße.
;D
Zu geil wieder.
Bzgl Rasterleistung habe ich eigentlich auch keine Zweifel, bei RT Performance würde mich das aber sehr überraschen.

Spring
2022-10-13, 17:14:22
Ich hab das chinesische Original gelesen, es sagt exakt das Gegenteil aus, dass Navi31 sowohl in RT als auch in raster schneller ist. Die Übersetzung ist scheiße.

Das wäre krass, aber RT schneller ist kaum zu glauben, in Raster schon eher. Mal gucken, bleibt spannend.

Nakai
2022-10-13, 17:23:50
Ich hab das chinesische Original gelesen, es sagt exakt das Gegenteil aus, dass Navi31 sowohl in RT als auch in raster schneller ist. Die Übersetzung ist scheiße.

Vielleicht heißt "Difficult To Compete With NVIDIA’s RTX 40 GPUs" das es N31 schwer hat auf das Performancelevel runterzuskalieren? :freak:

My 2 Cents:
N31 >= AD102

Badesalz
2022-10-13, 17:23:57
Es ist zwar nur ein Leak (und auch recht vage alles), aber so würde ich die Auffassung "both - grating & chasing lights" verstehen. Das erste dürfte für die Rasterleistung gelten und das Zweite für die schwache Raytracing Leistung. Naja und schwach war sie ja schon bei RX 6000. Es hat sich scheinbar nicht viel getan.

Disclaimer: Aber man kann alles Mögliche darin hinein deuten, schon klar. Würde eine andere Auslegung aber Sinn ergeben? So ein Ergebnis würde doch auch niemanden überraschen.Ja. Aber wenn man keine "Konkurrenz" bei RT gegenüber... was eigentlich? Der 4090, sagen wir mal?l ;), ist, dann kann man noch ordentlich über der 3090 liegen. Und damit auch noch ordentlicher über der RX6. Oder vertue ich mich da grad?

Der Spielraum bei der RX7 zwischen kaum besser als RX6 und schwierig gegen 4090 konkurrenzfähig zu sein, ist für mich sehr groß :D

PS:
Ich frag ja sonst immer bei solchen Gelegenheiten wie schlecht nochmal RT mit Naniten läuft...

Neurosphere
2022-10-13, 17:27:41
Ich hab das chinesische Original gelesen, es sagt exakt das Gegenteil aus, dass Navi31 sowohl in RT als auch in raster schneller ist. Die Übersetzung ist scheiße.

Ernsthaft?

Kann kein chinesisch und wäre beeindruckt:freak:

Erbsenkönig
2022-10-13, 17:28:45
Gibt es eigentlich belastbare Zahlen zur Relevanz von Raytracing? Ich kann mir irgendwie beim besten Willen nicht vorstellen, dass sich der Ottonormalkäufer, der irgendwo in nem Mediamarkt zu nem Karton greift, über so etwas überhaupt Gedanken macht.:confused:

gruntzmaker
2022-10-13, 17:31:11
Ich hab das chinesische Original gelesen, es sagt exakt das Gegenteil aus, dass Navi31 sowohl in RT als auch in raster schneller ist. Die Übersetzung ist scheiße.

Radeon 新卡,11月发布,12月下半上市,首发旗舰和次旗舰。
不过顶级性能很难和40抗衡,希望价格别再像 Ryzen 自信了。

Und die Übersetzung laut Deepl.com:

Die neuen Radeon-Karten, die im November veröffentlicht werden und in der zweiten Dezemberhälfte erhältlich sind, stellen Flaggschiffe und Sub-Flaggschiffe dar.
Die Spitzenleistung wird allerdings nur schwer mit 40 konkurrieren können, und hoffentlich wird der Preis nicht so souverän sein wie bei Ryzen.

Was auch immer das heißen mag...

Neurosphere
2022-10-13, 17:31:55
Deepl geht allerdings in eine ähnliche Richtung:

Die neuen Radeon-Karten, die im November veröffentlicht werden und in der zweiten Dezemberhälfte erhältlich sind, stellen Flaggschiffe und Sub-Flaggschiffe dar.
Die Spitzenleistung wird allerdings nur schwer mit 40 konkurrieren können, und hoffentlich wird der Preis nicht so souverän sein wie bei Ryzen.


Edit:

haha cudos @gruntzmaker, 44 Sekunden schneller!

vinacis_vivids
2022-10-13, 17:43:29
Gibt es eigentlich belastbare Zahlen zur Relevanz von Raytracing? Ich kann mir irgendwie beim besten Willen nicht vorstellen, dass sich der Ottonormalkäufer, der irgendwo in nem Mediamarkt zu nem Karton greift, über so etwas überhaupt Gedanken macht.:confused:
Weltweiter PC-Markt bricht ein: Nur Apple mit stabilen Verkaufszahlen
https://www.appgefahren.de/weltweiter-pc-markt-bricht-ein-nur-apple-mit-stabilen-verkaufszahlen-326032.html

Bei Apple ist es völlig irrelevant und die machen +40%
Raytracing ist ein Nerd-Feature im untergehenden PC-Markt, wo Lenovo, HP Asus und Dell empfindliche Verluste machen mussten.

Badesalz
2022-10-13, 17:47:33
Gibt es eigentlich belastbare Zahlen zur Relevanz von Raytracing? Ich kann mir irgendwie beim besten Willen nicht vorstellen, dass sich der Ottonormalkäufer, der irgendwo in nem Mediamarkt zu nem Karton greift, über so etwas überhaupt Gedanken macht.:confused:Man muss da klar immer mal nachlegen, weil das nicht auf... dem Relevanzlevel bleibt wie es heute ist. Daher wird AMD wohl kaum nur alle paar Generationen einen aber großen Schritt machen, sondern wie mit allem anderen nach und nach auch RT beschleunigen.

Daß man bei dem Powerbudget nicht kurz vor 4090 landen wird, dafür sind die Einschätzungen nicht völlig Banane. Allerdings verstehe ich dann nicht warum Jensen mit dem (bisher) beta1 DLSS3 so nach vorn rennt (*) als wenn der Teufel selbst hinter ihm her wäre.

(*) NV wollte die DLSS-FPS liebendgern als primäre Leistungsaangabe haben und hatte dann alle angemeckert die es andersrum herausgearbeitet haben.

gruntzmaker
2022-10-13, 17:48:40
Deepl geht allerdings in eine ähnliche Richtung:




Edit:

haha cudos @gruntzmaker, 44 Sekunden schneller!

Danke, die App dazu kann ich auch empfehlen. Ich schreibe viel auf Englisch und bin chronisch unüberzeugt von meinen Fähigkeiten, daher habe ich sie.

@ Erbsenkönig: imho die Konsolen. Auch wenn wir PC Besitzer es nicht eingestehen wollen ;).

Ich freue mich ehrlich gesagt trotzdem auf RDNA 3. Die werden über den Preis kommen müssen, eine so schlechte Nachricht ist das nicht. Rekorde wird man halt nicht holen, dafür bleibt Gaming aber bezahlbar.

OgrEGT
2022-10-13, 17:51:38
https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/post-2268656
Bondrewd aus dem B3D...
They're gonna show some hella numbers in a few weeks.
Ich denke er bezieht sich auf Perf/W...
Wird spannend :D

Neurosphere
2022-10-13, 18:00:51
Naja, die anderen Sachen die er so schreibt klingen aber erstmal nicht so toll.

Wirds vielleicht doch eher eine RDNA1 mit maximal Midrange? Kanns mir aber bei den Chipdaten auch nicht vorstellen.

Is Radeon really chasing GeForce?

Not really.

ist natürlich auch zweideutig, we will see.

gedi
2022-10-13, 18:25:15
[QUOTE=Neurosphere;13137583]Naja, die anderen Sachen die er so schreibt klingen aber erstmal nicht so toll.

Wirds vielleicht doch eher eine RDNA1 mit maximal Midrange? Kanns mir aber bei den Chipdaten auch nicht vorstellen.

Greymon66 selbst schreibt, dass dies nur Annahmen sind. Infos oder gar Benches gibt es bis dato nicht. Von daher Chill-Mod_on bis zum 3.11.

DrFreaK666
2022-10-13, 18:57:18
https://abload.de/img/screenshot_20221013_1pxiqw.jpg (https://abload.de/image.php?img=screenshot_20221013_1pxiqw.jpg)

Ich bleibe skeptisch

vinacis_vivids
2022-10-13, 18:57:54
Kann jemand mal bitte die Hitrate des 192MB IF$ N31XT für 5120x2880 berechnen?
Und bitte den Rechenvorgang mal schriftlich vorlegen.

Derzeitige Ausgangslage N21XT 128MB:
1080p: 80%
1440p: 74%
2160p: 62%
2880p: ??%

Gesucht: N31XT 192MB IF$-Hitrate.
1440p: ??%
2160p: ??%
2880p: ??%

Ich will mal das Geheimnis um AMD`s IF$ etwas lüften. So ein Rechenvorgang gehört zur Ingineursarbeit.

Erbsenkönig
2022-10-13, 19:06:03
Man muss da klar immer mal nachlegen, weil das nicht auf... dem Relevanzlevel bleibt wie es heute ist.

Da bin ich bei dir. Man wird das Ganze wohl auch im Moment ein wenig "forcieren" müssen damit es langfristig zu Steigerungen bei der Bildqualität kommt. Mir ging es in diesem Zusammenhang nur darum, dass dieser eine Aspekt wohl bei den allermeisten potentiellen Käufern heutzutage eine nur sehr untergeordnete Rolle spielen dürfte.

w0mbat
2022-10-13, 19:13:05
Ernsthaft?

Kann kein chinesisch und wäre beeindruckt:freak:
Ich bin immer voller Ernsthaftigkeit, wäre ich sonst ein echter Grandmaster Member? :biggrin:

Akkarin
2022-10-13, 19:22:05
Mit 450W Verbrauch und über 600mm^2 Fläche ist AD102 ein absolutes Monster. Von den Fertigungskosten ist Navi 31 Dank Chiplets vermutlich eher mit AD103 vergleichbar. Sollte man nur annähernd mit AD102 mithalten können ist das ein super Ergebnis für AMD- man könnte Nvidia im Preis unterbieten und gleichzeitig sehr gute Margen haben.

DrFreaK666
2022-10-13, 19:22:51
Kann jemand mal bitte die Hitrate des 192MB IF$ N31XT für 5120x2880 berechnen?
Und bitte den Rechenvorgang mal schriftlich vorlegen.

Derzeitige Ausgangslage N21XT 128MB:
1080p: 80%
1440p: 74%
2160p: 62%
2880p: ??%

Gesucht: N31XT 192MB IF$-Hitrate.
1440p: ??%
2160p: ??%
2880p: ??%

Ich will mal das Geheimnis um AMD`s IF$ etwas lüften. So ein Rechenvorgang gehört zur Ingineursarbeit.

Dachte der N31 hat nur 96MB!?

Iscaran
2022-10-13, 19:24:07
Kann jemand mal bitte die Hitrate des 192MB IF$ N31XT für 5120x2880 berechnen?
Und bitte den Rechenvorgang mal schriftlich vorlegen.

Derzeitige Ausgangslage N21XT 128MB:
1080p: 80%
1440p: 74%
2160p: 62%
2880p: ??%

Basierend auf der Extrapolation Pixel/MB Cache zu Hitrate ergibt sich der lineare Zusammenhang
Hitrate = -4E-06 Pixel/MB + 0.8526
=> für 2880p = 39%


Für 192 MB Cache ergäben sich damit:
1080p: 81%
1440p: 78%
2160p: 68%
2880p: 55%

NC
2022-10-13, 19:25:32
Hab mal in meinem Daten-Excel die Dual-Use Einheiten alle mal einheitlich mit dem Theoretisch denkbaren Float limit gerechnet (also 100% FP-Anteil) (also so wie Cyberfries bzw. die nVidia Marketing das macht)
Damit bekommt man dann diese Architektur-Mittelwerte:

Hersteller | Architektur | Gflops/%Index | relativ %
AMD | GCN3 | 79.55 | 100
AMD | GCN4 | 79.98 | 101
AMD | GCN5 | 90.13 | 113
AMD | RDNA1 | 63.20 | 79
AMD | RDNA2 | 65.98 | 83
nVidia | Maxwell | 62.33 | 100
nVidia | Pascal | 58.45 | 94
nVidia | Turing | 55.38 | 89
nVidia | Ampere | 89.02 | 143
nVidia | Ada | 122.70 | 197

...
Übertrage das auf ein RDNA3 Konstrukt mit 12.288 Shader units bei 3.2 GHz Clock und nehme 65.98 (RDNA2-Architektur baseline) *1.38 = 91.05 GFlops/Index% als "Architektur"-Maßzahl.

Landet man bei einem geschätzten 4k-Center Index von 860%-Punkten.

Das wäre also ca 28% schneller als 4090..
Ich finde die 3.2GHz zwar sehr optimistisch, aber schon klasse wie Ihr die Vorhersage errechnet habt

why_me
2022-10-13, 19:28:31
Für 192 MB Cache ergäben sich damit:
1080p: 81%
1440p: 78%
2160p: 68%
2880p: 55%

Kann man das überhaupt so genau sagen? Immerhin ist von den Änderungen am Cache von N3x nichts bekannt.

Taigatrommel
2022-10-13, 19:33:20
Ich finde die 3.2GHz zwar sehr optimistisch, aber schon klasse wie Ihr die Vorhersage errechnet habt
Woanders wurde schon berichtet (ich glaube Igor hat dazu mal zwischendrin etwas gesagt), der Maximaltakt könnte bei knapp über 3,7 GHz liegen, die Boostfrequnz habe ich vergessen, die typische Gamingfrequenz lag angeblich bei über 3 GHz. Nimmt man jetzt eine 6900XT als Vergleich zu den Werten, dann erscheinen 3,2 GHz als typischer Takt nicht unwahrscheinlich.

Iscaran
2022-10-13, 19:35:50
Kann man das überhaupt so genau sagen? Immerhin ist von den Änderungen am Cache von N3x nichts bekannt.

Nein kann man nicht - und ich hab auch 0 Ahnung ob der Zusammenhang den ich durch einfache Auftragung erstellt hab wirklich funktioniert. ABER die Hitrate scheint LINEAR mit der Pixelzahl zu skalieren (zumindest bei den 3 Datenpunkten)

Ob das für einen ANDEREN Cacheaufbau ebenso funktionert keine Ahnung. Die Hitrate denke ich hängt vor allem eher von "Logik" ab, welche Daten aufgehoben werden sollen und welche nicht.

Würde nicht allzuviel auf die Rechnung geben, außer sie bestätigt sich in 20 weiteren Auflösungen ^^

Nakai
2022-10-13, 19:37:53
Woran hängt RT an der Performance eigentlich?

Ist es bei AMD die mangelnde Rohleistung? Dann macht die Steigerung bzw. Verdopplung der WGP-Größe Sinn. Ich würde das mal so in den Raum werfen.

Rasterizer:
40 WGPs (N21) -> 48 WGPs (N31) -> x1,2
30% Mehrtakt -> x1,3
~1,5 Mehrperformance

RT:
5120 SPs (N21) -> 12288 SPs (N31) -> x2,4
30% Mehrtak -> x1,3
~3 Mehrperformance

Für mich sieht N31 eher wie ein RV770 aus.

Und die 7 Chiplet Geschichte ist auch noch nicht ausgestanden, imo.
Ich finde das AMD-Patent sehr viel interessanter mit Interposer.

Iscaran
2022-10-13, 19:42:21
Rasterizer:
40 WGPs (N21) -> 48 WGPs (N31) -> x1,2
30% Mehrtakt -> x1,3
~1,5 Mehrperformance

RT:
5120 SPs (N21) -> 12288 SPs (N31) -> x2,4
30% Mehrtak -> x1,3
~3 Mehrperformance


Interessante Aufstellung. So hab ich das noch nie gesehen. Da kam mir direkt in den Sinn: wie genau hat AMD die SPs eigentlich verdoppelt?

Sind es nun 4 CU/WGP (denn die Register L0 cache usw. sitzen bei AMD im WGP?)
Oder sind es einfach 128 SPs/CU statt vorher 64SPs/CU?

Inwiefern machen diese Unterschiede einen Einfluss auf den Datenflow usw.?
Ich würde vermute der Sprung auf 4CU/WGP dürfte eine "bessere" Verteilung der Daten erlauben, als der Sprung von 64SPs/CU auf 128CUs. Da man ja eh schon Schwierigkeiten hat die CUs selbst sinnvoll auszulasten.


Und die 7 Chiplet Geschichte ist auch noch nicht ausgestanden, imo.
Ich finde das AMD-Patent sehr viel interessanter mit Interposer.
Indeed.

fondness
2022-10-13, 19:48:14
Woran hängt RT an der Performance eigentlich?

Ist es bei AMD die mangelnde Rohleistung? Dann macht die Steigerung bzw. Verdopplung der WGP-Größe Sinn. Ich würde das mal so in den Raum werfen.

Rasterizer:
40 WGPs (N21) -> 48 WGPs (N31) -> x1,2
30% Mehrtakt -> x1,3
~1,5 Mehrperformance

RT:
5120 SPs (N21) -> 12288 SPs (N31) -> x2,4
30% Mehrtak -> x1,3
~3 Mehrperformance

Für mich sieht N31 eher wie ein RV770 aus.

Und die 7 Chiplet Geschichte ist auch noch nicht ausgestanden, imo.
Ich finde das AMD-Patent sehr viel interessanter mit Interposer.

Die 7 chiplet Geschichte ist imo MI300, wo AMD ja auch 3D chiplets angekündigt hat.

horn 12
2022-10-13, 19:48:30
Wie schnell schätzt du LIEBER @Nakai
die 7900 / 7800 XT gegenüber der 4090 / 4080 16GB

Iscaran
2022-10-13, 19:52:28
Nachtrag zum Cache.

Für 96 MB Cache ergäben sich damit:
Auflösung | Hitrate 96 MB | 128 MB | 192 MB
1080p|77%|79%|81%
1440p|70%|74%|78%
2160p|51%|59%|68%
2880p|24%|39%|55%

Sollte meine Formel stimmen oder zumindest Ansatzweise passen, würde bei nur 96MB die Hitrate ab 4k MASSIV einbrechen.

Nakai
2022-10-13, 20:02:07
Interessante Aufstellung. So hab ich das noch nie gesehen. Da kam mir direkt in den Sinn: wie genau hat AMD die SPs eigentlich verdoppelt?

Sind es nun 4 CU/WGP (denn die Register L0 cache usw. sitzen bei AMD im WGP?)
Oder sind es einfach 128 SPs/CU statt vorher 64SPs/CU?

Inwiefern machen diese Unterschiede einen Einfluss auf den Datenflow usw.?
Ich würde vermute der Sprung auf 4CU/WGP dürfte eine "bessere" Verteilung der Daten erlauben, als der Sprung von 64SPs/CU auf 128CUs. Da man ja eh schon Schwierigkeiten hat die CUs selbst sinnvoll auszulasten.


Ich glaube einfach, dass die Verdopplung der WGP-Size nicht so einfach in eine höhere Performance mündet. Ich kenne jetzt nicht die Art der RT-Instruktionen, aber man könnte dahingehend schon schielen, dass wir mehr Performance für bestimmte UseCases bekommen. RT, ML, etc.
Klar, kann Rasterperformance auch davon einen Schub bekommen, aber das glaube ich eher bei ausgewählten Szenarien. Da kann AMD dann nette Graphen bereitstellen. Der Fokus von N31 wird auf eine Effizienzverbesserung für bestimmte Usecases sein.

Indeed.

Wenn AMD beim Chiplet-Design in die vollen geht, dann haben wir einen Interposer und da drauf sind dann die Chiplets platziert.

Könnte dann so aussehen (oder völlig anders):
N31: 2 GCDs (a 24 WGPs) + 1 CPD + 3 MCDs + 3 CCDs -> 9 Chiplets
N32: 1 GCD (a 30 WGPs) + 1 CPD + 2 MCDs (Memory Controller Dies) + 2 CCDs (Cache Controller Dies) -> 6 Chiplets

Meine Idee wäre eher, dass AMD bereits einen noch größeren Navi vorbereitet, mit mehr GCDs.

€:
Wie schnell schätzt du LIEBER @Nakai
die 7900 / 7800 XT gegenüber der 4090 / 4080 16GB

Irgendwo dazwischen überall. Bei RT ist 7900 eher bei 4080-Level.

vinacis_vivids
2022-10-13, 20:11:04
Nachtrag zum Cache.

Für 96 MB Cache ergäben sich damit:
Auflösung | Hitrate 96 MB | 128 MB | 192 MB
1080p|77%|79%|81%
1440p|70%|74%|78%
2160p|51%|59%|68%
2880p|24%|39%|55%

Sollte meine Formel stimmen oder zumindest Ansatzweise passen, würde bei nur 96MB die Hitrate ab 4k MASSIV einbrechen.

Besten Dank. Der Einbruch ist zwar massiv bei 96MB IF$, wird aber von der Bandbreite des VRAM aufgefangen, der bei 384bit SI 20Gbps ~ 960GB/s liegt. Da die Zugriffe auf den VRAM teuer sind, sinkt dadurch die verfügbare Energie für den GPU-Takt.

Der N31 96MB IF$ hätte nicht nur weniger IF$-Hitrate an sich, sondern auch weniger Takt bei gleicher Energieaufnahme wie ein N31 192MB IF$. Bei dem N31 192MB IF$ bin sich sehr optimistisch, dass er AD102 Salvage 4090 locker kassiert mit +20-40% Vorsprung. Bei "nur" 96MB IF$ sieht die Sache dann doch wesentlich enger aus.

Die 96MB IF$ Hitrate bei 2160p ist bei nur 51% und 49% VRAM Nutzung ist dann nicht mehr so energiesparend, dass man noch genug Energie für die SPs hat um wirklich hoch zu takten (3,3-3,5-3,7 Ghz).


Ausgehend von CB-Test Raster 5120x2880 habe ich folgendes kalkuliert:

5120 x 2880 fp32 Raster
4090 FE – 100 fps – 2,75Ghz – 16.384SPs ~ 90,11 Tflops fp32 – 0,9011 Tflop 32/frame
3090 Ti – 61,6 fps – 1,95Ghz – 10.752SPs ~ 41,93 Tflops fp32 – 0,6806 Tflop 32/frame
6900 XT – 50,5 fps – 2,25Ghz – 5120SPs ~ 23,04 Tflops fp32 – 0,4562 Tflop 32/frame

30% Effizienzverlust durch breitere Shader-Konfiguration nei N31XT ~ 0,5934 Tflop 32/frame
7900 XT – 3,30 Ghz – 12.288SPs ~ 81,10 Tflops fp32 – 136,67fps
7900 XT – 2,90 Ghz – 12.288SPs ~ 71,27 Tflops fp32 – 120,10fps

https://abload.de/img/2022-10-1320_57_05-unx9e8a.png

Berniyh
2022-10-13, 22:47:20
Nun ja, wir wollen mal nicht übertreiben. ;)

Iscaran
2022-10-13, 22:51:51
Naja 30% Verlust wäre eh schon nicht wenig. Bei 50% Verlust an "effektiver Shaderleistung" würde die Verdopplung zu genau NULL Mehrwert führen.

Dann hätte man statt 12.288 SPs auch nur 6.144 verbauen können und lieber mehr "IPC" genommen, und hätte nur halb so viel Stromverbrauch..."hätte, hätte".

=> 30% Verlust bei Flops/%Index sind schon GEWALTIG und selbst DAMIT liegt man auf bzw. leicht über 4090 Niveau.

Wie gesagt, so langsam dämmert mir, warum nVidia die 4090 mit TBP 450 Watt liefert.

DrFreaK666
2022-10-13, 23:14:03
Wir sind hier im Speku-Thread, nicht im Fantasy-Thread

Platos
2022-10-13, 23:43:43
V_V wieder mal in die Traumwelt abgedrifted ;D

vinacis_vivids
2022-10-13, 23:44:39
Habe mal die Schublade vervollständigt. Inkl. Berücksichtigung eines N31 Salvage sowie die Teilung in 96MB IF$ und 192MB IF$ und auch der Takt sowie die TDP
Da die Zahlungsbereitschaft für >2000€ GPUs doch da ist, halte ich die 192MB Version für realistisch, vielleicht nicht sofort im November 2022, aber Q1 2023. Kann auch sein, dass nur die 96MB IF$ rauskommt um dann auf die 4090Ti abgewartet wird.
Das mittlere Modell, also N31XT 96MB IF$ halte ich nach derzeitigen Informationsstand am wahrscheinlichsten.

Name |GPU |WGPs |Shaders |GPU-Takt |Speicher |Geschw |Bandbreite |IF-Cache |TDP
7900 |N31XL |44 |11.264 |2.8Ghz + |24GB |20 Gbps |960 GB/s |96MB |350W
7900 XT |N31XT |48 |12.288 |2.9Ghz + |24GB |21 Gbps |1,008 GB/s |96MB |420W
7900 XTX |N31XTX |48 |12.288 |3.2Ghz + |24GB |21 Gbps |1,008 GB/s |192MB |420W

https://abload.de/img/2022-10-1323_39_00-uny8il0.png

bbott
2022-10-13, 23:55:28
Woran hängt RT an der Performance eigentlich?

Ist es bei AMD die mangelnde Rohleistung? Dann macht die Steigerung bzw. Verdopplung der WGP-Größe Sinn. Ich würde das mal so in den Raum werfen.

Rasterizer:
40 WGPs (N21) -> 48 WGPs (N31) -> x1,2
30% Mehrtakt -> x1,3
~1,5 Mehrperformance

RT:
5120 SPs (N21) -> 12288 SPs (N31) -> x2,4
30% Mehrtak -> x1,3
~3 Mehrperformance

Für mich sieht N31 eher wie ein RV770 aus.

Und die 7 Chiplet Geschichte ist auch noch nicht ausgestanden, imo.
Ich finde das AMD-Patent sehr viel interessanter mit Interposer.

Deshalb halte ich die Prognose:
x2,25 (Raster)
x2,7 (RT)
vs 6900XT

auch für möglich, weil es bei ~3x Roh-Power im Bereich des möglichen liegen.

Orko
2022-10-14, 02:20:59
Kann jemand mal bitte die Hitrate des 192MB IF$ N31XT für 5120x2880 berechnen?
Und bitte den Rechenvorgang mal schriftlich vorlegen.

Derzeitige Ausgangslage N21XT 128MB:
1080p: 80%
1440p: 74%
2160p: 62%
2880p: ??%

Gesucht: N31XT 192MB IF$-Hitrate.
1440p: ??%
2160p: ??%
2880p: ??%

Ich will mal das Geheimnis um AMD`s IF$ etwas lüften. So ein Rechenvorgang gehört zur Ingineursarbeit.


Antwort zum ersten Teil der Frage:
128Mb IF$ bei 2880p Auflösung hat eine Hitrate von 50%

Rechenweg:
Das benötigt keine Ingenieurskunst. Es reicht simple Mathematik.

Auflösung | Pixelanzahl | Wurzel(Pixelanzahl) | Hitrate | Missrate
1080p | 1920x1080 | 1440 | 80% | 20%
1440p | 2560x1440 | 1920 | 74% | 26%
2160p | 3840x2160 | 2880 | 62% | 38%
2880p | 5120x2880 | 3840 |? |?


Beobachtung: Wurzel(Pixelanzahl) und Missrate korrelieren nicht ganz proportional, aber streng linear.

Bestimmung der Parameter, z.B. durch lineare Regression:
Missrate = 0.02 + 0.000125 * Wurzel(Pixelanzahl)
Hitrate = 0.98 - 0.000125 * Wurzel(Pixelanzahl)

Die strenge Linearität der drei Ausgangs-Datensets und die "Exaktheit" der beiden linearen Parameter sprechen stark dafür, dass es sich bei den Daten nicht um Messwerte handelt, sondern um eine Modellierung basierend auf genau diesen Parametern.

Für 192 MB Cache ergäben sich damit:
1080p: 81%
1440p: 78%
2160p: 68%
2880p: 55%

Nachtrag zum Cache.

Für 96 MB Cache ergäben sich damit:
Auflösung | Hitrate 96 MB | 128 MB | 192 MB
1080p|77%|79%|81%
1440p|70%|74%|78%
2160p|51%|59%|68%
2880p|24%|39%|55%

Sollte meine Formel stimmen oder zumindest Ansatzweise passen, würde bei nur 96MB die Hitrate ab 4k MASSIV einbrechen.

Die Daten in deiner zweiten Tabelle für Hitrate @ 128MB weichen signifikant von den vorgegebenen = bekannten Daten ab.

mein Ansatz / Annahme:
Wenn sich Datengröße (Pixelanzahl) und IF$-Größe im selben Verhältnis ändern, bleiben die Hit- und Missraten gleich.

Damit erhalte ich nach simpler Umformung:
Missrate = 0.02 + Wurzel( 2E-6 * Pixelanzahl / Cachegröße in MB )
Hitrate = 0.98 - Wurzel( 2E-6 * Pixelanzahl / Cachegröße in MB )

Da laut diesen Formeln
- ein unendlich großer Cache nicht über eine Hitrate von 98% hinauskommen könnte
- ein entsprechend kleiner Cache negative Hitraten aufweisen würde
gibt es offensichtlich einen eingeschränkten (bislang unbekannten) Gültigkeitsbereich dieser Formeln bezüglich den Parametern Pixelanzahl und Cachegröße.

Im Endeffekt erhalte ich ein Ergebnis
Auflösung | Hitrate @ 96 MB | Hitrate @ 128 MB | Hitrate @ 192 MB
1080p | 77.2% | 80% | 83.3%
1440p | 70.3% | 74% | 78.4%
2160p | 56.4% | 62% | 68.6%
2880p | 42.6% | 50% | 58.8%

welches etwas von dem deinigen abweicht.

Nachtrag:
Die Faktoren um welche sich die physikalisch vorhandene Bandbreite zum DRAM durch den Einsatz des IF$ effektiv erhöht
Auflösung | Faktor @ 96 MB | Faktor @ 128 MB | Faktor @ 192 MB
1080p | 4.39 | 5.00 | 5.99
1440p | 3.37 | 3.85 | 4.63
2160p | 2.30 | 2.63 | 3.19
2880p | 1.74 | 2.00 | 2.43


Faktor = 1 / Missrate = 1 / (1- Hitrate)


Natürlich das alles unter der komplett unbestätigten und rein spekulativen Annahme dass der N31XT Cache exakt genau so funktioniert wie der RDNA2 Cache.
Edit: ... und dass auch die Anforderungen (z.B. DRAM Belegung) und Eigenschaften (z.B. Daten Zugriffsmuster) der zugrundeliegenden Anwendungen vergleichbar bleiben.


@ VV:
Bitte keinen Unfug mit den geposteten Formeln treiben. Insbesondere also bitte weder umdeuten noch zweckentfremden noch die zugrundeliegenden Annahmen und Randbedingungen ausblenden.

horn 12
2022-10-14, 03:13:04
new rumours are pointing towards RDNA3 being moved to a December release date (was originally rumoured to be 20th Nov).

and new rumours are pointing towards AMD not being able to compete with RTX40 series. But not long now til we find out.

As for pricing.

7950XT $1200
7900XT $999
7800XT $699

Thank Nvidia for these prices. They charge more, AMD will too.

OgrEGT
2022-10-14, 08:00:15
Link dazu von 2 Seiten vorher mit passenden Preisen dazu = neuer Leak?

robbitop
2022-10-14, 09:34:34
Kann jemand mal bitte die Hitrate des 192MB IF$ N31XT für 5120x2880 berechnen?
Und bitte den Rechenvorgang mal schriftlich vorlegen.

Derzeitige Ausgangslage N21XT 128MB:
1080p: 80%
1440p: 74%
2160p: 62%
2880p: ??%

Gesucht: N31XT 192MB IF$-Hitrate.
1440p: ??%
2160p: ??%
2880p: ??%

Ich will mal das Geheimnis um AMD`s IF$ etwas lüften. So ein Rechenvorgang gehört zur Ingineursarbeit.
Wurzel2 ist der Zusammenhang zwischen Cachegröße und Hitrate (wenn sich sonst nichts ändert wie z.B. die Qualität der Sprungvorhersage). Was an einfacher Algebra (Grundschulmathematik im Sinne von Grundrechenarten) in deinen Folgeposts "Ingenieursarbeit" sein soll, bleibt mir (als echten Ingenieur) allerdings schleierhaft. :D :D Vielleicht "Ingenieursarbeit" in der Vorschule. Ist schon immer putzig, wie du den Experten emulierst.

Orko
2022-10-14, 10:42:15
... Cachegröße ... Hitrate ... Sprungvorhersage ...

Uiuiui, du traust dich da was. Gleich wackelt hier der berühmt-berüchtigte Branch-Prediction-Cache vorbei wenn du ihn so triggerst. ;-)

vinacis_vivids
2022-10-14, 11:09:47
Wurzel2 ist der Zusammenhang zwischen Cachegröße und Hitrate (wenn sich sonst nichts ändert wie z.B. die Qualität der Sprungvorhersage). Was an einfacher Algebra (Grundschulmathematik im Sinne von Grundrechenarten) in deinen Folgeposts "Ingenieursarbeit" sein soll, bleibt mir (als echten Ingenieur) allerdings schleierhaft. :D :D Vielleicht "Ingenieursarbeit" in der Vorschule. Ist schon immer putzig, wie du den Experten emulierst.

Zeig mal deine Rechnung Meister. Jetzt wo schon zwei vorgelegt haben, darfst du auch mal.
Mit Berücksichtigung, dass der IF$ in zweiter Gen. höher taktet und der SI größer ist.

robbitop
2022-10-14, 11:17:32
Zeig mal deine Rechnung Meister. Jetzt wo schon zwei vorgelegt haben, darfst du auch mal.
Mit Berücksichtigung, dass der IF$ in zweiter Gen. höher taktet und der SI größer ist.

Der IF Takt und dessen Bandbreite hat hat mit der Hitrate nichts zu tun. :| Das ist eigentlich Grundwissen...
Aber mach mal weiter mit deiner "Ingenieursarbeit" X-D

Taigatrommel
2022-10-14, 11:21:15
As for pricing.

7950XT $1200
7900XT $999
7800XT $699

Thank Nvidia for these prices. They charge more, AMD will too.
Somit hätte AMD die Preise ja quasi beibehalten. Wenn man nicht á la nVidia bei der Namensgebung "mogelt".
Damit dürfte das Sptzenmodell dann ja rein preislich bestenfalls mit der 4080 16 GB mithalten können.

robbitop
2022-10-14, 11:24:37
Techpowerup hat schon ein paar Platzfüller - wie sicher der Inhalt ist, ist erstmal unklar.
https://www.techpowerup.com/gpu-specs/radeon-rx-7800-xt.c3839
https://www.techpowerup.com/gpu-specs/radeon-rx-7900-xt.c3912
Die 7800XT ist gemäß diesen N32 mit 8192 SPs. Die 7950XT ist sicherlich der Vollausbau mit 12288 SPs und ggf. mit VCache (der dann den IF$ verdoppelt).

Es scheint so zu sein, dass N32 immerhin 66% der SPs hat wie N31. AD103 liegt bei ~53%. Entsprechend wird die Lücke nicht ganz so groß zwischen den ersten beiden SKUs sein.

Platos
2022-10-14, 11:30:14
Das einzige was bei AMD zählt, ist nun das P/L.

Ich glaube kein bisschen dran, dass AMD die Preise zu RDNA 2 nur minimal oder gar nicht erhöht.

(bezüglich dem Post mit 7800XT und 699$)

Also ausser natürlich, sie machen es nun wie nvidia und verarschen die Kunden mit der Namensgebung.

Ich nehme lieber nur 30% mehr Rechenleistung ohne Preiserhöhung, als das, was nvdia bringt.

unl34shed
2022-10-14, 11:32:33
N32 wird doch schon recht lange mit 7680 CUs gehandelt oder?

robbitop
2022-10-14, 11:34:04
Das einzige was bei AMD zählt, ist nun das P/L.

Ich glaube kein bisschen dran, dass AMD die Preise zu RDNA 2 nur minimal oder gar nicht erhöht.

(bezüglich dem Post mit 7800XT und 699$)

Also ausser natürlich, sie machen es nun wie nvidia und verarschen die Kunden mit der Namensgebung.

Ich nehme lieber nur 30% mehr Rechenleistung ohne Preiserhöhung, als das, was nvdia bringt.

AMD ist wie NV eine Firma. Companies are not your friends. Scrappy underdog AMD wird nicht immer der Retter des P/L bleiben. Sobald deren Produkte bei den GPUs richtig richtig gut gegenüber den Geforces dastehen, wird man auch teurer werden. Das haben wir bei Ryzen bereits gesehen.
Das ist völlig normal und ihre Pflicht gegenüber den Investoren. Der Preis ist immer eine Funktion aus Angebot und Nachfrage. Letztere ist eben an die Wettbewerbsfähigkeit des Produktes und die Stärke der Marke gekoppelt.

Was wir grundsätzlich brauchen ist mehr Angebot denn das resultiert in mehr Wettbewerb und der erlaubt nunmal wenn mehrere Mitspieler auf ähnlichem Level sind keine horrenden Margen mehr. Entsprechend ist es gut zu sehen, dass Intel nun dazu kommt und auch dass AMD von Gen zu Gen besser wird. Aber Nvidia schläft natürlich nicht.

Wettbewerb ist alles was wir brauchen damit wir keine Organe spenden müssen für eine GPU. :D

robbitop
2022-10-14, 11:36:11
N32 wird doch schon recht lange mit 7680 CUs gehandelt oder?
Ja irgendwie ändert sich das ständig. Mal schauen, was am Ende dabei herauskommt.
Mit 7680 CUs wären es immerhin noch knappe 63% vom Top dog.

Platos
2022-10-14, 11:47:07
Wettbewerb ist alles was wir brauchen damit wir keine Organe spenden müssen für eine GPU. :D

Das stimmt so nicht ganz m.M.n.

Ich nehme mal ein Autobeispiel: Da gibt es viel Konkurrenz, aber der Automechaniker zieht dich über den Tisch (wenn er ein Arsch ist), wenn du keine Ahnung hast (ok, hier gehts um Reperatur, aber ist ja nur eine Analogie).

Was ich sagen will: Wäre die Masse aufgeklärter, würde die Bereitschaft zum Kauf sinken, ergo kann man auch auf anderem Wege Einfluss darauf nehmen.

Und wie klärt man die Masse auf? Mit Journalistischer Arbeit, die es als Auftrag versteht, den Kunden aufzuklären, was er kriegt und wie viel es kostet (P/L) und wie gross der Fortschritt darin ist (was bringt es mir, meine Alte Hardware durch neue zu ersetzen).

Ich habe so das Gefühl, dass dieser Grundsatz irgendwie bei vielen Redaktionen verloren gegangen ist. Irgendwie ist das so zum "nerdigen" abgedriftet. Der Nerd, der neue Hardware testet und sich richtig auf die Mehrperfomance freut, weil er eben ein Nerd ist. Verfehlt nur völlig das Ziel, dass so eine Hardwareredaktion m.M.n eigentlich verfolgen sollte.

Sprecher der Masse zu sein. Nicht Werbefuzzi von nvidia/AMD. Die Überschriften sagen halt schon alles von manchen 4090-er Tests...

robbitop
2022-10-14, 11:53:47
Average FPS pro USD bieten mehrere Tester ja schon an. IIRC auch HWUB. Das ist eine Metrik mit der man sicherlich den Standarduser gut informieren kann.

basix
2022-10-14, 12:11:35
Ja irgendwie ändert sich das ständig. Mal schauen, was am Ende dabei herauskommt.
Mit 7680 CUs wären es immerhin noch knappe 63% vom Top dog.

Die Zahlen von TPU sind Gerüchte. Die werden das nach Vorstellung dann anpassen.

63% vom Top Dog sind jetzt nicht so wahnsinnig von 67% abweichend. Da vermutlich mehr Takt und besserer Skalierung (weniger Einheiten) schmilzt der Vorsprung schnell mal auf ~30-40%. Nvidias Karten der letzten Jahre haben das ja schön gezeigt. Im Falle von N31 lässt das dann noch eine Salvage-SKU dazwischen zu.

Achill
2022-10-14, 12:12:54
Antwort zum ersten Teil der Frage:
128Mb IF$ bei 2880p Auflösung hat eine Hitrate von 50%

Rechenweg:
Das benötigt keine Ingenieurskunst. Es reicht simple Mathematik.

[..]

Thx, sehr guter Beitrag :smile: - ist leider (gefühlt) weniger geworden über die Jahre hier im Forum, oder es gibt einfach mehr *Spam* aus den Fraktionen, oder ich werde älter (etwas davon ist bestimmt wahr).

Nazar
2022-10-14, 12:36:50
Neue Leaks auf wwcftech.com:

https://wccftech.com/amd-radeon-rx-7000-rdna-3-launch-december-difficult-to-compete-with-nvidia-rtx-40-gpus-rumor/

RDNA 3 hat (wie erwartet) keine Chance gegen Nvidias neue Karten. Bei der Rasterleistung sieht es noch halbwegs ok aus, bei Raytracing ist es dann wohl aus und vorbei, wenn ich den Leak richtig interpretiere.

AMD muss dann über den Preis kommen und das dürfte wohl auch der Fokus gewesen sein. Imho sind die Karten aber damit bereits uninteressant, denn RX6000 dürfte wohl in RT kaum langsamer sein und somit ist Ampere ja schon fast eine Upgrade Perspektive, die Sinn ergibt. Speziell die ganzen 3090 ;).

:confused:
Ziat (übersetzt) aus deinem Link: "AMD bringt im Dezember zwei Radeon RX 7000-Grafikkarten auf den Markt. Gerüchten zufolge fällt die Gesamtleistung bei Raytracing und Rasterisierung gegenüber NVIDIAs RTX 40-GPUs ab".

Wenn, dann würde ich das so verstehen, dass sie die Leistung aus RT(X) und RZ gemittelt haben, und diese Gesamtleistung ist nicht so gut im Vergleich zu Nvidia?
Aus meiner Sicht kann das vieles bedeuten, auch, dass die RZ Leistung besser ist als bei nVidia, aber die RT(X) Leistung schlechter und unterm Strich bleibt man trotzdem hinter der 4090 zurück.
Das, was du schreibst, steht da aber nirgends. Die Gesamtleistung fällt ab, ist schon deutlich etwas anderes als "keine Chance". ;)

OgrEGT
2022-10-14, 12:44:02
Es kann sowohl beides zugleich aber auch sowohl als auch bedeuten... unklar natürlich in welchem Maß und bei welchem Betriebspunkt... und natürlich ob überhaupt da etwas dran ist...

Neurosphere
2022-10-14, 13:04:28
Zweieinhalb Wochen noch, dann wissen wir zumindest etwas mehr über die Arch.

vinacis_vivids
2022-10-14, 14:01:53
Naja, die 4090 ist limitiert auf 3840 x 2160 x 120hz x 8bit. Mit Navi31 gibs mindestens 3840 x 2160 x 144hz x 12bit. Das Spielchen von NV mit der Farbkompression und Bandbreiteeinsparung muss ich mir zum Glück nicht mehr antun. Und die ganzen "reviews" sind wieder einmal mit 8bit gemacht worden. Für Marketing-Schafe interessant, für mich nicht mehr. Und ja, ich sehe den Unterschied zwischen Chroma-Unterabtastung 8bit oder 10bit bei entsprechenden (HDR) Content.

Für Laien:
8bit pro Kanal = 16.777.216 Farben
10bit pro Kanal = 1.073.741.824 Farben.

10bit (oder gar 12bit) pro Kanal, das ist ein ganz ganz anderes Level am Monitor. Dass NV wieder so dermaßen die BQ untergräbt ist für mich ein Skandal diesen Laden zu meiden. Auf gehts AMD.

Linmoum
2022-10-14, 14:10:32
Wo hast du jetzt den Quatsch schon wieder her, dass die 4090 auf UHD@120Hz@8bit limitiert ist? Das ist schlicht so eine nachweislich falsche Behauptung, von denen du ständig welche aufstellst.

Neurosphere
2022-10-14, 14:14:10
Ist auch Blödsinn. Meine 3080 macht 10bit an UHD@120 Hz ohne Probleme. Für mehr braucht es allerdings DSC oder mehr Bandbreite.

aceCrasher
2022-10-14, 14:16:31
Wurzel2 ist der Zusammenhang zwischen Cachegröße und Hitrate (wenn sich sonst nichts ändert wie z.B. die Qualität der Sprungvorhersage). Was an einfacher Algebra (Grundschulmathematik im Sinne von Grundrechenarten) in deinen Folgeposts "Ingenieursarbeit" sein soll, bleibt mir (als echten Ingenieur) allerdings schleierhaft. :D :D Vielleicht "Ingenieursarbeit" in der Vorschule. Ist schon immer putzig, wie du den Experten emulierst.
;D

new rumours are pointing towards RDNA3 being moved to a December release date (was originally rumoured to be 20th Nov).

and new rumours are pointing towards AMD not being able to compete with RTX40 series. But not long now til we find out.

As for pricing.

7950XT $1200
7900XT $999
7800XT $699

Thank Nvidia for these prices. They charge more, AMD will too.
Wenn die Preise stimmen, und die 7950XT konkurrenzfähig ist, überleg ich mir vielleicht nochmal ob ich eine 4090 kaufe. Mein Herz schlägt schließlich rot :rolleyes:

robbitop
2022-10-14, 14:16:37
Mit DSC geht 4K 240Hz bei 10 bit. DSC ist für eine Bildkompression so schwach komprimiert, dass es praktisch lossless ist.

fondness
2022-10-14, 14:35:28
Mit DSC geht 4K 240Hz bei 10 bit. DSC ist für eine Bildkompression so schwach komprimiert, dass es praktisch lossless ist.

Hier gibt es eine etwas ausführlichere Diskussion dazu:
https://community.openmr.com/t/display-stream-compression-human-visual-hyperacuity-vr/25972

Es geht dort um DSC bei Verwendung eines VR Headsets. Grundsätzlich ist es möglich, Artefakte zu erhalten, aber man muss sich wirklich anstrengen. In dem Fall wurde es erreicht mit einem künstlichen komplexen durcheinander, keinem Spiel/Film/Desktop.

Die Beschreibung der VESA ist leider auch sehr schwammig:


What is meant by visually lossless?

By being visually lossless, a typical observer of a display, under typical viewing conditions, would in most cases not notice any difference or degradation of images or video after compression, when compared with the uncompressed image or video.


https://www.displayport.org/faq/#tab-display-stream-compression-dsc

Es sollte also kein Unterschied bemerkbar sein. Garantien gibt es dafür aber nicht.

Display Stream Compression (DSC) is a VESA-developed low-latency compression algorithm to overcome the limitations posed by sending high-resolution video over physical media of limited bandwidth. It is a visually lossless low-latency algorithm based on delta PCM coding and YCoCg-R color space; it allows increased resolutions and color depths and reduced power consumption. DSC has been tested to meet the requirements of ISO/IEC 29170-2 Evaluation procedure for nearly lossless coding using various...

https://www.displayport.org/faq/#tab-display-stream-compression-dsc

https://en.wikipedia.org/wiki/DisplayPort#Display_Stream_Compression

Interessant wäre auch noch, was low-latency genau bedeutet, nämlich offensichtlich nicht zero latency. Also es entsteht durch DSC auch noch eine zusätzliche Latenz. Jedenfalls ist es unnötig, da es mit DP2.0 längst einen Standard gibt, der es ermöglicht das ganze tatsächlich lossless und latenzfrei zu übertragen.

vinacis_vivids
2022-10-14, 14:48:52
Bandbreitenrechner:

Auflösung: 3840x2160
fps/hz: 144
Color Subsampling: 4:4:4
Farbtiefe: 10bit

35,83 Gbit/s Video-Datenbandbreite

Jetzt schauen wir mal auf DP 1.4a:
Das ist auf 25,92 Gbit/s limitiert.

Jetzt schalten wir mal einen Gang hoch auf 5120x2880

Auflösung: 5120x2880
fps/hz: 120
Color Subsampling: 4:4:4
Farbtiefe: 10bit

53,08 Gbit/s Video-Datenbandbreite.
Dem ggü. stehen vorhandene 25,92 Gbit/s am DP 1.4a Kabel der 4090 da. Schon wieder ein haufen verlustbehaftete Kompression drin.
Ja, aber Hauptsache 11elf längere Balken.

Das ist so als würdest du einen Grill für 1000€ kaufen und dann Gammelfleisch drauf hauen.

Berniyh
2022-10-14, 14:56:05
Naja, die 4090 ist limitiert auf 3840 x 2160 x 120hz x 8bit. Mit Navi31 gibs mindestens 3840 x 2160 x 144hz x 12bit. Das Spielchen von NV mit der Farbkompression und Bandbreiteeinsparung muss ich mir zum Glück nicht mehr antun. Und die ganzen "reviews" sind wieder einmal mit 8bit gemacht worden. Für Marketing-Schafe interessant, für mich nicht mehr. Und ja, ich sehe den Unterschied zwischen Chroma-Unterabtastung 8bit oder 10bit bei entsprechenden (HDR) Content.
Die wesentlichere Frage ist doch ob du den Unterschied zwischen unkomprimiert und DSC siehst?
Und da hab ich so meine Zweifel …
Although DSC is mathematically lossy, it meets the ISO/IEC 29170 standard for "visually lossless" compression, a form of compression in which "the user cannot tell the difference between a compressed and uncompressed image".

Oder gehörst du auch zu den Leuten, die den Unterschied zwischen 320 kbit/s MP3 und FLAC "hören"? Bestimmt doch, is klar …

Und mit DSC kannst du auch 5K, 10 Bit mit 144 Hz an einem DisplayPort 1.4a darstellen.

Lehdro
2022-10-14, 15:08:30
Ändert halt nix dran dass man sich diese ganze Diskussion um DP1.4a und DSC mit DP2.0 einfach hätte sparen können. Schon allein der Fakt das es relevant sein könnte ist doch ärgerlich. Wobei das im RDNA3 Thread sowieso nix zu suchen hat, immerhin soll diese mindestens DP 2.0 unterstützen.

dargo
2022-10-14, 15:13:14
;D


Wenn die Preise stimmen, und die 7950XT konkurrenzfähig ist, überleg ich mir vielleicht nochmal ob ich eine 4090 kaufe. Mein Herz schlägt schließlich rot :rolleyes:
Naja... niedrig ist relativ. Bei 1200$ UVP bist du hier in DE schnell bei 1500€ Händlerpreis. Und die fetten Customs werden da sicherlich noch einiges drauf schnallen.

vinacis_vivids
2022-10-14, 15:17:57
@Berniyh
Ähäm, ich habe unterschiedliche Kopfhörer:
Modell 1: 5hz - 35khz.
Modell 2: 5hz - 25khz.

Und, ja es gibt Unterschiede zwischen 320 kbit/s MP3 und 2822 kbit/s Wave. Vor ca. 20 Jahren wurde mp3 128 kbit/s gefeiert, heute würde ich es nicht mehr so feiern. Qualität ist das Stichwort.

Berniyh
2022-10-14, 15:18:26
Ändert halt nix dran dass man sich diese ganze Diskussion um DP1.4a und DSC mit DP2.0 einfach hätte sparen können. Schon allein der Fakt das es relevant sein könnte ist doch ärgerlich. Wobei das im RDNA3 Thread sowieso nix zu suchen hat, immerhin soll diese mindestens DP 2.0 unterstützen.
Da hast du natürlich recht, aber man muss das Thema ja auch nicht größer aufblasen als es ist. ;)

Grendizer
2022-10-14, 15:21:32
@Berniyh
Ähäm, ich habe unterschiedliche Kopfhörer:
Modell 1: 5hz - 35khz.
Modell 2: 5hz - 25khz.

Und, ja es gibt Unterschiede zwischen 320 kbit/s MP3 und 2822 kbit/s Wave. Vor ca. 20 Jahren wurde mp3 128 kbit/s gefeiert, heute würde ich es nicht mehr so feiern. Qualität ist das Stichwort.

Kommt aufs Alter an. Ab 40 vermutlich nicht mehr wirklich. Da fehlen einem schon 6 khz im Vergleich zur Höhrfähigkeit mit 10 Jahren.

Korvaun
2022-10-14, 15:22:11
Wenn AMDs Top Karte 1200$ kostet dann ist sie Konkurrenz zur 4080 16G, nicht zur 4090... sollte man bei der Balkenvergleicherei dann beachten, aber was red ich, die Grünen freuen sich dann natürlich wie bolle das ihr TopDog die Roten total versägt ;)

Grendizer
2022-10-14, 15:24:03
Wenn AMDs Top Karte 1200$ kostet dann ist sie Konkurrenz zur 4080 16G, nicht zur 4090... sollte man bei der Balkenvergleicherei dann beachten, aber was red ich, die Grünen freuen sich dann natürlich wie bolle das ihr TopDog die Roten total versägt ;)

Ja .... wir werden sehen. Und dann halt auch wie DLSS 3.0 zu FSR 2.0 performt. Paßt zwar vielen nicht, wird für mich persönlich dann aber auch mitentscheidend sein.

Wobei ich aber auch auf was RT fähiges für 4k deutlich unter 1000 Euro hoffe.

Badesalz
2022-10-14, 15:26:47
:confused:
Ziat (übersetzt) aus deinem Link: "AMD bringt im Dezember zwei Radeon RX 7000-Grafikkarten auf den Markt. Gerüchten zufolge fällt die Gesamtleistung bei Raytracing und Rasterisierung gegenüber NVIDIAs RTX 40-GPUs ab".
Wenn die Leistung abfällt, dann vergliechen mit was denn? Ist der Abstand damit also größer als zwischen RX6 und RT30? :usweet:

:wink: Aber das ist auch nur so ein Prolet, der die Gerüchte analysiert. Das ist also alles Müll, solange man das Gerücht selbst nicht im originalen Wortlauf (und Sprache) vorliegen hat und es in der Gruppe selbst macht ;)
Der nächste Aspekt ist, daß der Leaker ggf. garnicht so superscharf über die Wortwahl nachgedacht hat wie manche das gerne hätten, um egogerecht aus einem Satz einen ganzen Absatz an Wahrheiten zu generieren...

Berniyh
2022-10-14, 15:32:39
@Berniyh
Ähäm, ich habe unterschiedliche Kopfhörer:
Modell 1: 5hz - 35khz.
Modell 2: 5hz - 25khz.
Das muss nichts heißen, insofern die Kopfhörer ansonsten nicht absolut baugleich sind.
Und, ja es gibt Unterschiede zwischen 320 kbit/s MP3 und 2822 kbit/s Wave. Vor ca. 20 Jahren wurde mp3 128 kbit/s gefeiert, heute würde ich es nicht mehr so feiern. Qualität ist das Stichwort.
Träum weiter …
128 kbit/s MP3 ist aber auch ein ganzes Stück weit weg von 320 kbit/s MP3.
Kommt aufs Alter an. Ab 40 vermutlich nicht mehr wirklich. Da fehlen einem schon 6 khz im Vergleich zur Höhrfähigkeit mit 10 Jahren.
Ich bin mit mp3, vorbis, FLAC groß geworden, höre praktische alle Arten von Musik und suche immer sehr lange, bis ich Kopfhörer gefunden habe, die mir wirklich passen. Und mir wurde an verschiedenen Stellen in meinem Leben ein gutes Gehör bescheinigt.
Will sagen: ich hab die Formate rauf und runter gehört, mit unterschiedlichen Stücken, von Klassik und Romantik über Jazz, Rock, Funk bis hin zu Hip Hop, Pop oder auch Metal.
Ich kaufe auch gerne 16Bit oder 24Bit FLAC, habe auch einen Musikplayer genau dafür, aber eher aus Prinzip, weil es eben geht. Der Unterschied zu 320 kbit/s MP3 oder der klassischen CD ist höchstens gefühlt hörbar.

Klar, inzwischen bin ich auch keine 16 mehr, aber dennoch behaupte ich, dass ich bzgl. Musik genug Erfahrung zu haben um behaupten zu können, dass ihr träumt. :P

igg
2022-10-14, 15:34:23
Auch ich warte sehr gespannt auf RDNA3, da die RTX 4080 schon jenseits meines Budgets ist.

Aber Nvidias Preisstrategie zeigt, wo sie RDNA3 erwarten, auch wenn das vielen AMD Fans nicht gefallen wird... die Leaks untermauern diese Interpretation zusätzlich.

Lehdro
2022-10-14, 15:37:38
Kann mir das nicht wirklich vorstellen das AMDs N31 mit 12288 CUs (>100%), >50% mehr Speicherbandbreite (256 Bit -> 384 Bit) und deutlich mehr Takt nur eine 4080 16 GiB erreichen soll.

Im Raster:
Wird man die 4090 schlagen? Vielleicht, vielleicht auch nicht. Aber der Abstand nach unten zur richtigen 4080 wird aber wohl recht groß sein. Alles andere würde im Umkehrschluss bedeuten das AMD gerade einmal 50% an Leistung zulegen würde - was echt mickrig wäre bei dem Rohleistungssprung, rein ausgehend von den derzeit spekulierten Daten. Das würde bedeuten das N32 und N33 auch noch einmal zwei Nummern kleiner sein müssten - womit deren Sinn komplett in Frage gestellt werden würde. N33 wird wohl mindestens über N22 rauskommen müssen, was N32 dementsprechend über N21 schiebt - womit N31 nochmals darüber angelegt sein muss. Ich lege mich mal fest: Alles unterhalb +80% zur Ref. 6900XT in 4k vom Vollausbau des N31 (zum Vergleich: Die 4090 hat +90% zur 6900XT) würde mich doch sehr stark wundern.

Im RT:
Vielleicht wird man hier sogar unterhalb einer 4080 landen, denn die 4090 wird wohl sehr sicher noch nicht erreichbar sein. Analog zu dem Fall wo sich die 6900XT manchmal mit der RTX 3070 rumschlagen muss. Dann hätte AMD zumindest leicht aufgeholt beim Rückstand. Wäre ein Anfang.

why_me
2022-10-14, 15:38:59
@igg: Kann da keine Strategie erkennen, die RDNA3 berücksichtigt. Kannst du da noch etwas mehr schreiben, wie du das meinst?

Berniyh
2022-10-14, 15:39:20
Um mal wieder zum Thema zurückzukommen …

Hier wird ja gerne gefordert (oder zumindest gehofft), dass AMD den großen Wettbewerb vom Zaun bricht und den Markt quasi mit schnellen Karten überschwemmt um Marktanteil zu gewinnen.
Da würde ich mir keine zu großen Hoffnungen machen. Wenn AMD das so geplant hat, dann dürfte der Schuss ziemlich nach hinten los gehen. Aktuell ist der GPU Markt ein ziemliches Risiko. Die Absatzzahlen (insgesamt am PC Markt) sinken und die Tendenz bei den GPUs gehen zu höheren Preisen.
Gleichzeitig wird generell weniger von allem gekauft, weil die Energiekosten und damit die Inflation hoch sind. Wer soll denn die ganzen Karten kaufen? Für die meisten dürfte eine neue GPU da ziemlich weit hinten in der Einkaufsliste rangieren, so wichtig sind Spiele flächendeckend einfach nicht.
Ist natürlich in manchen Teilen der Erde nicht so schlimm wie in Europa gerade, aber auch z.B. in den USA ist ordentlich Inflation.
Dazu braucht man – zumindest zum Teil – den teuren 5nm Prozess und ich schätze von dem wird man nicht sooo viel gebucht haben bzw. wenn dann eher für Zen4 nutzen, da das das wichtigere Standbein im Geschäft bei AMD ist.
(Und zudem auch das sicherere.)

In meinen Augen ist der einzige Grund, weshalb man da noch etwas Hoffnung haben kann, dass die Kapazitäten ja geordert werden mussten, bevor die besagten Gründe eingetreten sind.

igg
2022-10-14, 15:48:13
@igg: Kann da keine Strategie erkennen, die RDNA3 berücksichtigt. Kannst du da noch etwas mehr schreiben, wie du das meinst?Nvidia hat die Preise der 4080 gegenüber der ohnehin schon teuren Vorgängergeneration nochmal sehr deutlich angehoben. Ich gehe davon aus, dass sie das auch mit Blick auf die Konkurrenz entschieden haben.

just4FunTA
2022-10-14, 15:54:50
Nvidia hat die Preise der 4080 gegenüber der ohnehin schon teuren Vorgängergeneration nochmal sehr deutlich angehoben. Ich gehe davon aus, dass sie das auch mit Blick auf die Konkurrenz entschieden haben.


also die 700€ für die rtx 3080 waren schon viel, aber 1.500€ für rtx4080 ist schon krank. :freak:

vinacis_vivids
2022-10-14, 15:55:07
https://twitter.com/AMDGPU_/status/1580725765267935233

https://abload.de/img/2022-10-1415_54_12-1a2bdyp.png

dargo
2022-10-14, 15:58:17
Ja .... wir werden sehen. Und dann halt auch wie DLSS 3.0 zu FSR 2.0 performt.
Also der übliche Äpfel/Orangen Vergleich? ;D Du kannst natürlich vergleichen was du willst, richtiger wirds dadurch trotzdem nicht.

why_me
2022-10-14, 15:59:29
Nvidia hat die Preise der 4080 gegenüber der ohnehin schon teuren Vorgängergeneration nochmal sehr deutlich angehoben. Ich gehe davon aus, dass sie das auch mit Blick auf die Konkurrenz entschieden haben.

Ich sehe nicht, wo da die Leistung einer RDNA3 karte bei Nvidias Preisen abgebildet sein sollte.
Beide 80er Karten sind P/L so unatraktiv angesetzt, dass die Kunden entweder gleich zur 4090 greifen sollen oder die Masse an 3000er Karten kaufen sollen.
Ohne DLSS3 kann sich die kleine 80er nicht von einer 3090 absetzen bzw ist teilweise sogar langsamer und hat dabei deutlich weniger VRAM.
Und bei der großen ist der aufpreis zur 90er auch nicht mehr so groß, wenn man dann schon >1,5k€ für eine GPU ausgibt, dann doch gleich richtig. Ist ja auch nochmal ein ordentlicher Leistungspring zwichen der 80/16GB und der 90.

Beie 80er Karten sind auf die jeweilige Serie gesehen, die schlechtesten 80er Karten, die es jemals bei Nvidia gab. Leistung innerhalb der Serie, P/L,...

amdfanuwe
2022-10-14, 16:00:33
N32 wird doch schon recht lange mit 7680 CUs gehandelt oder?

Wäre aber ein ziemlicher Sprung von den 80 CUs eines N21

unl34shed
2022-10-14, 16:04:54
Ach misst, shader natürlich

igg
2022-10-14, 16:10:29
Beie 80er Karten sind auf die jeweilige Serie gesehen, die schlechtesten 80er Karten, die es jemals bei Nvidia gab. Leistung innerhalb der Serie, P/L,...Dass Nvidia es sich leisten kann, eine 4070 zur 4080 umzulabeln, passt leider auch zu meiner weniger optimistischen Einschätzung der RDNA3 Leistung.

In meinem eigenen Interesse hoffe ich, du liegst richtig und ich falsch :-) aber die gesamte 40xx Preispolitik allein an der Attraktivität des Topdogs 4090 auszurichten scheint mir unrealistisch. Nvidia agiert auf einem Markt mit Konkurrenz und wenn man AMDs Vorherrschaft bei Konsolen berücksichtigt, dann kann Nvidia es sich nicht leisten, seine Desktop-Produkte ohne Berücksichtigung des Lonkurrenzportfolios zu positionieren.

why_me
2022-10-14, 16:14:31
Wenn deine Einschätzung stimmen sollte, dann hätte AMD sich RDNA3 auch komplett schenken können und ein höher getakteten N21 shrink bringen können. Der würde schon zwischen den beiden 80er Karten liegen.

Ist schon sehr wenig optimistisch, deine Einschätzung ;)

Savay
2022-10-14, 16:20:20
Ich frage mich eher wie nV, mangels AMD Prototypen in deren Laboren, irgendwie die RDNA3 Performance hätten einpreisen können. :freak:

Die orientieren sich primär an sich selbst und dem was sich die letzten 2 Jahre am Markt preislich absetzen lies!
Ne UVP lässt sich immer noch senken wenn es nötig sein sollte...

Cyberfries
2022-10-14, 16:27:30
https://twitter.com/AMDGPU_/status/1580725765267935233


Nur 2,6GHz? Die Einschätzungen dieses Twitterers werden immer absurder.

... kann Nvidia es sich nicht leisten, seine Desktop-Produkte ohne Berücksichtigung des Lonkurrenzportfolios zu positionieren.

Konkurrenz ist das eigene Haus, die vielen Lagerhäuser voller unverkaufter Ampere-Karten.
Deshalb ist das gesamte Ada-Portfolio höher eingepreist. Nicht wegen AMD, sondern um die Altlasten loszuwerden.

Wenn, dann würde ich das so verstehen, dass sie die Leistung aus RT(X) und RZ gemittelt haben, und diese Gesamtleistung ist nicht so gut im Vergleich zu Nvidia?

Der Chinese hat behauptet, dass AMD sowohl bei RT als auch RZ hinten liegt, nicht nur in der Kombination.

Dann hätte man statt 12.288 SPs auch nur 6.144 verbauen können und lieber mehr "IPC" genommen, und hätte nur halb so viel Stromverbrauch..."hätte, hätte".

Vielleicht gelten die 12288 tatsächlich nur in Spezialfällen? Deshalb die geschrumpften WGPs, deshalb geringere Leistung?
Dann wären es nur +20% Shader und nur +76% fp32 bei 3,3 GHz, womit man perfekt skaliert 10% hinter der 4090 landet.
Oder die Skalierung bei 12288 Shadern ist miserabel.
Oder die Leistungsangabe unter 4090 passt nicht.
Oder alle bisherigen Leaks sind Quark.

[MK2]Mythos
2022-10-14, 16:28:13
2020 hat angerufen und will seine Spekulationen zurück. Schon damals waren viele der Meinung dass RDNA2 maximal mit der RTX3070 konkurrieren kann. Schon damals war das anhand der Specs völliger Nonsens. So wirds auch diesmal sein. Wie soll RDNA3 denn bitte so schlecht performen, dass man sich gerade so mit der 4080 anlegen kann? Das ist doch schon auf Grund der bekannten Leaks ausgeschlossen. Schaltet doch Mal den Kopf ein.

Ex3cut3r
2022-10-14, 16:28:48
Ja .... wir werden sehen. Und dann halt auch wie DLSS 3.0 zu FSR 2.0 performt. Paßt zwar vielen nicht, wird für mich persönlich dann aber auch mitentscheidend sein.


DLSS 3.0 ist doch nicht anderes als Frame Generation. DLSS 3.0 hat keine Verbesserungen für den KI Upscaler dazubekommen.

Badesalz
2022-10-14, 16:32:18
Gleichzeitig wird generell weniger von allem gekauft, weil die Energiekosten und damit die Inflation hoch sind. Wer soll denn die ganzen Karten kaufen?Vom Gefühl her scheint es MIR, als wenn der angestrebte Knaller in Perf/Watt und Perf/$ geplant ist. Im ganz realen Segmenten, also 4k und 1440 auch mit RT voll auf und 1%low 60fps oder sowas in der Art. Jedenfalls nicht GPU-limitierend. Primär. Zu attraktiven Preisen.

Anders können sie ja auch nicht ansetzen und jeder sieht es eigentlich auch ein, daß es so halsbrecherische Eskapaden wie die paar unter Raja heute genauso keinen Sinn machen würden wie damals.

Du kriegst eine ehrliche Karte mit ehrlicher Bildqualität (! :wink:) und einem annehmbaren Verbrauch, die genug leistet, damit du in Ruhe alles - auch RT - hochdrehen kannst. Und die im Gegensatz zur aktuellen Konkurrenz auch das Thema idle ernst nimmt :rolleyes:
Das wäre so mein Plan gewesen :tongue: Irgendwelche Forenblasen zu bedienen ist wirtschaftlicher Schwachsinn.

Gymnopédies
2022-10-14, 16:33:21
Das muss nichts heißen, insofern die Kopfhörer ansonsten nicht absolut baugleich sind.

Träum weiter …
128 kbit/s MP3 ist aber auch ein ganzes Stück weit weg von 320 kbit/s MP3.

Ich bin mit mp3, vorbis, FLAC groß geworden, höre praktische alle Arten von Musik und suche immer sehr lange, bis ich Kopfhörer gefunden habe, die mir wirklich passen. Und mir wurde an verschiedenen Stellen in meinem Leben ein gutes Gehör bescheinigt.
Will sagen: ich hab die Formate rauf und runter gehört, mit unterschiedlichen Stücken, von Klassik und Romantik über Jazz, Rock, Funk bis hin zu Hip Hop, Pop oder auch Metal.
Ich kaufe auch gerne 16Bit oder 24Bit FLAC, habe auch einen Musikplayer genau dafür, aber eher aus Prinzip, weil es eben geht. Der Unterschied zu 320 kbit/s MP3 oder der klassischen CD ist höchstens gefühlt hörbar.

Klar, inzwischen bin ich auch keine 16 mehr, aber dennoch behaupte ich, dass ich bzgl. Musik genug Erfahrung zu haben um behaupten zu können, dass ihr träumt. :P

Träum du mal weiter oder höre dir entsprechendes auch auf Equippment an was das wiedergeben kann in diesem Umfang, es ist eindeutig hörbar je nach Musikgenre.

igg
2022-10-14, 16:35:39
Wenn deine Einschätzung stimmen sollte, dann hätte AMD sich RDNA3 auch komplett schenken können und ein höher getakteten N21 shrink bringen können. [... ] Ist schon sehr wenig optimistisch, deine Einschätzung ;)Ich sage nicht, dass RDNA3 schlecht sein wird - nur, dass ich deren Raytracing-Leistung unter der 4080 12 GB erwarte. Aber deren Preis zum Glück auch.

Wenn RDNA3 Perf/Watt ggü. RDNA2 gesteigert hat und die neue Chiplet Architektur erfolgreich umgesetzt wurde, ist RDNA3 aus meiner Sicht ein Erfolg. Nvidia hat das erst noch vor sich.

vinacis_vivids
2022-10-14, 16:50:25
Ray-Tracing unter der 4080 12GB bedeutet gleiche RT-Leitung wie die 3090Ti :biggrin:
Da kann jeder PC-User gleich die PS5 holen, wozu der Aufwand und die Entwicklung?

Grendizer
2022-10-14, 17:17:35
Im Endeffekt ist doch egal, woher dann stabile Frames bei minimal schlechterer Bildqualität kommen. Ich sag ja, man wird vergleichen müssen und ich lebe schon seit Monaten regelmäßig mit einer Reduzierung der Renderauflösung um stabile Frames mit meiner alten 1080 GTX in 4 K zu bekommen. Also egal was ich mir kaufe, wird es zu einer Verbesserung der Qualität kommen.

Iscaran
2022-10-14, 19:57:40
Beobachtung: Wurzel(Pixelanzahl) und Missrate korrelieren nicht ganz proportional, aber streng linear.

Danke dir für deine Beobachtung und Korrektur mit der Wurzel.

Wurzel(Pixelzahl) - jemand ne Idee was da technisch dahintersteht?

Die Daten in deiner zweiten Tabelle für Hitrate @ 128MB weichen signifikant von den vorgegebenen = bekannten Daten ab.

ahja, das hatte ich gar nicht so "signifikant" bewertet.
Nahm an das wäre eine Schwankung angesehen, da die Formel halt nicht besonders linear bzw. exakt ist evtl. (nahm/nehme an AMDs Angaben basieren auf Messungen?)


mein Ansatz / Annahme:
Wenn sich Datengröße (Pixelanzahl) und IF$-Größe im selben Verhältnis ändern, bleiben die Hit- und Missraten gleich.

Damit erhalte ich nach simpler Umformung:
Missrate = 0.02 + Wurzel( 2E-6 * Pixelanzahl / Cachegröße in MB )
Hitrate = 0.98 - Wurzel( 2E-6 * Pixelanzahl / Cachegröße in MB )


Allerdings ist mir aufgefallen, dass ich deine 2E-6 nicht ganz verstehe als Faktor.
Wenn ich die Daten gemäß deiner Herleitung plotte also "Wurzel aus Pixelzahl/Cache in MB vs Hitrate" bekomme ich diese Formel für eine Lineare Gleichung, mit R2 = 1 ("Perfekter Fit")

0.016*Wurzel(Pixel)/Cache + 0.98 = Hitrate in %

Mit dieser Formel stimmen die Kalkulierten Datenpunkte EXAKT (,000000%) mit den Angaben AMDs zu 128 MB Cache und den drei angegebenen Hitrates überein.

Basierend darauf ergibt sich dann folgendes Gesamtbild für die anderen Cachegrößen und Auflösungen. (Der Vollständigkeithalber mal bis 8k erweitert.
FETT sind die damit berechneten Werte für die drei Werte die AMD als 80%, 74% aund 62% angibt.

Auflösung | Hitrate @ 96 MB | Hitrate @ 128 MB | Hitrate @ 192 MB
1080p | 74.0% | 80.0% | 86.0%
1440p | 66.0% | 74.0% | 82.0%
2160p | 50.0% | 62.0% | 74.0%
2880p | 34.0% | 50.0% | 66.0%
3600p | 18.0% | 38.0% | 58.0%
4320p | 0.02% | 26.0% | 50.0%




Vielleicht gelten die 12288 tatsächlich nur in Spezialfällen? Deshalb die geschrumpften WGPs, deshalb geringere Leistung?
Dann wären es nur +20% Shader und nur +76% fp32 bei 3,3 GHz, womit man perfekt skaliert 10% hinter der 4090 landet.
Oder die Skalierung bei 12288 Shadern ist miserabel.
Oder die Leistungsangabe unter 4090 passt nicht.
Oder alle bisherigen Leaks sind Quark.

Ja, damit hast du eine sehr valide und interessante Frage aufgeworfen. Vielleicht ist AMD hier einen ähnlichen Weg wie nVidia gegangen und die Shaderdopplung verpufft halt leider doch zu großen Teilen. Also Abnahme der bisherigen sehr guten Effizienz Gflops/%Index.

Dazu mal folgende Überlegungsrechnung:
Wenn AMD wirklich ähnlich wie Turing => Ampere ~60% "Wirkungsgrad" (Gflops/%Index) verliert:

also GFlops/%
Turing = 55.4, Ampere = 89.0 => Ampere =1.6x Turing

Übertragen auf RDNA2 = 65.98 x1.6 => RDNA3 = 106 (=1.6x RDNA2)
Und wenn ich NUR mit 2.6GHz Takt rechne bist du immer noch bei 600% Index = 90% von einer RTX 4090.

Und diese BEIDEN Annahmen zusammen sehen mir nach der aktuellen Gerüchtelagen schon sehr nach Worst Case aus.

Realistisch denke ich wird AMD immer noch einen Taktvorsprung gegenüber Ada haben und Ada taktet ja mittlerweile auch ziemlich hoch (>2.5GHz)

Also nehmen wir mal "konservative" 2.75 GHz für AMD und die Effizienz "dropped" auch nur um 50% (nicht um 60%) (= 99Gflops/%Index).

=>RDNA3 mit 12.288 SPs@2.75GHz = 67.6 TFlops
mit 99Gflops/%Index:
= 645% vs 673% einer 4090 = 96% RTX 4090. EDIT:Sorry es sind 685% vs 673% einer RTX 4090 = 102%.

Und das ist nach aktueller Gerüchtelage schon ZIEEMLICH "konservativ" am untersten Ende der möglichen Skala.

Iscaran
2022-10-14, 20:24:35
Nachtrag zum neuesten Twittergerücht:
https://twitter.com/AMDGPU_/status/1580725765267935233

- 2.06x raster perf (+55% per W)
=> 2.06x 6900XT =2.06*332% = 684%

- 2.64x compute perf (63tflops)
63 Tflops, bei 12.288 SPs entsprächen 2.57GHz Takt.

- Beats the 4090 by 22% (raster)
673% (RTX4090) *1.22 = 821%

Mit 821%@63 Tflops (2.57GHz Takt, wäre der Architekturwert von RDNA3 = 76.9 GFlops/%
=> ca 17% schlechter als der von RDNA2. (65.98 GFlops/%)
Mit 683%@63Tflops wäre der Architekturwert bei 92.5 Gflops/% und damit ~40% schlechter als RDNA2

why_me
2022-10-14, 20:31:53
Nachtrag zum neuesten Twittergerücht:

Das ist doch kein Gerücht. Das ist schlicht seine Schätzung, wie es werden könnte.
Da ist nichts Handfestes dahinter.

Platos
2022-10-14, 21:01:09
Soll ich jetzt auch ein Twitteraccount machen und einfach selber ins blaue raten xD

ChaosTM
2022-10-14, 21:03:29
Wenn AMD an 2 Fronten wirklich auf Augenhöhe mithalten könnte wäre das grandios aber doch überraschend.
Wir wissen es bald..

Platos
2022-10-14, 21:13:50
Ist nur ne Schätzung von irgend jemandem.

Virtual
2022-10-14, 21:59:25
Ist nur ne Schätzung von irgend jemandem.
Abseits der ganzen Zahlenspielereien auf Twitter ist Lisa Sus qualitative (Ein)Schätzung zu RDNA3 von wortwörtlich "... we are feeling great about how RDNA3 looks in the labs ..." die gegenwärtig einzig belastbare Information. Sie kennt die wahren Zahlen. Trägt man derart dick auf und schürt eine hohe Erwartungshaltung, falls RDNA3 ein Performance-Flop wäre? Die Lachnummer traue ich ihr nicht zu.

iamthebear
2022-10-14, 22:34:50
RDNA3 ist vermutlich aus Architektursicht echt gelungen.
Das Problem ist, dass diese dermaßen overhyped sind, dass es eigentlich nur eine Enttäuschung werden kann besonders Navi33. Mit 200mm² N6 ist es absolut unrealistisch, dass AMD N21 erreichen kann. Selbst N23 zu schlagen wäre zumindest schon einmal eine Verbesserung.

DrFreaK666
2022-10-14, 22:35:04
Lisas Spruch sagt gar nichts zur Performance. Ob sie das nach der 4090 immer noch so sagen würde?

ChaosTM
2022-10-14, 22:38:46
Lisas Spruch sagt gar nichts zur Performance. Ob sie das nach der 4090 immer noch so sagen würde?


Ich hab noch fast (praktisch) genau nichts echtes gehört bezüglich RDNA3 außer "Schätzungen".


Da NV den/die unglücklichen 4060 12gb zurück gezogen hat könnte ein Hinweis sein..

DrFreaK666
2022-10-14, 22:41:15
Ein Hinweis auf was genau?

Exxtreme
2022-10-14, 22:42:35
Ein Hinweis auf was genau?

Dass die RTX4080 16GB RTX4060 gegen das AMD-Portfolio keine Chance hätte.

Lehdro
2022-10-14, 22:44:34
RDNA3 ist vermutlich aus Architektursicht echt gelungen.
Das Problem ist, dass diese dermaßen overhyped sind, dass es eigentlich nur eine Enttäuschung werden kann besonders Navi33. Mit 200mm² N6 ist es absolut unrealistisch, dass AMD N21 erreichen kann. Selbst N23 zu schlagen wäre zumindest schon einmal eine Verbesserung.
Hast du dich vertippt?

N23 sind 237mm² in N6.
N22, was du wohl eher meinst, sind 336mm² in N7.

Ich glaube schon das N33 oberhalb der N22 Karten rauskommen wird, vorallem wenn man damit den Mobile Markt erobern und in der Mittelklasse am Desktop ordentlich abräumen will - deswegen auch N6 um die Kosten zu senken.

Virtual
2022-10-14, 22:57:57
Lisas Spruch sagt gar nichts zur Performance. Ob sie das nach der 4090 immer noch so sagen würde?Naja! Ist es wirklich naheliegend bei einer Produktvorstellung anzunehmen, ihre Aussage beim kurzen RDNA3-Ausflug auf einer ZEN4-Präsentation bezieht sich auf die "Vollkommenheit" der Architektur, so als ob sie an die Ingenieure unter den Zuschauern adressiert ist -> neee, klingt nicht überzeugend! "Great" bezieht sich eher auf die mögliche Balkenlänge, sprich Performance. Selbstredend kann sie nicht ins RDNA3-Detail gehen, aber wenigstens kennt sie die wahren Zahlen, das hat sie allen Twitter-Schätzern voraus.

Edit: Abgesehen davon, die 4090 ist unter meiner Erwartungshaltung rausgekommen, hat mich eher in vielerlei Hinsicht enttäuscht. Nun hoffe ich auf AMD und RDNA3.

DrFreaK666
2022-10-14, 22:58:53
sind 6nm im mobile Sektor nicht eher nicht so geil?

TheGood
2022-10-14, 23:23:55
Mythos;13138682']2020 hat angerufen und will seine Spekulationen zurück. Schon damals waren viele der Meinung dass RDNA2 maximal mit der RTX3070 konkurrieren kann. Schon damals war das anhand der Specs völliger Nonsens. So wirds auch diesmal sein. Wie soll RDNA3 denn bitte so schlecht performen, dass man sich gerade so mit der 4080 anlegen kann? Das ist doch schon auf Grund der bekannten Leaks ausgeschlossen. Schaltet doch Mal den Kopf ein.

das denke ich mir auch schon die ganze Zeit und erst Recht nach den Tests der 4090 die ihre Rohleistung nicht auf die Straße bringt, dies aber natürlich dadurch kaschiert, dass die Merhperformance trotzdem sehr sehr gut ist.
Ich denke es wird wieder eng werden. WAs gut ist. Nur RT ist offen. Ich hoffe da auf ein näherrücken von AMD.
Preislich werden sie sich sicherlich auch nicht viel tun. Warum soltle AMD weniger verlangen als NVidia, wenn es die dummen Lemminge zahlen??? Das scheinen viele noch nicht verstanden zu haben...

Das ist die gleiche Diskussion die hier vor ein paar Wochen geführt wurde, der meinte höhere Effizienz hat nichts mit der schnelligkeit zu tun. Ohne ersteres gibt es letzters nicht.

TheGood
2022-10-14, 23:28:02
Wenn AMD an 2 Fronten wirklich auf Augenhöhe mithalten könnte wäre das grandios aber doch überraschend.
Wir wissen es bald..
Was soll denn die Aussage. Das macht schon RDNA2 (ausser RT, was immer noch nicht super relevant ist)

Von daher müsste man sich eher fragen, warum AMD jetzt auf einmal 30% performance verlieren sollte?!? Sie haben seit RDNA ein klares konzept, das bisher gut aufging. Schauen wir mal ob es auch bei RDNA3 aufgeht. Ich sehe das positiv. Nur RT ist und bleibt noch hier hinkebein und eigentlich ist ihnen das klar. Das wiedrum heisst sie werden das auch priorisiert bearbeitet haben.
Hoffentlich wird es gut und kommt nahe an die ADA performance ran.

amdfanuwe
2022-10-14, 23:39:31
Hast du dich vertippt?

N23 sind 237mm² in N6.

Hast du dich vertippt?
N23 ist N7
N24 ist N6

Lehdro
2022-10-14, 23:49:41
Hast du dich vertippt?
N23 ist N7
N24 ist N6
Ja habe ich. Trotzdem: N33 muss N23 locker schlagen, ansonsten kann man es gleich lassen. N22 sollte zumindest erreicht werden. Immerhin will man da noch einen Salvage drunter setzen.

ChaosTM
2022-10-14, 23:57:39
sind 6nm im mobile Sektor nicht eher nicht so geil?


6mm, ist nur die controller
Die Chips selbst sind 5nm

@ good ?

Jupiter
2022-10-15, 00:22:55
(ausser RT, was immer noch nicht super relevant ist)

Raytracing ist State-of-the-Art und sollte man in 2022 können. Auch im Hinblick auf die Zukunft, wo es immer mehr an Bedeutung gewinnen wird und eine langsamere Berechnung zukunftsunsicherer ist. Wie oft wurde sich in der Vergangenheit über angeblich zu kleinen Speicher beschwert, wobei es bei den Karten am Ende meist zuerst an Rohleistung mangelte.

ChaosTM
2022-10-15, 00:24:32
Ich traue Lisas Technikern zu, dass sie den RT Gap zu NV halbwegs schließen konnten..

mczak
2022-10-15, 00:48:20
sind 6nm im mobile Sektor nicht eher nicht so geil?
Optimal ist das sicher nicht, da verschenkt man bei N33 schon etwas Energieeffizienz (falls denn die 6nm tatsächlich zutreffen). Ein Desaster muss das aber nicht sein, nvidia hat ja mit einem unterlegenen Prozess bei Ampere in Notebooks auch ganz gut mit AMD mitgehalten :-).
Kann natürlich gut sein dass die Verfügbarkeit dadurch besser ist und AMD da mit günstigen Preisen richtig Volumen verkaufen will.

robbitop
2022-10-15, 07:37:34
Es hat auch einen perf/w Nachteil. 6 nm ist nur ein half nide wenn überhaupt. 5 nm N33 wäre potenziell schneller taktbar oder sparsamer. 6 nm hat nur den Vorteil des geringeren Waferpreises.

TheGood
2022-10-15, 08:34:20
Raytracing ist State-of-the-Art und sollte man in 2022 können. Auch im Hinblick auf die Zukunft, wo es immer mehr an Bedeutung gewinnen wird und eine langsamere Berechnung zukunftsunsicherer ist. Wie oft wurde sich in der Vergangenheit über angeblich zu kleinen Speicher beschwert, wobei es bei den Karten am Ende meist zuerst an Rohleistung mangelte.
Ändert ja nichts dran, dass es nur in homöopathischen Dosen verfügbar ist.
Ausserdem ist der aktuell mit Abstand sinnvollste Einsatzzweck die globale Beleuchtung, welche offensichtlich viel weniger resourenaufwändig ist als tatsächlich die Reflexionen.

Wie andere schon gesagt haben ist der Sprung in der UE5 duetlich eindrucksvoller als alles was Raytracing bisher auf die beine gestellt hat. Sofern es in Spielen auch ankommt.

Aber die Diskussion müssen wir heute auch nicht aufmachen.

Das gößte Problem am Raytracing ist und bleibt dass es in der Etnwicklung ist und dass es noch JAhre brauchen wird bis ein Leistungszenit sich eingestellt hat. Die Frage ist inweiweit LEvel 4 hier dann etwas hilft oder nicht. DA es aber mal wieder rein properitär ist, kannste es doch schon weider vergessen solange bis es nicht irgendwann in DirectX 13 integriert wird.

D.h. wenn ich mir jetzt ne Grafikkarte kaufe, kann sein dass in 3-4 JAhren das Raytracing viel zu langsam ist. Da machen dann ein gewisser Rückstand von AMD auch nichts mehr aus.

Ich gebe aber ehrlich zu dass ich auf die neue Generation von AMD warten um zu sehen ob sie die RT PErformance nicht deutlich erhöht haben und der ABstand sich vielleicht halbiert hat. Dann wäre es für mich ausreichend.