PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 [79] 80 81

y33H@
2021-03-13, 19:04:24
Ich hab ja mittlerweile auf nen Ryzen 5950X umgestellt und teste daher inklusive rBAR, bin schon teils sehr überrascht was das in 1080p bringt ... hab teils Sprünge von deutlich über +10% und bisher +18% (!) als Rekord :eek:

dargo
2021-03-13, 20:07:49
Ist doch nichts Neues. :confused:

btw.
Was ich viel besser an rBAR finde sind die Frametimes. In Valhalla und WD:L sind diese mit rBAR spürbar besser. In HZD hat man mit rBAR sogar ne Flatline. Ich finde es erstaunlich wie positiv sich rBAR auf eine sauberere Frameausgabe auswirkt. Das Performanceplus ist da für mich schon fast ein Nebenschauplatz den man gerne mitnimmt. :tongue:

y33H@
2021-03-13, 21:11:40
Es ist eine Sache, es iwo zu lesen, und eine andere es selbst in einer ausführlichen Messreihe zu sehen =)

gedi
2021-03-13, 21:13:01
Es ist eine Sache, es iwo zu lesen, und eine andere es selbst in einer ausführlichen Messreihe zu sehen =)

Mit was für einer GPU - 6700XT?

dargo
2021-03-13, 21:32:23
Was spielt das jetzt für eine Rolle welcher RDNA2 es ist?

y33H@
2021-03-13, 22:14:59
Die Skalierung ist mit unterschiedlichen Navi-RDNA2-SKUs nahezu identisch.

gedi
2021-03-13, 22:26:07
Die Skalierung ist mit unterschiedlichen Navi-RDNA2-SKUs nahezu identisch.

Eben :wink: Treiber?

y33H@
2021-03-13, 22:39:13
Treiber?Vorhanden :redface:

dargo
2021-03-13, 23:14:53
:ulol:

-=Popeye=-
2021-03-13, 23:51:37
Ich hab ja mittlerweile auf nen Ryzen 5950X umgestellt und teste daher inklusive rBAR, bin schon teils sehr überrascht was das in 1080p bringt ... hab teils Sprünge von deutlich über +10% und bisher +18% (!) als Rekord :eek:

Jetzt wäre noch interessant was oder wieviel es auf einer Intel Plattform in Verbindung mit einer AMD 6000er GPU bringt. Irgendwie findet man nicht wirklich was dazu.

Wiseman
2021-03-14, 03:54:53
Jetzt wäre noch interessant was oder wieviel es auf einer Intel Plattform in Verbindung mit einer AMD 6000er GPU bringt. Irgendwie findet man nicht wirklich was dazu.

Viel ist es wirklich nicht, da hast du schon recht. Aber google mal folgendermaßen: resizable BAR tested with Intel und schau dir den gleichnamigen Test von overclock3d.net vom 30.01.21 an. Ist nicht nur der aktuellste, sondern auch informativste Test.

Overclock3d hat mit i9-10850k und RX 6800 getestet, hat AC Valhalla, Cyberpunk, Forza Horizon 4, Horizon Zero Dawn, Resident Evil 3 und The Witcher 3 jeweils in 1080p, 1440p und 4k getestet.

Auch auf der Intel-Plattform weiß AC Valhalla zu glänzen mit 17% Zugewinn in 1080p, 16% in 1440p und 11% in 4k. Der Star unter den Zugewinnlern ist allerdings Forza Horizon 4 mit 22% in 1440p, 16% in 4k und 12% in 1080p.

In den restlichen Games ist der Zugewinn eher bescheiden. Bewegt sich z. B. in 4k so zwischen 2% und 5%.

OgrEGT
2021-03-14, 06:26:03
Die Skalierung ist mit unterschiedlichen Navi-RDNA2-SKUs nahezu identisch.

Apropos Skalierung... Wenn du mehrere RDNA2 GPUs nebeneinander im Review hast testest Du auch mit vergleichbaren Taktraten um zu sehen wie die CUs skalieren? Die Ref Designs mit Ref Taktraten sind ja doch sehr unterschiedlich insb 6700XT vs 6800...

Leonidas
2021-03-14, 07:48:12
Die Skalierung ist mit unterschiedlichen Navi-RDNA2-SKUs nahezu identisch.

Perfekt diplomatische Antwort.

Poekel
2021-03-19, 09:41:55
Neue potentielle Leaks zur 6500XT:
https://wccftech.com/amd-radeon-rx-6500-series-gpus-navi-23-detailed-up-to-2048-cores-8-gb-memory-tackle-nvidia-rtx-3060/
https://twitter.com/KittyYYuko/status/1372609049942913025

~1440p < RTX 3060 < 1080p
~April
~CNY 2,499
~32 Compute Units
~About 236 mm2
~64MB Infinity Cache
~128-bit 16Gbps GDDR6 with 8GB VRAM

Wenn das stimmt, dürfte der empfohlene Preis (Währungsrechner spuckt 380$/320€ aus) über dem der 5700xt beim Launch liegen.

robbitop
2021-03-19, 10:24:45
32 ggü 40 CUs ist schon ein relativ kleiner Sprung. Andererseits wird der IF$ deutlich reduziert, was ordentlich Fläche einsparen sollte. Sicherlich keine schlechte Einsteiger GPU. :)

Dino-Fossil
2021-03-19, 10:42:10
Schon gesehen?

https://www.computerbase.de/2021-03/amd-radeon-rdna2-rdna-gcn-ipc-cu-vergleich/ (https://www.computerbase.de/2021-03/amd-radeon-rdna2-rdna-gcn-ipc-cu-vergleich/)

robbitop
2021-03-19, 10:59:45
Super interessant. Aber schade, dass Vega und Polaris nicht dabei waren. Siehe DF Video zu RDNA1.

Ideen zum Beispiel:
Vega als Radeon 7 hätte es immerhin mit 60 CUs gegeben. Hätte man mit der 6800 vergleichen können.
Polaris 10/20/30 hätte man zumindest an eine 5700 NonXT koppeln können.
Auch hätte man sich kleinere Vegas mit 20 CUs über die Macbooks mit Bootcamp anschauen können und sie an die 5500XT (ja die hat 10% mehr CUs) koppeln können. Und/oder die Vega gibt es auch mit 16CUs und die hätte man an die RX560 koppeln können.

Das ist alles sicherlich nicht so akkurat wie ein 1:1 Vergleich - hätte aber ggf auch gezeigt, wie gut Vega und Polars mit wenigen CUs taktnormiert dastehen. Vega 8 sieht in den iGPs nämlich nicht so schlecht aus. Zu der Zeit skalierte AMD's uArch einfach noch nicht so gut, so dass weniger CUs rohleistungsnormiert gar nicht so schlecht waren.

dargo
2021-03-19, 11:04:19
32 ggü 40 CUs ist schon ein relativ kleiner Sprung. Andererseits wird der IF$ deutlich reduziert, was ordentlich Fläche einsparen sollte. Sicherlich keine schlechte Einsteiger GPU. :)
Das war auch das was mich bei den ersten Gerüchten zu N23 vs. N22 so verwundert hatte. WTF? Nur 8 CUs weniger, dafür extra SKU? Jetzt mit dem Infinity Cache ist die Sache natürlich wesentlich klarer. N22 ist trotz nur 8 CUs mehr 42% größer.

davidzo
2021-03-19, 15:49:15
Das war auch das was mich bei den ersten Gerüchten zu N23 vs. N22 so verwundert hatte. WTF? Nur 8 CUs weniger, dafür extra SKU? Jetzt mit dem Infinity Cache ist die Sache natürlich wesentlich klarer. N22 ist trotz nur 8 CUs mehr 42% größer.

Und eben diese Skalierung finde ich etwas merkwürdig. 32mb IF$ und 8CUs sind 1/5, also deutlich weniger als eine 30% Flächenreduktion?

Ich könnte mir vorstellen dass es mehr Rotstifteinsatz gegeben hat, zum Beispiel nur x8 Lanes an PCIe Gen4?
16 WGPs pro Shaderengine und damit nur noch eine SE stat 2x bei Navi22? Das würde jedenfalls einiges an L1 sparen.

EDIT: Videocardz sagt 2 SE mit 8TCCS.

disap.ed
2021-03-19, 19:23:39
Das war auch das was mich bei den ersten Gerüchten zu N23 vs. N22 so verwundert hatte. WTF? Nur 8 CUs weniger, dafür extra SKU? Jetzt mit dem Infinity Cache ist die Sache natürlich wesentlich klarer. N22 ist trotz nur 8 CUs mehr 42% größer.
Ich verstehe eher ungekehrt nicht, warum man N22 nicht zumindest 8 CUs mehr spendiert hat (also 48) um das Verhältnis zwischen CUs und IC etwas ausgewogener zu haben.

dargo
2021-03-19, 19:26:06
Imho weil man schon weiter denkt Richtung Chiplets. Reine Speku.

reaperrr
2021-03-19, 20:06:59
Und eben diese Skalierung finde ich etwas merkwürdig. 32mb IF$ und 8CUs sind 1/5, also deutlich weniger als eine 30% Flächenreduktion?
Vergiss das SI nicht, außerdem ist meines Wissens trotz IF$ auch noch der L2$ an das SI gekoppelt, der wird also wahrscheinlich auch von 3 auf 2 MB schrumpfen (und L2 ist meines Wissens nicht so dicht gepackt).

Eventuell auch von 64 auf 32 halbierte ROPs?

Für die Ziel-Auflösung 1080p sind 32 ROPs @ hohem Takt ja eigentlich völlig ausreichend.


Ich könnte mir vorstellen dass es mehr Rotstifteinsatz gegeben hat, zum Beispiel nur x8 Lanes an PCIe Gen4?
Ist das nicht selbst bei N21 schon der Fall?

Aber ansonsten ja, Halbierung der PCIe-Lanes wäre definitiv ein Mittel.

Der_Korken
2021-03-19, 20:08:17
Oder weil das mit den SEs nicht aufging. Bei 24 CUs/SE wäre das Verhältnis schlechter als beim großen Chip, deswegen müsste man für 48CUs entweder auf 3 oder 4 SEs gehen. 4 ist zu viel, das wäre mehr als die 6800 hat. Und 3 kann man geometrisch nicht vernünftig anordnen oder man müsste das ganze Layout ändern, was teurer gewesen wäre.

Dass N23 so viel kleiner ist, könnte auch daran liegen, dass man hier mehr auf Density und Effizienz geht und dafür einiges an Takt opfert. Dann passt der Leistungsabstand zwischen N22 und N23 auch wieder besser.

basix
2021-03-19, 21:55:04
N23 soll doch nur 32 MB IF$ haben. Das passt schon. 8 PCIe Lanes könnten auch sein, das Ding ist allerdings so schnell wie eine 5700 XT.

Locuza
2021-03-19, 22:17:02
Vergiss das SI nicht, außerdem ist meines Wissens trotz IF$ auch noch der L2$ an das SI gekoppelt, der wird also wahrscheinlich auch von 3 auf 2 MB schrumpfen (und L2 ist meines Wissens nicht so dicht gepackt).

Eventuell auch von 64 auf 32 halbierte ROPs?

Für die Ziel-Auflösung 1080p sind 32 ROPs @ hohem Takt ja eigentlich völlig ausreichend.


Ist das nicht selbst bei N21 schon der Fall?

Aber ansonsten ja, Halbierung der PCIe-Lanes wäre definitiv ein Mittel.
Wie basix schon angemerkt hat, es gab Treibereinträge von AMD die nur von 4MiB L3$ pro channel gesprochen haben.
Entsprechend stehe ich selber den 64MiB noch skeptisch gegenüber und du hast recht, die L2$ tiles skalieren auch mit dem SI, was zu 2MiB L2$ führt.
Mit 128-Bit GDDR6, 32MiB L3$ und 2MiB L2$ passt die deutlich kleinere die size und AMD skaliert die Leistung primär auf der SI- und Cache-Seite.

Render Frontend und Backend ist laut Treiber identisch mit Navi22, also 64 ROPs.

Navi21 und N22 haben beide 16x PCIe4-Lanes.
AMDs fiktives Marketingbild hat bei N21 nur 8x PCIe4-Lanes eingezeichnet, aber die Treiber haben 16 bei N21 und N22 ausgewiesen, was auch so stimmt.
Ob N23 nur 8x PCIe4-Lanes hat weiß ich dagegen nicht, dass sollte aber zumindest auf N24 zutreffen.

AlterSack
2021-03-20, 17:08:20
Eine 6700 mit 10% weniger CU und etwa 10% weniger Takt
wird sicher auch kommen. ...heisst N23 sollte in etwa 40% langsamer werden
als 6700XT. Vllt. steckt in N23 mehr RDNA1 als RDNA2.
ein hoher Takt verbietet sich bei dem Szenario von selbst
und RT taugt in der Leistungsklasse max. als Dummenfang.

Nightspider
2021-03-20, 19:11:45
Wie ist eure Leistungsprognose zu Navi23?

5700xt Niveau? Sprich 70% einer 6700xt?

Oder noch ein Stück darunter?

Thunder99
2021-03-20, 19:26:15
5600XT + 30%

basix
2021-03-20, 19:45:09
Wie ist eure Leistungsprognose zu Navi23?

5700xt Niveau? Sprich 70% einer 6700xt?

Oder noch ein Stück darunter?

Eine 5700 XT ist eher 75% einer 6700XT bei 1440p und ich erwarte N23 genau da wo es zwischen 32 zu 40 CUs sein sollte: Knapp schneller als die 5700 XT bei 1080p sowie 1440p.

AlterSack
2021-03-20, 20:36:09
Wo wäre da noch Platz für eine 6700 ohne XT?

reaperrr
2021-03-20, 22:04:12
Wo wäre da noch Platz für eine 6700 ohne XT?
Zumal es auch noch eine 6600 XT mit 6/12 GB, also 192bit SI (also auf N22-Basis) geben soll.

Ich tippe, dass N23XT (6500XT?) irgendwo zwischen 5600XT und 5700 landet. Wir wissen auch noch nicht, ob N23 (im Desktop) überhaupt im Vollausbau kommt. Ich würde mich jetzt nicht völlig wundern, wenn wir im Desktop nur 30 oder 28 CUs zu sehen bekommen, ähnlich wie bei der 5500XT, und die 32CU-Chips den Notebook-Varianten vorbehalten bleiben.

mironicus
2021-03-21, 10:35:23
Laut Redgamingtech hat AMD begonnen Verbesserungen für die Steigerung der Raytracingleistung in den neuesten Treibern einzupflegen (durch Nutzung von Wave32).

Jpmm6V0VWNc

dildo4u
2021-03-22, 11:27:59
Es soll 6700 mit 6GB geben.

https://videocardz.com/newz/powercolor-radeon-rx-6700-fighter-leaked-comes-with-6gb-memory

HOT
2021-03-22, 11:31:23
Es soll 6700 mit 6GB geben.

https://videocardz.com/newz/powercolor-radeon-rx-6700-fighter-leaked-comes-with-6gb-memory
Kann für Anwendungen abseits von Spielen ja auch interessant sein und auch evtl. für OEMs. Für Spiele ist das kaum relevant.

r3ptil3
2021-03-22, 11:36:00
Kann für Anwendungen abseits von Spielen ja auch interessant sein und auch evtl. für OEMs. Für Spiele ist das kaum relevant.

In welcher Welt lebst du?

Dampf
2021-03-22, 11:42:34
Kann für Anwendungen abseits von Spielen ja auch interessant sein und auch evtl. für OEMs. Für Spiele ist das kaum relevant.

;D

HOT
2021-03-22, 11:53:18
Das kauft doch keiner :freak:. Es gibt doch auch 12GB-Varianten. Es ist doch ok, dass es diese Varianten gibt, aber es gibt eben doch auch die anderen.

Dampf
2021-03-22, 12:00:46
Das kauft doch keiner :freak:. Es gibt doch auch 12GB-Varianten. Es ist doch ok, dass es diese Varianten gibt, aber es gibt eben doch auch die anderen.

Die 6 GB müssen sich halt am Preis bemerkbar machen. Eventuell kann AMD einen neuen Preis Leistungskracher erschaffen.

Naja, aber jetzt kann man das eh noch nicht beurteilen

w0mbat
2021-03-22, 12:51:09
Da die 6700 XT schon $480 kostet (in der Theorie) wird eine 6700 wohl um die $400 MSRP haben. Und bei einer ~$400 GPU in 2021 sind 6GB einfach viel zu wenig. Klar, da kommen noch ein paar MB IF-Cache dazu, aber das macht den Braten nicht fett.

Ne "6600" mit 6GB - OK. Aber nicht in dieser Preisregion.

bbott
2021-03-25, 18:02:33
Gibt es einen Test der die 6800XT und 6800 mit UV und TDP/TGP Limitierung vergleicht? Preislich mach die 6800XT Sinn, die 6800 ist mir zu stark beschnitten (nur 60 von 80 Clustern), aber der Stromverbrauch der 6800 gefällt mir deutlich besser.

basix
2021-03-25, 21:34:21
Bezüglich FSR habe ich mich noch gefragt, welche AMD HW das unterstützen wird. Ich vermute, dass FSR auf Compute Shader und Async Compute zusammen mit Rapid Packed Math (falls vorhanden) aufbaut. Das bietet die breiteste HW Basis seit es DX11 Karten gibt und spielt AMD in die Karten (starke Async Implementierungen)

Ich habe mal eine Liste von möglichen Kandidaten gemacht:

GCN
GCN ab Polaris oder Vega (relativ weit verbreitet, Zen APUs)
RDNA1
RDNA2
PS4 + XBOne
PS5 + XBSX
Samsungs NextGen Mobile SoC


Was meint ihr? Mit den Konsolen generiert man den grössten Hebel bei Spieleentwicklern. Allenfalls fällt aber alles prä-RDNA2 weg, wäre jedoch schade. Sehr spannend fände ich noch den ARM SoC von Samsung, wenn RDNA2 im Mobile Bereich mit FSR umgehen könnte.

Zergra
2021-03-25, 22:31:20
Alles nach RDNA1 dürfte das bekommen, Vega und Polaris nicht.

vinacis_vivids
2021-03-26, 00:07:28
Compute Shader und Async Compute ist absolut richtig. RPM ist ja fp16 2:1 fp32 per cycle.
Im Prinzip ist FSR eine dynamisch verringerte Renderauflösung auf 720p in Bewegung mit Unschärfekomponente. AMD wird sicher versuchen von vorn herein noch mehr Befehle auf die CPU auszulagern, um die Kerne für 4K stärker auszulasten (bspw. shadows)
Das in vielen Spielen eingestellte maximale renderlimit wird von 8,3 Mpix (4K) auf 0,92 Mpix (720p) fallen. Das sind ~ 90% Einsparung an rohe Rechenleistung.
Was bestehen bleiben muss sind sicherlich die hochaufgelösten Texturen, damit 4K noch scharf aussieht. Aber auch hier muss man in schnellen Bewegungen mehr komprimieren, auch verlustbehaftet ohne Texturen, wobei nur noch Farbartifakte und die Bewegungskoordinaten übrig bleiben.
Die CPU legt dann dann von vorn herein nahezu komplett die geometry shader, bewegungsshader, shadow usw. fest.

FSR ist somit ab GCN möglich, FSR + RT dann ab RDNA 2.
Wobei ich denke, dass die CPU auch sehr gut Ray Tracing codes beim Levelaufbau laden kann. Das ist natürlich sehr optimistisch, aber nicht unmöglich.

robbitop
2021-03-26, 10:21:48
Alles nach RDNA1 dürfte das bekommen, Vega und Polaris nicht.
Denke ich auch. Die last gen wird nicht mehr viele neue Titel bringen. FSR scheint eher gegen Jahresende fertig zu werden und die Majorität der Titel, die es bringen werden, werden sicherlich in 2022 rutschen. Prä-RDNA wird dann immer weniger Relevanz haben.

Da es sich um keine ML/NN Anwendung handeln wird (laut AMD), ist INT4/8 sicherlich nicht primär interessant. Ich vermute, dass das Clamping damit deutlich weniger rechenaufwändig werden wird. In etwa so wie man es von bisherigen TAA Anwendungen kennt. Entsprechend vermute ich aber auch, dass die Endergebnisse nicht an ML/NN Clamping herankommen werden.

basix
2021-03-26, 10:36:49
Falls es irgendwo in der Umsetzung begrenzt werden würde: Neben PS4 / XBone (welche eine Spezialbehandlung bekommen könnten) würde ich es für Vega begrüssen: APUs

robbitop
2021-03-26, 10:45:38
Stimmt - Vega ist dank der APUs ja tatsächlich noch in aktuellen Produkten vorhanden.
Die Frage ist, wie uArch spezifisch das Verfahren sein muss. Schaut man sich bisherige in Spieleengines verbaute Rekonstruktionsverfahren an laufen die auch auf jeder GPU.
Ggf. gibt es für RDNA etwas mehr Optimierungen.

basix
2021-03-27, 19:42:53
Ich sehe es auch so, dass es auf RDNA2 wahrscheinlich am schnellsten laufen wird. Aber wenn es eine relativ generische Implementation über Compute Shader ist, sollte das eigentlich auf fast allem seit GCN / Kepler laufen. Ausser die HW muss irgend ein spezielles Feature Level mitbringen. Das wäre für alle mit etwas älteren Karten ein Segen (vor allem wenn man wie jetzt keine neuen Karten kaufen kann ;))

Mandalore
2021-03-27, 21:56:59
Denke ich auch. Die last gen wird nicht mehr viele neue Titel bringen. FSR scheint eher gegen Jahresende fertig zu werden und die Majorität der Titel, die es bringen werden, werden sicherlich in 2022 rutschen. Prä-RDNA wird dann immer weniger Relevanz haben.

Da es sich um keine ML/NN Anwendung handeln wird (laut AMD), ist INT4/8 sicherlich nicht primär interessant. Ich vermute, dass das Clamping damit deutlich weniger rechenaufwändig werden wird. In etwa so wie man es von bisherigen TAA Anwendungen kennt. Entsprechend vermute ich aber auch, dass die Endergebnisse nicht an ML/NN Clamping herankommen werden.



Woher weißt du, dass es sich um
Keine ML/NN Lösung handeln wird?



Scott von AMD sagte doch, man braucht nicht zwingend eine ML Technik dafür, sondern das es auf relativen vielen Wegen zu erreichen ist.

Und es wird sich alles angesehen laut ihm. Denke trotzdem, dass hier ne ML Version in Arbeit ist.


Spätestens ab RDNA3 wird das Ganze auf Matrizen Einheiten laufen, wie bei Nvidia...

Complicated
2021-03-27, 22:10:49
Seit wann sind Matrizen zwingend ML?
Du meinst "Matrizen-Einheiten" wie bei MI100 (CDNA)?
https://www.amd.com/system/files/documents/amd-cdna-whitepaper.pdf
The AMD Instinct™ MI100 GPU is built to accelerate today’s most demanding HPC and AI workloads. Oak Ridge National Laboratory tested their exascale science codes on the MI100 as they ramp users to take advantage of the upcoming exascale Frontier system. Some of the performance results ranged from 1.4x faster to 3x faster performance compared to a node with V100. In the case of CHOLLA, an astrophysics application, the code was ported from CUDA to AMD ROCm™ in just an afternoon while enjoying 1.4x performance boost over V100.

Dieses AI für simples Upscaling+Superresolution ist doch absolut unnötig. Dieser Versuch einen vorher auf einem Server durchzuführenden Schritt für Bildverbesserung zu nutzen ist wieder eine der unnötigen Verdongelungen von Nvidia.

robbitop
2021-03-28, 09:38:27
Woher weißt du, dass es sich um
Keine ML/NN Lösung handeln wird?



Scott von AMD sagte doch, man braucht nicht zwingend eine ML Technik dafür, sondern das es auf relativen vielen Wegen zu erreichen ist.

Und es wird sich alles angesehen laut ihm. Denke trotzdem, dass hier ne ML Version in Arbeit ist.


Spätestens ab RDNA3 wird das Ganze auf Matrizen Einheiten laufen, wie bei Nvidia...
Wenn es auf NN basieren würde, hätte Scott sich nicht so geäußert. Dazu gab es in Q 2020 ein Interview wo sogar explizit nein zu NN gesagt wurde.

———
DLSS 2.0 als Filter zu bezeichnen wird dem Verfahren nicht gerecht. Es ist 100% temporale Rekonstruktion (sehr sehr ähnlich zu temporalem Supersampling) mit NN für das Clamping. Da wird nichts upgescalt oder gefiltert.
Damit es gut funktioniert müssen auflösungsabhängige LoDs (geometrie und trxturen) entsprechend an die Zielauflösung angepasst werden. Es werden tatsächlich vorhandene Informationen verwendet in dem die Subsampleposition im Pixel pro Frame variiert wird. Das clamping sorgt dafür dass es funktioniert.

Wie viel Matrix Operationen das pro Frame kostet, ist davon abhängig wie aufwändig und somit wie gut das Clamping ist. Je besser das clamping, desto mehr Samples kann man holen.

Ob ähnliche Ergebnisse ohne NN möglich sind, wird sich zeigen müssen. Bisher jedenfalls nicht. Ein ähnlich komplexes NN über die Vec FPUs laufen zu lassen würde mehr Frametime benötigen. Etwas Skepsis ist sicherlich nicht ungesund.

Complicated
2021-03-28, 11:32:58
Ich finde das ja immer wieder faszinierend wenn das immer aufs neue erklärt wird. Es ändert jedoch nichts daran, wenn schlussendlich auch nicht bessere Bildqualität dabei heraus kommt. Es stellt sich immer die Frage ob man das nicht effizienter hinbekommt und mit weniger Vorarbeit, die der Harwarehersteller auf separaten Servern macht um diese dann einzupflegen. Temporale Element werden auch anders berücksichtigt, wie du ja auch schreibst.
Es ist eine mögliche Form des Postprocessing aber ich sehe nicht, dass es sich so entscheidend von schon bestehenden Lösungen abhebt in der Qualität, als dass AMD darauf aufbauend nicht eine ebenfalls für Raytracing gut funktionierende Lösung entwickeln kann, ganz ohne den Abhängigkeiten die DLSS schon konzeptionell hat.

AMD hat separate Compute Controler mit ACE um das Postprocessing zu interleaven und das wird wohl kaum mehr FPU Renderzeit kosten, wie ja schon mehrfach demonstriert wurde. Hier entlastet ja auch bei DLSS das rendern auf niedriger Auflösung und nichts anderes.

gedi
2021-03-28, 23:48:16
Frage: Hat jemand von euch den GPU-Turbo aka Upsampling per Treiber aktiviert gehabt (also Ffx unabhängig) - und wie war das Ergebnis? Funktioniert der Krempel auch API-unabhängig? Vielleicht würde ein Ergebnis bereits erste Rückschlüsse ergeben ...

mironicus
2021-03-29, 09:32:16
DLSS ist proprietär und wird irgendwann wieder verschwinden. Das RDNA2-Featureset wird als Maß aller Dinge in Zukunft mindestens unterstützt werden, was schon ein riesiger Fortschritt ist.

NVidia hat zwar Deals mit Nintendo, aber die bauen ja auch keine Highend-Konsolen. Solange NVidia nicht so eine Kombination aus CPU+GPU wie AMD anbieten kann und das auch zu einem erträglichen Preis, sind sie nicht konkurrenzfähig in dem Bereich.

Linmoum
2021-03-29, 09:48:06
Die Diskussion ist überflüssig. Sobald es einen offenen Standard gibt - und der kommt bekannterweise - kann man die Spiele, die DLSS dann noch mittelfristig unterstützen werden, pro Jahr wahrscheinlich mit 3 Fingern abzählen. Langfristig ist es dann die bekannte Totgeburt. Und das ist gut so. Solche Blackboxen und proprietäter Müll haben am Markt nichts zu suchen.

Fragman
2021-03-29, 09:54:57
Edit...

Complicated
2021-03-29, 10:58:31
Ohne diese Tools gaebe es auch keine offenen Ansaetze.Blödsinn: Tesselation (AMD Trueform), Adaptive Sync (VESA), Physik (Havok), rBAR (ganz aktuell), HSA, ROCm, etc....


Die Scheuklappen mal abnehmen.

Fragman
2021-03-29, 11:27:07
Edit...

Screemer
2021-03-29, 11:30:06
Was willst du daran neutral sehen, wenn ein hw-vendor das Zeug das ja "angeblich" den Spieler zu gute kommen sollen als geschlossene Systeme unters Volk bringt? Das zersplittert die Spielerschafft und kommt vor allem einem zu gute. Nämlich, du hast es ersten, dem hw-vedor.

Complicated
2021-03-29, 11:50:06
Dieser Fanboyunsinn hier im Thread machts einem nicht einfach.
Mal versuchen die Dinge neutraler zu sehen soll helfen.
Du denkst du argumentierst hier neutral? :eek:

Alle diese proprietären Techniken verzögern doch nur die Marktverbreitung sinnvoller Technologien.
Nimm doch mal Gsync, wie viele Jahre das Zersplitterung in der Monitor-Landschaft bedeutet. Und wie viel sinnlos ausgegebenes Geld. Das verlangsamt den allgemeinen Fortschritt auf Kosten einer early-Adopter Technik die dann wieder verschwindet. Wo soll das denn ein Fortschritt sein?
Ausbaden muß es der Endkunde.

Du bist der einzige Fanboy, den ich hier sehe - denn du argumentierst aus Unternehmenssicht, nicht als Käufer.

Daredevil
2021-03-29, 11:50:14
Was willste denn haben?
Soll Nvidia jetzt für AMD GPUs bauen, damit RT und DLSS so funktioniert, wie bei Nvidia, oder was?

AMD profitiert auch von Nvidias Arbeit, weil sonst gäbe es aktuell nur eine ( halbe ) Handvoll Spiele, die überhaupt RT anbieten.
Das man sich CP als "exklusiv Schinken" nimmt, ist in der Tat bedauerlich, aber leider die freie Marktwirtschaft. Die wollen halt Geld scheffeln, bis sie darin ersaufen, wie quasi jedes Unternehmen.

JVC
2021-03-29, 11:55:17
Soll Nvidia jetzt für AMD GPUs bauen, damit RT und DLSS so funktioniert, wie bei Nvidia, oder was?

Es wäre schon gut, wenn NV zusammen mit AMD an offenen Standards arbeiten würde.
"An einem Strang ziehen" nennt man das ;)

Wenn Jeder in eine andere Richtung zieht, geht nicht soviel weiter...

M.f.G. JVC

Fragman
2021-03-29, 12:00:26
Edit...

Daredevil
2021-03-29, 12:04:00
Ja aber was hat Nvidia denn davon?
Soll AMD jetzt auch ihre Technik an Intel offenlegen, damit die SkylakeRipper bauen können mit 64 Cores, damit die Entwicklung Richtung "ManyCore" Systems beschleunigt wird?
Es gibt ja in der Tat Dinge, wo man zusammen arbeiten kann ( Apple und Google bei der CoV Schnittstelle ), aber hier nutzt man doch seine eigene Arbeit für seine eigene Geldbörse. Ist doch völlig normal.

Und ich würde mir btw. sehr wünschen, das mal die ersten hübschen RT Games fürs die Konsole rauskommen, weil da passiert aktuell echt wirklich wenig.
AMD wird vermutlich dafür bekannt werden, RT unters Volk zu bringen, Nvidia hat das nicht getan mit ihrem Nischen Dasein. ( Genauso Freesync und GSync... ).
Dafür kann man AMD in der Tat belohnen, indem man ihre Produkte kauft.
( Das hilft mir aber nicht, wenn mit mit RT und DLSS hohe FPS haben will )

Complicated
2021-03-29, 12:05:16
Das hab ich erklaert, weiter oben..
Du hast nichts erklärt, sondern lediglich deine Ansicht mitgeteilt - die teile ich beim besten Willen nicht.
Ein Realität muss man nicht für gut befinden und ohne Widerstand mit stützen. Das Klima lässt grüßen, Menschenrechte lassen Grüßen, Verbraucherschutz läßt grüßen. Wie gesagt du argumentierst aus Unternehmenssicht.

Niemand muß seine Technik offenlegen wenn er Standard-Schnittstellen nutzt.

@Daredevil
Auch aus Unternehmenssicht argumentiert - wen interessiert als Kunde was Nvidia davon hat?
Und Intel hat Zugang zu allen Techniken die man benötigt um Many-Core Systeme zu bauen.

Screemer
2021-03-29, 12:05:22
Nvidia hätte mit gar nichts warten müssen. Sie hätten es einfach als offenen Standard etablieren können. Wie schon so vieles vorher. Wie es andere dann implementieren steht doch auf einem völlig anderen Blatt. Sie müsse dich nicht ihre HW für andere zum Nachbau freigeben. Was ist daran so unverständlich? Hier scheinen viele zu glauben, dass der Standard durch die HW definiert wird.

@daredevil: dein intelbeispiel hinkt leider. Was glaubst du wie das mit amd64 aka x64, mmx, avx, avx2, avx512 etc. abläuft?

Cyberfries
2021-03-29, 12:05:58
"An einem Strang ziehen" sagt sich so einfach.
Aus Konsumentensicht sehe ich wie derartige Technologien zu Entwicklungen der Konkurrenz führen, die oftmals in offenen Standards münden, was schlussendlich allen zugute kommt.
Ist ohnehin die Frage ob AMD DLSS einsetzen wollte wenn sie dürften. Wenn sich das schlecht mit den eigenen Chipdesigns vereinen lässt...
Vielleicht könnte man aber auch wieder zum Thema zurückkehren.

unl34shed
2021-03-29, 15:32:04
Ist ohnehin die Frage ob AMD DLSS einsetzen wollte wenn sie dürften. Wenn sich das schlecht mit den eigenen Chipdesigns vereinen lässt...
Vielleicht könnte man aber auch wieder zum Thema zurückkehren.

Hätte Nvidia einen Backup Pfad mit DirectML implementiert, würde DLSS ohne Hardware Änderungen auch auf AMD und Nvidia Karten ohne Tensor Codes laufen. Das wäre sicherlich langsamer als mit Tensor Cores, die hätte man damit also auch vermarkten können.

Daredevil
2021-03-29, 15:36:24
Wenn Nvidia klug ist, gehen sie einfach den gleichen Weg wie bei ASync.
Erst stellen sie was "neues bahnbrechendes" vor, was AMD dann "günstig" kontern muss, da die Technik nicht ganz ausgereift ist, aber weiter voran schreitet.
Nvidia steht als Pionier da, AMD treibt aber die Verbreitung vorran.
Danach legt sich Nvidia als Pionier auf die Arbeit von AMD und macht es sich dort gemütlich im gemachten Nest ( Gsync jetzt auch auf Freesync Monitoren ohne extra Hardware... )
Ist halt ein richtiger Dickmove, hat aber funktioniert.
Mit einer AMD Karte kannst du heute nicht jeden Async Monitor betreiben, mit einer Nvidia Karte schon.

Entweder macht AMD es dieses mal aus exklusiv und zeigt Nvidia den Mittelfinger oder sie beugen sich der Entwicklung und machen sich wieder offen, so das Nvidia sich wieder ins gemachte Nest legt. ( Und für die Switch Pro DLSS bei vielen Spielen anbieten kann )
Der Sympathie Punkt geht auf jeden Fall nicht nach Jensen, die Umsätze schon.

HOT
2021-03-29, 15:39:51
Das sind aber auch FB-Argumente, meine Güte, du bringst ne neue Qualität hier rein :freak:. Da bleibt auf jeden Fall kein Zweifel.

Daredevil
2021-03-29, 15:52:33
Wenn du hier eine Argumentation siehst, habe ich vermutlich eine Seite eingenommen, für die ich argumentieren kann, oder?
Welche siehst du denn hier? Ich wüsste nämlich nicht, welche das sein soll.

AMD liefert ( noch ) nicht und Nvidia schadet dem Markt. Mein Standpunkt ist wohl ... neutral? Argumentiere ich für "alles ist doof"? ^^

JVC
2021-03-29, 16:18:23
@Daredevil
Deine Argumentation stimmt.
Aber gut heißen kann man so ein Verhalten als Konsument doch überhaupt nicht.

Wenn Nvidia klug ist...
Nvidia steht als Pionier da...
Ist halt ein richtiger Dickmove, hat aber funktioniert.
Mit einer AMD Karte kannst du heute nicht... , mit einer Nvidia Karte schon.


Ich bekomme ein klein wenig den Eindruck, das du NVs Vorgehen als besser erachtest...
Damit kann ich als Konsument nicht konform gehen.

M.f.G. JVC

Screemer
2021-03-29, 16:21:24
Die Diskussion haben wir doch immer wieder. Ich kann es auch nicht nachvollziehen wie man ein solches Gebaren verteidigen kann. Vielleicht erinnerst du dich noch an den letzten großen thread von phuv?

Brillus
2021-03-29, 16:27:24
Ja aber was hat Nvidia denn davon?
Soll AMD jetzt auch ihre Technik an Intel offenlegen, damit die SkylakeRipper bauen können mit 64 Cores, damit die Entwicklung Richtung "ManyCore" Systems beschleunigt wird?
Es gibt ja in der Tat Dinge, wo man zusammen arbeiten kann ( Apple und Google bei der CoV Schnittstelle ), aber hier nutzt man doch seine eigene Arbeit für seine eigene Geldbörse. Ist doch völlig normal.

Und ich würde mir btw. sehr wünschen, das mal die ersten hübschen RT Games fürs die Konsole rauskommen, weil da passiert aktuell echt wirklich wenig.
AMD wird vermutlich dafür bekannt werden, RT unters Volk zu bringen, Nvidia hat das nicht getan mit ihrem Nischen Dasein. ( Genauso Freesync und GSync... ).
Dafür kann man AMD in der Tat belohnen, indem man ihre Produkte kauft.
( Das hilft mir aber nicht, wenn mit mit RT und DLSS hohe FPS haben will )

Also AMD hat X86-64 offen gemacht. Ihre Befehlsatzerweiterungen auch. Es geht hier lum die Grundlegende offene API nicht die implementierung.

Ravenhearth
2021-03-29, 16:30:46
x86-64 ist nicht "offen". Sie stellen Intel das nur im Austausch mit der x86-Lizenz zur Verfügung

Daredevil
2021-03-29, 16:33:52
Ich bekomme ein klein wenig den Eindruck, das du NVs Vorgehen als besser erachtest...
Damit kann ich als Konsument nicht konform gehen.

M.f.G. JVC
Der Post oben war schon aus neutraler betriebswirtschaftlicher Sicht gepostet. ^^

Ich sehe das aber sicher aus verschiedenen Blickwinkeln.
Aus Betrachtung des Gesamtmarktes ist es lächerlich, das Nvidia sich in das gemachte Nest der "Freesync Monitore" setzt und das nun als Feature anpreist. Ohne AMD würde es schlicht so eine Verbreitung nicht geben.

Aus meiner persönlichen Sicht war ich froh, das mein ehemaliger BigTV ( Asus 43" ) Freesync hatte, damit ich ihn mit meiner 2080ti und Gsync betreiben konnte. ( VII war keine Alternative, da weniger Features und langsamer )
Als ich mir den LG OLED gekauft habe, war eine AMD Karte schlicht nicht auf der Einkaufsliste, egal wie gut sie gewesen wäre, weil der OLED nur Gsync unterstützt hat. Nvidia hatte also das "Oled Monopol" fürs Async Gaming. Mittlerweile ist dort auch Freesync verfügbar, ein Jahr nach Kauf. Also wäre das jetzt auch offen für AMD GPUs.
Einerseits finde ich es scheiße, andererseits ist es die einzige Möglichkeit ( gewesen ), die beste Hardware benutzen zu können, die der Markt für mich bietet. Also kann ich auch jetzt nur hoffen, das AMD auch dieses mal Gas gibt und Nvidia dazu ermutigt/drängt, das richtige zu tun, sei es bei DLSS oder RT der Fall um auch dort Bewegung reinzubringen. Egal ob ich das nun irgendwann auf die bessere AMD Karte wechsel, oder Nvidia dadurch bepusht wird, oder beides. Fair ist das sicherlich nicht.

Das Intel aktuell wieder bezahlbare Prozessoren anbietet, verdanken wir auch nicht Intel, sondern AMD. Die tun schon ne Menge und sicherlich sind die sympathisch, mit Sympathie bekommt man aber nicht maximale FPS auf den Bildschirm, das wägt bei mir noch höher. ( Bei den Prozessoren ist es so, deswegen habe ich ja auch einen jeden Ryzen gehabt :redface: )

Lehdro
2021-03-29, 16:41:18
x86-64 ist nicht "offen". Sie stellen Intel das nur im Austausch mit der x86-Lizenz zur Verfügung
VIA nutzt auch x64_64, wie machen die das? Haben die das Recht auf Reverse Engineering? Oder auch simples Lizenzabkommen?

JVC
2021-03-29, 16:43:21
Der Post oben war schon aus neutraler betriebswirtschaftlicher Sicht gepostet. ^^

Aber mit erkennbarem Standpunkt :wink:

Alles supi. Ich versuche auch immer alle Seiten zu verstehen.

M.f.G. JVC

robbitop
2021-03-29, 16:50:47
VIA nutzt auch x64_64, wie machen die das? Haben die das Recht auf Reverse Engineering? Oder auch simples Lizenzabkommen?
Die haben auch ein Cross License Agreement mit Intel.

IIRC waren es AMD, Nexgen, Centaur und Cyrix, die das mit Intel hatten/haben. Die letzten beiden wurden von Via aufgekauft. AMD hatte Nexgen gekauft.

Bei Transmeta bin ich mir nicht sicher, ob die eine x86 Lizenz brauchten. Die hatten die x86 Kompatibilität ja über Codemorphing realisiert.

Fragman
2021-03-29, 16:53:04
Ich kann es auch nicht nachvollziehen wie man ein solches Gebaren verteidigen kann.

Also sollen alle ihre Eigenentwicklungen Opensourcen?
Wo zieht man dann die Grenze?
Weil das wuerde ja die Hardware mit einbeziehen.

Nicht falsch verstehen, darueber kann man ja diskutieren.
Nur muss man dann auch Alternativen finden wie heute Produkte entstehen und ihren Weg auf den Markt finden. Weil weder nv noch amd werden sich daran beteiligen, da geh ich jede Wette ein.

Lehdro
2021-03-29, 18:00:36
Die haben auch ein Cross License Agreement mit Intel.

Moment, damit dürfen die Sachen nutzen die Intel extern bekommt? x86_64 ist ja schon ein ziemlicher Sonderfall in der Hinsicht, sonst kommt quasi alles direkt von Intel (SSE, AVX etc).

Sorry 4 OT

unl34shed
2021-03-29, 18:14:45
Also sollen alle ihre Eigenentwicklungen Opensourcen?

Nein, Opensource muss es nicht sein, es wäre dem Markt schon geholfen, wenn möglichst auf offene Standards gesetzt wird. Bzw. es einen Fallback auf diese gibt. Sprich DirectML statt Nvidia proprietär ML, OpenCL statt Cuda, ...

Fragman
2021-03-29, 18:33:47
Das ist ja nicht der Streitpunkt.
Aber Standards kommen irgendwoher. Umd das koennen auch erstmal Costumloesumgen sein.

robbitop
2021-03-29, 18:47:12
Moment, damit dürfen die Sachen nutzen die Intel extern bekommt? x86_64 ist ja schon ein ziemlicher Sonderfall in der Hinsicht, sonst kommt quasi alles direkt von Intel (SSE, AVX etc).

Sorry 4 OT
Es scheint so zu sein. Die neusten Centaur Cores von Zhaoxin (die haben Centaur von Via gekauft) ist auch AVX2 vorhanden. K6000. Der K7000 ist ja schon angekündigt und der Nachfolger.

Ich weiß nicht, in wiefern Centaur auch zur Erweiterung des Instruction Sets beiträgt - aber sie halten IIRC wesentliche Patente, die auch für Intel und AMD wichtig sind. Und IIRC gibt es da auch ständig neue Patente. Damit es nicht zu einem Patentminenfeld wird, welches alle fast handlungsunfähig macht, gibt es eben das Patentaustauschabkommen.

Screemer
2021-03-29, 18:48:11
Wenn sie sie nicht offen sind oder durch Zusammenarbeit getragen werden, dann werden sie auch kein Standard der dem Kunden zu gute kommt. Primär geht es NV doch um sich selbst. aber immer schon unter dem Deckmantel "For Gamers". Lippenbekantnis, sonst nichts.

Niemand will das da was kostenlos für jeden bereit steht. Genau dafür werden Konsortien geschaffen. Das ist das offen von dem hier die Kritiker reden. Ist doch nicht grad so als gäbe es da nicht genug Beispiele auch von NV. Man kann doch auch erst Mal einen Draft einreichen, diesen aber selbst schon in HW implementiert haben.

amdfanuwe
2021-03-29, 18:58:27
Patente laufen auch nach 20 Jahren aus. Also einen Pentium 4 der ersten Stunde dürfte man mitlerweile nachbauen.

Fragman
2021-03-29, 21:00:15
Wenn sie sie nicht offen sind oder durch Zusammenarbeit getragen werden, dann werden sie auch kein Standard der dem Kunden zu gute kommt. Primär geht es NV doch um sich selbst. aber immer schon unter dem Deckmantel "For Gamers". Lippenbekantnis, sonst nichts.

Niemand will das da was kostenlos für jeden bereit steht. Genau dafür werden Konsortien geschaffen. Das ist das offen von dem hier die Kritiker reden. Ist doch nicht grad so als gäbe es da nicht genug Beispiele auch von NV. Man kann doch auch erst Mal einen Draft einreichen, diesen aber selbst schon in HW implementiert haben.

Natürlich geht es nv erst einmal um sich selbst (bzw um die Aktionäre).
Das ein Konsortium nicht automatisch besser sein muss zeigt opengl (in Teilen ja auch DX) und DLSS kann man dahingehend auch positiv sehen. Ohne würde AMD nie an deren Lösung arbeiten. Sowie amd nv gezwungen hat Gsync zu "öffnen". Die Firmen machen das nicht weil sie dem Kunden was gutes tun wollen sondern weil sie im Geschäft bleiben müssen. Deshalb diese Kompromisse wenn man muss und Arroganz wenn man es sich leisten kann (waren das noch Zeiten als man auf demselben Mainboard noch lustig zwischen amd und intel wechseln konnte).

Screemer
2021-03-29, 21:15:57
du hast scheinbar immer noch nicht gerafft, dass hier unverständnis für die argumentation aus herstellersicht besteht.

auch mal ne andere frage: reicht's langsam mit offtopic?

Cyberfries
2021-03-30, 11:51:05
Um mal wieder was zu Navi zu schreiben:
Zu N23 hat sich zuletzt Yuko Yoshidas geäußert (https://www.computerbase.de/2021-03/amd-navi-23-rdna-2-32-cu/), mit Äußerungen die größtenteils auch anderswo bereits genannt wurden,
allerdings einer abweichenden Größe des InfinityCache von 64mb.

Zuvor war von 32mb ausgegangen worden, eine These die nun von Kepler_L2 mit Treibereinträgen (https://twitter.com/Kepler_L2/status/1376611652716617733) unterstützt wird.
Zudem soll Van Gogh auf Inf$ verzichten.

Mit 32mb läuft das auf eine reine FullHd-Karte hinaus, dort ist die Hitrate noch bei etwa 55%, vergleichbar der 4k-Hitrate von N22 (https://www.hardwareluxx.de/community/attachments/infinity-cache-hitrate-scaling-jpg.552097/).
Was aber nicht schlimm sein muss, schließlich soll zwischen der 6700xt und N23 noch ein weiterer N22-Ableger landen - oder gar mehrere.

edit: gerade festgestellt, dass Leonidas auf der Startseite ebenfalls auf das Thema eingeht - nur 90sek zwischen den Beiträgen.

robbitop
2021-03-30, 12:08:25
Mich wundert der Verzicht auf APUs nicht. Der Markt belohnt das leider nicht ausreichend. APUs scheinen dem Großteil des Marktes nur wichtig zu sein, dass das Featureset vorhanden ist und eine gewisse Mindestperformance vorhanden ist. Ich verstehe, dass wir Nerds aus unserer Filterblase das ganze anders sehen als der Gesamtmarkt. ;) (ich gehöre dazu und würde mich über möglichst leistungsfähige APUs für 3D Grafik im 15-28W Raum freuen - leichte 13" Modelle würden davon profitieren)
AMDs Marktanalysen scheinen Ähnliches - zumindest für das Massenmarktmodell - zu ergeben. Ob es noch mal eine zweite Highend APU Linie geben wird -> muss man mal sehen. Es ist die Frage ob sich das lohnt.

Semmel
2021-03-30, 14:01:06
Zudem soll Van Gogh auf Inf$ verzichten.


Das finde ich extrem schade. Gerade bei einer APU mit der für GPUs viel zu geringen Speicherbandbreite hätte der Inf$ Wunder bewirken können.

Achill
2021-03-30, 14:19:56
Mich wundert der Verzicht auf APUs nicht. Der Markt belohnt das leider nicht ausreichend. APUs scheinen dem Großteil des Marktes nur wichtig zu sein, dass das Featureset vorhanden ist und eine gewisse Mindestperformance vorhanden ist. Ich verstehe, dass wir Nerds aus unserer Filterblase das ganze anders sehen als der Gesamtmarkt. ;) (ich gehöre dazu und würde mich über möglichst leistungsfähige APUs für 3D Grafik im 15-28W Raum freuen - leichte 13" Modelle würden davon profitieren)
AMDs Marktanalysen scheinen Ähnliches - zumindest für das Massenmarktmodell - zu ergeben. Ob es noch mal eine zweite Highend APU Linie geben wird -> muss man mal sehen. Es ist die Frage ob sich das lohnt.

Ich sehe das ähnlich, APUs haben im Desktop einfach die geringste Priorität und bei preislich ähnlichen Intel-CPUs auch mit die stärkste Konkurrenz.

Hinzu kommt die begrenzte Fertigungskapazität ... ich denke bei Desktop-APU werden wir auch weiterhin immer nur Ableger aus der Mobil-Sparte sehen, das ist aber auch völlig ausreichend für viele die eben nicht Spielen wollen (oder z.B. dafür eher eine Konsole nutzen) sondern nur (Home)-Office machen.

--
Das finde ich extrem schade. Gerade bei einer APU mit der für GPUs viel zu geringen Speicherbandbreite hätte der Inf$ Wunder bewirken können.

Ja, aus nerdiger Sicht ... ;) - vielleicht kann der L3 bei APUs zu etwas wie einer hybriden IC/L3 gewandelt werden und je nach Last die CPU oder stärker die GPU unterstützen. Ich weiß jedoch nicht ob so etwas machbar bzw. im Verhältnis Aufwand/Nutzen/Kosten ist.

Brillus
2021-04-21, 14:24:29
Lebenszeichen der RX6600m: https://www.heise.de/news/Gaming-Notebooks-Neue-GeForce-und-Radeon-Grafikchips-im-Anmarsch-6023115.html

Muss sagen ist die welche mich am meisten interessiert. Weiß wer zufällig ob da an der Linux front schon was ist?

mczak
2021-04-22, 01:42:57
Lebenszeichen der RX6600m: https://www.heise.de/news/Gaming-Notebooks-Neue-GeForce-und-Radeon-Grafikchips-im-Anmarsch-6023115.html

Muss sagen ist die welche mich am meisten interessiert. Weiß wer zufällig ob da an der Linux front schon was ist?
Das ist doch dimgrey cavefish? Der Support dafür ist in Mesa seit letztem September.

Unicous
2021-04-26, 18:37:42
Eine unverhofft erfreuliche Entwicklung beim neuen Treiber:

https://www.techpowerup.com/img/CLEAJEiI8CDu8b7o.jpg
https://www.techpowerup.com/281483/what-amd-didnt-tell-us-21-4-1-drivers-improve-non-gaming-power-consumption-by-up-to-72

AMD scheint sich der zum Teil grauenhaft hohen Leistungsaufnahme in idle-Szenarien anzunehmen bzw. bei Multi-Monitor und der Medienwiedergabe.

Gute Entwicklung, längst überfällig, leider weiterhin nicht auf dem Niveau von Nvidia und auch Intel afaik.

Es stellt sich die Frage ob da noch was geht, oder man eine weitere Generation warten muss bis man es endlich im Griff hat.

Savay
2021-04-26, 18:40:01
Wie viele dedizierte Intel GPUs in der Größenordnung und Leistungsklasse kennen wir denn bisher so?!

Multimonitor liegt genau wie Idle weiterhin am Framebuffer.
Idle 6-8W ist schon recht Top, ist aber nur möglich wenn die 128MB vom IFC dafür reicht. (hatte ich btw. auch vor 21.4.1 schon problemlos erreichen können!)
Deswegen hängt es "Idle" halt immer davon ab wie man die Karte betreibt. (Gesamtauflösung und Wiederholrate der Displays)

Der IMC scheint m.E. teilweise ne "Copy/Paste" Variation von N10 zu sein und dieser wohl wiederum von P10 und hat irgendwie Problem mit P-States die er anscheinend schon länger mit rumschleppt.
Die Frage ist ob sie das in der nächsten Gen auch wieder durchschleifen, das dann mal korrigieren oder ob es da irgendwann auf den HBM gehen der das ganze Problem eh nie hatte. (Vega64 brauchte mit Multimonitor max. 15-18W...Idle für Singlemonitor allerdings im Grunde auch)

Media Playback finde ich erstaunlicher und nennenswerter BTW.

Unicous
2021-04-26, 18:42:25
Das betrifft nicht nur dedizierte GPUs?:confused:

aufkrawall
2021-04-26, 18:51:10
Es stellt sich die Frage ob da noch was geht, oder man eine weitere Generation warten muss bis man es endlich im Griff hat.
Ich merke keinen Unterschied mit dem neuen Treiber bzw. ist mit 4k 60fps VP9 in Edge immer noch viel schlechter als RDNA1.

Savay
2021-04-26, 18:52:15
Das betrifft nicht nur dedizierte GPUs?:confused:

Das war eher eine Frage wie genau du auf Intel in dem Zusammenhang kommst.
iGPUs haben da ja perse einen Vorteil.
Kann man IMHO schlecht vergleichen, da doch sehr unterschiedliche GPU Klassen.

Der APU DDR4 IMC taktet BTW genau wie die Fabric dynamisch runter und hat ne eigene Clockdomain wenn du das meinst...
Ob die eigene dynamische IMC und IF Clockdomain für Renoir und Cezanne auch für AM4 genutzt wird kann ich nicht sagen aber die HW kann es prinzipiell.

Der IMC von N21 hängt im Gegensatz dazu scheinbar irgendwie stumpf bei 2GHz sobald der "wach" ist.
Und das ist am Ende das was im Idle dann so vergleichsweise "viel" säuft.

Nightspider
2021-04-26, 18:52:46
Savay kannst du das mit dem Framebuffer noch etwas ausführen bitte?

Woran liegts das die großen Karten bei Media Playback erst mehr verbraten haben?

Da sollte ja nur die Video Coding Endinge laufen oder?

Savay
2021-04-26, 18:55:13
Naja wenn die Buffergröße, die für den Desktop nötig ist, halt nicht größer als 128MB ist passt der in den Infinity Cache, der ja unabhängig vom IMC läuft.
Letzterer legt sich dann schlafen, weil der ganze Traffic rein On-Chip läuft und hat dann nen effektiven Takt von evtl. (angezeigten) 40MHz.
Sieht man Overlay eigentlich ganz gut...Die Grenze ist da oft UHD bei 120/144Hz für ein einzelnes Display.
Sobald man eine Grenze überschreitet geht der IMC an und hängt stumpf bei 2GHz (oder was man halt eingestellt hat)

Zum Mediaplayback kann ich nix sagen. ;)
Vielleicht hatten die die VCE ja nicht vollständig genutzt oder irgendwas ist da leicht buggy bei N21?!

aufkrawall
2021-04-26, 18:55:45
Woran liegts das die großen Karten bei Media Playback erst mehr verbraten haben?

VRAM läuft aggressiver mit höchstem Takt als noch bei Navi 10.


Da sollte ja nur die Video Coding Endinge laufen oder?
Auch die ist auf das Mitspielen vom Rest der GPU, IMC und VRAM angewiesen.

Nightspider
2021-04-26, 20:45:04
Das beim Media Playback überhaupt VRAM benötigt wird wundert mich eher. Vor allem bei 128MB IF$. ^^

Braucht Videodecoding in humanen Auflösungen schon "externen" Speicher?

Dachte das wird on the fly decodiert und alles was man braucht passt in irgendwelche Caches.

Selbst UHD BluRays haben ja nur eine Bitrate von 15-30 Mbit/s, also 1,875 - 3,7 MB/s. Das ist doch pillepalle hätte ich gedacht.

robbitop
2021-04-27, 08:23:03
Selbst UHD BluRays haben ja nur eine Bitrate von 15-30 Mbit/s, also 1,875 - 3,7 MB/s. Das ist doch pillepalle hätte ich gedacht.
Die liegt eher zwischen 60-90 Mbit/s. Die UHD-Rips aus dem Netz liegen aber in der Range. Aber der Unterschied ist deutlich sichtbar (insbesondere auf einem großen 4K TV). ;)

Trotzdem ist die Datenrate für eine Grafikkarte auch dann noch ein Hauch von nichts.

Der_Korken
2021-04-27, 09:50:21
Das mit dem I$ ist interessant. Ein 4K-Bild mit 32bit Farbtiefe braucht ziemlich genau 32MB (~31,65MB, wobei ja eigentlich 24bit reichen müssten, denn wozu braucht man einen Alpha-Kanal?) Platz. Double-buffered sind das 64MB, die sowohl in I$ von N21 und N22 passen. Bei N21 würden rechnerisch sogar zwei 4K-Framebuffer in den I$ passen, auch wenn da wahrscheinlich noch anderer Overhead drin ist, der das verhindert. Bei kleinerer Auflösung z.B. 1440p müssten zwei Monitore aber problemlos in den I$ passen bei beiden Chips. Leider steht bei dem Diagramm auf der vorigen Seite nicht bei mit welcher Auflösung das getestet wurde. Die Refreshrate müsste doch aber egal sein, weil dadurch braucht der Framebuffer ja nicht mehr Platz sondern wir nur öfter aktualisiert oder?

Aber selbst wenn der I$ nicht reicht: Wenn man 2x4K@144Hz betreibt, sind das zweimal 32MB Framebuffer, die pro Sekunde 144 mal gelesen und 144 mal geschrieben werden, also 36GB/s. Mit 256bit SI bräuchte man rechnerisch einen effektiven (!) Takt von 1152Mhz um das zu stemmen. Lass es mal 2Ghz sein, das wäre 1/8 vom max. Takt mit dem IMC und VRAM laufen müssten, um im idle diese Config zu stemmen. Das sollte eigentlich deutlich sparsamer als mit 40-50W gehen. Rechnet man mit 24bit Farbtiefe braucht man nochmal 25% weniger Bandbreite und bei 60 statt 144Hz nochmal gute 50% weniger.

Lurtz
2021-04-29, 13:51:27
Bei Metro Exodus kann man AMDs Super Resolution schonmal abschreiben, sie sagen es wäre nicht kompatibel mit ihrem Rendering. Außerdem behaupten sie ihr eigenes TAA Upsampling wäre gleich gut oder besser - man kann nur hoffen, dass das nur Marketing ist, sonst wäre Super Resolution ein ziemlicher Flop:
https://pbs.twimg.com/media/E0E5poNXIAU0Buo?format=jpg&name=medium

HOT
2021-04-29, 16:37:53
So wird das in einem Großteil der Fälle laufen, die Engineentwickler werden in Zukunft DLSS und FSR kaum nutzen und ihre eigenen Techniken entwickeln. Das ist insbesondere deshalb sinnvoll, weil sie dadurch eine möglich effiziente Technik für ihre Bedürfnisse entwickeln können, die alle GPUs nutzen können. Wir haben demnächst 3 Player im Markt, vielleicht mit Chinesischem PowerVR-Gedöns sogar 4. Proprietäre Techniken sind eben kacke. Das war ja schon länger absehbar. FSR ist eigentlich nur als günstige Technik für Konsolenversionen und deren Ports ne sinnvolle Option.

basix
2021-04-29, 16:52:29
So wird das in einem Großteil der Fälle laufen, die Engineentwickler werden in Zukunft DLSS und FSR kaum nutzen und ihre eigenen Techniken entwickeln. Das ist insbesondere deshalb sinnvoll, weil sie dadurch eine möglich effiziente Technik für ihre Bedürfnisse entwickeln können, die alle GPUs nutzen können. Wir haben demnächst 3 Player im Markt, vielleicht mit Chinesischem PowerVR-Gedöns sogar 4. Proprietäre Techniken sind eben kacke. Das war ja schon länger absehbar. FSR ist eigentlich nur als günstige Technik für Konsolenversionen und deren Ports ne sinnvolle Option.

FSR ist Open Source ;) Entwickler können das bei Bedarf auf ihre Bedürfnisse anpassen.

aufkrawall
2021-04-29, 17:04:45
Bei Metro Exodus kann man AMDs Super Resolution schonmal abschreiben, sie sagen es wäre nicht kompatibel mit ihrem Rendering. Außerdem behaupten sie ihr eigenes TAA Upsampling wäre gleich gut oder besser - man kann nur hoffen, dass das nur Marketing ist, sonst wäre Super Resolution ein ziemlicher Flop:
https://pbs.twimg.com/media/E0E5poNXIAU0Buo?format=jpg&name=medium
Laut AMDs letzten Statements von vor ein paar Wochen ist FSR noch weit davon entfernt, spruchreif zu sein. 4A Games wollen aber jetzt schon wissen, dass ihr TAAU besser wäre. Wenn das nicht zum Himmel stinkt. :freak:
Letztlich kann nur die Zeit zeigen, was stimmt. Aber ich traue diesem Defakto-Beschiss-Entwickler auch zu, völligen FUD-Müll in die Welt zu setzen...

Nightspider
2021-04-29, 17:14:46
Vielleicht haben sie von Nvidia noch einen Scheck bekommen für die neue Metro Exodus Enhanced Edition.

Lässt die NV Karten dank RT only und DLSS natürlich in einem guten Licht dastehen.

dildo4u
2021-04-29, 17:32:38
Wenn AMDs DLSS 2021 kommen soll müssen Entwickler jetzt wissen wie es funktioniert.
Das finde ich nicht sonderlich erstaunlich, AMD wird natürlich drauf achten das es in Unreal und Unity geht aber Metro nutzt z.b eine komplette Eigenentwicklung.

gruntzmaker
2021-04-29, 21:40:50
Bei AMDs FSR muss man halt abwarten, ob die Technik einen richtigen Mehrwert bringt.

Es hat sich nie empfohlen, Hardware nach Potential zu kaufen.

Mit RDNA2 testet AMD ein wenig, wie eine vernünftige Raytracing Implementierung auszusehen hat.

Ernsthaft damit beschäftigt haben sie sich damit eher nicht, glaube ich.
Glänzendes Beiwerk, aber RDNA2 ist keine richtige Raytracing Generation, da war schon Turing weiter. Muss man zugeben.

Bei meiner RX 6800 schalte ich das jedenfalls nie ein, dafür hat die Karte einfach zu wenig Leistung. Raster Leistung ist dafür ohne Ende da. Muss erstmal reichen, mal sehen, was RDNA3 können wird oder Intel.

w0mbat
2021-04-29, 23:59:07
Vielleicht haben sie von Nvidia noch einen Scheck bekommen für die neue Metro Exodus Enhanced Edition.

Lässt die NV Karten dank RT only und DLSS natürlich in einem guten Licht dastehen.
Klar, das ganze Teil ist exklusiv von Nvidia finanziert, sonst würden wir das nicht sehen. Aber trotzdem geil.

Unicous
2021-04-30, 21:16:37
4A Games has not evaluated the AMD FidelityFX Super Resolution feature for Metro Exodus at this time. In our FAQ, we were referring to the AMD FidelityFX open source image quality toolkit which targets traditional rendering techniques that our new RT only render does not use, and noting that we have our own Temporal Reconstruction tech implemented natively which provides great quality benefits for all hardware, so do not currently plan to utilize any other toolkits.

4A Games is always motivated to innovate, evaluate, and use the newest technologies that will benefit our fans across all platforms and hardware.
https://videocardz.com/newz/metro-exodus-will-not-support-amd-fidelityfx-super-resolution-fsr

gruntzmaker
2021-04-30, 22:48:43
https://videocardz.com/newz/metro-exodus-will-not-support-amd-fidelityfx-super-resolution-fsr

Für den Entwickler ist das Statement doch auch nicht so geschickt gewesen.

Ich könnte das fünf Mal hintereinander lesen, immer hätte ich denselben Eindruck: "Wir beschäftigen uns gar nicht richtig mit AMD".

Für Spieler, die mehrere hundert Euros für so eine Karte ausgegeben haben, natürlich auch ein recht giftiger Kommentar. Also das macht ja Freude :D.

Zu FSR kann man also nichts finden, aber AMD steckt imho derzeit richtig in der Tinte, wenn sie so von wenigstens einem Entwickler wahrgenommen werden.

Edit: aaand it's gone :D

https://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/News/4A-Games-entfernt-Verweise-auf-AMD-Super-Resolution-aus-den-FAQs-1371312/

Hübie
2021-05-07, 12:20:16
FSR kommt iirc 2022. Für dieses Jahr hat man da keinerlei Ambitionen. Quelle? Meine Erinnerung aus einem Tweet eines AMD Mitarbeiters.

Letzten Endes ist jeglicher properitärer Kram vor- und nachteilbehaftet, was wir hier eh nicht ändern können.
AMD hat jetzt Turing's Raytracing Leistung und Ampére's Performance erreichen können, was imo mehr als beachtlich ist, wenn man bedenkt dass die Radeon VII der Nvidia Technologie ca 4 Jahre hinterher hinkte (zumindest in puncto Gaming und Features, also bitte keinen rant starten :D). AMD verkürzt jetzt auf 2 Jahre und hat unter Umständen im nächsten Jahr die Möglichkeit gleichzuziehen.
Ich hätte nie erwartet das RDNA2 in Form der 6800XT der 3080 so die Stirn bieten könnte und dabei auch noch effizienter zu werke geht.

4A Games ist so ein kleines Licht, dass sie nicht unabhängig sein können. Daher ist es schon aus ökonomischer Sicht verständlich, dass man weiter Schecks von Nvidia braucht um erfolgreich zu sein. AMD müsste einfach nur beweisen dass deren Technologie mehr Sparpotenzial bietet, als Nvidia überweist, aber AMD hat einfach keine Fachabteilung für sowas, die groß genug ist.

davidzo
2021-05-07, 13:32:28
4A Games ist so ein kleines Licht, dass sie nicht unabhängig sein können. Daher ist es schon aus ökonomischer Sicht verständlich, dass man weiter Schecks von Nvidia braucht um erfolgreich zu sein. AMD müsste einfach nur beweisen dass deren Technologie mehr Sparpotenzial bietet, als Nvidia überweist, aber AMD hat einfach keine Fachabteilung für sowas, die groß genug ist.

Da gibt es keine Schecks, das wäre nur ein Grund für eine erfolgreiche anittrust Klage. Nee, nvidia stellt Tools und Entwickler bereit um deren Code zu reviewen, aufzuräumen, Renderingfeatures einzubauen und performance tuning zu machen wenn das studio es nicht selber kann/möchte.

Hübie
2021-05-07, 13:47:22
Das war auch eher sinnbildlich gemeint, da ich sehr wohl weiß wie die Branche läuft ;-) NVIDIA kauft sich seit Jahren auf diese Art ein und die haben eben auch einen gewissen Charm dabei. Gelder fließen nicht direkt, aber wenn ich ein wenig Hardware liegen lasse, dann lehnt das sicher keiner ab - schon gar nicht in diesen Zeiten.

dargo
2021-05-07, 13:53:11
FSR kommt iirc 2022.
Angeblich nächsten Monat.
https://videocardz.com/newz/coreteks-amd-fidelityfx-super-resolution-fsr-to-launch-in-june

So wie ich das aber verstehe wird nur die Technologie vorgestellt. Bis Spiele FSR verwenden vergehen sicherlich weitere Monate. Keine Ahnung ob auch Patches für vorhandene Spiele kommen. Je nach Aufwand/Nutzen halt.

gruntzmaker
2021-05-07, 14:45:19
Angeblich nächsten Monat.
https://videocardz.com/newz/coreteks-amd-fidelityfx-super-resolution-fsr-to-launch-in-june

So wie ich das aber verstehe wird nur die Technologie vorgestellt. Bis Spiele FSR verwenden vergehen sicherlich weitere Monate. Keine Ahnung ob auch Patches für vorhandene Spiele kommen. Je nach Aufwand/Nutzen halt.

Meine Hoffnung war, dass es eventuell doch noch den Maschinenlern Ansatz verfolgt. Aber das sieht eher nach einer Lösung aus, die schon genauso gut in bestehenden Spielelösungen existiert.

Warten wir mal ab...

basix
2021-05-07, 16:52:04
Mir ist als Spieler egal, was die zugrunde liegende Technik ist. Da ist einzig und alleine Performance und Qualität wichtig. Beim Vergleich mit DLSS 2.0 erhoffe ich mir zumindest vergleichbare Qualität, auch wenn der Performance-Sprung dann evtl. etwas geringer sein sollte. Hier geht für mich Qualität vor.

aufkrawall
2021-05-07, 17:15:51
Da ist nur die Frage, wo die Qualität herkommen soll.
Es muss imho zwingend ein temporales Upsampling sein, denn anders kann man keinen stabilen SSAA-Effekt haben. Und ohne Deep Learning fällt da schon mal ein großes Potenzial weg. Vielleicht gibt es noch andere Möglichkeiten, aber ich wär erstmal skeptisch. Wobei sich AMD auch noch sehr im Vagen hält, vielleicht gibts ja doch noch Deep Learning.

gruntzmaker
2021-05-07, 18:12:09
Da ist nur die Frage, wo die Qualität herkommen soll.
Es muss imho zwingend ein temporales Upsampling sein, denn anders kann man keinen stabilen SSAA-Effekt haben. Und ohne Deep Learning fällt da schon mal ein großes Potenzial weg. Vielleicht gibt es noch andere Möglichkeiten, aber ich wär erstmal skeptisch. Wobei sich AMD auch noch sehr im Vagen hält, vielleicht gibts ja doch noch Deep Learning.

Radeon ML wird es schon nicht ohne Grund geben und bei XBox Series X arbeitet Microsoft zusammen mit AMD an einer DirectML Umsetzung für die Konsole. Ich glaube, dass das schon bei AMD ernst genommen wird.

Ob man für einen solchen Ansatz zwingend Tensorkerne benötigt, wäre da schon interessant zu wissen.

ChaosTM
2021-05-07, 19:19:51
1kOxGHv4Zuw


Er sagt auch "bald".
Und ja, es ist der selbe Typ der einen Ampere Coprozessor prognostiziert hat :freak:

Hübie
2021-05-07, 19:23:16
Iirc hat DLSS den Vorteil gegenüber klassischen Verfahren wie Checkerboard Rendering, dass es Bewegungsvektoren als Datenquelle nutzt. Es wäre zumindest wünschenswert, dass AMD dies auch beherrscht. Der Hinweis dass es in einer frühen Stufe der Pipeline ansetzt deutet zumindest auch darauf hin...

aufkrawall
2021-05-07, 21:01:43
Iirc hat DLSS den Vorteil gegenüber klassischen Verfahren wie Checkerboard Rendering, dass es Bewegungsvektoren als Datenquelle nutzt.
Natürlich nutzt auch TAA und damit temporales Upsampling Bewegungsvektoren, das ist nicht neu an DLSS.

Der ganze angebliche "Leak" geht btw. auf diesen Coreteks-Laberer zurück. Ich würd komplett ignorieren, was der sich aus den Fingern et al. zieht.

robbitop
2021-05-07, 22:58:31
Iirc hat DLSS den Vorteil gegenüber klassischen Verfahren wie Checkerboard Rendering, dass es Bewegungsvektoren als Datenquelle nutzt. Es wäre zumindest wünschenswert, dass AMD dies auch beherrscht. Der Hinweis dass es in einer frühen Stufe der Pipeline ansetzt deutet zumindest auch darauf hin...

Die Bewegungsvektoren sind nicht die Quelle der Samples. Die Samples kommen vom Wechsel der Subpixelposition pro Pixel, die dann verrechnet werden. Das Problem ist, wenn das Bild nicht statisch ist. Dann käme da nur Müll heraus. Also muss gesucht werden, wo die Objekte, die gesampelt werden hin sind und ob die Samples überhaupt sinnvoll nutzbar sind. Das nennt sich clamping. TAA und Checkerboard machen genau das mit festen Heuristiken. Das hat halt Limitierungen in der Hinsicht wie viele Samples man artefaktfrei aufakkumulieren kann.

Der Vorteil von DLSS ist, dass statt einer Heuristik ein NN zum clamping genutzt wird. Und das ist deutlich besser darin. Resultat: es können im Mittel artefaktnormiert wesentlich mehr Samples genutzt werden.

Nvidia hat dazu ein sehr gutes Video was es gut erklärt. Kann ich nur empfehlen.

Hübie
2021-05-07, 23:13:49
Natürlich nutzt auch TAA und damit temporales Upsampling Bewegungsvektoren, das ist nicht neu an DLSS.

Der ganze angebliche "Leak" geht btw. auf diesen Coreteks-Laberer zurück. Ich würd komplett ignorieren, was der sich aus den Fingern et al. zieht.

Ich bin mir nicht sicher, aber ich glaube die nutzen nur samples im frame buffer, was nicht das Gleiche wäre.

@robbitop: Exakt. Man könnte das mit user input data koppeln und die KI gesteuerten Elemente zusätzlich interpolieren. Ob DLSS soweit geht bezweifle ich zwar, aber auch hier könnte AMD den Hebel ansetzen. Das wäre dann jedoch immer ein (kleiner) trade off bzgl. input lag, schätze ich.

gruntzmaker
2021-05-08, 11:53:24
Das Interessante an der Geschichte wäre, dass AMD FSR Open Source werden soll.

Dadurch ist mit einem Schlag eine Verbreitung da, die DLSS möglicherweise nie erreichen wird.

Abgesehen davon wäre es eine Technologie, die auch Benutzer von älteren Karten nutzen könnten, unabhängig vom Hersteller. Da muss diese Technik nicht einmal mehr genauso gut sein.

Nutzerbasis, der Chipmangel, die aktuelle schwierige Situation auf dem Markt, dazu passt FSR quasi wie die Faust aufs Auge. Könnte AMDs größter Triumph dieses Jahr werden oder die größte Pleite ;).

KarlKastor
2021-05-08, 11:58:20
Naja, was verstehst du unter genauso gut? Weniger Performance? Geschenkt. Aber wenn die Bildqualität merklich schlechter ist kann man es vergessen.

gruntzmaker
2021-05-08, 12:57:56
Naja, was verstehst du unter genauso gut? Weniger Performance? Geschenkt. Aber wenn die Bildqualität merklich schlechter ist kann man es vergessen.

Weniger Leistung meine ich tatsächlich mit "nicht genauso gut".

Aber warten wir es einfach ab. Das wird sicher brauchbar werden.

Leonidas
2021-05-11, 12:11:03
Komachi @ Twitter
ASRock Radeon RX 6600 XT @ EEC

https://twitter.com/KOMACHI_ENSAKA/status/1392052910129762305

Locuza
2021-05-12, 21:47:32
https://lists.freedesktop.org/archives/amd-gfx/2021-May/063475.html

Beige Goby Linux patches wurden von AMD eingeliefert, Navi24 kann nicht mehr soweit entfernt sein.
Vermutlich ist das dann auch der letzte dGPU-Chip auf Basis von RDNA2.

Beige Goby/Navi24 scheint dabei ein halbierter Dimgrey Cavefish/Navi23 zu werden.
64-Bit GDDR6, 16MiB Infinity Cache/LLC, nur eine SDMA-Engine.
Anders als die ersten Gerüchte verlauten ließen mit 24 Compute Units = 1536 Shader Cores wie bei Navi14, weißt Navi24 nur 4WGPs/8CUs pro Shader Array auf.
Mit einer Shader Engine sollten es dann 1024 Shader Cores sein.

amdfanuwe
2021-05-12, 22:03:32
Hab jetzt keinen Plan von den Daten. Könnte es sich dabei um Einträge für Van Gogh handeln?

Locuza
2021-05-12, 22:45:51
Nein, Van Gogh hat seine Patchreihe schon früher bekommen und verwendet eine iGPU mit 4 WGPs/8 Compute Units = 512 Shader Cores.
Zusätzlich fehlt Van Gogh ein Infinity Cache auf der iGPU-Seite.

amdfanuwe
2021-05-12, 23:03:49
weißt Navi24 nur 4WGPs/8CUs pro Shader Array auf.
Mit einer Shader Engine sollten es dann 1024 Shader Cores sein.
Nein, Van Gogh hat seine Patchreihe schon früher bekommen und verwendet eine iGPU mit 4 WGPs/8 Compute Units = 512 Shader Cores.

Wie kommst du mit 4WGPs/8CUs einmal auf 512 SC und bei N24 auf 1024 SC? Bin jetzt verwirrt.

Könnte N24 klein genug sein um bei Raphael anstelle des 2ten CPU Dies verbaut zu werden? Also Rphael nur als 6 und 8 Core APU?

Locuza
2021-05-12, 23:33:55
Pro Shader Engine können bis zu zwei Shader-Arrays verbaut werden.
Navi24 verwendet zwei Shader-Arrays, also 2x 4 WGPs / 8 Compute Units / 512 Shader Cores = 1024 Shader Cores insgesamt.
Van Gogh verwendet dagegen nur ein Shader-Array, also 1x 4 WGPs /8 Compute Units / 512 Shader Cores = 512 Shader Cores insgesamt.

Die Linux-Patches geben nur an wie groß ein Shader-Array ist, denn pro Shader-Array wird ein 128KiB großer L1$ verbaut.
Dieser L1$ wird bei Navi24 von 4WGPs/8Compute Units = 512 Shader Cores geteilt.
Aufgrund dessen das es eine dGPU ist und immerhin einen Infinity Cache hat, kann man sehr sicher davon ausgesehen, dass die dGPU zwei Shader-Arrays hat.
Mehr Shader Engines wird der Chip nicht haben, denn dann wäre er deckungsgleich mit Navi23, abseits vom Speicherinterface und dem Infinity-Cache.

Van Gogh ist eine Zen2-Quadcore APU mit 4 WGPs/ 8 Compute Units.
Das haben extrahierte Firmwaredaten von AMD verraten, welche explizit nur ein Shader-Array pro SE angeben, Quelle:
https://www.reddit.com/r/Amd/comments/j7bpzs/an_update_on_navi_2x_firmware/

Man kann die Dateien herrunterladen und einfach mit dem Windows-Texteditor öffnen.
Bei Van Gogh steht folgendes:
"num_sa_per_se: 1"

Also ausgeschrieben: Number of Shader-Arrays per Shader Engine = 1.

Bei Navi21-23 steht bei dem Eintrag 2 und das sollte ebenso auf Navi24 zutreffen.

Zur Verbildlichung des GPU-AUfbaus kann man sich Navi21&Navi22 im Vergleich anschauen:
https://twitter.com/Locuza_/status/1364726115965796356


__________

Ich selber gehe davon aus das Raphael eine GPU verbaut bekommt, die nur wenige WGPs/Compute Units hat und primär dazu da ist Grafik auszuspucken und Media-De/Encoding zu betreiben.
Intel hat das als Hauptgrund genannt, warum RKL überhaupt eine iGPU hat, in der Geschäftswelt ist das teilweise ein Muss.
Dem möchte scheinbar auch AMD bei "normalen" CPU-Produkten in irgendeiner Weise nachkommen.

Allerdings sollte AMD wie Intel minimalistisch vorgehen, also wenige CUs, wenig Flächenverbrauch, soviel um die Grundansprüche befriedigen zu können und nicht unbedingt mehr.
Ich weiß aber nicht was AMD treiben wird, die iGPU im IOD verbauen und bei einigen Modellen aktivieren?
Oder ein separates Chiplet stattdessen verwenden?

davidzo
2021-05-13, 00:07:44
@Locuza, danke für die neuen Infos!

Wie kommst du mit 4WGPs/8CUs einmal auf 512 SC und bei N24 auf 1024 SC? Bin jetzt verwirrt.

Könnte N24 klein genug sein um bei Raphael anstelle des 2ten CPU Dies verbaut zu werden? Also Rphael nur als 6 und 8 Core APU?

Raphael ist doch noch lange nicht spruchreif, da wird N24 schon über ein jahr alt sein wenn der rauskommt.

Erstmal steht auch Rembrandt an und da hat man 1x Shader Engine mit zwei Shader Arrays wie bei Navi24, allerdings nur noch 3 WGPs/DCUs bzw. 6 CUs pro Array.

AMD verringert dadurch die Raster/vertex/Geometry Leistung und Rop Leistung nicht in demselben Maße wie die Rechenleistung. Zudem gibt es mehr Bandbreite pro WGP, was Sinn macht denn die Hitrate von einem 16mb winzigen L3 cache ist schon bei FHD nicht mehr die Bombe.

Anstatt die Architektur nur über SEs oder SHs zu skalieren, verringert AMD lieber die Anzahl an ALUs in den WGPs/CUs. Zuerst von den 10CUs pro SH bei Navi 21/22 auf 8 bei Navi23-24+VG und bei Rembrandt dann auf nur noch 6.

amdfanuwe
2021-05-13, 04:47:14
OK, danke Jungs. Hab mich bisher nur um CUs gekümmert und den internen Aufbau nicht verfolgt.
Wenn ichs recht sehe ware die 24 CUs bei N14 dann mit 12 CU/WGP in einem SA.

Chip:SE*SA*DCU/WGP/128Shader=DCU:CU
N10:2*2*5 = 20: 40
N12:2*2*5 = 20: 40 (HBM SI)
N14:1*2*6 = 12: 24

N21:4*2*5 = 40:80
N22:2*2*5 = 20:40
N23:2*2*4 = 16:32
N24:1*2*4 = 8:16
VG :1*1*4 = 4: 8
Rem:1*2*3 = 6:12

RX6800XT: ??? =36:72 ; in 4 Shader Arrays eine DCU deaktiviert?
RX 6800 : 3*2*5 = 30:60
RX 6500XT : 2*2*3 = 12:24 ; N23 mit 4 deaktivierten DCU?

---------
Warum muß die GPU eigentlich mit auf die CPU? Warum nicht Boards mit kleiner GPU drauf oder im Chipsatz. War früher doch auch eine akzeptable Lösung.
Bei der APU war noch der Gedanke an Heterogenes Computing. Hat sich aber anscheinend erledigt.
Eine kleine IGPU taugt nur für Office und nicht wirklich für akzeptables FHD Gaming. Da reicht dann aber auch eine APU.
Deshalb mein Gedanke an eine ordentliche GPU bei Rembrandt für E-Sports und den weniger anspruchsvollen Gamer, ideal für Kistenschieber, die das dann noch als Gaming PC verkaufen.
Ob jetzt N24 oder was anderes, zumindest mit mehr GPU Leistung als Rembrandt bietet.
Von daher finde ich N24 mit 16CU etwas schwach. Obwohl, könnte die Leistung einer 480XT bzw. 5300 - 5500XT haben.

Der_Korken
2021-05-13, 10:28:48
---------
Warum muß die GPU eigentlich mit auf die CPU? Warum nicht Boards mit kleiner GPU drauf oder im Chipsatz. War früher doch auch eine akzeptable Lösung.
Bei der APU war noch der Gedanke an Heterogenes Computing. Hat sich aber anscheinend erledigt.
Eine kleine IGPU taugt nur für Office und nicht wirklich für akzeptables FHD Gaming. Da reicht dann aber auch eine APU.

Abseits von "gibt Bild aus" sollte eine iGPU auch 4K-Youtube-Videos abspielen können und Videokonferenzen mit 10 Teilnehmern flüssig wiedergeben können. Wenn sie schwach oder zu alt ist (neuere Codecs nicht unterstützt), bringt sie herzlich wenig imho. Die Idee eine iGPU auf den IOD zu packen, finde ich besser. Es kommt anders als beim Notebook ja nicht drauf an, das letzte Watt einzusparen, sodass ein alter Prozess ausreichend ist. Außerdem bekommt man bei einer neueren CPU auch direkt eine neuere iGPU, falls man das Board mehrere Jahre behält.

basix
2021-05-13, 11:31:58
Genau, Multimedia-Beschleunigung ist wichtig. Intels Quick-Sync ist auch nicht schlecht.

Ich selber gehe davon aus das Raphael eine GPU verbaut bekommt, die nur wenige WGPs/Compute Units hat und primär dazu da ist Grafik auszuspucken und Media-De/Encoding zu betreiben.
Intel hat das als Hauptgrund genannt, warum RKL überhaupt eine iGPU hat, in der Geschäftswelt ist das teilweise ein Muss.
Dem möchte scheinbar auch AMD bei "normalen" CPU-Produkten in irgendeiner Weise nachkommen.

Allerdings sollte AMD wie Intel minimalistisch vorgehen, also wenige CUs, wenig Flächenverbrauch, soviel um die Grundansprüche befriedigen zu können und nicht unbedingt mehr.

Eine Mini iGPU mit 4 CUs sollte solche Bedürfnisse mehr als befriedigen können. Bei Raphael wird es ja anscheinend RDNA2. Die hat etwa +28% IPC zu Vega (siehe CB Test von RDNA1) und vermutlich mehr Takt als die heutigen iGPUs, z.B. 2.2GHz. Nehmen wir einen 4800U mit 1750MHz und 8 CUs als Basis, kommen wir bei 80% der Leistung raus. Da Mobile die maximalen Taktraten eh nicht halten kann, wird man unter realen Belastungsszenarien ähnlich schnell wie eine 4800U iGPU sein. Und es wird hoffentlich niemand behaupten, diese wäre langsam (für iGPU Verhältnisse ;))



Ich weiß aber nicht was AMD treiben wird, die iGPU im IOD verbauen und bei einigen Modellen aktivieren?
Oder ein separates Chiplet stattdessen verwenden?

Im IOD würde theoretisch am meisten Sinn machen. Aber nur, wenn es 7nm IOD ist und man eine iGPU auch auf allen CPUs haben will (Produktpolitik). Ist es 12LP+, würde ich ein iGPU Chiplet machen (6nm). Die GPU besteht ja nicht nur aus den CUs. Frontend, Video Engine und Display Controller gehören auch dazu und machen schon was an Fläche aus. Wenn man dann schon ein Chiplet macht, ist dann aber die Frage wie viel Flächenunterschied zwischen 4-8 CUs bestehen, wenn man den Rest gleich lässt.

Ich tendiere bei Zen 4 auf 12LP+ für das IOD und 3x xGMI Ports. Dann kann man bis zu 3x CCDs oder 2x CCD + 1x iGPU verbauen. AMD hätte dann am Desktop theoretisch 6-8C + 12 CUs (APU), 6-16C + 8CUs und 18-24C ohne GPU im Angebot.

Nightspider
2021-05-13, 11:37:26
Da fällt mir ein:

Wenn der Zen4 IOD mit integrierter Grafik auch wieder in einem Z670 Board als Chipsatz genutzt wird dann hätte man ja sogar schon eine Grafikeinheit auf dem Mainboard. Vielleicht kann man die auch sinnvoll nutzen.

basix
2021-05-13, 11:39:25
Das bezweifle ich irgendwie. Wo soll die Speicherbandbreite herkommen? Und Chipsatz + IOD GPU wäre Verschwendung, da man mit grosser Wahrscheinlichkeit eine von beiden nicht nutzen kann.

Brillus
2021-05-13, 14:12:09
OK, danke Jungs. Hab mich bisher nur um CUs gekümmert und den internen Aufbau nicht verfolgt.
Wenn ichs recht sehe ware die 24 CUs bei N14 dann mit 12 CU/WGP in einem SA.

Chip:SE*SA*DCU/WGP/128Shader=DCU:CU
N10:2*2*5 = 20: 40
N12:2*2*5 = 20: 40 (HBM SI)
N14:1*2*6 = 12: 24

N21:4*2*5 = 40:80
N22:2*2*5 = 20:40
N23:2*2*4 = 16:32
N24:1*2*4 = 8:16
VG :1*1*4 = 4: 8
Rem:1*2*3 = 6:12

RX6800XT: ??? =36:72 ; in 4 Shader Arrays eine DCU deaktiviert?
RX 6800 : 3*2*5 = 30:60
RX 6500XT : 2*2*3 = 12:24 ; N23 mit 4 deaktivierten DCU?

---------
Warum muß die GPU eigentlich mit auf die CPU? Warum nicht Boards mit kleiner GPU drauf oder im Chipsatz. War früher doch auch eine akzeptable Lösung.
Bei der APU war noch der Gedanke an Heterogenes Computing. Hat sich aber anscheinend erledigt.
Eine kleine IGPU taugt nur für Office und nicht wirklich für akzeptables FHD Gaming. Da reicht dann aber auch eine APU.
Deshalb mein Gedanke an eine ordentliche GPU bei Rembrandt für E-Sports und den weniger anspruchsvollen Gamer, ideal für Kistenschieber, die das dann noch als Gaming PC verkaufen.
Ob jetzt N24 oder was anderes, zumindest mit mehr GPU Leistung als Rembrandt bietet.
Von daher finde ich N24 mit 16CU etwas schwach. Obwohl, könnte die Leistung einer 480XT bzw. 5300 - 5500XT haben.Speicherinterface würde ich sagen früher war das im Chipsatz. Wenn es nun im Chipsatz wäre müsste man da alle daten mit durch die PCIe Lanes drücken.

Cyberfries
2021-05-13, 14:33:16
Wenn N23 wie von Leonidas geschätzt auf 900-1150% rauskommt werden das ausgehend von der Effizienz der bisherigen Karten
ca.150w bei der 6600 und ca.175w bei der 6600xt. Also 5600xt / 5700 - Ersatz.
Ein wenig enttäuschend, dass es nichts wirklich sparsames geben soll, N24 ist uninteressant.
Aber das ist auch eine Folge des eng gesteckten Portfolios mit im Schnitt unter 14% Abstand zwischen den Karten.

...dann aber die Frage wie viel Flächenunterschied zwischen 4-8 CUs...

Fläche wird nicht der begrenzende Faktor sein, sondern Speicherbandbreite und wo ein sinnvoller Platz im Portfolio gefunden wird.

...und 18-24C ohne GPU im Angebot.

Angeblich soll mit AM5-Zen4 die Kernzahl nicht weiter steigen.

...Wenn der Zen4 IOD mit integrierter Grafik auch wieder in einem Z670 Board als Chipsatz genutzt wird ....

Soll angeblich wieder von Asmedia kommen.
Verständlich, wozu einen Riesenchip in teuren 12/14nm, der dann auch noch aktive Kühlung braucht, wenns 55nm auch tun?
GPU im Chipsatz ist sowieso ne blöde Idee, wenn RAM per CPU angebunden wird.

basix
2021-05-13, 15:58:12
Fläche wird nicht der begrenzende Faktor sein, sondern Speicherbandbreite und wo ein sinnvoller Platz im Portfolio gefunden wird.
Nein, Fläche wird nicht der limitierende Faktor sein. Deswegen komme ich ja damit. 4CU wären als minimalst iGPU genug, 8CU kosten vermutlich nicht viel mehr, widerspricht aber dem "Minimal iGPU" Gedanken.

Bei der Speicherbandbreite habe ich keine Bedenken. Mit DDR5 wird sich die Bandbreite eh verdoppeln (80-100GB/s) und ein CCD ist bei Read (Zen 2/3) mit voller Bandbreite via xGMI angebunden (Read ist auch bei GPUs der häufigere Fall). Notfalls kommt noch 16MByte Infinity Cache auf die GPU, welche bei 1080p schon etwa +30...50% Bandbreiteneffizienz bringt.

Angeblich soll mit AM5-Zen4 die Kernzahl nicht weiter steigen.
"Angeblich", du sagst es ;) Wer weiss, evtl. hat es 3x xGMI und vorerst kommt nur 16C + iGPU. Später bei Zen 4 Refresh oder Zen 5 mit dem selben IOD 24C, werden wir sehen.

Gipsel
2021-05-14, 18:43:08
xGMI ist für Epyc die Verbindung zum zweiten Sockel. On-Package hieß das bisher schlicht GMI.

dildo4u
2021-05-17, 09:13:07
6600XT nutzlos im Ryzen Notebook?
Schätze mal kaum einer wird Tiger Lake plus AMD GPU bauen.


https://www.igorslab.de/en/amd-radeon-rx-6600-xt-with-8-gb-memory-same-bandwidth-limit-as-the-rx-5500-xt/4/

davidzo
2021-05-17, 12:05:35
Deshalb mein Gedanke an eine ordentliche GPU bei Rembrandt für E-Sports und den weniger anspruchsvollen Gamer, ideal für Kistenschieber, die das dann noch als Gaming PC verkaufen.
Ob jetzt N24 oder was anderes, zumindest mit mehr GPU Leistung als Rembrandt bietet.
Von daher finde ich N24 mit 16CU etwas schwach. Obwohl, könnte die Leistung einer 480XT bzw. 5300 - 5500XT haben.

Eine größere GPU als 12CU macht wohl noch keinen Sinn bei der Speicherbandbreite. Vega8 ist in Games, bzw. abseits von 3dmark beinahe gleichauf mit einer Iris G7 trotz Defizit von fast 50% der Alu-power. Das liegt daran dass beide IGPs derzeit häufig im Bandbreitenlimit operieren.

RDNA ist clock for clock gute 30% schneller als Vega und taktet richtung 2,5Ghz, erst recht bei 6nm+. Vega ist derzeit bei biszu 2Ghz (2,1 im desktop), kann das aber gerade in den U-Skus nicht lange halten.
Bei 12CUs kann man also gut mit einer Verdopplung der Rohleistung im Vergleich zur Vega8 rechnen.

DDR5 bringt aber keine Verdopplung. DDR5-4800 sind gerade mal 38,4gb/s im vergleich zu 25,6gb/s bei DDR4-3200 pro channel. Das sind in Summe klar unter 100gb/s. Mehr als GTX1050ti Leistung bzw. knapp unterhalb der 1650 (desktop, 128gb/s) ist einfach illusorisch für eine IGP, egal wieviele CUs man verbaut.

IF-$ zur Bandbreitenschonung ist bei der Wafersituation in den nächsten Jahren einfach nicht drin für eine OEM-zentrische High Volume-SKU.

amdfanuwe
2021-05-17, 14:41:08
Eine größere GPU als 12CU macht wohl noch keinen Sinn bei der Speicherbandbreite.
Klar, macht nur Sinn, wenn eigener VRAM verbaut wird. Letztendlich ist man durch TDP, Platz und Preis begrenzt.
AMD war schon für einige Überraschungen gut. Warum nicht ein kleines GPU Modul mit 2 oder 4 GB stacked RAM. Wäre sicherlich auch für embedded und Mobil interessant.

spotz
2021-05-17, 14:48:38
Als Laie mag ich mich täuschen, aber mein Eindruck ist, dass Apple aus dem M1 wesentlich mehr Grafikleistung pro Watt rauskriegt als AMD bei seinen APUs. Wenn der Eindruck stimmt, frage ich mich woran es bei AMD hapert?

robbitop
2021-05-17, 14:54:18
Besonders starke iGPUs verkaufen sich nun mal leider kaum. Siehe GT3e+GT4e vs GT2. Da liegen Größenordnungen in der Verkaufszahlen und in den Anzahl der Modellen.
Der Massenmarkt honoriert das leider nicht - auch wenn wir das im 3DCF anders sehen.
Der Massenmarkt will iGPUs, die gut genug sind (was Renoir und auch TGL umsetzen) und wenn es mehr Leistung sein soll, werden dGPUs gekauft.

Außerhalb irgendwelcher semi custom Geschichten werden wir so schnell IMO keine massenstarke iGPU sehen, die eigenen RAM bekommt.

Als Laie mag ich mich täuschen, aber mein Eindruck ist, dass Apple aus dem M1 wesentlich mehr Grafikleistung pro Watt rauskriegt als AMD bei seinen APUs. Wenn der Eindruck stimmt, frage ich mich woran es bei AMD hapert?
Gibt es dazu denn überhaupt repräsentative und saubere Daten? Dazu kommt, dass aufgrund dessen dass M1 ein SoC ist, auch noch die CPU mit in den Vergleich mit rein spielt.
Und dass M1 bereits auf 5 nm läuft wohingegen AMDs Produkte noch auf 7 nm laufen.

spotz
2021-05-17, 15:11:24
Hier im Forum wurde der M1 so auf 1650 Mobile Leistung eingeschätzt. Dem zu Grunde liegt wohl eine Angabe über 2,6 TFlops Leistung. Ist nicht repräsentativ, aber ich habe den Angaben hier im Forum getraut und mir gedacht, dass AMD das eigentlich auch hinkriegen müsste bei Rembrandt.

y33H@
2021-05-17, 16:33:57
6600XT nutzlos im Ryzen Notebook? Schätze mal kaum einer wird Tiger Lake plus AMD GPU bauen.

https://www.igorslab.de/en/amd-radeon-rx-6600-xt-with-8-gb-memory-same-bandwidth-limit-as-the-rx-5500-xt/4/Alle aktuellen Laptop-CPUs haben Gen4, ergo kein Problem ... und am Desktop sehe ich keine wirkliche Bremse wenn das Ding "nur"mit Gen3 x8 mit einem älteren Core i5 oder Ryzen läuft.

mironicus
2021-05-17, 16:43:47
Alle aktuellen Laptop-CPUs haben Gen4, ergo kein Problem ...

Ryzen 5000 mobile-CPUs haben noch Gen 3 und die diskreten GPUs sind 8fach angebunden, also nur mit 6,x GB/Sekunde, wenn man z.B. den 3DMark PCI Express-Geschwindigkeitstest durchführt.

Die neuen Tigerlake 8 Kerner mit den der Ryzen 5000 Mobile konkurriert hat aber Gen4, das könnte Vorteile in einigen Spielen ergeben.

Allerdings scheint das kein Problem für Ryzen 5000 zu sein, sonst gäbe es ja auch keine Highend-Konfiguration mit RTX 3080 und 16 GB Speicher.

davidzo
2021-05-17, 17:29:05
Als Laie mag ich mich täuschen, aber mein Eindruck ist, dass Apple aus dem M1 wesentlich mehr Grafikleistung pro Watt rauskriegt als AMD bei seinen APUs. Wenn der Eindruck stimmt, frage ich mich woran es bei AMD hapert?

Das geht auf Andrei Frumusamus Test zurück: https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/3

Ein grund für die hohe Effizienz ist der TBDR Ansatz der auf die Mobile Abstammung zurückzuführen ist (Bandbeitenschonend) und außerdem das M1 Cache System. Im Gegensatz zu Intels und AMDs APUs ist der M1 nämlich wirklich HSA, nutzt also auch den SLC Cache des Socs, was ähnliche auswirkungen haben sollte wie der kleine IF$ bei Navi24. Der M1 ist aktuell die einzige echte HSA CPU im Desktop, nachdem AMD das aufgrund der Komplexität und Verzögerung für die CPU-Entwicklung wieder aufgegeben hat.


Hier im Forum wurde der M1 so auf 1650 Mobile Leistung eingeschätzt. Dem zu Grunde liegt wohl eine Angabe über 2,6 TFlops Leistung. Ist nicht repräsentativ, aber ich habe den Angaben hier im Forum getraut und mir gedacht, dass AMD das eigentlich auch hinkriegen müsste bei Rembrandt.

Ich meine das hatte mit den tatsächlichen Ergebnissen zutun, nicht mit den Tflops. 3dmark, basemark, GFXbench und ROTR als einziges Spiel. Die Datenlage ist nicht gut, aber sie ist vorhanden.
1650 Leistung ist Bestcase, wenn die Speicherbandbreite nicht ausgeht. Sonst kann man eher sagen dass die frühere 560x Polaris Radeon geschlagen wird welche im älteren Macbook Pro 15" steckte.
Aber die Verbrauchswerte bei denen man diese Leistung abliefert sind schlicht und ergreifend beeindruckend (±10Watt).

Navi ist schon sehr Bandbreiteneffizient, fragt sich ob ein TBDR da aber nich noch Vorteile hat. Andererseits kriegt Rembrandt schon DDR5, und ist auch immerhin N6 mit EUV. Damit wäre alles andere als M1 Leistungsniveau eine Enttäuschung.
Das liegt im Bereich des möglichen. Der 4700U den Anandtech mitgetestet hat ist nicht ganz halb so schnell wie der Apple M1, ein 5800U mit 2Ghz gputakt vermutlich schon eher. 12CUs RDNA2 plus die erhöhte Bandbreite durch DDR5 sollten reichen.

unl34shed
2021-05-17, 18:24:53
Der M1 ist aktuell die einzige echte HSA CPU im Desktop, nachdem AMD das aufgrund der Komplexität und Verzögerung für die CPU-Entwicklung wieder aufgegeben hat.


Wann/Wo hat AMD denn HSA aufgegeben?

robbitop
2021-05-17, 18:51:20
Ein TBDR braucht aufgrund seiner Funktionsweise viel viel weniger Cache um das gleiche wie AMD mit ihrem Infinity Cache zu bewirken. Es wird Tile für Tile in den onchip Tilecache gerendert und erst wenn der tile fertig ist, geht er in den VRAM. Entsprechend entfällt der banbdbreitenintensive und stark fragmentierte Traffic für den Framebuffer. Das geht in dem Umfang aber nur mit tbdrs, weil für den kompletten Frame zunächst die gesamte Geometrie bekannt sein muss.

Die Frage ist wie bandbreiteneffizient navi2x ohne IF Cache ist. Der hat IMO nur sekundär mit der uArch zu tun und kostet eben eine Menge Fläche und ließe sich auch mit anderen uArchs realisieren. Ist ein sehr sehr gutes Featzre - die Intension ist nicht es klein zu reden sondern zu differenzieren. :)

spotz
2021-05-17, 21:43:20
Der 4700U den Anandtech mitgetestet hat ist nicht ganz halb so schnell wie der Apple M1, ein 5800U mit 2Ghz gputakt vermutlich schon eher. 12CUs RDNA2 plus die erhöhte Bandbreite durch DDR5 sollten reichen.
Vielen Dank für die Antwort :)
Wenn es denn so kommt wie du vermutest, hoffe ich mal das Rembrandt auch ausreichend verfügbar ist.

basix
2021-05-18, 07:39:16
DDR5 bringt aber keine Verdopplung. DDR5-4800 sind gerade mal 38,4gb/s im vergleich zu 25,6gb/s bei DDR4-3200 pro channel. Das sind in Summe klar unter 100gb/s. Mehr als GTX1050ti Leistung bzw. knapp unterhalb der 1650 (desktop, 128gb/s) ist einfach illusorisch für eine IGP, egal wieviele CUs man verbaut.

IF-$ zur Bandbreitenschonung ist bei der Wafersituation in den nächsten Jahren einfach nicht drin für eine OEM-zentrische High Volume-SKU.

DDR5 bringt pro MHz mehr Bandbreite. DDR5-5200 sollte netto ~2x von DDR4-3200 liefern.

Und IF$ hätte man schon. Die 16MB L3$ der CPU. Die GPU müsste den einfach mitnutzen dürfen und die Chip-Fläche steigt nicht. Für 1080p Gaming oder 720p DLSS/FSR auf 1080p sind 8-16MByte schon eine Hilfe. Und im Idle kann man den Displaybuffer im L3$ vorhalten, was Strom spart. Bei nur 12CU pro Shader Engine (anstatt 20 wie bei N21/22) sind zudem auch die L1/2 Caches der GPU effektiver.

Ravenhearth
2021-05-21, 17:16:19
AMD patents ‘Gaming Super Resolution’, is FidelityFX Super Resolution ready? (https://videocardz.com/newz/amd-patents-gaming-super-resolution-is-fidelityfx-super-resolution-ready)

Thread@Beyond3D (https://forum.beyond3d.com/threads/amd-fsr-antialiasing-discussion.62394/)

gruntzmaker
2021-05-21, 22:15:59
AMD patents ‘Gaming Super Resolution’, is FidelityFX Super Resolution ready? (https://videocardz.com/newz/amd-patents-gaming-super-resolution-is-fidelityfx-super-resolution-ready)

Thread@Beyond3D (https://forum.beyond3d.com/threads/amd-fsr-antialiasing-discussion.62394/)

Die Beschreibung liest sich okay. Es wird letztendlich nichts mehr am Fakt ändern: NVIDIA gewinnt auch diese Generation haushoch.

Es ist nur eine Frage der Zeit bis NVIDIA im Grafikkarten Markt ein Monopol aufgebaut hat, aber stören tut sich daran niemand.

AMD sollte sich auf den CPU Markt beschränken.
Auf dem Grafikkarten Markt ist es viel zu häufig "too little too late".

Edit: Jepp, ohne AI ... ich finde es wenig berauschend. Wird aber sicher seinen Dienst tun...

davidzo
2021-05-21, 23:11:14
DDR5 bringt pro MHz mehr Bandbreite. DDR5-5200 sollte netto ~2x von DDR4-3200 liefern.

Und IF$ hätte man schon. Die 16MB L3$ der CPU. Die GPU müsste den einfach mitnutzen dürfen und die Chip-Fläche steigt nicht. Für 1080p Gaming oder 720p DLSS/FSR auf 1080p sind 8-16MByte schon eine Hilfe. Und im Idle kann man den Displaybuffer im L3$ vorhalten, was Strom spart. Bei nur 12CU pro Shader Engine (anstatt 20 wie bei N21/22) sind zudem auch die L1/2 Caches der GPU effektiver.

Das hieße aber dass da ein Fabric bzw. eine crossbar zwischen GPU und CPU cluster sein muss. Auch Renoir hat 8mb L3 und Cezanne 16mb, da hat man das aber bisher nicht gemacht. Entweder es torpediert das Cache Management bzw. die Cache replacement policy der CPU, oder das zusätzliche fabric verbraucht zuviel strom, zuviel Fläche? Möglicherweise will man sich aber auch keine Abhändigkeiten bei der IP schaffen. Zudem hat AMD den L3 bei Zen3 gerade in der Bandbreite halbiert im vergleich zu Zen2 (wenn man bei de hälften zusammen sieht) um die Latenzen angemessen zu halten. Bei einer GPU würde man das eher umgekehrt machen. Wenn man IFcache für die GPU haben möchte, dann kann man auch einfach einen einbauen, ist vllt. etwas mehr fläche aber einfacher und unabhängiger von der CPU IP.


AMD sollte sich auf den CPU Markt beschränken.
Auf dem Grafikkarten Markt ist es viel zu häufig "too little too late".

:freak: LOL, wegen DLSS, echt jetzt? ;D

Mandalore
2021-05-21, 23:27:42
Die Beschreibung liest sich okay. Es wird letztendlich nichts mehr am Fakt ändern: NVIDIA gewinnt auch diese Generation haushoch.

Es ist nur eine Frage der Zeit bis NVIDIA im Grafikkarten Markt ein Monopol aufgebaut hat, aber stören tut sich daran niemand.

AMD sollte sich auf den CPU Markt beschränken.
Auf dem Grafikkarten Markt ist es viel zu häufig "too little too late".

Edit: Jepp, ohne AI ... ich finde es wenig berauschend. Wird aber sicher seinen Dienst tun...

Hast du dir auch dad Patent angesehen, oder nur weil es AMD ist gleich abgeschrieben?


Im Patent ist an etlichen Stellen erkennbar, dass es mittels AI ist.

Deep Learning, Neural Network etc. Mehr AU geht nicht, oder ?!



Scheint sehr ähnlich zu Nvidias Ansatz zu sein mal sehen.

w0mbat
2021-05-21, 23:45:36
Die Beschreibung liest sich okay. Es wird letztendlich nichts mehr am Fakt ändern: NVIDIA gewinnt auch diese Generation haushoch.

Es ist nur eine Frage der Zeit bis NVIDIA im Grafikkarten Markt ein Monopol aufgebaut hat, aber stören tut sich daran niemand.

AMD sollte sich auf den CPU Markt beschränken.
Auf dem Grafikkarten Markt ist es viel zu häufig "too little too late".

Edit: Jepp, ohne AI ... ich finde es wenig berauschend. Wird aber sicher seinen Dienst tun...
Wut? AMD ist aktuell schneller und effizienter als Nvidia, dazu erlaubt es die geniale Speicherarchitektur die Karten mit ausreichend VRAM auszustatten.

Nvidia ist gerade am gleichen Punkt wie Intel vor 3-4 Jahren. Bald sind sie vergessen.

basix
2021-05-22, 01:18:18
Das hieße aber dass da ein Fabric bzw. eine crossbar zwischen GPU und CPU cluster sein muss. Auch Renoir hat 8mb L3 und Cezanne 16mb, da hat man das aber bisher nicht gemacht. Entweder es torpediert das Cache Management bzw. die Cache replacement policy der CPU, oder das zusätzliche fabric verbraucht zuviel strom, zuviel Fläche? Möglicherweise will man sich aber auch keine Abhändigkeiten bei der IP schaffen.

Bisher haben die APUs Vega als GPU-IP. Rembrandt soll RDNA2 habe, da löst sich ein Teil der IP-Probleme ;)

Dass das Cache-Management (Daten, Clocking, usw.) komplexer wird ist klar. Der nutzen scheint bei geeigneten Cache Grössen aber gross zu sein. Performance ist der eine Grund, Stromverbrauch der andere. Bei 1080p sind die IF$ Hitrates bei etwa 25%, 35-40% und >50% bei 8, 16, 32 MByte IF$. Nimmt man 720p reichen auch 8MB dicke für einen grossen Bandbreitenmultiplikator. Kombiniert mit FSR kannst du vermutlich sehr vieles in 720p...1080p mit ansprechender Qualität spielen.

Bei 8MB passt ein 1080p Framebuffer (~6MB) in den Cache --> Effizienz für Office, Surfing und anderes.

davidzo
2021-05-22, 12:49:13
Bisher haben die APUs Vega als GPU-IP. Rembrandt soll RDNA2 habe, da löst sich ein Teil der IP-Probleme ;)

Dass das Cache-Management (Daten, Clocking, usw.) komplexer wird ist klar. Der nutzen scheint bei geeigneten Cache Grössen aber gross zu sein. Performance ist der eine Grund, Stromverbrauch der andere. Bei 1080p sind die IF$ Hitrates bei etwa 25%, 35-40% und >50% bei 8, 16, 32 MByte IF$. Nimmt man 720p reichen auch 8MB dicke für einen grossen Bandbreitenmultiplikator. Kombiniert mit FSR kannst du vermutlich sehr vieles in 720p...1080p mit ansprechender Qualität spielen.

Bei 8MB passt ein 1080p Framebuffer (~6MB) in den Cache --> Effizienz für Office, Surfing und anderes.

Klar, der Nutzen wäre groß, aber so einfach ist es anscheinend nicht, sonst hätte Cezanne das schon gehabt.
Allerdings ist das auch ein bisschen eine Milchmädchenrechnung, denn du gehst davon aus dass die Bandbreite und Unterteilung eines CPUcaches identisch ist wie die von RDNA2 IFcache. Ist das denn überhaupt der Fall?

Worin ist denn der Nutzen den Framebuffer ausgerechnet bei Office im Cache zu haben? Da wird der doch eh kaum frequentiert, kann also kaum Energie von Memory Transfers sparen. Und den Memory Controller kann man bei Office workloads nicht ganz schlafen legen weil den RAM brauchen ja die Anwendungen ja eh.

Es ist beides 6T SRAM, aber wie siehts mit dem Rest aus?
Was ist denn die Anbindung (bandbeite) des CPU und des GPU L3 caches für 16mb? Wievielfach assoziativ sind denn die RDNA2 vs die Zen3 L3 Caches? Gibt es da irgendwelche Übereinstimmungen?

Ich hoffe ja auch das AMD bald mit einem unified Ram und Cache system kommt, zero copy inklusive. Aber das wird wohl noch lange dauern auch da man die Software nicht kontrolliert wie Apple.

reaperrr
2021-05-22, 14:41:00
Die Beschreibung liest sich okay. Es wird letztendlich nichts mehr am Fakt ändern: NVIDIA gewinnt auch diese Generation haushoch.

Es ist nur eine Frage der Zeit bis NVIDIA im Grafikkarten Markt ein Monopol aufgebaut hat, aber stören tut sich daran niemand.

AMD sollte sich auf den CPU Markt beschränken.
Auf dem Grafikkarten Markt ist es viel zu häufig "too little too late".

Edit: Jepp, ohne AI ... ich finde es wenig berauschend. Wird aber sicher seinen Dienst tun...
;D

Junge, Junge...

Selbst wenn (scheint nicht der Fall zu sein, siehe andere Kommentare) du in Bezug auf AMD's Super Resolution recht hättest, bleiben immer noch die Fakten, dass

- AMD innerhalb von nur 2 Generationen trotz deutlich weniger R&D-Budget architekturell massiv aufgeholt hat, sowohl beim Speed als auch Features, was es gar nicht so unwahrscheinlich macht, dass AMD im nächsten Schritt schon endgültig gleich- oder gar vorbeizieht
- DLSS 2.0 nach wie vor außerhalb von AA(A) Titeln nur selten frei von Grafikartifakten funktioniert, wenn es überhaupt unterstützt wird
- Raytracing in den Titeln, wo es überhaupt verfügbar ist, entweder auch bei Nvidia Geschwindigkeitsprobleme verursacht, oder so dezent eingesetzt wird, dass auch High-End Turing und Radeons ab 6800 aufwärts performancemäßig noch damit klarkommen
- die Nachfrage nach GraKas das Angebot wahrscheinlich noch so lange übersteigen wird, dass AMD eh jede einzelne verdammte 7nm-GPU, die sie produzieren können, loswerden, wenn sie wollten momentan sogar zu überhöhten Preisen (aktuell liegen die Preisteigerungen aber nur an den Boardpartnern und Händlern, die die Nachfrage gnadenlos ausnutzen um die Kunden zu schröpfen), ganz unabhängig von Nachteilen bei RT und AI-Upscaling.

Der Kommentar
Es ist nur eine Frage der Zeit bis NVIDIA im Grafikkarten Markt ein Monopol aufgebaut hat, aber stören tut sich daran niemand.

AMD sollte sich auf den CPU Markt beschränken.
Auf dem Grafikkarten Markt ist es viel zu häufig "too little too late".
ist einfach in mehrfacher Hinsicht an der Realität vorbei bzw. wäre vielleicht zu Vega-Zeiten noch nachvollziehbar (aber trotzdem falsch) gewesen, aber spätestens seit RDNA2 hat das noch nichts mehr mit dem aktuellen Trend zu tun. Marktanteile sind auch nicht alles bzw. aktuell durch die Kapazitätsprobleme verfälscht.

basix
2021-05-22, 16:36:27
Klar, der Nutzen wäre groß, aber so einfach ist es anscheinend nicht, sonst hätte Cezanne das schon gehabt.
Allerdings ist das auch ein bisschen eine Milchmädchenrechnung, denn du gehst davon aus dass die Bandbreite und Unterteilung eines CPUcaches identisch ist wie die von RDNA2 IFcache. Ist das denn überhaupt der Fall?

Worin ist denn der Nutzen den Framebuffer ausgerechnet bei Office im Cache zu haben? Da wird der doch eh kaum frequentiert, kann also kaum Energie von Memory Transfers sparen. Und den Memory Controller kann man bei Office workloads nicht ganz schlafen legen weil den RAM brauchen ja die Anwendungen ja eh.

Es ist beides 6T SRAM, aber wie siehts mit dem Rest aus?
Was ist denn die Anbindung (bandbeite) des CPU und des GPU L3 caches für 16mb? Wievielfach assoziativ sind denn die RDNA2 vs die Zen3 L3 Caches? Gibt es da irgendwelche Übereinstimmungen?

Ich hoffe ja auch das AMD bald mit einem unified Ram und Cache system kommt, zero copy inklusive. Aber das wird wohl noch lange dauern auch da man die Software nicht kontrolliert wie Apple.

Wie hat das dann Intel bei Skylake gelöst? Dort konnte doch die iGPU den LLC mitnutzen?

gruntzmaker
2021-05-22, 17:37:03
;D

Junge, Junge...

Selbst wenn (scheint nicht der Fall zu sein, siehe andere Kommentare) du in Bezug auf AMD's Super Resolution recht hättest, bleiben immer noch die Fakten, dass

- AMD innerhalb von nur 2 Generationen trotz deutlich weniger R&D-Budget architekturell massiv aufgeholt hat, sowohl beim Speed als auch Features, was es gar nicht so unwahrscheinlich macht, dass AMD im nächsten Schritt schon endgültig gleich- oder gar vorbeizieht
- DLSS 2.0 nach wie vor außerhalb von AA(A) Titeln nur selten frei von Grafikartifakten funktioniert, wenn es überhaupt unterstützt wird
- Raytracing in den Titeln, wo es überhaupt verfügbar ist, entweder auch bei Nvidia Geschwindigkeitsprobleme verursacht, oder so dezent eingesetzt wird, dass auch High-End Turing und Radeons ab 6800 aufwärts performancemäßig noch damit klarkommen
- die Nachfrage nach GraKas das Angebot wahrscheinlich noch so lange übersteigen wird, dass AMD eh jede einzelne verdammte 7nm-GPU, die sie produzieren können, loswerden, wenn sie wollten momentan sogar zu überhöhten Preisen (aktuell liegen die Preisteigerungen aber nur an den Boardpartnern und Händlern, die die Nachfrage gnadenlos ausnutzen um die Kunden zu schröpfen), ganz unabhängig von Nachteilen bei RT und AI-Upscaling.

Der Kommentar

ist einfach in mehrfacher Hinsicht an der Realität vorbei bzw. wäre vielleicht zu Vega-Zeiten noch nachvollziehbar (aber trotzdem falsch) gewesen, aber spätestens seit RDNA2 hat das noch nichts mehr mit dem aktuellen Trend zu tun. Marktanteile sind auch nicht alles bzw. aktuell durch die Kapazitätsprobleme verfälscht.

Darf ich ehrlich hoffen, dass Du recht hast? Denn der Markt kann Konkurrenz dringend gebrauchen. RDNA2 ist beim Rastern eine tolle Technologie, aber bei Raytracing (und darauf wird ja nicht selten verwiesen) eben ein eher halbgarer Kompromiss.

Imho sollte AMD über eine Partnerschaft mit Microsoft und Sony dringend nachdenken, die möglicherweise auch etwas weiter ginge. Denn was AMD fehlt ist imho nur die Kapazität bei Forschung und Entwicklung.

Aber warten wir RDNA3 ab. Gut möglich, dass RDNA2 einfach "nur" ein Feldtest unter realen Bedingungen war.

Habe selbst eine RX 6800, bin also weit entfernt davon Team Grün die Daumen zu drücken ;).

davidzo
2021-05-22, 18:12:21
Wie hat das dann Intel bei Skylake gelöst? Dort konnte doch die iGPU den LLC mitnutzen?

Skylake hat kein unified ram und zero copy.

Und überhaupt meinst du wohl Broadwell. Bei Skylake ist der edram nicht mehr als L4 cache angebunden, sondern als Puffer des Speichercontrollers.

amdfanuwe
2021-05-22, 18:37:29
Denn was AMD fehlt ist imho nur die Kapazität bei Forschung und Entwicklung.

Da fehlt es bei Intel sicherlich nicht daran, und trotzdem bekommen sie nichts gebacken.

Wenn die Forschung ein neues Feature ausklabüstert hat, dauert es noch ein paar Jahre bis es in die Massenfertigung geht.
Bei AMD lagen die Prioritäten eben nicht bei RT und DLSS. Die waren erstmal mit ihrer RDNA Architektur beschäftigt. Nachdem Nvidia mit RT und DLSS auf dem Markt kam und damit AMD unter zugzwang setzte, wurde die F&E Abteilung auch darauf angesetzt. Dauert halt ein paar Jahre bis da eine eigene Lösung Früchte trägt.
Ebenso hat Nvidia bestimmt auch geschluckt, als AMD mit RDNA 2 die Infinity Cache Lösung vorstellte. Da wird Nvidia jetzt sicherlich auch in die Richtung forschen.
Also, die richtige Idee zum richtigem Zeitpunkt und ein fähiges Team um die Idee Markttauglich zu machen scheint mir das Erfolgsrezept. Ansonsten hilft auch noch so viel Budget nichts.

Hübie
2021-05-23, 11:34:06
Die Ideen für die Forschung kommen ja nicht erst mit dem Geld, sondern das Geld mit den Ideen um daraus Machbarkeitsstudien zu erstellen und letztendlich ein marktfähiges Produkt zu erhalten. Das ist bei der (Software - / Hardware) Forschung aber eher selten der Fall.
Ohne jetzt Zahlen zu haben würde ich sagen, dass 4 von 5 Technologien es nicht auf den Markt bzw. ins vollständige Produkt schaffen...

Btw: Den Begriff für Office scheinen einige hier mit geringen Hardwareanforderungen gleich zu setzen. Schon mal eine MS Teams Konferenz mit 6+ Teilnehmern und einer PP Präsi auf einem Office Notebook laufen lassen? Standard ist heute 8 Threads und 16 GB RAM. SSD selbstredend und eine iGPU der letzten 2 Jahre bzw. dGPU der letzten 4 Jahre. Sonst wird's schnell hässlich und wenn man dann Kundenprojekte damit präsentiert... Gn8 :D

amdfanuwe
2021-05-23, 11:52:10
Die Ideen für die Forschung kommen ja nicht erst mit dem Geld, sondern das Geld mit den Ideen um daraus Machbarkeitsstudien zu erstellen und letztendlich ein marktfähiges Produkt zu erhalten.
Teils ,teils. Entweder hat jemand eine Idee und kann Geldgeber überzeugen oder der Chef schiebt Geld rein mit der Anweisung sich was neues für das Produktportfolio auszudenken. Dann wird halt nach einer neuen Idee gesucht.
Ohne Idee kann man noch so viel Geld reinstecken, dann gibt es nur eine solide Entwicklung. Ideen verändern die Welt, führen zu etwas neuem und bleiben ohne Geld auf der Strecke.

Nightspider
2021-05-23, 13:56:34
Warten wir es mal ab. Ich glaube es wäre nicht schlimm wenn AMDs APUs ein paar mm² größer werden und vielleicht spart man dank 6nm genug das es sich lohnt einen kleineren Infinitycache bei Rembrandt zu integrieren.

Wenn Rembrandt dank Zen3+ vor Alder Lake liegen und dank RDNA2 2-2,5x schneller werden würde, wäre das fürs Marketing ein massiver Schlag gegen Intel.

Und der Mobile-Markt ist sehr wichtig, da fließt viel Geld.

Das wäre sehr profitabel wenn AMD in dem Markt größere Marktanteile gewinnen kann.

Hübie
2021-05-23, 15:51:50
Aktuell habe ich ein Notebook mit 9750H und eines mit Ryzen 4600H. AMD wischt mit dem Intel den Boden was Effizienz angeht. Wenn ich daran arbeite nehme ich lieber Renoir, denn die Performance ist gefühlt identisch, wenn nicht sogar leicht besser (hab ich nie gemessen).

AMD ist mit all seinen Produkten auf einem sehr guten Wege und das sagt jemand der 10 Jahre AMD / Nvidia hatte... ;)

Nightspider
2021-05-25, 00:33:12
Aber nur unter Last wenn ich mich nicht irre.
Unter Idle/Windows/Office sind Intels Tiger Lake, glaube ich, noch effizienter.

Denke aber das holt man bald auf. AMD hat da schon große Sprünge gemacht und greift auf die bessere Fertigung zurück.

Savay
2021-05-25, 00:40:54
Unter Idle/Windows/Office sind Intels Tiger Lake, glaube ich, noch effizienter

Wo?
Grade bei Laptops hängt dort generell extrem viel am Mainboard und der kompletten Systemintegration.

Gibt da ja durchaus Renoirs die den Tiger Lakes im selben "Barebone" was die Akkulaufzeit angeht davonziehen...obwohl dort noch nichtmal CPPC richtig umgesetzt ist, sondern das erst mit Lucienne kam.
Das wirkliche Potenzial der Zen APUs im Mobile Bereich beginnt sich m.E. grade erst zu zeigen, vor allem wenn AMD und deren Partner das noch etwas tunen.
Ich denke ehrlich gesagt das Rembrandt nen richtig heißes Eisen werden kann wenn es keiner verbockt.
Die erste Gen (2k&3k) war ein reiner Türöffner, die 2. (4k&5k) dann die zum lernen...teilweise ja auch sehr erfolgreich...die nächste sollte dann auch in der Breite zeigen was auch im idle usw. möglich ist. Zumindest bei den OEMs die es mit AMD Plattformen ernst meinen.

Locuza
2021-05-25, 15:24:57
Skylake hat kein unified ram und zero copy.

Und überhaupt meinst du wohl Broadwell. Bei Skylake ist der edram nicht mehr als L4 cache angebunden, sondern als Puffer des Speichercontrollers.
Intel unterstützt Zero Copy Operationen seit mindestens Haswell (Gen7.5), möglicherweise gar seit Ivy Bridge:
5.6.1 Unified Memory Architecture

Intel® Processor Graphics architecture has long pioneered sharing DRAM physical memory with the CPU.
This unified memory architecture offers a number of system design, power efficiency, and programmability advantages over PCIe hosted discrete memory systems.
The obvious advantage is that shared physical memory enables zero copy buffer transfers between CPUs and Gen7.5 compute architecture.
Moreover, the architecture further augments the performance of this sharing with shared caches.
The net effect of this architecture benefits performance, conserves memory footprint, and indirectly conserves system power not spent needlessly copying data.
Shared physical memory and zero copy buffer transfers are programmable though the buffer allocation mechanisms in APIs such as OpenCL 1.0+ and DirectX11 DX11.2+.
https://software.intel.com/content/dam/develop/external/us/en/documents/compute-architecture-of-intel-processor-graphics-gen7dot5-aug4-2014-166010.pdf

Ab Broadwell/Gen8 wird auch Shared Virtual Memory unterstützt und Cache Coherence:
5.7.2 Shared Memory Coherency
A new feature for gen8 compute architecture is global memory coherency between Inte lprocessor graphics and the CPU cores.
SoC products with Intel processor graphics gen8 integrate new hardware components to support the recently updated Intel® Virtualization Technology(Intel®VT) for Directed I/O (Intel®VT-d) specification.
This specification extends the IntelVT, which generally addresses virtual machine to physical machine usage models and enables virtual machine monitor implementation.
In particular, the recent Intel VT-d specification extensions define new page table entry formats, cache protocols, and hardware snooping mechanisms for shared memory between CPU cores and devices such as Intel processor graphics. These new mechanisms can be used to maintain memory coherency and consistency for fine-grained sharing throughout the memory hierarchy between CPU cores and devices.
Moreover, the same virtual addresses can be shared seamlessly across devices.
Such memory sharing is application-programmable through emerging heterogeneous compute APIs such as the shared virtual memory (SVM) features specified in OpenCL 2.0.
The net effect is that pointer-rich data-structures can be shared directly between application code running on CPU cores with application code running on Intel processor graphics, without programmer data structure marshalling or cumbersome software translation techniques.
Within Intel processor graphics, the dataport unit, the L3 data cache, and GTI have all been upgraded to support a new globally coherent memory type.
Reads o0 rwrites originating from Intel processor graphics to memory typed as globally coherent drive Intel VT-d specified snooping protocols to ensure data integrity with any CPU core cached versions of that memory. Conversely, any reads or writes that originate from the CPU cores against globally coherent memory, will drive snooping protocols against gen8’s L3 cache.
As shown in Figure 9, the sampler’s L1 and L2 caches as well as the shared local memory structures are not coherent.

Seit DX11.3 und DX12 wurden zwei Funktionsebenen für solche Systeme eingeführt.
UMA und Cache Coherent UMA:
https://docs.microsoft.com/en-us/windows/win32/api/d3d12/ns-d3d12-d3d12_feature_data_architecture

Intel unterstützt beides unter der DX12-Spezifikation seit Haswell, AMD selbst mit Renoir nur UMA:
https://forum.beyond3d.com/posts/1849030/
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/DirectX-12-Support-Geforce-Radeon-Treiber-1204767/


Und das mit dem LLC (Last Level Cache) war richtig.
Seit Sandy Bridge in 2011 stellt der LLC effektiv einen System Level Cache dar.
Zwar ist der primär für die CPUs gedacht, aber auch der System Agent (Beinhaltet die Display-Engine), die iGPU und Media-Engines können darauf zugreifen.

davidzo
2021-05-25, 19:32:27
Die Ideen für die Forschung kommen ja nicht erst mit dem Geld, sondern das Geld mit den Ideen um daraus Machbarkeitsstudien zu erstellen und letztendlich ein marktfähiges Produkt zu erhalten. Das ist bei der (Software - / Hardware) Forschung aber eher selten der Fall.
Ohne jetzt Zahlen zu haben würde ich sagen, dass 4 von 5 Technologien es nicht auf den Markt bzw. ins vollständige Produkt schaffen...


Man bist du optimistisch! 1 von 1000 wäre eine gute quote.

Jim Keller hat in einem Interview mit lex Fridman letztes Jahr mal gesagt dass bei Intel eine Kultur existiert, die freie Grundlagenforschung fördert, aber gute Implementierung bestraft. Die Leistung der Mitarbeiter wird an der Zahl der Patente gemessen, nicht an den Beiträgen zur Umsetzung von Produkten.

Ein ähnliches Dilemma herrscht ja auch in der Wisschenschaft bzw. an Universitäten. Der Publikationsdruck ist so hoch dass einige Leute einfach irgendwelche halbgaren Paper heraus hauen. Arbeiten die besonders steile Thesen aufweisen, aber handwerklich schlecht gemacht sind wahrscheinlicher durchgewunken und gelobt zu werden als robust geschriebene Arbeiten die eher Bekanntes verifizieren oder verfeinern: https://www.theguardian.com/science/2021/may/21/research-findings-that-are-probably-wrong-cited-far-more-than-robust-ones-study-finds

Das Problem ist dass diese Forschungskultur bei Intel seit Jahrzehnten verbreitet ist und die Leute auch die damit kommenden Freiheiten genießen.
Mit der Anzahl an Patenten und Publikationen kommt die Beförderung oder Lohnerhöhung.
Angewandte Technologie wieder in den Fokus zu setzen erfordert einen Kulturwechsel der häufig auch andere Leute bedeutet. Ein Forscher wird es nicht mögen, bzw. gerne die Firma wechseln wenn er jetzt plötzlich das forschen und publizieren bleiben lassen soll, oder gar die als nieder empfundenen Implementationsteams bevorzugt behandelt werden.


Ab Broadwell/Gen8 wird auch Shared Virtual Memory unterstützt und Cache Coherence:


Seit DX11.3 und DX12 wurden zwei Funktionsebenen für solche Systeme eingeführt.
UMA und Cache Coherent UMA:
https://docs.microsoft.com/en-us/windows/win32/api/d3d12/ns-d3d12-d3d12_feature_data_architecture

Intel unterstützt beides unter der DX12-Spezifikation seit Haswell, AMD selbst mit Renoir nur UMA:
https://forum.beyond3d.com/posts/1849030/
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/DirectX-12-Support-Geforce-Radeon-Treiber-1204767/



Interessant, das wusste ich nicht. Bedeutet "zero copy buffer" denn tatsächlich zero copy im DRAM oder bezieht sich da snur auf einen "Buffer", z.B. den L4?
Wie ist das den in DX12, sind zery copy und UMA automatisch aktiv oder ist das ein feature für welches die Anwendung bewusst gebaut sein muss?

Zossel
2021-05-25, 20:32:41
Interessant, das wusste ich nicht. Bedeutet "zero copy buffer" denn tatsächlich zero copy im DRAM oder bezieht sich da snur auf einen "Buffer", z.B. den L4?
Wie ist das den in DX12, sind zery copy und UMA automatisch aktiv oder ist das ein feature für welches die Anwendung bewusst gebaut sein muss?

GPU-Pointer == CPU-Pointer und das am besten kohärent mit oder ohne cache.

Hübie
2021-05-28, 16:36:22
Man bist du optimistisch! 1 von 1000 wäre eine gute quote.

Jim Keller hat in einem Interview mit lex Fridman letztes Jahr mal gesagt dass bei Intel eine Kultur existiert, die freie Grundlagenforschung fördert, aber gute Implementierung bestraft. Die Leistung der Mitarbeiter wird an der Zahl der Patente gemessen, nicht an den Beiträgen zur Umsetzung von Produkten.

Ein ähnliches Dilemma herrscht ja auch in der Wisschenschaft bzw. an Universitäten. Der Publikationsdruck ist so hoch dass einige Leute einfach irgendwelche halbgaren Paper heraus hauen. Arbeiten die besonders steile Thesen aufweisen, aber handwerklich schlecht gemacht sind wahrscheinlicher durchgewunken und gelobt zu werden als robust geschriebene Arbeiten die eher Bekanntes verifizieren oder verfeinern: https://www.theguardian.com/science/2021/may/21/research-findings-that-are-probably-wrong-cited-far-more-than-robust-ones-study-finds

Das Problem ist dass diese Forschungskultur bei Intel seit Jahrzehnten verbreitet ist und die Leute auch die damit kommenden Freiheiten genießen.
Mit der Anzahl an Patenten und Publikationen kommt die Beförderung oder Lohnerhöhung.
Angewandte Technologie wieder in den Fokus zu setzen erfordert einen Kulturwechsel der häufig auch andere Leute bedeutet. Ein Forscher wird es nicht mögen, bzw. gerne die Firma wechseln wenn er jetzt plötzlich das forschen und publizieren bleiben lassen soll, oder gar die als nieder empfundenen Implementationsteams bevorzugt behandelt werden.


Mein Verständnis von Technologie bezog sich eher auf ganzheitliche Lösungen wie es zuletzt Raytracing bot. Nicht einzelne Ansetze zur Teillösung von Problemen die durch irgendein Patent abgedeckt sind. Meine Zustimmung in dem Fall der Aussage hättest du natürlich. ;)

aufkrawall
2021-05-28, 17:15:56
Jim Keller hat in einem Interview mit lex Fridman letztes Jahr mal gesagt dass bei Intel eine Kultur existiert, die freie Grundlagenforschung fördert, aber gute Implementierung bestraft.
Intel Linux-Treiber in a nutshell. ;D

Zossel
2021-05-28, 19:14:56
Intel Linux-Treiber in a nutshell. ;D

Intel hat sich recht früh Leute aus der Open-Source geholt und die als Linux-Evangelisten angestellt.
Dirk Hohndel war bei Intel früh und lange unterwegs, es gibt auch Vorträge von ihm dazu.

Unicous
2021-06-01, 04:30:30
FSR wird am 22. Juni released... auch für Nvidia GPUs. :freak:

dildo4u
2021-06-01, 04:45:29
eHPmkJzwOFc

mboeller
2021-06-01, 07:46:19
also die integrierte GPU bei einer 5800H APU (beispielsweise) ist jetzt bis zu 3x schneller ...

dildo4u
2021-06-01, 07:52:08
also die integrierte GPU bei einer 5800H APU (beispielsweise) ist jetzt bis zu 3x schneller ...
Nein das ist Vega genau wie die letze Gen immer noch 8 CU.

4700g
https://www.amd.com/de/products/apu/amd-ryzen-7-4700g

5700g
https://www.amd.com/de/products/apu/amd-ryzen-7-5700g

mboeller
2021-06-01, 08:41:41
Nein das ist Vega genau wie die letze Gen immer noch 8 CU.


schon klar, aber mit FFX kannst du auch Vega beschleunigen. Die kleinen APUs sind doch dafür ideal, um mit FFX dann bei ausreichender Grafikqualität ausreichende Geschwindigkeit zu erreichen. Bei den APUs ist die neue Technik von AMD IMHO wesentlich sinnvoller als bei den großen Karten.

dildo4u
2021-06-01, 09:27:07
3080 Mobile vs 6800 Mobile.


https://youtu.be/kLNu34iDl4M

Hübie
2021-06-01, 21:35:30
Wie zu erwarten war ist Fidelity FX (noch) nicht der große Wurf und kämpft mit den gleichen Problemen wie seinerzeit DLSS 1.0. Da fehlen also Zugriffe auf die Bewegungsvektoren. Wie es aussieht wird auch kein neurales Netzwerk zum trainieren benötigt. Insgesamt sehe ich also als einzigen Vorteil das es GPU unabhängig (ab einer gewissen Tier Stufe) ist und somit auch plattformübergreifend angewandt werden kann (switch, PlayStation, Xbox...). Die Qualität müssen die aber unbedingt in den Griff bekommen.

Bei mir sieht übrigens selbst VSR ziemlich matschig aus, obwohl es immer hieß es sei besser als DSR... Nein ist es nur mit sharpening (genau wie bei Nvidia). Aber diese Technologie wird ja dann eh obsolet. :D

Ravenhearth
2021-06-01, 23:11:37
del

gruntzmaker
2021-06-02, 20:47:48
Wie zu erwarten war ist Fidelity FX (noch) nicht der große Wurf und kämpft mit den gleichen Problemen wie seinerzeit DLSS 1.0. Da fehlen also Zugriffe auf die Bewegungsvektoren. Wie es aussieht wird auch kein neurales Netzwerk zum trainieren benötigt. Insgesamt sehe ich also als einzigen Vorteil das es GPU unabhängig (ab einer gewissen Tier Stufe) ist und somit auch plattformübergreifend angewandt werden kann (switch, PlayStation, Xbox...). Die Qualität müssen die aber unbedingt in den Griff bekommen.

Bei mir sieht übrigens selbst VSR ziemlich matschig aus, obwohl es immer hieß es sei besser als DSR... Nein ist es nur mit sharpening (genau wie bei Nvidia). Aber diese Technologie wird ja dann eh obsolet. :D

Das hatte ich auch so ähnlich erwartet.

Aber es ist gut, dass es Open Source ist, daher dürfte die Verbreitung schon gegeben sein.

Naja damit wird dann Raytracing auch bei den Rx6000ern endlich vollends ankommen und darum geht's hauptsächlich. Als Open Source Lösung wird sie auch die Pascal Besitzer über die aktuelle schwierige Zeit retten.

Da hat AMD alles richtig gemacht. Es muss nicht genauso gut sein, es muß nur offen sein. Das ist es und das wird NVIDIA Sympathien kosten.

Warum? Weil NVIDIA es genauso hätte tun können. Jeder weiß das nun insgeheim.

Nightspider
2021-06-04, 07:18:21
War das hier schon irgendwo im Forum?

https://twitter.com/JarrodsTech/status/1400620446559596554/photo/1

Wurden die neuen mobilen GPUs in den ersten Tests eventuell durch schlechten RAM ausgebremst?
Würde eventuell die Aussage negieren, das die mobilen Nvidia Chips effizienter laufen.


AMD teaser neue Radeon Pro W6800 und W6600 an:

https://www.computerbase.de/2021-06/radeon-pro-w6800-und-w6600-amds-next-gen-fuer-den-profi-steht-in-den-startloechern/

dildo4u
2021-06-04, 08:19:50
Nein das Problem ist der Hohe Takt, die NV GPUs sind breiter und Takten im Notebook deutlich niedriger.
Die 6800m läuft mit 2.3 GHz was absurd ist, effizient wäre z.b die Xbox Konfig 52 CU@1.8 GHz.
Der Bencht dort nix anders als die CPU Leistung, diese GPUs brauchen 1440p Displays um Sinn zu machen.

mironicus
2021-06-05, 12:34:58
mwVW0meSsYg

HOT
2021-06-07, 09:31:43
Entweder ist das ein fehler oder Samsung prodziert endlich auch 18GT-GDDR6.
https://www.techpowerup.com/283071/reference-liquid-cooled-radeon-rx-6900-xt-listed-possibly-the-rx-6900-xtx-with-faster-memory

Leonidas
2021-06-11, 13:01:09
Navi 23 Die-Shot (naja, AMD-eigenes Material):
https://old.reddit.com/r/Amd/comments/nwht16/navi_23_die_dimgrey_cavefish_237_mm%C2%B2_1106bt_tsmc/

Nightspider
2021-06-11, 13:07:11
Entweder ist das ein fehler oder Samsung prodziert endlich auch 18GT-GDDR6.
https://www.techpowerup.com/283071/reference-liquid-cooled-radeon-rx-6900-xt-listed-possibly-the-rx-6900-xtx-with-faster-memory

Eine etwas schnellere 6900xt wäre schon cool.

Fraglich ist nur ob schnellerer Speicher wegen dem InfinityCash überhaupt noch etwas bringt.

Leonidas
2021-06-16, 16:39:05
Radeon RX 6900 XT LC offiziell:
https://videocardz.com/newz/amd-launches-radeon-rx-6900-xt-liquid-edition-with-330w-tbp-and-18gbps-memory

Nightspider
2021-06-16, 17:02:35
Warum kein Dual-Radiator? :(

2500Mhz wären auch schöner gewesen aber manuell dürfte das easy sein.

Ich wüsste immer noch gerne ob der schnellere VRAM etwas bringt, wegen des IF$.
Am Ende kommt man schneller wenn man den guten RAM heruntertaktet und die zusätzliche Leistung der GPU zufließen lässt.

Locuza
2021-06-22, 12:05:09
Leonidas hat Ende Mai mehrere Nachrichten und Links gebündelt, inklusive meines YouTube-Videos:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-31-mai-2021

Diesbezüglich habe ich gestern eine Zusammenfassung auf Deutsch fertiggestellt, welche auch ein paar extra Informationen enthält, da Navi23 einen Tag nachdem Video offiziell vorgestellt wurde:
https://www.patreon.com/posts/geschwafel-uber-52743375

Ich schreibe mal ein paar Auszüge davon auch hier direkt nieder:

Es gibt mehrere interessante Informationen und Beobachtungen bezüglich RDNA2.
Persönlich finde ich es großartig das AMD nach praktisch einem Jahrzehnt endlich wieder den ganzen Markt mit neuen Chips ansprechen kann.
Keine Mixtur aus alten und neuen Chips, kein Feature-Zoo und keine offenen Marktlücken.
Vier neue Chip from Top-to-Bottom:
Navi21: https://abload.de/img/amd-mega-leaks_0027_nwckfd.png
Navi22: https://abload.de/img/amd-mega-leaks_0020_naskns.png
Navi23: https://abload.de/img/amd-mega-leaks_0008_eb7jm2.png
Navi24: https://abload.de/img/amd-mega-leaks_0006_eobj54.png


Zusätzlich ist es natürlich auch toll für AMD bei der Performance pro Watt mithalten zu können.
Zwar verwendet Nvidia den 8-nm-Prozess von Samsung, der Fertigungsvorteil für AMD ist aber deutlich gesunken, zumindest was die Transistorendichte angeht:
https://c10.patreonusercontent.com/3/eyJ3ZWJwIjowfQ%3D%3D/patreon-media/p/post/52743375/35c2dcb9b98d4758832844eee8c4b80e/1.jpg?token-time=1625529600&token-hash=gxGQcVcX8Ir99ExlIleF-QXDcV7QFgyZMTfWIHWtuQs%3D

Ein paar Prozessparameter sind beim 8-nm-Prozess größer, auch die SRAM-Zellen, nichtsdestotrotz hat Nvidia relativ und auch absolut eine vergleichbare Dichte hingelegt wie AMD.
Es zeigt sich auch deutlich welchen Einfluss der Device-Mix auf die Dichte hat.
So haben die größeren RDNA2-GPUs mit ihrem riesigen L3$ 25% mehr Transistoren unter die gleiche Fläche gebracht, im Vergleich zu RDNA1-GPUs zuvor.
Navi23 ist da nicht ganz so gut aufgestellt, dort sind es nur 15% geworden.
____

Ich fand die Frage auch sehr interessant, ob es sich tatsächlich lohnt um die 70-100mm² für den Infinity Cache zu verballern?
Zumindest Navi22 skaliert ganz passabel.
28% mehr Leistung im Schnitt bei CB, während die Chipfläche um 34% gewachsen ist (334.52mm² vs. 248.97mm²).
Zwar ist die Perf/mm² dadurch ungefähr 5% besser beim Vorgänger 5700XT, es ist aber kein großer Unterschied und obwohl die Taktraten deutlich höher liegen und das Speicherinterface weniger Bandbreite liefert, kann die 6700XT sehr gut ausgelastet werden.
Die Perf/W liegt dabei ungefähr 25% besser, woran der Infinity Cache einen großen Anteil haben sollte, insgesamt eine lohnenswerte Investition.

____

https://abload.de/img/cache-hitrate-und-mispej4q.jpg

Ich habe AMD's Folie zu den Cache Hitraten für eine bestimmte Kapazität erweitert, damit man auch wirklich alle Zahlen sieht und die Daten in eine Tabelle unten links eingefügt.
Ein Gast beim 3DCenter hat zu Recht angemerkt, dass die direkte Betrachtung der Miss Raten aussagekräftiger ist:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=606469 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12695635#post12695635)

Z.B. beträgt die Miss Rate bei Navi22 (6700XT) 22% unter FHD, wächst aber auf 47% bei 4K.
Relativ gesehen müssen die Daten also über doppelt so oft vom GDDR6-VRAM geholt werden und folglich steigen die Zugriffszeiten, die Energiekosten etc.
96MiB sind aber üppig dimensioniert, denn man kann natürlich einen Vergleich mit Navi21 ziehen, welcher 128MiB Infinity Cache besitzt.
Ich bin ein paar Resultate durchgegangen und im Schnitt tut sich da absolut betrachtet nicht sehr viel.

Interessanter werden die Ergebnisse von Navi23 sein, denn mit 32MiB schlagen sich die Einflüsse von größeren Datenmengen deutlich stärker nieder.
In dem Bezug habe ich die "effektive Bandbreite" für jeden Chip auf Basis von AMDs Formel berechnet:
https://abload.de/img/bandwidth-vs-cache-hifjksf.jpg

Ich würde es aber nur als groben Richtungswert werten, da die Zahlen auf unbekannten Testbedingungen basieren und man die "effektive Bandbreite" in der Praxis so nicht bekommt.
Dafür müsste man völlig parallel auf den Infinity Cache und GDDR6-Speicher zugreifen und z.B. bei 100% Hit Rate würde man nie Daten vom GDDR6-Speicher holen.
Schenkt man dem ganzen dennoch eine gewisse Portion glauben, dann würde Navi23 selbst mit 32MiB genug Bandbreite haben, um Navi10 schlagen zu können, auch unter 4K.
Mal sehen wie echte Praxisresultate ausfallen werden.
Ein direkter Vergleich bietet sich da allerdings sehr an:
Die 5700 XT (Navi10) hat eine Chipgröße von 251 mm² und 2560 Shader Cores @1.8-1.9 GHz => 9.2-9.7 TF
Eine hypothetische 6600 XT (Navi23) eine Chipgröße von 236 mm² und 2048 Shader Cores @2,2-2,5 GHz => 9-10,2 TF

_______


Und als kleine Randbemerkung, ich habe AMDs künstlerische Die-Grafiken probeweise mal verwendet, um zu sehen wie präzise man runter skalieren kann.
Um es kurz zu machen, die Grafiken kann man in der Pfeife rauchen, was sicherlich einige nicht überraschen sollte und wo ich auch nichts anderes erwartet habe.
Einige Strukturen wie GDDR6-PHYs können mal hinkommen, aber ansonsten kann man sich daraus kein präzises Bild basteln.
Z.B. würde man die L2$-Tiles zwischen 3,49 und 4,38mm² einschätzen, in Wirklichkeit beträgt die Größe aber nur 2,80mm² auf der Xbox Series X GPU oder 2,89mm² bei Navi14.


Navi 23 Die-Shot (naja, AMD-eigenes Material):
https://old.reddit.com/r/Amd/comments/nwht16/navi_23_die_dimgrey_cavefish_237_mm%C2%B2_1106bt_tsmc/
Spaßeshalber annotiert:
Navi21 Chipgrafik: https://abload.de/img/navi21-fantasytxj9o.jpg
Navi22 Chipgrafik: https://abload.de/img/navi22-fantasy5fjt4.jpg
Navi23 Chipgrafik: https://abload.de/img/navi23-fantasyrgk0i.jpg

Bei Navi23 hat man dann ganz anders gekünstelt, als bei Navi21&22 zuvor.
Hoffentlich müssen wir nicht mehr allzu lange auf echte die shots von AMDs RDNA2 GPUs warten.

[...]
Ich wüsste immer noch gerne ob der schnellere VRAM etwas bringt, wegen des IF$.
Am Ende kommt man schneller wenn man den guten RAM heruntertaktet und die zusätzliche Leistung der GPU zufließen lässt.
Rein von der Tendenz die man zwischen Navi21&Navi22 sieht, wo letzterer 32MiB weniger Cache hat, würde ich den Einfluss eher als minimal einschätzen.

Wobei dazu hätte ich gerne mal genauere Tests gesehen, hat das vielleicht jemand gemacht?
Den Memory-Clock runterstellen und geschaut wie sich das auf die Performance auswirkt?

mboeller
2021-06-22, 12:13:21
Danke! Tolle Aufstellung

amdfanuwe
2021-06-22, 12:40:26
Bei Navi23 hat man dann ganz anders gekünstelt, als bei Navi21&22 zuvor.
Hoffentlich müssen wir nicht mehr allzu lange auf echte die shots von AMDs RDNA2 GPUs warten.
N22 sieht noch wie ein halber N21 aus. N23 scheint neu aufgebaut.
Mich irritieren die blauen Blöcke unten zwischen WGPs und VCN,PCIe...
Die Hellblauen von die mit L2$ bezeichneten Strukturen kommen mir auch merkwürdig vor. Seltsam angeordnet und etwas viel L2 für 2 SI. Könnten das evtl. TSV sein? Würde mich nicht wundern, wenn N23 zumindest schon mal für erste MCM Versuche vorbereitet wäre wie es auch die ZEN3 Chiplets waren. Etwas Black Silicon stört nicht und wenn es klappt ist man einen Schritt weiter.

Locuza
2021-06-22, 13:24:55
@ mboeller

Zwei Stellen habe ich gesehen und gefixt, danke dafür.
Korrekturen sind natürlich immer gewünscht, vermeidet falsche Informationen und/oder sorgt für weniger Verwirrung.
Beim Korrekturlesen schaltet sich auch manchmal der hirnlose Autopilot ein, man liest zwar die Texte, nimmt die Fehler aber trotzdem nicht wahr.

@amdfanuwe

Da die Grafiken echt sehr künstlerisch gestaltet sind, bin ich da eher zurückhaltend in Bezug darauf, wie ernst man sie nehmen sollte.
Bei Navi10 war AMDs Schaubild noch prinzipiell nah an der Realität dran, bei Navi21-23 habe ich aber so meine Zweifel, vor allem bei Navi23, denn die L2$-Tiles werden höchstwahrscheinlich nach wie vor lokal gebündelt sein, direkt neben den Speichercontrollern.

Die blauen Strukturen unten habe ich als Infinity Cache interpretiert, ausgehend von der Navi22-Darstellung.
Die Strukturgrößen sind teils willkürlich von AMD dimensioniert worden, es sind real 2MiB für Navi23, 3MiB für Navi22 und 4MiB für Navi21.
Rein von der Gestaltung sehen die Elemente bei Navi23 ähnlich aus wie die L2$-Tiles bei Navi21&22, nur eben sehr lang gezogen.

Ich denke bei den GPUs werden wir optisch keine Hinweise für TSVs sehe, dass scheint von Anfang an bei Zen3 geplant gewesen zu sein, mit dem Ziel echte Produkte später zu veröffentlichen.
Bei RDNA2 GPUs würde ich annehmen, dass wir keine VCache-Produkte erleben werden und finale Designs auch keine entsprechenden Strukturen tragen.

Der_Korken
2021-06-22, 14:27:45
n ich da eher zurückhaltend in Bezug darauf, wie ernst man sie nehmen sollte.
Bei Navi10 war AMDs Schaubild noch prinzipiell nah an der Realität dran, bei Navi21-23 habe ich aber so meine Zweifel, vor allem bei Navi23, denn die L2$-Tiles werden höchstwahrscheinlich nach wie vor lokal gebündelt sein, direkt neben den Speichercontrollern.


Als ich das gesehen habe, habe ich mich auch gefragt, ob eine solche Anordnung überhaupt Sinn macht oder ob man den L2 dann nicht gleich weglassen kann bzw. die Fläche lieber für den Infinity Cache verwendet, der deutlich mehr aus der Fläche rausholt. Das dürfte bei der Latenz dann auch nicht mehr so den Riesenunterschied machen. Generell gefragt: Braucht man den jetzigen L2 überhaupt noch? Man hat ja bereits den Infinity Cache als LLC und könnte vielleicht stattdessen den L1 in den Shader Engines vergrößern.

amdfanuwe
2021-06-22, 15:06:57
@amdfanuwe

Danke, seh ich jetzt etwas klarer.

mksn7
2021-06-22, 15:32:29
Generell gefragt: Braucht man den jetzigen L2 überhaupt noch? Man hat ja bereits den Infinity Cache als LLC und könnte vielleicht stattdessen den L1 in den Shader Engines vergrößern.


Das hab ich mich auch schon gefragt. Die Latenz des L2 ist auch nicht viel besser als der Infinity Cache. Ich spekuliere dass der Infinity Cache eine wesentlich gröbere Granularität hat, beispielsweise komplette pages.

Hat eigentlich irgendjemand schonmal memory microbenchmarks auf RDNA2 gemacht? Gar nicht so einfach, OpenCL wird ja nicht so richtig supportet.

Locuza
2021-06-23, 11:10:24
Bei Chips&Cheese hat clamchowder ein paar point-chasing tests unter OpenCL durchgeführt:
https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2021/05/image-5.png?ssl=1
https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2021/05/image-9.png?ssl=1
https://chipsandcheese.com/2021/05/13/gpu-memory-latencys-impact-and-updated-test/
(https://chipsandcheese.com/2021/05/13/gpu-memory-latencys-impact-and-updated-test/)

Beim Random Access Pattern sind es 67% höhere Latenzen.
Es wäre auch ein fettes Kunststück gewesen eine 16-32 mal größere Cachestufe einzuführen, mit nur unwesentlich höheren Zugriffszeiten.

Ohne den L2$ würde der globale Datenaustausch leiden.
Ein größerer L1$ erscheint nett, denn 128KiB muten schon mager an für größere Shader-Arrays, mitsamt ROPs, aber die L1-Cachestufen sind eben lokal auf diese beschränkt und read-only.

Ich bin gespannt auf weitere Veränderungen diesbezüglich, denn diese stehen höchstwahrscheinlich an.
AMD muss z.B. weg von den mini 16KiB L0-Caches, welche unter einem WGP auch keine Datenkohärenz pflegen.

mksn7
2021-06-23, 14:14:17
Beim Random Access Pattern sind es 67% höhere Latenzen.
Es wäre auch ein fettes Kunststück gewesen eine 16-32 mal größere Cachestufe einzuführen, mit nur unwesentlich höheren Zugriffszeiten.

Ich bin gespannt auf weitere Veränderungen diesbezüglich, denn diese stehen höchstwahrscheinlich an.
AMD muss z.B. weg von den mini 16KiB L0-Caches, welche unter einem WGP auch keine Datenkohärenz pflegen.

Ah interessant, vielen Dank. Klar, etwas höhere Latenzen schonmal. Ich denke das ist auch nicht weiter schlimm, die hätten auch auf DRAM niveau sein können, auch wenn dann die Bandbreite schwerer auszulasten gewesen wäre.

Irgendwie denke ich aber dass da noch mehr "geopfert" werden muss für so große Kapazität, außer nur etwas höhere Latenz... Irgendein trade-off, wegen dem der L2 Cache auch noch seine Berechtigung hat.

Beim L0 muss sich wirklich mal was tun! Der hat gerade mal Kapazität für 6-8 B/thread, bei voller occupancy. Bei CDNA ist der je genauso klein, und da gibt auch keinen zusätzlichen L1(.5). Bei CDNA würde es mich stark wundern, wenn AMD da nicht was Infinity Cache mäßiges einbaut, für HPC wär das super.

Der_Korken
2021-06-23, 15:19:07
https://chipsandcheese.com/2021/05/13/gpu-memory-latencys-impact-and-updated-test/
(https://chipsandcheese.com/2021/05/13/gpu-memory-latencys-impact-and-updated-test/)

Beim Random Access Pattern sind es 67% höhere Latenzen.
Es wäre auch ein fettes Kunststück gewesen eine 16-32 mal größere Cachestufe einzuführen, mit nur unwesentlich höheren Zugriffszeiten.

Der Test ist wirklich sehr interessant. Abseits vom Thema Cache-Design sieht man, dass moderne GPUs (Pascal und Ampere) sehr stark durch Latenzen limitiert werden. In dem 8K-Superposition-Run drehen die SMs teilweise mehr als 50% der Zeit Däumchen. Mit schnelleren Caches könnten diese GPUs also sehr viel schneller rechnen. AMD holt aus weniger TFlops/s vergleichsweise viel Leistung raus. Die Cache-Struktur und auch das "schmale" Design mit hohem Takt (man braucht nicht so viele Threads, um die GPU auszulasten) haben da sicherlich einen guten Anteil dran.

Ich kann mich außerdem noch daran erinnern, dass damals alle bei der Radeon VII den HBM übertaktet haben und dadurch Leistung rausgeholt haben. Da hieß es, dass die GPU ein Speicherbandbreiten-Schluckspecht wäre, wenn die selbst bei 1TB/s noch von VRAM-OC profitiert. Es dürfte wohl naheliegender sein, dass die durch OC gesunkene Latenz eher der Faktor war und man problemlos auch einen oder zwei HBM-Stacks hätte weglassen können.

Nochmal zum L2 vs Infinity-Cache: Würde man den L2 weglassen, wird die Cache-Hierachie flacher und die IF-Cache-Latenz würde insgesamt auch ein Stück weiter sinken. Das würde den Latenz-Zuwachs vielleicht wieder relativieren. Außerdem kann der L2 bei einem MCM-Design ohnehin nicht mehr global bleiben, sondern muss pro Chip separat vorhanden sein. Aus meiner laienhaften Sicht lässt man entweder den L2 dann weg und vergrößert die jetzigen L1-Caches oder man lässt den L1 weg und vergrößert den L0 in den einzelnen WGPs. Letzteres würde zu dem vor längerer Zeit hier geposteten Patent passen, wo der "L1" von mehreren kleineren Units zu einem großen Pool zusammengeschlossen werden kann, um redundantes Caching zu verhindern und den Weg zum "L2" zu vermeiden (wobei das nicht in jeder Situation als vorteilhaft angesehen wurde).

Nightspider
2021-06-29, 10:14:31
Samsung Exynos mit RDNA2 mit schnellster Smartphone GPU auf dem Markt:

https://videocardz.com/newz/samsung-exynos-soc-with-rdna2-gpu-scores-higher-in-3dmark-wild-life-than-any-other-phone-on-the-market

Wobei dieser unveröffentlichte Chips sich dann später auch erstmal mit den unveröffentlichen Chips der Konkurrenz von QualComm und Co messen muss.

Dino-Fossil
2021-07-09, 12:35:01
6600XT angeblich ab August für 399 $ UVP. (https://www.computerbase.de/2021-07/grafikkarten-geruechte-amd-radeon-rx-6600-xt-im-august-fuer-399-usd/)

Naja, für eine Mittelklassekarte mMn reichlich teuer, aktuelle Marktlage mal außen vor.

Edit: Ups, hatte die News auf der Hauptseite übersehen... :redface: :ueye:

gruntzmaker
2021-07-09, 16:59:54
Samsung Exynos mit RDNA2 mit schnellster Smartphone GPU auf dem Markt:

https://videocardz.com/newz/samsung-exynos-soc-with-rdna2-gpu-scores-higher-in-3dmark-wild-life-than-any-other-phone-on-the-market

Wobei dieser unveröffentlichte Chips sich dann später auch erstmal mit den unveröffentlichen Chips der Konkurrenz von QualComm und Co messen muss.

Die Partnerschaft mit Samsung ist für AMD ein wichtiger und richtiger Zug gewesen. Ich bin gespannt, wie sich die Bilanz von AMD dadurch bessern wird.

Wegen der möglichen Übernahme von ARM durch Team Grün, musste ja etwas gemacht werden.

robbitop
2021-07-10, 07:31:44
Die licence fees im mobile ARM Sektor sind nicht besonders hoch. Ich erwarte da keine besonders große Änderung der bottomline. Es ist halt ein Stück Diversifikation.

Der ARM Kauf von NV ist damit IMO nicht vergleichbar. Weil es ganz andere Möglichkeiten offeriert. NV bekommt Herrschaft über das größte ISA System und einen riesen Haufen talentierter RnD Resources. AMD ist und war allerdings auch auf shoppingtour. :)

Unicous
2021-07-15, 19:08:57
https://upload.wikimedia.org/wikipedia/commons/6/6b/SelbstPortrait_VG2.jpg

Screemer
2021-07-16, 12:09:21
Könnt ihr die Diskussion bitte im Deck thread weiterführen?

Leonidas
2021-07-16, 13:32:53
Könnt ihr die Diskussion bitte im Deck thread weiterführen?

Link ist:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=607218

RitterRost
2021-07-25, 15:16:53
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/News/Nvidia-soll-Chips-horten-um-AMD-zu-kontern-1376513/

Jetzt müssen wir uns bei Nvidia bedanken, dass sie die Preise nach unten drücken wollen - viel Erfolg!

https://videocardz.com/newz/neowin-radeon-rx-6600-xt-msrp-is-349-usd-rx-6600-to-cost-299-usd
Mal sehen, ob bzw. wann wir die Grafikkarten zu diesem Preis kaufen könnnen.

dildo4u
2021-07-25, 16:05:24
Diese Preise sind noch unwichtiger als bei den anderen AMD Karten, da keine Referenz 6600XT von AMD verkauft werden wird.

Leonidas
2021-07-29, 09:51:18
(Angeblich) Radeon RX 6000M Refresh in der Mache:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-28-juli-2021

amdfanuwe
2021-07-30, 02:23:07
Videocards hat einen Artikel zur 6600XT die heute (gestern?) auf Chinajoy von AMD vorgestellt wurde. https://videocardz.com/newz/amd-radeon-rx-6600-xt-with-2048-cores-and-8gb-g6-memory-officially-launches-on-august-11th
Schneller als RTX 3060 und 5700XT für $379.
Verkauf ab 11. August.

dargo
2021-07-30, 08:53:21
Plant AMD keinen Salvage bei N22 oder liegt es immer noch an zu knappen Kapazitäten in der Fertigung?

amdfanuwe
2021-07-30, 09:19:56
Da die Salvage nicht extra gefertigt werden, hat das wohl kaum etwas mit knappen Kapazitäten zu tun.
Eine 6700 Salvage wurde schon öfters genannt. Aber anscheinend gibt es nicht genügend schlechte Chips, so dass sich das für AMD noch nicht lohnt.

dargo
2021-07-30, 09:47:22
Ist die Ausbeute bei TSMC echt so extrem gut?

Cyberfries
2021-07-30, 10:43:01
Bei einer der letzten Verbrauchsdiskussionen wurde die Vorhersage, dass N23 über 150w landet noch belächelt.
Dazu noch nur 8xPCIe... Schade, dann bleibt die 470 im Zweitrechner, N24 und die 5500 bringen nicht ausreichend Mehrleistung.
160w will ich dem Netzteil nicht antun, eigentlich wollte ich erst mit atx12vo wechseln.

Plant AMD keinen Salvage bei N22 oder liegt es immer noch an zu knappen Kapazitäten in der Fertigung?

Salvage kann man immer noch an OEMs abgeben, an Privatkunden verkauft man lieber den profitableren Vollausbau.
Das gleiche Schicksal wird wohl auch N23 treffen, auf eine 6600 non-xt müssen wir wohl nicht warten.

basix
2021-07-30, 12:18:41
Ehm -> N22 und N23 Salvage sind die 6600M und 6700M:
https://www.amd.com/de/products/graphics/amd-radeon-rx-6600m
https://www.amd.com/de/products/graphics/amd-radeon-rx-6700m

amdfanuwe
2021-07-30, 12:21:57
Das gleiche Schicksal wird wohl auch N23 treffen, auf eine 6600 non-xt müssen wir wohl nicht warten.
Die werden Mobile verbaut.

Im gut eingefahrenen 7nm Prozess bei der Chipgröße sollte der Yield schon bei 90% liegen, würde ich mal sagen.
Ob dann der Fehler bei den Shadern oder oder in einem relevantem Bereich liegt der den Chip dann ganz unbrauchbar macht dürfte nochmal fifty fifty sein.
Also 5 unbrauchbar, 5 salvage, 90 gute.
Normalerweise werden die Guten noch nach Frequenz und Verbrauch sortiert.
Je nachdem wie der Hersteller die Anforderungen an "sehr gute" Chips stellt, kann er damit steuern wieviele Chips er für Vollprodukte und für Salvage hat.
Bei der aktuellen Marktlage würde ich die Anforderungen niedrig ansetzen und somit viele Chips erhalten, die die "sehr Gut" Anforderungen erfüllen und damit teurer verkauft werden können.

dildo4u
2021-07-30, 12:43:25
Denke nich das die Chips das Problem sind Vram ist 50% teurer geworden eine 6700 könnte sich preislisch einfach nicht nach unten absetzen.
Bei der 5600XT hatten sie ja noch den Move auf 6GB diesmal keine Option, also kann man Preise unter der 3060 vermutlich erstmal vergessen.


https://youtu.be/peYYl2vrIt4?t=252

maximus_hertus
2021-07-30, 13:10:45
379 USD UVP. Okay, aktuell ist es eh so eine Sache mit der UVP und Straßenpreise, von daher fast schon wayne.

Ich bin gespannt, wie viel schlechter als von AMD angegeben die Performance sein wird. Die Angaben sind irgendwie leicht widersprüchlich (zu den bekannten Reviews).

Wie schon gesagt, aktuell kann man eh nichts zur UVP bekommen, aber vergleichen wir trotzdem mal:

RTX 3060, 12GB, 329 UVP
RX 6600XT, 8GB, 379 UVP

Performance "Klassik" wohl die RX leicht vorne (5-10%)
Performance RT die 3060 wohl teils sehr deutlich vorne
DLSS Vorteil der 3060 (FSR kann sie ja auch)

Stromverbrauch wohl ähnlich, +- 10W.

Bleibt der deutliche VRAM Vorteil der Geforce (das man sowas mal schreiben würde ;) ).

Irgendwie wäre die 6600XT für 299 passend gewesen. Bei 329 noch okay, aber für 379 deutlich zu teuer.

Aber wie ganz am Anfang geschrieben, aktuell gibts ja quasi nichts unter 500 zu kaufen, von daher wayne ^^

Ob wir überhaupt 2021 UVP Karten bekommen? Vor allem bei unter 500 UVP?

davidzo
2021-07-30, 13:17:19
Wow, ich hätte Navi23 maximal auf Augenhöhe mit GA106 erwartet.
Wenn die Benches ansatzweise stimmen und die 6600xt auch in den Reviews gut vor der 3060 heraus kommt scheint RDNA2 aber sehr gut nach unten zu skalieren.

Immerhin ist der DIE nicht nur viel kleiner, sondern hat auch ca. 15% weniger Transistoren, das kleinere SI und damit einfaches PCB und nur noch wenig IF$. Das sah eher nach eine kostenoptimierten RDNA-Version aus.

Wenn man ausreichend liefern könnte, würde das nvidia ganzschön unter Druck setzen. NV würde in einem Preiskrieg mit einem 13milliarden Transistor 284mm2 chip mit 192bit PCB und 12GB G6 bei 170W TDP total untergehen im vergleich zu einem 11Mtr Chip mit 235mm2, 128bit und nur 8GB G6 bei 160W.

8GB VRAM sind für dieses Marktsegment auch mehr als genug, 12GB sind für eine 1080P Karte einfach kein wesentliches Verkaufsargument. Zumal man gleichzeitig versucht den 4K Gamern zu erklären dass die 10GB einer 3080 doch ausreichen.


BTW ausgehend von der 3060 (1150%) wäre das ein FHD performance-Index von 1200%-1300%.
Das wäre endlich doppelt soviel wie meine gute alte GTX980 und das sogar bei geringerem Verbrauch (Effizienz fast Faktor 2,5x). Die 3060 ist an dieser Performance + Effizienzverdopplung leider knapp dran vorbei geschlittert.

dildo4u
2021-07-30, 13:28:48
379 USD UVP. Okay, aktuell ist es eh so eine Sache mit der UVP und Straßenpreise, von daher fast schon wayne.

Ich bin gespannt, wie viel schlechter als von AMD angegeben die Performance sein wird. Die Angaben sind irgendwie leicht widersprüchlich (zu den bekannten Reviews).

Wie schon gesagt, aktuell kann man eh nichts zur UVP bekommen, aber vergleichen wir trotzdem mal:

RTX 3060, 12GB, 329 UVP
RX 6600XT, 8GB, 379 UVP

Performance "Klassik" wohl die RX leicht vorne (5-10%)
Performance RT die 3060 wohl teils sehr deutlich vorne
DLSS Vorteil der 3060 (FSR kann sie ja auch)

Stromverbrauch wohl ähnlich, +- 10W.

Bleibt der deutliche VRAM Vorteil der Geforce (das man sowas mal schreiben würde ;) ).

Irgendwie wäre die 6600XT für 299 passend gewesen. Bei 329 noch okay, aber für 379 deutlich zu teuer.

Aber wie ganz am Anfang geschrieben, aktuell gibts ja quasi nichts unter 500 zu kaufen, von daher wayne ^^

Ob wir überhaupt 2021 UVP Karten bekommen? Vor allem bei unter 500 UVP?
Nachfrage ist nicht so hoch wie bei Nvidia es gibt z.b 6700XT für 700 aber keine 3070, Preise könnten besser sein als erwartet.

amdfanuwe
2021-07-30, 13:38:32
12GB sind für eine 1080P Karte einfach kein wesentliches Verkaufsargument.
Nach dem 8GB Shitstorm bei den größeren Karten wollte sich das Nvidia mit einer alternativen 6GB Bestückung der 3060 wohl nicht antun.

basix
2021-07-30, 15:24:45
6 GByte sind bei 1080p zum Teil schon knapp und bei 1440p sehr oft. Kommt noch Nvidias Paradedisziplin Raytracing obendrauf, wird es noch enger (Ausnahme: Man kann DLSS nutzen, was aber mMn nur in 1440p Quality Sinn macht).

Und der Kunde sieht den Unterschied zwischen 6GB und 8GB halt auch noch als Kaufsargument an (mehr ist besser).

Edit:
Grundsätzlich ist die 3060 zu UVP aber die attraktivste Ampere Karte: Keine Sollbruchstellen, genug Speicher, genug Performance für 1080p und 1440p, starkes RT, DLSS. Alles andere hat in der Tendenz zu wenig Speicher (3060 Ti bis 3080 Ti) oder ist zu teuer (3080 Ti und 3090), teuer zu UPV Konditionen ;)

vinacis_vivids
2021-07-30, 15:45:28
Ich kenne einen, der von RX570 8GB auf RTX3060 12GB aufgerüstet hat. 15-25fps mehr hat er erzählt mit sehr wenig Begeisterung. 580€ hat er bezahlt für die RTX3060.
Für den normalo Zocker und wenig Kohle ist das völlig überteuert wenn man bedenkt, dass die RX570 so ~ 200€ gekostet hat und von 2017 ist und 4 Jahre gehalten hat.
Die RTX3060 12GB wird im unteren Mittelfeld keine 4 Jahre überstehen, weil die Leistung einfach zu schwach ist und die 12GB lediglich eine Blendgranate ist.

Die 6600XT dagegen ist jetzt schon schneller und reift zu 100% besser als die RTX3060.

aufkrawall
2021-07-30, 15:49:09
Also, ich kann mit meiner 3060 mit 1440p Monitor besser RT nutzen als vorher mit der 6800. Aber gut...

dildo4u
2021-07-30, 15:55:29
Ich kenne einen, der von RX570 8GB auf RTX3060 12GB aufgerüstet hat. 15-25fps mehr hat er erzählt mit sehr wenig Begeisterung. 580€ hat er bezahlt für die RTX3060.
Für den normalo Zocker und wenig Kohle ist das völlig überteuert wenn man bedenkt, dass die RX570 so ~ 200€ gekostet hat und von 2017 ist und 4 Jahre gehalten hat.
Die RTX3060 12GB wird im unteren Mittelfeld keine 4 Jahre überstehen, weil die Leistung einfach zu schwach ist und die 12GB lediglich eine Blendgranate ist.

Die 6600XT dagegen ist jetzt schon schneller und reift zu 100% besser als die RTX3060.
RT braucht Vram und Ampere, die 3060 vernascht hier die 6700XT. https://www.hardwaretimes.com/amds-radeon-rx-6800-and-the-rtx-3060-are-faster-than-rtx-3070-in-doom-eternal-w-ray-tracing-enabled/
Soviel zur Zukunft der 6600XT.

basix
2021-07-30, 15:57:00
Die 6600XT dagegen ist jetzt schon schneller und reift zu 100% besser als die RTX3060.

Bezüglich mit dem Alter reifen wette ich dagegen ;)

Bei Raster und wenn die 8GB reichen ist die 6600XT allenfalls leicht schneller (nicht spürbar). Sobald man 1440p anpeilt wird 8GB je länger desto mehr knapp. Und bei RT müssen wir gar nicht anfangen zu diskutieren.

Linmoum
2021-07-30, 15:57:07
Ich kenne einen, der von RX570 8GB auf RTX3060 12GB aufgerüstet hat. 15-25fps mehr hat er erzählt mit sehr wenig Begeisterung.Wenn er dir erzählt, dass Echsenmenschen morgen die Weltherrschaft übernehmen, glaubst du ihm das dann auch?

vinacis_vivids
2021-07-30, 16:10:49
Ist mir auch egal, weil ich mittlerweile (wieder) AMD GPUs sammle und seine alte RX570 8GB recht günstig bekommen habe. Polaris ist ein absoluter Klassiker und markiert den Wendepunkt für AMD GPU-Geschichte während Ampere den Wendepunkt für Nvidia bergab geht. Also WAYNE.

maximus_hertus
2021-07-30, 16:11:22
Die 6600XT dagegen ist jetzt schon schneller und reift zu 100% besser als die RTX3060.

Mit reduzierter Qualität? Ja, kann sein.

Aber mit max Qualität sehe ich die 3060 am Ende doch vorne. Falls RT möglich ist, will man das dann doch gerne mitnehmen. Dann noch DLSS, völlig egal, ob das irgendwann noch Relevanz hat. Es ist jetzt da und es sind mittlerweile deutlich mehr als nur ein paar Games, die es drin haben.

Warten wir die Launch-Reviews ab, aber ich bin irgendwie nicht besonders optimistisch was die 6600XT angeht. Ich lasse mich da aber sehr gerne eines besseren belehren bzw. positiv überraschen.


EDIT: zu deinem bergab Geschwafel. Aus forderster Front kann ich dir berichten, dass (Sehr) viele Zocker einen Gaming PC haben wollen. Drin sein soll ein schneller Prozessor, viel Arbeitsspeicher und eine Geforce. Warum Geforce? Nun ja ohne Geforce geht es ja nicht?! Du glaubst gar nicht, wie viele den Begriff Geforce für Grafikkarte übernommen haben. ICh hatte auch schon öfters Gespräche a la "es gibt Geforce von AMD?". Du unterschätz maßlos den OEM / Fertigmarkt. DIY ist ganz nett und hat einen gewissen impact, aber am Ende ist DIY nur ein (sehr) kleiner Teilbereich.

So lange AMD nicht die Qualität von nVidia hat, werden sie auch nicht so groß werden. ICh persöhnlich komme auch mit einer Radeon KArte klar, kenne aber genug LEute, die eine neue KArte einbauen wollen, Treiber / Experience Installieren und dann nie wieder was davon hören wollen. Die wollen nur Zocken. Die gehen nie in Treibermenüs etc. rein. Auch wenn ich es unschön finde, so muss man doch (noch?) klar sagen, für solche Leute ist AMD nur bedingt eine Option. Es wird besser, keine Frage, aber nV ist da noch eine andere Klasse.

Wie gesagt, ich komme mit allem klar und bastel gerne. Aber für fire and forget nimmt man nVidia. JEder Kunde, der zurück kommt und etwas reklamiert, kostet Geld. Als Händler will ich nur eines: keine Reklamationen! Egal, ob am Ende ein USerfehler verantwortlich war oder ein echter Hardwarefehler. Ich bin nicht der AMD Support.

Von daher sitzt nVidia extrem fest im Sattel. Auch wenn es dir nicht passt ;)

basix
2021-07-30, 23:48:18
Zu N23 und zur 6600 XT noch was zum sinnieren:
- 2048 SPs -> Gleich viele wie vor fast 10 Jahren Ur-GCN mit der HD7970 gebracht hat

Mal als Vergleich 6600XT vs. 7970 GHz Edition:
|RX 6600 XT|HD 7970 GHz Edition|Faktor
Chip|N23|Tahiti|
CUs|32|n.a.|
SPs|2048|2048|1.0x
ROPs|64|32|2.0x
TMUs|128|128|1.0x
Taktrate|2.5 GHz|1.0 GHz|2.5x
Rohleistung |10.2 TFlops|4.1 TFlops|2.5x
Performance @ 3DC FullHD Index (https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019)|1250% (https://www.3dcenter.org/news/amd-kuendigt-radeon-rx-6600-xt-mit-gegenueber-geforce-rtx-3060-hoeherer-performance)|400%|3.125x
Relative IPC|1.25|1.0|1.25x
Speicherinterface|128bit|384bit|0.33x
Speicherbandbreite|256 GByte/s|288 GByte/s|0.89x
Infinity Cache Hitrate|~0.50|n.a.|
Effektive Bandbreite @ 1080p|~512 GByte/s|288 GByte/s|~1.78x
Relative TFlops / Effektive Bandbreite @ 1080p|1.41|1.0|1.41x
Speichermenge|8 GByte|3 GByte|2.67x
Speichertyp|GDDR6|GDDR5|
Chipfläche|237mm2|365mm2|0.65x
Anzahl Transistoren|11.1 Mrd|4.3 Mrd|2.58x
Transistor Density|46.8 MTr/mm2|11.8 MTr/mm2|3.98x
Relative TFlops / Transistoren|0.97|1.0|0.97x
Relative TFlops / Chipfläche|3.85|1.0|3.85x
Relative Performance / Chipfläche|4.81|1.0|4.81x
TDP|160W|250W|0.64x
Relative Performance / Watt|4.88|1.0|4.88x
Lithographie|7nm|28nm|


Performance/Chipfläche und Performance/Watt sind beide in den letzten 9.5 Jahren im Schnitt um ~1.18x pro Jahr gestiegen ;)

vinacis_vivids
2021-08-03, 17:24:12
Die Taktrate der 6600XT liegt bei max. 2,9Ghz
https://www.pcgameshardware.de/Radeon-RX-6600-XT-Grafikkarte-277709/News/Geekbench-Resultate-mit-2-9-GHz-GPU-Takt-in-der-Spitze-aufgetaucht-1377094/

Die Customs pendeln sich dann wohl massenhaft bei 2,7-2,8 Ghz ein, einige wenige werden 2,9 Ghz erreichen.

amdfanuwe
2021-08-03, 17:24:59
AMD Radeon PRO W6000X series GPUs for the Mac Pro vorgestellt.
http://newsfile.refinitiv.com/getnewsfile/v1/story?guid=urn:newsml:reuters.com:20210803:nGNX1L15j6&default-theme=true
120CU 400W 30TFlops FP32 64GB Ram.

davidzo
2021-08-03, 18:27:59
Nice find! +1

DualGPU Navi21.
Allerdings interessant dass es keine DualGPU 6900er gibt, nur die 6800er. Das erinnert irgendwie an die Anfangszeit der DualGPUs, wo durch TDP und board nie die Einzelleistung von zwei GPUs erreicht wurde.

Immerhin reicht das trotz Salvagechips mal wieder dafür alles was es auf der PCseite gibt zu überflügeln, was ja Apples erklärtes Ziel ist.
Sowohl die 3090 als auch eine Quadro A6000 haben weniger VRAM und weniger FP64 Leistung und in der Praxis liegt Ampere ja auch deutlich unter der theoretischen FP32Leistung.

Der verdoppelte Speicher ist ja üblich bei Profikarten, wird wohl double sided sein, oder ist 32gbit GDDR6 schon verfügbar?

basix
2021-08-03, 18:32:25
Für das sind also die zwei xGMI Links von N21?

fondness
2021-08-03, 18:34:41
Ist das PCIe x32, oder was ist das für ein lustiger PCIe-Slot?

https://i.postimg.cc/4NGMLTVM/AMD-Radeon-PRO-W6800-X-DUO-Radeon-PRO-W6900-X-GPUs-For-Apple-Mac-Pro.jpg (https://postimg.cc/XX2Qqm2c)image uploader (https://postimages.org/de/)

fondness
2021-08-03, 18:37:12
Für das sind also die zwei xGMI Links von N21?

Offensichtlich. Sie können damit laut Werbetext bis zu 4 GPUs direkt Punkt zu Punkt verbinden, ohne über PCIe gehen zu müssen.

DeadMeat
2021-08-03, 18:37:43
Das ist eine Stromversorgung bei den Macs für 475 watt ohne extra Kabel. Ansonsten nur 16x wie gehabt.

davidzo
2021-08-03, 18:39:28
Würde mich nicht wundern wenn das bei den Icelake Mac pros auf PCIgen4 upgegradet wird.

Offensichtlich. Sie können damit laut Werbetext bis zu 4 GPUs direkt Punkt zu Punkt verbinden, ohne über PCIe gehen zu müssen.
Je GPU geht anscheinend ein Link an die obere Boardkante. Das heißt Quad-GPU wird wieder eine Option sein.

fondness
2021-08-03, 18:41:34
Wundert mich eh, dass die noch immer eine Intel-CPU verbauen, wenns einen Threadripper mit 64C gibt. Offensichtlich will man sich das kurz vorm Umstieg auf ARM nicht mehr antun oder AMD kann die Stückzahlen nicht liefern.