PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25

BlacKi
2024-09-29, 13:37:55
Wenn die 88XT ~40% schneller als die 7800XT in Raster, 60-70% schneller in RT wird und klar bessere Perf/W hat, ergibt der aktuelle Preis der 7800XT auch Sinn.wieso, ist ganz klar anderer performance bereich. wenn man wirklich performance um den dreh der 7900xt7900xtx erwarten würde, dann müsste man diese karten im preis senken.
ich würde mit dem abverkauf woanders anfangen, nämlich dort, wo sie die karten durch rdna4 ersetzen werden.

basix
2024-09-29, 13:45:50
Bei den Online-Shops die ich so besuche ist N31 nur noch spärtlich verfügbar. Also das meiste ist verfügbar aber nicht mehr in grossen Mengen. Ich glaube nicht, dass AMD ein riesiges Inventar-Problem hat.

Ich glaube eher, dass man etwas mehr an RDNA4 werkeln will. Treiber und/oder FSR4 sind da so Kandidaten. Daneben will man für die nächste Iteration für Mobile/OEM gewinnen.

DrFreaK666
2024-09-29, 13:49:56
AMD muss mehr bieten als nur bessere Performance.
Am besten holen sie Nice Guy mit ins Boot, der mit Complete RT einen netten Reshade-Shader in Petto hat.
Er und ein Team optimieren den Shader für RDNA4 und machen dann Presets für verschiedene Games.
Das dann als FidelityFX irgendwas verkaufen.
Ach ja... ein Traum

GerryB
2024-09-29, 14:29:51
glaubst du bzgl. der günstigen preise in diesem segment, das rdna4 hier seinen platz finden wird? also 7800xt bzw. GRE performance? anders würde die preissenkung in diesem segment keinen sinn ergeben.

Das weiss wohl nur AMD wo man dann bei P/L steht.
may be
bei Verkaufsstart sogar RDNA4 etwas überteuert solange Battlemage noch nicht erhältlich

könnte sogar sein, das AMD+Intel relativ hohe Preise verlangen, solange es keine 5060Ti gibt
(in dem Preisvgl. 8800nonXT vs 7800xt vs B8xx)

falls ne 5060Ti ungefähr die Fps ner 4070 liefern kann, aber da muss man wohl noch lange warten

basix
2024-09-29, 14:51:05
Am besten holen sie Nice Guy mit ins Boot, der mit Complete RT einen netten Reshade-Shader in Petto hat.
Er und ein Team optimieren den Shader für RDNA4 und machen dann Presets für verschiedene Games.
Das dann als FidelityFX irgendwas verkaufen.

Treiberintegration wäre wohl am naheliegensten ;)

Cool wäre dann, wenn Nutzer Custom Presets erstellen können und dann in einer Online Community teilen könnten. Direkt via Treiber-Widget in einer Spieleliste auflisten und Presets sind dort direkt up- und downloadbar. Die Presets via Nutzer-Bewertungssystem bewerten lassen. Damit kann AMD "die Arbeit auslagern" und für den Nutzer ist es wenig Aufwand, gute Presets für ein Spiel zu finden. Für Blockbuster / Spiele-Treiber kann AMD ein Default-Preset mit dem Treiber mitliefern.

horn 12
2024-10-06, 11:11:17
Schade,

kommt am Donnertag nichts, wirds dies wohl gewesen sein
und dann kommt die Karte erst zur CES 2025
Obwohl bei etwa 7900XT Performance, 16GB Speicher und Raytracing 7900XTX plus 60%
und Preislich wohl 599 bis 679 Euro (Meine Annahme)
dem steht eine 7900XTX dann im Abverkauf Preis nicht gewaltig nach
Einzig FRS 4.0 dürfte (falls auf Navi 48 beschränkt wegen Hardware)
der Karte den Absatz verschaffen und die 240Watt TDP

Aber warten wir mal Donnerstag ab!

@edit

@Guru3D Forum:
Now think about 8900XTX HBM2e* 2x8GB with dedicated HW for RT & AI. with Game bundle and priced at 799€ ;)

* Not that much or at all costly overall, IMhO cheaper than GDDR7...

Wunschdenken aber dies wäre Hammer!

OgrEGT
2024-10-06, 12:26:04
Wozu die Speicherbandbreite durch HBM da IF$?

raffa
2024-10-06, 14:36:11
Was ist denn am Donnerstag?

w0mbat
2024-10-06, 15:25:57
AMD AI Day oder so

mironicus
2024-10-06, 20:11:46
Wird AMD mit RDNA4 neue Hardwareeinheiten verbauen, die ein KI-Upsampling wie DLSS ermöglichen?

robbitop
2024-10-06, 20:47:47
Das ist noch unbekannt. Auch keine eindeutigen (prominenteren) Gerüchte soweit ich weiß.

BlacKi
2024-10-07, 08:04:00
Wird AMD mit RDNA4 neue Hardwareeinheiten verbauen, die ein KI-Upsampling wie DLSS ermöglichen?naja, es war nie nötig für AI eigene hw einheiten zu verbauen. amd war der meinung ein upscaler braucht kein AI. deshalb gabs kein AI upscaler. ps5 pro hat sicherlich auch keine extra einheiten für einen AI upscaler und trotzdem bietet die ps5 pro in zukunft auch einen AI upscaler.


tatsächlich soll rdna4 aber AI performance verbessern, was zusammen mit den ps5 pro infos einen fsr4 AI upscaler pratisch in irgeneiner form garantiert.


dann kommt leider das leidige thema, wann wird sich das breitflächig durchsetzen? das wird sicher mindestens 2 jahre brauchen. also mit der nextnext gen ist es dann halbwegs nutzbar.

Thunder99
2024-10-07, 08:43:29
Spezifische Einheiten hatte ja schon RDNA3 daher wird es schon bei dem Nachfolger kommen.
Für was es dann beim Gaming eingesetzt wird sehen wir dann.
Aktuelle Software Lösung ist ja schonmal nicht schlecht gegenüber DLSS3

MSABK
2024-10-07, 09:03:19
Ich blicke da eh nicht mehr durch was es alles gibt. Total durcheinander alles mit FSR, AMF und wie sie noch heißen.

Thunder99
2024-10-07, 09:38:46
FSR 3.x muss vom Entwickler implementiert sein, AMF ist ein Treiber "Hack"

robbitop
2024-10-07, 09:45:37
ps5 pro hat sicherlich auch keine extra einheiten für einen AI upscaler und trotzdem bietet die ps5 pro in zukunft auch einen AI upscaler.
Die PS5PRO soll extra HW dafür haben und die liefern ~300TOPS.
Ob die HW in den CUs verbaut wurde (Matrix Cores analog zu CDNA) oder als NPU im SoC ist noch unklar soweit ich weiß.

Spezifische Einheiten hatte ja schon RDNA3 daher wird es schon bei dem Nachfolger kommen.
Für was es dann beim Gaming eingesetzt wird sehen wir dann.
Aktuelle Software Lösung ist ja schonmal nicht schlecht gegenüber DLSS3
RDNA3 hatte keine extra Einheiten. Es gibt eine slide von AMD die da ziemlich irreführend ist (wahrscheinlich weil alle anderen HW für Matrixberechnungen hatten wollte man so erscheinen als hätte man das jetzt auch). RDNA3 unterstützt mit WMMA ein instruction set was besser für gängige AI workloads ist. Gerechnet wird das aber über die normalen Vektor ALUs. Es gibt keine Matrix Cores in RDNA3 dafür.

basix
2024-10-07, 10:02:54
Ob die HW in den CUs verbaut wurde (Matrix Cores analog zu CDNA) oder als NPU im SoC ist noch unklar soweit ich weiß.

Ist noch nicht klar, ja.

Wenn ich raten müsste:
Sind Matrix Cores bei der GPU, welche aber "erleichtert" wurden. Also kein FP16/BF16 support sondern nur INT8. Man macht ja kein Training auf der PS5 Pro, sondern nur Inferencing.

fondness
2024-10-07, 10:12:34
RDNA3 hatte keine extra Einheiten. Es gibt eine slide von AMD die da ziemlich irreführend ist (wahrscheinlich weil alle anderen HW für Matrixberechnungen hatten wollte man so erscheinen als hätte man das jetzt auch). RDNA3 unterstützt mit WMMA ein instruction set was besser für gängige AI workloads ist. Gerechnet wird das aber über die normalen Vektor ALUs. Es gibt keine Matrix Cores in RDNA3 dafür.

AMD hat noch nie eigene Einheiten verbaut und das ist auch per se kein Nachteil vs. Nvidia, die Diskussion hatten wir schon öfter. Im Endeffekt schafft RDNA3 ähnliche Durchsatzraten bei kleinen Formaten wie FP16 wie Nvidia. Ich verstehe nicht, warum hier noch immer das Nvidia-Marketing nachgekaut wird. Was es noch bräuchte wäre vielleicht der jeweils doppelte Durchsatz für IU8/IU4, aber das hat nichts mit dezidiert oder nicht zu tun. Auch MI300 hat keine dezidierten Einheiten. Und WMMA ist nicht anderes als eine Instruction um den Durchsatz zu optimieren.

MSABK
2024-10-07, 10:24:11
Sogar Intel hat Matrix Cores in seiner iGPU, wird Zeit dass Amd da auch mal nachlegt.

fondness
2024-10-07, 10:28:27
Sogar Intel hat Matrix Cores in seiner iGPU, wird Zeit dass Amd da auch mal nachlegt.

Als würde man gegen eine Wand reden :facepalm:

dildo4u
2024-10-07, 10:38:15
Sogar Intel hat Matrix Cores in seiner iGPU, wird Zeit dass Amd da auch mal nachlegt.
Dann hätte AMD kein Anreiz Nvidias Preise zu unterbieten, da man die Chips an Professionelle verkaufen könnte.

Ich tippe jetzt drauf das erst UDNA grundsätzlich daran was ändert.

basix
2024-10-07, 11:43:25
Da ML/AI die Sau ist, die momentan durchs Dorf getrieben wird, könntest du dich da irren ;)

Und es gibt im Profi/Workstation/CAD Sektor immer mehr Anwendungen, welche Matrix-Beschleunigung verwenden. Das darf man nicht vergessen.

robbitop
2024-10-07, 11:49:57
AMD hat noch nie eigene Einheiten verbaut und das ist auch per se kein Nachteil vs. Nvidia, die Diskussion hatten wir schon öfter. Im Endeffekt schafft RDNA3 ähnliche Durchsatzraten bei kleinen Formaten wie FP16 wie Nvidia. Ich verstehe nicht, warum hier noch immer das Nvidia-Marketing nachgekaut wird. Was es noch bräuchte wäre vielleicht der jeweils doppelte Durchsatz für IU8/IU4, aber das hat nichts mit dezidiert oder nicht zu tun. Auch MI300 hat keine dezidierten Einheiten. Und WMMA ist nicht anderes als eine Instruction um den Durchsatz zu optimieren.
Naja der Matrixdurchsatz kommt bei modernen Nvidia und Intel GPUs ja on top zum FPU Durchsatz da es separate Einheiten sind. Der Matrixdurchsatz für BF16 und INT8 ist bei AD103 deutlich höher als bei N31.

BF16 TOPS (mit/ohne sparsity):
AD103: 206 / 412
N31: 122

INT8 TOPS (mit/ohne sparsity):
AD103: 412 / 825
N31: 122

Und die Tops sind on top (was für ein Wortspiel) zu den Vektor FP TFLOPS. Bedeutet, wenn die GPU ein NN befeuern will kann nicht gleichzeitig für den 3D Teil gerechnet werden. Bzw kann schon über asynchronous compute aber natürlich nur zu Teilen wenn die ALU brachliegt.

Das bedeutet nicht notwendigerweise, dass es extra Matrixcores für sowas wie ein AI Upsampler braucht. IIRC hatte basix (oder war es reaperr?) dazu ja schon einige Beiträge gebracht und ein Paper von ARM mit den Kosten zu einem NN. Auch läuft mit Intel XeSS (dp4a path) ja bereits ein NN Upsampler auch auf GPUS ohne Matrix Units.
Aber der NN Upsampler läuft mit Matrix Cores (auf Arc GPUs) schneller und mit höherer Qualität (größeres NN verbaut).

Was AMD da mit CDNA und den Matrix Cores macht - ist ein guter Punkt.
Ich nahm an, dass weil sie mit "Matrix Cores" werben da auch extra Matrix FPUs haben. Nach etwas Recherche finde ich dazu aber nichts Konkretes.

Als würde man gegen eine Wand reden :facepalm:
Naja aber deren XeSS läuft mit XMX Units schneller als mit dp4a und kann ein komplexeres NN nutzen. Ohne Sinn und Verstand wird Intel da keine HW verbauen. Und man sieht es mit ARC GPUs ja auch, dass XeSS schneller läuft und besser aussieht.
Wenn das Gerücht mit Sony stimmt, wird das ja auch seine Gründe haben. Da stehen stehen ja riesen Geldsummen zur Disposition und jeder cent wird hinterfragt. Warum sollte man da extra Matrix HW verbauen für PSSR wenn das gar nicht nötig wäre?

Da ML/AI die Sau ist, die momentan durchs Dorf getrieben wird, könntest du dich da irren ;)

Und es gibt im Profi/Workstation/CAD Sektor immer mehr Anwendungen, welche Matrix-Beschleunigung verwenden. Das darf man nicht vergessen.
Jo aber das Argument würde dann nicht für Sony gelten mit der PS5PRO.

fondness
2024-10-07, 11:57:54
Naja der Matrixdurchsatz kommt bei modernen Nvidia und Intel GPUs ja on top zum FPU Durchsatz da es separate Einheiten sind. Der Matrixdurchsatz für BF16 und INT8 ist bei AD103 deutlich höher als bei N31.

BF16 TOPS (mit/ohne sparsity):
AD103: 206 / 412
N31: 122

INT8 TOPS (mit/ohne sparsity):
AD103: 412 / 825
N31: 122

Und die Tops sind on top (was für ein Wortspiel) zu den Vektor FP TFLOPS. Bedeutet, wenn die GPU ein NN befeuern will kann nicht gleichzeitig für den 3D Teil gerechnet werden. Bzw kann schon über asynchronous compute aber natürlich nur zu Teilen wenn die ALU brachliegt.


Das ist eine völlig unrealistische Annahme. Du hast gar nicht die Bandbreite, du hast nicht die Register, du hast nicht die Datenpfade, etc. um das parallel auszuführen. Und ja es fehlt noch etwas Leistung bei manchen kleinen Formaten bei RDNA3, habe ich ja gesagt (FP16 zB ist man allerdings voll dabei). Aber das hat nichts mit dezidiert oder nicht zu tun. Dezidierte Einheiten haben primär Vorteile beim Stromverbrauch. Zumal man sicher auch hinterfragen kann, was dann wirklich in HW doppelt vorhanden ist und was nur lustige Marketing-Folien sind.

aufkrawall
2024-10-07, 12:07:28
Und wie ist dann das Bild bei Benchmarks von Inference für LLMs? Wäre wohl sinnvoller als nur Peak-Werte gegen zu rechnen.

fondness
2024-10-07, 12:10:16
Und wie ist dann das Bild bei Benchmarks von Inference für LLMs? Wäre wohl sinnvoller als nur Peak-Werte gegen zu rechnen.

Tja, wenn du Benchmarks kennst zu RDNA3 immer her damit. MI300 ist da jedenfalls mehr als nur voll dabei.

fondness
2024-10-07, 12:17:54
Wenn das Gerücht mit Sony stimmt, wird das ja auch seine Gründe haben. Da stehen stehen ja riesen Geldsummen zur Disposition und jeder cent wird hinterfragt. Warum sollte man da extra Matrix HW verbauen für PSSR wenn das gar nicht nötig wäre?


Also Sony hat erstmal überhaupt nichts gesagt zu irgendwelche AI capabilities bis dato. Ich gehe nach wie vor davon aus, das habe ich dir ja auch schon im anderen Thread gesagt, dass RDNA4 eben mehr Leistung liefern wird bei kleinen Formaten und man so auf die 300 TOPs kommt. Und Sony es Marketingtechnisch vielleicht etwas geschickter verkauft als AMD.

robbitop
2024-10-07, 12:19:49
Das ist eine völlig unrealistische Annahme. Du hast gar nicht die Bandbreite, du hast nicht die Register, du hast nicht die Datenpfade, etc. um das parallel auszuführen. Und ja es fehlt noch etwas Leistung bei manchen kleinen Formaten bei RDNA3, habe ich ja gesagt (FP16 zB ist man allerdings voll dabei). Aber das hat nichts mit dezidiert oder nicht zu tun. Dezidierte Einheiten haben primär Vorteile beim Stromverbrauch. Zumal man sicher auch hinterfragen kann, was dann wirklich in HW doppelt vorhanden ist und was nur lustige Marketing-Folien sind.
Kannst du das mit den fehlenden Registern, Datenpfaden und Bandbreite belegen? Warum sollte das so ausgelegt sein, wenn man da sofort in ein Bottleneck liefe. Kann es auch sein, dass vielleicht nicht reicht um beides voll im Peak auszufahren aber zumindest mehr als es seriell zu machen?

Also Sony hat erstmal überhaupt nichts gesagt zu irgendwelche AI capabilities bis dato. Ich gehe nach wie vor davon aus, das habe ich dir ja auch schon im anderen Thread gesagt, dass RDNA4 eben mehr Leistung liefern wird bei kleinen Formaten und man so auf die 300 TOPs kommt. Und Sony es Marketingtechnisch vielleicht etwas geschickter verkauft als AMD.
Ja zugegeben das mit den 300 TOPS ist noch ein Gerücht. Aber wir sind ja hier im Spekuforum und das ist das beste was wir Moment haben. :)

Im anderen Thread habe ich dich so verstanden, dass du angenommen hast es sei keine separate NPU aber potenziell schon Matrix FPUs in den CUs.
300 TOPs bei 2,1 GHz und nur 64 CUs wird ansonsten schwierig. Selbst mit Verdopplung für INT8.
Aktuell läge man da bei 86 TOPS INT8. Mit Verdopplung dann 172.

fondness
2024-10-07, 12:41:13
Kannst du das mit den fehlenden Registern, Datenpfaden und Bandbreite belegen? Warum sollte das so ausgelegt sein, wenn man da sofort in ein Bottleneck liefe. Kann es auch sein, dass vielleicht nicht reicht um beides voll im Peak auszufahren aber zumindest mehr als es seriell zu machen?

Die Dokumentation bei Nvidia ist wie üblich schlecht bis nicht vorhanden und ich bin kein NV-HW-Engineer. Aber den Bandbreitenbedarf kann man sich ja einfach ausrechnen bzw. sieht man ja jetzt schon, dass das schon bei normaler Spielegrafik knapp werden kann. Und ich kann zumindest ungefähr einschätzen, was ein zB 300TOPs Matrix-Core an Silizium benötigen würde um zu wissen, dass das in einer GPU mit Sicherheit nicht vollumfänglich doppelt vorhanden ist. Also klar, kann schon sein, dass man da unter bestimmten Grenzbedingungen auch Vorteile erzielen kann, aber man sollte nicht so tun als wäre das auch nur annähernd parallel ausführbar.


Ja zugegeben das mit den 300 TOPS ist noch ein Gerücht. Aber wir sind ja hier im Spekuforum und das ist das beste was wir Moment haben. :)

Im anderen Thread habe ich dich so verstanden, dass du angenommen hast es sei keine separate NPU aber potenziell schon Matrix FPUs in den CUs.
300 TOPs bei 2,1 GHz und nur 64 CUs wird ansonsten schwierig. Selbst mit Verdopplung für INT8.
Aktuell läge man da bei 86 TOPS INT8. Mit Verdopplung dann 172.

Du kannst davon ausgehen, dass sie das kleinste Format nehmen wo sie dann auch Marketingtechnisch die größte Zahl kommunizieren können. Aktuell sind es bei INT4 172 TOPs, bei einer Verdoppelung wäre man also ziemlich genau bei den 300. Aber klar ich lasse mich gerne vom Gegenteil überraschen, aktuell sehe ich aber relativ wenig Anzeichen dafür.

robbitop
2024-10-07, 13:49:13
Die Gerüchte besagen 300 TOPS INT8. (und ja Gerüchte... ^^)

Turing hatte schon Datenpfade etc um 2 von 3 Dingen gleichzeitig zu machen: FP, INT und Tensorcores. Ampere hat es auf 3 von 3 aufgebohrt.

Das sieht man ja auch nicht vor, wenn es nichts bringt. Und IIRC hat Ada ggü Ampere auch nochmal nachgelegt an Registern*. Also das wird schon nicht nichts bringen.

*Ampere: 64 kb Register file size per SM
Ada: 256 kb Register file size per SM

https://images.nvidia.com/aem-dam/Solutions/Data-Center/l4/nvidia-ada-gpu-architecture-whitepaper-V2.02.pdf
https://docs.nvidia.com/cuda/ampere-tuning-guide/index.html

Der größere L2 wird sicherlich auch was bringen. Also dass das alles komplett gebottleneckt sein soll kann ich anhand dessen schwer glauben.

Altehardware
2024-10-07, 14:19:00
Diese ai Gelaber führt zu nix, Ob die Bandbreiten reicht in einer gpu hängt von der Software ab und wieviel vram von einen frame belegt wird.
Der Trend geht in Richtung hybriden ram (ssd stream direkt mit der cpu und gpu).
Dadurch wird das Kapazität problem umgangen und man muss nur noch 1-1,5frame vorhalten bevor man nachladen muss.
Diese Technik wendet sony in der ps5 schon an. Das wird es am Pc bald auch geben ab dem am6 Sockel. nvidia hat da nix. Und muss dediziert bleiben und wird darum auch den mid class markt auch verlassen.
Das dies passiert ist ziemlich sicher. Eine perf. Steigerung in mid class ist nicht zu erwarten
Es wird aber deutlich effizienter dank n4x node
Die mid class profitiert aber nicht davon maxed 5% Differenz und es kommt auf die sku Planung an wo nvidia die tbp haben will.
gemäß 12vh2x6 dürfte das 230w sein 360w peak
Gut möglich das rtx5080 die gleiche tbp hat wie die rtx5070
amd wird übrigens nicht den Retter in mid class werden das wird 1-1 ein ersatz für die rx7900gre werden bei gleicher perf. und preis

mksn7
2024-10-07, 15:20:24
Das sieht man ja auch nicht vor, wenn es nichts bringt. Und IIRC hat Ada ggü Ampere auch nochmal nachgelegt an Registern*. Also das wird schon nicht nichts bringen.

*Ampere: 64 kb Register file size per SM
Ada: 256 kb Register file size per SM



Das ist ja nur die Anzahl an Registern. Die helfen nur für mehr occupancy. Die Registerbandbreite ist unter Umständen schon nicht genug um auf beiden ports ein normales Vektor FMA zu machen.

Edit: Die tensor core MMA instructions brauchen je nach Typ so ~8 cycles, und haben den gleichen Registerbedarf wie ein FMA, die tensor cores bräuchten also deutlich weniger Registerbandbreite als die Vektor Instruktionen. Trotzdem denke ich dass man von mischen nicht so sehr viel erhoffen kann.

Hakim
2024-10-07, 16:16:33
Was ist der aktuelle Stand der Gerüchte über den Release Zeitraum? Immer noch Q4?

DrFreaK666
2024-10-07, 16:18:07
Wie gehabt CES 2025

vinacis_vivids
2024-10-07, 16:22:25
Wer mal mit offiziellen Werten rechnen will:

Ryzen AI 9 HX 375
NPU: bis 55 TOPS
CPU + GPU: bis 30 TOPS
Gesamt-AI: 85 TOPS

gfx1151 (Strix Halo) RDNA3.5 hat 192 KB Vektor-Register

https://chipsandcheese.com/2024/02/04/amd-rdna-3-5s-llvm-changes/
"DPP (Data Parallel Processing) instructions on RDNA 3.5 can take two scalar inputs, at operand positions src0 and src1. RDNA 3 and prior RDNA generations could only have one scalar input at src0 for DPP instruction."

RDNA3.5 16CU@2,9Ghz
Formel nach Rechnung von WMMA RDNA3 CU:
IU8: 512 x 2,9Ghz x 16CU ~ 23,75 TOPs

Formel nach Rechnung von WMMA RDNA3.5:
IU8: 2 x 512 x 2,9Ghz x 16CU ~ 47,51 TOPs

Formel nach Rechnung von WMMA nach AMDs Angaben 55 TOPS NPU
IU8: 55 TOPS : 1024 : 16CU ~ 3,36Ghz NPU Front End für scalar inputs

->
IU8: 1024 x 3,36Ghz x 16CU ~ 55 TOPs für die NPU
IU8: 512 x 2,9Ghz x 16CU ~ 23,75 TOPs für die GPU
IU8: 128 x 5,1Ghz x 12CPU ~ 7,83 TOPs für die CPU

55 + 23,75 + 7,83 ~ 86,58 TOPs ~ 85 TOPs auf AMD`s Webseite.

Bei den 300TOPs der PS5 Pro muss man von RDNA3.5 ausgehen mit der NPU und mit IU4 rechnen:

IU4: 2(DPP) x 1024 x 2,5Ghz x 60CU ~ 307 TOPs

Taktkorrektur für Marketing 300 TOPs

IU4: 300 TOPs : 2(DPP) : 1024 : 60CU ~ 2,441 Ghz++ NPU Front-End für scalar inputs

Dann passt das zu den Marketing ~300 TOPs

robbitop
2024-10-07, 19:37:08
Die 300 TOPs sind INT8 laut Gerüchten in der PS5 PRO. Die PS5PRO läuft weiterhin nur mit 2,1 GHz.
Weiterhin ist INT8 leider nur so schnell wie FP16 auf RDNA3.
pro CU:
64 wide simd * 2 (für VOPD) * 2 (MAD) * 2 (ratio zwischen fp32 und fp16 und int8)

Savay
2024-10-07, 21:21:22
Das sieht man ja auch nicht vor, wenn es nichts bringt.

Für DLSS scheint es lt. den hier umherschwirrenden Daten dazu ja nicht unbedingt viel zu bringen. :wink:
Und das dürfte wohl der Usecase schlechthin für einen gemischten Workload sein.
Das meiste andere was so abgeladen wird ist aktuell ja wohl wahrscheinlich eher entweder nur das eine oder das andere bzw. wird eher seriell abgearbeitet.

Und dann muss das für Matrix Einheiten teilweise anscheinend auch noch ziemlich spezifisch formatiert werden, damit die das Datenformat auch wirklich fressen.
INT8 ist dann auch abseits vom LLM wohl auch eher nicht der Nabel der Welt...oder nicht?

Das meiste was wirklich fordernd ist wird wohl eher auf FP16 oder BF16 etc. setzen...

DeepPrime
BlurXTerminator
NoiseXTerminator
StarXTerminator
etc.

Oder doch in die Cloud müssen weil das Modell selbst einfach viel zu groß ist...

Thunder99
2024-10-08, 09:21:39
@robbitop danke für die Klarstellung. War mir nicht bekannt dass sie doch keine Matrix HW haben.

Sofern es keinen Mehrwert bietet war es wohl bisher nicht notwendig. Ob sich das nun ändert wird sich zeigen (was am Ende besser ist von Qualität Durchsatz und benötigter Energie)

Hauwech
2024-10-09, 18:39:50
Es ist schon viele Jahre her aber war da nicht mal was seitens AMD namens FastMath? oder so? Was, sofern ich mich richtig erinnere, eigentlich nur FP16 aber doppelter Durchsatz von FP32 war? War das in Bezug auf Shader? Ich meine damals wurde deswegen das übliche Fass hier im Forum aufgemacht das Gaming-Software FP32 eigentlich gar nicht benötigt und das dadurch AMD viel schneller wäre, dominieren würde etc etc.

Was ist eigentlich daraus geworden? Nutzen das moderne Engines irgendwie großartig, also FP16?

robbitop
2024-10-09, 19:01:29
Rapid Packed Math. Meint doppelten FP16 Durchsatz. Wird soweit ich weiß genutzt. IIRC hatte Coda aber hier mal beschrieben dass das so viel nicht bringt und welche Restriktionen dazu führen- ich erinnere mich aber an keine Details mehr. :)

vinacis_vivids
2024-10-09, 19:09:34
Ja. Alles an upscaling bzw. super-resolution und frame generation ist fp16.

https://github.com/GPUOpen-LibrariesAndSDKs/FidelityFX-SDK/blob/main/docs/techniques/super-resolution-temporal.md

Output Buffer bei FSR2 ist reines fp16.


"Falling back to 32-bit floating point
FSR2 was designed to take advantage of half precision (FP16) hardware acceleration to achieve the highest possible performance. However, to provide the maximum level of compatibility and flexibility for applications, FSR2 also includes the ability to compile the shaders using full precision (FP32) operations.

It is recommended to use the FP16 version of FSR2 on all hardware which supports it."

Neuester fp16-FSR3.1 Benchmark hier:
https://i.ibb.co/GQxYcPL/Screenshot-2024-10-09-191446.png

fp32 ist nur noch fallback falls die Hardware es nicht kann (mixed precision fp32/fp16).

RCAS ist auch fp16

horn 12
2024-10-11, 06:29:41
RDNA 4 nun auch erst zur CES 2025
AMD hat nix verlautbaren lassen Gestern und dies wird´s dann wohl 2024 gewesen sein!
Maximale Offizielle Preisanpassung der XT - XTX Karten seitens AMD (Eher gar nicht mal)
und dann sehen uns die Release Karten der Neuen Generation beider Lager erst 2025,-
Gute 2 oder fast 2,5 Jahre der Aktuellen Generation... :-(

DrFreaK666
2024-10-11, 06:46:36
Du meinst der drei Lager ;)

reaperrr
2024-10-11, 11:35:48
Maximale Offizielle Preisanpassung der XT - XTX Karten seitens AMD (Eher gar nicht mal)
Die sind größtenteils gerade erst um ca. 50€ im Handel gefallen, von der GRE mal abgesehen, die vermutlich früher als die anderen ausläuft.

Offizielle Preisanpassungen gibt es eh kaum noch, die Hersteller geben einen MSRP zum Launch raus und das war's, alles was danach kommt wird nach außen nicht mehr explizit kommuniziert.

Du meinst der drei Lager ;)
Ich würde keine Wetten drauf abschließen, dass von Intel groß was kommt.

Der größere BMG ist definitiv gecancelt, und der kleinere ist von den Specs nicht so angesiedelt, dass der massiv schneller als Arc 770 werden würde, "nur" konkurrenzfähiger in Sachen Perf/W und Perf/mm², aber da werden auch RDNA4 und Blackwell zulegen, von daher fraglich, wieviel näher Intel dort wirklich kommen würde.

vinacis_vivids
2024-10-11, 12:35:18
Wäre geil wenn AMD AFMF3 und FSR4 bei RDNA4 den Framebuffer irgendwie kohärent macht für unified $ und mGPU. So könnte ich wieder mal zwei Stück RX 8800 XT im System zusammenschalten. Wird wieder Zeit für das Revival.

Die zwei X "64CU / 4096SP" in 4nm dürften deutlich günstiger sein ggü. einem riesen Blackwell. Die letzte DUal-GPU von AMD gabs mit der R9 295 X2.

Diesmal vielleicht RX 8800-X2 mit 32GB VRAM?
Kann doch nicht sein, dass AMD für KI-Honks GPUs mit 256GB VRAM baut und das eigentliche Kerngeschäft Gaming mit seinen Spielern lediglich ne Mittelklasse GPU mit 16GB VRAM nach zwei Jahren Entwicklungszeit verhungern lässt?

Selbst die "preiswerte" RX 7600 XT hat bereits 16GB VRAM. Da glaube weniger an RDNA4 mit "nur" 16GB VRAM. 32GB muss AMD schon auspacken können für die Gamer. War bei Vega uArch ja auch nicht anders mit der Radeon VII 16GB oder Vega FE 16GB.

RX 8800-X2 32GB als Dual-Karte wäre geil. Darunter kann RDNA4 eben auch single-Karten für 599USD (RX 8800 XT) und salvages für 499USD (RX 8800) verkaufen (wie Sony PS5 Pro).

Huang hat ja seine 600W Keule rausgehauen für den heimischen PC. Da sind hoffentlich auch paar Bremsen seitens AMD zu lösen.

Der Interconnect bei RDNA3 mit 5,3 TB/s reicht auch locker aus für mGPU in RDNA4, meinetwegen für 4nm mit höherem Takt und auf 6,0 TB/s ausgeweitet für Inter-GPU Kommunikation. Wüsste nicht was AMD bremsen sollte.

Altehardware
2024-10-11, 13:05:59
crossfire sli ist tot aus mehreren Gründen die primär in software zu finden ist
Zumal sich mit mehreren gpu der vram nicht addiert das gab es noch nie

robbitop
2024-10-11, 13:24:11
Er schreibt wie immer wirren Quatsch zusammen. Am besten ignorieren.

vinacis_vivids
2024-10-11, 13:45:57
crossfire sli ist tot aus mehreren Gründen die primär in software zu finden ist
Zumal sich mit mehreren gpu der vram nicht addiert das gab es noch nie

Crossfire ist nicht tot, sondern für den 8GB Nvidia Gamer einfach nicht zu finanzieren:

https://geizhals.de/apple-radeon-pro-w6800x-duo-mpx-module-mj093zm-a-a2581175.html
https://i.ibb.co/HtnV3zW/Untitled7512.png

Preis: 5750€

Hier der Benchmark:

https://i.ibb.co/zJ4rKTJ/AMD-Radeon-W6800-X-Pro-Duo-Graphics-Card-Tests-1.png

HOT
2024-10-14, 12:04:23
https://videocardz.com/newz/amds-next-gen-navi-44-gpu-package-said-to-be-29x29mm-in-size-smaller-than-navi-23-33

Also Größer als ca. 140mm² ist für N44 unwahrscheinlich würde ich sagen. Das Ding wird ein N24-Ersatz, wie ich schon spekulierte. Der wird halt 96Bit oder 128Bit Speicherinterface haben, nicht 64 wie N24. Aber viel mehr als 20CUs sind einfach unwahrscheinlich aus meiner Sicht.

Leonidas
2024-10-14, 12:22:42
Da glaube ich nicht, Tim.

Von 29x29 zu 35x35 ist es nicht weit, die Reserven sind beim Packaging auch oft noch groß. Daher könnte man N33 auch in 29x29 unterbringen - und somit auch N44 auf gleicher Hardware. Es gibt dort wieder 32 CU @ 128-bit.

Nur beim SI könnte man noch überlegen, ob nicht 96-bit besser wäre, weil man so einfacher 12 GB VRAM erreicht. Klappt aber nur, wenn das nicht zu viel Perf kostet.


PS: Eher schlimmer ist, dass es hier zuerst Daten zu N44 gibt. Nicht dass N48 im Terminplan hinter N44 steht?!

Langlay
2024-10-14, 12:35:11
Crossfire ist nicht tot, sondern für den 8GB Nvidia Gamer einfach nicht zu finanzieren:


Kaum ein Spiel unterstützt Crossfire/SLI und keins das es tut ist in diesem Jahrzehnt erschienen. Crossfire ist nicht nur tot, sondern das Grab ist auch schon eingeebnet.

Und wieso sollte sich der geneigte Zocker ne 5000€ AMD Profigraka kaufen, die im Bestfall so schnell ist wie ne 7900XTX mit OC und in 95% der Spiele von na RX6800 geschlagen wird ?

https://www.pcgamingwiki.com/wiki/List_of_games_that_support_Crossfire

basix
2024-10-14, 12:53:34
Nur beim SI könnte man noch überlegen, ob nicht 96-bit besser wäre, weil man so einfacher 12 GB VRAM erreicht. Klappt aber nur, wenn das nicht zu viel Perf kostet.

Einfache Lösung ;)
- SKU1 = 32CU / 128bit / 16GB / 18Gbps / 100% GPU-Takt / 120W TDP
- SKU2 = 28CU / 96bit / 12GB / 20Gbps / 95% GPU-Takt / 100W TDP
- SKU3 = 28CU / 128bit / 8GB / 16Gbps / 80...85% GPU-Takt / 60W TDP (kein PCIe Power-Connector)

Tesseract
2024-10-14, 14:30:44
Kaum ein Spiel unterstützt Crossfire/SLI und keins das es tut ist in diesem Jahrzehnt erschienen. Crossfire ist nicht nur tot, sondern das Grab ist auch schon eingeebnet.

es gibt außerdem seit jahren eine lösung dafür: multi-adapter in diversen low level APIs - developer verteilt selbst die arbeit auf verschiedene adapter. das ist die saubere, herstelleragnostische lösung für mGPU ohne renderqueue- und treibermurkserei.
macht in der praxis halt niemand weil 99,999% der user nur eine dGPU im system und consumerplattformen sowieso nur einen vollen 16x PCIe haben. wird außerdem immer unsinniger je größer die dicksten monolithischen karten in realation zum userdurchschnitt werden.

Leonidas
2024-10-14, 15:32:45
Valides Argument. Wenn der Developer dazu angehalten wird, für eine 3060 oder 4060 zu optimieren, weil die User ansonsten auf die Barrikaden gehen - wieviel Zeit wird man dann erübrigen, um für 5090 SLI zu optimieren?

Langlay
2024-10-14, 16:00:41
es gibt außerdem seit jahren eine lösung dafür: multi-adapter in diversen low level APIs - developer verteilt selbst die arbeit auf verschiedene adapter. das ist die saubere, herstelleragnostische lösung für mGPU ohne renderqueue- und treibermurkserei.
macht in der praxis halt niemand weil 99,999% der user nur eine dGPU im system und consumerplattformen sowieso nur einen vollen 16x PCIe haben. wird außerdem immer unsinniger je größer die dicksten monolithischen karten in realation zum userdurchschnitt werden.

Was ja meine Aussage bestätigt. SLI/Crossfire Unterstützung war ne winzige Nische als Nvidia/AMD die Sache noch gepusht haben. Heute krät da kein Hahn mehr nach.

vinacis_vivids
2024-10-14, 16:24:44
Heute ist mGPU nur noch im HPC und AI interessant. Gaming-Technik ist leider auf der Strecke geblieben obwohl DX12 und Vulkan explicit mGPU anbieten.

Wir wieder Zeit, dass AMD mGPU einführt mit RDNA4, am besten gleich synchron über den Treiber bzw. über die API DX12 / Vulkan.

GerryB
2024-10-14, 19:45:23
praktisch = vollkommen sinnlos
2x N48 mit 2xWaterblock kostet wieviel?

von den PCiE-Lanes ganz zu schweigen

Wenn, dann müßte das schon wieder ne 8850 mit 2x Chips in einer Graka werden.
Oder doch gleich MCM ?

davidzo
2024-10-15, 11:25:00
Von 29x29 zu 35x35 ist es nicht weit, die Reserven sind beim Packaging auch oft noch groß.

Schon, Navi23 war ja ein recht großer Chip und schon N33 hätte kleiner sein können, man wollte aber die Boardkompatibilität beibehalten.

Aber ein feinerer Pitch bedeutet höhere Qualitätsansprüche für das PCB und ggf. mehr Layer dort. Alles unter 0.5 mm ist HDI und das ist teurer. Für Mobile ist das kein Ding, aber für Desktop sind einfache PCB-Hersteller damit raus.

Intel hatte das vor Jahren mal schmerzlich mit der Atom Z-Serie gelernt, wo man auf ein 1380Pin BGA mit 0.4mm Pitch in 17x17mm gegangen ist. Die ARM Konkurrenz war schneller und kam mit einfacheren Packages und PCBs aus, dementsprechend ist der Handy/Tableteinsatz gefloppt. Statt dem x7 Atom (8700) wurde lediglich die x5-8350 in sehr billigen Geräten und nur mit BGA592 (Pitch 0,65mm) und kastriertem RAM verbaut.

Qualcomm hat wohl auch große Kritik bekommen weil das Package von Hamoa und den dazugehörigen PMICs 0.6mm Pitch verwendet und man wegen der power density schon wie bei HDI Via-in-Pad oder gar backside drilling braucht. Entsprechend sehen wir fast nur teure Geräte mit X-Elite und die 10- und 8-Kernvarianten werden eher stiefmütterlich behandelt. Das wäre sicherlich anders wenn Qcomm hier ein zweites Package anbieten würde.


29x29 mit 128bit SI ist nicht unmöglich, wurde bisher aber nur in speziellen mobile Packages realisiert und ist dann ggf. bei der Leiszingsaufnahme begrenzter als N33s 190Watt.

Das ist vergleichbar mit nvidias 960-ball BGA (GB4D-128) TU117 für die mobile 1650 und Geforce MX-Serie. Aber auch die 3050 mobile nutzt 29x 29mm afaik mit einem Pitch von 0.5mm: 1358-ball BGA (GB5B-128).
Im Desktop nutzt nvidia diese Packages nicht, weil das die Kosten unnötig in die Höhe treibt. Stattdessen kommen GA107 und AD107 sogar mit dem gleichen entspannten Pitch wie die 106er Linie.


Es gibt zur N44 Package Größe imo zwei Auflösungen:

Die GPU wird in der Tat nur ein besserer N24 Ersatz, also weniger als 128bit SI und 32CU und 8x Lanes PCIe4.0 oder 190W TDP haben.
Die GPU wird ein primärer oder gar reiner Mobilchip, wo ein HDI Pitch kein Problem ist.
Der Leak bezieht sich gar nicht auf das Desktoppackage sondern nur auf eine Mobilvariante des Packages. Getrennte Packages sprechen eher für größere stückzahlen und sind bei AMD in letzter Zeit unüblich. Das wäre gerade jetzt besonders merkwürdig, weil AMD gleichzeitig mit Sarlak eine Mobilplattform im ähnlichen Performancebereich plant.



PS: Eher schlimmer ist, dass es hier zuerst Daten zu N44 gibt. Nicht dass N48 im Terminplan hinter N44 steht?!

Wen es in der Tat primär ein Mobilchip ist, dann müssen die Infos früher raus an die OEMs damit die ihre Labtopchassis designen können. Da wird mehr Vorlauf gebraucht als bei einer Desktop Add-in Karte.

basix
2024-10-15, 11:44:48
N44 wird von der Performance her N33 schlagen und deutlich weniger verbrauchen. Das ist schon ein N22/N33 Ersatz aber halt geringere TDP und geringerer Platzbedarf. Das haben die Mobile-OEMs gerne ;)

Das N48 Package wird vermutlich ebenfalls deutlich kleiner als N22/N32 werden. Mit den gleichen Vorteilen (Energieverbrauch, Platzbedarf) wie N44.

Zum Thema mehr PCB-Layer & teurere Herstellung: Technologie entwickelt sich. N22/N23 sind 4 Jahre alt, da sollten geringere Pitches mit der Zeit günstiger werden. Und geringerer Platzbedarf kann ein potentiell teureres PCB kompensieren.

Evtl. legt AMD auch zwei verschiedene Packages auf: 1x für Mobile um kompakt zu bleiben, 1x für Desktop im günstiger zu werden. Wobei Packaging-Fläche (Substrat) auch kostet.

davidzo
2024-10-15, 12:00:02
Zum Thema mehr PCB-Layer & teurere Herstellung: Technologie entwickelt sich. N22/N23 sind 4 Jahre alt, da sollten geringere Pitches mit der Zeit günstiger werden. Und geringerer Platzbedarf kann ein potentiell teureres PCB kompensieren.

Nicht wirklich. 4 Jahre ist gar nichts in der Platinenfertigung.
Wir sollten uns nicht von den Wachstumsraten bei Chip- und Packagingtechniken blenden lassen und das auf simple Dinge wie Platinen übertragen. Siehe Nvidia, die gehen auch extra auf grobe Pitches für ihre entry level Desktop GPUs. Das hat schon seine Gründe...
Im Highend sehen wir das Gegenteil, wo Backside drilled PCBs und blind vias quasi für Highend der Standard geworden ist, aber auch um jeden Millimeter PCBfläche gefeilscht wird. Da haben die Preise aber auch gehörig angezogen.

Die Chinesen sind da schon seit Jahren top bei PCBs und minimieren ihre Toleranzen. Aber ohne dass man in teurere Prozesse und Maschinen investiert kannst du nicht an den Toleranzen und der Qualitätskontrolle drehen. Feinerer Pitch heißt praktisch auch etwas mehr Ausschuss in allen Prozesschritten, trotz automatisierter Qualitätskontrolle. Das kostet alles extra, selbst wenn das seit Jahren schon per computervision automatisiert ist.


AMD muss halt einen Kompromiss finden wenn sie das gleiche Package im mobile und im Desktop verwenden wollen. Die letzten Mobilgenerationen von AMD sind nicht sehr gut angekommen und nvidia dominiert den Markt absolut mit höherer Energieeffizienz und speziell angepassten Mobile-Packages.


Btw, soweit ich das sehen kann hat Nvidia mit Lovelace keine extra mobile Packages mehr aufgelegt. Die 4050 laptop kommt wohl im gleichen Package wie die Desktop GPUs. Da nvidia ca. Faktor 10x mal mehr Mobil-GPUs umsetzt als AMD, sich diesen Schritt aber gespart hat, wäre das sehr merkwürdig würde AMD jetzt mit einem mobile-spezifischen Package herauskommen.

reaperrr
2024-10-15, 12:32:16
Getrennte Packages sprechen eher für größere stückzahlen und sind bei AMD in letzter Zeit unüblich. Das wäre gerade jetzt besonders merkwürdig, weil AMD gleichzeitig mit Sarlak eine Mobilplattform im ähnlichen Performancebereich plant.
Sarlak wird ein Nischenprodukt, relativ teuer in der Herstellung, und zumindest der Top-N44 wird meiner Einschätzung nach trotz weniger CUs schneller werden.
Dass Sarlak auf die Verkaufszahlen von N44 großartige Auswirkungen haben wird, bezweifle ich stark.

N44 soll offensichtlich N24, N23 und N33 gleichermaßen beerben, also (zumindest perspektivisch) den ganzen Bereich von ~180-350 € abdecken.
In Sachen Perf/W und Perf/mm² scheint RDNA4 auch ein klarer Fortschritt zu werden, und zumindest die kleineren Blackwells sind auf jeden Fall auch nur in ner N4P-Variante, somit könnte AMD i.S. Perf/W und PPA so gut und konkurrenzfähig dastehen wie ewig nicht mehr.
Auch möglich, dass für RDNA5 kein direkter Nachfolger für N44 geplant ist und der entsprechend lange am Markt bleiben wird.

Insofern nicht so unglaubwürdig, dass AMD mit hohen Stückzahlen plant.

Vielleicht ist der Kostennachteil des dichteren Packages aber auch einfach so gering, dass sie einfach für alle Bereiche auf das kleinere Package setzen, wer weiß.

davidzo
2024-10-15, 14:42:10
N44 soll offensichtlich N24, N23 und N33 gleichermaßen beerben, also (zumindest perspektivisch) den ganzen Bereich von ~180-350 € abdecken.
In Sachen Perf/W und Perf/mm² scheint RDNA4 auch ein klarer Fortschritt zu werden, und zumindest die kleineren Blackwells sind auf jeden Fall auch nur in ner N4P-Variante, somit könnte AMD i.S. Perf/W und PPA so gut und konkurrenzfähig dastehen wie ewig nicht mehr.

Das denke ich auch, vor allem hoffe ich dass AMD auch die Produktionskosten in Griff kriegt. RDNA3 ist da nicht konkurrenzfähig und erlaubt abseits von N33 kaum Nvidia preislich unter Druck zu setzen ohne dass AMD alle Marge verliert.
Außerdem wird zumindest die TOP SKU wohl mit 16GB GDDR6 kommen, welcher preislich nicht viel teurer sein sollte als 8GB GDDR7 bei nvidia bei Gb206 und 207.

Es gibt aber immer noch die Möglichkeit dass nvidia die 5060 mit einem 96bit SI und 12GB GDDR7 ausstattet oder ebenfalls 16GB GDDR6. Beides ist aber sehr unwahrscheinlich da ja schon die 5070 mit nur 12Gb GDDR7 kommt und man sich sicher nicht die teureren karten im marketing kannibalisieren wollen wird.


Vielleicht ist der Kostennachteil des dichteren Packages aber auch einfach so gering, dass sie einfach für alle Bereiche auf das kleinere Package setzen, wer weiß.
Das bezweifle ich, denn Nvidia hat für AD106 und AD107 ein wesentlich größeres Package verwendet und soweit ich weiß noch keine kleinere mobilversion vorgestellt. Wenn ein Kompromiss beim Package so sinnvoll gewesen wäre, dann hätte nvidia das wohl auch gemacht, da die fetten Packages der 4050 die Hersteller von Mobilgeräten doch stark einschränken.

Altehardware
2024-10-15, 21:52:53
ähm 29x29?
So groß ist nicht mal der dickste chip am markt ad102 24*25
Das ist auch von der Maske gar nicht möglich 830mm² 29*29=841mm²
19*19 361mm² wäre möglich wäre aber in n6 was null Takt plus und Effizienz wäre.
Ne der chip misst maximal 165mm²
Das Si frisst die größte chipfläche so zu alu 63-37

Das problem ist aber weniger der Diespace als mehr der maxed Takt maximal sind es 3,4ghz bei 190w was ich auch sehe beim n44 beim n48 wird man anhand der Effizienzprobleme 360w brauchen daher gehe ich hier eher von 250w mit 2,9ghz aus. bei doppelten alu.
Der Grund ist das amd keine kleinere cuts als 56cu machen will wegen yield unnötig und man den maximalen preis halten will von 539€ und 599€
Die Namen können aber dennoch anders sein
Die Lücke zwischen n44 32cu 2,9ghz (130w) und n48 56cu 2,9ghz (250w) ist groß
Das kann amd nur mit ner 40cu sku lösen das aber lohnt sich nicht daher ein chip ans limit oc ab werk.
amd wird wie nvidia aber ne taktsperre setzen (tbp limit von 240w und 270w) um die Verkäufe der rx79000xtx xt gre zu gefährden
perf. erwartung
rx8600 28cu 120w +- rx7600xt
rx8700xt 32cu 190w 3,4ghz +- 0% rx7700xt
rx8800xt 56cu 220w 2,9ghz +->5% rx7800xt
rx8800xtx 64cu 250w 2,9ghz +- >10% rx7900gre
in dxr deutlich etwa 60%-75% etwa ampere level 64cu = 68sm rtx30gen

OgrEGT
2024-10-15, 22:01:24
Äh... es geht um das Package auf dem das Die was du meinst platziert wird...

horn 12
2024-10-15, 22:55:25
@Altehardware

Dies wäre kompletter Stillstand
wenn es die Karten schon ab diese Preise fast gibt, oder gar darunter.
+- 10% und nur geringfügig effizienter bringt keinen wirklichen Mehrwert!

@edit
Dann hätte man vielleicht 7900XTX Ray-Tracing Plus 20 bis 25%
und dies macht auch die RDNA 4 Karten zu keiner Kaufempfehlung.
399 und 479 Euro, dann schon aber nicht um 550 bis 600 Euro.
OK, Besser und Leiser Kühlbar zwecks weniger Abwärme, Hitzeentwicklung aber nicht mal dies ist komplett vorhersehbar.

Altehardware
2024-10-15, 23:09:08
schonmal ne gpu auf dem pcb gesehen da ist kein package dasn chip mit bga lötpunkten
das sind keine cpu wo ein substrat mit pins/pads daran ist und ein package ist chip auf pcb und Verbindung Technik socket

Das wichtige ist das es ein pcb mit einen chip ist und genau das ist es nicht
Das ist genauso wie bei vram chips oder anderen chips Silizium kontakt Fläche mit Metallüberzug

DR.DEATH
2024-10-15, 23:47:42
schonmal ne gpu auf dem pcb gesehen da ist kein package dasn chip mit bga lötpunkten
das sind keine cpu wo ein substrat mit pins/pads daran ist und ein package ist chip auf pcb und Verbindung Technik socket

Das wichtige ist das es ein pcb mit einen chip ist und genau das ist es nicht
Das ist genauso wie bei vram chips oder anderen chips Silizium kontakt Fläche mit Metallüberzug

In welchen Paralleluniversum ist das so? Ist hier irgendwie nicht wie du es beschreibst.

davidzo
2024-10-16, 00:06:25
schonmal ne gpu auf dem pcb gesehen da ist kein package dasn chip mit bga lötpunkten
das sind keine cpu wo ein substrat mit pins/pads daran ist und ein package ist chip auf pcb und Verbindung Technik socket

Das wichtige ist das es ein pcb mit einen chip ist und genau das ist es nicht
Das ist genauso wie bei vram chips oder anderen chips Silizium kontakt Fläche mit Metallüberzug

:facepalm:

Auch GDDR Module sind in einem Kunststoffpackage eingeschlossen, wobei Chip-DIE selber wesentlich kleiner als das Package ist. Wie sonst fertigen unterschiedliche Hersteller unterschiedliche Kapazitäten in unterschiedlichen Strukturbreiten aber mit demselben BGA Footprint? Da müsste man entweder den prozess/ die Diegröße auf den Footprint anpassen oder für jede Kapazität oder Prozessverbesserung den Footprint ändern?!

Nahezu alle Chips haben ein Package.
Direktverlötung von DIEs auf dem PCB gibt es nur bei extremer lowcost Hardware die in Steinzeit-Strukturbreiten gefertigt werden und wenige Pins haben aber trotzdem große DIEs haben so dass ein integriertes Fanout im Chip reicht.

Altehardware
2024-10-16, 00:19:23
Nun da haben wir unterschiedliche Vorstellung was ein package ist für mich ist das ein pcb mit chip darauf. normale chips sind kleine Kupfer Alu Platine mit dem Silizium oben darauf in einen Kunststoffgehäuse darum bei gpu ist das ein heatspreader auf dem Silizium verbunden mit indium und gold alu das nenne ich chip.
package ist chip mit pcb
cpu bspw sind packages da diese gesocket sind
Auch bga cpu sind chips keine packages

Egal die Angabe ist dennoch murks es macht kein Sinn die gpu zu Sockeln
und wär es so müsste jeder chip auf ner Platine packages sein von den micro controler bis zu den caps.

mczak
2024-10-16, 00:30:25
Das bezweifle ich, denn Nvidia hat für AD106 und AD107 ein wesentlich größeres Package verwendet und soweit ich weiß noch keine kleinere mobilversion vorgestellt.
Wie gross ist denn das Package (oder reden wir lieber von Substrat...) von AD107/AD106? So auf einen Blick würde ich das jedenfalls deutlich kleiner schätzen als 35x35.

horn 12
2024-10-16, 00:52:27
@AlteHardware

Nun, dann erzähl uns mal bitte die Vorteile welche vorliegen bei den RDNA 4 Karten,-
sprich Deiner 8800 XT und XTX.
Mehr als nicht mal die 7900XT einholen ist nicht drinnen,- und bei Raytracing etwas schneller als die 7900XTX
Eine Kostenoptimierte AMD Karte, mehr aber auch nicht!

Altehardware
2024-10-16, 01:50:39
P/L als erstes und mehr dxr perf auf etwa dem level der rx7900xtx nvidia rtx4070 im maximum rtx4070 super.
In raster kurz vor der rx7900xt ist nur knapp ~10% langsamer und das ist optimistisch da ich ne ipc Steigerung erwarte von 17% ohne diese wäre der volle n48 auf level der rx7900gre

Die sku sind seit min q2 2024 fertig der Grund warum diese noch nicht kommen liegt an den vollen Lagern mit n31 und n32 chips.
Insbesondere die n31 gehen sehr langsam aus dem Handel und amd hat die Fertigung seit q2 2024 eingestellt das sagt alles wie sehr die gpu sich nicht verkaufen

Im Ausland werden 9 von 10 sku von nvidia gekauft einzig Europa ist es fasst 50-50

OgrEGT
2024-10-16, 02:56:27
Nun da haben wir unterschiedliche Vorstellung was ein package ist für mich ist das ein pcb mit chip darauf. normale chips sind kleine Kupfer Alu Platine mit dem Silizium oben darauf in einen Kunststoffgehäuse darum bei gpu ist das ein heatspreader auf dem Silizium verbunden mit indium und gold alu das nenne ich chip.
package ist chip mit pcb
cpu bspw sind packages da diese gesocket sind
Auch bga cpu sind chips keine packages

Egal die Angabe ist dennoch murks es macht kein Sinn die gpu zu Sockeln
und wär es so müsste jeder chip auf ner Platine packages sein von den micro controler bis zu den caps.
Wie gesagt es ging bei den 29x29mm um die Abmessungen des Packages genauer des Substrats des Packages auf dem der Die sitzt und nicht um die Abmessungen des Dies.
Hier ein Bild mit den Begriffen (habe auf die Schnelle kein schöneres gefunden)...
https://img5668.weyesimg.com/uploads/rocket-pcb.com/images/16165692975496.png

Sumpfmolch
2024-10-16, 03:31:53
Die sku sind seit min q2 2024 fertig der Grund warum diese noch nicht kommen liegt an den vollen Lagern mit n31 und n32 chips.
Insbesondere die n31 gehen sehr langsam aus dem Handel und amd hat die Fertigung seit q2 2024 eingestellt das sagt alles wie sehr die gpu sich nicht verkaufen


Wird sich auch nicht mehr besser verkaufen. Die 4080 Super sinken im Preis auch mit und wer schon 900€ für eine Grafikkarte auszugeben bereit ist, kann dann auch gleich 1000€ ausgeben.

Altehardware
2024-10-16, 04:35:54
amd Rettung ist fsr4 wenn das für alle radeon gibt dürfte der verkauf ankurbeln

Ach das ist gemeint nun ok das amd dort breiter ist als nvidia wusste ich nicht im übrigen rdna4 ist monolithisch.

DrFreaK666
2024-10-16, 08:31:42
@AlteHardware

Nun, dann erzähl uns mal bitte die Vorteile welche vorliegen bei den RDNA 4 Karten,-
sprich Deiner 8800 XT und XTX.
Mehr als nicht mal die 7900XT einholen ist nicht drinnen,- und bei Raytracing etwas schneller als die 7900XTX
Eine Kostenoptimierte AMD Karte, mehr aber auch nicht!

Das reicht mir für max 666€ ^^

basix
2024-10-16, 08:53:01
Wie gross ist denn das Package (oder reden wir lieber von Substrat...) von AD107/AD106? So auf einen Blick würde ich das jedenfalls deutlich kleiner schätzen als 35x35.

Ist so. Das Package von AD106 ist ~800...820mm2 gross: https://www.techpowerup.com/gpu-specs/nvidia-ad106.g1014

Bei AD107 ist es ebenfalls ~800mm2.

N44 mit 29x29mm wäre 841mm2 gross. Passt doch für 128bit GDDR6 und x8 PCIe 5.0. AD107 und AD108 haben ein gleich breites SI und gleich viele PCIe Lanes.

Edit:
Finde leider keine Infos zum Ball Pitch des Packages. Nur ein paar schlecht aufgelöste Bilder vom PCB:
https://www.asusturkiye.com.tr/web/html/vga/nvidia/RTX4060TI/img/ROG-STRIX-RTX4060TI-O16G-GAMING/pcb.jpg
https://dlcdnwebimgs.asus.com/files/media/3A0B48C1-82EB-4716-84E7-9C343E5A28FE/v1/img/explosion/part-pcb.png

Hier ein Foto von einer 4090:
https://cdn.videocardz.com/1/2024/04/4090-PCB-BROKEN-PAD-1.jpg

Hier ein etwas besseres Bild von einer 4070:
https://m.media-amazon.com/images/I/81zMpvf4-EL.jpg

Der Ball Pitch von GDDR6 & GDDR6X ist 0.75mm (BGA-180) oder 0.8mm (BGA-170). GDDR6X ist BGA-180 und somit 0.75mm.

Anhand der Fotos von der 4070 Platine würde ich behaupte, der Pitch des GPU-Packages wird ~0.65mm sein.

Das Package von AD104 ist ~1500mm2 gross für 192bit SI sowie x16 PCIe Lanes. Ich denke, AD106 und AD107 könnte den selben Pitch verwenden, also ebenfalls 0.65mm2
Im schlimmsten Fall ist es 0.5mm wie bei Mobike RTX3050 (1358-ball BGA (GB5B-128 (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13630861#post13630861)). Also nichts, was es nicht bereits gäbe.

Edit2:
Ist ein wenig zum Verzeifeln. Von allen möglichen GPUs findet man BGA Reballing Masken, Bilder von der Unterseite vom Package usw. Nur für AD107 und AD106 nicht :D

Edit3:
So endlich, bei Ebay gibt es was, was vielleicht für AD106 passt: https://www.ebay.com.au/itm/276402532564
Komme auf 40 Balls in einer Reihe. Bei 28x28 / 29x29mm Package wäre das ein Pitch von 0.65mm. Definitiv nicht 0.5mm. Die Ball-Maske passt aber nicht exakt für das PCB-Bild von ASUS....

reaperrr
2024-10-16, 12:48:27
Hier ein etwas besseres Bild von einer 4070:
https://m.media-amazon.com/images/I/81zMpvf4-EL.jpg

Das soll ne 4070 sein?! Weil wegen 8 Plätzen für Speicherchips bei nem nativen 192bit-Chip und so... :freak:

Von der Logik her sollte das dann eher das PCB der 4080 oder 4070TiS sein...

/Korinthenkackerei

ähm 29x29?

Das Package, nicht der Chip!


Ne der chip misst maximal 165mm²
Richtig, eher weniger.


Das Si frisst die größte chipfläche so zu alu 63-37

Entschuldige, aber das ist kompletter Quatsch.
Ein 128bit SI ist heutzutage vielleicht 20-25mm² groß, in N4 vielleicht sogar kleiner.
Die ALUs sind zwar auch klein, aber mehr Fläche als das SI werden die definitiv belegen, zumal bei RDNA4 u.a. mehr RT-Hardware je CU verbaut sein wird.


amd wird wie nvidia aber ne taktsperre setzen (tbp limit von 240w und 270w) um die Verkäufe der rx79000xtx xt gre zu gefährden
Das ist Quark.
AMD hat die Produktion von N31 längst eingestellt und verkauft die 7900er Reste jetzt im Weihnachtsgeschäft ab, so gut es geht.
Die N4x werden vielleicht nicht so an die Kotzgrenze getrieben wie die 7900XTX und (relativ zur Fläche) 7600 XT, aber künstliche Taktsperren um Altprodukte besser aussehen zu lassen gibt's garantiert nicht.


perf. erwartung
rx8600 28cu 120w +- rx7600xt
rx8700xt 32cu 190w 3,4ghz +- 0% rx7700xt
rx8800xt 56cu 220w 2,9ghz +->5% rx7800xt
rx8800xtx 64cu 250w 2,9ghz +- >10% rx7900gre
in dxr deutlich etwa 60%-75% etwa ampere level 64cu = 68sm rtx30gen
N44 ist viel zu klein für solche Wattagen.
Der wird deshalb auch garantiert NICHT als 8700XT kommen.

Außerdem rechne ich bei RDNA4 mit mindestens 5-10% höherer IPC je CU, was zusammen mit den höheren Taktraten einiges bringen wird.

Also eher sowas:
RX 8600 (N44) - 28 CU, 90W, 2,8-2,9 GHz - wo 8GB reichen, 76XT + 10%
RX 8600 XT (N44) - 32 CU, 110W, 3,1-3,2 GHz - 7600XT + 20-25%
RX 8700 XT (N48) - 48 CU (1 SE deaktiviert), 210W, 192bit/12GB, 3 GHz - ~7800XT
RX 8800 (N48) - 56 CU, 240W, 16GB, 2,9 GHz - 7900GRE + 15%
RX 8800 XT (N48) - 64 CU, 280W, 16GB, 3,0-3,1 GHz - 7900XT + 10%

Und in RT ähnliche Skalierung wie Ampere, dadurch dort dann 88XT > 79XTX, 88 > 79XT, 87XT > 79GRE/78XT usw.

davidzo
2024-10-16, 14:53:04
Nun da haben wir unterschiedliche Vorstellung was ein package ist für mich ist das ein pcb mit chip darauf.

Vorstellungen? Das ist der industrieweite Standardbegriff, also ein Fakt.
Btw, Das grüne rund um den Chip ist kein PCB - auch wenn es ähnlich aussieht, sondern ein Substrat, meistens aus einem organischen Material.



normale chips sind kleine Kupfer Alu Platine mit dem Silizium oben darauf in einen Kunststoffgehäuse darum bei gpu ist das ein heatspreader auf dem Silizium verbunden mit indium und gold alu das nenne ich chip.


Es gibt keine Kupfer-Alu Platinen. Das Basismaterial zwischen den RDL-Leiterbahnen muss immer nicht-leitend sein, also kein Metall. Das ist das Substrat.


package ist chip mit pcb
cpu bspw sind packages da diese gesocket sind
Auch bga cpu sind chips keine packages

Nein, das ist einfach Blödsinn was du schreibst. Jeder Chip kommt in einem physischen Package. Auf deutsch übersetzt heißt das soviel wie "Chip Bauform".


Egal die Angabe ist dennoch murks es macht kein Sinn die gpu zu Sockeln
und wär es so müsste jeder chip auf ner Platine packages sein von den micro controler bis zu den caps.
OMG, genau das ist ja auch der Fall. Viele Chips gibt es sogar in verschiedenen Packages erhältlich, QFN-20, SSOP-20 etc. obwohl da der gleiche DIE drin steckt. Und natürlich haben Caps ein Package, häufig sogar das gleiche wie Widerstände, Dioden, etc. z.B. 0603 oder 1206 oder D-7343 für tantal.

Wie gross ist denn das Package (oder reden wir lieber von Substrat...) von AD107/AD106? So auf einen Blick würde ich das jedenfalls deutlich kleiner schätzen als 35x35.

Substrat ist eher aus der Fertigung und meint das Material zwischen und drumherum der im flipchip eingebetten Fanout Leiterbahnen. Das Fachwort für den ganzen Chip inkl. DIE, Substrat, Fanout, Pads ist wirklichg "Package". Ich würde das jetzt nicht vom Industriebegriff abwandeln bloß weil AlteHardware das als einziger nicht versteht.

Ist so. Das Package von AD106 ist ~800...820mm2 gross: https://www.techpowerup.com/gpu-specs/nvidia-ad106.g1014

Bei AD107 ist es ebenfalls ~800mm2.

N44 mit 29x29mm wäre 841mm2 gross. Passt doch für 128bit GDDR6 und x8 PCIe 5.0. AD107 und AD108 haben ein gleich breites SI und gleich viele PCIe Lanes.

AD107 gibt es in zwei Varianten:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=89809&stc=1&d=1729083121
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=89810&stc=1&d=1729083121
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=89811&stc=1&d=1729083121
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=89812&stc=1&d=1729083121

GerryB
2024-10-24, 14:15:06
btw.
In Vorbereitung von RDNA4 scheint der Abverkauf von RDNA3 in KW42 gut zu laufen.
da scheinen sich Manche zu überlegen wie P/L kommen könnte:
7800 vs. 8800/8700xt
7900xt vs 8800xt
7900xtx vs 5080

Zusätzlich hat natürlich die ältere Gen dann schon 3-4 Monate genutzt werden können, was auch 20-25€/Monat wert ist und
kommt mit Gamebundle.
Zwar wäre die 7900xt teuerer als die 8800xt hat aber auch mehr Vram, ... für Modder=wichtig.

fondness
2024-10-29, 15:38:27
Navi48 angeblich dual Chip
https://x.com/9550pro/status/1851263389059989807?t=__TeYJ4oqt7mE_wdYgrjMA&s=19

HOT
2024-10-29, 16:26:29
Wow, damit hätt ich echt nicht gerechnet. Dann einer N44 und 2 N48 oder wie? Selbst wenns nicht stimmt, lustige Idee.

davidzo
2024-10-29, 18:16:45
Wenn das wirklich so kommt haben die verdammt gut dicht gehalten.

Wir glauben ja seit dem Ende von N41-43 an monolitische chips und die Leaks zeigen ja auch monolitische 56CUs und 16GB RAM. Das ist also kein Multichip/CF wie bei Mi-200 sondern muss per on-chip fabric zu einer logische Einheit zusammengefügt sein.
Dafür gibt es nur 2 logische Stellen:
1. zwischen L1 und L2.
2. zwischen L2 und L3 (IF$)

Der L2 hat bei Navi31 ca. 9TB/s laut cheese and chips. Für Navi48 / 64CUs müsste man also mindestens 5tb/s erreichen imo.
Zwischen L2 und IFcache würden wohl 3TB/s reichen, denn navi31 kommt mit 96CUs auf 5,3TB/s, aber man müsset dann halt den L2 Cache doppelt verbauen.

Bei MI-300 ist die Trennung zwischen L2 und L3 und die Gesamtbandbreite vom IFcache 17,2tb/s. Die einzelnen XCDs müssen also mit mindestens 2,1TB/s angebunden sein. Die XCDs sind laut Semianalysis ca. 115mm2 groß.
3TB/s klingt für einen Navi44Chip mit ca. 145mm2 also machbar mit etwas höheren taktraten als Mi300X.

Ich bin gespannt was für ein Packaging das ist. Sieht mir nach nem Silicon interposer aus, also eher teuer...

vinacis_vivids
2024-10-29, 18:40:03
Die Chips sind recht klein, haben also eine sehr hohe Ausbeute. AMD braucht einfach auch das Volumen am Markt zum "günstigen Preis" für mehr Marktanteile bei kleinem Budged.

Wäre super und zwei kleine Chips sind günstiger in der Herstellung als ein "großer" 270mm^2 Monolith.

BavarianRealist
2024-10-29, 18:47:08
Wäre super und zwei kleine Chips sind günstiger in der Herstellung als ein "großer" 270mm^2 Monolith.

Günstiger...naja: es braucht auf beiden Chips die Komunikationseinheit und beide müssten über alle Video-Ausgabe-Funktionen verfügen, womit das alles doppelt wäre und viel Fläche verbraucht.

Allerdings lassen sich auch Dice verwenden, die Fehler im Video-Out etc. haben, weil es dann ja nur einer können muss.

robbitop
2024-10-29, 18:52:17
Könnte auch ein fake sein?

Tesseract
2024-10-29, 19:07:45
Günstiger...naja: es braucht auf beiden Chips die Komunikationseinheit und beide müssten über alle Video-Ausgabe-Funktionen verfügen, womit das alles doppelt wäre und viel Fläche verbraucht.

muss nicht unbedingt "doppelt" sein. es könnte jedes der chiplets weniger display engines etc. haben als es ein monolithischer chip hätte. könnten auch einfach zwei verschiedene chips sein.
aber ja, interchipkommunikation müsste wohl wesentlich fetter als bei den CPUs ein weil mehr bandbreite.

davidzo
2024-10-29, 19:08:22
Könnte auch ein fake sein?

Klar kann es das, gerade heutzutage ist das einfach. Das Bild ist aber wenn dann ein guter Fake.
Und das Gerücht dass Navi48 aus 2x navi44 besteht gab es ja schonmal im Frühjahr. Vielleicht war da doch was dran.


Günstiger...naja: es braucht auf beiden Chips die Komunikationseinheit und beide müssten über alle Video-Ausgabe-Funktionen verfügen, womit das alles doppelt wäre und viel Fläche verbraucht.

Allerdings lassen sich auch Dice verwenden, die Fehler im Video-Out etc. haben, weil es dann ja nur einer können muss.

Die könnte man auch ins Base-DIE packen wie bei Mi300X, wo je 2x XCD auf einem Base-DIE sitzen. Dann bräuchte aber selbst Navi44 einen solchen base-DIE.

Janos
2024-10-29, 20:08:23
das ist bestimmt ein fake, wie hätte AMD das solange geheim halten können?
Ein Multichip Design für eine Mittelklasse GPU, das macht doch nur Sinn wenn man damit die BFGPU bauen kann, oder?
In der Mittelklasse ist den Kunden doch Effizienz der heilige Gral, während man an der Leistungsspitze gerne mal 100W zu viel verziehen bekommt.
Entweder hat AMD eine Innovation am Start oder es ist ein Fake

robbitop
2024-10-29, 20:16:07
Oder es ist gleichzeitig ein pipecleaner für mGPUs als auch die erste Version von mGPUs die mit monolitischen mithalten kann aus P/L Sicht. Aber ich bin da auch gerade sehr skeptisch.
SI Interposer spricht jedenfalls nicht gerade für das Segment für das N48 gedacht war - aber wer weiß...

raffa
2024-10-29, 20:25:23
Immerhin gibts mal wieder was zu spekulieren jetzt :up:

Schon unwahrscheinlich, aber auch nicht unmöglich.
Und toll fänd ichs auch, wenn N48 kein langweiliger monodie wird, wie es eigentlich zu erwarten ist.

Slipknot79
2024-10-29, 23:26:09
Dualchip hätte ich eher für den top dog erwartet, also einen der die 5090 verprügelt.
Da aber AMD nicht vorhat da oben mitzumischen, wozu der komplizierte Weg über dualchip für bestenfalls 5080 level? oO

Altehardware
2024-10-30, 05:34:11
Das macht null Sinn
Der n48 misst maximal 319mm² in n4 node mit eine 35 alu zu 65 si Verhältnis
ja das geht besser aber dafür braucht es zwingend cowos oder das Si muss kleiner werden da führt kein Weg vorbei.
Die alternative wäre hbm3e mit 16gb an nenn 2048bit si +-800gb/s
Das erklärt auch das Bild ein hbm3e Baustein neben dem chip das Si wäre bei nur 15% chipfläche und der chip wäre bei grob 140mm²

dildo4u
2024-10-30, 05:49:34
RDNA4 offiziell von Lisa Su für Anfang 2025 bestätigt


https://wccftech.com/amd-confirms-rdna-4-radeon-gpus-launching-early-2025-faster-ray-tracing-new-ai-features

OgrEGT
2024-10-30, 06:41:35
Navi48 angeblich dual Chip
https://x.com/9550pro/status/1851263389059989807?t=__TeYJ4oqt7mE_wdYgrjMA&s=19
Sehr cool wenns stimmt...
Wenn das mit 2 Chiplets geht dann geht das auch mit 3x oder 4x?
Wenn es N48 auch als separates 64CU Chiplet gibt dann wäre auch 2xN48 möglich...

fondness
2024-10-30, 08:25:51
RDNA4 offiziell von Lisa Su für Anfang 2025 bestätigt


https://wccftech.com/amd-confirms-rdna-4-radeon-gpus-launching-early-2025-faster-ray-tracing-new-ai-features

Nicht nur das: Sie bestätigt auch deutlich höhere raytracing Leistung und neue AI Features.


In addition to a strong increase in gaming performance, RDNA 4 delivers significantly higher ray tracing performance and adds new AI capabilities.

We are on track to launch the first RDNA 4 GPUs in early 2025.

Lisa Su - AMD CEO (Q3 2024 Earnings Call)

Lurtz
2024-10-30, 08:41:47
Na hoffentlich läuft "FSR4" dann auch bis dahin. Wäre peinlich wenn das dann wieder erst sechs Monate später kommt.

dildo4u
2024-10-30, 08:47:04
Wäre mal was Neues wenn sie deswegen den Launch verzögern die Hardware wird es nicht sein wenn die Karten GDDR6? nutzen.

MSABK
2024-10-30, 08:56:50
Hoffentlich mal echte Konkurrenz zu Dlss.

fondness
2024-10-30, 09:41:26
SI Interposer spricht jedenfalls nicht gerade für das Segment für das N48 gedacht war - aber wer weiß...

Da reicht wohl eine einfache Bridge. Aber ich glaube auch nicht dran.

Außer es gibt ein Base-Die das auch Funktionen wie I/O oder den Infinity-Cache enthält (analog zu MI300). Man könnte vielleicht sogar ein MI300-Base-Die verwenden?!

mboeller
2024-10-30, 09:44:03
Navi48 angeblich dual Chip
https://x.com/9550pro/status/1851263389059989807?t=__TeYJ4oqt7mE_wdYgrjMA&s=19

in dem Thread schütteln alle den Kopf (RedgamingTech, Kepler)... also mal sehen.

Ich persönlich denke, dass da einige das in den falschen Hals bekommen haben, dass N48 2xN44 ist... also 2x soviele CU, 2x breiteres Speicherinterface etc...

Meine alte Specu, dass die technologische RDNA4 Basis zwar funktioniert, die N41-N43 vom Packaging aber zu teuer waren bzw. Packaging für andere Projekte benutzt werden musste wäre damit aber wieder "up-to-date".

N49 = 2x N48 od. 4x N44 ... 32GB, 128CU, 3+GHz ...

fondness
2024-10-30, 09:55:03
in dem Thread schütteln alle den Kopf (RedgamingTech, Kepler)... also mal sehen.

Ich persönlich denke, dass da einige das in den falschen Hals bekommen haben, dass N48 2xN44 ist... also 2x soviele CU, 2x breiteres Speicherinterfacer etc...

Meine alte Specu, dass die technologische RDNA4 Basis zwar funktioniert, die N41-N43 vom Packaging aber zu teuer waren bzw. Packaging für andere Projekte benutzt werden musste wäre damit aber wieder "up-to-date".

N49 = 2x N48 od. 4x N44 ... 32GB, 128CU, 3+GHz ...

Ich glaube auch nicht dran. Vor allem da die Quelle von damals sehr valide war die sagte Lisa hat alle Packaging Kapazitäten für MI300 reserviert. Und TSMC hat zu knappen Packaging Kapazitäten bis zumindest Ende 2025 mehrmals bestätigt.

N41-N43 wäre ein MI300 äquivalent geworden, also 3D-Stacking mit I/O-Base-Die, Skalierung der Performance über Chiplets oben und unten. N44 war sowieso als Single-Die geplant weil sehr klein und N48 ist die Notlösung die jetzt möglichst schnell kommen musste und wo alleine schon deshalb nur ein Single-Die Sinn macht.

davidzo
2024-10-30, 10:47:29
Wenn das mit 2 Chiplets geht dann geht das auch mit 3x oder 4x?


Nein, dann bekommst du das Sappire-rapids Problem dass du gespiegelte Chips brauchst um zum Beispiel Chips im Quadrat anzuordnen. Außerdem scheint es sehr schwierig zu sein DIEs in zwei Achsen so präzise mit emibs zu packagen. Intel ist daher auf eine Achse zurück gegangen.
Eine Achse bedeutet aber wieder dass die Bandbreite und Latenz quer über den Chip geringer ist, weil im worst case mehr Hops benötigt werden um einmal über den ganzen Chipverbund zu kommen.
Ein weiterer Nachteil eines Chips der von 1x bis 4x skaliert ist dass in den kleinen Modellen sehr viel Fläche wasted wird die nur beim 4x Modell benötigt wird. Der Interconnect nimmt beim single Die unnötig Fläche ein, bei Dual-die wird nur die Hälfte genutzt und erst bei 4x Dies in einer Reihe würde man bei den mittleren Chips beide Hälften des Interconnects (z.B. serdes) nutzen. Also jede Menge ungenutztes Silizium.

Dual-Die macht Sinn wenn in erster Linie Yields das Problem sind, bzw. die Kosten ausmachen. Da N4 ein "mature" node ist und schon RDNA3 wesentlich größere Chips mit sehr guten yields produziert hat, denke ich ist das hier vernachlössigbar. Außerdem macht Dual-DIE sinn wenn man Ressourcen sparen will für das Design- und Bringup team, Masken, Fertigungslinien etc.
Man kann einen einzelnen Chip schneller in der Produktion skalieren.
Im Gegenzug investiert man aber etwas mehr in den DIE und Packaging.


Da reicht wohl eine einfache Bridge. Aber ich glaube auch nicht dran.
In dem Fall würde man N44 für den Bringup nutzen.
Die Gerüchteküche zu N44 ist aber deutlich ruhiger als n48. Gibt es nicht auch eine Ansage dass N44 etwas später kommt? Die Geekbench leaks sind ja mit N48 gemacht worden. Das wäre sehr unwahrscheinlich dass man nichts mitgekriegt hat wenn es davor schon etliche N44 bringup karten gab.

dargo
2024-10-30, 11:06:34
RDNA4 offiziell von Lisa Su für Anfang 2025 bestätigt

:usad:

Geht es bald Richtung drei Jahre zwischen zwei Gens? :usweet:

Gipsel
2024-10-30, 11:46:15
Außer es gibt ein Base-Die das auch Funktionen wie I/O oder den Infinity-Cache enthält (analog zu MI300). Man könnte vielleicht sogar ein MI300-Base-Die verwenden?!Das Active-Interposer-Die vom MI300 mißt 370mm² und hat dummerweise neben InfinityCache auch 2 HBM-Speichcercontroller integriert (und keine GDDR#-Controller).
Aber man könnte natürlich ein Desktop-Äquivalent basteln. Ob das kosteneffizient ist, dürfte fraglich sein.

Altehardware
2024-10-30, 11:54:43
Daran zweifle ich zwr hat amd noch gut viele rdna n33 sku aber n31 sowie n32 sind fast aus den Lagern.
Da macht es Sinn zumindest den dicksten Ausbaustufe zu bringen mit 64cu etwas teurer als die n31 sku aber billiger als die xtx aber auch um 30% langsamer
etwa so
rx8800xt 56cu 24,3tf 599€ 14gb
rx7900gre 27tf 580€ +12% raster dxr -25% vs 56cu
rx8800xtx 28tf 690€ dxr auf level von der rx7900xtx nur 16gb vram.96 rop 384 tmu
rx7900xt 32tf 670€ +10% raster -20% dxr vs 64cu
rx7900xtx 37tf 870€ +30% raster +- dxr identisch zu 64cu 192rop 384 tmu

fsr4 werden alle unterstützt da es ein Treiber feature ist somit alle rdna gpu können

reaperrr
2024-10-30, 12:27:55
in dem Thread schütteln alle den Kopf (RedgamingTech, Kepler)... also mal sehen.

Ich persönlich denke, dass da einige das in den falschen Hals bekommen haben, dass N48 2xN44 ist... also 2x soviele CU, 2x breiteres Speicherinterface etc...

Jep, war mMn auch letztes Mal schon so, als diese Kuh durchs Dorf getrieben wurde.

Ergibt aber heute nicht mehr Sinn als damals.
Man hätte dafür Multi-Chip von vornherein bei N44 einplanen müssen, und die für N48 kolportierte Größe ist in einem Bereich, wo die Yield-Rate in N4P auch bei einem Monolithen ziemlich gut sein dürfte, weshalb es aus Kosten-Sicht einfach unnötig und wahrscheinlich sogar kontraproduktiv wäre.

Es macht aber vor allem auch deshalb keinen Sinn, weil das nochmal ne andere Form von MultiChip als bei N3x und den großen N4x wäre, und ich entwickel doch nicht noch eine dritte Form von MultiChip, nur um keinen eigenen monolithischen N48 entwickeln zu müssen.

Wir reden bei N48 ja nicht von einem 600mm² Monster, sondern von irgendwo zwischen 240-330mm² Fläche, je nach Gerüchteküche. Das ist AD104/GB205-Territorium, das ist Mainstream, da geh ich doch nicht die Nachteile von MCM ein, das haben sie schon bei N32 nur gemacht, weil sie die MCDs von N31 mitnutzen konnten.

BlacKi
2024-10-30, 20:17:04
RDNA4 offiziell von Lisa Su für Anfang 2025 bestätigt


https://wccftech.com/amd-confirms-rdna-4-radeon-gpus-launching-early-2025-faster-ray-tracing-new-ai-features


aber nicht CES. early 2025 hört sich nach märz an.

G3cko
2024-10-30, 20:33:37
Dualchip hätte ich eher für den top dog erwartet, also einen der die 5090 verprügelt.
Da aber AMD nicht vorhat da oben mitzumischen, wozu der komplizierte Weg über dualchip für bestenfalls 5080 level? oO

Wenn man den Multi-Chip-Ansatz von den CPUs auf die GPUs überträgt, so war ein riesiger Vorteil eben von der kleinsten Desktop-SKU bis zur größten Server-SKU mit einem DIE zu skalieren.

Es macht schon Sinn für AMD ersteinmal das konzept auf kleiner Basis zu erproben, bevor man dann 3 oder 4 DIEs kombiniert.

BlacKi
2024-10-30, 21:04:07
ja stimmt. testboote baut amd sehr viele. aber kaum eins kann überzeugen.

HOT
2024-10-30, 21:04:14
:usad:

Geht es bald Richtung drei Jahre zwischen zwei Gens? :usweet:

2 1/2 auf jeden Fall würd ich tippen, aber 3 irgendwann auch. Gibts ja auch selterner neue Prozesse, die sich lohnen, deren Entwicklungszyklen werden auch immer länger. Und die (auch dadurch) stark steigenden Entwicklungskosten kann man in einem 3-Jahes-Zyklus besser reinholen als in 2.

BlacKi
2024-10-30, 21:05:55
widerspricht zumindest nv ansätze mit 1 gen pro zeitraum, aber kleineren schritten. wie war das mit blackwell ultra?

dargo
2024-10-31, 06:16:36
2 1/2 auf jeden Fall würd ich tippen, aber 3 irgendwann auch. Gibts ja auch selterner neue Prozesse, die sich lohnen, deren Entwicklungszyklen werden auch immer länger. Und die (auch dadurch) stark steigenden Entwicklungskosten kann man in einem 3-Jahes-Zyklus besser reinholen als in 2.
Tolle Aussichten... alle ~6 Jahre Verdoppelung der Performance. :uup: *gähn*

HOT
2024-10-31, 09:00:49
Tolle Aussichten... alle ~6 Jahre Verdoppelung der Performance. :uup: *gähn*

Im Extremfall: Jede neue Konsolengeneration ein Tock und zwischendurch ein Tick.

dildo4u
2024-10-31, 09:22:24
Sieht man doch an der PS5 Pro unter 4 Jahre lohnt es sich nicht zu Upgraden.
Noch weniger bei Nvidia das die alten Karten schon DLSS können.

The_Invisible
2024-10-31, 09:55:21
Tolle Aussichten... alle ~6 Jahre Verdoppelung der Performance. :uup: *gähn*

Kannst ja auch positiv sehen, so lohnt es sich auch mehr in eine Grafikkarte zu investieren die dann auch länger hält.

Ansonsten nix neues, wenn da keiner was erfindet wird die Entwicklung immer langsamer werden und man wird den fehlenden Rohleistungszuwachs durch AI ausgleichen.

HOT
2024-10-31, 10:18:49
Richtig. Dann schlagen die Preise gar nicht mehr so ins Kontor, wenn man die Karte definitiv 4-6 Jahrte behält.

Slipknot79
2024-10-31, 11:39:37
Yo, so halte ich es auch schon seit Jahren. Nur für +100% performance gibts Kohle, sonst Pech für die Grakahersteller, Pech für Lederjacke. (y) Wenn er meine Kohle statt alle 4 Jahre nur noch alle 6 Jahre will, dann ist das eben seine Entscheidung und erneut sein Pech. (y)

dargo
2024-10-31, 12:33:01
Richtig. Dann schlagen die Preise gar nicht mehr so ins Kontor, wenn man die Karte definitiv 4-6 Jahrte behält.
Auf der finanziellen Seite mag das durchaus zutreffen. Aber auf der Seite "ich möchte endlich wieder was Neues haben" ist das dann leider absolut enttäuschend. Ich kann mir gar nicht vorstellen 6 Jahre mit einer Grafikkarte oder CPU auszuhalten. :freak:

DrFreaK666
2024-10-31, 14:15:37
aber nicht CES. early 2025 hört sich nach märz an.

Kann auf der CES trotzdem vorgestellt werden

HOT
2024-10-31, 14:17:27
Auf der finanziellen Seite mag das durchaus zutreffen. Aber auf der Seite "ich möchte endlich wieder was Neues haben" ist das dann leider absolut enttäuschend. Ich kann mir gar nicht vorstellen 6 Jahre mit einer Grafikkarte oder CPU auszuhalten. :freak:
Kann ich voll nachvollziehen ;).

mboeller
2024-10-31, 15:21:54
mal eine Frage:

Ein 500mm2 großer Silikon-Interposer in 6nm soll laut perplexity.ai nur $4.08 kosten. Anscheinend sind Interposer wesentlich günstiger als normale Dies. Ein 300mm Interposer-Wafer soll nur $500-650 kosten anstelle >10x mehr für normale SOC.

Kann das stimmen?

Hab gefragt wegen 2x N48

https://www.perplexity.ai/search/cost-of-a-6nm-silicon-interpos-pQECgcjjTtuC73qd8KOokA

bbott
2024-10-31, 17:13:34
:usad:

Geht es bald Richtung drei Jahre zwischen zwei Gens? :usweet:
Wäre ja, in Ordung wenn die neue Gen alle Leistungsklassen und ordentlich mehr Performance liefern würde...

Mortalvision
2024-10-31, 17:35:41
Nö, ist nicht mehr. Ab jetzt sind extrem viel Grips und Durchhaltevermögen nötig, um neue Architekturen aufzubauen. Die Strukturverkleinerungen gehen zwar noch etwas weiter, so bis 2035. Ab dann brauchts aber gefühlt 1000 Milliarden Entwicklungskosten, um wesentlich unter 1nm zu kommen. Und die zweite Frage ist schlicht, ob das haltbar und stabil ist (Kosmische Strahlung und schwache Uranstrahlung als Beispiele)

mczak
2024-10-31, 18:51:24
Ein 500mm2 großer Silikon-Interposer in 6nm soll laut perplexity.ai nur $4.08 kosten. Anscheinend sind Interposer wesentlich günstiger als normale Dies. Ein 300mm Interposer-Wafer soll nur $500-650 kosten anstelle >10x mehr für normale SOC.

Kann das stimmen?

Scheint mir ein guter Preis zu sein. Passive Silizium-Interposer sollten aber schon relativ günstig zu fertigen sein, da braucht man bloss ein paar Metall-Layer, und man kann dafür scheinbar auch Wafer aus polykristallinem Silizium verwenden. Das hat dann aber eigentlich nichts mit "6nm" zu tun.

amdfanuwe
2024-10-31, 18:55:37
mal eine Frage:

Ein 500mm2 großer Silikon-Interposer in 6nm soll laut perplexity.ai nur $4.08 kosten. Anscheinend sind Interposer wesentlich günstiger als normale Dies. Ein 300mm Interposer-Wafer soll nur $500-650 kosten anstelle >10x mehr für normale SOC.

Kann das stimmen?


Die Kosten eines Chips werden durch die Anzahl der Belichtungen, Ätzvorgängen, Prozessnode etc. bestimmt.
Für einen Interposer werden nur wenige Layer in älterem billigem Prozessnode benötigt.
Also ja, ein Interposer ist wesentlich billiger.
Auch wenn die $4.08 nicht viel erscheinen, zählt in der Industrie jeder Cent.
Bei 1 Millionen Stück und einem $0,10 billigerem Package springt für die Chef Gattin schon ein neuer Porsche raus.

reaperrr
2024-11-01, 17:04:11
Yo, so halte ich es auch schon seit Jahren. Nur für +100% performance gibts Kohle, sonst Pech für die Grakahersteller, Pech für Lederjacke. (y) Wenn er meine Kohle statt alle 4 Jahre nur noch alle 6 Jahre will, dann ist das eben seine Entscheidung und erneut sein Pech. (y)
Auch wenn's für dich persönlich Sinn macht:

Die "Schuld" liegt hier mehr bei der Physik als allem anderen.
Am oberen Ende werden die Leistungszuwächse halt durch die sinkenden Fortschritte bei der Fertigungstechnik begrenzt.

Das hat dann halt weniger mit nicht wollen und mehr mit einfach nicht können zu tun, wenn die 5090 am Ende in 500W und 800mm² Fläche nur 55-70% mehr Leistung in Raster schafft (in RT könnte es u.U. ja nah an 100% gehen, mit etwas Glück(?) für Leute wie dich).

davidzo
2024-11-01, 18:36:03
Sehr richtig. Es ist natürlich ein physikalisches Naturgesetz dass jedes Jahr die Produktmarge ein bis zweistellig steigen muss (+27% in 2024). Wer das nicht akzeptiert hat die Friedman Doctrine nicht verstanden, die schließlich für unser Wirtschaftssystem einem Naturgesetzt gleicht. Es ist die soziale Verpflichtung jedes Unternehmens maximalen Shareholder Value abzuliefern. Deshalb muss nvidia die Preise erhöhen, weil dass das sozial von Allen erwartete Verhalten ist.

BlacKi
2024-11-01, 19:07:55
nur ging es nicht um preise.

reaperrr
2024-11-01, 20:51:19
nur ging es nicht um preise.
Richtig.
Auch wenn NV dafür 5000€ für ne Karte verlangen könnte, wär's immer noch eine enorme Herausforderung, selbst in N3E die Raster-Perf gegenüber einer 4090 zu verdoppeln, ohne dass es dafür 700W+ und HighEnd-Wasserkühlung braucht.

basix
2024-11-03, 11:07:01
Scheint mir ein guter Preis zu sein. Passive Silizium-Interposer sollten aber schon relativ günstig zu fertigen sein, da braucht man bloss ein paar Metall-Layer, und man kann dafür scheinbar auch Wafer aus polykristallinem Silizium verwenden. Das hat dann aber eigentlich nichts mit "6nm" zu tun.

Habe ich mir nie überlegt aber für nur ein paar gröbere Metal Layer ist polykristallines Silizium wohl wirklich gut genug. Solange die Kistall-Grösse ein gutes Stück kleiner ist als die Feature-Grösse der belichteten Strukturen, müsste das passen. Habe kurz gegoogelt, so ~50-100nm ist die typ. Kristallgrösse von Polysilicon. Da sollten ~1um Trace Spacing kein Problem sein, was für einen passiven Interposer noch lange reichen wird, wenn man typischen Pitch von Cu-Pillars oder gar SoIC(+) (3D-Stacking) anschaut.

raffa
2024-11-03, 13:23:57
Meint ihr, wir sehen mit RDNA4 den für RDNA3 versprochenen Effizienzsprung?

reaperrr
2024-11-03, 14:19:04
Meint ihr, wir sehen mit RDNA4 den für RDNA3 versprochenen Effizienzsprung?
Jein.

Im Vergleich zu RDNA2, ja.
Im Vergleich zu RDNA3, so halb.

Wegen der fehlenden größeren Chips wird zumindest der Top-N48 vermutlich (relativ zur Chipfläche) an die Grenze des mit Luftkühlung möglichen getrieben, um zumindest in Raster möglichst vor der 5070 (dem größten GB205) zu landen.

N44 vs. N33 und die Salvage-N48 vs. N32 werden mMn aber ziemlich gut für RDNA4 ausgehen in Sachen Perf/W und auch gegen Ada grob Gleichstand bei Perf/W herstellen, wovon RDNA3 ja teils meilenweit weg ist.

Platos
2024-11-03, 14:57:20
nur ging es nicht um preise.

Indirekt natürlich schon. Würde man nicht immer höhere Margen haben wollen, gäbe es auch für's gleiche Geld mehr (also grössere Chips) und somit wäre der Fortschritt auch grösser.

reaperrr
2024-11-03, 17:24:30
Indirekt natürlich schon. Würde man nicht immer höhere Margen haben wollen, gäbe es auch für's gleiche Geld mehr (also grössere Chips) und somit wäre der Fortschritt auch grösser.
Was für eine verquere Logik ist das?
Wenn die Chips fürs gleiche Geld immer größer werden, sinkt die Marge.
So wie sich die Waferpreise insbesondere von TSMC entwickelt haben, musste z.B. AMD die Preise schon langsam aber stetig erhöhen, nur um die Marge je Chip auf dem aktuellen Niveau zu halten.
Dass die Marge bei AMD allgemein trotzdem gestiegen ist, liegt am gestiegenen Volumen v.a. bei den CPUs -> Fixkosten hauen nicht mehr so hart rein wie früher.
Das ist zum Teil aber weniger AMD's eigener Verdienst, sondern auch die Unfähigkeit von Intel und Nvidia's ausgebuchte Liefermengen ihrer HPC-Beschleuniger.

Abgesehen davon, es ging hier um die 5090 und die gewünschten +100% Leistung zur 4090.
Das ist mit der aktuell verfügbaren Fertigungstechnik eben mindestens extrem schwer, jedenfalls in Raster, egal wieviel mehr Geld sie dafür verlangen könnten.
Hier spielt Geld/Marge eben nicht die Rolle.

Wenn ein noch größerer GB202 z.B. 300$ mehr in der Herstellung kosten würde, sich aber auch 500-1000€ mehr an den Karten verdienen ließe, ändert das immer noch nichts daran, dass eine Verdopplung der 4090-Leistung durch einen Mix aus CPU-Limits und mäßigen Fortschritten bei den Fertigungsprozessen halt aktuell noch nicht wirklich drin ist.

100% mehr Leistung als die 4090 wenn der beste Prozess am oberen Ende der Taktskala nur ~10-15% auf den der 4090 drauflegt, grenzt halt an unmöglich, wenn du nur ~50% mehr in die Breite gehen kannst und MCM für Spiele noch nicht ausgereift ist.

robbitop
2024-11-03, 17:46:56
Was er meint ist dass zusätzlich zu den steigenden Kosten durch die erhöhte Komplexität auch die IHVs und Fertiger gieriger geworden sind. Deren Margen schossen ordentlich nach oben seit Covid und seit dem AI boom.

Platos
2024-11-03, 18:52:40
Was er meint ist dass zusätzlich zu den steigenden Kosten durch die erhöhte Komplexität auch die IHVs und Fertiger gieriger geworden sind. Deren Margen schossen ordentlich nach oben seit Covid und seit dem AI boom.

This

Jeder Quartalsbericht belegt das immer wieder 1A.

basix
2024-11-04, 09:42:17
TSMC usw. verdienen gut. Bei AMD ist die Marge bei der Gaming Sparte momentan aber anscheinend ziemlich dünn. Es fehlt an Umsatz. Vor einem Jahr sah das noch deutlich besser aus.

Hakim
2024-11-04, 10:23:06
Wie schaut's eigentlich inzwischen bei Dual Monitor Betrieb bei AMD aus? Immer noch Glücksspiel ob die Karte im Sparmodus laufen kann?

Altehardware
2024-11-04, 11:21:47
Sofern ich das weis liegt das nicht an amd sondern an Microsoft die Monitore müssen identisch sein und gleich eingestellt ansonsten hat man Probleme im idle Modus.

Hakim
2024-11-04, 12:16:32
ich hab ja kein plan, aber bei Nvidia scheint es ja seit Jahren zu klappen trotz Windows. Trotz zweier Monis bei 165Hz + 60Hz Betrieb. Bei AMD lese ich oft das es bei einem klappt beim anderen nicht, und ja bei zwei identischen sollte es immer gehen.

Exxtreme
2024-11-04, 12:23:51
ich hab ja kein plan, aber bei Nvidia scheint es ja seit Jahren zu klappen trotz Windows. Trotz zweier Monis bei 165Hz + 60Hz Betrieb. Bei AMD lese ich oft das es bei einem klappt beim anderen nicht, und ja bei zwei identischen sollte es immer gehen.

Das klappt bei NV auch seit Neuestem so richtig nachdem Micros~1 einen neuen Kernel rausbrachte. Davor klappte zwar das Stromsparen, dafür gab es z.Zt. massivste Grafikfehler bei mehreren Monitoren.

BlacKi
2024-11-04, 12:58:48
Indirekt natürlich schon. Würde man nicht immer höhere Margen haben wollen, gäbe es auch für's gleiche Geld mehr (also grössere Chips) und somit wäre der Fortschritt auch grösser.
es ist halt ein anderer punkt. selbst mit allem geld der welt kann man nicht jede gen 100% drauflegen. das ist keine geldsache, das ist physikalisch nicht möglich. das geht nur über optimierungen um die HW herum.


wenn auf die margen komplett geschissen würde, dann gäbe es eine generation mit 100% performance uplift. das hätte konsequenzen für alle anderen generationen. denn danach gäbe es keine 100% performance uplift mehr, oder die karten würden mehr in der produktion kosten als sie einbringen. denn die 100% uplift zu garantieren kostet wahnsinnig viel geld. weil die fortschritte im technologischen sektor nicht bei 100% liegen.


und weil die umwege über software optimierungen auch geld kosten, muss die marge zwischen herstellungskosten und verkaufskosten zwangsläufig steigen.

kurz gesagt: spätestens nach 3 generationen 100% alle 2 jahre, kosten die karten 5000€ in der herstellung und verbrauchen 1-1,5kw.

DrFreaK666
2024-11-21, 16:44:29
Wo bleibt RDNA4?
Mein Stromanbieter hat 380€ zurückgezahlt, den Rest hab ich schon. Ich bin bereit :biggrin:

TheAntitheist
2024-11-22, 04:34:56
Wo bleibt RDNA4?
Mein Stromanbieter hat 380€ zurückgezahlt, den Rest hab ich schon. Ich bin bereit :biggrin:
muss noch reifen bis sie RDNA 3 schlagen und den RAM gefunden haben

GerryB
2024-11-22, 13:16:37
... und den RAM gefunden haben
1+

Samsung könnte dahingehend gerne mal seinen GDDR6 überarbeiten, das die Temp. etwas niedriger wird.
(wäre für OCer nice to have)

vinacis_vivids
2024-11-27, 21:40:22
Hier neues Futter für RDNA4 :
https://ibb.co/vXJyhTm

Viel Spaß beim anschauen 😍

https://i.ibb.co/qJRqCc9/Navi-31-Die-edired.webp

basix
2024-11-28, 11:30:18
Meint ihr, wir sehen mit RDNA4 den für RDNA3 versprochenen Effizienzsprung?

Ich hoffe, dass AMD ihre 1.5x pro Generation wieder treffen. Und das ausgehend von RDNA1.
- RDNA2 = ~1.5x RDNA1
- RDNA3 = ~1.2...1.3x RDNA2
- RDNA4 = ~1.8x RDNA3

Das wäre schon ziemlich ordentlich aber braucht es wahrscheinlich, um gegen Blackwell keine grösseren Effizienznachteile zu haben.

mczak
2024-11-28, 13:40:02
Ich hoffe, dass AMD ihre 1.5x pro Generation wieder treffen. Und das ausgehend von RDNA1.
- RDNA2 = ~1.5x RDNA1
- RDNA3 = ~1.2...1.3x RDNA2
- RDNA4 = ~1.8x RDNA3

Das wäre schon ziemlich ordentlich aber braucht es wahrscheinlich, um gegen Blackwell keine grösseren Effizienznachteile zu haben.
Kommt auch darauf an wieviel da Blackwell besser sein wird als Ada. Wobei bisher sehe ich nichts das auf einen grösseren Effizienzsprung hindeutet - dass die HIghend-Chips da offenbar deutlich grösser sind spricht jedenfalls nicht dafür.
Dass man aber mit rdna4 1.8x rdna3 erreicht halte ich für utopisch, ausser evtl. in ein paar Spezialfällen (z.B. RT?).
Sowieso konkurriert man mit nvidia bloss am unteren Ende deren Chips, dass nvidia den schnellsten Chip hat ist man sich ja gewohnt aber diesmal hat man nichts (das gilt natürlich auch für intel) das nur annähernd an die 2 schnellsten Blackwell-Chips (GB202, GB203) rankommt.

vinacis_vivids
2024-11-28, 14:47:09
Navi48 270mm² "N4P" gegen GB203 377mm² "N4" wird vorkommen.
16GB vs 16GB
256bit vs 256bit
64CU vs 84SM
300W vs 350W

Das ist Mittelklasse.

Gegen GB202 muss schon "N41" her mit 128CU oder 144CU um mithalten zu können.

Ansonsten muss man bis 2026 / 2027 warten auf UDNA1 (RDNA5). Aber selbst da wäre Sony wahrscheinlich wieder Vorreiter mit der PS6.

Indem Huynh auf Mittelklasse gesetzt hat, hat man bei AMD dGPU eben alles auf Navi48 / Navi44 gesetzt um RDNA2 / RDNA3 kostengünstig zu ersetzen im Portfolio.

Systemintegratoren schauen halt auf den Stückpreis und greifen halt häufiger zu AMD bei den GPUs. NV muss zwangsläufig teuer verkaufen um die teuren (größeren) Gaming-Chips halbwegs finanzieren zu können, um nicht noch mehr miese im Gaming zu machen.

basix
2024-11-28, 15:29:27
Kommt auch darauf an wieviel da Blackwell besser sein wird als Ada. Wobei bisher sehe ich nichts das auf einen grösseren Effizienzsprung hindeutet - dass die HIghend-Chips da offenbar deutlich grösser sind spricht jedenfalls nicht dafür.
Dass man aber mit rdna4 1.8x rdna3 erreicht halte ich für utopisch, ausser evtl. in ein paar Spezialfällen (z.B. RT?).

1.8x ist sicher sportlich. Aber man hat schon ein paar Bonuspunkte:
- RDNA3 kam unter den Erwartungen raus (>1.5x hat AMD da mal angekündigt, real waren es dann eben 1.2...1.3x)
- N4P/N4X bringt sicher was gegenüber N5(P)
- Keine Chiplets mehr (bei dieser Chip-Grössenklasse ein Vorteil)
- Neue Architektur

Falls AMD sich initial das gleiche Ziel gesetzt hat wie bei RDNA2/3 = 1.5x effizienter als der Vorgänger zu sein, man die Fehler von RDNA3 korrigiert und diesmal nicht am Ziel vorbeschlittert würde man bei den 1.8x landen. Momentan ist die Gerüchtelage bei ~7900XT Performance bei 220W. Je nach RDNA3 GPU die man als Basis nimmt und man landet bei ~1.35...1.55x Effizienzsteigerung.

robbitop
2024-11-28, 15:44:41
Man kann extrem auf FSR 4 (und deren Abhängigkeit zu ML und die HW die es nutzt und die Frametimekosten; und ggf hat man mit FSR4 -dazu gab es doch neulich ein entferntes Paper von AMD- auch schon ein RR Äquivalent) sein. Und auf die RT Capabilities (die immer an Bedeutung dazu gewinnen).

Ich befürchte allerdings, dass es das ewige Catchup ist und Nvidia mit Blackwell in obigen Themen wieder (aus SW und HW Sicht) einen Schritt weiter sein wird.

Insbesondere ist die Verbesserung von Preis/Leistung entscheidend für diese Gen. Denn das blieb ja (insbesondere bei Ada) so ziemlich stehen.

Der_Korken
2024-11-28, 15:52:16
Selbst wenn RDNA4 selbst keine großen Effizienzverbesserungen mitbringt, kann man davon ausgehen, dass mindestens das Niveau erreicht wird was mit RDNA3 geplant war, nämlich RDNA2+50%. Dazu noch 10-20% durch 4nm und Einsparung der Chiplet-Links und man wird locker 30% über RDNA3 landen.

reaperrr
2024-11-28, 16:16:31
Selbst wenn RDNA4 selbst keine großen Effizienzverbesserungen mitbringt, kann man davon ausgehen, dass mindestens das Niveau erreicht wird was mit RDNA3 geplant war, nämlich RDNA2+50%. Dazu noch 10-20% durch 4nm und Einsparung der Chiplet-Links und man wird locker 30% über RDNA3 landen.
Da kann man definitiv von ausgehen.

N4P sollte schon etwas besser als N5P sein, die MCD-Links haben sowohl Strom als auch Latenz gekostet, und dass in RDNA3 irgendwelche Bereiche nicht optimal auf die geplanten höheren Taktraten ausgelegt wurden (was AMD für RDNA4 sicher verbessert hat), ist auch offensichtlich.

Man muss zwar davon ausgehen, dass insb. für N48 die Top-SKU eher hart über den Sweet-Spot geprügelt werden wird, da man sicher mindestens die 5070 in Raster schlagen will, aber die N48-Salvage-Modelle sollten in Sachen PPW ggü. N32 und 7900XT(X) ein klarer Fortschritt sein.
Und N44 muss N33 da eigentlich auch zersägen, allein schon wegen dem FullNode-Shrink.

Exxtreme
2024-11-28, 16:30:00
Wenn RDNA4 mehr spezialisierte Schaltungen hat dann werden sie auch effizienter werden. Ich glaube, AMD hat das Problem, dass sie bei RDNA3 zu sehr mit einer CPU-Mentalität rangehen: sie haben sehr viele flexible Einheiten verbaut, die zwar alles können, spezielle Dinge dafür nicht so gut. Hat sicherlich Vorteile, dass man z.B. keine toten Schaltkreise hat und die Herstellung wird eventuell billiger. Aber die Effizienz leidet halt da flexible Schaltungen viel mehr Strom fressen als Dinge direkt als Hardware verbaut.

robbitop
2024-11-28, 16:30:36
Ob das mit dem Takt (ohne dass die TDP durch die Decke geht - denn >3 GHz kann RDNA3 auch wenn man die TDP verdoppelt) aufgeht muss man mal schauen. IIRC sind die TDP normierten Taktraten bei Strix mit RDNA3.5 auch nicht höher als bei Hawk Point. Und da hat man ja einiges neu angefasst.

Tarkin
2024-12-02, 14:18:10
https://wccftech.com/amd-radeon-rx-8800-xt-rdna-4-gpu-faster-rt-performance-7900-xtx-on-par-rtx-4080-raster/ big if true

"AMD Radeon RX 8800 XT “RDNA 4” GPU Allegedly Offers 45% Faster RT Performance Than 7900 XTX, On-Par With RTX 4080 In Raster & Lower Power Too"

Hakim
2024-12-02, 15:01:36
Die Karte kommt ja für mich evtl auch in Frage, ich mache aber jetzt nicht den Fehler auf den übertriebenen zahlen aufgrund irgendwelcher leaks entstehenden Hype train auf zu springen. Gefühlt gibt's das fast jedes Release bei AMD.

dildo4u
2024-12-02, 15:06:35
Das ist ein automatischer Win wenn die 5070 12GB hat macht wenig Sinn mit RT Performance zu werben wenn die Effekte nicht in den Vram passen.

Die Performance ist nix besonderes Beide sollten die 4080 erreichen.

Lyka
2024-12-02, 15:54:52
klingt cool, aber ohne offizielle Reviews werde ich erstmal 0% der Leaks glauben. AMD-Leaks enttäuschen öfter. Immer.

DrFreaK666
2024-12-02, 15:58:50
Zu schön um wahr zu sein. Wäre aber nice.
Die +45% beziehen sich auch auf Resident Evil 4. War das RT dort nicht eher meh?

basix
2024-12-02, 16:15:32
Im Original Post steht, es wurden auch andere RT-Spiele getestet:
In Raster and RT basically 4080/4080S bei 7900XTX -25% Power Draw

Wäre ziemlich stark. Bei etwas weniger Verbrauch noch stärker ;)

+45% in RT und ~4080 Niveau deckt sich auch gut mit dem PCGH RT-Index bei 4K:
https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/2/

DrFreaK666
2024-12-02, 16:55:36
Hm, ich weiß ja nicht...
https://i.postimg.cc/yYBB2WHj/grafik.png (https://postimages.org/)

Auch hier wäre die 7900XTX deutlich schneller als eine 4090 (ca. 141FPS)
https://i.postimg.cc/dQRcRvyy/performance-rt-3840-2160.png (https://postimages.org/)

RE4 Remake ist vielleicht keine gute Ausgangs-Basis und das Gerücht sollte man mit einem 1kg Salz genießen

AffenJack
2024-12-02, 16:57:17
klingt cool, aber ohne offizielle Reviews werde ich erstmal 0% der Leaks glauben. AMD-Leaks enttäuschen öfter. Immer.

Same here, ich glaube nicht dran. Es würde mich freuen, wenn es so wäre, aber wenn AMD Leaks eins über die letzten Jahre gezeigt haben, dann dass sie immer viel zu positiv waren.

vinacis_vivids
2024-12-02, 17:04:30
Mich interessieren schon die Benches mit Frame-Generation, mit "FSR-Native-AA" und/oder mit FSR-Q.

https://i.ibb.co/YN34zgK/Screenshot-2024-11-21-172839.png

Wäre natürlich total krank wenn die 8800XT die 7900XTX um ~45% übertrifft.
Das wären 130fps *1,45 ~ 188,5 fps bei STALKER 2.
STALKER 2 hat ja auch Ray-Tracing.

Das wäre total krank und einer der größen Hypes überhaupt. Selbst die RTX 5090 muss zittern.

mboeller
2024-12-02, 17:15:47
Hm, ich weiß ja nicht...
https://i.postimg.cc/yYBB2WHj/grafik.png (https://postimages.org/)

Auch hier wäre die 7900XTX deutlich schneller als eine 4090 (ca. 141FPS)
https://i.postimg.cc/dQRcRvyy/performance-rt-3840-2160.png (https://postimages.org/)

RE4 Remake ist vielleicht keine gute Ausgangs-Basis und das Gerücht sollte man mit einem 1kg Salz genießen

yep

https://www.computerbase.de/2023-03/resident-evil-4-remake-benchmark-test/2/

mit +45% wäre mit RT schneller als ohne RT zumindest mit der 7900XTX als Basis weil zw. mit RT und ohne RT hier nur ~24% liegen (RT hoch <-> ohne RT)

horn 12
2024-12-02, 18:31:25
Nun, wären 7900 XTX Performance zu ca. 260 Watt
bei Weniger Speicher
dafür ca. 50% Höhere Ray Tracing Performance

Sollte dies wirklich dennoch so Hochperformance Mäßig kommen, wohl nicht unter 749 bis 799 Euro.
Sprich mindestens 50% über einer 7800XT wohl Allemal preislich gesehen.

vinacis_vivids
2024-12-02, 18:56:10
Upscaling + Ray Tracing und Frame Generator zusammen und AMD ist vorne:

https://i.ibb.co/0Xnt19C/Screenshot-2024-12-02-184546.png

Nvidia zeigt schwächen im dynamischen Ray Tracing ggü. AMD und verliert an Boden.

Eine RX 8800 XT mit +45% zur 7900 XTX ist der absolute Hammer.

Das wären +45-50% zur RTX4090 und Nvidia mehr oder weniger das ganze Mittelklasse-Lineup außer der RTX5090 32GB komplett geschlagen.

Da kann AMD auch 749 - 799 USD verlangen und bekommt genügend sales. Die GPU-uArch ist nach den Gerüchten doch sehr gut weiterentwickelt worden.

Nvidias Gaming Sparte ist mit dem Erscheinen von RDNA4 wirklich nur noch peanuts.

GerryB
2024-12-02, 22:12:45
NV hat derzeit ein Problem mit den minFps in S2, .... würde ich nicht auf die Goldwaage legen.
Das generell FSR3-Q+FG besser skaliert als DLSS3-Q+FG ist trotzdem ne feine Sache.
(da wird dann allerdings i.d.R. bei den Reviews meist nur noch über die Bildqualität diskutiert)

praktisch ist FSR+FG/AFMF2 aber schon gut bei den Usern angekommen

btw.
RE7 Biohazard hat wieviel heavy RT ?!
in RE3 war nur wenig RT

mczak
2024-12-02, 22:31:05
Sollte dies wirklich dennoch so Hochperformance Mäßig kommen, wohl nicht unter 749 bis 799 Euro.
Sprich mindestens 50% über einer 7800XT wohl Allemal preislich gesehen.
Also wenn der Chip tatsächlich so klein ist wie spekuliert könnte man auch deutlich tiefer gehen (so etwa 7800XT Niveau), wenn man Marktanteile gewinnen will - die Herstellungskosten dürften da kaum teurer sein als bei der 7800XT (und auf demselben Niveau wie Battlemage B580...). Ich denke nicht dass da nvidia gross dagegenhalten würde, die verkaufen eh lieber AI-Chips (und dazu wäre es auch nötig dass GB205 da mindestens mithalten kann, weil Karten mit GB203 will man ganz sicher nicht zu günstigen Preisen anbieten).

prinz_valium_2
2024-12-03, 04:29:08
Das kann doch nur wieder Enttäuschung und lange Gesichter geben.
Als ob der kleine Chip in irgendeinem Titel oder Benchmark 40% auf die 7900XTX drauf legt. Selbst in RT nicht, denn auch mit RT braucht man Rohleistung.

Mit Glück liegt das Ding im Bereich 4080 / 7900XTX.
Aber selbst das ist optimistisch.

E39Driver
2024-12-03, 07:23:57
Irgendwo zwischen 4070 TI und 4080 bei Raster & RT raus zu kommen, wäre für den kleinen Chip schon eine gute Leistung und besser als erwartet.

Aber selbst wenn man das Teil in 2025 für 500€ raus haut und eine vergleichbare 5070 dann 200€ teurer ist, reicht das nicht wirklich um groß Marktanteile gewinnen zu können. Dafür ist die Marke zu schwach im Vergleich zu GeForce. Man müsste schon einen echten Preis-Leistungsknaller raus hauen. Quasi einen Polaris 2.0. Dieser dürfte inflationsbereinigt nicht mehr wie 350€ kosten.

Das wäre ein No-Brainer und würde wieder für > 20% Marktanteil sorgen. Von der Chipgröße her sollte dieser Preisbereich auch möglich sein. Umgekehrt wird es Nvidia nicht groß stören. Man wird sich auf keine Preiskampf einlassen, da über KI eh mehr Nachfrage als Angebot da ist

mczak
2024-12-03, 07:31:10
Das kann doch nur wieder Enttäuschung und lange Gesichter geben.
Als ob der kleine Chip in irgendeinem Titel oder Benchmark 40% auf die 7900XTX drauf legt. Selbst in RT nicht, denn auch mit RT braucht man Rohleistung.

Naja also "reine" RT-Leistung sollten prinzipiell 45% auf 7900XTX möglich sein. Man sollte sich da aber nicht blenden lassen, z.B. in Cyberpunk mit Path Tracing wäre das gerade mal 4060Ti-Niveau...


Mit Glück liegt das Ding im Bereich 4080 / 7900XTX.
Aber selbst das ist optimistisch.
Also die 4080 liegt im Durchschnitt ja schon etwa ~30% vor der 7900XTX wenn man bloss Benchmarks nimmt die auch RT (mehr oder weniger stark) nutzen. Ich glaube auch nicht dass man da wirklich rankommt, aber schneller als 7900XTX bei RT sollte schon möglich sein wenn man da ein paar Transistoren investiert.

robbitop
2024-12-03, 07:47:05
Die Frage ist was mit "RT Leistung" gemeint ist. IMO ist das sehr undefiniert. Und somit sind Leaks/Gerüchte kaum einzuschätzen.

Hier das Spektrum:
1. Der reine RT Anteil eines Frametimes
2. Path Tracing Benchmarks (wo ein Großteil der Frametime RT ist aber nicht 100%)
3. Einzel Spielbenchmark mit hoher RT Last (Anteil an Frametime RT kleiner als 2)
4. Ein RT Gamebenchmark Index wo Spiele mit gemischter Last drin sind
5. Light RT Titel (wo selbst RDNA2/3 fast keine Leistung verliert)


Je geringer die RT Last desto weniger bedeutet es IMO. Bspw liegt die 4080 Faktor 2,5 vorn in CP77 PT und in 2x in Alan Wake 2 PT.
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/
https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Night-Springs-DLC-Pathtracing-Benchmarks-1449456/2/

Bei den gleichen Titeln mit "nur" höheren RT Settings sinkt das auf 30-40%.
Das Gerücht referenzierte auf IIRC 30% mehr als die 7900XTX für N48.

Ich vermute, die reine RT Leistung holt zwar auf aber nicht auf Ada Level - was nicht so relevant ist wenn der RT Anteil des Frames nicht so hoch ist wie bei PT Spielen.


Das mit den 45% in RE7 Biohazard macht ist seltsam weil das IIRC noch ein sehr frühes RT Spiel mit relativ geringer RT Last ist. Und dort liegt die 7900XTX nur 27% hinter der 4080 in 4K laut CB.

MSABK
2024-12-03, 08:32:37
Man sollte den Hypetrain im Dorf lassen. Und maximal von +10% im Vergleich zur 7900xtx ausgehen.

mboeller
2024-12-03, 08:36:21
Das mit den 45% in RE7 Biohazard macht ist seltsam weil das IIRC noch ein sehr frühes RT Spiel mit relativ geringer RT Last ist. Und dort liegt die 7900XTX nur 27% hinter der 4080 in 4K laut CB.

bei RE4 remake schaut es ganz anders aus:
https://www.computerbase.de/2023-03/resident-evil-4-remake-benchmark-test/3/

gedi
2024-12-03, 08:59:00
Laut Seasonic 220w TDP ...

mboeller
2024-12-03, 09:19:55
220w scheint sehr niedrig zu sein. Ich hab aber die entsprechenden anandtech postings gesehen und es schaut echt aus.

Wenn das wirklich die TDP der GPU ist, dann sollte wohl ein Laptop-Ableger mit 150w SEHR gut funktionieren.

MSABK
2024-12-03, 09:27:30
Ist 4nm gesichert?

Daredevil
2024-12-03, 09:35:59
Man sollte den Hypetrain im Dorf lassen. Und maximal von +10% im Vergleich zur 7900xtx ausgehen.
Einmal bitte einsteigen.
https://s20.directupload.net/images/241203/w8vj6eep.png

Eine 7900XTXish war alleine schon ne gute Karte, nur sie war für den Preis ein wenig zu schwachbrüstig gemessen an unterschiedlichen Lastszenarien speziell für Gaming und auch Prof. Anwendungen, oder sie war für die Kohle einfach zu teuer, das man eher zu Nvidia gegriffen hat.
Wenn RDNA4 nun weniger säuft, wäre das ein Win.
Wenn RDNA4 nun mehr leistet, wäre das ein Win.
Wenn RDNA4 nun weniger kostet, wäre das ein Win.
Wenn AMD verschiedene Dinge hiervon kombinieren kann, ist es ein logischer und erfreulicher Schritt. Nur AMD weiß am Ende, was die Kunden Shareholder wollen und wenn sie klug sind, entwickeln sie auch dahingehend ein Produkt. :D

Spekulatius:
Das man sowas brachiales wenige Stunden vor Intels Battlemage Launch "leaked", ist vielleicht auch einfach kein Zufall. :)

robbitop
2024-12-03, 09:43:55
bei RE4 remake schaut es ganz anders aus:
https://www.computerbase.de/2023-03/resident-evil-4-remake-benchmark-test/3/
Das läuft aber ohne RT auch (relativ zu Ada) besonders gut. Gibt ja ein paar Spiele die (in Relation zur Positionierung auf dem breiten Index) auf RDNA besonders gut laufen. Ohne RT liegt 7900XTX 22% vor der 4080. Mit RT schmilzt der Vorsprung auf 4%.

https://www.computerbase.de/2023-03/resident-evil-4-remake-benchmark-test/3/

Hat also mit RT nichts zu tun. Und auch nichts mit dem Gerücht über RE7 Biohazard.

BlacKi
2024-12-03, 09:45:27
ich persönlich sehe den dlss vorteil so groß, das alle DD genannten eigenschaften egal sind, wenn fsr nicht besser wird. ich denke schon, das fsr besser wird, aber die nutzbarkeit liegt sehr weit in der zukunft, die kann rdna4 nur initiieren, aber nicht einsacken. vl sieht es in mit der 9000er gen besser aus. das problem: nv hat sicher schon das nächste feature in der tasche.

ich würde lieber auf die 2000er oder 3000er rtx serie zurückgreifen als auf eine amd karte.

robbitop
2024-12-03, 10:00:55
Naja seit FSR 3.1 sind die dlls endlich upgradebar. Wenn FSR 4 deutlich besser wird (potenziell dank NN), kann man das schon doch auf einige Spiele anwenden. Mit Mods dann wahrscheinlich potenziell sehr einfach auf alle Spiele die FSR2+ haben und sogar auf alle Spiele die DLSS2+ haben (dort spooft der Mod dann allerdings eine Geforce was gelegentlich zu Hickups führen kann in Kombination mit RT).

aufkrawall
2024-12-03, 10:05:47
Wenn die Karten ohne FSR 4 launchen, wär das eine absolute Red Flag. Bei AMDs Track Record sollte man wirklich null drauf vertrauen, dass sich das ansonsten nach dem Release in akzeptabler Zeitspanne noch einrenkt. Insbesondere, wenn die Leistung für ML-Rechenformate nicht überproportional steigen sollte. Dahingehend ist PSSR eine weitere Red Flag.

Daredevil
2024-12-03, 10:06:54
FSR ist imho für den 0815 Zocker mittlerweile gut genug, sonst würden heutige schreckliche Implementierungen auf Konsolen nicht einfach so kommentarlos akzeptiert werden, ohne dass die Gamer vor den Spielezentralen demonstrieren. :D
DLSS mag in manchen Szenarien besser ( und auch schlechter! ) sein, aber hier ist AMDs 80/20 Weg schon der richtige. Nvidia hat einfach mehr Kapazitäten und daher ist "gutes kopieren" wirtschaftlich sinnvoll, auch wenn es kein Branding schafft.
Freesync war früher auch objektiv schlechter als Gsync, dort hat sich AMD nach und nach aber auch so sehr gemausert, das es heute schlicht egal ist und Nvidia sogar eingeknickt ist und Freesync Monitore unterstützen musste.

Neben den Checkbox Features muss es aber halt auch etwas geben, wo sich AMD abhebt.
Das kann Geschwindigkeit sein, oder auch Technologie, aber eben auch Preis/Leistung.
Es gab schon ziemlich lange keine "Volks Grafikkarte" mehr vom Schlage einer RX580 und Vertrauen in die Marke schafft AMD zwar nicht mit der Radeon Sparte, aber durchaus mit ihren Zen Produkten.
Der zufriedenee AMD CPU Käufer hat auch psychologisch eine offenere Art zu Produkten der gleichen Firma.

aufkrawall
2024-12-03, 10:10:46
Freesync war früher auch objektiv schlechter als Gsync, dort hat sich AMD nach und nach aber auch so sehr gemausert, das es heute schlicht egal ist und Nvidia sogar eingeknickt ist und Freesync Monitore unterstützen musste.

Das hatte überhaupt nichts direkt mit AMD zu tun, sondern die Auswahl an besseren Geräten ohne das Gsync-Modul nahm durch die Monitoranbieter einfach immer weiter zu.
Unpassender Vergleich. Die Diskrepanz zwischen DLSS und FSR ist in letzter Zeit eher größer denn geringer geworden. Muss man auch erstmal schaffen. Gleichzeitig blamiert auch Epic AMD mit TSR...

Die werkeln zwar nun an etwas mit ML, aber davon gibts bislang auch nur wenige Standbilder zu sehen. Da sollte man auch wieder vorsichtig mit dem Hypetrain sein...

BlacKi
2024-12-03, 10:28:26
FSR ist imho für den 0815 Zocker mittlerweile gut genug, sonst würden heutige schreckliche Implementierungen auf Konsolen nicht einfach so kommentarlos akzeptiert werden, ohne dass die Gamer vor den Spielezentralen demonstrieren. :D
IMHO nicht ausreichend. und ausserdem fehlt verbreitung. ich fand fsr in cyberpunk nicht wirklich gut. und in squad ist fsr richtig scheiße, zudem kann man es nicht upgraden. gerade in multiplayer titeln.


es geht auch garnicht mal um den quality preset, aber in balanced und performance ist der quali unterschied zu dlss schon gewaltig.



konsolen spieler sind konsolenspieler. die nehmen was ihnen vorgesetzt wird. das argument ist nicht wirklich da.

Man kann bezüglich FSR nur hoffen, dass AMD aus dem verkackten Start von FSR3 gelernt hat und die neue Version erst raushaut, wenn sie auch wirklich funktioniert. Auch wenn das bedeutet, dass es z.B. zum Release von RDNA4 noch nicht fertig ist.

fertig? das ist egal, es muss in den spielen anwendung finden und zwar in vielen. wenn das nicht klappt, wird amd als grafikkartenhersteller nur noch weiter an bedeutung verlieren. hoffentlich wissen die das. ohne gute upscaler kannst du keine marktanteile gewinnen. egal wie effizient deine karte ist. denn dann müsstest du das über den preis regeln, was praktisch der untergang wäre.

Der_Korken
2024-12-03, 10:29:10
Man kann bezüglich FSR nur hoffen, dass AMD aus dem verkackten Start von FSR3 gelernt hat und die neue Version erst raushaut, wenn sie auch wirklich funktioniert. Auch wenn das bedeutet, dass es z.B. zum Release von RDNA4 noch nicht fertig ist.

E39Driver
2024-12-03, 10:30:41
FSR ist imho für den 0815 Zocker mittlerweile gut genug, sonst würden heutige schreckliche Implementierungen auf Konsolen nicht einfach so kommentarlos akzeptiert werden, ohne dass die Gamer vor den Spielezentralen demonstrieren. :D
DLSS mag in manchen Szenarien besser ( und auch schlechter! ) sein, aber hier ist AMDs 80/20 Weg schon der richtige. Nvidia hat einfach mehr Kapazitäten und daher ist "gutes kopieren" wirtschaftlich sinnvoll, auch wenn es kein Branding schafft.

Ich oute mich mal als dieser 0815 Zocker. Spiele hier auf einem 60Hz 4k 32-Zoll Office-Monitor und einer Radeon 6800XT und mache bei den Einstellungen keine große Wissenschaft raus. Beim ersten Start lasse ich einmalig den FPS Zähler nebenbei laufen und optimiere das so, dass halbwegs stabile 60 FPS bei 4k Auflösung bei heraus kommt.

Und auf den neueren Titeln wie SW Outlaws, Avatar und dem Witcher 3 Upgrade waren das jetzt eigentlich immer maximale Einstellungen mit den Upscalling Optionen inkl. RT, da wo verfügbar. Keine Ahnung ob es DLSS hier besser machen würde oder geiler aussieht, kann ich mangels Vergleich nicht beurteilen. Ich finde die Spiele sehe so sehr geil aus und brauche aktuell nicht mehr. Und meine 3050 im Zweitrechner schafft eben auch mit DLLS nicht mehr als eine 1440p Auflösung und bin froh in diesen Titeln dann über 30 FPS mit raus zu kommen

robbitop
2024-12-03, 10:44:43
Wenn die Karten ohne FSR 4 launchen, wär das eine absolute Red Flag. Bei AMDs Track Record sollte man wirklich null drauf vertrauen, dass sich das ansonsten nach dem Release in akzeptabler Zeitspanne noch einrenkt. Insbesondere, wenn die Leistung für ML-Rechenformate nicht überproportional steigen sollte. Dahingehend ist PSSR eine weitere Red Flag.
Ja man sollte nicht zu viel erwarten. Kann mir auch vorstellen, dass FSR4 nicht mit N48 zusammen gelauncht wird.

Daredevil
2024-12-03, 10:46:16
Das hatte überhaupt nichts direkt mit AMD zu tun, sondern die Auswahl an besseren Geräten ohne das Gsync-Modul nahm durch die Monitoranbieter einfach immer weiter zu.

Da hast du natürlich recht. Mit Gsync hattest du aber halt die bessere Technik schon eher, es war halt nur arschteuer. Damit hat Nvidia Kohle verdient und mit Premium Produkten die Monitor Hersteller halt auch. Freesync Range o.ä. war bei GSync meine ich mal nie ein Thema, oder?

Auf der Viewsonic Seite steht heute immer noch folgendes. :D
Wenn eine geringe Eingangsverzögerung gewünscht ist und Tearing kein Problem für Sie darstellt, dann ist FreeSync eine gute Wahl. Wenn hingegen flüssige Bewegungen ohne Tearing ganz oben auf der Prioritätenliste stehen und eine leichte Eingangsverzögerung kein Problem darstellt, dann sind Monitore mit G-Sync die wohl bessere Wahl.



IMHO nicht ausreichend. und ausserdem fehlt verbreitung. ich fand fsr in cyberpunk nicht wirklich gut. und in squad ist fsr richtig scheiße, zudem kann man es nicht upgraden. gerade in multiplayer titeln.


es geht auch garnicht mal um den quality preset, aber in balanced und performance ist der quali unterschied zu dlss schon gewaltig.



konsolen spieler sind konsolenspieler. die nehmen was ihnen vorgesetzt wird. das argument ist nicht wirklich da.



fertig? das ist egal, es muss in den spielen anwendung finden und zwar in vielen. wenn das nicht klappt, wird amd als grafikkartenhersteller nur noch weiter an bedeutung verlieren. hoffentlich wissen die das. ohne gute upscaler kannst du keine marktanteile gewinnen. egal wie effizient deine karte ist. denn dann müsstest du das über den preis regeln, was praktisch der untergang wäre.
Mir ist das auch zu schlecht und wenn ich Qualität möchte, zahle ich für Qualität auch überproportional mehr Geld. Deswegen habe ich nen iPhone, zwei LG OLEDs, eine PS5 Pro und ein MacBook Pro. Nur will man für die Masse produzieren, weil man die Enthusiasten nicht erreicht, werden es eben Massenprodukte und die "Volksgrafikkarte" kostet halt keine 800€.
Auch PC Gamer sind nicht alles EyeCandy Guys, der beliebteste Gaming Monitor bei Geizhals ist nen 27" WQHD ( PPI :C ) non-glare VA Panel mit 300nits und 56-144 Freesync Range.
Für sowas sind mir meine Augen zu schade, aber 167€ ist ein absoluter Knaller!

Ich oute mich mal als dieser 0815 Zocker. Spiele hier auf einem 60Hz 4k 32-Zoll Office-Monitor und einer Radeon 6800XT und mache bei den Einstellungen keine große Wissenschaft raus. Beim ersten Start lasse ich einmalig den FPS Zähler nebenbei laufen und optimiere das so, dass halbwegs stabile 60 FPS bei 4k Auflösung bei heraus kommt.

Und auf den neueren Titeln wie SW Outlaws, Avatar und dem Witcher 3 Upgrade waren das jetzt eigentlich immer maximale Einstellungen mit den Upscalling Optionen inkl. RT, da wo verfügbar. Keine Ahnung ob es DLSS hier besser machen würde oder geiler aussieht, kann ich mangels Vergleich nicht beurteilen. Ich finde die Spiele sehe so sehr geil aus und brauche aktuell nicht mehr. Und meine 3050 im Zweitrechner schafft eben auch mit DLLS nicht mehr als eine 1440p Auflösung und bin froh in diesen Titeln dann über 30 FPS mit raus zu kommen
Ich glaube viele sind hier 0815 Zocker, nur haben manche halt einfach nur viel Geld und sehen sich eher dann als Enthusiasten, wenn sie ne 4090 im System haben. ^^
Du hast aber noch einen sehr guten Punkt angesprochen, die Vergleichbarkeit kennt man natürlich nur, wenn man beides hatte oder sich viele viele Videos darüber anschaut, wo manche 8x in das Bild rein zoomen und objektiv Unterschiede feststellen, die im realen Leben vielleicht gar nicht wahrgenommen werden.
Was man nicht kennt, kann man nicht vermissen. Ich würde mich aktuell auch easy als 0815 Gamer sehen. Zocke Indie Games auf nem MacBook und alles andere auf einer Playstation. Letzteres ist eine Pro, weil 77" und dynamische Auflösungen echt nicht soooo toll aussehen bei manchen PS Games, speziell Final Fantasy Rebirth.
Mein PC Monitor ist ein 55" 4K OLED mit GSync bei ca. 80cm Abstand, dort muss tatsächlich das Bild glatt sein, da würde ich auch eher Nvidia und DLSS präferieren.

Relex
2024-12-03, 10:46:19
FSR ist imho für den 0815 Zocker mittlerweile gut genug, sonst würden heutige schreckliche Implementierungen auf Konsolen nicht einfach so kommentarlos akzeptiert werden, ohne dass die Gamer vor den Spielezentralen demonstrieren. :D



Die Masse der Konsolenspieler hat einfach nicht den Anspruch. Denen kannst du ein via PSSR offensichtlich völlig kaputtes Bild vorsetzen und es wird immernoch viele geben, die es besser finden, weil das ja so sein "MUSS".

Ansonsten wird es die meisten Leute einfach nicht interessieren. Spiele mit 720p FSR werden ja auch akzeptiert. Wurden sogar akzeptiert, bevor es FSR gab.

Du kannst denen also das schlimmste vorstellbare (incl. 30 FPS) vorsetzen und es wird keinen Aufschrei geben. Nur ein paar Nerds werden sich aufregen, was der Marke aber kaum schadet. PC Spieler, die 500+€ alleine für eine GPU ausgeben denken da natürlich komplett anders.



Bzgl. DLSS würde ich dir widersprechen.

Die Bildqualität, die FSR produziert mag für manche ausreichend sein.
Wenn das der Fall ist könnte man aber auch eine Nvidia Karte mit DLSS nutzen, das preset um 1-2 Stufen runterschrauben und sich über deutlich höhere Performance freuen.

Es ist also egal aus welcher Richtung man es betrachtet. Nvidias Bildqualitätsvorteil kann auf Wunsch genauso ein Performancevorteil sein.

Schade ist, aber dass FSR seit es mit Version 3.1 so unscharf geworden ist, selbst im Qualitätsmodus nicht die Bildschärfe erreicht, die DLSS performance erreicht. Es ist stests blurry. Viel mehr als mit dem weichen Entwickler preset F das Nvidia standardmäßig nur für DLAA und Ultra performance nutzt. Gegen das viel schärfere Preset E hat AMD mit FSR3.1 ein keiner weise eine Chance. Das sah mit FSR2 damals deutlich besser aus, da war FSR deutlich schärfer aber auch noch anfälliger für flimmern und rauschen.

Mit FSR3.1 hat AMD zwei schritte zurück und einen vor gemacht. Solange FSR4 nicht abgeliefert hat, hat AMD einen schweren stand. Ganz egal, wie gut die Hardware wird.
In Zeiten in denen Upscaling bei nahezu jedem neuen Spiel pflicht ist, ist zumindest für mich die Upscaler Qualität mittlerweile kaufentscheidend, weil so ein upscaling Algorithmus deutlich mehr Auswirkungen auf die Bildqualität und performance hat, die ich in Spielen erlebe, als die Hardware selbst. Die Zeiten haben sich nunmal geändert.

Daredevil
2024-12-03, 10:55:01
In Zeiten in denen Upscaling bei nahezu jedem neuen Spiel pflicht ist, ist zumindest für mich die Upscaler Qualität mittlerweile kaufentscheidend, weil so ein upscaling Algorithmus deutlich mehr Auswirkungen auf die Bildqualität und performance hat, die ich in Spielen erlebe, als die Hardware selbst. Die Zeiten haben sich nunmal geändert.
Ich würde sogar fast sagen, das für mich explizit solche Features mehr Gewicht haben als die Leistung selbst, wenn am Ende was hübscheres und/oder schnelleres raus kommt. Die Frage ist am Ende aber, was man dafür mehr zahlt. Performance out of thin air ist natürlich ein riesen Margentreiber.
Ich hätte kein Problem damit, das ich mir z.B. jetzt ne 4090 hole für nen guten Preis, die vielleicht "nur" so schnell wie eine 5080 ist. Mein FOMO besteht eher darin, was eine 5080 Softwareseitig kann und welche KI Features dazu kommen, die eine gleich schnelle Karte der Vorgänger Generation nicht hätte.
Natürlich muss sich AMD hier auch bewegen, es darf halt nicht zu viel kosten, damit man auch mehr Leute erreicht. Oder es ist so gut, das man Nvidia überholt, dann darf AMD auch die Taschen aufmachen und die Gamer schröpfen, siehe 9800X3D.

robbitop
2024-12-03, 11:49:39
Die Masse der Konsolenspieler hat einfach nicht den Anspruch. Denen kannst du ein via PSSR offensichtlich völlig kaputtes Bild vorsetzen und es wird immernoch viele geben, die es besser finden, weil das ja so sein "MUSS".

PSSR scheinen die Ergebnisse sehr gemischt zu sein. In den 1st party Titeln ist es größtenteils (aber nicht überall) besser als FSR 3.1. In einigen 3rd party Titeln ist es nicht gut.
Ob man das jetzt mit PSSR als Verfahren gleichsetzen muss oder ob es an dessen Implementierung (oder ggf. nicht dem neusten genutzten Modell) liegt?
Das ist ja mit FSR auch so - wobei dort die guten Beispiele leider deutlich in der Unterzahl sind. Nützt aber natürlich am Ende nichts wenn es nicht konsistente Ergebnisse gibt. In der Hinsicht muss man konstatieren, dass das jetzige PSSR die erste Iteration ist. Und man weiß, dass die ersten Iterationen fast nie so gut sind wie spätere. Wenn man konsistent verbessert und es auch implementierungsrobuster gestaltet (und/oder den 3rd Party Studios mehr bei der Implementierung hilft), kann es ggf. noch gut werden. Man darf nicht vergessen, dass DLSS, FSR und TSR 3-4 Jahre Iterationen hinter sich haben. Man sollte es also noch nicht abschreiben. :)


Schade ist, aber dass FSR seit es mit Version 3.1 so unscharf geworden ist, selbst im Qualitätsmodus nicht die Bildschärfe erreicht, die DLSS performance erreicht. Es ist stests blurry.

Ggf. ist das nur das preset für rCAS? IIRC brachte FSR2 ja immer rCAS mit und das war initial oft überschärft und ggf. ist ab 3.1 das Setting niedriger (oder sogar aus). Alle TAAs sind (durch die aufakkumulierung temporaler Daten) inheränt ein Stück weit unscharf und müssen nachgeschärft werden. Schon mal probiert, mit rCAS (zB über reshade) nachzuschärfen?

Exxtreme
2024-12-03, 11:57:34
PSSR scheinen die Ergebnisse sehr gemischt zu sein. In den 1st party Titeln ist es größtenteils (aber nicht überall) besser als FSR 3.1. In einigen 3rd party Titeln ist es nicht gut.

Also meine Vermutung ist, dass die Devs schlicht viel zu inkompetent sind das richtig einzusetzen. Wenn man sich so anschaut wie die Ergebnisse vom Spiel zu Spiel selbst mit der gleichen Engine schwanken. Die ganzen Upscaler sind im Grunde immer noch TAA. Und bei TAA muss man dann doch einige Dinge beachten. DLSS scheint besser darin zu sein die Inkompetenz der Devs nachträglich zu reparieren.

fondness
2024-12-03, 11:58:54
PSSR braucht extra HW die FSR nie hatte, das sollte man nicht unterschätzen. Das ist eine enormer Vorteil/Unterschied. Dafür ist der Ergebnis enttäuschend. Es gibt nichts besseres als FSR wenn es im Kompatibilität geht.

robbitop
2024-12-03, 12:12:21
Ob es extra HW braucht wissen wir noch nicht. (oder? zumindest abseits der XDNA Gerüchte) Aber es braucht potenziell mehr Rechenleistung für das NN.

Ich denke man sollte Dinge nie außer dem Kontext von Iterationen vergleichen. PSSR ist ganz neu und in der ersten Iteration. Alle anderen Verfahren hatten 3-4 Jahre Iteration bis hier her.
Man müsste erstmal abwarten wie sich die Ergebnisse in den zukünftigen Iterationen so machen. Alternativ könnte man auch mit der ersten Iteration von den anderen Verfahren vergleichen.

Nakai
2024-12-03, 12:18:21
Es gibt schon ein paar Punkte wo AMD gut schrauben kann. Mehr AI und RT-Performance sollte drin sein. Aber 45%+?! No way. Den Takt sollte man auch ein Stück hochdrehen können.
Ansonsten fehlt dem Chip schon der Unterbau und due Rohleistung.

robbitop
2024-12-03, 12:21:08
Naja in RT kann man extrem viel Leistung relativ zu RDNA2/3 holen. Letztere hatten nur das absolute Minimum an HW verbaut und mussten sehr viel "zu fuß" über die ALUs machen. Gerade mal Level 2 HW auf der IMG skala. Nvidia brachte 2018 mit Turing bereits Level 3 HW.
Also klar kann man in 2024 mit etwas fixed function HW hier richtig was rausholen.

Exxtreme
2024-12-03, 12:28:18
PSSR braucht extra HW die FSR nie hatte, das sollte man nicht unterschätzen. Das ist eine enormer Vorteil/Unterschied. Dafür ist der Ergebnis enttäuschend. Es gibt nichts besseres als FSR wenn es im Kompatibilität geht.

Inferencing geht auch mit stinknormaler Hardware problemlos. Auch wenn zumindest RDNA2 sehr schlecht darin ist und RDNA3 maximal Mittelmaß. Extra Hardware braucht's dazu aber nicht.

Es gibt schon ein paar Punkte wo AMD gut schrauben kann. Mehr AI und RT-Performance sollte drin sein. Aber 45%+?! No way. Den Takt sollte man auch ein Stück hochdrehen können.
Ansonsten fehlt dem Chip schon der Unterbau und due Rohleistung.

Ich glaube, +45% sind gar nicht mal so schwierig zu holen. Den Radeons fehlt es schlicht immer an Ressourcen weil sie zuviel über Shader und TMUs machen. Auch hat RDNA3 bei einigen Dingen heftige Effizienzprobleme. Und sie müssen den Chip stark heruntertakten weil sie ins TDP-Limit rennen. Wenn sie das lösen dann geht definitiv was.

Ist halt dann wiederum die Frage wie Blackwell so aussehen wird. Kann natürlich sein, dass die ebenfalls 45% draufpappen. Und dann ist RDNA4 auch nicht mehr so der Bringer.

Nakai
2024-12-03, 12:40:34
Inferencing geht auch mit stinknormaler Hardware problemlos. Auch wenn zumindest RDNA2 sehr schlecht darin ist und RDNA3 maximal Mittelmaß. Extra Hardware braucht's dazu aber nicht.



Ich glaube, +45% sind gar nicht mal so schwierig zu holen. Den Radeons fehlt es schlicht immer an Ressourcen weil sie zuviel über Shader und TMUs machen. Auch hat RDNA3 bei einigen Dingen heftige Effizienzprobleme. Und sie müssen den Chip stark heruntertakten weil sie ins TDP-Limit rennen. Wenn sie das lösen dann geht definitiv was.

Ist halt dann wiederum die Frage wie Blackwell so aussehen wird. Kann natürlich sein, dass die ebenfalls 45% draufpappen. Und dann ist RDNA4 auch nicht mehr so der Bringer.


Ich sehe das auch nicht so dramatisch, aber ich werde bestimmt nicht auf den Hypetrain reinfallen, sonst wird das schnell ein Hypedrain. Xd

w0mbat
2024-12-03, 12:47:59
Ich traue dem hype train auch nicht. Wenn die 8800XT wirklich 4080S Leistung mit 16GB VRAM für weniger Geld und bei weniger Verbrauch leistet, wäre das für mich ein echtes Wunder.

robbitop
2024-12-03, 12:53:03
Ich traue dem hype train auch nicht. Wenn die 8800XT wirklich 4080S Leistung mit 16GB VRAM für weniger Geld und bei weniger Verbrauch leistet, wäre das für mich ein echtes Wunder.
Sehe ich auch so.
Allerdings gab es mit dem RV770 damals ein ähnliches Wunder ggü dessen Vorgänger R600.
Da RDNA3 pro Transistor und pro Watt (prozessnormiert und gemessen an einem Generationsfortschritt) wirklich (relativ zu RDNA2) enttäuschend waren, kann potenziell RDNA4 (relativ zum Vorgänger) schon auch überraschen.

dildo4u
2024-12-03, 12:53:54
Ich traue dem hype train auch nicht. Wenn die 8800XT wirklich 4080S Leistung mit 16GB VRAM für weniger Geld und bei weniger Verbrauch leistet, wäre das für mich ein echtes Wunder.

Noch mal was ist daran verwunderlich eine 4070 hat 3080 Performance bei 200Watt.

Der_Korken
2024-12-03, 12:54:24
Ich traue dem hype train auch nicht. Wenn die 8800XT wirklich 4080S Leistung mit 16GB VRAM für weniger Geld und bei weniger Verbrauch leistet, wäre das für mich ein echtes Wunder.

Solange wir die Chipgröße nicht kennen, kann erstmal vieles sein. Die 240mm² halte ich bei der Leistungsprognose nach wie vor für totalen Blödsinn. Wenn der Chip aber z.B. Richtung 350mm² geht und über 3,5Ghz schafft mit deutlich aufgebohrtem Dual-Issueing (d.h. mehr Fläche pro CU statt mehr CUs), wäre 4080-Performance im Bereich des möglichen. AD103 ist auch "nur" 390mm² groß, die 4080 nutzt nur 76 der verbauten 84 SMs und schleppt noch die ganzen Tensorcores mit, die in Spielen kaum genutzt werden. Dazu ist der Fertigungsprozess mit der Zeit auch leicht besser geworden und AMD hatte über zwei Jahre mehr Zeit als Nvidia ihre Architektur zu optimieren. Nvidia wird mit Blackwell nach über zwei Jahren auch mehr Perf/mm² und Perf/W rausholen, obwohl sie genauso wenig wie AMD auf 3nm setzen werden.

robbitop
2024-12-03, 12:56:34
Noch mal was ist daran verwunderlich eine 4070 hat 3080 Performance bei 200Watt.
AD104 ist allerdings auch 294 mm² groß. N48 ist angeblich ~240 mm². AD103 (welchen die 4080 nutzt, auf dessen Level N48 angeblich sein soll) hat 379 mm².
Ggf ist bei N48 die Packdichte etwas höher (N4 vs N5 - laut w0mbat sagen Insider dass Nvidias 4N TSMC N5 sei)

Relex
2024-12-03, 12:59:52
Ggf. ist das nur das preset für rCAS? IIRC brachte FSR2 ja immer rCAS mit und das war initial oft überschärft und ggf. ist ab 3.1 das Setting niedriger (oder sogar aus). Alle TAAs sind (durch die aufakkumulierung temporaler Daten) inheränt ein Stück weit unscharf und müssen nachgeschärft werden. Schon mal probiert, mit rCAS (zB über reshade) nachzuschärfen?


Das kann schon sein. Die FSR2 implementierungen hab ich mir damals nie so genau angesehen bzgl. Schärfefilter.

Trotzdem würde ich sagen, dass FSR3.1 auch ungeachtet des Schärfefilters sehr weich geworden ist. Auf 1440p und spätestens 1080p kann man das mit rCAS kaum noch kompensieren.


DLSS hingegen kommt mit dem aktuellen Preset E völlig ohne Scharfzeichner aus, weil man hier die generelle Bildschärfe/Bildqualität nochmal ein gutes Stück erhöhen konnte (zumindest gibt es selbst im 1000% zoom keinerlei Hinweise auf verstärkte Kanten, wie es sonst jeder Scharfzeichner macht incl. rCAS). Gibt natürlich hier und da ein paar Spiele, die trotzdem scharfzeichnen, wie Horizon oder Dragon Age, aber meistens wird DLSS mittlerweile komplett ohne genutzt.



Also nein, Scharfzeichner braucht es nicht unbedingt. Man kann auch ohne Scharfzeichner die Schärfe deutlich erhöhen, wie Nvidia momentan demonstriert.
Der Verzicht auf Scharfzeichner ist generell ja auch sehr wünschenswert, da ein Scharfzeichner durch die Doppelkonturen die es je nach stärke deutlicher oder weniger deutlich erzeugt die Linien dicker zeichnet, wodurch effektiv Auflösung verloren geht und das Bild zwar schärfer, aber gleichzeitig "gröber" wird. Scharfzeichnen ist daher immer ein Trade-Off, egal wie wenig man scharfzeichnet.

HOT
2024-12-03, 13:00:15
Da muss man auch noch aufpassen mit dem Stromverbrauch. Wenn ein Hersteller sagt 220W, dann bedeutet das sicherlich wieder TGP, nicht TBP. Mit hervorragenden Bauteilen wäre das dann ca. 270W, mit Billigbauteilen eher 290W. Man verbraucht also nicht wirklich viel weniger Strom im Endeffekt.

Und von der Performance her sollte das Teil besser auf 4080-Niveau sein, denn sonst wird man sogar von Intel abgehängt....

robbitop
2024-12-03, 13:02:02
Das kann schon sein. Die FSR2 implementierungen hab ich mir damals nie so genau angesehen bzgl. Schärfefilter.

Trotzdem würde ich sagen, dass FSR3.1 auch ungeachtet des Schärfefilters sehr weich geworden ist. Auf 1440p und spätestens 1080p kann man das mit rCAS kaum noch kompensieren.


DLSS hingegen kommt mit dem aktuellen Preset E völlig ohne Scharfzeichner aus, weil man hier die generelle Bildschärfe/Bildqualität nochmal ein gutes Stück erhöhen konnte (zumindest gibt es selbst im 1000% zoom keinerlei Hinweise auf verstärkte Kanten, wie es sonst jeder Scharfzeichner macht incl. rCAS). Gibt natürlich hier und da ein paar Spiele, die trotzdem scharfzeichnen, wie Horizon oder Dragon Age, aber meistens wird DLSS mittlerweile komplett ohne genutzt.



Also nein, Scharfzeichner braucht es nicht unbedingt. Man kann auch ohne Scharfzeichner die Schärfe deutlich erhöhen, wie Nvidia momentan demonstriert.
Der Verzicht auf Scharfzeichner ist generell ja auch sehr wünschenswert, da ein Scharfzeichner durch die Doppelkonturen die es je nach stärke deutlicher oder weniger deutlich erzeugt die Linien dicker zeichnet, wodurch effektiv Auflösung verloren geht und das Bild zwar schärfer, aber gleichzeitig "gröber" wird. Scharfzeichnen ist daher immer ein Trade-Off, egal wie wenig man scharfzeichnet.

Sind wir sicher, dass bei DLSS nicht doch irgendein Schärfefilter in der DLL ist? Ohne Sourcecode kann man da nur raten. Ansonsten würde ich nicht unbedingt von einem einzigen (hoch iterierten) NN Verfahren darauf schließen, ob man das nun generell nicht braucht.
Einfach mal ausprobieren wie es mit rCAS ist (kann auch DLSS noch weiter helfen). Kostet praktisch keine fps.

Relex
2024-12-03, 13:07:40
Dazu habe ich hier bereits Vergleiche gepostet: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13622055#post13622055


Will man mit rCAS die Schärfe von FSR3.1 auf DLSS Preset E level hieven, erzeugt man eben die typischen doppelkonturen durch das scharfzeichnen.

Es gibt halt keinen Scharfzeichner, der ohne doppelkonturen auskommt.

DLSS ist trotz Preset E mit seiner hohen natürlichen Schärfe frei von doppelkonturen. Ergo dürfte hier kein Scharfzeichner zum Einsatz kommen.


Aber ich will jetzt keinen DLSS vs FSR Thread lostreten. Ich denke das führt hier zu weit...

aufkrawall
2024-12-03, 13:18:21
Da bringt Sharpen auch nicht mehr viel, das kann auch keine echten Details herzaubern.
https://s20.directupload.net/images/241121/kxptvoaz.png
https://s20.directupload.net/images/241121/vty66jov.png

Aber wird bestimmt bald besser, wenn sie auch noch Leute rausschmeißen. :freak:

Lawmachine79
2024-12-03, 14:35:32
Noch mal was ist daran verwunderlich eine 4070 hat 3080 Performance bei 200Watt.
Ja, krass verwunderlich, AMD zieht mit der Nummer zwei aus NVidias Vorgängergeneration gleich; wer soll die Karte denn kaufen, wenn sie nicht billiger ist?!

Und vor allem: was hat AMD in den letzten beiden Jahren eigentlich gemacht?

davidzo
2024-12-03, 15:40:41
Ich glaube das mit der 4080 Leistung nicht.

Intel launcht heute ebenfalls einen 270mm2 Chip aus TSMCs N5 Fertigung. Der erreicht aber nichtmal die halbe Performance einer 4080.

Vielleicht bewirbt AMD die Karte ja als eine Alternative für diejenigen die sich keine 4080 leisten können: Beide Karten haben 16GB VRAM für die Zukunftsfähigkeit und genug Leistung für RT. Dieses Merkmal bekommt man bei Nvidia eben nur mit der 4080, denn die 4060ti 16GB ist zu langsam um ihren VRAM auch voll ausnutzen zu können und das P/L stimmt auch nicht.

Aber wenn AMD mit einem 270mm2 Chip ansatzweise an eine 4080 Super / 7900XTX heran kommt, dann wäre das mal eben eine Verdopplung der PPA gegenüber Navi31. Klar, N31 ist eine Chiplet GPU mit ein wenig Overhead, aber die Memorycontroller skalieren in 4nm nicht und gegenüber dem 5nm CCD ist 4nm auch nur ein sehr kleiner halfnode shrink.

vinacis_vivids
2024-12-03, 15:44:56
Die 8800XT wird denke ich deutlich besser als die relativ schwache 4080S, die ja mit der RX 7800 XT vergleichbar ist. Unter Berücksichtigung der neuesten Techs wie Upscaling, Rt und Frame Generation.

https://i.ibb.co/X3KSPwx/Screenshot-2024-12-03-154247.png

Frame Generation ist bei Nvidia einfach broken und da schlägt RDNA4 ziemlich hart zu. Sehe kaum Chancen für Ada und generell keine Zukunft für Nvidias überteuerte Mittelklasse.

DrFreaK666
2024-12-03, 15:51:16
Ich glaube das mit der 4080 Leistung nicht.

Intel launcht heute ebenfalls einen 270mm2 Chip aus TSMCs N5 Fertigung. Der erreicht aber nichtmal die halbe Performance einer 4080...

Und was hat Intel damit zu tun?

reaperrr
2024-12-03, 16:02:10
Und von der Performance her sollte das Teil besser auf 4080-Niveau sein, denn sonst wird man sogar von Intel abgehängt....
;D
Ich vermisse nen Smiley, der lacht, sich zur Seite dreht und dann in "ich kann nicht mehr"-Manier auf den Boden haut, gab's den hier nicht mal?

BMG-G21 braucht 270mm² und 190W in N5(P?) für 7600XT+5%-Performance.
Dann braucht BMG-G31 mindestens ~400mm² und ~275-300W für 4070- bis 7800XT-Performance, wenn er überhaupt noch erscheint (für mich höchst fraglich).

Toll.
In zwei Jahren mit Celestial-G20 in N3P schafft man dann wahrscheinlich ca. BMG-G31-Leistung in 250mm² und 200W, dann hat man mit ~4 Jahren Verspätung und einem FullNode Vorteil den AD104-Salvage ein- und den verkorksten N32 leicht überholt.

Das wird nix. Intel hat noch immer Jahre Rückstand, wenn man N33 als Maßstab nimmt selbst auf RDNA3, und kann sich finanziell im Grunde nicht mehr leisten, so viel mehr in R&D zu pumpen, wie sie es müssten um AMD ein- geschweige denn zu überholen.
Dass Nvidia so davonzieht, dass nach Intel auch noch AMD gezwungen ist aus dem Gaming-GPU-Markt auszusteigen, ist wahrscheinlicher, als dass Intel AMD in den nächsten 6 Jahren einholt.

Monsta
2024-12-03, 17:15:42
Die 8800XT wird denke ich deutlich besser als die relativ schwache 4080S, die ja mit der RX 7800 XT vergleichbar ist. Unter Berücksichtigung der neuesten Techs wie Upscaling, Rt und Frame Generation.

https://i.ibb.co/X3KSPwx/Screenshot-2024-12-03-154247.png

Frame Generation ist bei Nvidia einfach broken und da schlägt RDNA4 ziemlich hart zu. Sehe kaum Chancen für Ada und generell keine Zukunft für Nvidias überteuerte Mittelklasse.

Neuste Tech? Bei Fsr löten Dir die Augen aus und die 7800xt wird von einer 3080 rasiert.

Lurtz
2024-12-03, 17:49:23
FSR ist imho für den 0815 Zocker mittlerweile gut genug, sonst würden heutige schreckliche Implementierungen auf Konsolen nicht einfach so kommentarlos akzeptiert werden, ohne dass die Gamer vor den Spielezentralen demonstrieren. :D
Ich lese ständig Gejammer über die schreckliche Bidlqualität mit FSR. Dass die Dinger trotzdem gekauft werden, geschenkt. Das passierte auch als Red Dead Redemption mit 20 fps und Post-AA lief.

Wenn das der Maßstab ist, kann man alles verkaufen.

Daredevil
2024-12-03, 18:12:52
Die "FSR Gurken im 500-700€ Bereich" waren aber halt trotzdem die beliebtesten Gurken in der BF Woche bei Mindfactory. Dort lässt sich offenbar aktuell am meisten Geld verdienen, insofern ist der *Fokus hier schon sinnvoll. Aber hey, RDNA2 wird ja auch noch gekauft. ^^
Market Share ist seit 25 Wochen pro AMD geflippt, knapp 53% AMD, 47% Nvidia. ( Intel 0.0..% )
Das kommt jetzt sicherlich nicht von den Features, sondern einfach nur vom Preis.

via https://x.com/TechEpiphanyYT/status/1862894387614646327
https://s20.directupload.net/images/241203/fubs2r82.png

*Tschörmany, Europa. Natürlich nicht mit der Welt vergleichbar.

Lurtz
2024-12-03, 18:25:01
Na dann kann AMD ja weiter ihre Marktanteile hüten wenn das eh alles nicht relevant ist.

Daredevil
2024-12-03, 18:43:06
Ich sag ja nicht, das es nicht relevant ist. Es ist halt offenbar nur nicht so relevant für das Unternehmen, als für uns Geeks hier. Ich kann nichts für die Zahlen und Daten der Verkaufszahlen. These are the facts :<
Der Trend Overall spricht seit Q2/2022 eigentlich miniminimal für AMD, auch wenn RDNA3 nicht so der Preisbrecher gewesen ist bei Launch, dafür wird es aktuell offenbar umsomehr attraktiver. Geht natürlich auf die Marge, aber immerhin sichert man sich damit Marktanteile und damit ebenso potentielle "Nachkäufer".

Lurtz
2024-12-03, 19:11:25
Die Verteilung der Marktanteile sind dir bekannt? Und da argumentierst du mit Verkaufszahlen für die Strategie von AMD? :uconf3:

AMD hat zuletzt kaum mehr Geld mit Endkunden-Radeons gemacht.

Hakim
2024-12-03, 19:24:57
Ich persönlich gehe von dem Bereich ~7900xt/4070Ti S bei Raster und ~4070Ti S bei RT aus, also in etwa die Leistung einer 4070Ti Super, wenn die das dann so für um die 600€ verkaufen würden wäre es ein heißer Kandidat für meine nächste Grafikkarte. Hängt halt immer davon ab was NV an neuem Feature Präsentieren wird.

Daredevil
2024-12-03, 19:46:36
Die Verteilung der Marktanteile sind dir bekannt?
Sind sie dir denn bekannt? :)
https://s20.directupload.net/images/241203/kveu2wh8.png
YOY +11% seit Q2/23 trotz solidem, aber eigentlich enttäuschendem RDNA3 Launch. Dies sollte sich dank der deutlich gesunkenen Preise im starken Q3/Q4 fortführen. Die offenbar beliebte 7800XT wurde YTD um 12% günstiger, weswegen sie bei MF vielleicht ja auch in der BF Woche die Verkaufszahlen angeführt hat.
Marge ist natürlich ein ganz anderes Thema, das stimmt.

Nakai
2024-12-03, 19:49:34
Erstmal hängt das doch alles vom Usecase ab. Raster, Raytracing, (AI-) Upscaling, Auflösung, etc. Wir hätten hier schon sehr viele Launches und ich sehe die Vermarktung der 8800XT nicht wirklich über 1440p. Ergo nimmt man die 7800XT als Basis und extrapoliert.

Statt 2,4 GHz eben 2,8 GHz und eben 64 statt 60 CUs. Aver da gibt's noch die Speicherbandbreite die etwas limitieren dürfte und mehr als 64 MB Cache gibt es nicht. Die 7900GRE ist ein guter Vergleich, mehr Rohleistung aber Speicherbandbreite limitiert am Ende. Am Ende wirds auf 25% Mehrleistung gegenüber einer 7800 hinauslaufen. Architekturelle Verbesserungen sind da noch nicht enthalten.

AlterSack
2024-12-03, 19:59:28
Ja, krass verwunderlich, AMD zieht mit der Nummer zwei aus NVidias Vorgängergeneration gleich; wer soll die Karte denn kaufen, wenn sie nicht billiger ist?!

Und vor allem: was hat AMD in den letzten beiden Jahren eigentlich gemacht?

ich zum beispiel. ich brauche nicht die schnellste karte, sondern
eine karte, die genügend fps in den spielen liefert, welche ich daddel.
mir würde sogar eine performance auf 7800xt-niveau reichen,
falls die karte 16gb speicher besitzt und nicht grossartig mehr als 200watt
säuft und sich ihr preis einigermassen in grenzen hält. ich nutze seit über 5jahren eine vega56 (aus dem abverkauf)
und sie reicht noch jetzt knapp für lmu oder ams2.
ich denke, man kann es auch übertreiben...

AlterSack
2024-12-03, 20:05:07
Aber wenn AMD mit einem 270mm2 Chip ansatzweise an eine 4080 Super / 7900XTX heran kommt, dann wäre das mal eben eine Verdopplung der PPA gegenüber Navi31. Klar, N31 ist eine Chiplet GPU mit ein wenig Overhead, aber die Memorycontroller skalieren in 4nm nicht und gegenüber dem 5nm CCD ist 4nm auch nur ein sehr kleiner halfnode shrink.

milchmädchenrechnung:

~5% mehr recheneinheiten
+20% mehrtakt
+20% ipc-gewinn (architektur, keine chiplets)
=45% mehrleistung ---> ziel erreicht. :uconf2::rolleyes::smile:

Altehardware
2024-12-03, 21:30:57
so 4096 alu mal 2,68 was etwa +15% ipc wäre optimistisch und +- 3,0ghz was das maxed wäre mit n4p + 30% Takt vs rdna3
Sind das bei ner 60cu gpu +60% perf.
Das aber kostet Strom grob wäre der chip bei 260w tbp
Das ist genau auf level der rx7900xt sofern die ipc steigt woran ich zweifle da die tmu nicht verdoppelt wurden siehe ps5 pro
Daher eher die rx7900gre als ziel denkbar außer amd haut die taktkeule raus mit 360w tbp und 3,4ghz
Das wäre kein Deut besser als rdna3 mit mcm

BlacKi
2024-12-03, 23:13:14
milchmädchenrechnung:

~5% mehr recheneinheiten
+20% mehrtakt
+20% ipc-gewinn (architektur, keine chiplets)
=45% mehrleistung ---> ziel erreicht. :uconf2::rolleyes::smile:
das skaliert ja miteinander. bei dir kommen 51% mehrleistung raus. ist mir schon klar, dass das keine ernst gemeinte rechnung ist. denn wie will man 20% ipc schaffen?


die chiplets betreffen eigentlich nur die speicheranbindung und cache. so richtig chiplets ist das ja nicht. performance nachteile soll das angeblich nicht kosten, nur den verbrauch zusätzlich erhöhen. vorallendingen den verbrauch an siliziumfläche.

GerryB
2024-12-04, 00:46:12
die alten RDNA3 Chiplets hatten ca. 10% schlechtere Latenzen, was sich bei RDNA4 als IPC-Gewinn verbuchen lässt
bei RDNA3 war die Auslastung von FP32 auch ne Wundertüte, sprich gamebhängig, ... wollte man eigentlich mit OREO
softwaremäßig kompensieren, ... vllt. ist Das mit RDNA4 gar kein Problem mehr --> würde dann auch zu IPC zählen

um jetzt mal nur über Raster zu reden

[MK2]Mythos
2024-12-04, 16:31:12
Zwei RDNA4 Modelle wurden jetzt bestätigt und werden auf der CES vorgestellt.
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/RX-8000-XT-AMD-bestaetigt-zwei-Modelle-1461035/

Hakim
2024-12-04, 17:22:18
275Watt, das wäre etwas über der 7800xt. Ich hoffe AMD nutzt die 275W auch ordentlich aus.

[MK2]Mythos
2024-12-04, 17:32:30
275Watt, das wäre etwas über der 7800xt. Ich hoffe AMD nutzt die 275W auch ordentlich aus.
Eventuell sind es ja auch nur 220 Watt, wenn sich das Gerücht durch Seasonic bestätigt. In beiden Fällen kann man sich eine Performance auf Niveau der RTX4080 aber wohl abschminken.

Der_Korken
2024-12-04, 19:13:43
32MB IF$ bei N44 passen nicht zu 192bit SI. Es muss durch 6 teilbar sein, z.B. 24MB (was angesichts der in Relation zur Rechenleistung höheren Bandbreite keine schlechte Wahl sein könnte).

Achso, und 270mm² finde ich absurd wenig. Wenn da 4080-Leistung rauskommen soll, muss AMD ganz schön zaubern ...

basix
2024-12-04, 22:19:48
Ich frage mich, woher PCGH die Daten hat (Die Sizes passen nicht zu den Specs, 192bit ebenfalls nicht). Mir ist nur das bekannt: https://www.computerbase.de/2024-04/amd-navi-48-die-erste-rdna-4-gpu-ist-bestaetigt-die-eckdaten-noch-nicht/

BlacKi
2024-12-04, 23:15:50
Achso, und 270mm² finde ich absurd wenig. Wenn da 4080-Leistung rauskommen soll, muss AMD ganz schön zaubern ...also laut MLID spekulation, der den 4080 performance leak in die welt gesetzt hat, soll es einzelne benchmarks geben, wo rdna4 die 4080 erreichen können soll.



in ungefähr genauso vielen benchmarks wie die xtx die 4090 schlägt. was das avg etwas über der gre liegen wird.


von 4080 avg performance redet eigentlich kein leaker.

Der_Korken
2024-12-04, 23:41:49
7900GRE-Performance wäre eine absolute Enttäuschung. Vor allem bei 260-270W. 10% Perf/W in über 4 Jahren Entwicklung mit einem Fullnode Vorsprung gegenüber der 6900XT. Holy shit, wär das übel. Dieses Leistungsniveau muss mit maximal 200W drin sein, sonst hätte RDNA4 selbst die Effizienz-Ziele von RDNA3 verfehlt und das mit über 2 Jahren zusätzlicher Entwicklungszeit.

vinacis_vivids
2024-12-04, 23:51:19
45% schneller als die 7900 XTX in RT ist nicht die 7900 GRE :freak:

https://www.pcgamer.com/hardware/graphics-cards/if-the-rumour-that-amds-rdna-4-gpu-is-45-percent-faster-in-ray-tracing-than-a-7900-xtx-and-on-par-with-an-rtx-4080-super-in-raster-is-true-im-buying-six-of-em/

https://i.ibb.co/SBX79jB/AMD-Radeon-RX-8800-XT-RDNA-4-GPU.png

https://i.ibb.co/HN6YkwM/Screenshot-2024-12-04-235530.png

+45% zur 7900 XTX sind 95,4 *1,45 ~ 138,33 fps

Das ist sozusagen zurzeit die prediction BioHazard RE4 + RT

https://i.ibb.co/5nrkNBf/Screenshot-2024-12-05-000208.png

Der_Korken
2024-12-05, 00:21:12
Deine komischen Kirschen, wo du dir die 8800XT schneller als ne 4090 säufst, werden leider nicht besser.

vinacis_vivids
2024-12-05, 00:35:51
+45% Chiphell + GameGPU + spekulation
https://de.gamegpu.com/RPG/Rollenspiel/Resident-Evil-4-Test-GPU-CPU

https://i.ibb.co/C8xh40S/Screenshot-2024-12-05-002514.png

+45% Chiphell + TPU + spekulation
https://www.techpowerup.com/review/resident-evil-4-benchmark-test-performance-analysis/4.html

https://i.ibb.co/p47nKBR/Screenshot-2024-12-05-003049.png

Huang kann ja mit der RTX 5090 immer noch kontern, sofern er die Hitze in den Griff kriegt.

Die 7900 XTX macht mit FSR2-Q + Max Settings + RT ~ 160fps in UHD

n_p5rG-4JtI

Der_Korken
2024-12-05, 00:44:59
Genau. Du nimmst dir den optimistischsten Leak, den du irgendwo findet konntest und konstruierst dir jetzt die bestdenkbarste Realität, die man irgendwie aus diesem Leak ableiten kann bzw. die geradeso nicht im Widerspruch zu diesem Leak steht, und verkaufst das dann als ernsthafte Spekulation oder gar Wahrheit. Seit wie vielen Jahren machst du das hier schon? Bei Vega kann ich mich noch dran erinnern, wie du teilweise Jahre nach dem Launch noch irgendwo Kirschen gepostet hast, um es dir irgendwo so hinzubiegen, dass das ne tolle Karte ist. Und die ganzen "Low-Level-APIs", mit denen die RX470 am Ende die GTX1080 überholen wird. Die Annahme, dass die 8800XT die 4090 in irgendeinem ernsthaften RT-Bench schlagen wird, ist so absurd, dass ich mich echt frage, was du damit bezwecken willst.

Nakai
2024-12-05, 01:04:38
Also das RDNA3 Chiplet Design war schon grober Mist. Höhere Latenzen, mehr Stromverbrauch dank der zusätzlichen PHYs. Hat RDNA4 Dual-Issue? Soweit ich weiß, ja. Ich hab mal den Vergleich zwischen N33 und N32 angestrebt. Das passt zwar nicht vollständig, aber die Skalierung zwischen N33 auf N32 könnte besser sein. N33 schafft auch höhere Taktraten, trotz magereren Prozess. Das kann man alles in den Topf werfen. N48 sollte doppelt soviele Einheiten wie N33 haben, also von 32 CUs auf 64 CUs. Eigentlich ist alles doppelt so groß.

Ich bin nun ein Milchmädchen aber N33 ist knapp über 200mm² groß und den kann man einfach verdoppeln und dann den N4 Bonus hinzufügen. Ich will damit sagen, wenn ich alles linear skalieren, dann kann ein N48 unter 300mm² rauskommen und dabei N31 Performance erreichen, wahrscheinlich nicht in allen Situationen, weil irgendwann die Speicherbandbreite ausgeht.
Aber bei 1440P kann die GPU ganz nett sein.

horn 12
2024-12-05, 01:11:55
Ja, aber bei 4K wird man die 7900XTX auch nie erreichen können
und dies wird die 8800XT auch niemals sein,- eine 4K Karte da jener auch der Speicher zu knapp bemessen, dies muss XT/ XTX wohl noch über 2025 retten.
Zumal FSR 4.0 wohl auch massig Speicher brauchen wird.

Nakai
2024-12-05, 01:26:38
Bei 1440P geht einem N33 auch die Puste aus, auch wegen PCIe 8x.

Eigentlich taugt ein N33 auch nicht als Perspektive, da dem Chip einfach alles fehlt. Ich denke selbst bei 1080P fehlt dem Chip die Bandbreite manchmal. Ich denke aber, das ein doppelter N33 die Baseline sein wird und da liegt am eher bei 7900XT, aber ohne weiteren architekturellen Verbesserungen. Und ja das kriegt man alles bei N4 unter 300mm2 unter. Spannend, aber bei höheren Settings wird einem N48 auch die Puste ausgehen, aber das wird schon eine nette kleine GPU werden.

horn 12
2024-12-05, 01:32:18
Wo siehst du dann bitte Preislich, Raster und RayTracing mässig eine 8800XT
und wird FSR 4.0 das Allheilmittel für AMD werden,- auch wenn DLSS 4.0 nun daherstrahlt?

Nakai
2024-12-05, 01:41:03
Bei hohen Auflösungen ist ein N31 ein Stück weit besser, aber bei 1440P wird man schon gleichwertig sein. Bzgl. FSR habe ich keine Ahnung. Preislich wird man bei 7900XT hinauslaufen. Aber alles nur mit Spekulatius.

vinacis_vivids
2024-12-05, 03:32:07
Ja, aber bei 4K wird man die 7900XTX auch nie erreichen können
und dies wird die 8800XT auch niemals sein,- eine 4K Karte da jener auch der Speicher zu knapp bemessen, dies muss XT/ XTX wohl noch über 2025 retten.
Zumal FSR 4.0 wohl auch massig Speicher brauchen wird.

Nein. Mit zunehmend AI-Upscaling und RT per fp8 wird der Speicherverbrauch geringer.

Ggü. fp16 WMMA Matrix ist fp8 WMMA Matrix fast gleich und spart and Speicherplatz und ist zugleich schneller.

Besonders der IF$ profitiert stark davon.

+45% sind sehr wohl ggü der 7900XTX Stock möglich.

Fp8 / (fp16) 7900 XTX ~ 122 (122) Tflops
Fp8 / (fp16) 8800 XT ~ 196 (98) Tflops

196 Tflops fp8 sind >45% mehr als 122 Tflops fp8

RT, Upscaling und Frame Generation müsste sehr schnell mit int8 gehen und spart Bandbreite und Speicherplatz. Da kommen die >45% zur 7900XTX zum Vorschein.

Von Native 4K + RT ist kaum noch die Rede außer als Basisvergleich.

FSR4-Qualität oder Balanced oder Performance was die native Auflösung senkt und somit den fp32-Bedarf auch senkt.

Altehardware
2024-12-05, 04:46:20
passend zum GPU releases merke ich an das dass cpu limit extrem wichtig wird das merke ich gerade an meiner rtx4070 die zen2 cpu meines Pc kann diese nicht auslasten auf 1080p erst ab 2160p geht das dann aber sind die fps so mies das es nicht lohnt dasselbe kann man von der rx8800xt 64cu erwarten
Der 9800x3d wird Pflicht inklusive gpu load Angabe.
Da amd tendenziell eher singlecore Takt affin ist da kein Automatisches multithread sheduiling des Treibers, wird das wild
Aktuell kann nur PT spiele meine gpu auslasten und das leider so hart das die fps unspielbar werden bps outlaws 24fps
bin aktuell am testen und werde vermutlich doch nenn r7 57003xd kaufen müssen
Unerwartet

dildo4u
2024-12-05, 05:40:26
Nicht wirklich unerwartet PC Ports sind gerade an einem Tiefpunkt was Performance angeht Epic hat erst jetzt angefangen das Multithreading zu verbessern daher skalieren die neuen Intel gar nicht aber AMD mit 3D Cache.

Gerade veröffentlichte Games wie Silent Hill und Stalker 2 nutzten die Engine Version 5.1.

MT Verbesserungen ab 5.4

https://www.eurogamer.net/digitalfoundry-2024-unreal-engine-54-cpu-utilisation-visuals-performance

Das dauert bis das in AAA Games umgesetzt wird.

Badesalz
2024-12-05, 06:33:43
Mythos;13661481']Eventuell sind es ja auch nur 220 Watt, wenn sich das Gerücht durch Seasonic bestätigt. In beiden Fällen kann man sich eine Performance auf Niveau der RTX4080 aber wohl abschminken.Was auf welchen Gerüchten basiert? Bisher kreiste nur Raster auf 4080S, RT auf 4080.