Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
vinacis_vivids
2023-04-15, 00:29:01
3090Ti = 7900XT = 5376SP fp32
7900XT @ 3,0Ghz ist schon bisschen leistungsfähiger.
Lösung: 7900XT > 3090ti.
q.e.d.
dargo
2023-04-15, 00:53:49
und jetzt mal mit dem Takt verrechnen
Was hast du jetzt nicht verstanden an der Schönrechnerei der TFLOPs von AMD? Diese bis zu 61 TFLOPs werden nicht mal im Ansatz beim Gaming auf die Straße gebracht.
Nach AMD Zählweise hätte die 3090TI 5376 Shader.
Spielt keine Rolle... bei Nvidia zählt Nvidias Zählweise und nicht AMDs oder Intels.
TheAntitheist
2023-04-15, 00:57:51
Was hast du jetzt nicht verstanden an der Schönrechnerei der TFLOPs von AMD? Diese bis zu 61 TFLOPs werden nicht mal im Ansatz beim Gaming auf die Straße gebracht.
Spielt keine Rolle... bei Nvidia zählt Nvidias Zählweise und nicht AMDs oder Intels.
Es ging um Luftpumpe und da nehmen sich beide nix...
und wenn Nvidias zaehlweise zählt, dann eben auch bei AMD.
Wieder mal wieder dein Fanboy bs wie jeden Tag
Langlay
2023-04-15, 00:59:27
Spielt keine Rolle... bei Nvidia zählt Nvidias Zählweise und nicht AMDs oder Intels.
Bei der Aussage spielt das sehr wohl eine Rolle, wenns um einen fairen Vergleich geht und nicht nur Stimmungsmache.
Ähm... offiziell hat N31 Full 6144 ALUs.
https://www.amd.com/de/products/graphics/amd-radeon-rx-7900xtx
Eine RTX 3090Ti hat offiziell 10.752 ALUs.
https://www.nvidia.com/de-de/geforce/graphics-cards/compare/?section=compare-specs
Wer ist hier also die größere Luftpumpe? ;) Die TFLOPS hat man sich bei N31 natürlich nichts weiter als schön gerechnet.
dargo
2023-04-15, 01:01:28
Es ging um Luftpumpe und da nehmen sich beide nix...
und wenn Nvidias zaehlweise zählt, dann eben auch bei AMD.
Wieder mal wieder dein Fanboy bs wie jeden Tag
:facepalm:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13282453&postcount=9495
Diese Lesekompetenz einiger Member hier ist wieder bemerkenswert. Soll ich für dich eventuell RDNA3 noch extra fett markieren, dass du das auch raffst?
Bei der Aussage spielt das sehr wohl eine Rolle, wenns um einen fairen Vergleich geht und nicht nur Stimmungsmache.
Was für Stimmungsmache? Leute... was ist mit euch eigentlich los? Bin ich hier im Irrenhaus? Ich habe ganz klar geschrieben, dass die TFLOPs-Angaben von RDNA3, Ampere und Ada nicht mal das Klopapier wert sind wenn man dies bsw. mit Turing oder RDNA2 vergleicht. Alle drei sind meilenweit davon entfernt die bekannten TFLOPs beim Gaming auf die Straße zu bringen. Genau auf Basis von diesen bescheuerten TFLOP-Angaben wurde orakelt, dass RDNA3 bis zu fast 3x schneller sein wird als RDNA2. :lol:
DrFreaK666
2023-04-15, 01:22:19
Seit wann ist es eigentlich wieder ok NV-TFLOPS mit AMD-TFLOPS zu vergleichen?
TheGood
2023-04-15, 07:55:50
Wann waren denn die Tape outs für N31, N32 und N33
Redneck
2023-04-15, 08:08:11
Seit wann ist es eigentlich wieder ok NV-TFLOPS mit AMD-TFLOPS zu vergleichen?
Naja, ich verstehe schon weshalb man es besser nicht machen sollte, aber es sind nunmal offizielle Angaben der Hersteller. Logisch, daß die verglichen werden, genauso wie FPS, Wattage, Abmessungen und sonstiger Gedöns.
Complicated
2023-04-15, 08:37:14
1. Die getrennte Taktdomain für das Forntend. Warum sollte man sowas tun? Da ist doch kein Dev hergegangen und hat gesagt: Lasst uns mal für das Frontend ne eigene Clockdomain einbauen, die 8% höher taktet. Imho trennt man die Taktraten wenn dann richtig (wie Nvidias damals bei G80), weil eines von beiden inhärent schwieriger auf Taktraten zu optimieren ist. So wirkt das aber eher wie eine Last-Minute-Lösung, um noch etwas mehr Leistung aus dem Chip zu kitzeln ohne den Shaderclock anheben zu müssen, denn der ist ja offensichtlich das Problem.
Die getrennten Taktdomains sind meiner Meinung nach nicht im geringsten ein Indikator für irgendwelche Probleme. Wer vor hat weitere GCDs anzubinden der sorgt auch dafür, dass diese nicht alle in einer Taktdomain laufen müssen. Das ergibt sich für mich schon aus der Architektur und der Nutzung von Chiplets. Ganz sicher macht man das nicht Lastminute.
Vorteile ergeben sich vor allem beim Powergating und auch beim Ausgleich von Taktunterschieden auf den jeweiligen GCDs in Teillast-Szenarien oder Unterschieden des max. möglichen Taktes.
basix
2023-04-15, 10:01:54
Ja, RDNA3 scheint erste Vorbereitungen für mehrere GCDs zu enthalten:
- Entkoppelte Frontend und ALU Taktraten
- Kompakteres Command Frontend, was Sinn macht wenn man es dann N-Mal bei N-GCDs verbauen müsste
Troyan
2023-04-15, 10:23:45
Für den Anfang würde es reichen, wenn RDNA 3 die ALUs so "gut" nutzt wie Ampere. ;)
Hat denn mittlerweile jemand herausgebencht (via Micro-Benchmarking), wo es bei Navi 31 klemmt? Sind das wieder zu knappe Register, der Klassiker?
MfG
Raff
RDNA3 setzt auf ILP. Hier muss der Compiler unabhängige Berechnungen finden, die er durch Maskierung als zusätzliche Berechungen auf die Recheneinheiten verteilen kann. Diese dürfen keine Abhängigkeiten haben. nVidia setzt seit Volta/Turing auf zwei unabhängige Pipelines innerhalb der Computeunits, die von einander getrennt jeweils innerhalb von zwei Takten unabhängige Warps (32 Threads) berechnen können.
Im Grunde macht nVidia einen auf GCN und AMD einen auf Kepler. :cool:
bbott
2023-04-15, 10:30:04
Die Register wurden doch um 50% vergrößert. Trotzdem ist die Leistung pro CU und Takt kaum gestiegen, d.h. selbst ohne Dual-Issue kommt da nicht so viel an.
Wieder ein Blickwinkel aus dem Navi31 irgendwie Kaputt wirkt. Könnte bzw. sollte man nicht die RAM Bandbreite als Indikator nutzen, um eine Performance Prognose auch für zukünftige Gpus zu erstellen? Weil solange keine neu Kompressionen kommen, dass Verhältnis zwischen Rechenleistung und Bandbreite nicht allzusehr abweichen sollte?!
Damit würde man denke ich auch die >2x Performance Prognosen entlarven.
Complicated
2023-04-15, 11:20:09
Wieder ein Blickwinkel aus dem Navi31 irgendwie Kaputt wirkt. Was soll denn daran kaputt wirken?
Die +50% Register dienen möglicherweise der zusätzlichen Verwaltung, die der Chiplet-Aufbau benötigt.
https://www.phoronix.com/news/AMD-RDNA3-More-VGPRs
Als Grund nennen AMDs Ingenieure eine Verbesserung der Granularität:
GFX11 with 50% more physical VGPRs and 50% larger allocation granule than GFX10.
Kommentar dazu:
A 50% increase in the physical vector general purpose registers (VGPRs) is a big deal. Optimizing for optimal VGPR usage / lowering VGPR register pressure is a common shader optimization strategy for performance while having a 50% increase in the number of registers will certainly help in easing the pressure. Mir scheint es eher, dass man hier einer Performance-Degradierung entgegengewirkt und ein Nadelöhr in der Architektur reduziert hat.
Edit:
Hier auch die Bestätigung dafür: https://chipsandcheese.com/2023/01/07/microbenchmarking-amds-rdna-3-graphics-architecture/
AMD also increased capacity in the L1 and L2 mid-level caches, in order to better handle the bandwidth demands from a larger GPU. RDNA 2 had a 128 KB, 16-way set associative L1 shared across a shader array. RDNA 3 doubles capacity to 256 KB, while maintaining 16-way associativity. L2 cache capacity increases to 6 MB, compared to 4 MB on RDNA 2, while also maintaining 16-way associativity. Despite these capacity increases, RDNA 3 delivers measurable latency improvements at both L1 and L2.
Schön dargestellt alle Anpassungen in der gesamten Cache-Hierarchie:
https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/12/rdna3_amd_cache_slide.jpg?resize=1200%2C675&ssl=1
Complicated
2023-04-15, 11:49:33
Ich glaube, wenn etwas schief gegangen ist, dann dass RDNA3 nicht schon 2 Chiplets nutzt. Und vielleicht ist das auch genau der Grund für das spätere Erscheinen von N32. Das Gerücht mit einem Bug in der Kommunikation zwischen GCD/MCD/Memory könnte ein Dual-GCD gestrichen/verschoben oder einen Refresh nötig gemacht haben. Ich denke nicht, dass N31 irgendwie defekt ist, könnte aber dennoch einen Impact auf den maximal möglichen Takt haben.
Für mich ist ein weiterer Hinweis die seltsam hohen Taktraten, die in einzelnen Szenarien erreicht werden, ohne dass da viel mehr FPS rum kommen, da die GPU nicht vollständig ausgelastet ist.
Nimmt man mal in diesen Szenarien einen Dual-GCD an, dann könnte hier möglicherweise genau der Vorteil der unterschiedlichen Taktdomains zu Tage treten. Alle wissen, dass AMD GCDs skalieren möchte, doch wie genau das funktionieren soll ist noch nicht wirklich klar geworden.
Ein GCD der das Postprocessing mit erhöhten Takt machen kann, oder sogar komplett für Framegeneration den GCD entlastet, der den neuen Frame generiert... mir fallen da viele Möglichkeiten ein... es fehlen allerdings noch einige Mosaikstücke für eine solide Spekulation.
Ein RDNA3 Refresh oder RDNA4 werden womöglich hier erst Klarheit schaffen, ob es
1. eine benötigte Evolution der Architektur war mit einem Tradeoff, den man in Kauf genommen hat für Erkenntnisse beim nächsten Schritt.
2. Oder ob sich wirklich schon um einen mißlungenen nächsten Schritt handelt (2 GCDs? Mehr Takt?)
Ich persönlich tendiere zu Punkt 1 und dass AMD mit den Performance-Prognosen zu Nvidias Ada dann überrascht wurde. Vielleicht reagieren sie nun darauf mit tatsächlich 2xGCD bei N32 oder sie können da nicht drauf reagieren und nehmen sich die Zeit das Problem zu fixen, weil der Markt derzeit auch keinen Kaufdruck ausübt. RDNA4 soll dann jedoch diesen Schritt vollführen.
Thunder99
2023-04-15, 11:53:23
Mir ist gerade in den Sinn gekommen, dass Navi 31 Bulldozer reloaded ist.
Erinnern wir uns. AMD stellt den 1. 8 Kerner vor, aber es wurde nicht alles verdoppelt,. sodass die Leistung entsprechend niedriger war als bei einem echten 8-Kerner.
Bei Nvidia ist es ähnlich aber sie bekommen es etwas besser auf die Straße.
Sind am Ende einfach nicht genug Shader verbaut damit die Performance passt? Oder nicht genug Breit?
Edit: @Complicated :up:
Complicated
2023-04-15, 12:00:28
Hier noch ein Zitat aus den Microbenches, das meiner Meinung nach darauf hinweist, dass es hier einen zweiten GCD benötigt um all diese Anpassungen auch auszulasten. Die Zielrichtung ist meiner Meinung nach eindeutig:
Infinity Cache bandwidth also sees a large increase. Using a pure read access pattern, we weren’t able to get the full 2.7x bandwidth increase that should be theoretically possible. Still, a 1.8x bandwidth boost is nothing to joke about. The bandwidth advantage is impressive considering the Infinity Cache is physically implemented on different chiplets, while RDNA 2 kept the Infinity Cache on-die.
Complicated
2023-04-15, 12:29:44
Die Verdoppelung der FP32 und Dualissue ist auch ganz gezielt für AI und ML Workloads konzipiert:
Now, lets talk about that 123TFLOP FP16 number that AMD claims. While this is technically correct, there are significant limitations on this number. Looking at the RDNA3 ISA documentation, there is only one VOPD instruction that can dual issue packed FP16 instructions along with another that can work with packed BF16 numbers.
This means that the headline 123TF FP16 number will only be seen in very limited scenarios, mainly in AI and ML workloads although gaming has started to use FP16 more often.
Auch das ist nachvollziehbar, da AMD den hybriden Ansatz bei Raytracing verfolgt und hier auch Software Anpassungen benötigt werden. Schielt man auf die nächste Konsolen Generation ist es nur Konsequent darauf zu bauen, dass AMD dort seinen Ansatz breiter verfügbar machen kann.
Da ist viel vorhanden in RDNA3, das in die Zukunft zielt, aber dennoch benötigt wird um auch schon Software darauf zu optimieren. Ob das so ausgeht wie AMD sich das vorstellt, steht natürlich auf einem anderen Blatt. Doch es erklärt auch Nvidias bemühen für Raytracing schnellst möglich einen Standard zu schaffen um AMDs Ansatz entgegen zu wirken. Ohne Chiplets wird es Nvidia nicht gelingen dagegen zu halten, sobald AMD erfolgreich damit ist Multi-GCDs zu nutzen und zu skalieren. Vor allem kann AMD dann die GCDs kleiner machen und sich Vorteile verschaffen bei Takt/Yield und damit früher am Markt sein bei allen zukünftigen Nodes und gleichzeitig Kosten sparen. Mir scheint es derzeit ein Wettlauf zu sein, der um die Softwareentwickler herum stattfindet und eine möglichst große Basis für die jeweilige Raytracing-Strategie etablieren soll. Die Konsolen konnten in der Vergangenheit von Nvidia immer wieder kompensiert werden, durch frühe proprietäre Implementierung.
robbitop
2023-04-15, 13:21:24
IIRC wird die FP16 Verdopplung (RPM) durch dual issue nicht nochmal verdoppelt bei rdna3.
Complicated
2023-04-15, 13:26:31
Ich bin beim weiter Stöbern auf Hinweise gestoßen, wo tatsächlich AMD den Software Support nachgeschoben hat und möglicherweise einiges an Verbesserungen über Patches möglich wären in absehbarer Zukunft:
Zunächst mal wurde das ISA-Instructionset Anfang des Jahres veröffentlicht und zudem Tool Updates:
https://gpuopen.com/gpuperfapi/
GPUPerfAPI is used by Radeon GPU Profiler, as well as several third-party tools including Microsoft PIX on Windows and RenderDoc.
Ein Blick bei MS zeigt ein Update am 30.03.2023 für DX12 Speicherfunktionen: GPU Upload Heaps
https://devblogs.microsoft.com/pix/pix-2303-30/
Historically a GPU’s VRAM was inaccessible to the CPU, forcing programs to have to copy large amounts of data to the GPU via the PCI bus. Most modern GPUs have introduced VRAM resizable base address register (BAR) enabling Windows to manage the GPU VRAM in WDDM 2.0 or later.
With the VRAM being managed by Windows, D3D now exposes the heap memory access directly to the CPU! This allows both the CPU and GPU to directly access the memory simultaneously, removing the need to copy data from the CPU to the GPU increasing performance in certain scenarios.
Nvidia und Intel scheinen diese schon treiberseitig aktiv unterstützen, während AMD nun erst nachzieht:
https://devblogs.microsoft.com/directx/preview-agility-sdk-1-710-0/
Drivers
AMD: Developers interested in getting early access to DirectX Agility SDK-enabled AMD drivers supporting these features should contact their AMD alliance manager.
Intel: A driver with Intel support for these features can be found at: Intel® Arc™ & Iris® Xe Graphics Driver 31.0.101.4255
NVIDIA: NVIDIA’s latest Game Ready Drivers and NVIDIA Studio Drivers (version 531.41) offer support for both GPU Upload Heaps on Ampere and newer GPUs and Non-normalized Sampling on all GPUs. You can update to this driver version seamlessly through GeForce Experience or by downloading directly from NVIDIA.com.
Ich bin gespannt ob das nur bei zukünftigen oder auch bei älteren Spielen Einzug halten kann.
IIRC wird die FP16 Verdopplung (RPM) durch dual issue nicht nochmal verdoppelt bei rdna3.
Richtig, doch die FP16 und BF16 Instruktionen können ebenfalls als Dual Issue laufen. Was eben spezifisch AI Workloads und für Raytracing nützlich ist und ansonsten nicht.
dargo
2023-04-15, 13:37:18
Für mich ist ein weiterer Hinweis die seltsam hohen Taktraten, die in einzelnen Szenarien erreicht werden, ohne dass da viel mehr FPS rum kommen, da die GPU nicht vollständig ausgelastet ist.
Was genau findest du daran seltsam? Wenn das Powerlimit es zulässt dann boostet das Ding halt weit oben, nichts besonderes. Und da N31 bei hoher bis mittlerer Shaderlast sehr durstig ist boostet er eben in diesen Workloads weniger. AMD hat sich entschieden einen möglichst hohen Boosttakt zu implementieren der bei knapp 3Ghz liegt. Ergo wird das auch ausgenutzt. Hast du niedrige Shaderlast siehst du 2,9+Ghz Shaderclock. Nvidia hat sich bei der RTX 4090 als Beispiel für einen völlig anderen Betriebspunkt entschieden. Bzw. die 450W großzügiger gewählt. Dadurch liegt diese GPU oft im Taktlimit und erreicht nicht ihr Powerlimit. Das kannst du mit N31 genauso machen. Musst nur den Betriebspunkt ändern. Anstatt knapp 3Ghz max. Boosttakt bsw. 2,6Ghz und/oder das Powerlimit weiter aufdrehen. In dem Fall wirst du auch 2,5+Ghz selbst bei hoher Shaderlast sehen. Bei niedriger Shaderlast boostet das Teil dan halt bin ~2,6Ghz und liegt weit unter dem gesetzten Powerlimit.
Edit:
Ich konnte in APTR die höchste Shaderlast bei N31 entdecken. Oder anderes gesagt... die höchste Heizleistung. Würde N31 mit einem PT von 400W und max. Boost 2,6Ghz erscheinen würde der Takt selbst dort erreicht werden.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613395&page=104
Nur sind 400W noch alberner als 355W, zumindest für mich.
Complicated
2023-04-15, 13:45:10
Ich selber finde es nicht seltsam, da habe ich mich mißverständlich ausgedrückt. Du beschreibst es korrekt.
Es gab hier einige, die das "seltsam" fanden und in Verbindung mit der "3 GHz"-Folie von AMD spekuliert haben, es sei ein Hardwaredefekt/Designziel verfehlt. Ich denke da passt schlußendlich alles und die Szenarien wo hoch geboostet werden kann sind einfach zu selten, als dass man sagen könnte RDNA3 erreicht 3 GHz wie geplant. Ich glaub diese würde man häufiger sehen bei 2x GCDs, weil die von dir beschriebenen Zustände um hoch zu boosten häufiger auf den einzelnen GCDs vorkommen, da sie einander zuarbeiten abwechselnd oder schon am nächsten Frame Vorarbeiten (Raytracing?)
Die MLID-Story über die Grafikfehler bei N31 finde trotzdem plausibel, die wirkt aber nicht so, wie man sich das vorstellt. Ich denke vielmehr, dass AMD bei den ganzen Treiberversionen herausgefiltert hat, wann das Phänomen auftritt und wird das geblacklistet haben. Derart betroffene Spiele bekommen dann einen Workaround und laufen langsamer, FH5 z.B.?
Die meisten anderen werden laufen wie gewünscht und das ist das Resultat.
Könnte der Ansatz, die Shadertakte so hoch zu takten für den größeren Durst verantwortlich sein, die RDNA3 ggü. RDNA2 ineffizient macht?
basix
2023-04-15, 13:51:24
Die Shader laufen ggü. dem Frontend mit reduziertem Takt. Das soll sogar Energieffizienz bringen ;)
Aber ganz allgemein: Höherer Takt = Ineffizienter. Das kann man mit via Design oder neueren Lithografie-Nodes ausgleichen. Bei RDNA3 scheint es aber schon etwas strange zu sein. Die Taktraten variieren je nach Spiel oder Anwendung sehr stark.
Complicated
2023-04-15, 14:00:16
Also das nachliefern von Zero Copy für die CPU über SAM würde definitiv den Verbrauch senken.
@dargo
Und wenn man sich nun vorstellt mit N32 kleinere GCDs zu verdoppeln, könnte man durchaus in einem sinnvollen PT mit hohem Takt landen und die Effizienz steigern spezifisch für Raytracing. Mit der Renderleistung steht AMD ja schon ganz gut da. Wenn ein Dual-N32 +20% Render und dafür +100% Raytracing (Workloads mit hohen Boost Takt) bringt, verglichen mit einem Single N32, dann könnte dies genau die Lücke schließen, die AMD derzeit in Benchmarks hinterlassen hat. Das ganze Lineup erscheint so für mich sinnvoller mit N33 monolithisch und N31 wie es ist.
Dazu ein geplanter Dual-N32 (hohe Boosts durch TDP-Management) der mißglückt ist und ein Single-N32 unterhalb N31 mit Binning-GCDs die weniger taktfreudig sind. Für den Dual-N32 kann man kleine Stückzahlen planen und das binning dauert halt länger als erwartet. Für mich beantwortet es eigentlich fast alle Fragezeichen rund um RDNA3.
dargo
2023-04-15, 14:01:35
@HOT
Sollte ein Workaround im Treiber nicht mehr Arbeit für die GPU bedeuten? Dann passt hier was nicht zusammen... FH5 boostet recht hoch.
https://abload.de/image.php?img=unknown_2023.04.02-22dcfhw.jpg
Die 347W ist das Silentbios der Karte gewesen bei 100% PT. Mit 60mV Offset gibts noch ~100Mhz drauf bei etwas weniger Wattage.
https://abload.de/image.php?img=unknown_2023.04.02-22nrd9c.jpg
Das Ding würde innerhalb der 347W auch auf 2,9+Ghz gehen. Ich hatte nur ein Profil von 2,9Ghz/1090mV gewählt. Dann hört der Boost etwas drunter auf.
@Complicated
Dual-GCD erwarte ich nicht bei RDNA3, imho ist es dafür noch zu früh. Lasse mich aber gerne vom Gegenteil überzeugen.
@dargo na ja, vielleicht hat man da die Hälfte Leertakte dazwischen und man kassiert wegen des hohen Taktes trotzdem mehr Abwärme... Bei starker Shaderlast würde man korrekterweise eher weniger Takt erwarten. Aber was ist, wenn die Shaderlast gar nicht stark ist, weil das künstlich vom Treiber gedrosselt wird? Der hohe Takt soll das dann ausgleichen und verbraucht potenziell mehr Strom.
Complicated
2023-04-15, 14:08:04
Ich denke Dual-GCD kommt auf jeden Fall bei RDNA4. Ich bin ebenfalls nicht sicher ob es für RDNA3 tatsächlich bis zu einem Punkt angedacht war oder erst gar nicht in Erwägung gezogen wurde. Wie schon gesagt werden wir bei einem RDNA3 Refresh oder eben erst mit RDNA4 genauer rückschließen können.
Edit: Unternehmerisch würde ich persönlich den derzeitigen Markt nicht nutzen dafür, sondern Ende des Jahres erst für 2024 einen solchen Durchbruch in den Markt bringen. 2024 sollte sich der Desktopmarkt und der Mobile Markt von der Talsohle erholen. Um im GPU Markt anzugreifen benötigt AMD auch mehr Kapazitäten, sollte es Nvidia nicht gelingen etwas gegen die GCDs zu setzen, wenn diese erfolgreich skaliert werden können. Und es gibt der Software ebenfalls Zeit dafür zu reifen - möglicherweise liegt da auch der ganze Hund begraben, beim Compiler-Support und Dual-GCDs verschieben sich deshalb oder waren immer schon für RDNA4 geplant. N31 und Phönix sind jedenfalls die benötigte dGPU und iGPU die als Referenz für die Software-Entwicklung mit GFX11 jetzt dienen. 1 Jahr später Dual-GCDs die davon bei Launch profitieren. Das sieht dann nach einem Plan aus, um das Henne/Ei Problem für eine neue Architektur und Hybrid Raytracing in den Griff zu bekommen.
Ich denke Dual-GCD kommt auf jeden Fall bei RDNA4. Ich bin ebenfalls nicht sicher ob es für RDNA3 tatsächlich bis zu einem Punkt angedacht war oder erst gar nicht in Erwägung gezogen wurde. Wie schon gesagt werden wir bei einem RDNA3 Refresh oder eben erst mit RDNA4 genauer rückschließen können.
Da würd ich sogar noch weiter gehen, und denken, dass die GCDs nur noch kleine Chiplets in einem state-of-the-Art-Prozess sind, meinetwegen N3X dann und vielleicht 60mm² groß pro SE.
Man würde die dann auf ein Base-Die stapeln, das Cache (minus L0), interne I/O und Frontend enthält, dafür reicht dann ja N6. Das müsste zwar monolithisch sein, >400mm² oder so, aber es wäre in einem billigen Prozess. Die MCDs kann man ja zusätzlich lassen, das wäre eine Kalkulation, ob das die zusätzliche Abwärme lohnt.
Aber RDNA4 ist ein sehr komplexes Projekt lt. Leaks und ich würde sagen, das Stacking mit vielen GCDs würde dem Rechnung tragen... Über dem heißen Frontend würde dann ein Siliziumdummy liegen, wie beim X3D auf den Kernen.
BlacKi
2023-04-15, 14:27:53
Die Taktraten variieren je nach Spiel oder Anwendung sehr stark.das liegt am powerlimit. n31 sind 400-500w karten, die in ein 355w korsett gezwungen sind.
dadurch das die spiele unterschiedlich die karten auslasten, schwankt dadurch der takt imens. die TF sind um 2,65x gestiegen, aber nicht jedes spiel kann davon profitieren. die die es können haben dann einen hohen verbrauch, wodurch es zur taktsenkung kommt.
Dovregubben
2023-04-15, 14:33:17
Auch AMD wird sich langsam rantasten und nicht gleich in die Vollen gehen.
Nvidia hat zu 200% auch Chiplet Designs auch simuliert beim Design der nächsten GPUs.
Klar passen die Argumentationen zu den "AMD wird Nvidia total zerstören!!!1!1!11" Rufen bei jeder einzelnen Generation. Aber das wird nicht passieren.
basix
2023-04-15, 14:40:05
Da würd ich sogar noch weiter gehen, und denken, dass die GCDs nur noch kleine Chiplets in einem state-of-the-Art-Prozess sind, meinetwegen N3X dann und vielleicht 60mm² groß pro SE.
Man würde die dann auf ein Base-Die stapeln, das Cache (minus L0), interne I/O und Frontend enthält, dafür reicht dann ja N6. Das müsste zwar monolithisch sein, >400mm² oder so, aber es wäre in einem billigen Prozess. Die MCDs kann man ja zusätzlich lassen, das wäre eine Kalkulation, ob das die zusätzliche Abwärme lohnt.
Aber RDNA4 ist ein sehr komplexes Projekt lt. Leaks und ich würde sagen, das Stacking mit vielen GCDs würde dem Rechnung tragen... Über dem heißen Frontend würde dann ein Siliziumdummy liegen, wie beim X3D auf den Kernen.
Ich habe mir das mit multiplen GCDs mal durch den Kopf gehen lassen und komme zum Schluss, dass zu kleine GCDs nicht sinnvoll sind. Zumindest, wenn man nicht auf volles 3D-Stacking geht wovon ich aber nicht ausgehe. Der Overhead für Interfaces und mehrfach duplizierten IP-Blöcken wird irgendwann ungünstig. Ich denke, dass AMD eher auf ~150mm2 pro GCD geht. Kleiner macht für die grösseren GPUs keinen Sinn:
- ~150mm2 in N3E für 64 CU + 2x MCD Interfaces
- 3x 64 CU beim Topdog
- IO-Chiplet in N4 mit PCIe, Multimedia und Display
- Ähnliche MCDs wie heute bei N31
- 24 Gbit GDDR6 für die Single-GCD SKU = 12 GByte (128bit)
Damit deckt man bereits alles von 48...192 CUs ab (inkl. Salvage). Kleiner könnte man entweder monolithisch abdecken, oder man legt ein zweites GCD mit nur 16 CUs und einer einzelnen Shader Engine auf:
- ~50mm2
- 2x GCD Konfiguration = 32 CU, 8GByte
- 1x GCD Konfiguration = 16 CU, 6-8 GByte via Clamshell
- Single GCD auch für iGPU Anwendung gedacht
Damit hätte man mit nur 4x Chips das komplette GPU Portfolio performancemässig über Enthusiast bis iGPU abgedeckt (2x GCD, 1x MCD, 1x IOD). Relativ kleine Chips und im jeweilig "optimalen" Herstellungs-Node. Zudem kurze Time-to-Market mit der aktuellsten GPU-IP über alle Produktsegmente. Sehr hohe Economy of Scale Faktoren sowie Reuse von MCD und IOD bei z.B. RDNA5 denkbar.
GCD-Chiplets ergeben überhaupt nur gestacked Sinn. Ohne Stacking bleibts bei der RDNA3-Lösung. Du brauchst ein Base-Die mit Frontend, das einen monolithischen Chip quasi simuliert, anders wird das nichts aus meiner Sicht. Das Gefuckel mit I/O-Die und GCDs, die selbst ein Frontend enthalten, ergeben aus meiner Sicht einfach keinen Sinn - zuviele sinnlose Redundanzen und zu viel sinnlose Hitzeerzeugung.
Wenn dann noch ne weitere Teilung, dass man N31 z.B. in 1 FCD (Frontend) + 2 GCDs aufspaltet, aber das wären so viele Anbindungen, dass du dafür wieder riesige Chips benötigst, der ergibt auch keinen Sinn. Nein, das geht nur mit Stacking.
basix
2023-04-15, 14:43:13
Kläre uns auf ;)
Complicated
2023-04-15, 15:25:37
Ich habe mir das mit multiplen GCDs mal durch den Kopf gehen lassen und komme zum Schluss, dass zu kleine GCDs nicht sinnvoll sind. Zumindest, wenn man nicht auf volles 3D-Stacking geht wovon ich aber nicht ausgehe. Der Overhead für Interfaces und mehrfach duplizierten IP-Blöcken wird irgendwann ungünstig. Ich denke, dass AMD eher auf ~150mm2 pro GCD geht. Dem stimme ich zu.
Ich denke N33 zeigt ungefähr die optimale monolithische Größe für AMD.
Und ich denke nicht, dass AMD auf absehbare Zeit auf ein monolithisches Design verzichten wird/muss. Zunächst als Transit für Mobile, bis die Chiplet-Architektur bei selber Effizenz ankommt oder auch dauerhaft im Lowcost-Segment die Lücke zur APU schließt für Videobearbeiter und viele Monitor-Anschlüße als dGPU. Hier könnte IP für Video-Engines aus den Xilinx-Profilösungen (XDNA) mit rein wandern (AI-Engines). Das könnte sich zu spezifischen Lowcost Beschleunigern entwickeln, die mehr FFUs als IP Block bekommen, je mehr Platz auf den ~200mm² verfügbar wird mit jedem Node. Diese Produktklasse kommt spät im Lebenszyklus, wenn die Kosten für den jeweiligen Node massentauglich sind.
N33 (204mm²) liegt zwischen N23 (240mm²) und N24 (107mm²) bei der Diesize. N14 war noch 160mm².
Da die monolithischen Designs mit N33 nur noch billige/ältere Prozesse nutzen, wird es auch recht günstig nach unten zu skalieren mit 200mm², selbst wenn nur die Hälfte der CUs noch aktiv ist. Ich glaube da kann AMD, in Verbindung mit APUs alles abdecken.
mksn7
2023-04-15, 15:27:44
RDNA3 setzt auf ILP. Hier muss der Compiler unabhängige Berechnungen finden, die er durch Maskierung als zusätzliche Berechungen auf die Recheneinheiten verteilen kann. Diese dürfen keine Abhängigkeiten haben. nVidia setzt seit Volta/Turing auf zwei unabhängige Pipelines innerhalb der Computeunits, die von einander getrennt jeweils innerhalb von zwei Takten unabhängige Warps (32 Threads) berechnen können.
Im Grunde macht nVidia einen auf GCN und AMD einen auf Kepler. :cool:
Im wave64 mode stimmt das nicht, da braucht es kein ILP, sondern auch nur mehr TLP. Ich denke die dual issue units kommen zum allergrößten Teil im wave64 mode (meistens die pixel shader) zum Tragen und erhöhen da den Durchsatz, und zum kleineren Teil wenn es gerade passt im wave32 mode um die single wave Durchlaufzeit etwas zu reduzieren.
Es gibt einige Beschränkungen bei der Registerbandbreite wann dual issue tatsächlich gemacht werden kann. Ich habs gerade nicht im Kopf welche. Die gibt es bei NVIDIA auch (hatte ich mal gebenchmarkt), aber ich glaube da geht es schon öfter.
Die mehr Register haben damit erstmal nichts zu tun, sind aber praktisch dass man auch für "schlechte"/komplizierte shader noch bessere occupancy hat, was hilft um Latenzen zu verdecken.
Complicated
2023-04-15, 15:42:40
Im wave64 mode stimmt das nicht,...
Es gibt einige Beschränkungen bei der Registerbandbreite wann dual issue tatsächlich gemacht werden kann. Ich habs gerade nicht im Kopf welche.
Korrekt. Hier ist das detailliert worden im Link von cheeseandchips:
Compared to RDNA 2, RDNA 3 obviously has a large advantage in compute throughput. After all, it has a higher WGP count. But potential increases in compute throughput go beyond that, because RDNA 3’s SIMDs gain a limited dual issue capability. Certain common operations can be packaged into a single VOPD (vector operation, dual) instruction in wave32 mode. In wave64 mode, the SIMD will naturally try to start executing a 64-wide wavefront over a single cycle, provided the instruction can be dual issued.
A RDNA 3 VOPD instruction is encoded in eight bytes, and supports two sources and one destination for each of the two operations. That excludes operations that require three inputs, like the generic fused multiply add operation. Dual issue opportunities are further limited by available execution units, data dependencies, and register file bandwidth.
Schöne Grafik dazu:
https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/12/rdna3_vopd_issue.png?resize=332%2C505&ssl=1
Fusion_Power
2023-04-19, 18:00:16
Radeon 780M in Aktion (Asus Laptop mit RYZEN 9 7940HS)
Yqrw9cGA6QU
Yoah, mir würde sogar schon ein Ryzen 7 mit der 780M reichen. ^^
dildo4u
2023-04-19, 18:14:13
Wieder der selbe Blödsinn das HS Modelle bekommt dort kein 6400 RAM.
Und die U Modelle wird man nicht auf 80Watt ziehen können also bekommt man nie optimale Performance.
BlacKi
2023-04-19, 19:28:55
Radeon 780M in Aktion (Asus Laptop mit RYZEN 9 7940HS)
https://youtu.be/Yqrw9cGA6QU
Yoah, mir würde sogar schon ein Ryzen 7 mit der 780M reichen. ^^
auch hier wird gesagt, das 3ghz gpu takt angekündigt waren, aber nur 2,8ghz geboostet wird. auch die performance ist kaum höher vs rdna2 sagt er im fazit.
das hat mit dem n21 silizium nichts am hut, scheinbar ist das architekturbedingt, n22 und 23 werden hier wohl keinen fix bekommen.
dildo4u
2023-04-19, 19:34:00
2.8ghz ist doch noch weit von dem entfernt was die Desktop Modelle mit sinvollen TDP schaffen.
Die Steigerung ist in jedem Fall da die RDNA2 IGP liefen mit 2.4.
basix
2023-04-19, 19:35:47
Wenn ich 1080p Medium in einigen Spielen bei >60fps sehe, scheint das Ding doch recht brauchbar zu sein. Und Strix Point soll auf 24 CUs hochgehen :)
BlacKi
2023-04-19, 19:38:40
Wenn ich 1080p Medium in einigen Spielen bei >60fps sehe, scheint das Ding doch recht brauchbar zu sein. Und Strix Point soll auf 24 CUs hochgehen :)fsr performance in fhd? finde ich schwer einzuschätzen ob das wirklich gut ist. der reviever ist der meinung das es eher wenig performance uplift vs rdna2 gibt. er tippt auf die treiber.
dildo4u
2023-04-19, 19:40:25
Der RAM ist einfach zu langsam alles was schneller ist nutzt GDDR6(RTX 2050).
https://wccftech.com/amd-radeon-780m-rdna-3-igpu-on-phoenix-apu-benchmarked-plays-cyberpunk-2077-many-aaa-games-at-1080p-60-fps/
BlacKi
2023-04-19, 19:47:11
schon klar, das gamingperformance mit ram skaliert. das tut rdna2 aber auch.
eines seiner videos mit der 680m heißt "the Fastest iGPU Around!" und dort taktet der ram mit 4800.
im letzten video sagt er trotzdem, das die 780m kein großer sprung ist von 680m
Linmoum
2023-04-19, 19:52:21
auch hier wird gesagt, das 3ghz gpu takt angekündigt waren, aber nur 2,8ghz geboostet wird.Nur weil irgendwas gesagt wird, stimmt es nicht. Und in diesem Fall stimmt es auch weiterhin nicht, auch, wenn das hier gefühlt in jedem zweiten Beitrag (auch schon im Zen4-Thread, die "Diskussion" gab es vor Wochen schon einmal) wiederholt wird.
Angekündigt waren von Anfang an im Zuge der CES 2.8GHz. Die 3GHz tauchten irgendwann mal bei AMD auf der Homepage auf und deren Produktseiten und technischen Spezifikationen triefen zu gefühlten 90% nur so vor inkorrekten Angaben und/oder Schreibfehlern (wie im Übrigen deren Folien, es heißt nicht umsonst immer spöttisch, dass geleakte Folien mit Schreibfehlern nur von AMD sein können...). Oder kennt jemand diese CPU?
The Ryzen 7 7880X3D processor offers 15% more 1080p gaming performance on average across select titles compared to the previous gen Ryzen 7 5800X3D processor:https://www.amd.com/en/legal/claims/ces-2023-claims.html
;)
MSABK
2023-04-19, 19:55:47
Ernsthaft zocken wird man damit nicht können, aber in einem schicken Lenovo mit USB4 und DDR 6400 kann ich gut leben. Werde mir das Lenovo Yoga Pro 7 gen8 genauer ansehen, hat alles was ich brauche. Die Zen4 Version dauert noch bis die erscheint, aktuell mir als Zen3+ erhältlich.
Fusion_Power
2023-04-19, 21:01:30
Wieder der selbe Blödsinn das HS Modelle bekommt dort kein 6400 RAM.
Und die U Modelle wird man nicht auf 80Watt ziehen können also bekommt man nie optimale Performance.
Naja, ich will eigentlich keinen Laptop mit ner 80W APU denn ich will ja gerade ne iGPU damit ich LEISE zocken kann! :freak: Sonst kann man sich ja gleich so einen gaming Laptop mit Turbinenlautstärke zulegen weil jemand meint, dass da unbedingt ne RTX 4090 eingebaut gehört.
Nönö, so 45W max ist denke ich noch halbwegs leise kühlbar, gern auch ein 28W "U" Modell. Für bissl Diablo zocken oder Overwatch reicht das allemal. :)
auch hier wird gesagt, das 3ghz gpu takt angekündigt waren, aber nur 2,8ghz geboostet wird. auch die performance ist kaum höher vs rdna2 sagt er im fazit.
Dachte, RDNA3 hat vor allem diesen magischen "Unendlich-Superduper-Cache" oder was auch immer da eingebaut sein soll gegenüber RDNA2. :uponder:
Der RAM ist einfach zu langsam alles was schneller ist nutzt GDDR6(RTX 2050).
Ich meine gelesen zu haben dass verlöteter LPDDR5 RAM dann noch höher takten kann, also mal auf Laptops warten die sowas eingebaut haben. Bin jetzt auch kein Fan von verlötetem RAM aber wenns der iGPU hilft, seis drum.
robbitop
2023-04-19, 21:27:02
Der Infinitycache wurde bereits bei rdna2 eingeführt war aber kein zwingendes Merkmal. Die APUs hatten es nie und auch die Konsolen SoCs nicht. Das ist mit RDNA3 auch nicht anders.
Das ist nur ein optionaler Last Level Cache.
dildo4u
2023-04-20, 15:31:36
Dieses Asus Modell hat eine 4060 macht also Sinn mit langsameren RAM.
Wird vermutlich auch Geräte mit HS ohne extra GPU geben.
ROG Alloy APU 35K Open CL im Bereich der A380/RX570.
https://twitter.com/BenchLeaks/status/1648991857475481601
davidzo
2023-04-21, 12:35:11
Mittlerweile hat CB seinen Navi 33 Test veröffentlicht.
https://www.computerbase.de/2023-04/asus-tuf-gaming-a16-rx7600s-test/
Leider nur die 28CU Variante mit 16Gt/s RAM und eine Zen3 APU mit 4800er DDR5. Die Konfiguration ist schon sehr meh, dafür umso beeindruckender dass man bei unter 80Watt mit der getesteten RTX4060 gleichziehen kann.
Mit 32CU und 18GT/s sind es +15% Rechenleistung und +12% Speicherbandbreite. Das dürfte gegen AD107 locker ausreichen.
Von einem Fertigungsnachteil durch N6 sieht man jedenfalls nichts, die GPU scheint bei der Effizienz eher etwas besser mit Lovelace konkurrieren zu können als die großen N5 Chiplet GPUs.
Die Taktraten sind allerdings auch nicht besonders, kaum höher als RDNA2 Niveau.
Man darf gespannt bleiben auf die Desktopversion. Ich erwarte 6700XT Leistung solange man nicht ins VRAM Limit läuft und das bei 6600XT Verbrauch. Leider heißt das heute nur noch FHD medium, mit den mickrigen VRAM.
dildo4u
2023-04-21, 12:51:45
Genau so nutzlos wie die Nvidia Modelle, diese GPU sind auf PS5 Level haben aber zu wenig Vram.
Davon ab das Performance per Watt nicht besser als 6800S ist, da wird hier wie da gespart weniger CU mehr Takt.
basix
2023-04-21, 12:57:25
2.4 GHz bei ~80W sind schon nicht schlecht. Das Ding 3x grösser bauen in N6 (6144 Shader, 384bit, 96 MByte IF$) und man wäre bei ~520mm2 und ~300W in etwa auf 7900 XTX Niveau. Irgendwas läuft bei N31 schon nicht richtig, wenn da so viel von N5 verpufft.
Dino-Fossil
2023-04-21, 13:31:28
Im Skalierungstest scheint sich aber bei >100W nicht mehr so viel zu tun. Mal abwarten, wie sich das auf den Desktop überträgt.
dildo4u
2023-04-21, 13:43:31
Das ist der Ersatz für die 6600 die soll vermutlich nicht weit über 100 Watt gehen.
Das 32 CU Modell werden sie eher pushen.
Dino-Fossil
2023-04-21, 14:28:31
Das wird aber vermutlich auch nicht anders skalieren, hat halt ein paar Prozent Offset.
Edit: Worauf ich hinaus will - ich frage mich, ob da die Performance am Desktop so viel höher ausfällt.
BlacKi
2023-04-21, 15:01:46
Die Konfiguration ist schon sehr meh, dafür umso beeindruckender dass man bei unter 80Watt mit der getesteten RTX4060 gleichziehen kann.
viel interessanter ist der vergleich vs 6800s. langsamer, trotz besserem prozess und deutlich mehr transen. gut mehr mhz, aber dafür hat er ja den besseren prozess.
scheint einfach so, das die architektur sich nicht wirklich von rdna2 absetzen kann. auch monolitisch nicht. damit wären zumindest meine schuldzuweißungen an die chiplets geschichte.
reaperrr
2023-04-21, 21:50:32
viel interessanter ist der vergleich vs 6800s. langsamer, trotz besserem prozess und deutlich mehr transen. gut mehr mhz, aber dafür hat er ja den besseren prozess.
scheint einfach so, das die architektur sich nicht wirklich von rdna2 absetzen kann. auch monolitisch nicht. damit wären zumindest meine schuldzuweißungen an die chiplets geschichte.
Wobei N33 halt auch einige Kern-Features der "vollen" RDNA3-Architektur wie die größeren Register fehlen, während Maßnahmen wie größere L0/1 Caches viele Transistoren kosten, aber nicht zwangsläufig viel für die IPC bringen (jedenfalls nicht in Raster).
Aber ja, der Burner scheint RDNA3 egal in welcher Konfig nicht zu sein.
KarlKastor
2023-04-21, 23:13:33
Die Konfiguration ist schon sehr meh, dafür umso beeindruckender dass man bei unter 80Watt mit der getesteten RTX4060 gleichziehen kann.
Also ich sehe da 13% Unterschied. Ich spiele ja kein 3DMark. Hauptproblem, wie immer, das Speichermanagement. 8GB werden häufig knapp und Radeons reagieren dann empfindlich.
Beeindruckend finde ich allerdings die Die size. So viel sollte der Shrink auf 6nm hat nicht bringen. Anderweitige Optimierungen bezüglich Dichte?
DrFreaK666
2023-04-23, 09:21:21
Weiß nicht ob das schon Thema war, aber MLID glaubt, dass 7800XT auf N31 basieren könnte mit noch mehr deaktivierten (da defekten Einheiten) und 16GB VRAM
tmfHxJT1I3I
7800XT ab 35:26
Er spekuliert, dass die W7800 auch als Consumer Variante kommen müsste, weil die W7800 allein nicht viel hergibt für die Produktion. Also ist eine 7800XT, die N31-Basiert ist, ziemlich wahrscheinlich.
amdfanuwe
2023-04-23, 11:19:34
Er spekuliert,
Also weis er ebenso viel wie ich, nämlich nichts.
Ich spekuliere dann mal auf eine 7900.
Mit 5SE * 7 WGP = 35 WGP = 70 CU ist das schon ziemlicher Ausschuss.
Ich denke nicht, dass da viele vom Band fallen.
N32 mit 30 WGP = 60 CU als Vollausbau für eine 7800XT liegt da noch 15% darunter, 7900XT mit 84 CU nochmal 20% darüber.
Also, 7900 würde besser ins Portfolio passen als eine 7800XT mit verkrüppeltem N31.
Die dürfte dann auch ziemlich spät kommen (wenn dann doch mal zu viele dieser defekten N31 im Lager sind) und preislich unattraktiv sein. Schließlich will man nicht für eine große Nachfrage sorgen, dann müssten ja Chips die für 7900XT geeignet sind verwendet werden.
Complicated
2023-04-23, 12:14:55
Er spekuliert, dass die W7800 auch als Consumer Variante kommen müsste, weil die W7800 allein nicht viel hergibt für die Produktion. Also ist eine 7800XT, die N31-Basiert ist, ziemlich wahrscheinlich.
Oder N32 mit 40CU-GCDs ist als 2xGCD Design vorgesehen für die 7800XT (2x32/36 CUs als Salvage der 40CU-GCDs?), weil das 40CU-Chiplet für APUs genutzt wird. N33 hat 32CUs.
Möglicherweise gibt es auch einen 10-20% Skalierungsverlust bei Dual-GCDs, die dann auch ein 80CU-Dual N32 in einer sinnvollen Performanceregion unterhalb 84CUs mit einem GCD der 7900XT einordnet.
basix
2023-04-23, 12:26:18
An Dual-GCDs glaube ich bei RDNA3 nicht mehr.
Und eine 70 CU Karte macht wie amdfanuwe sagt nicht viel Sinn, wenn eine 60 CU N32 Karte so nahe dran liegt. N31 kostet zudem 1.5x in der Herstellung wie N32. Bei Workstation ist das mal noch nicht so tragisch und allenfalls ist für AMD momentan in diesem Markt Time to Market > Maximale Marge wert.
Complicated
2023-04-23, 13:08:11
Und wenn hinter N32 ein Dual-GCD-Design steckt und die Skalierung für 2xGCD ca. 20% GPU-Leistung kostet? Dann wäre die Anzahl der CU nicht alleine ausschlaggebend. Angenommen 40CU im Dualdesign performenen wie 60CU auf einem GCD. Ich kann mir nicht vorstellen, dass AMD beim ersten Dual-GCD eine 100% Skalierung der CUs hinbekommen kann.
basix
2023-04-23, 13:25:09
N32 trägt 60 CU und soll etwas mehr als 200mm2 gross sein. Wieso soll ich das in zwei GCDs aufteilen? Dazu noch der Overhead durch die Interconnects. Und wenn es dann noch 20% GPU-Leistung kostet, benötigt man am Schluss 2*150mm2 anstatt 200mm2 für die selbe Performance. Und wo sind die ganze Multimedia und IO-Geschichten? Separates Die?
Nee, N32 wird wie N31 aussehen: 1x GCD, n-MCD
Complicated
2023-04-23, 13:51:38
Der Overhead der Interconnects ist doch schon bei 1x GCD verbaut. Der kommt doch nicht dazu wenn ich ein zweites identisches Chiplet nutze zur Skalierung. Wozu sonst Chiplets und MCDs bauen.
Wenn 20% Skalierungsverlust sind, nützt dies natürlich nicht viel bei RDNA3. Doch der nächste Schritt bei RDNA4 könnte den Skalierungsverlust reduzieren um mehr CUs auf Chipelts unterzubringen als es monolithisch wirtschaftlich ist. Dann hilft der Skalierungsverlust ein Kostenlimit zu überwinden, in einem teuren neuen Prozeß.
basix
2023-04-23, 14:00:58
Der Overhead der Interconnects ist doch schon bei 1x GCD verbaut. Der kommt doch nicht dazu wenn ich ein zweites identisches Chiplet nutze zur Skalierung. Wozu sonst Chiplets und MCDs bauen.
Du brauchst zwischen den GCDs auch einen Interconnect ;) Und was mir gerade in den Sinn kommt, wären wohl auch 2x Command Processors nötig. Und auf SW-Seite müsste man das auch schon pfannenfertig haben, damit das funktioniert. Für RDNA3 sehe ich wie gesagt den Sinn nicht. Und N32 ist der zweitgrösste Chip, Chiplets würden doch viel eher beim grössten Chip Sinn machen, oder nicht?
Es gibt einfach zu viele Negativpunkte, die gegen Dual-GCDs sprechen. Bei RDNA4 sieht das dann allenfalls anders aus aber bei N32 ist es mMn zu 99.99% ausgeschlossen ;)
dildo4u
2023-04-24, 09:28:41
7600 könnte als nächstes kommen vermutlich da billig zu produzieren?
https://videocardz.com/newz/amd-board-partners-expected-to-showcase-radeon-rx-7600-desktop-gpus-at-computex
MSABK
2023-04-24, 09:39:28
7600 könnte als nächstes kommen vermutlich da billig zu produzieren?
https://videocardz.com/newz/amd-board-partners-expected-to-showcase-radeon-rx-7600-desktop-gpus-at-computex
Plausibel, da es ja schon Notebooks mit diesem Chip gibt. Ich erwarte da aber keine großen Leistungssteigerungen.
dargo
2023-04-24, 09:43:26
7600 könnte als nächstes kommen vermutlich da billig zu produzieren?
https://videocardz.com/newz/amd-board-partners-expected-to-showcase-radeon-rx-7600-desktop-gpus-at-computex
Ob billig sei mal dahin gestellt. Auf jeden Fall billiger dank 6nm. Und das beste daran... du hast mehr Wafer für Ryzen 7000 zur Verfügung wo man sicherlich mehr Marge fährt.
basix
2023-04-24, 09:44:37
Billiger (geringere Chipfläche) und schneller als N23. Dazu aktuelleres Featureset (Video etc.). Macht für AMD also schon Sinn. 299$ / 300 Euro und das Ding steht im Markt relativ gut da.
dargo
2023-04-24, 09:47:39
Übertreib es nicht, 299$ halte ich für sehr optimistisch. ;) Ich würde eher auf 399$ tippen.
dildo4u
2023-04-24, 11:25:04
6600 sind 230€, 300 passt schon für die 7600 ich erwarte vielleicht +20%.
6650XT werden damit der Ersetzt nur halt mit 120 statt 180 Watt.
6600 zu 6700 sind nur 30% damit könnte man 7600->6700->7600XT=6700XT erwarten(Wenn nicht Vram Limitert)
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Also weis er ebenso viel wie ich, nämlich nichts.
Ich spekuliere dann mal auf eine 7900.
Mit 5SE * 7 WGP = 35 WGP = 70 CU ist das schon ziemlicher Ausschuss.
Ich denke nicht, dass da viele vom Band fallen.
N32 mit 30 WGP = 60 CU als Vollausbau für eine 7800XT liegt da noch 15% darunter, 7900XT mit 84 CU nochmal 20% darüber.
Also, 7900 würde besser ins Portfolio passen als eine 7800XT mit verkrüppeltem N31.
Die dürfte dann auch ziemlich spät kommen (wenn dann doch mal zu viele dieser defekten N31 im Lager sind) und preislich unattraktiv sein. Schließlich will man nicht für eine große Nachfrage sorgen, dann müssten ja Chips die für 7900XT geeignet sind verwendet werden.
7900 wirds nicht geben. Die 7900 ist Premiumsegment, da wird nur XT+ geben. Ist halt Marketing. Wenn, dann ist das ne 7800XT.
Von daher würde ich schon sagen, dass auch die 7800XT N31 wird, man wird auch die 70 CUs haben und eben weniger RAM. N32 hat ja 60CUs maximal. Das wird halt die 7700XT.
dargo
2023-04-24, 12:03:46
6600 sind 230€, 300 passt schon für die 7600 ich erwarte vielleicht +20%.
+20% sind zu tief gestapelt. Oder redet ihr vom Salvage N33? Die 399$ beziehe ich natürlich auf einen vollen N33.
dildo4u
2023-04-24, 12:07:04
Es gibt ja Tests zur Mobile Version die schafft keine 10k im Timespy also im Bereich der 6650XT, skaling hört bei unter 100 Watt auf laut Computerbase.
https://www.computerbase.de/2023-04/asus-tuf-gaming-a16-rx7600s-test/#abschnitt_tdpskalierung_von_40_bis_90_watt
6650XT Genau bei 10k.
https://benchmarks.ul.com/hardware/gpu/AMD+Radeon+RX+6650+XT+review
dargo
2023-04-24, 12:19:31
Wen interessiert Mobile am Desktop? :| Bei Mobile zählt vor allem niedriger Stromverbrauch. Am Desktop machst du 150W als Beispiel frei und das Ding geht locker über 3Ghz. Auch sollte eine Desktop Variante deutlich mehr Speicherbandbreite bekommen, 117GB/s sind doch ein Witz. Bei N33 Desktop Fullchip erwarte ich 280-320GB/s, je nachdem ob AMD hier 17,5Gbps verwendet oder sogar auf 20Gbps geht falls nötig. Denkbar wären in diesem Preissegment natürlich auch 16Gbps mit dann 256GB/s. Die Preise der einzelnen GDDR6 Chips gibt man leider nicht frei für die Öffentlichkeit um das besser einzuschätzen. Aber selbst 256GB/s ist ein gigantischer Unterschied zu den mickrigen 117GB/s bei 7600S.
basix
2023-04-24, 12:20:44
Übertreib es nicht, 299$ halte ich für sehr optimistisch. ;) Ich würde eher auf 399$ tippen.
Für 399$ wird sich das Ding nur schwer verkaufen lassen. Und hey, es ist N6 und nur 8GB. Bei 399$ wäre sogar die 4070 ein guter P/L Deal dagegen (1.44x Chipfläche im teureren N4 Prozess und 1.5x VRAM mit teurerem G6X und ~1.5x Performance zu 1.5x Preis :freak:). Zudem gibt es 6800XT und 6900XT, welche bei <600 Euro Marktpreis ebenfalls das besser P/L bieten würden. Dazu die 6650XT, welche es für ~280 Euro zu haben gibt und die RTX 3060. Nee, 399$ sind zu viel. Das gibt der Markt nicht her.
Und selbst 349$ sehen nicht sehr attraktiv aus. 299$ sind mMn "optimal". Und man kommt unter die psychologisch wichtige 300$ Marke. Margen würden für AMD immer noch passen und etwas positive Publicity tut AMD auch gut. Noch besser wären natürlich 279$ :D Dafür würde AMD schon ein wenig gefeiert werde. Zudem wird noch eine RTX4060 mit AD107 und 8GByte kommen, welche von der Performance her in ähnlichen Gefilden wie dei 6650XT/7600XT unterwegs sein sollte (ohne RT). Die wird garantiert weniger als 399$ MSRP kosten, vermutlich 329...349$.
Auch sollte eine Desktop Variante deutlich mehr Speicherbandbreite bekommen, 117GB/s sind doch ein Witz. Bei N33 Desktop Fullchip erwarte ich 280-320GB/s, je nachdem ob AMD hier 17,5Gbps verwendet oder sogar auf 20Gbps geht falls nötig.
Sind 256 GB/s (128bit @ 16 Gbps)
dildo4u
2023-04-24, 12:31:14
Warum sollte man die kleinste Karte nicht auch am Desktop mit 16GB/S bringen und Nvidias 4050 zu unterbieten?
Ich würde sogar meinen eine schnellere Karte wird durch die 8GB zu sehr begrenzt, die 7600XT wird schneller als PS5 sein aber nicht die selben Textur Details nutzen können.
AMD verkauft sich nur wenn sie NV massiv unterbieten das sollte man mittlerweile blicken.
BlacKi
2023-04-24, 12:38:10
Warum sollte man die kleinste Karte nicht auch am Desktop mit 16GB/S bringen und Nvidias 4050 zu unterbieten?
Ich würde sogar meinen eine schnellere Karte wird durch die 8GB zu sehr begrenzt, die 7600XT wird schneller als PS5 sein aber nicht die selben Textur Details nutzen können.klar könnte man das. aber ich denke man hat sich schon an die hohen margen gewöhnt und scheinbar sieht amd die 16gb karte von intel nicht als echten konkurenten.
dargo
2023-04-24, 12:42:21
AMD verkauft sich nur wenn sie NV massiv unterbieten das sollte man mittlerweile blicken.
Die Verkaufszahlen von N31 bei MF sprechen eine andere Sprache. Bzw. spiegeln nicht das wieder was du da von dir gibst.
Linmoum
2023-04-24, 12:44:40
Auch bei MF verkaufen sich die Karten erst deutlich besser, seitdem die Preise stark gesunken sind.
Davon ab ist das halt am Ende des Tages auch nur MF und in Deutschland wird halt auch immer sehr gerne AMD gekauft.
Exxtreme
2023-04-24, 12:44:45
Die Verkaufszahlen von N31 bei MF sprechen eine andere Sprache. Bzw. spiegeln nicht das wieder was du da von dir gibst.
Massiv unterboten hat AMD durchaus. Die RTX 4080 ist 200 EUR teurer als die 7900 XTX obwohl sie in der gleichen Liga spielen.
dargo
2023-04-24, 12:47:54
Ist nur Quark... die 999€ sind gelegentliche Aktionen von MF und kein regulärer Preis. Regulär trennen die beiden hier ab 140€. Das ist nichts massives in der gegebenen Preisklasse. Und gleiche Liga ist relativ, gilt nur für den Rasterizer.
basix
2023-04-24, 13:09:05
AMD unterbietet Nvidia schon seit RDNA1 nicht mehr um massive Faktoren. Sie bieten ihre Karten im entsprechenden Umfeld "marktgerecht" an. Im Schnitt etwas besseres P/L, da Nvidia mehr Features bieten kann und das wars.
dildo4u
2023-04-24, 13:31:51
Wie gesagt wer braucht mehr 300€ Karten, die 7600 muss so gespect sein das sie billiger als 4050 ist nicht genau das Selbe kostet.
Das war der ganze Punkt der 6nm Fertigung.
reaperrr
2023-04-24, 13:44:59
Davon ab ist das halt am Ende des Tages auch nur MF und in Deutschland wird halt auch immer sehr gerne AMD gekauft.
Äh, nein, so pauschal kann man das nicht sagen, jedenfalls nicht bei Grafikkarten.
Wenn die Leute das Geld haben, kaufen sie lieber eine 4080 als 79XTX, oder gleich eine 4090.
Die Leute schauen angesichts von Inflation etc. bloß momentan mehr aufs (Raster-)P/L-Verhältnis und den Preis generell.
Laut MLID sind die Verkaufszahlen von NV aktuell unterirdisch, richtig gut verkauft sich momentan nichts, vor allem über 500$, aber RDNA2 noch am besten.
Und der hat Quellen in den USA, wo laut ihm ein einzelner MicroCenter ganz andere Stückzahlen umsetzt als ganz MF.
Eigentlich muss man das Lineup sinnvoll bepreisen. Allerdings könnten die Preise mittelfristig weiter sinken, daher darf das Lineup eigentlich nicht so groß werden.
Aber ich vermute folgendes Lineup:
7900XTX 96CUs 355W (eigentlicher korrekter Name 7900XT) (mittelfristig 1000€)
7900XT 84CUs 310W (eigentlich korrekter Name 7800XT) (mittelfristig 800€)
7800XT 70CUs 290W (eigentlich korrekter Name 7800) 650€
7700XT 60CUs 250W 550€
7700 48CUs 200W 400€
7600XT 32 CUs 160W 330€
7600 28 CUs 120W 250€
7500 20 CUs 70W 200€
Diese Namensupgrade auf 7900XTX beispielsweise hat AMD mMn nur deshalb so durchgeführt, weil man dank NV die Chance hatte, das Produkt über 1000$ zu verkaufen. So kam es letztendlich doch nicht, da die 7900XTX ja recht spät kam, und dann für 999$. Noch mal den Namen ändern war mMn nicht mehr möglich, daher die unglückliche Benamsung.
reaperrr
In den englischsprachigen Ländern sind die NV-Verkäufe viel schlechter als in Europa. Aber es verkaufen sich alle Karten schlecht, nur im Verhältnis verkaufen sich die 6000er gut.
Nightspider
2023-04-24, 14:10:06
Ob billig sei mal dahin gestellt. Auf jeden Fall billiger dank 6nm. Und das beste daran... du hast mehr Wafer für Ryzen 7000 zur Verfügung wo man sicherlich mehr Marge fährt.
Was du sagst ergibt keinen Sinn.
prinz_valium_2
2023-04-25, 10:56:09
32CU liegt zwischen Series S (20/24) und Playstation 4 Pro (36)
dargo
2023-04-25, 11:16:15
32CU liegt zwischen Series S (20/24) und Playstation 4 Pro (36)
Was genau soll dieser merkwürdige Vergleich jetzt? Erst recht mit einer PS4 Pro? X-D Series S basiert auf RDNA2, nicht RDNA3. Und vergleich mal die Frequenzen bei deinen genannten Konsolen mit den Frequenzen die ein Desktop N33 liefern wird. :freak: Sollten die 160W die HOT da aufgelistet hat für N33 stimmen gehe ich von locker über 3Ghz aus. Mich würde es nicht überraschen wenn wir dann >3,3Ghz sehen. Ob auch bei hoher Shaderlast da bin ich noch etwas skeptisch. Wird sich zeigen müssen.
Die 7800XT müsste ein paar % über der 6950XT rauskommen, die 7700XT ein paar % darunter, so etwas über der 6800XT und 4070. Die 7700 dürfte auf 6800-Niveau stattfinden, die 7600XT dürfte knapp unter der 6700XT landen. An >3GHz glaube ich nicht. Das ist ein Mobilchip, der dürfte nach oben hin sehr ineffizient werden mit N6. Der 7600 dürfte etwas unter der 6600XT landen und die 7500 dann unter 6600-Niveau. Der Rest bleibt 6500(XT) (upgegradet auf 8GB) und 6400.
Speicher ist generell noch die große Frage, eigentlich dürfte 8GB wirklich out sind. AMD täte wirklich gut daran, das nicht mehr zu machen (außer vielleicht bei der 7500), die paar € für mehr Speicher müssen drin sein, denn langfristig wird das die Preise im Markt höher halten als das so möglich wäre.
dargo
2023-04-25, 13:13:40
An >3GHz glaube ich nicht. Das ist ein Mobilchip, der dürfte nach oben hin sehr ineffizient werden mit N6.
Nach oben hin ist jeder Chip ineffizient. Je näher am max. möglichen Takt vom Design umso schlimmer. ;) Wenn RX 7600S mit 28 CUs im Schnitt bei 83W und 2450Mhz rauskommt wüsste ich jetzt nicht warum diese SKU mit 32 CUs und 160W Freigabe nicht über 3Ghz kommen sollte. Das ist fast 100% mehr Spielraum. Wie hoch würde wohl eine RX 7900XTX mit ~700W Freigabe boosten (oder von mir aus eine RX 7900XT mit 600W Freigabe)? ;) Wobei mit 700W würde die XTX eher überall schon mit >3Ghz ins Taktlimit laufen. :D
Altehardware
2023-04-25, 14:41:18
Das stimmt so nicht
nvidia taktet aber gerne größere chips sehr hoch als das man diese in deren sweetspot betreibt.
Und je kleiner der chips desto eher versucht man den Takt so nah ans limit zu bringe um damit Teuere sku zu ermöglichen
Darum deaktiviert nvidia bei nen yield von 70% des ad102 nen achtel des chips 128 aktiv von 144sm
Um dann zur quadro macht als ada 8000 zu verkaufen 10k$ vs 1,6k$
Das gleiche macht man mit den kleineren sku von 80er Modell wo der chip nativ 96sm hat 84 mögliche sm aktiv sein könnte es aber nur 76 sm sind.
Warum nvidia bei ad104 nur 60sm aktiv hat von 72sm kann nur daran liegen das man später nen refresh plant mit 66sm.
Gleiches gilt für die kommende 60er Modell vcin 48sm die der chi hat werden nur 34 aktiv mögliche sku bei 40-44sm als refresh umsetzbar.
Und diese Modelle werden nah an der grenze des nodes OC wie man anhand der rtx4070ti sehen kann mit 285w oder der rtx4070 mit 2000w dabei könnte mit mehr sm aktiv die effizienz drastisch steigen und nur noch 2,4ghz dann gleiche sku 70er bei 170w tbp
bsp wäre ne rtx4070 super mit 52sm und 2,4ghz= +-5% gleichschnell wie die 70er mit 46sm und 2,8ghz
Das der ad102 auf 450w hin designt wurde war klar aber ohne taktkeule bbei nur 2,5ghz verbraucht derselbe chip bei etwa gleicher Leistrng nur noch 330w und hat mehr vram 48gb vs 24gb
Der Grund ist die Spannung die anluiegt und vom Node abhängig.
Ab 1,05v steigt der verbrauch je 0,1 zum quadrat an.
Gleiches gilt für amd wenn nicht sogar früher ab 1,02v aufgrund des mcm Ansatz.
Amd verkauft aber komplettere chips den mehr als 96cu und 60cu haben die gcd nicht
Daran merkt man das NVIDIA mit dieser Taktik versucht so billig wie möglich kleinere chips teurer zu verkaufen.
Zur computex wissen wir was amd plant wenn es um n33 und n32 preisgestaltung angekündigt werden.
Langlay
2023-04-25, 14:51:48
Der Grund ist die Spannung die anluiegt und vom Node abhängig.
Ab 1,05v steigt der verbrauch je 0,1 zum quadrat an.
Gleiches gilt für amd wenn nicht sogar früher ab 1,02v aufgrund des mcm Ansatz.
Spannung erhöht den Verbrauch immer näherungsweise quadratisch nicht erst ab einer bestimmten Voltage. P ~ U²*f
Davon ab ist bei 1,05V bei Nvidia 40er Gen auch schon fast Schluss mehr als 1,1V geht nicht ohne Hardwaremods.
dargo
2023-04-25, 14:58:55
Hinzu kommt noch, dass man bei einem N31 praktisch nie 1020mV zu Gesicht bekommt, außer vielleicht in irgendeinem Spielmenü mit freigeschalteten Frames. :tongue: Ok... bei sehr niedriger Shaderlast und den Customs mit >400W PT könnte man die u.U auch gelegentlich bei sowas wie FH5 sehen. ;)
davidzo
2023-04-25, 16:30:28
Traurig wie die APUs bei AMD ohne den nötigen IF$ verhungern.
https://www.notebookcheck.com/AMD-Ryzen-Z1-und-Ryzen-Z1-Extreme-versprechen-bis-zu-8-6-TFLOPs-GPU-Power-fuer-Gaming-Handhelds.709843.0.html
War das bei RDNA2 nicht auch schon der Fall, dass die doppelt so große GPU (6->12) lediglich 20% schneller war?
Wenn die Skalierung von 4CU auf 12CU nun noch schlechter ist als bisher die von 6 auf 12, dann heißt das nichts gutes für RDNA3. ;(
robbitop
2023-04-25, 16:35:43
Hat IMO nichts mit RDNA3 zu tun sondern eher die wie von dir angesprochene Bandbreitenlimitierung und ggf. auch eine TDP Limitierung.
3x so viele CUs brauchen halt wesentlich mehr Bandbreite und haben auch mehr Leistungshunger. Entsprechend takten sie bei gleichem TDP Budget eben auch geringer.
Ein IF Cache sollte hier doppelt helfen: Speicherzugriffe kosten weniger Energie und man hat dank höherer Hitrate auch mehr effektive Bandbreite.
Complicated
2023-04-25, 17:13:50
Die Handhelds werden jedenfalls von den Upscaling-Funktionen profitieren. Für diese Geräteklasse mit den niedrigen TDPs ist das ein doppelter Benefit. Und es ist ja noch zusätzlich optimiert worden. Mit den 30W TDP des Asus ROG Ally sind ja die Ergebnisse entstanden. Die selbe TDP weist auch das Steam Deck aus.
Bin gespannt auf den 11.05.
Asus wird am 11. Mai nähere Details zum Launch des Gaming-Handhelds enthüllen. Im Vergleich zum AMD Ryzen 7 7840U, der praktisch dieselben Specs wie der Ryzen Z1 Extreme aufweist, hat AMD den Stromverbrauch optimiert, während "Radeon Chill" den Verbrauch reduzieren soll, wenn die Bildrate durch den Spieler begrenzt wird.
Das Steam Deck macht 3,5 GHz CPU boost und 1,6 GHZ GPU Takt innerhalb der 30W TDP
Das Asus Ally macht 5,0 GHz CPU boost und 800 MHz GPU Takt innerhalb 30W TDP
Steam Deck 1,6 TFLOPS
Asus Alloy 2,8/8,6 TFLOPS
Ich denke da läßt schon ein deutlicher Performancesprung erwarten.
6/8 anstatt 4 CPU-Kerne Zen2->Zen3
4/12 anstatt 8 CUs RDNA2->RDNA3
Das kleine Z1 macht trotz halb so vielen CUs doppelt so viele TFLOPS. Klar ist noch eine Projektion.
robbitop
2023-04-25, 17:15:48
Wenn die APU gemeint ist mit der TDP dann ist der Van Gogh im Steamdeck auf 15 W limitiert.
The Verge merkt an, dass die von AMD präsentierten Benchmarkergebnisse der Z1-Serie auf dem ROG Ally im über Asus ROG Armoury Crate wählbaren Modus "Turbo" erzielt wurden, der der APU bis zu 30 Watt TDP zugesteht, was doppelt so hoch wie bei der APU mit RDNA-2-Grafikeinheit im Valve Steam Deck liegt.
https://www.computerbase.de/2023-04/asus-rog-ally-handheld-konkurriert-mit-valves-steam-deck-fuer-rund-700-usd/
Also doppelt so hohe TDP im ASUS wie im Steamdeck für den SoC.
Mir persönlich ist die Akkulaufzeit bei diesen Handhelds viel zu gering, wenn sie gefordert werden. Mit 30 W allein für den SoC (dazu kommen sicherlich noch gute 10 W für den Rest des Handhelds) ist der Akku in 1,5h durch.
Ich fände es viel interessanter die SoCs so zu optimieren, dass >/=4h Spielen möglich sind. Das bräuchte einen möglichst idealen Betriebspunkt bei 5-7W SoC TDP wenn man von einem Akku von grob 50 Wh ausgeht.
DrFreaK666
2023-04-25, 17:22:52
Leak der 7600XT auf MLIDs neues Video
https://abload.de/img/screenshot_20230425_1a3cd5.jpg (https://abload.de/image.php?img=screenshot_20230425_1a3cd5.jpg)
Also 6700XT mit weniger VRAM!?
Complicated
2023-04-25, 17:25:50
Seltsam warum ich so viele Treffer für 30W in Google bekommen hab - da siehst mal wieder, wenn die Links nicht aufrufst und den Kontext prüfst kommt nur Müll bei raus. Manches kann man sich nicht sparen. Danke für den Hinweis.
dargo
2023-04-25, 17:30:15
Leak der 7600XT auf MLIDs neues Video
https://abload.de/img/screenshot_20230425_1a3cd5.jpg (https://abload.de/image.php?img=screenshot_20230425_1a3cd5.jpg)
Also 6700XT mit weniger VRAM!?
Vergiss diesen Leak. ES haben in der Regel niedrigere Frequenzen als das endgültige Produkt.
Tom sagt aber auch, dass die mehr performen wird als das ;). Das kommt halt davon, wenn man nur die Folie postet aber kommentarlos :D.
Mehr als 15% mehr als 6650XT wirds aber wohl kaum werden. Und 175W hören sich sehr plausibel an. Ich hatte ja 160W geschätzt.
dargo
2023-04-25, 17:52:18
Ich finde die 175W eigentlich schon "to much" für N33. Customs dann bei 200+W. :freak:
DrFreaK666
2023-04-25, 17:53:36
... Das kommt halt davon, wenn man nur die Folie postet aber kommentarlos :D...
Ich hab aktuell keine Zeit das Video in Gänze anzuschauen.
RX6750 Performance mit 8GB klingt aber auch nicht besser
Nö, ich vermute, man wird für das Ding aber auch nicht mehr als 330€ veranschlagen. Schlauer wäre es, das Ding mit 16GB zu bringen und für 350$ zu verkaufen, das würde auch nachhaltiger sein und den danach einsetzenden Preisverfall aufhalten. Aber ich glaube leider nicht, dass deren BWLer richtig herum denken. Die sehen die 20$ mehr RAM-Kosten und sagen neee. So ist das ja absehbar wie das laufen wird. Die launchen das Ding, das wird hart floppen und zack sind die auf <250€ runter (also weit unter 250$). Würde man in Zukunft mal den RAM verbaut haben, würde das dann nicht so ein Desaster geworden sein (arf, FuturII :D).
dargo
2023-04-25, 18:01:41
Es sind ja nicht nur RAM-Kosten. Das PCB müsste doch neu gestaltet werden für eine doppelseitige Bestückung oder nicht? An 128Bit SI kannst du auf einer Seite keine acht Ram-Riegel verbauen.
Es sind ja nicht nur RAM-Kosten. Das PCB müsste doch neu gestaltet werden für eine doppelseitige Bestückung oder nicht? An 128Bit SI kannst du auf einer Seite keine acht Ram-Riegel verbauen.
Das wird kein Problem sein, das können die Custom-Hersteller schnell machen, wenn die Referenz das nicht kann. Da muss doch auch Druck von den AIBs herrschen auf AMD diesbezüglich... mal sehen, was da letztendlich Anfang Juni vorgestellt wird. Selbst wenn die Samples alle 8GB sind, wäre es kein Problem, dass die Customs die dann kommen doch 16GB wären. Die Referenz dürfte ja nicht mal in den Verkauf gehen.
reaperrr
2023-04-25, 18:13:22
Das wird nicht viel mehr als eine Art 6650 XTX.
Die 6700 XT liegt bei CB bereits in FullHD ~26% vor einer 6650 XT.
Selbst wenn es statt 11% am Ende 15-18% auf die 6650XT werden, wäre das nur ~3060 Ti-Niveau (in Raster), bei 8x PCie und AMD-gemäß etwas schlechterem VRAM-Management und RT. In 1440p eher schlechter.
Da man die 6650XT schon ab 280 € kriegt und die 6700 mit wohl ähnlicher Leistung, aber mehr VRAM und IF$ ab 343, darf die 7600 XT im Grunde nicht mehr als ~320-330 zum Launch kosten, und muss dann schnell auf <=300 € runter.
Es sei denn du hast genug VRAM, das wäre ein echtes Verkaufsargument.
Fusion_Power
2023-04-26, 14:56:01
Traurig wie die APUs bei AMD ohne den nötigen IF$ verhungern.
https://www.notebookcheck.com/AMD-Ryzen-Z1-und-Ryzen-Z1-Extreme-versprechen-bis-zu-8-6-TFLOPs-GPU-Power-fuer-Gaming-Handhelds.709843.0.html
War das bei RDNA2 nicht auch schon der Fall, dass die doppelt so große GPU (6->12) lediglich 20% schneller war?
Wenn die Skalierung von 4CU auf 12CU nun noch schlechter ist als bisher die von 6 auf 12, dann heißt das nichts gutes für RDNA3. ;(
Also ich finde das super interessant, diese speziell für mobile Handhelds entwickelten Chips. Klingt als würden auch andere Geräte diese APUs nutzen können in Zukunft. Und da solche Handhelds immer beliebter werden, ist das ein cleverer Schachzug von AMD.
https://www.notebookcheck.com/fileadmin/_processed_/6/3/csm_Z1_Specs_0babbd4621.jpg
Sehe ich das richtig, dass dieser Z1 aus 4 RDNA3 Graphic-Cores mit 2,8 mehr TFLOPS raus holt als das Steam Deck mit 1,6 TFLOPS aus 8 Cores?
Und ich will diese APUs in nem großen Notebook sehen mit besserer Kühlung als in nem Handheld möglich und durchgängig voller Performance. :D
amdfanuwe
2023-04-26, 15:20:03
Also ich finde das super interessant, diese speziell für mobile Handhelds entwickelten Chips.
Das ist noch die Frage. Könnten auch lediglich selektierte Phoenix sein.
Bei den RDNA TFLOPs Angaben muss man auch vorsichtig sein, durch dual Issue Nutzung kommen die nur in bestimmten Fällen raus. Bei aktuelle Software rechnet man da besser nur mit der Hälfte.
Also Z1 Extreme 12 CU vergleichbare 4,3 TFLOPs, und Z1 4CU vergleichbare 1,4 TFLOPs.
Eine Radeon RX 470 hatte damals etwas über 4TFLOPs
KarlKastor
2023-04-26, 15:20:04
RDNA3 Flops halt. Also für nen halbwegs brauchbaren Vergleich durch zwei teilen.
Lehdro
2023-04-26, 15:23:10
Sehe ich das richtig, dass dieser Z1 aus 4 RDNA3 Graphic-Cores mit 2,8 mehr TFLOPS raus holt als das Steam Deck mit 1,6 TFLOPS aus 8 Cores?
RDNA3 TFlops vs. RDNA2 TFlops - ich wüsste worauf ich derzeit wetten würde. Das Steamdeck stemmt die 1.6 TFlops bei 15W - wenn sich bewahrheitet dass die selbst die RDNA3 "2.8 TFlops" nicht bei 15W gemessen wurden...
Complicated
2023-04-26, 16:22:33
Ich denke die CPU-Performance ist dort höher zu werten in diesem TDP Budget. 4CU und 6 Cores könnten mehr bringen als nur eine größere iGPU.
DrFreaK666
2023-04-26, 16:23:34
RDNA3 TFlops vs. RDNA2 TFlops - ich wüsste worauf ich derzeit wetten würde. Das Steamdeck stemmt die 1.6 TFlops bei 15W - wenn sich bewahrheitet dass die selbst die RDNA3 "2.8 TFlops" nicht bei 15W gemessen wurden...
Interessant was du alles aus der Grafik herauslesen kannst
Nightspider
2023-04-26, 16:58:43
Die TFlop Angaben kann man sich fast schenken, die sagen doch nicht mehr viel aus.
Fusion_Power
2023-04-26, 17:35:48
Das ist noch die Frage. Könnten auch lediglich selektierte Phoenix sein.
Bei den RDNA TFLOPs Angaben muss man auch vorsichtig sein, durch dual Issue Nutzung kommen die nur in bestimmten Fällen raus. Bei aktuelle Software rechnet man da besser nur mit der Hälfte.
Also Z1 Extreme 12 CU vergleichbare 4,3 TFLOPs, und Z1 4CU vergleichbare 1,4 TFLOPs.
Eine Radeon RX 470 hatte damals etwas über 4TFLOPs
Klingt schon plausibler, wußte nicht dass es da zwischen RDNA2 und 3 solche Unterschiede gibt, interessant.
Meine zugegeben betagte GTX 1050Ti hat immerhin ne Leistung von so um die 2.3 TFLOPS laut Specs. Kann mir nicht wirklich vorstellen dass eine iGPU eine dedizierte 75W Grafikkarte so ohne weiteres hinter sich lässt, in realistischen Spielebenchmarks natürlich. Klar ist RDNA3 viel neuer und effizienter. Aber selbst eine alte 1050 TI kann ja noch durch "Hubraum" punkten, also RAM Speed, TDP, Taktraten und so weiter.
basix
2023-04-26, 21:05:58
Eine 680M ist ähnlich schnell wie eine 1050 (Ti):
https://www.youtube.com/watch?v=wAuMf7qnUXM
https://www.youtube.com/watch?v=l7AlFNomlTw
https://www.youtube.com/watch?v=0DV7pW2p2ew
Und dann noch das Problem 4GByte VRAM bei neueren Spielen.
Traurig wie die APUs bei AMD ohne den nötigen IF$ verhungern.
https://www.notebookcheck.com/AMD-Ryzen-Z1-und-Ryzen-Z1-Extreme-versprechen-bis-zu-8-6-TFLOPs-GPU-Power-fuer-Gaming-Handhelds.709843.0.html
War das bei RDNA2 nicht auch schon der Fall, dass die doppelt so große GPU (6->12) lediglich 20% schneller war?
Wenn die Skalierung von 4CU auf 12CU nun noch schlechter ist als bisher die von 6 auf 12, dann heißt das nichts gutes für RDNA3. ;(
Hier muss man 2 Punkte beachten:
- TDP Limitierung
- CPU Limit (2 GHz auf der CPU? Low Settings?)
Erst wenn man das ausschliessen kann, dann kann man nach anderen Punkten wie CU Skalierung und Bandbreiten-Limit suchen ;)
Die Skalierung ist sicher nicht prickelnd, das ist klar. Aber ein Bandbreiten-Limit würde ich noch nicht als zwingend ansehen.
dildo4u
2023-04-27, 05:53:58
7600xt kommt angeblich am 25.5.
https://videocardz.com/newz/amd-radeon-rx-7600-xt-reportedly-launches-on-may-25th
horn 12
2023-04-27, 06:47:51
Ging nun schnell und Zügig :-)
Hätte man nicht meinen mögen!
DrFreaK666
2023-04-27, 08:20:46
Abwarten ob die Karte auch schnell und zügig wird :D
dargo
2023-04-27, 08:23:21
Also wenn die 175W und nur 100Mhz mehr Boosttakt vs. N31 stimmen dann ist leider das gesamte RDNA3 Design nicht gelungen.
dildo4u
2023-04-27, 08:29:11
Ist halt 6nm der Sinn ist wie bei der PS5 die kosten zu senken die Reviews aller 8GB Karten werden extrem negativ sein daher geht es nur über Preis.
dargo
2023-04-27, 08:38:38
Hört doch endlich auf mit den Nebelkerzen! Ein voller N23 ist 7nm und erreicht ähnliche Boostfrequenzen bei 160-180W.
https://www.amd.com/en/products/specifications/compare/graphics/11846,11296,11406
Dino-Fossil
2023-04-27, 08:44:07
Bei einem für heutige Verhältnisse guten Preis <300€ könnten die Dinger trotz der Einschränkung bei Speicher und mittelprächtigem Performance-Zuwachs durchaus Erfolg haben, einfach weil der Markt in dem Segment relativ dünn ist.
Frage ist, ob AMD die Preise realistisch ansetzt, oder ebenfalls maximal auf Marge gehen möchte.
dildo4u
2023-04-27, 08:48:23
Ich denke der Verbrauch passt nicht vergessen Polaris wurde absolut verschleudert und hat im Schnitt mehr gebraucht.
Ich bin mir ziemlich sicher das 4050 deutlich sparsamer wird der Chip aber zu teuer ist um AMD zu unterbieten.
Relic
2023-04-27, 08:59:56
Hört doch endlich auf mit den Nebelkerzen! Ein voller N23 ist 7nm und erreicht ähnliche Boostfrequenzen bei 160-180W.
https://www.amd.com/en/products/specifications/compare/graphics/11846,11296,11406
6nm ist aber 7nm mit nur minimalen Verbesserungen...
11% mehr Leistung bei 15% kleinerem DIE hört sich erstmal nicht so schlecht an bei fast gleichem Prozess. Aber mit verbesserter Architektur hat sich AMD bestimmt auch mehr gewünscht. Vor allem da sich beim Verbrauch kaum was verbessert hat.
Preis muss halt stimmen. 249$ maximal grade im Angesicht, dass man den Speicher im Moment hinterhergeworfen bekommt.
dargo
2023-04-27, 09:14:46
Wenn ein GPU-Design fehlgeschlagen ist dann musst du über den Preis gehen. Was anderes bleibt dir auch nicht übrig.
Linmoum
2023-04-27, 09:25:17
Man kann dann zumindest nicht mehr vieles (alles?) auf den Chiplet-Ansatz als Ursache schieben, sofern sich das Bild bei N33 verfestigt. Keine Ahnung, was da alles schiefgelaufen ist.
AMD hätte N32 bestimmt auch schon liebend gerne im Markt, das ist IMO das viel größere Übel. Zumal Chiplets und gerade in diesem Fall dank der Weiterverwendung der MCDs, die ja schon bei N31 genutzt werden, eigentlich deutlich schnellere T2M-Möglichkeiten bieten sollten.
dildo4u
2023-04-27, 09:25:55
Das Mobile Modell hält gut mit Nvidia 4nm Modelle mit und das mit einer deutlich billiger Fertigung.
Kein Plan wie man höhere Erwartungen haben kann.
Iscaran
2023-04-27, 09:26:40
6nm ist aber 7nm mit nur minimalen Verbesserungen...
11% mehr Leistung bei 15% kleinerem DIE hört sich erstmal nicht so schlecht an bei fast gleichem Prozess.
Ich vermute das das ENTWEDER 11% Leistung ODER 15% kleinere Die ist. (Oder eben irgendwas dazwischen). Aber eben nicht BEIDES zusammen.
Wikichip - spricht NUR von Flächenverkleinerung bei GLEICHER LEISTUNG:
https://fuse.wikichip.org/news/2261/tsmc-announces-6-nanometer-process/
dargo
2023-04-27, 09:34:52
Das Mobile Modell hält gut mit Nvidia 4nm Modelle mit und das mit einer deutlich billiger Fertigung.
Kein Plan wie man höhere Erwartungen haben kann.
Hier gehts nicht um das Mobile-Modell sondern Desktop N33. :rolleyes:
Relic
2023-04-27, 09:36:18
Ich vermute das das ENTWEDER 11% Leistung ODER 15% kleinere Die ist. (Oder eben irgendwas dazwischen). Aber eben nicht BEIDES zusammen.
Wikichip - spricht NUR von Flächenverkleinerung bei GLEICHER LEISTUNG:
https://fuse.wikichip.org/news/2261/tsmc-announces-6-nanometer-process/
Du verstehst das falsch. ich rede nicht von den theoretischen TSMC Marketing Angaben, die eh nie erreicht werden, sondern von N23 (237mm²) zu N33 (204mm²) und die Gerüchte zu 11% mehr Leistung von N33.
Bei RDNA3 in N5 ist glaube ich ein sehr großes Problem die hohen Leckströme (neben den 10% Mehrverbrauch durch die Chiplets), sieht man ja auch daran, wie beschissen sich N31 untervolten lässt. RDNA3 in N6 wird schlichtweg hier besser laufen und den Fertigungsvorteil von N5 größtenteils auffressen. Meiner Ansicht nach ist RDNA3+ vor allem eine optimierte Version von RDNA3, das die Leckströme im Griff hat und auf N4 optimiert ist, sonst wirds keine Unterschiede geben. Vielleicht kommt N32 sogar als N5-Design in N4, um das ein bisschen zu optimieren. Mal sehen. Aber es wundert mich nicht, dass AMD N31 hier nicht neu auflegen will, man hat die N5-Kapazitäten gebucht und wird diese auch bis zum Ende nutzen. Den reduzierten Takt nimmt man halt in Kauf - das Kind ist eh in den Brunnen gefallen.
Ich vermute das das ENTWEDER 11% Leistung ODER 15% kleinere Die ist. (Oder eben irgendwas dazwischen). Aber eben nicht BEIDES zusammen.
Wikichip - spricht NUR von Flächenverkleinerung bei GLEICHER LEISTUNG:
https://fuse.wikichip.org/news/2261/tsmc-announces-6-nanometer-process/
Architekturvorteil nicht vergessen. Guck dir N23 vs. N10 an. Gleicher Prozess (N7P-Basis). N23 ist nicht nur schneller, sondern N10 braucht für weniger Leistung auch 50% mehr Saft.
Dino-Fossil
2023-04-27, 10:10:56
Ich sehe bei RDNA3 durchaus noch ein gewisses Potential für längerfristige Treiberverbesserungen ("AMD fine wine(tm)"), v.a. wenn dual-issue Ansatz besser ausgenutzt werden kann, das wird vermutlich noch ein paar % bringen. Allerdings überzeugt die Architektur in der Tat nicht so ganz.
Von daher würde es mich auch nicht wundern, wenn es keinen Refresh geben wird, sondern man gleich auf RDNA4 setzt, falls das dann schon nah genug ist und es einfach keine trivialen Fixes gibt.
dildo4u
2023-04-27, 10:41:31
Software bewegt sich doch schon Richtung AMD 7900XT ist billiger und genau so schnell wie 4070 Ti in Fortnite mit Hardware Lumen.
Diese Specs zeigen das selbe AMD Empfehlung ist jeweils eine Klasse unter Nvidia.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13287389#post13287389
BlacKi
2023-04-27, 11:04:46
Du verstehst das falsch. ich rede nicht von den theoretischen TSMC Marketing Angaben, die eh nie erreicht werden, sondern von N23 (237mm²) zu N33 (204mm²) und die Gerüchte zu 11% mehr Leistung von N33.ja, das ist der reine performance gewinn durch die bessere fertigung.
wo bleibt die verbesserung durch neue architektur?
die scheint es kaum zu geben. deshalb hat n31 auch nicht die designziele erreicht. lediglich durch die 5nm fertigung bekommt man grob +50% perf. hin.
die spekukationen im vorfeld lagen bei +100%.
Dino-Fossil
2023-04-27, 12:42:50
Abschließend kann man es sowieso erst sagen, wenn die 7600er Karten auch wirklich raus sind.
Die +11% gelten für ein Engineering Sample und müssen z.B. noch nicht auf finalen Taktraten oder mit den richtigen Treibern laufen. Da werden nicht plötzlich +30% draus, aber ein bisschen mehr ist vermutlich noch drin.
Eine verbesserte Fertigung bringt bei gleicher Einheitenzahl mehr Performance ja auch nur über bessere Taktbarkeit, also mal sehen, wie es da vs den 66x0ern aussieht.
dargo
2023-04-27, 12:51:17
Abschließend kann man es sowieso erst sagen, wenn die 7600er Karten auch wirklich raus sind.
Die +11% gelten für ein Engineering Sample und müssen z.B. noch nicht auf finalen Taktraten oder mit den richtigen Treibern laufen. Da werden nicht plötzlich +30% draus, aber ein bisschen mehr ist vermutlich noch drin.
Eben das verunsichert mich noch bei den Spekulationen. Für mich machen die spekulierten ~2,6Ghz Boost (real werden wir eh mehr sehen, wie so üblich, ich beziehe mich hier auf die "offiziellen" Angaben) bei 175W TBP noch keinen Sinn. Ich vermute eher das saugt man sich aus dem ES. Das Endprodukt sollte eigentlich locker 3Ghz bei dieser TBP schaffen. Paar Unstimmigkeiten sehe ich da noch bei den "Leaks".
davidzo
2023-04-27, 14:29:00
Bei einem für heutige Verhältnisse guten Preis <300€ könnten die Dinger trotz der Einschränkung bei Speicher und mittelprächtigem Performance-Zuwachs durchaus Erfolg haben, einfach weil der Markt in dem Segment relativ dünn ist.
Frage ist, ob AMD die Preise realistisch ansetzt, oder ebenfalls maximal auf Marge gehen möchte.
Bei den Verhältnissen die Nvidia im Performance-Segment geschaffen hat sieht ja auch AMDs 6800er Serie plötzlich nach einem guten Angebot aus, trotz einer Generation Effizienznachteil und RT-handycap.
Und das Entry-level wird von Nvidia ja gerade noch massiv vernachlässigt. Ich glaube da kann AMD auch zu 6650xt / 3060 Preisen launchen und das würde immer noch bejubelt werden.
N33 ist ein kleinerer Chip als N23 und N6 ist auch wesentlich weniger cutting edge als N7 damals war. Bei den Produktionskosten würde ich N33 also gut ein halbes Produktsegment unter N23 einstufen. Langfristig hat AMD viel Luft nach unten mit so einem günstigen mainstreamprodukt.
Hakim
2023-04-27, 14:42:31
Hört sich nicht so überzeugend an. Für mich persönlich könnte die 7800xt evt die letzte Karte der next gen Grakas sein die in Frage kommen könnte, alles andere lohnt nicht wirklich oder bin nicht bereit soviel Geld auszugeben. Oder die 4070 fällt weiter im Preis und erreicht <550€ Regionen....
reaperrr
2023-04-27, 15:47:45
Eben das verunsichert mich noch bei den Spekulationen. Für mich machen die spekulierten ~2,6Ghz Boost (real werden wir eh mehr sehen, wie so üblich, ich beziehe mich hier auf die "offiziellen" Angaben) bei 175W TBP noch keinen Sinn. Ich vermute eher das saugt man sich aus dem ES. Das Endprodukt sollte eigentlich locker 3Ghz bei dieser TBP schaffen. Paar Unstimmigkeiten sehe ich da noch bei den "Leaks".
Der Chip ist komplett N6, also fast keine Prozess-seitigen elektrischen Vorteile ggü. N7P, und die Transistorzahl ist höher als bei N23.
Ich würde daher erwarten, dass N33 nur unwesentlich mehr Takt als eine 6650 XT schafft (wenn überhaupt), da die 6650XT auch schon eine TBP von 180W hat.
Dino-Fossil
2023-04-27, 17:44:33
Taktbarkeit kann auch aus der Architektur kommen, von daher eben mal abwarten. Denke schon, dass AMD RDNA3 generell höher takten wollte. Ob's mit N33 geklappt hat, wer weiß.
Allerdings sah die Skalierung >100W im CB Test der mobile 7600 nicht besonders überzeugend aus. Klar, ist mobile (und für mobile völlig ok), aber ich frage mich warum sich die Desktop-Karte plötzlich massiv anders verhalten sollte, wenn der Chip der gleiche ist?
dargo
2023-04-27, 18:30:30
Der Chip ist komplett N6, also fast keine Prozess-seitigen elektrischen Vorteile ggü. N7P, und die Transistorzahl ist höher als bei N23.
Imho erwartet ihr zu viel von einem kleineren Prozess. Der Hauptgrund für hohe Taktraten liegt mehr im GPU-Design als im Prozess.
Allerdings sah die Skalierung >100W im CB Test der mobile 7600 nicht besonders überzeugend aus. Klar, ist mobile (und für mobile völlig ok), aber ich frage mich warum sich die Desktop-Karte plötzlich massiv anders verhalten sollte, wenn der Chip der gleiche ist?
Ganz einfach... weil Mobile an den mickrigen 117GB/s Bandbreite verhungert wenn du das PT weiter aufreißt. Für ~80W mag das noch ein guter Kompromiss sein. Desktop wird mindestens 256GB/s Bandbreite haben.
btw.
Ich wusste um ehrlich zu sein nicht mal, dass es so einen langsamen GDDR6 Speicher gibt. :freak:
https://pics.computerbase.de/1/0/7/1/6/4-46f626509c1d8e47/6-1280.fa5a8aed.jpg
vinacis_vivids
2023-04-27, 19:00:31
Auf der AMD-Seite steht ~ 256 GB/s Bandbreite von VRAM.
https://www.amd.com/de/products/graphics/amd-radeon-rx-7600s
Dein Screen ist wahrscheinlich im Idle bzw. Stromsparend. Bei GPU-Auslastung schaltet der SI dann hoch von 117GB/s auf 256GB/s (wenn nötig).
Langlay
2023-04-27, 19:18:11
Dein Screen ist wahrscheinlich im Idle bzw. Stromsparend. Bei GPU-Auslastung schaltet der SI dann hoch von 117GB/s auf 256GB/s (wenn nötig).
Tut sie nicht. Die Bandbreitenanzeige ist Statisch. Kann allerdings sein das es falsch in CPU-Z eingepflegt ist also die Bitbreite z.b.
https://i.imgur.com/Z64URE3.jpg
dargo
2023-04-27, 19:27:22
Auf der AMD-Seite steht ~ 256 GB/s Bandbreite von VRAM.
https://www.amd.com/de/products/graphics/amd-radeon-rx-7600s
Dein Screen ist wahrscheinlich im Idle bzw. Stromsparend. Bei GPU-Auslastung schaltet der SI dann hoch von 117GB/s auf 256GB/s (wenn nötig).
Ops... jetzt ergibt so einiges Sinn. ;D Da habe ich mich von GPU-Z veräppeln lassen. :freak: Hatte mich schon gewundert, denn so einen langsamen GDDR6 kann es eigentlich gar nicht geben. :D
vinacis_vivids
2023-04-27, 22:45:15
GPU Takt stimmt ebenfalls nicht. Es sind Boost ~1865Mhz bei der 7600S und nicht nur 1204Mhz.
reaperrr
2023-04-27, 22:54:45
Imho erwartet ihr zu viel von einem kleineren Prozess. Der Hauptgrund für hohe Taktraten liegt mehr im GPU-Design als im Prozess.
Genau das meine ich ja, hier scheint sich bei RDNA3 Prozess-normiert im Endeffekt schlicht nicht so viel getan zu haben, egal ob das nun auch so geplant war oder von irgendwelchen Desingfehlern herrührt.
Linmoum
2023-04-27, 23:02:55
Bei N33 müsste man dann mal schauen, ob der Takt auch dort analog zu N31 in Compute-Tasks problemlos Richtung 3.5GHz(+) geht.
Bei der Taktbarkeit hat sich schon extrem viel getan mit RDNA3. Problem ist halt nur, dass das ausgerechnet in Spielen nicht der Fall ist.
N33 launcht erst mal nur RX 7600, kein XT lt. Tom, für um die 300$ mit 16 WGP und 8GB, 175W knapp unter 3GHz. Taktet wohl doch nicht so dolle. 6700-6700XT Performance.
Dann wird die 7600XT mit großer Sicherheit ein N32-Salvage mit 12GB.
Mein Spekulineup:
7900XTX
7900XT
7800XT (N31, 70CUs, 16GB, entspricht W7800)
7700XT (N32 full, 60CUs, 16GB)
7700 (N32 salvage, ca. 50 CUs, 16GB)
7600XT (N32 salvage, 40 CUs, 12GB)
7600 (N33 full, 32 CUs, 8GB)
7500 (N33 salvage, 28CUs, 8GB)
7400 (N33 salvage, 20CUs, 6GB, 66W)
prinz_valium_2
2023-04-28, 10:25:30
Ich würde das Lineup einfach ganz canceln.
Vllt wird es ja mit der 8000er Serie besser.
Wo ist das Problem? Ist doch traumhaft, 12GB für <400$, alles darüber 16GB. Wird ne Weile reichen ;).
Der_Korken
2023-04-28, 10:30:39
Mein Spekulineup:
...
7800XT (N31, 70CUs, 16GB, entspricht W7800)
7700XT (N32 full, 60CUs, 16GB)
...
Das ergibt keinen Sinn. Imho wird die 7700XT dann schneller als die 7800XT werden. Vielleicht nicht überall, aber oft genug, um das Namensschema zu brechen. Wenn die 7800XT auf N31 basieren soll, dann entweder 80CUs (d.h. eine Shader-Engine deaktiviert) und 16GB oder es ist direkt eine 7900XT mit 4 MCDs und die 7900XT wird eingestellt. Alles andere wird sich von N32 nicht absetzen können.
Nein? Die 7800XT wird ja knapp 300W haben, die 7700XT deutlich weniger. Da sind auf jeden Fall ein paar % dazwischen. Das ist ja designbar für AMD wie sie das haben wollen. Ihr überschätzt die kleineren RDNA3.
dargo
2023-04-28, 10:55:50
Genau das meine ich ja, hier scheint sich bei RDNA3 Prozess-normiert im Endeffekt schlicht nicht so viel getan zu haben, egal ob das nun auch so geplant war oder von irgendwelchen Desingfehlern herrührt.
Hä? Einen N31 bekomme ich problemlos auf >3Ghz. Musst nur PT weit genug aufmachen.
Bei der Taktbarkeit hat sich schon extrem viel getan mit RDNA3. Problem ist halt nur, dass das ausgerechnet in Spielen nicht der Fall ist.
Ist doch Unsinn. In ACO kam ich locker auf >3,1Ghz Shadertakt, oder ist ACO für dich kein Spiel? Ich hatte schon mehrmals gesagt, dass N31 bei mittlerer bis hoher Shaderlast einfach zu durstig geworden ist. Bei niedriger Shaderlast geht das Ding beim Takt ab wie Schmidts Katze.
N33 launcht erst mal nur RX 7600, kein XT lt. Tom, für um die 300$ mit 16 WGP und 8GB, 175W knapp unter 3GHz. Taktet wohl doch nicht so dolle. 6700-6700XT Performance.
Woher willst du das von diesen Daten schon wissen? AIBs werden mehr PT freigeben und schon kann es anders aussehen. Je nachdem wie der Betriebspunkt von AMD für Referenzvorgaben gewählt wurde.
Ich würde das Lineup einfach ganz canceln.
Klar... man wirft die ganzen hohen Investitionen in ein GPU-Design einfach aus dem Fenster. Sind ja nur paar Taler. Manche leben hier echt im Paralleluniversum. :facepalm:
MLID kommen die Daten. Wenn die am 25. lauchen ist ja bereits klar wie die aussehen, denn sind ja in Massenproduktion, und die Performance ist ne valide Einschätzung...
dargo
2023-04-28, 11:10:38
MLID kommen die Daten. Wenn die am 25. lauchen ist ja bereits klar wie die aussehen, denn sind ja in Massenproduktion, und die Performance ist ne valide Einschätzung...
Hast du mich immer noch nicht verstanden? AIBs geben gerne mehr PT frei. Und wenn die Referenz als Beispiel bis zu 2,9Ghz boostet dann werden einige AIBs über 3Ghz kommen mit einer Freigabe von 200-220W als Beispiel.
BlacKi
2023-04-28, 11:24:13
N33 launcht erst mal nur RX 7600, kein XT lt. Tom, für um die 300$
up to 350$ sagt er. was bei uns +-375€ sind. aber so wie alle karten werden die preise sinken.
damit hat man bestenfalls 6700xt performance zum 6700xt preis mit 8gb:freak:
wo bleibt euer shitstorm?
dildo4u
2023-04-28, 11:27:12
Bei AMD gibt es zumindest die Chance das die Preise kollabieren, die 6600 ist erst dadurch Interessant, 3050 sind immer noch über 250€.
Und in der Klasse spiel RT wegen Rechenleistung und 8GB Vram keine Rolle.
https://www.idealo.de/preisvergleich/ProductCategory/16073F102753056oE0oJ1.html
Ist doch genau das Selbe bei Zen4 gewesen hat sich sehr flott angepasst.
basix
2023-04-28, 11:28:42
N33 könnte die erste Karte werden, welche Default >3.0 GHz boosted. Ich vermute aber, dass bei ~2.8 GHz Schluss sein wird.
amdfanuwe
2023-04-28, 11:50:36
up to 350$ sagt er. was bei uns +-375€ sind. aber so wie alle karten werden die preise sinken.
damit hat man bestenfalls 6700xt performance zum 6700xt preis mit 8gb:freak:
wo bleibt euer shitstorm?
Wieso? Ist doch in Ordnung so.
6700XT und 6600er verkaufen sich dann gut ab und anschließend sinken langsam die Preise für 7600er.
Ist doch ganz normal.
amdfanuwe
2023-04-28, 11:55:26
Mein Spekulineup:
7900XTX
7900XT
7800XT (N31, 70CUs, 16GB, entspricht W7800)
Wo sollen denn all die Chips für die 7800XT herkommen?
W7800 ist schon letzter Ausschuss. was darunter geht wird weggeschmissen.
7900XT ist schon salvage.
Wie schlecht soll denn die Produktion sein?
up to 350$ sagt er. was bei uns +-375€ sind. aber so wie alle karten werden die preise sinken.
damit hat man bestenfalls 6700xt performance zum 6700xt preis mit 8gb:freak:
wo bleibt euer shitstorm?
Nope, das ist schlicht falsch, er sagt 250$ wär toll, 300$ wahrscheinlich, 350$ wär dämlich.
Wo sollen denn all die Chips für die 7800XT herkommen?
W7800 ist schon letzter Ausschuss. was darunter geht wird weggeschmissen.
7900XT ist schon salvage.
Wie schlecht soll denn die Produktion sein?
Bei der Leckstromproblematik wird der Yield Mist sein, deshalb gibts da mit Sicherheit genug Chips dafür. Außerdem wird umgekehrt ein Schuh darans, warum sollte man für die 3 verkauften W7800 eine extra Packageproduktion etablieren? Nein, die wirds mit Sicherheit für Desktop geben.
N33 könnte die erste Karte werden, welche Default >3.0 GHz boosted. Ich vermute aber, dass bei ~2.8 GHz Schluss sein wird.
MLID sagt nein, es wird bei knapp 3GHz landen bei 175W. Hatte ich mit meiner Vermutung also recht, dass die Energieeffizenz toll ist bei N6, aber hohe Takte schnell ineffizient werden. Ist halt für mobil optimiet der Chip.
dargo
2023-04-28, 12:16:19
Wo sollen denn all die Chips für die 7800XT herkommen?
W7800 ist schon letzter Ausschuss. was darunter geht wird weggeschmissen.
7900XT ist schon salvage.
Wie schlecht soll denn die Produktion sein?
Bei N21 hatten wir auch zwei Salvages mit einem fetten 520mm² 7nm Die. Bei N31 ist AMD sogar etwas flexibler, einfach zwei MCDs weglassen.
Nope, das ist schlicht falsch, er sagt 250$ wär toll, 300$ wahrscheinlich, 350$ wär dämlich.
Lol... also weiß er es nicht und spekuliert nur.
MLID sagt nein, es wird bei knapp 3GHz landen bei 175W. Hatte ich mit meiner Vermutung also recht, dass die Energieeffizenz toll ist bei N6, aber hohe Takte schnell ineffizient werden. Ist halt für mobil optimiet der Chip.
Selbstlob stinkt. Du weißt noch rein gar nichts zum Betriebspunkt bei N33 Desktop @Referenz. :rolleyes:
dildo4u
2023-04-28, 12:17:55
MLID sagt nein, es wird bei knapp 3GHz landen bei 175W. Hatte ich mit meiner Vermutung also recht, dass die Energieeffizenz toll ist bei N6, aber hohe Takte schnell ineffizient werden.
War es nicht 2.6Ghz?
https://videocardz.com/newz/amd-radeon-rx-7600-xt-reportedly-launches-on-may-25th
Bei N21 hatten wir auch zwei Salvages mit einem fetten 520mm² 7nm Die. Bei N31 ist AMD sogar etwas flexibler, einfach zwei MCDs weglassen.
Und trotzdem ist es eine Änderung der Package-Produktion ;). Das kannst du noch so schlecht finden ;).
Lol... also weiß er es nicht und spekuliert nur.
Na ja, wir sind 3 Wochem vom Launch entfernt... das ist mehr als nur Speku - AMD könnte noch was ändern, das geht.
Selbstlob stinkt. Du weißt noch rein gar nichts zum Betriebspunkt bei N33 Desktop @Referenz. :rolleyes:
:P ;D
DrFreaK666
2023-04-28, 13:20:38
...wo bleibt euer shitstorm?
Den gabs vor mir schon vor ein paar Seiten. Die Kleinen Karten sind einfach nicht zu gebrauchen. Lieber weiterhin RDNA2 kaufen solange noch verfügbar
amdfanuwe
2023-04-28, 13:21:43
Bei N21 hatten wir auch zwei Salvages mit einem fetten 520mm² 7nm Die. Bei N31 ist AMD sogar etwas flexibler, einfach zwei MCDs weglassen.
Und wie gut wurde die 6800 vermarktet?
Habe da nie viele Modelle gesehen und vom Preis her auch eher unattraktiv.
Resteverwertung.
Warum beim N31 2 MCDs weglassen? Wenn da noch eine Resteverwertung kommt die nicht wesentlich schneller als N32 ist, kann man da mit mehr Speicher punkten.
Ebenso wie die 6800 mit N21 Resteverwertung würde N31 Resteverwertung dann eher zu einer 7900 passen.
Über den Preis kann AMD dann gut steuern, wie attraktiv das Produkt erscheint und somit wieviel verkauft werden.
Letztendlich geht es darum die Lager leer zu bekommen.
DrFreaK666
2023-04-28, 13:24:24
... Lol... also weiß er es nicht und spekuliert nur...
Wir wissen langsam, dass du die deutlich bessere Quelle bist und immer alles besser weißt
dargo
2023-04-28, 13:25:12
Wir wissen langsam, dass du die deutlich bessere Quelle bist und immer alles besser weißt
Wo habe ich gesagt, dass ich es besser weiß?
Warum beim N31 2 MCDs weglassen? Wenn da noch eine Resteverwertung kommt die nicht wesentlich schneller als N32 ist, kann man da mit mehr Speicher punkten.
Weil es reine Geldverschwendung ist bei weniger CUs und somit Rohleistung immer noch die gleiche Bandbreite von Full N31 zu verwenden.
DrFreaK666
2023-04-28, 13:28:06
Wo habe ich gesagt, dass ich es besser weiß?
Du verbesserst ständig andere und MLID hat sowieso keine Ahnung
dargo
2023-04-28, 13:29:55
Die ganzen Möchtegern-Leaker lagen auch alle sowas von richtig bei N31. :lol:
Der_Korken
2023-04-28, 14:32:13
Nein? Die 7800XT wird ja knapp 300W haben, die 7700XT deutlich weniger. Da sind auf jeden Fall ein paar % dazwischen. Das ist ja designbar für AMD wie sie das haben wollen. Ihr überschätzt die kleineren RDNA3.
N32Full hat 60 CUs, deine spekulierte 7800XT mit 70 CUs gerade mal 16% mehr. Das Speichersystem wird identisch sein, also kann die Mehrleistung der 7800XT nur aus den +16% CUs kommen. Für N32 steht im Raum, dass entweder die Verbrauchsproblematik besser wird und somit höhere Taktraten @stock erreicht und/oder dass MLIDs ominöser Kommunikations-Bug gefixt wird und 5-10% mehr Performance liefert. Zudem skalieren mehr CUs nicht 1:1. Ich glaube dass es da sehr eng für einen 70CU-N31 wird und er den ein oder anderen Benchmark gegen N32 verlieren würde. Im Durchschnitt schneller war vielleicht etwas übertrieben von mir, aber trotzdem würde die 7800XT in dieser Konstellation für AMD imho keinen Sinn ergeben.
N32Full hat 60 CUs, deine spekulierte 7800XT mit 70 CUs gerade mal 16% mehr. Das Speichersystem wird identisch sein, also kann die Mehrleistung der 7800XT nur aus den +16% CUs kommen. Für N32 steht im Raum, dass entweder die Verbrauchsproblematik besser wird und somit höhere Taktraten @stock erreicht und/oder dass MLIDs ominöser Kommunikations-Bug gefixt wird und 5-10% mehr Performance liefert. Zudem skalieren mehr CUs nicht 1:1. Ich glaube dass es da sehr eng für einen 70CU-N31 wird und er den ein oder anderen Benchmark gegen N32 verlieren würde. Im Durchschnitt schneller war vielleicht etwas übertrieben von mir, aber trotzdem würde die 7800XT in dieser Konstellation für AMD imho keinen Sinn ergeben.
Ich glaub nicht, dass da irgendwas gefixt wird. Ich glaub auch nicht, dass das überhaupt ein großes Problem ist - das mag ja richtig sein mit dem Bug, das bestreite ich gar nicht, ich denke nur, dass dessen Bedeutung zu hoch gehängt wird. Das wird überhaupt nur wenige Titel betreffen. Ich glaub, dass die N3x-Chips in N5 einfach furchbar ineffizient sind und viel Leckströme erzeugen. Daher kommt die hohe Leistungsausfnahme mMn und das wird bei N32 nicht anders sein. Ihr überschätzt die kleinen Chips mMn total. Ich denke, dass N32 nur wenig höher takten lässst und dass N33 schnell nen Taktwall erreichen wird.
N31 als 7800XT wird sicherlich ne sehr viel höhere Leistungsaufnahme haben als die 7700XT, also 300 zu 220 oder 240W mMn. Das limitiert natürlich die Leistung ebenfalls. Es ist eben alles ne Sache der Produktpolitik.
Es ist ja jetzt genau das gleiche im Grunde. Die 6700XT ist ebenfalls ziemlich nah an der 6800. Hier gab es noch den Speichervorteil der 6800, ansonsten kannste über die 6800 genau so argumentieren. Nur gibt es die eben trotzdem. Es wird sich für AMD einfach lohnen, die Dies, die stärker gesalvaged werdem müssen ebenfalls auf den Markt zu bringen und dafür die kleineren Dies effizent zu halten, das macht ja auch die Karten erheblich billiger.
Genau wie jetzt ergibt die 7800XT durchaus Sinn. Und am Namen würd ich mich nicht stören, denn eigentlich sind ja die 7900XTX -> Nachfolger der 6900XT, 7900XT -> Nachfolger der 6800XT, 7800XT -> Nachfolger der 6800.
Klar kann ich auch 100% falsch liegen, wir haben eben keinen entsprechenden Produktlaunch bisher gesehen, bis auf die W7800, die ein starker Hinweis ist.
dargo
2023-04-28, 14:58:29
Zum x-ten Male... ein N31 hat nicht immer eine hohe Leistungsaufnahme. :rolleyes: FH5 bei 2,5Ghz gecapt mit immer noch Stock Spannungskurve von max. 1150mV.
https://abload.de/image.php?img=unknown_2023.04.03-08wcfsm.jpg
Oder ein ACO mit komplett Stocksettings, heißt konkret bei der Karte die ich hatte 2965Mhz/1150mV Profil.
https://abload.de/image.php?img=assassinscreedoriginsite89.jpg
Wenn ich ACO bei 2,5Ghz gecapt hätte wärst du locker unter 250W.
Und wenn du den max. Boost erhöhst und etwas mehr PT frei gibst gibts in ACO auch sowas.
https://abload.de/image.php?img=assassinscreedorigins8yev4.jpg
Der_Korken
2023-04-28, 15:16:29
N31 als 7800XT wird sicherlich ne sehr viel höhere Leistungsaufnahme haben als die 7700XT, also 300 zu 220 oder 240W mMn. Das limitiert natürlich die Leistung ebenfalls. Es ist eben alles ne Sache der Produktpolitik.
Es ist ja jetzt genau das gleiche im Grunde. Die 6700XT ist ebenfalls ziemlich nah an der 6800. Hier gab es noch den Speichervorteil der 6800, ansonsten kannste über die 6800 genau so argumentieren. Nur gibt es die eben trotzdem. Es wird sich für AMD einfach lohnen, die Dies, die stärker gesalvaged werdem müssen ebenfalls auf den Markt zu bringen und dafür die kleineren Dies effizent zu halten, das macht ja auch die Karten erheblich billiger.
Die 6800 hatte 50% mehr CUs und 33% mehr SI als die 6700XT. Das wäre ausgehend von N32 ein Modell mit rechnerisch 90CUs und 341bit SI. Oder anders gesagt: 7900XT (84CU, 320bit) und N32 sind bereits näher zusammen als es 6800 und 6700XT waren. Und in die erste Lücke willst du jetzt noch ein weiteres Salvage-Modell quetschen. Sofern die Yields von RDNA3 keine Katastrophe sind, würde es viel mehr Sinn ergeben die N32 hochzuprügeln, weil man dann die Performance deiner 7800XT erreicht aber mit einem viel kleineren Chip.
vinacis_vivids
2023-04-28, 18:23:06
N32XT 60CUs @ 3,0Ghz ~ 46,0 Tflops fp32
N31XL 70Cus @ 2,6Ghz ~ 46,5 Tflops fp32
Die N32XT Rohleistung ist hochgefahren ungefähr gleich wie N31XL Salvage, beim OC ist N31XL übertaktet auf 3,0Ghz schon schneller.
Allerdings ist N32XT billiger als N31XL, weil mit 200mm^2 GCD erheblich kleiner als 300mm^2 GCD. Da AMD auf den Preis geht, wird es mehr N32XT auf dem Markt geben.
N31XL kann man auch als RX 7800XT (W7800) bezeichnen, N32XT dann die einfache 7800er. Beide mit 256bit SI und 16GB VRAM.
Damit kann AMD die jetzigen 16GB N21-Versionen ersetzen. 200mm^2 N5 sind billiger als 521mm^2 N7.
amdfanuwe
2023-04-28, 19:13:53
Allerdings ist N32XT billiger als N31XL, weil mit 200mm^2 GCD erheblich kleiner als 300mm^2 GCD. Da AMD auf den Preis geht, wird es mehr N32XT auf dem Markt geben.
Ist das denn für eine Milchmädchenrechnung?
Schon mal was von Mischkalkulation gehört?
Wenn da noch eine 7900 kommt, dann nur um halbwegs verwertbare Chips nicht wegschmeißen zu müssen.
Ich schätze, da kommt dann auch eher eine 72 CU (6*12CU) Version.
Die paar Chips mit einer defekten SE werden ja schon für die W7800 gebraucht.
vinacis_vivids
2023-04-28, 20:46:22
Fünf Varianten des N31?
N31XTX 96CUs 96MB IF$ 384bit SI 48GB VRAM
N31XTX 96CUs 96MB IF$ 384bit SI 24GB VRAM
N31XT 84CUs 80MB IF$ 320bit SI 20GB VRAM
N31XL 70CUs 64MB IF$ 256bit SI 32GB VRAM
N31XL 72CUs 64MB IF$ 256bit SI? 16GB VRAM?
Ob 72CUs@2,5Ghz oder 70CUs@2,6Ghz spielt im Prinzip keine Rolle.
Den N31XTX verbaut AMD auch in der W7800 mit 48GB VRAM
BlacKi
2023-04-28, 21:45:19
Nope, das ist schlicht falsch, er sagt 250$ wär toll, 300$ wahrscheinlich, 350$ wär dämlich.
richtig, seine einschätzung. incl hoffnung, das amd seinen stream schaut:freak:
er hat gemeint, er hat diverse leaks bis hoch auf 350$.
ich denke die uvp kann bei 350$ liegen, wird aber schon kurz nach dem release unterboten. so gehts gerade allen neuen karten.
dildo4u
2023-05-03, 06:24:39
Marge scheint noch OK selbst mit ersten 5nm Modellen im Markt
Hoffentlich bekommen wir 500€ Karten mit 16GB.
Alles was er sonst Fanasiert ist Blödsinn, 12 GB wenn NV 8 hat scheint deutlich realistischer
Qa-ZAyQOviY
Neurosphere
2023-05-03, 09:57:22
https://twitter.com/harukaze5719/status/1653660624533192704?t=2kASrpX4fJLUvSyxZNgxfg&s=19
Listung der 7950 im ROCm 5.6. Scheint aber weiterhin gfx1100 zu sein. Fraglich ob man daraus ablesen kann ob es nun ein überarbeiteter Respin ist oder nicht.
Iscaran
2023-05-03, 10:12:58
Laut ROCm Treibereinträgen sind nun ein ganzen Haufen Karten incoming
https://www.reddit.com/r/Amd/comments/1362x8d/radeon_7950_xtx_shows_up_in_pull_request_for_rocm/
| AMD Radeon™ RX 7950 XTX | RDNA3 | gfx1100 | Full | ✅ |
| AMD Radeon™ RX 7950 XT | RDNA3 | gfx1100 | Full | ✅ |
| AMD Radeon™ RX 7900 XTX | RDNA3 | gfx1100 | Full | ✅ |
| AMD Radeon™ RX 7900 XT | RDNA3 | gfx1100 | Full | ✅ |
| AMD Radeon™ RX 7800 XT | RDNA3 | gfx1101 | Runtime | ✅ |
| AMD Radeon™ RX 7700 XT | RDNA3 | gfx1102 | Runtime | ✅ |
| AMD Radeon™ RX 7600 XT | RDNA3 | gfx1102 | Runtime | ✅ |
| AMD Radeon™ RX 7500 XT | RDNA3 | gfx1102 | Runtime | ✅ |
| AMD Radeon™ RX 7600M XT | RDNA3 | gfx1102 | Runtime | ✅ |
| AMD Radeon™ RX 7600M | RDNA3 | gfx1102 | Runtime | ✅ |
| AMD Radeon™ RX 7700S | RDNA3 | gfx1102 | Runtime | ✅ |
| AMD Radeon™ RX 7600S | RDNA3 | gfx1102 | Runtime | ✅ |
Interessant finde ich die 7950 XT und 7950 XTX ???
Hat AMD vielleicht doch heimlich einen "Re-Spin" gemacht und bringt nun die voll funktionierenden N31 ?
und das entsprechend ebenso nun funktionierenden N32, N33 chips?
Complicated
2023-05-03, 10:28:54
Zu beachten wäre bei Treibereinträgen, dass nicht alle tatsächlich je auf den Markt kommen.
Siehe auch bei Nvidia: https://www.3dcenter.org/news/news-des-1314-oktober-2022
Gemäß VideoCardz enthält der neue nVidia-Treiber 522.25 Einträge für drei neue RTX30-Karten bzw. womöglich auch nur Karten-Varianten. Was hier jeweils herauskommt, ist unsicher, denn derzeit gibt es nur diese neuen Treiber-Einträge samt Kartennamen, was allerdings weitgehend nichtssagend ist.
vinacis_vivids
2023-05-03, 10:56:44
Laut ROCm Treibereinträgen sind nun ein ganzen Haufen Karten incoming
https://www.reddit.com/r/Amd/comments/1362x8d/radeon_7950_xtx_shows_up_in_pull_request_for_rocm/
Interessant finde ich die 7950 XT und 7950 XTX ???
Hat AMD vielleicht doch heimlich einen "Re-Spin" gemacht und bringt nun die voll funktionierenden N31 ?
und das entsprechend ebenso nun funktionierenden N32, N33 chips?
7950XT N31XT+ ~ 3,2-3,3Ghz
7950XTX N31XTX+ ~ 3,5-3,6Ghz
Bei den 7950 Varianten schätze ich einen deutlich höheren Takt ein. Mittlerweile dürfte die Produktion besser geworden sein, was den Energiehunger beim Übergang von GCD zu MCDs senkt.
Dazu noch die interne Selektion beim Takt.
Die RDNA3 uArch bei ~3,5Ghz UHD-Last erinnert an Zen1, in Einzelbereichen dann ~4,0-4,1Ghz Spitzentakt.
Das GPU-Team muss noch mehr rauszuholen aus der kleinen Siliziumfläche.
dargo
2023-05-03, 11:12:50
Laut ROCm Treibereinträgen sind nun ein ganzen Haufen Karten incoming
https://www.reddit.com/r/Amd/comments/1362x8d/radeon_7950_xtx_shows_up_in_pull_request_for_rocm/
Interessant finde ich die 7950 XT und 7950 XTX ???
Hat AMD vielleicht doch heimlich einen "Re-Spin" gemacht und bringt nun die voll funktionierenden N31 ?
und das entsprechend ebenso nun funktionierenden N32, N33 chips?
Na hoffentlich... vielleicht kriege ich doch noch eine neue Graka 1 Jahr früher. :tongue: Die RX 7950XT bitte dann aber mit max. 300W AMD!!! Weniger ist immer willkommen. ;)
Iscaran
2023-05-03, 11:20:02
Zu beachten wäre bei Treibereinträgen, dass nicht alle tatsächlich je auf den Markt kommen.
Das stimmt natürlich. Aber so wie ich das verstehe sind die Einträge JETZT neu dazugekommen und wir wissen das Ende Mai ein Launchtermin ansteht.
Der_Korken
2023-05-03, 11:26:28
Laut ROCm Treibereinträgen sind nun ein ganzen Haufen Karten incoming
https://www.reddit.com/r/Amd/comments/1362x8d/radeon_7950_xtx_shows_up_in_pull_request_for_rocm/
Interessant finde ich die 7950 XT und 7950 XTX ???
Hat AMD vielleicht doch heimlich einen "Re-Spin" gemacht und bringt nun die voll funktionierenden N31 ?
und das entsprechend ebenso nun funktionierenden N32, N33 chips?
Warum hat die 7800XT als einzige Karte gfx1101? N31 hat offensichtlich gfx1100 (auch die 7950er!) und N32 aka 7700XT hat gfx1102. Scheint mir wohl ein Typo zu sein.
Was bedeuten die Einträge "Full" und "Runtime"?
Iscaran
2023-05-03, 12:40:27
Warum hat die 7800XT als einzige Karte gfx1101? N31 hat offensichtlich gfx1100 (auch die 7950er!) und N32 aka 7700XT hat gfx1102. Scheint mir wohl ein Typo zu sein.
Was bedeuten die Einträge "Full" und "Runtime"?
Keine Ahnung - vielleicht ermittelt das noch jemand im Reddit.:uponder:
EDIT: Full vs runtime hat vielleicht was mit der Art wie ROCm Treiber funktionieren zu tun ?!? (ROCr = runtime, ROCm = full ?)
https://github.com/RadeonOpenCompute/ROCm/issues/520
amdfanuwe
2023-05-03, 13:08:11
Warum hat die 7800XT als einzige Karte gfx1101? N31 hat offensichtlich gfx1100 (auch die 7950er!) und N32 aka 7700XT hat gfx1102. Scheint mir wohl ein Typo zu sein.
Die 7600er aka N33 haben auch gfx1102.
Müsste gfx1101 N32 sein.
Aber 7700XT auf N33? scheint mir auch eher ein Typo zu sein.
Oder Planungen von anno dazumal, die hier noch verewigt sind.
Der_Korken
2023-05-03, 13:54:04
Die 7600er aka N33 haben auch gfx1102.
Müsste gfx1101 N32 sein.
Aber 7700XT auf N33? scheint mir auch eher ein Typo zu sein.
Ah, so rum macht es mehr Sinn. Die 7700XT ist der Typo und gfx1101 bei der 7800XT ist korrekt, weil das für N32 steht. Das würde auch dem Gerücht widersprechen, dass die 7800XT ein weiterer N31 Salvage werden soll.
Irgendwie klingt das Auftauchen einer 7950 für mich wieder zu optimistisch, nachdem die Gerüchte um 285W für die 7800XT bei ca. N21 Performance für mich ein ziemlicher Downer waren.
Oder die 7700XT ist ne voll ausgefahrene N33 mit 16GB und 220W, sowas wäre auch denkbar. Dafür wär 499$ aber echt zuviel. Und würde den Gerüchten auch echt hart widersprechen.
Der_Korken
2023-05-03, 14:30:13
Ich bezweifle, dass N33 schneller als eine 6700XT werden wird, d.h. eine solche Karte als 7700XT zu verkaufen, wäre schon harter Tobak. Vor allem müssen die N32-Salvages auch irgendwo hin. Es sei denn, N32 existiert gar nicht und die 7800XT ist wirklich N31 Salvage 2.
/s ;)
Langlay
2023-05-03, 16:44:50
Na hoffentlich... vielleicht kriege ich doch noch eine neue Graka 1 Jahr früher. :tongue: Die RX 7950XT bitte dann aber mit max. 300W AMD!!! Weniger ist immer willkommen. ;)
Ich würde vermuten, die 7950XT wird nicht weniger sondern eher mehr verbrauchen als die 7900XT. Aber vielleicht kriegt es AMD jetzt ja wenigstens hin das man das Powerlimit um mehr als 10% absenken kann, das sollte nun doch wirklich nicht zuviel verlangt sein.
Aber ich glaube auch nicht an einen Fix. Das wird einfach nur alter Wein in neuen Schläuchen sein. Bisschen mehr PT hier, bisschen höherer Takt da fertig ist die 7950XT(X).
Jo sehe ich auch so. Das wird wie bei der 6950 laufen.
dargo
2023-05-03, 17:38:44
Wenn kein gefixter N31 kommt muss es eben RDNA4 richten. :cool:
Wenn die beide N3 + Chiplets machen kannste da lange warten fürchte ich...
Übrigens sagt RedGaming diese Liste ist nicht von AMD und damit BS, kam mir ja gleich zu komisch vor.
https://youtu.be/BtkhmyNhCe8
Und noch was, ein AMD Quartal entspricht nicht dem Jahresquartal oder? Das 2. Q müsste jetzt im Mai beginnen, dann launchen die Karten lt. Su dieses Q, das bedeutet Mai bis Juli. Nur um das noch mal klarzustellen, falls da Mißverständnisse aufkommen.
Lehdro
2023-05-04, 14:47:18
Und noch was, ein AMD Quartal entspricht nicht dem Jahresquartal oder? Das 2. Q müsste jetzt im Mai beginnen, dann launchen die Karten lt. Su dieses Q, das bedeutet Mai bis Juli. Nur um das noch mal klarzustellen, falls da Mißverständnisse aufkommen.
AMD Q1 ging 2022 bis 26.03. und 2023 bis 01.04. Also das Quartal ist ziemlich genau ein Quartal. Q2 wäre demnach April, Mai, Juni.
Nur NV hat eine Extrawurst, da stimmt weder das Quartal noch das Jahr.
Complicated
2023-05-04, 15:10:30
Und dennoch habe ich nie erlebt, dass andere Quartale für Launch Termine genutzt werden als die Kalender-Quartale. Auch bei Nvidia.
Danke für die Richtigstellung. Gigabyte bestätigt übrigens, dass nur eine non xt startet und damit, dass diese Rocm liste wirklich fake ist.
https://videocardz.com/newz/gigabyte-confirms-radeon-rx-7600-8gb-and-geforce-rtx-4060-ti-8gb-gpus
Iscaran
2023-05-05, 09:21:33
Danke für die Richtigstellung. Gigabyte bestätigt übrigens, dass nur eine non xt startet und damit, dass diese Rocm liste wirklich fake ist.
Das muss nicht zwingend heissen, dass die Treiber Codenames-Liste falsch ist.
Gigabyte bestätigt NUR, dass es 1 Modell am 25. Mai gibt, nämlich die 7600.
Die anderen Modelle der Liste können immer noch später folgen (Herbst ? für 7950 z.B.)
Doch, die Liste ist falsch. Man kann ja jetzt natürlich darumherumspekulieren, aber Fakt ist, die 7600 steht nicht drauf. Und N33 bei 7700XT ist offensichtlicher Quatsch.
Linmoum
2023-05-05, 10:13:32
Diese EEC-Listungen bestätigen rein gar nichts und sind einfach nur bedeutungslos. Wenn es danach geht, hätten damals auch 5800XT und 5900XT (hatte Sapphire registrieren lassen) kommen müssen. Wie wir wissen, gab es diese Karten nie und von AMD waren die auch nie geplant. Womit auch?
raffa
2023-05-05, 13:40:07
bin gespannt wie gut Navi 33 rennt.
hier Navi 23 XL bei -55mV im Taktlimit/Powerlimit:
vinacis_vivids
2023-05-05, 14:16:52
Bei N33 erwarte ich 3,3-3,5Ghz in 1080p.
basix
2023-05-05, 14:22:47
:D
Wäre schön, ich bin zufrieden wenn die 3.0 GHz standardmässig gerissen werden.
Lt. Gerüchten knapp unter 3GHz bei 175W. Wenn man sich aber N31 anschaut, können die Takte auch deutlich höher ausfallen, je nach Anwendung.
reaperrr
2023-05-06, 11:17:43
https://www.3dcenter.org/news/news-des-5-mai-2023
Im Fall des Falles soll der Navi-31-Chip auf 70 Shader-Cluster heruntergebrochen werden – was nebenbei sowohl an 3 als auch 4 Raster-Engines einen krummen Wert ergibt, denkbarerweise wird dies also noch auf 66 oder 72 CUs korrigiert.
OMG @Leonidas ;D
N31 hat 6 ShaderEngines mit je 2 ShaderArrays und je 4 WGP je SA = 48 WGP/96 CU.
Die 7800 XTX würde der Radeon Pro W7800 entsprechen, die auch 70 CU hat:
5 von 6 SE aktiv (-16 CU), und bei den restlichen 5 SE je ein WGP deaktiviert (-10 CU) = 70.
BavarianRealist
2023-05-09, 16:08:26
Lt. Gerüchten knapp unter 3GHz bei 175W. Wenn man sich aber N31 anschaut, können die Takte auch deutlich höher ausfallen, je nach Anwendung.
Damit dürfte dann Navi33 tendenziell höher takten, als wie Navi31/32.
Wenn man dann berücksichtigt, dass Navi32 200mm² in N5 und etwa 150mm² in N6 und dazu den Chiplet-Aufbau benötigt, dann frage ich mich, ob nicht ein doppelter Navi33 klüger ist, der <400mm² in N6 und damit deutlich günstiger als Navi32 in der Herstellung sein dürfte?`
Nachdem AMD nun auch etwas bei Samsung herstellen lassen will und man sowieso RDNA2 und vermutlich nun auch RDNA3 für Samsung weiter entwickelt....was läge da näher als ein großer monolithischer Navi3x bei Samsung statt dem bisher spekulierten Navi32, von dem man nicht mehr viel hört und von dem ich denke, dass er so nicht mehr kommen dürfte.
amdfanuwe
2023-05-09, 16:28:14
Könnte mir schon vorstellen, dass man N32 gestrichen hat um die 6000er erstmal abzuverkaufen.
Im Oktober dann weiter mit RDNA4?
Dino-Fossil
2023-05-09, 16:32:59
Denke, wenn man N32 streicht, dann weil man ihn als nicht konkurrenzfähig einstuft. Kann sein, muss aber nicht. Zudem hat man dann auch eine ordentliche Lücke im Portfolio, wenn man nicht mit RDNA2 auf unbestimmte Zeit weitermachen möchte. Auffällig ist aber in jedem Fall die Verzögerung im gesamten RDNA3 Launch.
Aber im Oktober wird es kaum schon RDNA4 geben, da hätte man jetzt vermutlich schon viel mehr dazu gehört.
Da ist nix gestrichen. AMD produziert halt 7nm solange man die Wafer so günstig bekommt. Aber ich vermute, dass man mittlerweile davon ab ist und jetzt im Juni/Juli endlich auf die neuen Chips umsteigt. Mit Abverkauf ist das nicht zu erklären gewesen, die müssen noch mal ordentlich N21 nachgeordert haben. aber TSMC muss ja auch suksessive immer weiter N7 in N6 umrüsten, da dürfte N7 langsam doch merkbar auf dem absteigenden Ast sein. Irgendwann lohnt sichs halt auch für AMD nicht mehr N7 weiterzuproduzieren, abseits der CPUs, die es ja noch lange geben wird.
amdfanuwe
2023-05-09, 17:22:20
Denke, wenn man N32 streicht, dann weil man ihn als nicht konkurrenzfähig einstuft.
Konkurrenzfähigkeit bestimmt sich über den Preis.
Da war doch auch noch was bei TSMC wegen Verringerung der Abnahmemenge.
Mag sein, dass es für AMD einfach günstiger ist die Verträge zu erfüllen und entsprechend N21/22 auf Lager hat.
Dazu noch die geringe Liefermenge an den Channel die letzten Quartale, damit sich dieser bereinigt.
N32 bringt auch keine wesentlichen Vorteile.
Das man nichts von RDNA4 liest verwundert mich kaum. AMD hat ziemlich dicht gemacht was Leaks betrifft.
dildo4u
2023-05-09, 20:57:55
7600 32CU 32MB Cache durch Retail Boxen bestätigt
https://wccftech.com/amd-radeon-rx-7600-custom-graphics-card-pictured-leak-confirms-navi-33-gpu-32-cus-32-mb-cache-8-gb-vram/
Jo, dann wirds wohl keine XT geben mit 16GB. Die XT müsste dann ein kastrierter N32 mit 12GB sein.
7500 -> N33 24CUs 6GB
7600 -> N33 32CUs 8GB
7600XT -> N32 36CUs 12GB
7700 -> N32 48CUs, 16GB
7700XT -> N32 60CUs, 16GB
oder so.
prinz_valium_2
2023-05-09, 23:05:34
Wenn das mit den $249 stimmt :O
Dann würde ich mir vllt sogar eine kaufen und meine 1070 endlich in Rente schicken.
basix
2023-05-10, 00:28:39
249$ wäre mal was anderes als 600$+
Aufgrund der Namensgebung und um Kosten niedrig zu halten:
- RX 7600
- N33, 32 CU
- 8 GByte, 16 GT/s
- 130W TBP, 1x 8 Pin
- 2.8 GHz
- 1.15x 6650 XT bei Raster
- 1.30x 6650 XT bei RT
dargo
2023-05-10, 07:42:31
Jo, dann wirds wohl keine XT geben mit 16GB. Die XT müsste dann ein kastrierter N32 mit 12GB sein.
7500 -> N33 24CUs 6GB
7600 -> N33 32CUs 8GB
7600XT -> N32 36CUs 12GB
7700 -> N32 48CUs, 16GB
7700XT -> N32 60CUs, 16GB
oder so.
Ich überlege gerade ob das nur der einzige Grund dafür ist, dass N32 so spät kommt? :uponder: Wenn es drei Varianten von N32 geben soll braucht AMD einige 5nm Wafer dafür. Fände ich aber gut wenn eine 7600XT dadurch dann mit 12GB kommt. Die 8GB Dinger kannst du ja kaum noch für irgendwas gebrauchen in den nächsten 2-3 Jahren. Das sollte wirklich in die low end Abteilung gehen.
DozerDave
2023-05-10, 08:52:48
Hat die 7600 vier oder acht PCIE lanes?
DozerDave
2023-05-10, 09:51:05
Okay, wenn die Karte dann vielleicht zu einer UVP von $249 startet, wird hoffentlich der Gebrauchtmarkt mit Grafikkarten unter diesem Preis geflutet.
dildo4u
2023-05-10, 10:53:00
Sie wird vermutlich genau auf der A750 landen und das mit 200mm N6 vs 400 mm² N6.
6600 zur 750 +17% laut PCGH.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Das war nie ein Performance sondern Margen Play.
robbitop
2023-05-10, 11:27:45
Mal schauen wie es in Raytracing aussieht. Da ist Arc ja nicht so schlecht. Nach dem chipsandcheese Artikel scheint RDNA3 ggü RDNA2 aber auch enorme Fortschritte gemacht zu haben.
Ohne Frage ist ARC was das Umwandeln von Transistor in Performance noch nicht besonders toll (wobei Ada und N31 in der Metrik ja auch ordentlich nach hinten gefallen sind ggü ihren Vorgängern!). Da ist noch ordentlich Luft nach oben. Ggf. nutzt Battlemage diesen Raum ja etwas.
Immerhin hat ARC eine ziemlich moderne uArch. Level 4 RT HW und Matrix Cores.
DozerDave
2023-05-10, 11:37:08
Habe ich was verpasst?
Die Käufer für Grafikkarten bis 250€ wollen Ray Tracing?
davidzo
2023-05-10, 11:43:29
Sie wird vermutlich genau auf der A750 landen und das mit 200mm N6 vs 400 mm² N6.
Das wäre ja sogar langsamer als Navi23. Die A750 liegt noch ca. 10% unter 6650XT Niveau, zwischen 6600 und 6600xt.
Etwas mehr kann man von Full-Navi33 schon erwarten imo, also eher Richtung A770 Leistung bzw. sogar auf dem Level einer 6700 10GB. Die sind auch nur 10% schneller als die 6650XT in WQHD.
vinacis_vivids
2023-05-10, 12:20:58
N33 ~ A770 wäre natürlich krass und zeigt uns auf wie überlegen die uArch von AMD ist bei gleichem 6nm Prozess ggü. Intel.
Games profitieren ja von FSR 2.X und da ist AMD mit doppelter fp16-Rate sehr stark, vor allem wenn der Takt richtig hoch geht.
N33 - 203m^2
2048SP
2,8Ghz
~45,8 Tflops fp16
~22,9 Tflops fp32
288GB/s
A770 - 406mm^2
4096SP
2,4Ghz
~39,3 Tflops fp16
~19,6 Tflops fp32
512GB/s
Intel braucht quasi die doppelte Chipfläche für die gleiche Leistung.
][immy
2023-05-10, 12:22:36
Habe ich was verpasst?
Die Käufer für Grafikkarten bis 250€ wollen Ray Tracing?
In dem Preisbereich startete mal die rx480, also ja, das ist durchaus etwas was erwartet wird.
Ohne die unteren Karten wird sich RT sonst nie breitflächig Durchsetzen, sondern bleibt sonst einfach ein extra gimmig.
Exxtreme
2023-05-10, 12:26:08
Habe ich was verpasst?
Die Käufer für Grafikkarten bis 250€ wollen Ray Tracing?
Warum nicht? Wenn die Grafikkarte damit beworben wird dann kann man erwarten, dass sie das auch kann. Anisotrope Filterung wird bei einer 250 EUR Grafikkarte jetzt auch nicht hinterfragt.
dildo4u
2023-05-10, 12:32:37
In der Klasse wird RT nicht wirklich ziehen ansonsten hätte Intel die 750 nicht auf 250$ senken müssen.
Preis ist Killer siehe 6600 Fighter im Abverkauf
https://twitter.com/TechEpiphany/status/1654966129318678531
Dino-Fossil
2023-05-10, 13:01:32
In der Preisklasse ist RT aktuell eigentlich immer mit Kompromissen verbunden, egal welcher Hersteller. Die Frage ist höchstens, wie groß die Kompromisse ausfallen.
Ich könnte mir vorstellen, dass wir in 2-3 Generationen an dem Punkt sind, an dem wir, falls diese GPU-Klasse so noch existiert, RT auch auf den "kleineren" Karten wenigstens @1080p ohne besondere Einschränkungen verwenden können. Bis dahin spricht nichts dagegen, RT keine besondere Priorität einzuräumen, wenn man v.a. eine günstige fullHD Karte möchte.
DozerDave
2023-05-10, 13:12:47
Das meine ich ja. Die GPUs in dieser Preisklasse haben eine zu geringe RT-Leistung. Hier ist die Rechenleistung ohne RT wichtiger.
dargo
2023-05-10, 17:39:15
Warum nicht? Wenn die Grafikkarte damit beworben wird dann kann man erwarten, dass sie das auch kann. Anisotrope Filterung wird bei einer 250 EUR Grafikkarte jetzt auch nicht hinterfragt.
Geiler Vergleich bei der Effizienz... AF vs. Raytracing. X-D
vinacis_vivids
2023-05-10, 17:49:15
RT bei den kleineren Karten ist nur mit 1080p @ FSR-Balanced interessant. Meistens verliert RT@FSR ggü. 1080p@Ultra.
FSR-Balanced ist 59% Renderauflösung, also intern nur noch 637p gerendert.
Da muss man sich mal die Zahlen anschauen wie schnell welche Karte ist.
Lehdro
2023-05-10, 20:26:10
APU Battle Royale: (https://twitter.com/carygolomb/status/1656331218487586816)
Steamdeck @ 10W ist öfter mal vor dem 7840U @ 10W.
robbitop
2023-05-10, 20:35:27
Mal schauen ob bei Low TDP der Z1 / Z1 Extreme besser wird. AMD wirbt ja mit besseren v/f curves und niedrigerer min TDP.
Aber dennoch muss ich sagen, dass der 7840 trotz einem Fullnodeshrink, neuen CPU und GPU Kernen ggü dem 6800U ein relativ lauwarmes Upgrade ist. Gerade bei low TPDs hätte ich angenommen, dass sich das richtig auswirkt.
Zeigt er eigentlich an irgendeiner Stelle was für RAM verbaut ist beim 6800U und beim 7840U?
Lehdro
2023-05-10, 21:06:07
Zeigt er eigentlich an irgendeiner Stelle was für RAM verbaut ist beim 6800U und beim 7840U?
Ist der GPD WIN Max 2, also LPDDR5x-7500 MT/s. 6800U, keine Ahnung.
DDGg5kzwje4
mczak
2023-05-11, 20:55:56
249$ wäre mal was anderes als 600$+
250$ wären eine ziemliche Ansage - leicht unterhalb dessen was zur Zeit eine RX 6650 XT kostet (und natürlich weit unterhalb deren Launch-Preis). Nvidia verkauft zur Zeit zu diesem Preis noch nicht mal die RTX 3050...
Klar die wird auch nicht viel schneller sein, aber vermutlich deutlich effizienter (die RX 6650 XT war ein sehr ineffizienter Vertreter von Navi 23 wegen des relativ hohen Taktes mit einer TBP von 200W). Ausserdem relativ deutlich schneller bei RT, und mit ein paar neuen Features (wie AV1-Encode).
Ich zweifle allerdings noch daran dass die wirklich (zum Launch) zu diesem Preis verkauft wird.
dildo4u
2023-05-11, 21:01:12
US Preise sind besser als bei uns es gibt z.b 6700 für 280$, alles über 250$ mach dort kein Sinn für 7600.
https://abload.de/img/67bb3lfqa.png
https://www.newegg.com/sapphire-radeon-rx-6700-11321-02-20g/p/N82E16814202424
mczak
2023-05-11, 21:21:40
US Preise sind besser als bei uns es gibt z.b 6700 für 280$, alles über 250$ mach dort kein Sinn für 7600.
Die günstigste RX 6650 XT bei newegg kostet zur Zeit auch 280$, dass da gerade ein paar RX 6700 vergünstigt zu haben sind ändert daran nichts.
Ich zweifle ja nicht daran dass die RX 7600 mit der Zeit günstiger sein wird, aber als Launch Preis würde ich das schon erfreulich finden. Aber natürlich nicht unmöglich - RX 480 / 580 hatten schliesslich auch einen Launch-Preis von bloss 230$ (bzw. sogar 200$ für die 4GB Versionen), und die waren vergleichsweise in einem höheren Segment angesiedelt, aber zu der Zeit hat AMD auch noch einen Preiskrieg ausgerufen...
amdfanuwe
2023-05-11, 21:44:45
Hängt davon ab, wieviel 6650XT noch auf Lager liegen.
Wenn die weitestgehend abverkauft sind könnte die 7600 den Preispunkt übernehmen.
iamthebear
2023-05-11, 23:12:51
Das Problem ist: Die Karten der alten Generation verkaufen sich schon trotz stark gesenkter Preise grottig.
Wenn die 7600 das P/L Verhältnis der 6650 XT übernimmt, dann wird sie auch die Verkaufszahlen übernehmen. Ist das P/L Verhältnis schlechter und die 6650 XT ausverkauft, dann wird es noch schlechter werden selbst ohne Konkurrenz durch Nvidia.
Dino-Fossil
2023-05-12, 15:40:48
Laut Gerücht auf PCGHW (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Radeon-RX-7600-soll-in-Frankreich-349-Euro-kosten-1419581/) zum Launch für 349€ in Frankreich. Ob für eine Custom oder Referenz-Design steht dort leider nicht.
Wäre bissl meh, dafür bekommt man inzwischen manchmal schon (oder zumindest fast) die 6700XT mit 4GB mehr VRAM und vermutlich ähnlicher bis leicht besserer Performance.
dargo
2023-05-12, 16:08:43
Wer die RX 7600 für 350€ kauft dem ist echt nicht mehr zu helfen. :freak:
https://www.mindfactory.de/product_info.php/12GB-Sapphire-Radeon-RX-6700-XT-PULSE-HDMI-3xDP-Retail_1402365.html
Exxtreme
2023-05-12, 16:10:57
Das Ding fällt instant auf <300 EUR wenn das so kommt. :freak: Oder das ist mal wieder so ein RDNA2-Abverkaufspreis.
amdfanuwe
2023-05-12, 16:14:08
Laut Gerücht auf PCGHW (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Radeon-RX-7600-soll-in-Frankreich-349-Euro-kosten-1419581/) zum Launch für 349€ in Frankreich.
Der richtige Preis um den Abverkauf der 6650XT und 6700(XT) zu fördern ohne diese im Preis senken zu müssen.
DozerDave
2023-05-12, 16:26:05
DOA bei 350€.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.