Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
davidzo
2022-12-21, 13:40:08
Epoxyd Harz ist im Fasererbund eine Matrix Epoxydmatrix ist doppelt gemoppelt. Sofern man mit Faserverbund arbeitet ist der Ausdehungskoeffizient von diesem viel wichtiger/einflussreicher. Epoxyidharz mit Glasfaser zB dehnt sich bei Wärme aus, mit Kohlefaser hingegen so gut wie gar nicht. Epoxyidharz ihne Füllstoff ist eigentlich nur für sehr kleine Spaltmaße sinnvoll und hat auch ein sehr sehr niedriges E Modul.
Epoxydmatrix ist ganz sicher nicht doppelt gemoppelt weil das Wort Epoxydharz eben keinen Faserverbund einschließt. Was glaubst du denn was in normalem 2K Kleber oder Lack steckt? Glasfasern oder was?
Für Underfill wird auch kein Faserverbund verwendet und bisher sieht es beim RDL auch so aus. Glasfasern sind wahrscheinlich viel zu grob für das Verfahren und es geht auch nicht um Steifigkeit oder e-Modul in dem GFK gut wäre.
Eben, die Wärmeausdehnung ist wichtiger, e-modul spielt praktisch kaum eine Rolle, da man verbiegen auch durch externe Versteifung verhindern kann. Bei den thermischen zyklen ist nicht die Versprödung des Materials das problem, sondern die unterschiedliche Ausdehnung der eingebetteten siliziumchips, metal traces, wobei durch Ausdehnung verursachte Reibung wohl Risse und cold joints erzeugen kann. Insofern rechne ich damit dass sie sowohl ein spezielles Harz verwenden und womöglich auch neuartige Füllstoffe welche die Wärmeausdehnung der Matrix an die der Siliziumchips und Kupfertraces anpassen.
Epoxy + kugelförmiger Füllstoff = Matrix. Das ist z.B. bei den beliebten Microballon Spachtelmassen der Fall.
reaperrr
2022-12-21, 13:44:24
wenn der vorteil aber auf 10$ schrumpft, dann bin ich mir schlicht einfach nicht sicher ob das den mehraufwand, und imho schlechtere performance rechtfertigt.
Warum sollte er auf 10$ schrumpfen?
Mal ganz abgesehen davon, dass AMD davon redet, dank der Chiplets von jetzt an 500 Mio. $ Entwicklungskosten pro Generation zu sparen (oder war es sogar pro Chip? bin gerade nicht sicher).
Du überschätzt den Flächenvorteil von 5nm.
Die MCDs bestehen fast nur aus Cache (SRAM) und SI (Analog), die in Sachen Packdichte ggü. N6 mit bestenfalls 30% respektive 20% mehr Packdichte skalieren, und das wird nur der Best-Case in rein auf Packdichte statt Performance orientierten Designs so sein.
Und über IF-Links mit dem Rest der GPU verbunden waren der IF$ und das SI auch schon bei N21, nur halt da noch innerhalb des Chips, aber abgesehen von der 50% breiteren Anbindung bei N31 denke ich nicht, dass das so wahnsinnig viel extra Fläche kostet.
Langer Rede kurzer Sinn: Ein monolithischer N31 in N5 wäre von der Gesamtfläche trotzdem noch mindestens bei 460-480mm² rausgekommen, und N5-Wafer sind mindestens 60% teurer als N6-Wafer.
ich hab den eindruck, das chiplet design lässt mindestens 10-15% performance auf der straße.
Das bezweifle ich stark.
Einen monolithischen 480mm²-Chip könnte AMD nicht so aggressiv binnen wie einen 300mm² GCD, dann würden wir evtl. keinen Vollausbau sehen oder noch niedrigere Taktraten (oder schlicht noch weniger XTX), weil viel mehr Chips nicht die vollen XTX-Specs schaffen würden (Shaderengines rennen wie Sau, aber ein 64bit-SI ist kaputt? Pech gehabt, nur ne XT).
n31 sollte mindestens 50-70% schneller sein vs monolithic, kann das aber aus gründen nicht umsetzen. ich sehe daran das chiplet design die schuld tragen.
Ich würde eher sagen, N31 leidet einfach unter
- nur 20% mehr CUs
- IPC-Verbesserungen der CUs sind stark sowohl von der Grafik-Engine des Spiels (die noch nicht auf RDNA3 optimiert sind, da Unterschiede zu RDNA2 viel größer als Ada-Unterschiede zu Ampere), als auch dem ShaderCompiler des Treibers abhängig (der wohl noch relativ unfertig ist)
- Takt-/Effizienzproblemen, die offensichtlich eher von den ShaderEngines kommen und somit auch einen monolithischen Chip betroffen hätten
Was bei N31 wohl auch nicht hilft ist, dass IF$+SI für die Rohleistung eher überdimensioniert sind und ggü. der 4080 Strom kosten, der dann für den GCD-Takt fehlt.
Objektiv wären 5 MCDs für die XTX und 4 MCDs für die XT sinnvoller gewesen, angesichts der jeweiligen Specs.
Nicht vergessen, die Specs von N31 sind kaum höher als die von AD103, mit 4 MCDs wäre da fast Gleichstand, sowohl bei FP32 als auch Gesamtfläche. Wenn man davon ausgeht, dass RDNA3 aktuell noch wenigstens 5-10% durch unfertigen Compiler verlorengehen, würde ich sagen, AMD und NV sind sowohl bei der Chipfläche als auch Leistung je FP32-Einheit momentan ca. gleichauf, wenn man auf den gleichen Prozess normiert.
Warten wir doch außerdem wenigstens erstmal N32 ab, wenn der diese Takt-Probleme so nicht hat und relativ nah an die 7900XT-Leistung rankommt, lag es beim Takt hauptsächlich am N31-GCD, nicht an den Chiplets an sich.
lediglich bei monster gpus sehe ich einen vorteil im chiplet design, also 800mm²+.
Quatsch. Je mehr du auf Chiplets setzen kannst, die du quer durch die ganze Chipfamilie einsetzen kannst, desto geringer der Entwicklungsaufwand, weil du dann nur noch einen MCD, einen GCD und einen GCX entwickeln musst, statt 2-3 Chiplets für den Top-Dog UND zusätzlich noch 2 monolithische.
Viel niedrigere Design-Fixkosten, die du erstmal wieder reinholen müsstest, und dann auch noch viel bessere Ausbeute dank kleinerer Chips.
Zumindest Teil des Problems bei N31 dürfte eher noch sein, dass der GCD noch zu monolithisch ist und zu viele GCDs die XTX-Specs nicht schaffen, hätte N31 bereits ein kleines Frontend-Chiplet + 2 ShaderEngine-GCX, hätte AMD hinsichtlich Takt für die XTX und sowohl Takt als auch Specs für die XT viel aggressiver binnen können.
robbitop
2022-12-21, 14:13:40
Epoxydmatrix ist ganz sicher nicht doppelt gemoppelt weil das Wort Epoxydharz eben keinen Faserverbund einschließt. Was glaubst du denn was in normalem 2K Kleber oder Lack steckt? Glasfasern oder was?
Für Underfill wird auch kein Faserverbund verwendet und bisher sieht es beim RDL auch so aus. Glasfasern sind wahrscheinlich viel zu grob für das Verfahren und es geht auch nicht um Steifigkeit oder e-Modul in dem GFK gut wäre.
Eben, die Wärmeausdehnung ist wichtiger, e-modul spielt praktisch kaum eine Rolle, da man verbiegen auch durch externe Versteifung verhindern kann. Bei den thermischen zyklen ist nicht die Versprödung des Materials das problem, sondern die unterschiedliche Ausdehnung der eingebetteten siliziumchips, metal traces, wobei durch Ausdehnung verursachte Reibung wohl Risse und cold joints erzeugen kann. Insofern rechne ich damit dass sie sowohl ein spezielles Harz verwenden und womöglich auch neuartige Füllstoffe welche die Wärmeausdehnung der Matrix an die der Siliziumchips und Kupfertraces anpassen.
Epoxy + kugelförmiger Füllstoff = Matrix. Das ist z.B. bei den beliebten Microballon Spachtelmassen der Fall.
Es kommt auf den Füllstoff an. Ist es nur ein Zusatz der die Thixothropie anhebt ist es noch kein Composite und somit ist das Harz noch keine Matrix. In Strukturklebstoffen ist aber oft noch Kurzfasern oder anderes Zeug drin was die Materialeigenschaften ändert. Dann ist das resultierende Material ein Composite. Bei einem Composite spricht man bei der Harzkompomente von einer Matrix ansonsten nicht. Aber beide Wörter „Epoxydmatrix“ in einem Begriff ist ein bisschen doppelt gemoppelt. Natürlich ist das Epoxydharz die Matrix. So wie nasses Wasser.
Steifigkeit ist das gleiche wie E-Modul (wenn man es querschnittsnormiert betrachtet was wenn man Material vergleicht der Fall ist) btw. Doppelt gemoppelt. :)
Man kann natürlich auch andere Harze betrachten - das Spektrum der Materialeigenschaften ist groß. (Polyurethan, Polyester, Venylester, MMA…)
Ich denke dass bei Epoxidharzen der Füllstoff für die Ausdehung den größeren Effekt hat. Das macht bei Composites in der Regel am allermeisten aus als nur die Optimierung des Harzes (wenn man mal Kerbschlagfestigkeit und die Verarbeitungsrelevanten Kriterien wie thixothropie, topfzeit, exothermoe usw ausblendet)
davidzo
2022-12-21, 14:16:40
Was bei N31 wohl auch nicht hilft ist, dass IF$+SI für die Rohleistung eher überdimensioniert sind und ggü. der 4080 Strom kosten, der dann für den GCD-Takt fehlt.
Objektiv wären 5 MCDs für die XTX und 4 MCDs für die XT sinnvoller gewesen, angesichts der jeweiligen Specs.
Nicht vergessen, die Specs von N31 sind kaum höher als die von AD103, mit 4 MCDs wäre da fast Gleichstand, sowohl bei FP32 als auch Gesamtfläche. Wenn man davon ausgeht, dass RDNA3 aktuell noch wenigstens 5-10% durch unfertigen Compiler verlorengehen, würde ich sagen, AMD und NV sind sowohl bei der Chipfläche als auch Leistung je FP32-Einheit momentan ca. gleichauf, wenn man auf den gleichen Prozess normiert.
Den Gedanken hatte ich hier schon vor ein paar Monaten formuliert:
Das 384bit SI kostet Power die man auch gut für die ALUs hätte verwenden können.
In der jetzigen Leistungsklasse wäre 256bit + 16GB eh günstiger gewesen. AD103 hat auch weder Speicher noch Bandbreitenlimits. Mit nur 4x MCDs hätte man eher die MCDs mit etwas mehr Cache ausstatten können. Die Cachebandbreite sinkt natürlich ebenfalls von 5,3TB/s auf 3,5, aber bei Navi21 haben auch 2TB/s für 128MB and 80CUs gereicht.
Wenn man statt dem breiten SI lieber 256bit mit insgesamt 128mb oder gar 256mb stacked Cache gehabt hätte spart das Energie die im Moment für DRAM accesses draufgeht, womit man seltener ins Power limit läuft. 3Ghz sustained in Spielen wäre damit wahrscheinlich eher erreichbar gewesen. Ich frage mich ob AMD nicht vielleicht sogar eine solche Version intern testet oder getestet hat, schließlich sind die 1-Hi stacked MCDs in der Testproduktion.
@robbitop: Willst du mir widersprechen oder einfach nur den Oberlehrer spielen? Weil du interpretierst da Dinge die ich nicht gesagt habe und zählst reihenweise Fakten aus dem Hobbymodellbau auf denen ich weder widersprochen habe, noch die direkt etwas mit dem Thema hier zutun haben.
Steifigkeit ist das gleiche wie E-Modul (wenn man es querschnittsnormiert betrachtet was wenn man Material vergleicht der Fall ist) btw. Doppelt gemoppelt.
Ach nee captain obvious!
Ich denke dass bei Epoxidharzen der Füllstoff für die Ausdehung den größeren Effekt hat.
in anderen Worten:
Insofern rechne ich damit dass sie sowohl ein spezielles Harz verwenden und womöglich auch neuartige Füllstoffe welche die Wärmeausdehnung der Matrix an die der Siliziumchips und Kupfertraces anpassen.
mksn7
2022-12-21, 16:22:04
- IPC-Verbesserungen der CUs sind stark sowohl von der Grafik-Engine des Spiels (die noch nicht auf RDNA3 optimiert sind, da Unterschiede zu RDNA2 viel größer als Ada-Unterschiede zu Ampere), als auch dem ShaderCompiler des Treibers abhängig (der wohl noch relativ unfertig ist)
Vermutungen über brachliegende Chancen für dual issue wegen noch nicht so guter Compiler müssten sich doch eigentlich überprüfen lassen. Mittels profiler müsste man doch feststellen ob a) der 64 wide mode verwendet wird oder b) wieviele VOPD instructions dabei sind. Das müsste eigentlich auch gehen ohne die hardware zu haben.
Wenn die entsprechenden instructions verwendet werden, kann natürlich immer noch cache Bandbreiten, Latenzen oder graphics frontend oder was irgendein anderes bottleneck limitieren. Bei Spielegrafik ist der limitierende Faktor pro draw call immer ganz unterschiedlich, deswegen schlägt die Weitung eines einzelnen bottlencks nie mit dem entsprechendem Faktor durch.
Das was AMD und NVIDIA gemacht haben, mehr execution units pro scheduler, ist nicht nur billiger als CUs/SMs komplett zu verdoppeln, sondern erhöht auch die single thread Leistung, was bei wenig Auslastung mehr hilft als mehr CUs/SMs, die auch mehr Parallelität brauchen.
Gipsel
2022-12-21, 16:46:36
Soweit ich weiß hat der RDL keine BGA bumps, sondern da ist noch das traditionelle Package dazwischen. Der RDL wird nicht direkt mit dem PCB verlötet, sondern bekomm "FlipChip" C4 bumps welche viel zu fein für ein FR4 PCB wären. Der RDL wird wie traditionell ein einzelnes Die eines Wafers mit C4 bumps bestückt und mit dem Flipchip Package gebondet (+ underfill etc.). Der (inzwischen praktisch immer organische) Träger des Packages ist auch nur ein PCB ;). Ist halt wesentlich kleiner, weswegen man dort mehr Aufwand treiben kann als beim GraKa-PCB oder Mainboard. Und ich habe die FlipChip-Bumps doch sogar direkt erwähnt.
Dann erst kommt das ganze als normaler BGA-chip auf eine Platine.Normal ist da relativ. Ist halt das ganze GPU-Package, was dann für das Grafikkarten-PCB genauso aussieht wie vorher, völlig unabhängig von Info-R. Und falls man das bei CPUs einsetzen wollte, bekommt das Träger-/Package-PCB auch keine Balls zum Verlöten, sondern Pins bzw. Kontakte für den Sockel (also PGA oder LGA).
Und genauso wie der Träger des Packages aussieht wie vor Info-R, sieht ein mit Info-R verbundenes Paket aus mehreren vergossenen Dies so aus (und wird auch so verlötet), wie vorher ein einzelnes Die.
robbitop
2022-12-21, 16:55:59
@robbitop: Willst du mir widersprechen oder einfach nur den Oberlehrer spielen? Weil du interpretierst da Dinge die ich nicht gesagt habe und zählst reihenweise Fakten aus dem Hobbymodellbau auf denen ich weder widersprochen habe, noch die direkt etwas mit dem Thema hier zutun haben.
Ach nee captain obvious!
in anderen Worten:
Man kann es auch einfach mal hinnehmen wenn man korrigiert wird („Epoxydmatrix“; und dessen Optimierung auf Ausdehung wobei es wahrscheinlich eher der füllstoff ujd nicht die Matrix ist die da den größeren Einfluss hat) und entsprechend learnings daraus mitnehmen anstatt beleidigt zu sein. Warum so aggressiv? Ich zähle auch nichts aus dem „Hobbymodellbau“ auf - wie kommst du auf den Trichter? Ich arbeite professionell als Ingenieur in der Compositebranche unter anderem auch in dem Teilbereich material science seit 15 Jahren. Ich glaube, ich weiß wovon ich rede.
Und wenn du E-Modul und Steifigkeit in einer Aufzählung nutzt und man dich darauf hinweist dass das das gleiche ist, kann man das auch akzeptieren. Ich würde mich auf einen sachlichen Diskussionston freuen.
davidzo
2022-12-21, 17:05:15
Man kann es auch einfach mal hinnehmen wenn man korrigiert wird und entsprechend learnings daraus mitnehmen anstatt beleidigt zu sein. Warum so aggressiv? Ich zähle auch nichts aus dem „Hobbymodellbau“ auf - wie kommst du auf den Trichter? Ich arbeite professionell als Ingenieur in der Compositebranche unter anderem auch in dem Teilbereich material science seit 15 Jahren.
Du liest halt nicht so aufmerksam und vermutest immer schnell Unwissenheit. Ich habe bei deinen Antworten das Gefühl ständig bewusst missverstanden oder sogar einfach überlesen zu werden.
Ich habe z.B. eben nicht e-modul und Steifigkeit als etwas verschiedenes genannt, sondern als dasselbe im Nebensatz wieder aufgegriffen. Da ist nichts doppelt gemoppelt.
e-modul spielt praktisch kaum eine Rolle da man verbiegen auch durch externe Versteifung verhindern kann.
Luftfahrt oder Automobil? Compositebranche ist für mich meist mit Hobby verbunden - Surfbretter, Boote, Yachten. Ich komme eher aus der Großserienfertigung, habe nur beim Prototypenbau gelegentlich mal Kontakt mit GFK und Harzen (Polyurethanguss für Prototypenserien, Lacke, Formenbau etc.), für die Serie ist das meist zu teuer und schlecht skalierbar.
robbitop
2022-12-21, 17:16:33
Du liest halt nicht so aufmerksam und vermutest immer schnell Unwissenheit. Ich habe bei deinen Antworten das Gefühl ständig bewusst missverstanden oder sogar einfach überlesen zu werden.
Ich habe z.B. eben nicht e-modul und Steifigkeit als etwas verschiedenes genannt, sondern als dasselbe im Nebensatz wieder aufgegriffen. Da ist nichts doppelt gemoppelt.
es geht auch nicht um Steifigkeit oder e-Modul
Doch hast du. Steifigkeit oder E Modul. Das ist doppelt gemoppelt.
Und ich lese also nicht genau? ;)
Anstatt auf ein Gefühl zu hören und das Negative anzunehmen und zu denken ich will dir was böses wäre es doch viel kollegialer nachzufragen oder?
Wenn ich was sehe was mir auffällt benenne ich das ohne Hintergedanken. :)
Luftfahrt oder Automobil? Compositebranche ist für mich meist mit Hobby verbunden - Surfbretter, Boote, Yachten. Ich komme eher aus der Großserienfertigung, habe nur beim Prototypenbau gelegentlich mal Kontakt mit GFK und Harzen (Polyurethanguss für Prototypenserien, Lacke, Formenbau etc.), für die Serie ist das meist zu teuer und schlecht skalierbar.
Großserienfertigung von großen GFK und CFK Bauteilen (viele tausende Tonnen pro Jahr) - also kein Hobbykram wie surfbretter oder Fahrräder wobei das bestimmt auch interessant sein kann. Vom Prototypenbau über material science (Prüflabor meist Materialqualifikation), Formenbau und alles an tooling was nötig ist bis zur Serienfertigung. Alles schon gemacht. Infusion, Wickeln, Pultrusion, RTM bis zum schnöden Handlaminat (was gar nicht einfach ist wenn es gut werden soll) alles schon gemacht. Und auch was mit verbunden ist. Trennmittel, gelcoat, topcoat, schleifen, spachteln usw.
davidzo
2022-12-21, 17:51:13
Doch hast du. Steifigkeit oder E Modul. Das ist doppelt gemoppelt.
Und ich lese also nicht genau?
Das ist doch nur die Begriffsumschreibung des Ersteren. Gleichbedeutend kann man auch "e-modul oder auch Steifigkeit genannt" , "e-modul bzw. Steifigkeit" formulieren. Kann man doppelt interpretieren wenn man das so lesen will, ist aber im Kontext nicht so gemeint, sondern als Umschreibung für die anderen Diskussionsteilnehmer.
Großserienfertigung von großen GFK und CFK Bauteilen (viele tausende Tonnen pro Jahr) - also kein Hobbykram wie surfbretter oder Fahrräder wobei das bestimmt auch interessant sein kann. Vom Prototypenbau über material science (Prüflabor meist Materialqualifikation), Formenbau und alles an tooling was nötig ist bis zur Serienfertigung. Alles schon gemacht. Infusion, Wickeln, Pultrusion, RTM bis zum schnöden Handlaminat (was gar nicht einfach ist wenn es gut werden soll) alles schon gemacht. Und auch was mit verbunden ist. Trennmittel, gelcoat, topcoat, schleifen, spachteln usw.
Spannend! Das Höchste der Gefühle mit dem ich in der Großserie zutun hatte ist spritzen mit PA6 SGF. Geht dann aber auch eher um Teile wo 10K ne normale erste Charge ist (Multiple cavity moulds). Da ploppen alle paar sekunden 4 teile aus der Form - ist bei den stückkosten im centbereich aber auch von den technischen anforderungen wohl einfach grundverschieden.
nordic_pegasus
2022-12-21, 20:36:41
Das ist doch nur die Begriffsumschreibung des Ersteren. Gleichbedeutend kann man auch "e-modul oder auch Steifigkeit genannt" , "e-modul bzw. Steifigkeit" formulieren.
Das E-Modul ist eine Materialeigenschaft, die Steifigkeit hängt von der Geometrie des Körpers ab.
M4xw0lf
2022-12-21, 22:05:17
Der
robbitop
2022-12-22, 09:21:08
Man hätte auch sagen können, dass das E-Modul den Querschnitt nicht betrachtet und materialspezifisch ist und damit hätte es sich es dann gehabt. Und das habe ich indirekt bereits gemacht („querschnittsnormiert“). Und das weiß sicherlich auch jeder der auch nur entfernt mit technischer Mechanik zu tun hat (will sagen das ist banal weil umgangssprachlich unter Ingenieuren in der Praxis beides gleich gesetzt wird und allen klar ist dass der Querschnitt der Unterschied ist - und auch dass „Flächenträgheitsmoment“ auch nicht der hundertprozentig perfekte Begriff ist usw). Aber gut den Grundkurs aus dem 1. Semester hier nochmal zu bekommen. :-) Gehst du noch in die Uni?
Gipsel
2022-12-22, 10:21:56
So, jetzt sollte es aber mal wieder um RDNA3 gehen. Sonst hole ich noch meine Mechanikvorlesung aus dem Physik-Grundstudium, meine Recherchen zu Metallmatrix Composites oder die Erfahrungen meines Kumpels aus dem Flugzeugbau raus. 😉
nordic_pegasus
2022-12-22, 12:00:34
Gehst du noch in die Uni?
nicht wirklich, aber wenn hier E-Modul mit Steifigkeit gleichgesetzt wird, darf man doch mal freundlich auf die Grundlagen hinweisen. Meine Mechanik 1/2 Vorlesungen müssten 2003/2004 gewesen sein ;-)
robbitop
2022-12-22, 12:10:28
Machen echte praxiserfahrene Ingenieure als Lapidarsprech im Alltag aber. Und alle wissen was gemeint ist. Sind halt keine Roboter. ;)
Unabhängig davon: Ein kleiner Halbsatz hätte genügt anstatt im Urschleim anzufangen. Das war cringe. X-D
Jetzt aber genug. Back to rdna3!
OpenVMSwartoll
2022-12-22, 16:42:41
Schön, dass alle wieder die Hose oben haben und der Längenvergleich entschieden ist.
Bin gespannt, ob man die nächsten Wochen treiberseitig konstantere Performance sehen wird.
OgrEGT
2022-12-24, 08:03:20
Aus dem B3D Forum...
https://forum.beyond3d.com/threads/amd-rx-7900xtx-and-rx-7900xt-reviews.63102/post-2282012
Bedeutet das dass die PP Tables bei RDNA3 gelockt sind... also keine Änderung über MPT gehen wird?
So, jetzt sollte es aber mal wieder um RDNA3 gehen. Sonst hole ich noch meine Mechanikvorlesung aus dem Physik-Grundstudium, meine Recherchen zu Metallmatrix Composites oder die Erfahrungen meines Kumpels aus dem Flugzeugbau raus. 😉
Ach na das würde ich wohl mit Interesse lesen, aber muss sicher nicht hier im RDNA3 Thread sein. ;-)
OgrEGT
2022-12-29, 20:49:24
Gibts eigentlich was Neues zum N32? Mitte Nov hieß es dass dieser zur CES im Januar vorgestellt wird?
Schnitzl
2022-12-29, 20:58:52
Gibts eigentlich was Neues zum N32? Mitte Nov hieß es dass dieser zur CES im Januar vorgestellt wird?
soweit ich weiss wurde N32 auf das 2. Halbjahr verschoben. Zuerst kommt N33.... leider
reaperrr
2022-12-29, 22:56:31
soweit ich weiss wurde N32 auf das 2. Halbjahr verschoben. Zuerst kommt N33.... leider
Wenn das stimmt, würde ich stark davon ausgehen, dass noch eine dritte N31-Karte mit 256bit/16GB und höchstens 80 CUs (ein komplettes ShaderArray deaktiviert) kommt, für 699-749$ als 7800 XT, sobald die 6900/6950XT abverkauft sind (außer AMD produziert die stattdessen erstmal weiter).
AffenJack
2022-12-30, 00:05:15
soweit ich weiss wurde N32 auf das 2. Halbjahr verschoben. Zuerst kommt N33.... leider
Woher kommt hier das 2te Halbjahr für N32? Es hieß doch eher Q2 und das halte ich für realistischer.
amdfanuwe
2022-12-30, 06:41:28
Wenn das stimmt, würde ich stark davon ausgehen, dass noch eine dritte N31-Karte mit 256bit/16GB und höchstens 80 CUs (ein komplettes ShaderArray deaktiviert) kommt, für 699-749$ als 7800 XT, sobald die 6900/6950XT abverkauft sind (außer AMD produziert die stattdessen erstmal weiter).
Da ist noch Platz für eine 7900.
Refreshs dürften wieder 7x50 werden.
Für 7900 gibt es mehrere Möglichkeiten die gegenüber der 7900XT zu beschneiden:
-niedrigerer Takt
-weniger Speicher (16GB)
-weniger CU durch abschalten einer weiteren WGP pro SE =72 CU oder abschalten einer SE = 80 CU, kommt darauf an wodurch AMD mehr Chips recyceln kann.
Mein Favorit wäre:
7900 20GB 80CU geringerer Takt als 7900XT
Über den Preis wird die Attraktivität und somit die Verkaufsmenge geregelt.
Selbst wenn N32 60CU durch besseren Takt nahe an solch eine 7900 käme, hätte die 7900 den Vorteil durch mehr Speicher und besserer Effizienz wegen niedrigeren Takt, welches einen Aufpreis rechtfertigt.
AMD wird erst mal genügend "schlechte" Chips sammeln und sich die Konkurrenz anschauen, bevor sie die Karte in den Markt bringen.
Irgendwann mal so ganz nebenbei wie sie es mit der 6700 10GB auch gemacht haben.
N31 als 7800XT hätte auch seinen Reiz, bezweifle ich aber.
Entsprechend müsste man N32 als 7800 zu einem niedrigeren Preis verkaufen.
6800XT N32 $649
sieht attraktiver aus als z.B.
6800XT N31 $729 und 6800 N32 $649
Über eine 7900 $799 würde sich kaum jemand aufregen und die Gewinnmargen wären höher.
P.S.
Erst mal sehen, wie N33 im Markt positioniert wird.
reaperrr
2022-12-30, 12:34:15
Mein Favorit wäre:
7900 20GB 80CU geringerer Takt als 7900XT
So stark wie die Taktraten bei N31 schwanken wird es gar nicht so leicht, den Takt konstant um ~200 MHz oder so zu senken.
Ich weiß nicht, wie flexibel N31 beim Deaktivieren von CU/WGP ist, aber 78 oder 76 CU wäre zur Abgrenzung besser, wenn man der XT nicht in manchen Lastszenarien zu nah kommen will.
Und 20GB/320bit wäre für die voraussichtliche Leistung absoluter Overkill.
Ich würde einiges drauf verwetten, dass die 4GB/64bit mehr bei der GCD-Leistung fast nichts bringen, außer dass sie den Verbrauch der Karte und die Herstellungskosten unnötig hochtreiben. Wir reden immerhin von einem MCD und 2 schnelleren GDDR6-Chips, plus Energiekosten für das entsprechende IF-Interface.
Leistungstechnisch würde die Karte wahrscheinlich sowieso eher leicht unter der 4070 Ti landen, gegenüber welcher 16GB/64bit sowohl aus Marketing- als auch Rohleistungssicht mehr als ausreichen sollten.
amdfanuwe
2022-12-30, 14:28:01
So stark wie die Taktraten bei N31 schwanken wird es gar nicht so leicht, den Takt konstant um ~200 MHz oder so zu senken.
Ich weiß nicht, wie flexibel N31 beim Deaktivieren von CU/WGP ist, aber 78 oder 76 CU wäre zur Abgrenzung besser, wenn man der XT nicht in manchen Lastszenarien zu nah kommen will.
N31 hat 6 SE mit je 8 WGP.
1 WGP = 2 CU
Da wird pro SE 1 oder 2 WGP abgeschaltet.
ergibt:
48 WGP (96 CU) full
42 WGP (84 CU) salvage 1
36 WGP (72 CU) salvage 2
oder abschalten einer SE:
5 SE x 8 WGP = 40 WGP (80 CU)
anderes ist nicht möglich wenn alle SEs die gleiche Anzahl an WGPs haben sollen.
Betreffs Frequenz:
Die Ausbeute an Chips sollte von den Frequenzen her einer Gaußverteilung entsprechen.
82087
Ein Game CLK muss ja mindestens erfüllt werden.
In obigem Bild würden z.B.:
Die A Chips für einen Refresh oder eine Sonder Edition gesammelt.
Die B Chips ergäben 7900XTX mit min CLK F2
Die C Chips und einige der Defekten gehen in die 7900XT mit min CLK F1
Bleiben noch D Chips übrig, die die Taktanforderungen für 7900XT nicht erfüllen.
Mit etwas niedrigeren Takt als F1 können die zu einer 7900 verarbeitet werden.
Ist eine Wissenschaft für sich die Chips entsprechend zu selektieren damit alle verkauft werden können und gleichzeitig ein Gewinnmaximum erreicht wird.
reaperrr
2022-12-30, 14:56:11
anderes ist nicht möglich wenn alle SEs die gleiche Anzahl an WGPs haben sollen.
Das ist mir klar. Die Frage ist, müssen die bei RDNA3 noch immer alle unbedingt die gleiche Anzahl WGPs haben? Ist AMD da im Vergleich zu NV immer noch so unflexibel? Aus Yield-Sicht wäre das nämlich ziemlicher Mist und aus uArch-Sicht etwas enttäuschend.
Ich meine, in der Gerüchteküche war davon die Rede, dass eine dritte N31-Karte mit 16GB und 9728 ALUs kommen soll, finde dazu aber nichts mehr (kann auch in nem Video gewesen sein, dann hilft googeln natürlich nicht so viel).
amdfanuwe
2022-12-30, 15:41:57
Die Frage ist, müssen die bei RDNA3 noch immer alle unbedingt die gleiche Anzahl WGPs haben?
Meines Wissens nach gabs bei AMD noch keine mit unterschiedlicher WGP Anzahl. Daher meine Annahme.
Videos sind auch nicht besser als Bild.
Da wird meist auch nur spekuliert.
Ich informiere mich nur noch bei wenigen seriösen Webseiten. Vorwiegend hier, da bekommt man die neuesten Gerüchte schnell serviert und Unsinn wird direkt verrissen.
Möglich wäre schon eine 7800XT 16GB N31 36 WGP (72 CU)
Wie ich aber schon oben schrieb, eine 7900 scheint mir für Resteverwertung und Gewinnmaximierung besser geeignet.
Nightspider
2022-12-31, 02:30:57
Nächste Woche dürften die N4(E) APUs mit RDNA3 vorgestellt werden.
Who is excited?
Ab wann ist N4E marktreif?
DrFreaK666
2022-12-31, 04:32:11
...Ich meine, in der Gerüchteküche war davon die Rede, dass eine dritte N31-Karte mit 16GB und 9728 ALUs kommen soll, finde dazu aber nichts mehr (kann auch in nem Video gewesen sein, dann hilft googeln natürlich nicht so viel).
Davon habe ich noch nie was gehört und wenn das nicht bei Videocardz und co erwähnt wurde, dann würde ich davon erstmal nicht viel halten
iamthebear
2022-12-31, 13:19:06
Da die N5 Yields sehr gut sind und der N31 GCD auch relativ klein ist denke ich nicht, dass es da unter der 7900 XT noch viel geben wird. Wenn man nach den Defektraten von TSMC geht gibt es statistisch gesehen einen Fehler pro 4.6 GCDs und dafür gibt es die 7900 XT.
Wenn es also eine 7800 XT gibt, dann rein aus Gründen der Marktsegmentierung aber ob das wirklich so sinnvoll ist weiß ich nicht. So groß ist die Lücke zwischen Full N32 und 7900 XT nicht, denn N32 wird sixher wieder etwas höher getaktet werden.
Schnitzl
2022-12-31, 15:22:07
Woher kommt hier das 2te Halbjahr für N32? Es hieß doch eher Q2 und das halte ich für realistischer.
hm, könnte auch sein dass ich H2 mit Q2 verwechselt hab.
Sicher ist anscheinend, dass N33 zuerst kommt, und davon sieht man noch gar nichts... dazu die Gerüchte um den HW Bug in N31 ...
würde mich nicht wundern wenn jetzt Monate gar nix kommt von AMD.
Hängt wohl alles davon ab ob das Gerücht zum HW-Bug wahr oder falsch ist.
TheGood
2022-12-31, 16:02:16
hm, könnte auch sein dass ich H2 mit Q2 verwechselt hab.
Sicher ist anscheinend, dass N33 zuerst kommt, und davon sieht man noch gar nichts... dazu die Gerüchte um den HW Bug in N31 ...
würde mich nicht wundern wenn jetzt Monate gar nix kommt von AMD.
Hängt wohl alles davon ab ob das Gerücht zum HW-Bug wahr oder falsch ist.
Ja sehe ich auch so.
Da sich N32 udn N33 gefühlt massiv verschieben könnte da durchaus was dran sein. Ansonsten hätten sie ja ganz andere Probleme lösen müssen. Alles sehr strange...
dildo4u
2022-12-31, 17:11:37
Die Karten kommen natürlich so oder so die 7900 ist so langsam, da muss man nix fixen wenn sich die 7800 merklich da drunter ansiedeln soll.
Man bekommt kaum noch 6800XT unter 700€ wenn nix kommt verliert man massiv an Umsatz.
https://geizhals.de/?cat=gra16_512&v=l&hloc=de&bl1_id=30&xf=132_12288~9809_05+12+-+RX+6800+XT~9809_05+12+-+RX+6900+XT&sort=p#productlist
reaperrr
2022-12-31, 18:03:22
Da die N5 Yields sehr gut sind und der N31 GCD auch relativ klein ist denke ich nicht, dass es da unter der 7900 XT noch viel geben wird. Wenn man nach den Defektraten von TSMC geht gibt es statistisch gesehen einen Fehler pro 4.6 GCDs und dafür gibt es die 7900 XT.
Du vergisst den Faktor Yield im Sinne von "Wieviel Strom braucht der Chip, um bestimmte Taktraten zu erreichen".
Wenn die Ausbeute an XTX-tauglichen Chips höher wäre, hätte AMD davon mehr produziert als von den XT, denn die XTX hat sowohl ein besseres P/L (attraktiver für Kunden) als auch eine etwas höhere Marge (1 MCD und 2 Speicherchips werden wohl deutlich unter 100$ kosten).
Eine CU kann auch funktionieren, aber unverhältnismäßig viel Saft für höhere Taktraten benötigen und dadurch entweder mehr Spannung erfordern oder zu heiß werden.
Wenn es also eine 7800 XT gibt, dann rein aus Gründen der Marktsegmentierung aber ob das wirklich so sinnvoll ist weiß ich nicht. So groß ist die Lücke zwischen Full N32 und 7900 XT nicht, denn N32 wird sixher wieder etwas höher getaktet werden.
Ich sehe es eher so, dass die 7900 oder 7800 XT auf N31-Basis erstmal als Übergangslösung STATT N32 käme, und man das 7000er Desktop-Line-Up dann erstmal so lässt (mit N22 und später N33 darunter), bis das Bugfix-Stepping für den Refresh von N31 fertig ist, damit man dann N32 zusammen mit dem neuen N31-Stepping releasen und auch gleich bis zum Anschlag takten kann.
Sonst hätte man u.U. das Problem, dass man entweder N32 künstlich ausbremsen muss, oder nur die 7900 XTX nennenswert schneller als das schnellste N32-Modell wäre, marketingtechnisch jetzt nicht so ideal...
amdfanuwe
2022-12-31, 20:23:53
N31 XTX hat 60% mehr Shader als N32, XT immer noch 40% mehr.
Da würde ich von N32 keine Wunder erwarten.
Schnitzl
2022-12-31, 20:51:06
naja wenn N31 tatsächlich einen HW Bug hätte dann würde das schon kompliziert werden.
Dadurch dass die Karten bereits 7900XT(X) heissen hat sich AMD da ziemlich limitiert, außer man plant bereits den Refresh als 8000er Serie zu vermarkten.
Sicher weiss man es erst wenn N32 da ist.
Der_Korken
2022-12-31, 20:51:22
Wenn N32 stock und mit moderatem Verbrauch mit >=3,2Ghz läuft, dann wird er schon dicht an der 7900XT kratzen. Wenn das was wir bisher von RDNA3 gesehen haben tatsächlich schon alles war, dann wird die 7800XT quasi eine 6900XT mit 20% weniger Verbrauch und es heißt abwarten bis RDNA4 irgendwann in 2024.
Edit:
naja wenn N31 tatsächlich einen HW Bug hätte dann würde das schon kompliziert werden.
Dadurch dass die Karten bereits 7900XT(X) heissen hat sich AMD da ziemlich limitiert, außer man plant bereits den Refresh als 8000er Serie zu vermarkten.
Eigentlich ist alles OK. N32 wird N31 nicht überholen, könnte aber wesentlich dichter rankommen als es die Shaderzahl vermuten lassen würde. Da passt 7800 eigentlich gut rein. N31 wird entweder so gelassen oder man bringt wirklich noch einen N31+ oder N36 als 7950 raus, der vielleicht nochmal 15-20% mehr Leistung schafft. Letzteres schaffen die Custom-Modelle fast schon heute, nur eben nicht konsistent und mit 450W Verbrauch.
Schnitzl
2022-12-31, 21:24:14
Wenn N32 stock und mit moderatem Verbrauch mit >=3,2Ghz läuft, dann wird er schon dicht an der 7900XT kratzen. Wenn das was wir bisher von RDNA3 gesehen haben tatsächlich schon alles war, dann wird die 7800XT quasi eine 6900XT mit 20% weniger Verbrauch und es heißt abwarten bis RDNA4 irgendwann in 2024.
die sollte dann aber zeitnah kommen sonst landet ne 4070ti bei mir im Rechner.
Eigentlich ist alles OK. N32 wird N31 nicht überholen, könnte aber wesentlich dichter rankommen als es die Shaderzahl vermuten lassen würde. Da passt 7800 eigentlich gut rein. N31 wird entweder so gelassen oder man bringt wirklich noch einen N31+ oder N36 als 7950 raus, der vielleicht nochmal 15-20% mehr Leistung schafft. Letzteres schaffen die Custom-Modelle fast schon heute, nur eben nicht konsistent und mit 450W Verbrauch.
oder so :)
Wenn ich AMD wäre, würde ich eher versuchen RDNA4 vorzuziehen und in N31 kein Geld mehr verschwenden. Inwieweit das möglich ist ... k.A. da fehlt mir Insiderwissen
Aber im Moment macht sich AMD nur zum Affen, Verzögerungen, Treiberprobleme, schwächere Performance als angekündigt und Kartennamen die mehr versprechen als sie halten.
Der_Korken
2022-12-31, 21:42:48
Wenn ich AMD wäre, würde ich eher versuchen RDNA4 vorzuziehen und in N31 kein Geld mehr verschwenden. Inwieweit das möglich ist ... k.A. da fehlt mir Insiderwissen
Aber im Moment macht sich AMD nur zum Affen, Verzögerungen, Treiberprobleme, schwächere Performance als angekündigt und Kartennamen die mehr versprechen als sie halten.
... und Aussagen wie, dass 110°C Hotspot Temps völlig OK wären ;D
"Zum Affen" macht AMD sich sicher nicht freiwillig, die Devs hätten N31 wohl lieber 6 Monate später gelauncht, aber man halt neue Karten für 2022 angekündigt und musste irgendwas liefern. Dadurch ist es aber imho der schwächste AMD-Launch seit Vega. Da es personell keine großen Verwerfungen gab, glaube ich aber lieber an die HW-Bug-Theorie als an Fehlkonzeptionen oder schlampige Execution.
Zu N33 wurde afaik zuletzt gemunkelt, dass er auch von "dem Bug" betroffen sein soll. Da der Chip noch in 6nm kommen sollte, könnte es sein, dass er in aktuellem Zustand gar nicht besser als RDNA2 ist. Wenn N31 in 5nm gerade mal 20% mehr fps/W als N21@7nm schafft, werden es für N33 wohl eher +/-0% sein, für mobile, powerlimitierte Chips also kein Fortschritt. Ist nur Spekulation, aber es könnte ein Grund sein warum es so still um N33 geworden ist.
r3ptil3
2022-12-31, 22:25:56
... und Aussagen wie, dass 110°C Hotspot Temps völlig OK wären ;D
"Zum Affen" macht AMD sich sicher nicht freiwillig, die Devs hätten N31 wohl lieber 6 Monate später gelauncht, aber man halt neue Karten für 2022 angekündigt und musste irgendwas liefern. Dadurch ist es aber imho der schwächste AMD-Launch seit Vega. Da es personell keine großen Verwerfungen gab, glaube ich aber lieber an die HW-Bug-Theorie als an Fehlkonzeptionen oder schlampige Execution.
Hey, sie haben aber immerhin 2x 8 Pin Stromstecker. :uup:
Mich bedrückt viel mehr die Sorge, dass der Verbrauch bei geringerer Last nicht besser werden wird. Da ziehen die RX 7900 Modelle praktisch das gleiche wie mit 100% Auslastung. :frown:
Meine Wattman Settings
82112
Wie war das nochmal mit der 3G-Sperre?
MSABK
2023-01-01, 00:38:49
... und Aussagen wie, dass 110°C Hotspot Temps völlig OK wären ;D
"Zum Affen" macht AMD sich sicher nicht freiwillig, die Devs hätten N31 wohl lieber 6 Monate später gelauncht, aber man halt neue Karten für 2022 angekündigt und musste irgendwas liefern. Dadurch ist es aber imho der schwächste AMD-Launch seit Vega. Da es personell keine großen Verwerfungen gab, glaube ich aber lieber an die HW-Bug-Theorie als an Fehlkonzeptionen oder schlampige Execution.
Zu N33 wurde afaik zuletzt gemunkelt, dass er auch von "dem Bug" betroffen sein soll. Da der Chip noch in 6nm kommen sollte, könnte es sein, dass er in aktuellem Zustand gar nicht besser als RDNA2 ist. Wenn N31 in 5nm gerade mal 20% mehr fps/W als N21@7nm schafft, werden es für N33 wohl eher +/-0% sein, für mobile, powerlimitierte Chips also kein Fortschritt. Ist nur Spekulation, aber es könnte ein Grund sein warum es so still um N33 geworden ist.
Dann können sie ja N23 einfach umlabeln und verkaufen,
ChaosTM
2023-01-01, 00:44:24
Ich hatte mit meiner 290X für 2 Jahre lang hotspots um die 115° bei den Spannungswandlern und ich wusste nichts davon.
Dank eine Custom Kühlung ;)
Der_Korken
2023-01-01, 01:17:13
Meine Wattman Settings
Wie war das nochmal mit der 3G-Sperre?
Meinst du den Takt? Da gab es schon Twitter-Posts, wo Leute irgendwelchen Compute-Kram mit 3,5Ghz CU-Takt und 3,7Ghz Frontend-Takt durchbekommen haben. Die Frage ist halt, was in Spielen stabil läuft und real anliegt durch das Powerlimit.
Ich hatte mit meiner 290X für 2 Jahre lang hotspots um die 115° bei den Spannungswandlern und ich wusste nichts davon.
Dank eine Custom Kühlung ;)
Beim 7900er Referenz-Modell ist das aber definitiv ein Fertigungsfehler und keine Schwankung. Kann ja nicht sein, dass manche 80°C haben und andere 110°C mit dem selben Kühler. Im Review-Thread hat der User Dunkeltier so ein Modell erwischt und zusätzlich zu den 110°C noch auf 100% drehende Lüfter und auf 1,5Ghz gedrosselten Takt. Es muss nicht bei jedem so extrem sein, aber wenn 110°C anliegen, dann ist mindestens auch die Lautstärke komplett im Eimer, mit Pech auch die Rechenleistung. Wenn es stimmt, dass AMD diese Probleme einfach so abtut und die Leute auf den kaputten Kühlern sitzen lässt, ist das imho eine Frechheit. Ich persönlich würde so ein Exemplar sofort zurückschicken und mein Geld zurück verlangen, notfalls per FAG.
Das Frontend hat hier 3.65G. Die Jungs auf Twitter konnten damit nicht spielen, hier läuft gar Port Royal und der RT-Test in Firestrike. Problem nur, dass ich komplett im Powerlimit hänge. Werde die Tage, die Vcore noch weiter reduzieren müssen.
Zur Karte selbst: Zirpen tut se so ab 1000Fps aufwärts, Temperatur-Problem habe ich keines und aussehen tut sie fantastisch. Größtes Delta habe ich tatsächlich im RT-Test mit 48 zu 76°C. Raumtemperatur 23°C.
Zum Treiber selbst: Läuft eigentlich, Problem nur, dass sobald HDR ingame an ist, dass das Spiel sich einfach schließt und der PCIe-Bus dann auf 1.1 festhängt. Hier hilft dann nur ein Reboot des Rechners.
Vorerst finales Setting:
robbitop
2023-01-01, 12:56:53
Und die 3,5 GHz liegen in Spielen an? :O Performanceskalierung hast du überprüft (siehe clock-stretching)?
Wenn ja was hast du dafür gemacht - das war IIRC bei praktisch keinem Reviewer möglich.
Nö, max. 3.3G. Problem ist eben das Powerlimit von 463w TBP. Die 3.5g liegen z.B. im Test von GPU-Z an. In 1080p lq liegen wahrscheinlich ebenso annähernd 3.5g an, unter UHD funktioniert das leider nicht.
Linmoum
2023-01-01, 13:17:00
Hast du auch mal ein paar handfeste Daten dazu? GPU-Z-Logs, HWinfo, AB/RTSS?
Also auch Spiele mit mehr als nur 5 Minuten und vor allem, wie der Takt während der Zeit aussieht.
Kann ich die Tage machen, kein Problem. Das größte Problem ist eben, dass derzeit lediglich 2 Spiele auf meinem Rechner befinden (F1 2021 und Sottr). Da ich heute nicht mehr am Rechner sein werde, muss ich dich leider auf die Tage vertrösten.
iamthebear
2023-01-01, 15:17:22
hm, könnte auch sein dass ich H2 mit Q2 verwechselt hab.
Sicher ist anscheinend, dass N33 zuerst kommt, und davon sieht man noch gar nichts... dazu die Gerüchte um den HW Bug in N31 ...
würde mich nicht wundern wenn jetzt Monate gar nix kommt von AMD.
Hängt wohl alles davon ab ob das Gerücht zum HW-Bug wahr oder falsch ist.
Wann N32 und N33 kommen hängt in erster Linie davon ab wie lange es dauert bis die jeweiligen Vorgänger abverkauft sind. Bei N21 sind die Bestände anscheinend nun großteils weg. Deshalb wurde N31 auch gelaunched.
Bei N32 und N33 sehe ich noch keine Preiserhöhung d.h. da dürfte noch mehr als genug herumliegen, was zuerst raus muss.
Ja sehe ich auch so.
Da sich N32 udn N33 gefühlt massiv verschieben könnte da durchaus was dran sein. Ansonsten hätten sie ja ganz andere Probleme lösen müssen. Alles sehr strange...
Dass N33 vor N31 launchen soll war von vornherein Schwachsinn neben vielen anderen Dingen. Ich sage nur "N33 > N21" bei einem 200mm² N6 Die.
Du vergisst den Faktor Yield im Sinne von "Wieviel Strom braucht der Chip, um bestimmte Taktraten zu erreichen".
Wie schon gesagt "dafür hat man die 7900 XT". Diese ist auf dem Papier mit 2GHz Gametakt extrem niedrig getaktet sodass man hier wirklich jeden Gurkenchip verbauen kann.
Wenn die Ausbeute an XTX-tauglichen Chips höher wäre, hätte AMD davon mehr produziert als von den XT, denn die XTX hat sowohl ein besseres P/L (attraktiver für Kunden) als auch eine etwas höhere Marge (1 MCD und 2 Speicherchips werden wohl deutlich unter 100$ kosten).
Selbst wenn alle GCDs voll funktionsfähig wären hat die 7900 XT:
7% weniger Gesamt Die Size (1 MCD weniger)
17% weniger VRAM
15% weniger TBP, was sich annähernd linear auf Board/Kühlerkosten durchschlägt
Damit dürften es eher weniger als 90% Gesamtkosten werden.
Angajd der Straßenpreise sieht man allerdings ganz gut, dass die 999$ der 7900 XTX nicht stimmen. Real sind diese bei ca. 1200$
Eine CU kann auch funktionieren, aber unverhältnismäßig viel Saft für höhere Taktraten benötigen und dadurch entweder mehr Spannung erfordern oder zu heiß werden.
Auch hier gilt:
Als 7900 XT mit 2GHz verkaufen. Das liegt innerhapb der Spezifikation.
Ich sehe es eher so, dass die 7900 oder 7800 XT auf N31-Basis erstmal als Übergangslösung STATT N32 käme, und man das 7000er Desktop-Line-Up dann erstmal so lässt (mit N22 und später N33 darunter), bis das Bugfix-Stepping für den Refresh von N31 fertig ist, damit man dann N32 zusammen mit dem neuen N31-Stepping releasen und auch gleich bis zum Anschlag takten kann.
Um ehrlich zu sein glaube ich nicht an das Bugfix Stepping. Für mich hört sich das eher nach einem Märchen der AMD Fanboys an, die jetzt verzweifelt nach einem Grund suchen, warum ihre völlig überzogenen Fantasiezahlen nicht stimmen. Das ist ein 300mm² Die, der mit viel Verlustleistung künstlich hochgezüchtet wurde. Ist klar, dass man da mit einem 50% gröseren AD102 (auf den GCD Teil bezogen) nicht mithalten kann.
Sonst hätte man u.U. das Problem, dass man entweder N32 künstlich ausbremsen muss, oder nur die 7900 XTX nennenswert schneller als das schnellste N32-Modell wäre, marketingtechnisch jetzt nicht so ideal...
Die 7900 XT hat 1.25x so viel Speicherbandbreite und IF$ wie N32 bei 1.4x CUs, wird dafür aber etwas höher getaktet sein (ähnlich 6700 XT vs. 6900 XT), da weniger TDP limitiert. Dürften in Summe auch um die 1.25x Rechenleistung sein.
Damit landet Full Navi32 dann in etwa auf 6900 XT Niveau, und ein leicht beschnittenes Modell in etwa auf 6800 XT Niveau.
Das ist genau der Abstand, der zwischen 2 Dies noch sinnvoll ist ohne dass eine große Lücke bleibt. Das ist in etwa so viel wie zwischen 6600 XT und 6700 XT.
Dass AMD eine Karte als N31 auflegt und später zu N32 wechselt würde ich ausschließen, da N32 mehr WGPs pro SE hat. Man kann N31 nicht auf einen Full N32 herunterschnipseln.
Dadurch dass die Karten bereits 7900XT(X) heissen hat sich AMD da ziemlich limitiert, außer man plant bereits den Refresh als 8000er Serie zu vermarkten.
7950 XTX
7970 XTX
7970 XTX 3GHz Edition
7990 XTX (Dual GCD)
Namensvarianten gäbe es genug
... und Aussagen wie, dass 110°C Hotspot Temps völlig OK wären ;D
[quote]Zu N33 wurde afaik zuletzt gemunkelt, dass er auch von "dem Bug" betroffen sein soll. Da der Chip noch in 6nm kommen sollte, könnte es sein, dass er in aktuellem Zustand gar nicht besser als RDNA2 ist. Wenn N31 in 5nm gerade mal 20% mehr fps/W als N21@7nm schafft, werden es für N33 wohl eher +/-0% sein, für mobile, powerlimitierte Chips also kein Fortschritt. Ist nur Spekulation, aber es könnte ein Grund sein warum es so still um N33 geworden ist.
N33 ist ein 200mm² N6 Die. Die erwartbare Performance liegt hier auf 6650 XT Niveau (237mm² in N7). Im Best case schafft man 6700 XT Performance, was ich aber nicht glaube.
Alles darüber sind die feuchten Träume eines Fanboys oder Clickbait Youtubers (oft auch in derselben Person). Das hat mit Hardware Bugs nichts zu tun.
Hey, sie haben aber immerhin 2x 8 Pin Stromstecker. :uup:
Mich bedrückt viel mehr die Sorge, dass der Verbrauch bei geringerer Last nicht besser werden wird. Da ziehen die RX 7900 Modelle praktisch das gleiche wie mit 100% Auslastung. :frown:
Wenn man sieht, dass die 7900 XT Referenzversion in Cyberpunk mit RT schon auf unter 0.85V abfällt sieht das für mich nicht so aus als wäre da beim Stromverbrauch nach unten noch viel Potential.
Umgekehrt wäre anscheinend nach oben hin noch einiges an Potential wenn man mehr Saft gibt, was bei N31 schwierig wird, bei N33 im Desktop aber kein Problem sein sollte.
Was die Mobile Varianten angeht: Who cares
AMD hat es schon zu RDNA2 Zeiten nicht geschafft die OEMs zu überzeugen. Wenn ich auf Geizhals nach Notbooks mit dGPU seit 2021 filtere bekomme ich ganze 48 Modelle mit AMD dGPU vs. 1531 mit Nvidia dGPU also stolze 3%. Das wird bei den Verkaufszahlen ähnlich aussehen. Selbst bei den Geräten mit AMD CPU wird bei 87% der Modelle Nvidia verbaut. Es ist also keine prinzipielle Abneigung gegenüber AMD.
Das Ganze obwohl man die deutlich bessere Energieeffizienz hatte in Zeiten von Miningboom und Engpässen wo sowieso alles gekauft wurde.
Warum sollte AMD ausgerechnet mit der Energieschleuder Navi3x gegenüber einer sparsamen Ada Generation den Durchbruch schaffen?
Nö, max. 3.3G. Problem ist eben das Powerlimit von 463w TBP. Die 3.5g liegen z.B. im Test von GPU-Z an. In 1080p lq liegen wahrscheinlich ebenso annähernd 3.5g an, unter UHD funktioniert das leider nicht.
Einfach mal mit Framelimiter testen. Wenn die GPU nur auf 50% Last läuft, dann bremst das Power Limit nicht. Dann sieht man schon ob 3.5GHz theoretisch stabil laufen würden.
Bei den ganzen Compute Workloads weiß ich nicht wie repräsentativ diese sind, da diese viele Einheiten der GPU gar nicht verwenden.
Der_Korken
2023-01-01, 15:36:56
N33 ist ein 200mm² N6 Die. Die erwartbare Performance liegt hier auf 6650 XT Niveau (237mm² in N7). Im Best case schafft man 6700 XT Performance, was ich aber nicht glaube.
Alles darüber sind die feuchten Träume eines Fanboys oder Clickbait Youtubers (oft auch in derselben Person). Das hat mit Hardware Bugs nichts zu tun.
Welchen Sinn hätte es denn dann gehabt RDNA3 überhaupt zu entwickeln? Wenn ich aus der Architektur selber quasi null Effizienz rausziehe, hätte ich doch die alte Architektur stattdessen etwas polishen und auf 6nm porten können. Selbst wenn ich vielleicht 10-15% Chipfläche einspare, wieviel muss ich denn verkaufen um die Entwicklungskosten wieder reinzukriegen? Selbst auf die großen Chips übertragen: Wo wäre AMD rausgekommen, wenn sie einen überarbeiteten N21 in 6nm gebracht und auf 350W gepusht hätten? Die 7900XT hätte man damit locker eingeholt zu ähnlichen Fertigungskosten.
Du sagst ja selber, dass N31 trotz 350W bei starker Last auf 850mV einbricht, während RDNA1 und 2 jeweils stock mit ~1100mV unter Last liefen und somit in einem Bereich, wo der Takt nicht mehr gut skalierte. Warum sollte AMD einen N31 entwickeln, der erst bei 450W halbwegs gestättigt ist und ihn dann mit 350W Limit releasen? Da hätten sie lieber bei 80 CUs bleiben können und die höher takten - Raum nach oben ist wie du sagst ja reichlich da. Für mich ergibt die ganze RDNA3-Architektur nur Sinn, wenn sie bei gleichem Verbrauch noch 15-20% mehr Takt schafft. Allein diese 355W und die um 200Mhz niedriger getakteten CUs sehen aus wie in letzter Minute hingebogen, weil man intern vielleicht mit 300-330W bei ~3Ghz Takt gerechnet hat.
Schnitzl
2023-01-01, 16:00:01
Wann N32 und N33 kommen hängt in erster Linie davon ab wie lange es dauert bis die jeweiligen Vorgänger abverkauft sind. Bei N21 sind die Bestände anscheinend nun großteils weg. Deshalb wurde N31 auch gelaunched.
Bei N32 und N33 sehe ich noch keine Preiserhöhung d.h. da dürfte noch mehr als genug herumliegen, was zuerst raus muss.
Das mag sein, aber auch hier wieder: solange die Vorgänger nicht im Preis sinken werden die darauf sitzen bleiben. AMD stellt sich gerade an ... für mich völlig unverständlich, vor allem bei dem Marktanteil.
7950 XTX
7970 XTX
7970 XTX 3GHz Edition
7990 XTX (Dual GCD)
Namensvarianten gäbe es genug
ich bezog mich mehr auf die 9 die eigentlich eine 8 hätte sein sollen. Man überlege sich mal wie Tests ausgesehen hätten ohne die 4090, das ist gleich ein anderes Bild.
Aber jetzt ist der Zug sowieso abgefahren. AMD hat sich wohl gesagt wir können das besser als nVidia mit ihren paar Fällen mit Steckerproblem, wir setzen gleich die ganze Serie in den Sand!
mein Fazit:
1. AMD hat sich mit dem Chiplet-Gedöhns komplett übernommen
2. AMD hat seine Ehrlichkeit von früher abgelegt und erliegt der Gier
Das Einzige was man nun als Kunde tun kann, ist diese Generation zu ignorieren, sowohl nVidia (Preise) als auch AMD(Probleme+Preise). Intel ist sowieso (noch) keine Alternative.
AMD wäre gut beraten zu seinen alten Qualitäten zurückzufinden. Auch wenns nicht die schnellste HW ist, wars zumindest kaufbar und benutzbar (zum Großteil)
BlacKi
2023-01-01, 16:21:47
@korken ich bezweifle, das die architektur daran schuld ist.
und was bleibt dann übrig? chiplet design.
Der_Korken
2023-01-01, 16:31:32
Es mag sein, dass die Verbindungen zwischen MCD und GCD vielleicht 5-10W mehr verbrauchen als eine Siliziumverbindung (pro Link versteht sich, also x6 für N31) und deswegen der Verbrauch im Idle und Teillast deswegen so schlecht war/ist. Aber bei Verbräuchen >350W würde das nicht mehr stark ins Gewicht fallen. Alles was sich innerhalb der CUs und zwischen Command Processor und L2-Cache abspielt, ist von den Chiplets überhaupt nicht beeinflusst.
BlacKi
2023-01-01, 16:35:32
ich spiele darauf an, das rdna3 auf n33 nicht sucken wird, im chiplet design sehr wohl. es geht ja nicht nur um verbrauch, sondern verschenkte performance.
dargo
2023-01-01, 16:47:51
Und die 3,5 GHz liegen in Spielen an? :O
Wenn du ein Bios mit freigeschalteten 600W findest könntest du eventuell Glück haben. X-D
Das mag sein, aber auch hier wieder: solange die Vorgänger nicht im Preis sinken werden die darauf sitzen bleiben. AMD stellt sich gerade an ... für mich völlig unverständlich, vor allem bei dem Marktanteil.
ich bezog mich mehr auf die 9 die eigentlich eine 8 hätte sein sollen. Man überlege sich mal wie Tests ausgesehen hätten ohne die 4090, das ist gleich ein anderes Bild.
Aber jetzt ist der Zug sowieso abgefahren. AMD hat sich wohl gesagt wir können das besser als nVidia mit ihren paar Fällen mit Steckerproblem, wir setzen gleich die ganze Serie in den Sand!
mein Fazit:
1. AMD hat sich mit dem Chiplet-Gedöhns komplett übernommen
2. AMD hat seine Ehrlichkeit von früher abgelegt und erliegt der Gier
Das Einzige was man nun als Kunde tun kann, ist diese Generation zu ignorieren, sowohl nVidia (Preise) als auch AMD(Probleme+Preise). Intel ist sowieso (noch) keine Alternative.
AMD wäre gut beraten zu seinen alten Qualitäten zurückzufinden. Auch wenns nicht die schnellste HW ist, wars zumindest kaufbar und benutzbar (zum Großteil)
Ich habe hier +/- die gleiche Rasterizing-Performance wie eine 4090! Ich brauche zwar 30% mehr Energie, als das Referenz-Design, bekomme aber zwischen 22 und 30% Performance raus, gemessen an 2 Spielen und dem 3d-Kram. Selbst mit RT sieht sie außerordentlich gut aus. Wenn es jetzt kein NV-Titel ist, bin ich so frech um zu behaupten, dass se ne 4080 schlägt, mit meinen Settings. Problem nur, dass se so viel Wätter braucht um in Gang zu kommen.
Und hier scheint das Problem zu liegen. Die haben zu wenig Transen verbaut!
Und an alle AM5-User: Einen zu hohen IF-Takt mag se überhaupt nicht. Und da kann euer System noch so sehr Primestable incl. AVX Gedöns sein.
Ich mußte runter von 2.167g auf 2.0, um einen 100%igen Betrieb zu gewährleisten.
Den Ramtakt könnt ihr ruhig auf 6400Mhz belassen, geht easy.
Der_Korken
2023-01-01, 17:44:54
ich spiele darauf an, das rdna3 auf n33 nicht sucken wird, im chiplet design sehr wohl. es geht ja nicht nur um verbrauch, sondern verschenkte performance.
Das einzige Performance-Problem sind etwas höhere Latenzen, was bei GPUs aber nicht so stark ins Gewicht fallen dürfte. Gegenüber RDNA2 wurde die absolute Speicherlatenz laut AMD sogar gesenkt, weil der Fabric-Takt stark angehoben wurde. Wie gesagt, im Idle könnte N33 sehr sparsam sein, aber unter Last sind es imho die CUs, die den Strom saufen.
Und hier scheint das Problem zu liegen. Die haben zu wenig Transen verbaut!
Oder zu viele. Es sind schließlich 25% mehr als AD103 und mehr als doppelt so viele wie N21. Wenn N31 eines nicht ist, dann zu schmal.
iamthebear
2023-01-01, 18:41:42
Welchen Sinn hätte es denn dann gehabt RDNA3 überhaupt zu entwickeln? Wenn ich aus der Architektur selber quasi null Effizienz rausziehe, hätte ich doch die alte Architektur stattdessen etwas polishen und auf 6nm porten können. Selbst wenn ich vielleicht 10-15% Chipfläche einspare, wieviel muss ich denn verkaufen um die Entwicklungskosten wieder reinzukriegen? Selbst auf die großen Chips übertragen: Wo wäre AMD rausgekommen, wenn sie einen überarbeiteten N21 in 6nm gebracht und auf 350W gepusht hätten? Die 7900XT hätte man damit locker eingeholt zu ähnlichen Fertigungskosten.
In 7nm hätte man für N31 Performance einen 800mm² Die und um die 500W gebraucht. Das wäre nie massentauglich gewesen.
Umgekehrt hat man anscheinend nicht genug N5 Kapazität bekommen, weshalb man die Chipletvariante gewählt hat.
Was N33 angeht:
Die Portierung des GCD Teils von 5nm auf 6nm war sowieso notwendig, denn spätestens mit Zen5 muss RDNA3 ja in den 6nm IO Die.
Du sagst ja selber, dass N31 trotz 350W bei starker Last auf 850mV einbricht, während RDNA1 und 2 jeweils stock mit ~1100mV unter Last liefen und somit in einem Bereich, wo der Takt nicht mehr gut skalierte. Warum sollte AMD einen N31 entwickeln, der erst bei 450W halbwegs gestättigt ist und ihn dann mit 350W Limit releasen? Da hätten sie lieber bei 80 CUs bleiben können und die höher takten - Raum nach oben ist wie du sagst ja reichlich da. Für mich ergibt die ganze RDNA3-Architektur nur Sinn, wenn sie bei gleichem Verbrauch noch 15-20% mehr Takt schafft.
Man hat wohl damit gerechnet, dass Nvidia bei einem alten Node bleibt oder dass bei AD103 Schluss ist. 2019/20 als die Entscheidungen gefallen sind war noch vieles anders.
Allein diese 355W und die um 200Mhz niedriger getakteten CUs sehen aus wie in letzter Minute hingebogen, weil man intern vielleicht mit 300-330W bei ~3Ghz Takt gerechnet hat.
Ist auch ziemlich hingebogen. Ich vermute, dass die gangen 450W Leaks von RDNA3 doch die Wahrheit waren.
Das mag sein, aber auch hier wieder: solange die Vorgänger nicht im Preis sinken werden die darauf sitzen bleiben. AMD stellt sich gerade an ... für mich völlig unverständlich, vor allem bei dem Marktanteil.
AMD hat nicht wirklich Interesse an Marktanteil einer sterbenden Nebensparte. Die wollen kräftig kassieren, was man ja gut an den Zen4 Preisen sieht. Der Fokus für den Marktanteil liegt in erster Linie im Datacenterbereich.
Abgesehen davon hat man sich mit Nvidia und Intel ganz gut arrangiert die Preise hoch zu halten und man weiß: Solange man selbst die Preise nicht senkt tut es der Mitbewerber auch nicht.
AMD wäre gut beraten zu seinen alten Qualitäten zurückzufinden. Auch wenns nicht die schnellste HW ist, wars zumindest kaufbar und benutzbar (zum Großteil)
Für die Kunden wäre das sicher besser aber für die eigenen Finanzen eher weniger. Im Moment fährt man schöne Gewinne ein während man früher selbst zu guten Zeiten nur eine schwarze 0 hatte.
Es mag sein, dass die Verbindungen zwischen MCD und GCD vielleicht 5-10W mehr verbrauchen als eine Siliziumverbindung (pro Link versteht sich, also x6 für N31) und deswegen der Verbrauch im Idle und Teillast deswegen so schlecht war/ist. Aber bei Verbräuchen >350W würde das nicht mehr stark ins Gewicht fallen. Alles was sich innerhalb der CUs und zwischen Command Processor und L2-Cache abspielt, ist von den Chiplets überhaupt nicht beeinflusst.
Ich glaube kaum, dass der Energieverbrauch irgendetwas mit dem Chipletdesign zu tun hat.
Der Energieverbrauch scheint eher eine Folge des Hochfrequenzdesigns zu sein.
ich spiele darauf an, das rdna3 auf n33 nicht sucken wird, im chiplet design sehr wohl. es geht ja nicht nur um verbrauch, sondern verschenkte performance.
Bei der Performance/mm² wird N33 sicher toll sein, genauso wie es N24 schon war. Aber ob dies die Gamer da draußen glücklich macht daran habe ich meine Zweifel.
iamthebear
2023-01-01, 18:44:19
Wenn das stimmt, dann brauht sich da was zusammen:
https://youtu.be/_2ggdOyzpYQ
ChaosTM
2023-01-01, 18:48:49
RDNA3 mit seinen Chiplets ist eine Investition in die Zukunft. Hat nicht ganz so funktioniert im ersten Anlauf wie erwartet, ja.
NV kann das Single Chip Design noch höchstens einmal spielen, dann müssen sie ihren Ansatz auch überdenken.
reaperrr
2023-01-01, 19:01:37
Und hier scheint das Problem zu liegen. Die haben zu wenig Transen verbaut!
Wie Der_Korken schon schreibt, eher zu viele.
Mehr als doppelt so viele Transistoren für nur magere ~10-15% mehr CU-IPC und 20% mehr CUs ist einfach schwach, wenn man damit nicht auch gleichzeitig die Taktraten innerhalb gleichbleibender TDP massiv steigern kann.
Bei RDNA2 haben sie letzteres hinbekommen, diesmal war es offenbar wieder geplant, ist aber fehlgeschlagen.
Stand jetzt wäre ein RDNA2+ in 5nm mit "nur" den DCC-Verbesserungen, etwas (aber nicht 4x so viel!) mehr L0/L1-Cache und 120 CUs, aber halt ohne die zusätzlichen SIMDs und breiteren Register, und evtl. auch weiter mit 128MB IF$+256bit wahrscheinlich in jeder Hinsicht besser gewesen (Transistorzahl/Fläche, Taktbarkeit, Boardkosten, Ausgereiftheit der Treiber zum Launch, dank mehr TMUs und größerer Caches evtl. sogar teilweise bessere RT-Performance).
Funktioniert eigentlich perfekt, denn je länger ich darüber nachdenke, fehlt nur ein Schalter im Wattman: Reduce power and frequency for lower workloads.
Per se ist die Nitro+ wahrscheinlich die interessanteste Karte, welche manchmal verfügbar ist. Aber mit oben genannter Option, würde man das Ding auf komplettem neuem Level heben!
Denn: Je heftiger der Workload, umso stabiler wird das Ding! Rein RT gehen hier mit 0.925v easy, andererseits kackt dir FSU nach 0.6s ab!
Wie Der_Korken schon schreibt, eher zu viele.
Mehr als doppelt so viele Transistoren für nur magere ~10-15% mehr CU-IPC und 20% mehr CUs ist einfach schwach, wenn man damit nicht auch gleichzeitig die Taktraten innerhalb gleichbleibender TDP massiv steigern kann.
Bei RDNA2 haben sie letzteres hinbekommen, diesmal war es offenbar wieder geplant, ist aber fehlgeschlagen.
Stand jetzt wäre ein RDNA2+ in 5nm mit "nur" den DCC-Verbesserungen, etwas (aber nicht 4x so viel!) mehr L0/L1-Cache und 120 CUs, aber halt ohne die zusätzlichen SIMDs und breiteren Register, und evtl. auch weiter mit 128MB IF$+256bit wahrscheinlich in jeder Hinsicht besser gewesen (Transistorzahl/Fläche, Taktbarkeit, Boardkosten, Ausgereiftheit der Treiber zum Launch, dank mehr TMUs und größerer Caches evtl. sogar teilweise bessere RT-Performance).
Nein zu wenige, ganz einfach um die "Kanten" zu glätten. Die Dinger brauchen keine Funktion, sind nur zur Stabilisierung des Takts zuständig!
Der_Korken
2023-01-01, 19:14:57
In 7nm hätte man für N31 Performance einen 800mm² Die und um die 500W gebraucht. Das wäre nie massentauglich gewesen.
AMD hätte ja nicht N31 in 6nm nachbauen sollen, sondern den bestehenden N21 noch etwas aufbrezeln können. Entweder durch Takt (2,8Ghz wären drin gewesen, siehe N24) oder indem man noch 16 CUs anbaut. 7900XT-Performance wäre <=600mm² und <=375W locker gegangen.
Das ist ein bisschen so wie damals beim Phenom 2 vs Bulldozer. Ja, Bulldozer war schneller und auch etwas effizienter, hatte aber den 32nm vs 45nm Vorteil inne. Ohne RDNA3 mit Bulldozer gleich setzen zu wollen, ist die Situation für mich aber ähnlich: Ja, RDNA3 ist schneller als RDNA2, aber bei so marginalen Effizienzgewinnen, dass man sich die neue Architektur eigentlich hätte klemmen können. Genauso haben sich damals viele gefragt, wie wohl ein 32nm-Phenom-2 performt hätte.
Wenn das Ding so läuft wie geplant, dann hat AMD verdammt komische Pläne. AMD hat damals sicherlich auch nicht geplant, dass ein R520 mit doppelt so vielen Transistoren den eigenen R480 am Ende nur mit 30% schlägt und das bei höherem Verbrauch trotz einem Fullnode Vorsprung. Dito R600 vs R580 mit AA/AF.
Wenn das stimmt, dann brauht sich da was zusammen:
https://youtu.be/_2ggdOyzpYQ
Wird im Review-Thread schon fleißig diskutiert.
Schnitzl
2023-01-01, 19:16:04
AMD hat nicht wirklich Interesse an Marktanteil einer sterbenden Nebensparte. Die wollen kräftig kassieren, was man ja gut an den Zen4 Preisen sieht. Der Fokus für den Marktanteil liegt in erster Linie im Datacenterbereich.
Abgesehen davon hat man sich mit Nvidia und Intel ganz gut arrangiert die Preise hoch zu halten und man weiß: Solange man selbst die Preise nicht senkt tut es der Mitbewerber auch nicht.
Für die Kunden wäre das sicher besser aber für die eigenen Finanzen eher weniger. Im Moment fährt man schöne Gewinne ein während man früher selbst zu guten Zeiten nur eine schwarze 0 hatte.
ich stimme zu, nur: damit macht AMD sich den Ruf vollends kaputt. So werden sie auch nicht viel Notebooks in 2023 verkaufen (mit Zen4)
Merke das jetzt bereits im Kollegenkreis, bis Weihnachten noch Zen hier Zen da, nun ist AMD generell wieder ein Saftladen (Aussage Kollegen)
Wenn dann der Ruf ruiniert ist und die Gewinne sinken wird AMD sich nicht aus dem Rheintal wieder hochkämpfen müssen sondern aus dem Grand Canyon.
just my 2€
=Floi=
2023-01-01, 19:20:10
Wie Der_Korken schon schreibt, eher zu viele.
Mehr als doppelt so viele Transistoren für nur magere ~10-15% mehr CU-IPC und 20% mehr CUs ist einfach schwach, wenn man damit nicht auch gleichzeitig die Taktraten innerhalb gleichbleibender TDP massiv steigern kann.
willkommen bei ampere! Bei NV lief es ja auch so. Die doppelten SM brauchen eben auch transistoren. Es kam eine NPU dazu und noch kleinkram wie für RT.
Ihr hackt viel zu sehr auf dem chiplet design rum. Ich finde es passt zu AMD und steigert die skalierbarkeit.
zitat
Wenn das stimmt, dann braut sich da was zusammen:
https://youtu.be/_2ggdOyzpYQ
Bitter und leider trifft es mal wieder AMD, aber mit nem kühlertausch kann das behoben werden. Das ist alles kein weltuntergang.
Auch dürfte das demnächst abgestellt sein und in 2-3 monaten dürften alle karten fehlerfrei sein.
Es ist zum glück nichts an der karte.
Es ist für den user leicht zu verifizieren und eine RMA kann auch schnell umgesetzt werden.
willkommen bei ampere! Bei NV lief es ja auch so. Die doppelten SM brauchen eben auch transistoren. Es kam eine NPU dazu und noch kleinkram wie für RT.
Ihr hackt viel zu sehr auf dem chiplet design rum. Ich finde es passt zu AMD und steigert die skalierbarkeit.
zitat
Wenn das stimmt, dann braut sich da was zusammen:
https://youtu.be/_2ggdOyzpYQ
Bitter und leider trifft es mal wieder AMD, aber mit nem kühlertausch kann das behoben werden. Das ist alles kein weltuntergang.
Auch dürfte das demnächst abgestellt sein und in 2-3 monaten dürften alle karten fehlerfrei sein.
Es ist zum glück nichts an der karte.
Es ist für den user leicht zu verifizieren und eine RMA kann auch schnell umgesetzt werden.
Es hat sicher etwas mit den defekten Kühlern, Anpressdruck, keine Ahnung was zu tun. Fakt ist allerdings, dass dies mit keinem (!) Boardpartner-Design passiert, selbst auf einer Ref-Platine!
So leid es mir tut, aber ihr spekuliert über eine GPU, welche man käuflich erwerben kann und hängt noch immer in 2001 fest, wo es hieß, viel hilft viel.
Für ein Enthuaist-Forum eigentlich erbärmlich!
Man sollte vielleicht einem limitierten Treiberteam unter die Arme greifen. Dann bekommt ihr zum Test eine GPU, auch von einem Boardpartner, wenn ihr legit seid.
Taigatrommel
2023-01-01, 23:58:49
Es hat sicher etwas mit den defekten Kühlern, Anpressdruck, keine Ahnung was zu tun. Fakt ist allerdings, dass dies mit keinem (!) Boardpartner-Design passiert, selbst auf einer Ref-Platine!
Es ist immerhin kein genereller Designfehler, sonst wären ja alle Referenzkarten betroffen, doch das ist ja bei weitem nicht der Fall. Von daher muss AMD nun herausfinden, was genau das Problem ist und dies baldmöglichst beheben, zudem den betroffenen Kunden entsprechenden Support bieten.
Also bislang habe ich von zwei Fällen gelesen, bei denen Customs betroffen waren, einmal war es eine XFX Merc XTX, vorhin berichtete erst jemand über eine Power Color Red Devil XTX mit zu hohen Hotspot Temperaturen. Natürlich kann es sich hier um rein zufällige Defekte handeln, welche ja generell in der Massenproduktion immer mal wieder auftauchen.
Gott1337
2023-01-02, 00:59:25
Es ist immerhin kein genereller Designfehler, sonst wären ja alle Referenzkarten betroffen, doch das ist ja bei weitem nicht der Fall. Von daher muss AMD nun herausfinden, was genau das Problem ist und dies baldmöglichst beheben, zudem den betroffenen Kunden entsprechenden Support bieten.
Also bislang habe ich von zwei Fällen gelesen, bei denen Customs betroffen waren, einmal war es eine XFX Merc XTX, vorhin berichtete erst jemand über eine Power Color Red Devil XTX mit zu hohen Hotspot Temperaturen. Natürlich kann es sich hier um rein zufällige Defekte handeln, welche ja generell in der Massenproduktion immer mal wieder auftauchen.
es zählte einfach billig billig billig, hauptsache Preislich unter der 4080 liegen. Das AMD die GPUs nichtmal zurücknehmen will ist eine Frechheit. Es liegt bei den Modellen ein Fehler vor und die scheissen auf den Kunden... bei GPUs für weit über 1000€, das ist erbärmlich.
ChaosTM
2023-01-02, 01:15:27
Warum gibt es immer noch so viele sinnbefreite Fanboys auf dieser Welt.
Für mich das größte Rätsel ..
Warum tut man sich das selber an.. ;)
=Floi=
2023-01-02, 03:16:09
es zählte einfach billig billig billig, hauptsache Preislich unter der 4080 liegen. Das AMD die GPUs nichtmal zurücknehmen will ist eine Frechheit. Es liegt bei den Modellen ein Fehler vor und die scheissen auf den Kunden... bei GPUs für weit über 1000€, das ist erbärmlich.
wo gibt es denn keine RMA?
Die vapor chamber über die karte ist wahrscheinlich die teuerste lösung überhaupt. laber weniger mist.
Gott1337
2023-01-02, 05:33:20
wo gibt es denn keine RMA?
Die vapor chamber über die karte ist wahrscheinlich die teuerste lösung überhaupt. laber weniger mist.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/60063-hohes-temperatur-delta-nutzer-melden-temperaturprobleme-der-radeon-rx-7900-xt-x.html
und auf keinen Fall ist deren Lösung teurer als die FE 4080 Version
und ich sagte auch nix über die VC, ich sagte nur hauptsache billig, wenn da so geschludert wird dann sind die entweder unfähig oder es wurde hauptsache billig hergestellt. Da ist die Annahme wohl netter für AMD als zu sagen die können ja nicht mal GPUs zusammen basteln.
Aber anscheinend ist ja AMD wirklich unfähig, derBauer hat es sich ja angeguckt, Fehlkonstruktion yay.
https://www.tomshardware.com/news/defective-vapor-chamber-may-be-causing-rx-7900-xtx-overheating-issue
https://youtu.be/26Lxydc-3K8
Gott1337
2023-01-02, 05:33:52
Warum gibt es immer noch so viele sinnbefreite Fanboys auf dieser Welt.
Für mich das größte Rätsel ..
Warum tut man sich das selber an.. ;)
wenn du mich meinst biste einfach... das ist ein Fakt, muss man nur mal ein paar news lesen.
Vor allem da meine letzten 3 CPUs von AMD waren...
=Floi=
2023-01-02, 05:55:49
Aber anscheinend ist ja AMD wirklich unfähig, derBauer hat es sich ja angeguckt, Fehlkonstruktion yay.
https://www.tomshardware.com/news/defective-vapor-chamber-may-be-causing-rx-7900-xtx-overheating-issue
https://youtu.be/26Lxydc-3K8
"Wir sind uns bewusst, dass Nutzer in wenigen Einzelfällen eine unerwartete thermische Drosselung auf AMD Radeon RX 7900 XTX Grafikkarten (Referenzmodelle von AMD) feststellen. Nutzer, die eine unerwartete thermische Drosselung einer AMD Radeon RX 7900 XTX bemerken, sollten sich an den AMD Support wenden."
Das hat der produzent und nicht AMD verbockt. Fehler ist klar und die werden in RMA gehen.
Einfach mal ruhig bleiben.
OCmylife
2023-01-02, 07:30:32
Mich stört es einfach nur, dass AMD bei den ersten Fällen teilweise die RMA noch verweigert hat und erst jetzt wo die Öffentlichkeit aufmerksam geworden ist, nimmt man sich dem Problem an. Fehler passieren, gerade wenn man erst in kleiner Auflage produziert und testet, das ist klar. Das passiert Dir auch bei Produkten die noch deutlich teurer sind. Aber zuerst zu behaupten, dass 110°C doch normal wären und die RMA zu verweigern finde ich schon frech und da ist es egal, ob da eine Firma wie AMD, Intel oder Nvidia hinter steht.
dargo
2023-01-02, 09:38:02
Mich stört es einfach nur, dass AMD bei den ersten Fällen teilweise die RMA noch verweigert hat und erst jetzt wo die Öffentlichkeit aufmerksam geworden ist, nimmt man sich dem Problem an.
AMD hat keine RMA verweigert sondern Digital River. Das müssen die beiden einfach untereinander zufriedenstellend für die Kunden klären.
Redneck
2023-01-02, 10:51:30
der Kühler ist doch auf XT und XTX identisch, oder ? Wie können die Probleme da nur bei den XTX auftauchen ?? Macht irgendwie keinen Sinn.. Wird die XT generell weniger warm und das Problem tritt daher nicht auf und ist somit ein technisches Problem der XTX Ausbaustufe ?
Spannend...
Exxtreme
2023-01-02, 10:55:02
der Kühler ist doch auf XT und XTX identisch, oder ? Wie können die Probleme da nur bei den XTX auftauchen ?? Macht irgendwie keinen Sinn.. Wird die XT generell weniger warm und das Problem tritt daher nicht auf und ist somit ein technisches Problem der XTX Ausbaustufe ?
Spannend...
Die Kühler scheinen schon anders zu sein. Die XT ist um einiges kleiner und leichter. Igor von Igor's Lab meint aber, es gibt auch XT-Karten, die betroffen sind.
TheGood
2023-01-02, 10:55:05
der Kühler ist doch auf XT und XTX identisch, oder ? Wie können die Probleme da nur bei den XTX auftauchen ?? Macht irgendwie keinen Sinn.. Wird die XT generell weniger warm und das Problem tritt daher nicht auf und ist somit ein technisches Problem der XTX Ausbaustufe ?
Spannend...
Igro hatte ne 7900XT im Test welche auch auffällig war, wenn ich das noch Recht im Kopf hatte.
Redneck
2023-01-02, 10:56:21
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/60063-hohes-temperatur-delta-nutzer-melden-temperaturprobleme-der-radeon-rx-7900-xt-x.html
und auf keinen Fall ist deren Lösung teurer als die FE 4080 Version
und ich sagte auch nix über die VC, ich sagte nur hauptsache billig, wenn da so geschludert wird dann sind die entweder unfähig oder es wurde hauptsache billig hergestellt. Da ist die Annahme wohl netter für AMD als zu sagen die können ja nicht mal GPUs zusammen basteln.
Aber anscheinend ist ja AMD wirklich unfähig, derBauer hat es sich ja angeguckt, Fehlkonstruktion yay.
https://www.tomshardware.com/news/defective-vapor-chamber-may-be-causing-rx-7900-xtx-overheating-issue
https://youtu.be/26Lxydc-3K8
Mei o mei..
Hat AMD den Kühler selber konstruiert oder zugekauft ?
Bißchen genauer hinsehen tut manchmal gut bevor man seine "billig" Polemik
heraushaut.
AMD hat wohl zu schnell releasen wollen.. damit ist AMD nicht entschuldigt aber sowas kommt überall vor und man sollte einmal die Kirche im Dorf lassen.. Sofern AMD sich kundenfreundlich zeigt und den Schaden beseitigt wäre doch alles ok. Immer dieser Hate...
Redneck
2023-01-02, 10:58:40
Igro hatte ne 7900XT im Test welche auch auffällig war, wenn ich das noch Recht im Kopf hatte.
ah ok..
dann müssen sie den Fehler finden und betroffene Serien tauschen/wandeln.
Kostet Geld aber ist kein Weltuntergang (evtl. greift da sogar eine Versicherung und es ist viel BlaBla und es leidet "nur" das Image)
Taigatrommel
2023-01-02, 11:11:09
ah ok..
dann müssen sie den Fehler finden und betroffene Serien tauschen/wandeln.
Kostet Geld aber ist kein Weltuntergang (evtl. greift da sogar eine Versicherung und es ist viel BlaBla und es leidet "nur" das Image)
Zumindest im AMD Community Forum gab es vor über einer Woche ebenfalls eine Meldung, wonach eine XT mit über 100°C bei voller Lüfterdrehzahl lief, was natürlich ebenfalls auf einen Defekt hindeutet. Allerdings liest man bezüglich der XT tatsächlich so gut wie gar keine Meldungen - andererseits scheinen sich diese ja subjektiv auch deutlich weniger zu verkaufen.
wenn du mich meinst biste einfach... das ist ein Fakt, muss man nur mal ein paar news lesen.
Vor allem da meine letzten 3 CPUs von AMD waren...
Die redest von Fakten schwurbelst jedoch nur irgendwelche Andeutungen umher, die du irgendwo nebenher mal aufgeschnappt hast. Selbst im Video von Roman erklärt er es ausdrücklich, wenn man es sich mal anschauen und ihm zuhören würde, dann wüsste man das. Es handelt sich nicht zwingend um einen generellen Konstruktionsfehler, denn ansonsten wären alle Karten betroffen und es wäre bereits in den Reviews aufgefallen. Es sind jedoch nicht alle Karten betroffen, jene die funktionieren, funktionieren gut und unauffällig, da ist die Leistung des Kühlers, vor allem gemessen an der Größe, durchaus in Ordnung.
Die Vermutung geht hin zu teilweise defekten Vaporchambern, bzw. in die Richtung, als das die Konstruktion an sich sehr anspruchsvoll ist und womöglich deutlich anfälliger für Materialfehler ist.
Wie Dargo hier auch schon schrieb, liegt das Rückgabeproblem leider bei Digital River. Auf dem AMD Shop steht zwar überall groß AMD drauf, betrieben wird dies jedoch von Digital River, welche für Verkauf, Zahlungsabwicklung, Versand und letztlich auch Kundenservice zuständig sind. DR ist dafür bekannt, einen miserablen Service zu bieten. Wie Dargo schon schrieb, hier werden sich AMD und Digital River zusammensetzen müssen, um hier für betroffene Kunden ein möglichst unkompliziertes und schnelles Umtauschverfahren anzubieten.
OCmylife
2023-01-02, 12:33:26
Das wird dann aber auch auf den Webseiten falsch kommuniziert:
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/7900-XTX-AMD-RMA-abgelehnt-Hotsport-Temperatur-normal-1410279/
Gerade beim Kundenservice ging ich zumindest davon aus, dass sich AMD dort selbst drum kümmert. Und wenn Digital River so ein "Sauladen" ist, würde ich mir als Firma doch Gedanken machen, ob ich mir für die Abwicklungen nicht einen anderen Partner suche.
Wenn ich persönlich bei AMD, Intel oder Nvidia kaufe und so einen Service geboten bekomme, ist für mich die Firma gestorben und nicht die Firma welche die Ware evtl vertrieben hat und dann auch noch für den Support zuständig war.
Ah, ein Lebenszeichen bei Rocm:
https://github.com/RadeonOpenCompute/ROCm/issues/1880#issuecomment-1367508214
Zossel
2023-01-02, 13:08:10
AMD hat Kühler Probleme, bei NV brennen die Stecker.
Wer will so was eigentlich für diese Menge Kohle eigentlich kaufen?
Oder sollten die Hersteller ihre Produkte weitere 3 Monate anständig testen, anstatt einem ungeduldigen Mob im Internet nachzugeben?
Und mittlerweile sollte man mal ernsthaft über einen Anschluss für externe Grakas nachdenken, konzeptionell ist die Ausführung als Steckkarte mittlerweile grober Unsinn.
Thomas Gräf
2023-01-02, 13:28:37
Hmm, ich würd auf der Rückseite der Graka ein CPU Sockel verbauen.
Dann kommt zusammen was zusammen gehört. :biggrin:
Matrix316
2023-01-02, 13:29:53
AMD hat Kühler Probleme, bei NV brennen die Stecker.
Wer will so was eigentlich für diese Menge Kohle eigentlich kaufen?
Oder sollten die Hersteller ihre Produkte weitere 3 Monate anständig testen, anstatt einem ungeduldigen Mob im Internet nachzugeben?
Und mittlerweile sollte man mal ernsthaft über einen Anschluss für externe Grakas nachdenken, konzeptionell ist die Ausführung als Steckkarte mittlerweile grober Unsinn.
Gibt's doch: Thunderbolt über USB-C. :)
Dann brauchst du aber auch ein externes Netzteil wahrscheinlich. Wobei man das im externen Gehäuse mit einbauen kann. Oder gleich zusammen Netzteil + Graka als ein externes Gerät mit halt einem Kaltgerätestecker. :D :uponder:
Mortalvision
2023-01-02, 13:34:04
Uff, beim Namen Digital River ziehen sich bei mir die Fußnägel hoch :ufinger: Mit so einem Partner hat AMD alles falsch gemacht….
robbitop
2023-01-02, 15:39:19
Ich weiß nicht. Ein paar Wochen mehr Zeit und eine anständige Validierung dann wäre das vielleicht nicht passiert. Wenn man mit Partnern, egal wie gut die sind, zusammenarbeitet und einen reibungslosen Launch will, muss man alles strikt kontrollieren. Wenn am Ende dein Name draufsteht, nimmt dir am Ende niemand die Verantwortung dafür ab. So ist das nunmal.
Roman hat ja rausgefunden, dass es höchstwahrscheinlich ein Design issue der Vaporchamber ist. Entsprechend hätte man das mit einer rigorosen Erstmusterprüfung (ggf. sogar schon im design review) eigentlich aufdecken können.
[MK2]Mythos
2023-01-02, 16:17:17
Was ich bei der Problematik nicht so ganz verstehe, ist die Reaktion der GPU auf die offenbar fehlerhafte Vapor Chamber. Bei Karte B in der8auers Video (Zeitstempel ca 16:30)
Vor dem Drehen ist das Temperaturdelta ca 25k, nach dem Drehen, also mit Hotspot 110°C ist das Delta bei 42k!
Wieso erhöht sich hauptsächlich das Delta durch die versagende Vapor Chamber und wieso erhöht sich nicht die Temperatur des ganzen GPU Chips massiv?
Ich meine, wenn das Kühldesign im horizontalen Betrieb versagt, wieso erhöht das hauptsächlich das Temperaturdelta von GPU zu GPU Hotspottemp?
Tesseract
2023-01-02, 16:33:01
vapor chambers können lokal austrocknen wärend alles rundherum noch funktioniert.
ich empfehle dazu das video von GN (https://www.youtube.com/watch?v=g4lHgSMBf80) wo es um das FE-design geht, da werden viele proleme und designentscheidungen besprochen.
Taigatrommel
2023-01-02, 16:39:41
Roman hat ja rausgefunden, dass es höchstwahrscheinlich ein Design issue der Vaporchamber ist. Entsprechend hätte man das mit einer rigorosen Erstmusterprüfung (ggf. sogar schon im design review) eigentlich aufdecken können.
Naja, kurioserweise ist das Problem ja bei keinem einzigen Reviewsample aufgetreten, zumindest nicht das ich wüsste. Gleichzeitig sind ja bei weitem nicht alle Karten betroffen. Wenn es wirklich an der Vaporchamber liegt, dann sind womöglich eher einige Chargen davon fehlerhaft.
Gott1337
2023-01-02, 16:45:48
AMD hat keine RMA verweigert sondern Digital River. Das müssen die beiden einfach untereinander zufriedenstellend für die Kunden klären.
AMD hat Digital River engagiert die Arbeit von AMD zu übernehmen... wenn man also jemand dritten die Arbeit machen lässt, ist natürlich AMD verantwortlich. Darüber sind sich ALLE auf Reddit einig, aber natürlich hast du eine andere Meinung ;D
Hakim
2023-01-02, 16:46:27
Roman schien sich ja am Ende sehr sicher zu sein, ich meine ja er hat Praktisch alles andere ausgeschlossen, aber hätte er nur um ganz sicher zu gehen, 20-30 min noch irgendeinen einen Kühler drauf montieren können um 100% sicher zu sein? Aber schön zu sehen was er auf sich genommen hat und was für ein Aufwand er betrieben hat um die Fehlerquelle zu finden.
Mortalvision
2023-01-02, 16:48:59
Es färbt einfach auf AMD ab, wenn sie DR den Service machen lassen. Das wäre, wie wenn du einen Garantiefall für einen frisch sechsstelligen Mercedes über einen Dönerladen im Assiviertel deiner Stadt abwickeln lässt. Ja, so toll sind die Jungs…
davidzo
2023-01-02, 16:59:40
Seid ihr sicher dass es überhaupt DR ist (für die USA?) und nicht Moduslink in Europa?
Ich habe gerade ein Loan-Boot-Kit fürs Bios Update eines A320 boards bestellt und der Service war top. Antwort immer am selben Tag, sobald alle Dokumente da waren kam die CPU per Expresspaket über das Silvesterwochenende noch - aus den Niederlanden, von Moduslink.
Kann mich nicht beschweren.
robbitop
2023-01-02, 17:10:15
Naja, kurioserweise ist das Problem ja bei keinem einzigen Reviewsample aufgetreten, zumindest nicht das ich wüsste. Gleichzeitig sind ja bei weitem nicht alle Karten betroffen. Wenn es wirklich an der Vaporchamber liegt, dann sind womöglich eher einige Chargen davon fehlerhaft.
Schwer zu sagen, weil viele Redaktionen auf Benchtables testen. Da ist die Karte vertikal ausgerichtet. Da tritt der Fehler nicht auf.
Langlay
2023-01-02, 17:22:49
Seid ihr sicher dass es überhaupt DR ist (für die USA?) und nicht Moduslink in Europa?
DR macht es jedenfalls in Europa. Die Ref. 6800 von meiner Frau kam von Digital River aus Tilburg, NL.
Und ich hatte auch am Anfang nur von einem Ami gelesen das dort RMA abgelehnt wurde wegen den Temps, in der EU ist das wohl noch nicht vorgekommen. Verbraucherschutzgesetzte sind hier in der EU aber auch deutlich stärker als in den USA.
Noebbie
2023-01-02, 17:27:38
Im Reddit war die Tage zu lesen, dass bei einem DP Kabel von Dell ebenfalls der Hotspot auf 110°C hochgeht. Waren das nur Randerscheinungen weil viele beim Testen das Gehäuse zufällig auf die Seite gelegt haben, oder gibt's da auch noch ein Probelm am Displayport?
iamthebear
2023-01-02, 21:28:59
Das was nur geister Dünnpfiff. Da hatte jemand die Theorie, dass der Monitor Spannung an die GPU sendet und zwar so viel, dass sich der Die so stark aufheizt ;D
Aber das mit dem Umkippen des Gehäuse beim testen ist gut möglich. Wie man bei derb8uer gesehen hat ist das Problem ja deutlich geringer wenn man die Karten vertikal betreibt.
iamthebear
2023-01-02, 23:05:03
Naja, kurioserweise ist das Problem ja bei keinem einzigen Reviewsample aufgetreten, zumindest nicht das ich wüsste. Gleichzeitig sind ja bei weitem nicht alle Karten betroffen. Wenn es wirklich an der Vaporchamber liegt, dann sind womöglich eher einige Chargen davon fehlerhaft.
Wenn es vertikal einigermaßen funktioniert ist die Frage wer von den Reviewern denn das überhaupt mitbekommen hätte. Das fällt erst auf wenn die Karte in einem echten Rechner steckt und nicht nur alles am Benchmarktisch hingelegt wird.
Oder sollten die Hersteller ihre Produkte weitere 3 Monate anständig testen, anstatt einem ungeduldigen Mob im Internet nachzugeben?
Oh nein dann könnte ja was leaken wenn man seinen Partnern rechtzeitig Zugriff auf Testsamples gewähren würde. Hätte man den AIBs etwas Zeit gegeben, so hätte beim Herumspielen sicher jemand etwas festgestellt.
Spätestens wenn OEMs das erste echte Testsystem aufbauen würde das auffallen.
Nvidia hatte ja zum RTX 3080 Launch auch das Poscap Problem. Da war auch die Ursache des Problems, dass man den AIBs keine vollständigen Treiber gegeben hat und bei 3DMark Dauerlast fällt das halt nicht auf.
Und mittlerweile sollte man mal ernsthaft über einen Anschluss für externe Grakas nachdenken, konzeptionell ist die Ausführung als Steckkarte mittlerweile grober Unsinn.
Die Frage ist wie du dir das genau vorstellst. Mit 230V Stecker auf der GPU? Dann muss das gesamte Innenleben des Netzteils auf die GPU wandern. Nur GPUs tauscht man alle 3-4 Jahre, ein Netzteil alle 10-15.
Oder zweites Netzteil nur für die GPU? Wieso kann man bei einer 500W GPU nicht gleich den Rest des Systems mitversorgen.
Eigenes Gehäuse macht auch wenig Sinn. Die meisten Kunden wollen ihren PC schon in einem Gehäuse unterbringen.
Taigatrommel
2023-01-03, 00:07:45
Wenn es vertikal einigermaßen funktioniert ist die Frage wer von den Reviewern denn das überhaupt mitbekommen hätte. Das fällt erst auf wenn die Karte in einem echten Rechner steckt und nicht nur alles am Benchmarktisch hingelegt wird.
Es gibt ja einige Redaktionen, die ihre Testsysteme in richtigen Gehäusen verbaut haben und auch darin testen. Igor z.B. führt seine Tests so aus. Davon abgesehen sind eben nicht durch die Bank weg alle MBA Karten davon betroffen, meine Karte läuft vollkommen unauffällig und normal, die XTX von Horn 12 und Malajo ebenfalls. Anddill hatte zwar Temperaturprobleme, konnte diese jedoch meines Wissens nach selbst beheben, indem er die Schrauben des Kühlers nochmal nachgezogen hat. Die Karten von gbm31 und Ronson xs waren IIRC auch ok.
An kaputten Karten gab es bislang glaube ich zwei oder drei Fälle hier, was anteilsmäßig natürlich in diesem kleinen Pool groß ist. Dunkeltier hatte auf alle Fälle eine hitzige Karte, Mkh79 ebenfalls.
Taigatrommel
2023-01-03, 00:33:12
Igor hat wohl Vermutungen Seitens eines Kühlerherstellers, wonach eine Charge wohl zu wenig Flüssigkeit in der Vaporchamber hätte. Roman hat wohl ein weiteres Video zu dem Thema in Vorbereitung, welches morgen veröffentlicht wird und wohl neues Licht ins Dunkel bringen wird.
anddill
2023-01-03, 00:52:15
Wobei bei mir das Problem komischerweise erst auftrat als ich die Spannung etwas abgesenkt habe. Kann mir das nur so erklären daß durch den höheren Takt der Chip an einer einzelnen Stelle so heiß geworden ist daß es das Kühlsystem nicht mehr weggeschafft hat. Und ja, Schrauben anziehen hat bei meiner Karte geholfen. Wer weiß, vielleicht hat der Zwischenrahmen nicht richtig gesessen und hat verhindert daß der Kühler flach und fest saß.
Und ich bin ja nicht der einzige der Erfolg hatte mit Schrauben nachziehen. Das ist dann alles aber sicher ein ganz anderes Problem als die Sache mit der lageabhängigen Vapor-Chamber.
Wobei es schon blöd ist, daß man nicht weiß ob die auffälligen Karten wirklich grob kaputt sind, oder ob da bloß eine etwas größere Abweichung vom Normwert vorliegt, die das Kühlsystem dann über die Klippe schubst. Letzteres wäre echt blöd, denn dann besteht immer die Gefahr daß auch die aktuell funktionierenden Karten bzw. deren Kühler irgendwann "kippen".
horn 12
2023-01-03, 03:29:01
Hattest zuerst eine komplett funktionierende Karte,
oder wurde deine schon gleich zu warm
Meine hat ein Delta von ca. 15 bis 18
GPU um die 72 - 74 und Hotspot maximal 89 bis 91 Grad heiss
Problem in Zukunft ?
Würde und werde ungern Retournieren.
Mit Untervolting @1100 mV sind dann wohl immer knapp unter 90 Grad beim Hotspot.
PS:
Wann hst du beim AMD Shop bestellt, ich am 15-ten Dezember mit Lieferung nach Italien am 24-ten Dezember (War 3 Tage in Verona lagernd bei DHL)
=Floi=
2023-01-03, 04:21:07
Naja, kurioserweise ist das Problem ja bei keinem einzigen Reviewsample aufgetreten, zumindest nicht das ich wüsste.
Vorserien und prototypen werden ganz anders gefertigt und kontrolliert. Dort liegt man eher bei 100% kontrolle jedes einzelönen bauteils. Nicht umsonst sind die kosten dort so viel höher.
Bei der serienfertigung tritt dann irgendein fehler auf der diese probleme mit der chamber verursacht.
Wobei es schon blöd ist, daß man nicht weiß ob die auffälligen Karten wirklich grob kaputt sind, oder ob da bloß eine etwas größere Abweichung vom Normwert vorliegt, die das Kühlsystem dann über die Klippe schubst. Letzteres wäre echt blöd, denn dann besteht immer die Gefahr daß auch die aktuell funktionierenden Karten bzw. deren Kühler irgendwann "kippen".
es ist nicht die temp, sondern die drehzahl des lüfters!
Leute, wenn die karte über 2500 1/min geht ist sie defekt. Bei 1500-1200 sollte alles ok sein.
Zossel
2023-01-03, 07:43:59
Die Frage ist wie du dir das genau vorstellst. Mit 230V Stecker auf der GPU?
Was den sonst, oder willst du dieses halbgare und teure Gefrickel und Gebastel noch weiter treiben?
Oh nein dann könnte ja was leaken wenn man seinen Partnern rechtzeitig Zugriff auf Testsamples gewähren würde. Hätte man den AIBs etwas Zeit gegeben, so hätte beim Herumspielen sicher jemand etwas festgestellt.
Spätestens wenn OEMs das erste echte Testsystem aufbauen würde das auffallen.
Kaspertheater oder halbwegs funktionierende HW?
mksn7
2023-01-03, 14:59:36
Vermutungen über brachliegende Chancen für dual issue wegen noch nicht so guter Compiler müssten sich doch eigentlich überprüfen lassen. Mittels profiler müsste man doch feststellen ob a) der 64 wide mode verwendet wird oder b) wieviele VOPD instructions dabei sind. Das müsste eigentlich auch gehen ohne die hardware zu haben.
Ich hab mal im Compiler Explorer rumgespielt. Ist zwar HIP und kein GLSL/HLSL, aber ich habe beispielhaft die Multiplikation eines fp32 RGBA Bildes mit dem Faktor 1.2 implementiert.
array[y*1024 + x] = array[y*1024 + x ] * 1.2;
Hier im Link sieht man rechts den disassembly oben für gfx1100 (RDNA3) und unten für GFX1030 (RDNA2).
https://godbolt.org/z/4arxr7Wv1
Da werden oben zwei "v_dual_mul_f32" instructions (ganz am Ende des Programs, direkt vor dem "global_store") statt vier "v_mul_f32_e32" erzeugt, wenn der wave32 mode eingestellt ist.
Wenn statt mit 1.4 mit einer anderen Konstanten pro Kanal multipliziert wird, wie in
array[y*1024 + x] = array[y*1024 + x ] * float4(1.2, 0.9, 2.2, 1.2);
dann fasst der compiler die beiden Multiplikationen mit 1.2 in ein dual_mul zusammen, und macht die anderen beiden Kanäle mit normalen Multiplikationen. Auf der einen Seite musste ich schon eine Weile lang rumprobieren um mal eine dual instruction zu bekommen, andererseits ist der compiler schlau genug um auch solche weniger offensichtlichen Möglichkeiten zu nutzen. Ein postprocessing shader wie der hier würde aber sowieso einfach im wave64 Modus laufen. Es würden aber wohl nicht alle Instruktionen mit doppeltem Durchsatz laufen, wenn die Registerbandbreite nicht ausreicht.
Edit: Ach ja, was man auch schön sieht, sind die "s_delay_alu" control codes die bei RDNA3 im instruction stream mit enthalten sind, und die Abhängikeiten encodiert. Ganz verstanden hab ich das Format aber noch nicht.
Igor hat wohl Vermutungen Seitens eines Kühlerherstellers, wonach eine Charge wohl zu wenig Flüssigkeit in der Vaporchamber hätte. Roman hat wohl ein weiteres Video zu dem Thema in Vorbereitung, welches morgen veröffentlicht wird und wohl neues Licht ins Dunkel bringen wird.
ich vermute, das hier:
W2clMKAxL1c
robbitop
2023-01-03, 15:12:55
Ich hab mal im Compiler Explorer rumgespielt. Ist zwar HIP und kein GLSL/HLSL, aber ich habe beispielhaft die Multiplikation eines fp32 RGBA Bildes mit dem Faktor 1.2 implementiert.
array[y*1024 + x] = array[y*1024 + x ] * 1.2;
Hier im Link sieht man rechts den disassembly oben für gfx1100 (RDNA3) und unten für GFX1030 (RDNA2).
https://godbolt.org/z/4arxr7Wv1
Da werden oben zwei "v_dual_mul_f32" instructions (ganz am Ende des Programs, direkt vor dem "global_store") statt vier "v_mul_f32_e32" erzeugt, wenn der wave32 mode eingestellt ist.
Wenn statt mit 1.4 mit einer anderen Konstanten pro Kanal multipliziert wird, wie in
array[y*1024 + x] = array[y*1024 + x ] * float4(1.2, 0.9, 2.2, 1.2);
dann fasst der compiler die beiden Multiplikationen mit 1.2 in ein dual_mul zusammen, und macht die anderen beiden Kanäle mit normalen Multiplikationen. Auf der einen Seite musste ich schon eine Weile lang rumprobieren um mal eine dual instruction zu bekommen, andererseits ist der compiler schlau genug um auch solche weniger offensichtlichen Möglichkeiten zu nutzen. Ein postprocessing shader wie der hier würde aber sowieso einfach im wave64 Modus laufen. Es würden aber wohl nicht alle Instruktionen mit doppeltem Durchsatz laufen, wenn die Registerbandbreite nicht ausreicht.
Edit: Ach ja, was man auch schön sieht, sind die "s_delay_alu" control codes die bei RDNA3 im instruction stream mit enthalten sind, und die Abhängikeiten encodiert. Ganz verstanden hab ich das Format aber noch nicht.
Register pro CU wurden ja ver-1,5-facht. Also ist (du musstest ja länger rumprobieren um ein dual-issue hinzubekommen) sicherlich noch Potenzial da im Shadercompiler nach deiner Beobachtung? (für wave32)
Taigatrommel
2023-01-03, 15:44:57
ich vermute, das hier:
https://youtu.be/W2clMKAxL1c
Ja, auch wenn es leider doch nicht wirklich neue Erkenntnisse brachte. Ich denke man wird sich weiter gedulden müssen, bis Informationen durchsickern. Es bleibt ja auch abzuwarten, wie offen AMD mit der Problematik umgehen wird.
OpenVMSwartoll
2023-01-03, 18:33:10
Ja, auch wenn es leider doch nicht wirklich neue Erkenntnisse brachte. Ich denke man wird sich weiter gedulden müssen, bis Informationen durchsickern. Es bleibt ja auch abzuwarten, wie offen AMD mit der Problematik umgehen wird.
Den Kunden wird angeboten, den Kaufpreis zurückzuerhalten oder eine Austauschkarte, was zwei Wochen dauern kann.
Und die neue Erkenntnis liegt darin, wo Sintermetall vorhanden ist.
Taigatrommel
2023-01-03, 18:49:14
Meine hat ein Delta von ca. 15 bis 18
GPU um die 72 - 74 und Hotspot maximal 89 bis 91 Grad heiss
Problem in Zukunft ?
Würde und werde ungern Retournieren.
Mit Untervolting @1100 mV sind dann wohl immer knapp unter 90 Grad beim Hotspot.
Horn ich glaube das Problem bei deiner Karte wird man eher bei deinem Gehäuse suchen müssen. Du hast ja bereits erwähnt, dass es irgendwo in einem Schreibtischschacht verbaut ist, vermutlich wird dort die Luftzirkulation nicht sonderlich gut sein, dazu weiß ich nicht, wie gut der Airflow in dem von dir verwendetem Gehäuse generell ist. Wenn der bereits mittelmäßig ist und nun noch dazu räumliche Einschränkungen dazukommen, dann brauchst du dich über diese Temperaturwerte nicht wundern. Wäre deine Karte wirklich betroffen, würdest du doch vermutlich ebenfalls schon volle Lüftergeschwindigkeit bei >100°C Hotspot gesehen haben.
Den Kunden wird angeboten, den Kaufpreis zurückzuerhalten oder eine Austauschkarte, was zwei Wochen dauern kann.
Und die neue Erkenntnis liegt darin, wo Sintermetall vorhanden ist.
Da nicht gesichert ist, ob das Austauschprodukt i.O. ist, auf jeden Fall Geld zurück, wenn möglich. Von dem erstatteten Kaufpreis eine Custom kaufen und fertig.
OpenVMSwartoll
2023-01-03, 20:01:14
Da nicht gesichert ist, ob das Austauschprodukt i.O. ist, auf jeden Fall Geld zurück, wenn möglich. Von dem erstatteten Kaufpreis eine Custom kaufen und fertig.
Bei der auch nicht gesichert ist, ob Monk die Qualitätssicherung gemacht hat? 🤣
Glaub mir, der Zulieferer wird keinen schönen Tag haben. Aber weil vermeintlich eine Charge ein Problem hat, das Produkt zu verteufeln, scheint nicht angemessen.
DrFreaK666
2023-01-03, 21:30:53
Welche Software nutzt man am besten um UV zu testen?
dargo
2023-01-04, 07:54:12
Die, die man normalerweise verwendet? :freak:
Horn ich glaube das Problem bei deiner Karte wird man eher bei deinem Gehäuse suchen müssen. Du hast ja bereits erwähnt, dass es irgendwo in einem Schreibtischschacht verbaut ist, vermutlich wird dort die Luftzirkulation nicht sonderlich gut sein, dazu weiß ich nicht, wie gut der Airflow in dem von dir verwendetem Gehäuse generell ist. Wenn der bereits mittelmäßig ist und nun noch dazu räumliche Einschränkungen dazukommen, dann brauchst du dich über diese Temperaturwerte nicht wundern. Wäre deine Karte wirklich betroffen, würdest du doch vermutlich ebenfalls schon volle Lüftergeschwindigkeit bei >100°C Hotspot gesehen haben.
Richtig... wenn Horni nur ein Delta von 15-18°C hat kann ja nicht die VC defekt sein. Der "bastelt" sein Gehäuse in ein Schreibtisch und wundert sich dann über allgemein höhere Temps. als bei anderen Usern? Was soll man dazu noch sagen? :freak: Das sind halt >300W die da abgeführt werden müssen.
horn 12
2023-01-04, 09:13:56
Ja, dies stimmt sicherlich!
Das der 12.12.2 Treiber aber komplett Buggy ist stimmt aber auch.
Im AMD Controll Center kann man nix angreifen, da düst der Lüfter schon los und die Temperaturen erreichen gar 98+ Hotspot, die GPU Taktet aber auch dafür fast mit 2,85 Ghz.
Wo sonst mit dem Aktiven der Tuning Steuerung - Energiesenkung (1125 mV)
alles normal läuft und der Takt bei 2650 Mhz sich bewegt.
Taigatrommel
2023-01-04, 10:33:14
Ja, dies stimmt sicherlich!
Das der 12.12.2 Treiber aber komplett Buggy ist stimmt aber auch.
Im AMD Controll Center kann man nix angreifen, da düst der Lüfter schon los und die Temperaturen erreichen gar 98+ Hotspot, die GPU Taktet aber auch dafür fast mit 2,85 Ghz.
Wo sonst mit dem Aktiven der Tuning Steuerung - Energiesenkung (1125 mV)
alles normal läuft und der Takt bei 2650 Mhz sich bewegt.
Das dort einiges verbuggt ist, stimmt natürlich. Meiner Erfahrung nach wird die manuelle Lüftersteuerung aktiviert, sobald du dort in der Leistungskonfiguration irgendeine Option aktivierst, sprich du musst die Lüfter dann selbst einstellen, so ca. 60% entsprechen grob dem, was bei mir auf Stock so läuft. Sprich schau einfach mal in den Bereich der Lüftersteuerung und suche dir da einen passenden Wert aus.
Allerdings schießen bei mir die Temperaturen nicht hoch, im Gegenteil, wenn ein Benchmark oder ein Titel dann doch mal 20 Minuten ohne Absturz bzw. eher Treiber Timeout durchhält, dann habe ich höhere Taktraten und einen geringfügig niedrigeren Hotspot als mit den Standardeinstellungen.
OgrEGT
2023-01-04, 19:14:47
Heute Nacht 3:30am AMD Präsentation auf der CES?
Bin mal gespannt obs Infos zu den anderen N3x GPUs gibt...
MSABK
2023-01-04, 19:34:01
Heute Nacht 3:30am AMD Präsentation auf der CES?
Bin mal gespannt obs Infos zu den anderen N3x GPUs gibt...
Ich fürchte nur Zen Mobile und teaser auf Zen4 3d. Cool wäre natürlich der RX6700 Nachfolger.
w0mbat
2023-01-04, 19:38:12
Wir werden ziemlich sicher die 65W Zen4 CPUs sehen (7900, 7700, 7600), dann Phoenix und/oder Dragon Range, RDNA3 mobile vielleicht und mit etwas Glück einen Zen4 X3D teaser.
prinz_valium_2
2023-01-04, 19:49:57
Von AMD wird nur Ryzen 7000 mit 3D Cache erwartet, oder auch kleine 7000er GPUs?
Das ist die letzte Bastion Hoffnung
OgrEGT
2023-01-04, 22:23:35
Nach dem eher durchwachsenen Launch der 7900xt/x nicht zuletzt durch die negativen Schlagzeilen zur VC wäre dies eine Chance ein wenig mehr positiven Ausblick auf Kommendes zu geben auch im GPU Bereich...
DrFreaK666
2023-01-05, 07:29:06
Leider kein Wort bei der CES zu kleineren Modellen. Schade
dildo4u
2023-01-05, 08:20:31
Denke mal die kommen auch für Desktop.
https://www.computerbase.de/2023-01/radeon-rx-7000-mobile-amd-navi-33-feiert-als-rx-7600m-s-xt-und-7700s-premiere/
AMD beschränkt sich erstmal auf Mobile 4060? Gegner.
Auch 8GB 120 Watt.
https://www.notebookcheck.com/NVIDIA-GeForce-RTX-4060-Laptop-GPU-Benchmarks-und-Spezifikationen.675691.0.html
davidzo
2023-01-05, 08:29:52
WTF, AMD gibt 32 Tflops an für einen mobile Chip mit nur 32CU?
Dann müssten die Shader ja mit 3,9Ghz laufen :eek:
2048*4*3900= 31.948
Und das mit nur 75-100W in 6nm. Dann wäre navi31 ja sowas von der Griff ins Klo gewesen gegenüber einem monolitischen Design...
EDIT: ich nehme mal an es handelt sich um einen Schreibfehler und es sind FP16 Tflops gemeint. Die FP32 Tflops wären dann genau halb soviele und die Taktraten mit 1950mhz im erwartbaren Rahmen für einen mobile chip in 6nm. Das passt auch eher zur Leistung die AMD im vergleich zu navi23 zeigt.
dildo4u
2023-01-05, 08:34:46
Da sind Benche dabei nicht nur auf die Spec gucken sondern was dabei rauskommt nämlich nix.
amdfanuwe
2023-01-05, 08:44:01
EDIT: ich nehme mal an es handelt sich um einen Schreibfehler und es sind FP16 Tflops gemeint. Die FP32 Tflops wären dann genau halb soviele und die Taktraten mit 1950mhz im erwartbaren Rahmen für einen mobile chip in 6nm. Das passt auch eher zur Leistung die AMD im vergleich zu navi23 zeigt.
denk ich auch.
Hier die Spezifikationen von AMD
https://www.amd.com/de/products/specifications/graphics
7600M XT
Max. Leistung mit halber Genauigkeit (FP16):42.8 TFLOPs
Max. Leistung mit einfacher Genauigkeit (FP32):21.4 TFLOPs
Die anderen kann jeder selbst nachschauen.
dildo4u
2023-01-05, 08:46:17
Und Gameclock 2.3Ghz mal sehen was Dektop bringt.
robbitop
2023-01-05, 09:07:11
Also zumindest ist es schonmal interessant, dass N33 mit 14% weniger Fläche als N23 die neuen RDNA3 CUs (dual issue, mehr Register, größere Caches, besseres RT, schnellere Matrixfähigkeiten etc) verbauen konnte ohne IF$ oder CUs als solche opfern zu müssen. 6 nm bringt einen kleinen Dichtesprung ggü 7 nm - aber ob das reicht, die 14% Chipflächenreduktion zu kompensieren?
Hier sieht RDNA3 irgendwie deutlich schlanker aus. Mit vergleichbarem Transistorbudget, kaum besserem node und vergleichbarem TDP Budget gute 20% mehr Performance.
N31 brauchte CU normiert >80% mehr Transistoren als N21. Wo sind denn da die ganzen Transistoren hin? (klar ein Teil für die Kommunikation zwischen den Chiplets und 50% breiteres SI - aber das wird nicht alles sein)
N33 sieht für mich pro Transistor relativ effizient aus.
OgrEGT
2023-01-05, 09:31:35
Also zumindest ist es schonmal interessant, dass N33 mit 14% weniger Fläche als N23 die neuen RDNA3 CUs (dual issue, mehr Register, größere Caches, besseres RT, schnellere Matrixfähigkeiten etc) verbauen konnte ohne IF$ oder CUs als solche opfern zu müssen. 6 nm bringt einen kleinen Dichtesprung ggü 7 nm - aber ob das reicht, die 14% Chipflächenreduktion zu kompensieren?
Hier sieht RDNA3 irgendwie deutlich schlanker aus. Mit vergleichbarem Transistorbudget, kaum besserem node und vergleichbarem TDP Budget gute 20% mehr Performance.
N31 brauchte CU normiert >80% mehr Transistoren als N21. Wo sind denn da die ganzen Transistoren hin? (klar ein Teil für die Kommunikation zwischen den Chiplets und 50% breiteres SI - aber das wird nicht alles sein)
N33 sieht für mich pro Transistor relativ effizient aus.
Wenn N31 mit viel mehr Takt geplant war könnte ein großer Anteil der Mehr-Transistorem dafür vorgesehen worden sein... was wiederum für den ominösen Hardware Bug sprechen würde der den Takt anderweitig bremst...
Locuza
2023-01-05, 09:35:56
@ robbitop
N33 und Phoenix haben keine größeren Vektor-Register, es bleibt bei 128 KB pro SIMD-Unit, während N31&N32 auf 192 KB setzen.
Das PS5 SoC ist von grob 300 mm² (7 nm) auf ~260 mm² (6 nm) geschrumpft.
Nichtsdestotrotz sollte RDNA3 gut bei MTr/mm² dastehen, das war einer der Designziele, neben hohen Taktraten die man nicht erreicht hat.
Ein N31 WGP (2 CUs) hat 54% mehr Transistoren, als ein N21 WGP, 331 Millionen vs. 215 Millionen.
Hier weiß man dann "genau" was größere Vektor-Register und Dual-Issue kosten, neben den anderen Features.
Wenn man den ganzen Chip betrachtet, dann muss man sich Gedanken über die Shader Engines machen, L2$-Größe, wie sehr die Display und Media-Engines verändert worden sind, diese nehmen auch ordentlich die-space ein und verwenden viel SRAM.
TheGood
2023-01-05, 09:38:05
Also zumindest ist es schonmal interessant, dass N33 mit 14% weniger Fläche als N23 die neuen RDNA3 CUs (dual issue, mehr Register, größere Caches, besseres RT, schnellere Matrixfähigkeiten etc) verbauen konnte ohne IF$ oder CUs als solche opfern zu müssen. 6 nm bringt einen kleinen Dichtesprung ggü 7 nm - aber ob das reicht, die 14% Chipflächenreduktion zu kompensieren?
Hier sieht RDNA3 irgendwie deutlich schlanker aus. Mit vergleichbarem Transistorbudget, kaum besserem node und vergleichbarem TDP Budget gute 20% mehr Performance.
N31 brauchte CU normiert >80% mehr Transistoren als N21. Wo sind denn da die ganzen Transistoren hin? (klar ein Teil für die Kommunikation zwischen den Chiplets und 50% breiteres SI - aber das wird nicht alles sein)
N33 sieht für mich pro Transistor relativ effizient aus.
Kann man denn aus der Leistungssteigerung im Mobile Segment irgendwas für den Desktop ableiten?
Auf jedenfall sieht es für mich nicht nach einem 6900XT Killer aus :D
dildo4u
2023-01-05, 09:39:19
Kann man denn aus der Leistungssteigerung im Mobile Segment irgendwas für den Desktop ableiten?
Auf jedenfall sieht es für mich nicht nach einem 6900XT Killer aus :D
Die 8GB Karte ist Navi 33 und ersetzt 6600XT, Navi32 wird 16GB haben die finalen Specs sind noch nicht bekannt.
robbitop
2023-01-05, 10:04:04
Wenn N31 mit viel mehr Takt geplant war könnte ein großer Anteil der Mehr-Transistorem dafür vorgesehen worden sein... was wiederum für den ominösen Hardware Bug sprechen würde der den Takt anderweitig bremst...
Den Gedanken hatte ich vorhin auch - ja. Wenn das Ding mit 3,5 GHz bei gleicher TDP gelaufen wäre, hätte sich wahrscheinlich niemand beschwert. N32 wird ggf weitere Rückschlüsse zulassen.
Erinnert mich ein wenig an Vega10. Da wurden auch Transistoren für Mehrtakt investiert und zumindest in 14 nm hat das nie viel gegenüber Polaris gebracht bei vernünftiger TDP (IIRC).
Wenn das mit dem Takt einer der Hauptgründe ist, ist N33 offenbar eher auf Fläche als auf Takt konfiguriert worden. Was heißt, dass die physische Implementierung deutlich anders ist als bei N31. Da muss man sich ja richtig Gedanken machen wie man das umsetzt - einfach nur Transistoren reinkippen ist nicht. :D
dargo
2023-01-05, 10:08:42
Wenn N31 mit viel mehr Takt geplant war könnte ein großer Anteil der Mehr-Transistorem dafür vorgesehen worden sein... was wiederum für den ominösen Hardware Bug sprechen würde der den Takt anderweitig bremst...
Bei N31 bremst "nur" das Powerlimit. Hohen Takt macht N31 problemlos mit, säuft nur viel zu viel dann.
Den Gedanken hatte ich vorhin auch - ja. Wenn das Ding mit 3,5 GHz bei gleicher TDP gelaufen wäre, hätte sich wahrscheinlich niemand beschwert.
Jepp... so sehe ich das auch. Vielleicht ist doch was dran an diesem ominösen Bug im Design und mit der zweiten Taktdomain hat AMD das noch einigermaßen versucht zu retten. Ach... wann kommt endlich N32 raus um mehr Klarheit zu bekommen? :D
robbitop
2023-01-05, 10:10:06
@ robbitop
N33 und Phoenix haben keine größeren Vektor-Register, es bleibt bei 128 KB pro SIMD-Unit, während N31&N32 auf 192 KB setzen.
Oh ok dann liegt natürlich weniger Potenzial für Dual issue vor.
Das PS5 SoC ist von grob 300 mm² (7 nm) auf ~260 mm² (6 nm) geschrumpft.
Das kompensiert ziemlich exakt das Größendelta zwischen N23 und N33. Also wird die Transistorzahl sehr ähnlich sein.
Nichtsdestotrotz sollte RDNA3 gut bei MTr/mm² dastehen, das war einer der Designziele, neben hohen Taktraten die man nicht erreicht hat.
Ja das ist schon sehr interessant, weil es bedeutet, dass das Spektrum in der physischen Implementierung des Designs ungewöhnlich groß ist, oder?
Ein N31 WGP (2 CUs) hat 54% mehr Transistoren, als ein N21 WGP, 331 Millionen vs. 215 Millionen.
Hier weiß man dann "genau" was größere Vektor-Register und Dual-Issue kosten, neben den anderen Features.
Wenn man den ganzen Chip betrachtet, dann muss man sich Gedanken über die Shader Engines machen, L2$-Größe, wie sehr die Display und Media-Engines verändert worden sind, diese nehmen auch ordentlich die-space ein und verwenden viel SRAM.
54% mehr sind schon eine Hausnummer. N33 sieht ja eher so aus als wären sie auf dem gleichen Level. Klar die Registervergrößerung ist nicht vorhanden.
Hast du eine Ahnung wie es mit den anderen Cachestufen aussieht? Da hat man bei N31 ja wirklich in jeder Cachestufe bis L2 ordentlich aufgekohlt.
robbitop
2023-01-05, 10:11:07
Kann man denn aus der Leistungssteigerung im Mobile Segment irgendwas für den Desktop ableiten?
Auf jedenfall sieht es für mich nicht nach einem 6900XT Killer aus :D
Das Ding hat 32 CUs. :) Es wird die 6600 ersetzen. Also im Desktop eine 7600 werden. N32 wird dann die Lücke zwischen N33 und der N31 füllen.
TheGood
2023-01-05, 10:12:08
Die 8GB Karte ist Navi 33 und ersetzt 6600XT, Navi32 wird 16GB haben die finalen Specs sind noch nicht bekannt.
So sieht es aus, ist aber nicht das was die Gerüchte mal gesagt haben.
Aktuell sieht es mir nicht danach aus dass der N33 soviel besser performnt als Navi 31. Ist natürlich auch schwer zu sagen, aber im Mobile bereich "auch nur" max 30% steigerung ist jetzt nicht so prickelnd. Immerhin bei fast gleicher TDP, aber mit mehr CUs. WEnn man den Vergleich zu 6600 mobile ansieht.
w0mbat
2023-01-05, 10:12:26
N31 brauchte CU normiert >80% mehr Transistoren als N21. Wo sind denn da die ganzen Transistoren hin? (klar ein Teil für die Kommunikation zwischen den Chiplets und 50% breiteres SI - aber das wird nicht alles sein)
Neue AI-cores & verbesserte RT-cores
robbitop
2023-01-05, 10:13:37
Neue AI-cores & verbesserte RT-cores
Ja aber das hat N33 auch - würde ich zumindest davon ausgehen da auch RDNA3. Und da sind die CUs offenbar quasi gleich groß.
Locuza sagte, dass die Registervergrößerung von RDNA3 nicht mitgenommen wurde in N33.
Locuza
2023-01-05, 10:42:24
[1] Ja das ist schon sehr interessant, weil es bedeutet, dass das Spektrum in der physischen Implementierung des Designs ungewöhnlich groß ist, oder?
[2] Hast du eine Ahnung wie es mit den anderen Cachestufen aussieht? Da hat man bei N31 ja wirklich in jeder Cachestufe bis L2 ordentlich aufgekohlt.
1.) Auf Basis der Spannungs/Frequenzkurve von N31 kann man wohl durchaus sagen, dass da ein Wurm bei der Umsetzung existiert.
Ab ~2.4 GHz steigt die nötige Spannung stark an, wobei man die Taktfrequenzen bis über 3 GHz pushen kann.
Normalerweise verlaufen die Kurven flacher und am Ende spiked es ziemlich stark.
Jetzt wird N33 in 6 nm produziert, eine Prozess der andere Designrules hat und eine andere physische Implementierung voraussetzt, die "Probleme" scheinen aber ähnlich zu sein, auch dieser Part scheint weit entfernt von den ursprünglichen Zielsetzungen zu sein.
Wenn es Desktop N33 SKUs gibt und man sich dort die V/F-Curve anschaut, auch vs. N23, dann wird man vermutlich etwas schlauer.
Auch wenn N32 dann letztendlich erscheint oder gar der angebliche Respin von N31, wo der Flaschenhals deutlich gelöst wird.
2.) Der Rest ist gleich, 32 KB L0$, 256 KB L1$ pro Shader Engine und insgesamt 512 KB L2$ pro 32b Kanal.
https://twitter.com/Kepler_L2/status/1565627241937108992
(GC11_0_0 = N31, GC11_0_1 = PHX, GC11_0_2 und GC11_0_3 sind dann N32 und N33 zugeordnet, wobei ich nicht weiß, welcher genau welche Version hat)
https://lists.freedesktop.org/archives/amd-gfx/2022-September/083698.html
robbitop
2023-01-05, 10:44:37
Bei einer so drastisch anderen Implementierung (N33 vs N31) würde ich vermuten, dass es relativ unwahrscheinlich ist, dass der gleiche "Wurm" drin ist, oder? :)
Locuza
2023-01-05, 11:36:49
Bei einer so drastisch anderen Implementierung (N33 vs N31) würde ich vermuten, dass es relativ unwahrscheinlich ist, dass der gleiche "Wurm" drin ist, oder? :)
Solange man nicht eindeutig die Fakten kennt, bleibt theoretisch genug Spekulationsraum übrig, um es auf unterschiedliche Weise zu sehen.
Zum einen die Variante, dass die 6 nm Umsetzung unabhängig von der 5 nm Implementierung sein sollte und man entsprechend extrahieren kann, ob signifikante PhyDes-Probleme vorliegen oder nicht.
Oder man nimmt an, dass AMD eine relativ allgemeine Umsetzung des Designs im Kopf hatte und dann analog die Toleranzen für X in 5 nm und 6 nm eingestellt hat, was aber letztendlich zum "gleichen" Problem geführt hat, da allgemein zu optimistisch eingeschätzt.
davidzo
2023-01-05, 11:46:03
Die Vorstellung wirkt irgendwie mit der heißen Nadel gestrickt bei AMD diesmal. Dabei hatte man doch eigentlich reichlich Zeit nach navi2x?
- Die Fehler in der Navi33 Folie wo von 32Tflops FP32 die Rede ist, was mit 32CU niemals hinkommt.
- Dazu hat man Folien bei der X3D Präsentation gestrichen, z.B. die mit dem 13900K Vergleich. Die Fußnoten sind auch noch nicht veröffentlicht.
- Wirkt alles so als wenn finale Samples noch nicht sehr lange im Umlauf sind bei AMD und die Mitarbeiter teilweise selber nicht wissen wie es um das eigene Produkt steht.
- Dazu passt auch das Fettnäpfchen in das die AMD Marketingabteilung getreten ist bei der Lovelace Vorstellung wo man suggerierte N31 wird ein neuer Effizienzkönig.
MSABK
2023-01-05, 12:07:30
Die Vorstellung wirkt irgendwie mit der heißen Nadel gestrickt bei AMD diesmal. Dabei hatte man doch eigentlich reichlich Zeit nach navi2x?
- Die Fehler in der Navi33 Folie wo von 32Tflops FP32 die Rede ist, was mit 32CU niemals hinkommt.
- Dazu hat man Folien bei der X3D Präsentation gestrichen, z.B. die mit dem 13900K Vergleich. Die Fußnoten sind auch noch nicht veröffentlicht.
- Wirkt alles so als wenn finale Samples noch nicht sehr lange im Umlauf sind bei AMD und die Mitarbeiter teilweise selber nicht wissen wie es um das eigene Produkt steht.
- Dazu passt auch das Fettnäpfchen in das die AMD Marketingabteilung getreten ist bei der Lovelace Vorstellung wo man suggerierte N31 wird ein neuer Effizienzkönig.
Ich denke 3d war eher für April geplant und man ist wegen der schlechten Verkaufszahlen unter Druck. Intel holt aktuell massiv auf und der 5800x3d wird da nicht lange gegenhalten können. Deswegen alles vorgezogeny meine 2 cents.
Edit: Wenn N33 mobil 2,3Ghz hat, was meint ihr, Desktop 3,3Ghz mindestens?
Nein, der hat im Desktop dann vllt. ~2,8GHz. Ist eben nur N6.
Irgendwie ist das Ding wenig berühmt. Gut, die Powereffizienz ist ganz ok. Es ist aber kein Wunder, dass die das Ding nur mobil bringen, zum N23 im Desktop ist das sicherlich wenig Upgrade. Man würde im Desktop auf dem 6700-Spot landen oder? Für 6700XT wird schon knapp... man wollte offensichtlich einen möglichst billig zu produzierenden Mobilchip haben.
robbitop
2023-01-05, 14:09:55
Meinste nicht, dass N33 noch für Desktop kommt? Man will ja sicherlich das 7000 Linup irgendwann komplettieren.
dildo4u
2023-01-05, 14:12:29
Gegen 300€+ 4050 sollte sieh ok sein NV versucht dort gar nicht zu Konkurrieren.
MSABK
2023-01-05, 14:12:45
Muss ja kommen oder? Der RX6600 kriegt sicher einen Nachfolger.
mczak
2023-01-05, 20:05:24
Muss ja kommen oder? Der RX6600 kriegt sicher einen Nachfolger.
Kommt sicher irgendwann fragt sich halt wann. Man muss auch sehen dass die RX 6600 (XT) noch gar nicht so alt ist, die erschien ja erst mehr als ein halbes Jahr nach der RX 6900. Ausserdem ist der Ersatz der RX 6600 wohl auch nicht so dringend, die ist im Prinzip eh schon konkurrenzlos weil nvidia da preislich offenbar gar nicht wirklich konkurrieren will (für den Preis einer RX 6600 kriegt man mit etwas Glück gerade mal eine RTX 3050), auch Nvidia hat ja erst mobile Varianten mit AD106/107 angekündigt.
Vielleicht hat AMD auch noch jede Menge N23 Chips an Lager, ansonsten würde es Sinn machen alle Produkte mit N23 zu ersetzen - N33 ist ja schneller und sollte etwas günstiger in der Fertigung sein.
mczak
2023-01-05, 21:22:57
So sieht es aus, ist aber nicht das was die Gerüchte mal gesagt haben.
Naja da sagten die Gerüchte auch noch N31 erreicht locker AD102 Raster-Performance. Realistisch war das IMHO nie (meine Meinung war dass ich überrascht wäre wenn N33 N22 übertriftt).
Aktuell sieht es mir nicht danach aus dass der N33 soviel besser performnt als Navi 31. Ist natürlich auch schwer zu sagen, aber im Mobile bereich "auch nur" max 30% steigerung ist jetzt nicht so prickelnd. Immerhin bei fast gleicher TDP, aber mit mehr CUs. WEnn man den Vergleich zu 6600 mobile ansieht.
Ich finde im Gegensatz zu N31 ist der Chip ganz gut gelungen. Man darf eben nicht vergessen dass der in N6 gefertigt ist (etwas dichter gepackt als N7 aber ansonsten von der Performance her bloss marginal besser), und am Ende eben kleiner ist als N23, mit vermutlich sehr ähnlichem Transistorbudget. Die 30% mehr Performance sind am Ende also fast nur architekturbedingt (ein paar Transistoren gehen auch noch drauf für bessere RT Performance, neuere Videoencoder etc.), was schon sehr ordentlich ist. Das wäre dann immerhin fast N22 Performance, und N22 ist ein massiv grösserer Chip (obwohl gerade in höheren Auflösungen würde man mit den 30% wohl schon hinter einer RX 6700XT liegen, wegen des kleinen Caches und der geringeren Speicherbandbreite). Da muss man aber sowieso noch abwarten ob sich da die Chips bei den Betriebspunkten der Desktop-Karten auch so verhalten.
N31 hat demgegenüber gegenüber N21 massiv mehr Transistoren, die bessere Fertigung und liegt am Ende auch bloss 35% oder so vorne. Da kann man sich schon fragen wo all die Transistoren hin sind (die aufgebohrten Vektorregister scheinen im Quervergleich nicht gerade der Renner zu sein, und falls da Transistoren in Takt investiert wurden sieht man ja nicht viel davon, was eben dem ominösen Fehler geschuldet sein könnte).
Neurosphere
2023-01-06, 08:26:44
N31 performt über den Takt aber nicht über die Leistungsaufnahme ziemlich gut. Außerdem ist die Feststellung das es scheinbar Teilbereiche im Chip gibt die bei hohen Taktraten anfangen Probleme zu machen und vermutlich in einen anderen "Gear" Modi wechseln und dadurch die Leistung wieder senken auch ein Indiz dafür. Dazu die Sache mit Wave 32.
Generell scheint die Arch einiges an Potential zu haben das nicht abgerufen werden kann, sei es nun durch einen Bug oder andere Gründe. Ich kann mir schon vorstellen das in Raster die 4090 das Ziel war. Wenn beide beim gleichen fertiger produziere glaube ich nicht das keiner weiß was der andere genau macht.
Ob AMD das alles mit einem Respin lösen kann oder erst mit RDNA4 muss man halt abwarten. Das N32 nun später kommt spricht aber dafür das zumindest was passiert und evtl kommen N31 Refresh und N32 auch zusammen in der zweiten Jahreshälfte.
Edith, hab mal die Rechtschreibfehler korrigiert. Hatte wohl zu wenig getrunken...
dargo
2023-01-07, 10:34:11
Angeblich wird es 3 SKUs vom N32 geben. Gut... bei einem 200mm² GCD kann ich mir das auch eher vorstellen, dass dort zwei Salvages kommen. 7700XT dann mit 3 MCDs und 12GB, das könnte dann die "Volks-Grafikkarte" werden. Hoffentlich <500€, 400€ wären super.
XNxckKbxF6g
Angeblich soll die 7800XT @N32 Vollausbau (60 CUs) wenig hinter der 7900XT liegen was wiederum für einen nicht ganz gelungenen N31 sprechen würde. Denkbar wäre allerdings auch, dass AMD einen vollen N32 hoch prügelt (das Gerücht RDNA3 würde keine hohen Frequenzen @~3Ghz schaffen war ja bullshit, N31 säuft nur bei diesen Frequenzen sehr viel) und das Ding dann einfach mit hoher TGP für so eine Klasse kommt. Ich werfe einfach mal spekulativ 275W TGP in den Raum. Würde ich bei ~3Ghz für realistisch halten wenn N32 genauso durstig pro CU ist wie N31. Besser wäre natürlich wenn AMD den Durst pro CU bei N32 und N33 verbessert falls es tatsächlich diesen ominösen Bug im N31 gibt und es für einen Respin zu spät war.
dildo4u
2023-01-07, 10:55:56
Könnte auch sein das Treiber Verbesserungen bei N31 eher durchschlagen da die breitere GPU schwerer auszulasten ist, das ist eigentlich das was ich zur Zeit vermute.Der Abstand könnte dann wieder gegeben sein.
Die Leistung passt noch nicht zu den Specs selbst mit dem geringen Takt sind die 50 bis 60 Tflops imo ok.
dargo
2023-01-07, 10:57:20
Bessere Treiber ändern nichts am Durst von N31. Dann steigt zwar die Performance, die SKU säuft aber trotzdem pro CU dann immer noch recht viel. Ich sags mal so... mir wäre ein Respin von N31 lieber für Herbst/Winter 2023. Im besten Fall die spekulierten ~3,3Ghz dann bei weiterhin max. 355W. So ein Salvage davon mit 300W würde mir sehr gut gefallen. Bessere Treiber natürlich noch ontop drauf.
Die Leistung passt noch nicht zu den Specs selbst mit dem geringen Takt sind die 50 bis 60 Tflops imo ok.
Pfff... die TFLOPs sind so oder so ne absolute Luftnummer. Oder glaubst du ernsthaft die Performance steigt um Faktor ~2,5 durch bessere Treiber noch an? :ulol:
Edit:
Ops... falsch gerechnet. Faktor 2,5 bezieht sich auf 7900XTX vs. 6900XT. Dann müssten die Treiber noch ungefähr 70-80% zulegen, auch sehr unrealistisch. ;)
robbitop
2023-01-07, 11:18:49
So 10-20% dürften aber noch drin sein. Man muss sich nur mal das relative Delta anschauen N31 vs N21 - rohleistungsnormiert. Da gibt es Spiele, da liegt N31 deutlicher vorn und welche da ist man nur auf Gleichstand. Wenn man es hinbekommt, dass die Leistung im Schnitt sich eher an den besseren Spielen (vs N21!) orientiert hat man schon was erreicht. Irgendwo zwischen 10-20%.
Die Kritik an der Ausnutzung der Rechenleistung finde ich relativ irrelevant. Siehe Ampere oder auch RDNA3. Viel wichtiger ist, wie viel mehr Leistung der Transistoreinsatz bringt. Anscheinend ist es billiger die FPUs zu verdoppeln und alles andere gleich zu lassen. Ja rohleistungsnormiert bringt es natürlich nicht viel performance aber es scheint ja kaum was zu kosten.
Bei N31 flossen anscheinend viele Transistoren in den Takt (der nicht erreicht wurde) und in den Interconnect für Chiplets und das breite SI. Aber N33 vs N23 zeigt, dass bei in etwa gleichem Transistorbudget auch RDNA3 CUs reinpassen und man ist pro Transistor schneller geworden.
Schade, dass man das bei N31 so gar nicht auf die Straße bringen kann. Die Mehrtransistoren wären ja gut angelegt, wenn die f/U curve wesentlich besser gewesen wäre und man deutlich mehr Takt gewonnen hätte.
Laut Gerüchten soll N32 deutlich höher takten.
Man muss (leider) durchaus SKU und uArch differenzieren.
dildo4u
2023-01-07, 11:27:39
Ich erwarte überdurchschnittliche Sprünge wegen dem neuen Aufbau Navi 33 wird vermutlich sofort mit optimaler Performance starten.
Neurosphere
2023-01-07, 12:22:01
Wobei hier schon wieder angefangen wird ziemlich hohe Erwartungen zu erzeugen.
Nichts desto trotz, nehmen wir @robbitops 10-20% im laufe des Jahres durch verbesserte Treiber und @dargos 3,3 Ghz wäre ein Respin N31 vermutlich gut 20-35% schneller als die jetzige XTX und damit in Raster auf Augenhöhe mit der 4090 und in RT auf dem Level der 4080.
Nur halt ein halbes oder dreiviertel Jahr zu spät....
dildo4u
2023-01-07, 12:51:29
Ist immer die Selbe Leier leider nix ist daran positiv wenn die Midrange Karte 5nm nutzt da zu teuer, nur Navi 33 hat eine Chance ordentlich Preis/Leistung zu erreichen.
MSABK
2023-01-07, 12:54:30
Kann man beim 6700XT Nachfolger 16GB Speicher erwarten?
vinacis_vivids
2023-01-07, 13:01:49
N32 kommt mit 16GB und 256bit SI.
AffenJack
2023-01-07, 13:04:03
So 10-20% dürften aber noch drin sein. Man muss sich nur mal das relative Delta anschauen N31 vs N21 - rohleistungsnormiert. Da gibt es Spiele, da liegt N31 deutlicher vorn und welche da ist man nur auf Gleichstand. Wenn man es hinbekommt, dass die Leistung im Schnitt sich eher an den besseren Spielen (vs N21!) orientiert hat man schon was erreicht. Irgendwo zwischen 10-20%.
Du bist viel zu optimistisch. Vll kriegst du 5 bis maximal 10% noch über Treiberoptimierungen raus. Spiele hängen nunmal nicht alleine an den TFlops. Das hat schon Ampere gezeigt. Es gibt genug andere Limitierungen bei Spielen und dadurch erklären sich auch die Unterschiede bei den Auslastungen.
dargo
2023-01-07, 13:29:51
Ist immer die Selbe Leier leider nix ist daran positiv wenn die Midrange Karte 5nm nutzt da zu teuer, nur Navi 33 hat eine Chance ordentlich Preis/Leistung zu erreichen.
Quark... ich wäre überrascht wenn die 7700XT 12GB sofern das Gerücht stimmt mehr als 500€ kosten wird. Nicht immer von NVs Gier auf andere schließen. ;)
Du bist viel zu optimistisch. Vll kriegst du 5 bis maximal 10% noch über Treiberoptimierungen raus. Spiele hängen nunmal nicht alleine an den TFlops. Das hat schon Ampere gezeigt. Es gibt genug andere Limitierungen bei Spielen und dadurch erklären sich auch die Unterschiede bei den Auslastungen.
Bei FH5 erwarte ich schon mal wesentlich mehr als das. Das ist definitiv auf N31 noch kaputt und afaik laut Raff auch von AMD bestätigt.
dildo4u
2023-01-07, 13:45:06
Hä man hat die Ryzen 7000 Preise gesehen alles war massiv überteuert zum Launch nur gab es dort deutlich mehr Luft nach unter weil die Chips winzig sind im Vergleich zu den GPU.
4070 TI und 7900XT werden zu fast den selbe Preisen verkauft und haben fast die selbe Größe an 5/4nm Silicon, ergo AMD hat null Interesse 5nm Chips billiger als Nvidia zu verkaufen.
AffenJack
2023-01-07, 13:51:21
Bei FH5 erwarte ich schon mal wesentlich mehr als das. Das ist definitiv auf N31 noch kaputt und afaik laut Raff auch von AMD bestätigt.
Das würde ich in einzelnen Spielen auch nicht ausschließen, ich zweifle nur, dass es viel mehr als 5% in Durchschnitt werden.
Im Takt seh ich mehr Potential und bin da gespannt, ob da wirklich mehr als 10% Leistungssteigerung durch ~15% mehr Takt bei nem Refresh rauskommen (GTX480 vs GTX580 waren 15%, wo die 480 komplett im Eimer war).
KarlKastor
2023-01-07, 13:56:13
4070 TI und 7900XT werden zu fast den selbe Preisen verkauft und haben fast die selbe Größe an 5/4nm Silicon, ergo AMD hat null Interesse 5nm Chips billiger als Nvidia zu verkaufen.
Die hat neben dem 5 nm Die eben auch noch 185 mm2 in 6nm, das komplexere PCB und mal eben zusätzliche 8GB Speicher.
Für AMD ist es ne mittlere Katastrophe, dass der AD104 so nah dran kommt.
dargo
2023-01-07, 13:57:44
Hä man hat die Ryzen 7000 Preise gesehen alles war massiv überteuert zum Launch nur gab es dort deutlich mehr Luft nach unter weil die Chips winzig sind im Vergleich zu den GPU.
Und wo liegen jetzt die Zen4 CPUs? :rolleyes: Für dich scheint es Neuland zu sein, dass Hardware im frischen Fertigungsprozess immer zuerst teurer an die Meute verteilt wird, insbesondere dann auch wenn die Konkurrenz es zulässt. Wenn AMD jetzt schon N31 Salvage für 899$ anbietet wo kann sich dann wohl N32 positionieren?
7800XT = 699$
7800 = 599$
7700XT = 449$ (eventuell 479$)
So würde ich das sehen. Da es noch einige Monate dauert bis N32 released wird wäre es auch denkbar, dass N32 noch minimal nach unten rutscht (~50$) da N31 Salvage dann auch für 799-849$ locker angeboten werden kann. Der ist eh schon von Anfang an zu hoch vs. Vollausbau platziert.
dildo4u
2023-01-07, 14:08:36
Die hat neben dem 5 nm Die eben auch noch 185 mm2 in 6nm, das komplexere PCB und mal eben zusätzliche 8GB Speicher.
Für AMD ist es ne mittlere Katastrophe, dass der AD104 so nah dran kommt.
Beide sichern sich ihre fetten Margen da Intel nix auf die Reihe bekommt, Raptor Lake hat zumindest die CPU Preise reguliert der 13700k scheint sich bei Mindfactory ganz gut zu verkaufen was den 7900X deutlich runtergezogen hat.
dargo
2023-01-07, 14:59:39
Du schwurbelst wieder nur rum. AMD hatte die UVP bei Zen4 nicht mal angehoben vs. Zen3, trotz Inflation und teurerem 5nm Fertigungsprozess.
https://static.tweaktown.com/news/8/8/88190_05_amd-ryzen-7000-series-zen-4-cpus-are-official-september-27-launch_full.jpg
https://www.notebookcheck.com/fileadmin/_processed_/c/d/csm_Ryzen_5000_26_5b0564676c.jpg
Der 7700X ist sogar 50$ günstiger geworden. Womöglich wegen dem Namen, gibt ja keinen 7800X. Beim 32 Threader sind es sogar 100$ weniger.
BlacKi
2023-01-07, 15:02:58
Du schwurbelst wieder nur rum. AMD hatte die UVP bei Zen4 nicht mal angehoben vs. Zen3, trotz Inflation und teurerem 5nm Fertigungsprozess.
https://static.tweaktown.com/news/8/8/88190_05_amd-ryzen-7000-series-zen-4-cpus-are-official-september-27-launch_full.jpg
https://www.notebookcheck.com/fileadmin/_processed_/c/d/csm_Ryzen_5000_26_5b0564676c.jpg
Der 7700X ist sogar 50$ günstiger geworden. Womöglich wegen dem Namen, gibt ja keinen 7800X. Beim 32 Threader sind es sogar 100$ weniger.
die gründe dafür ist dir aber bekannt oder? und jene gründetreffen nicht auf die neuen grafikkarten zu. leider.
dargo
2023-01-07, 15:08:38
die gründe dafür ist dir aber bekannt oder? und jene gründetreffen nicht auf die neuen grafikkarten zu. leider.
Bedank dich bei Nvidia indem sie neue Preissegmente oberhalb Enthusiast Generation für Generation eingeführt haben. Ach nee... hast du ja schon dich mit der 4070TI bedankt. ;D
robbitop
2023-01-07, 15:08:46
Du bist viel zu optimistisch. Vll kriegst du 5 bis maximal 10% noch über Treiberoptimierungen raus. Spiele hängen nunmal nicht alleine an den TFlops. Das hat schon Ampere gezeigt. Es gibt genug andere Limitierungen bei Spielen und dadurch erklären sich auch die Unterschiede bei den Auslastungen.
Naja der Schnitt is 9%. Wenn man sich Ampere anschaut kam da schon ein Stück mehr raus bei der FPU Verdopplung.
dildo4u
2023-01-07, 15:09:20
Zen 3 war konkurrenzlos, Navi 31 hingegen steht schlechter da als der Vorgänger.
AMD hat logischerweise null Interesse viele GPU zu verkaufen wenn sie deutlich mehr Kohle mit ihren CPU machen.
Schnitzl
2023-01-07, 15:11:49
Angeblich wird es 3 SKUs vom N32 geben. Gut... bei einem 200mm² GCD kann ich mir das auch eher vorstellen, dass dort zwei Salvages kommen. 7700XT dann mit 3 MCDs und 12GB, das könnte dann die "Volks-Grafikkarte" werden. Hoffentlich <500€, 400€ wären super.
https://youtu.be/XNxckKbxF6g
Angeblich soll die 7800XT @N32 Vollausbau (60 CUs) wenig hinter der 7900XT liegen was wiederum für einen nicht ganz gelungenen N31 sprechen würde. Denkbar wäre allerdings auch, dass AMD einen vollen N32 hoch prügelt (das Gerücht RDNA3 würde keine hohen Frequenzen @~3Ghz schaffen war ja bullshit, N31 säuft nur bei diesen Frequenzen sehr viel) und das Ding dann einfach mit hoher TGP für so eine Klasse kommt. Ich werfe einfach mal spekulativ 275W TGP in den Raum. Würde ich bei ~3Ghz für realistisch halten wenn N32 genauso durstig pro CU ist wie N31. Besser wäre natürlich wenn AMD den Durst pro CU bei N32 und N33 verbessert falls es tatsächlich diesen ominösen Bug im N31 gibt und es für einen Respin zu spät war.
hi Dargo,
wird das etwas gesagt bezüglich dem Release-Date von 7800XT bis 7700XT?
und nein, bitte nicht den vollen N32 hochprügeln ;(
bei der 4070ti bin ich schon wieder unschlüssig, das schmale Speicherinterface, keine Founders Edition, dem neuen Stromstecker vertraue ich nicht so recht und vom Preis haben ich noch gar nicht angefangen :frown:
Schon krank, die Zeit, die ich diesesmal benötige um nur ne neue Grafikkarte auszuwählen, ist mehr als für sämtliche HW die letzten 20 Jahre ;D
dargo
2023-01-07, 15:12:57
Zen 3 war konkurrenzlos, Navi 31 hingegen steht schlechter da als der Vorgänger.
AMD hat einfach null Interesse viele GPU zu verkaufen wenn sie deutlich mehr Kohle mit ihren CPU machen.
Ist das wieder die übliche dildo Logik? Hat AMD auch die Produktion der APUs für die Konsolen bereits eingestellt? Dort sind die Margen noch wesentlich geringer. Bei dir kann man echt nur noch den Kopf schütteln.
hi Dargo,
wird das etwas gesagt bezüglich dem Release-Date von 7800XT bis 7700XT?
Nein.
Langlay
2023-01-07, 15:17:50
AMD hat logischerweise null Interesse viele GPU zu verkaufen wenn sie deutlich mehr Kohle mit ihren CPU machen.
Dann würde es die Karten nicht geben. Du bringst kein Produkt auf dem Markt in der Hoffnung das es niemand kauft.
dildo4u
2023-01-07, 15:26:08
Dann würde es die Karten nicht geben. Du bringst kein Produkt auf dem Markt in der Hoffnung das es niemand kauft.
Die Karten gibt es natürlich schon da AMD Pakete an OEM verkaufen will.
So lange Intel schläft kann nur AMD 3000€+ Systeme zum verkauf anbieten und macht Marge mit der CPU und GPU.
Wie immer wird selber Bauen in diesem Forum maßlos überschätzt AMD will Intel in Prebuilds und Notebooks schlagen.
BlacKi
2023-01-07, 15:26:29
Dann würde es die Karten nicht geben. Du bringst kein Produkt auf dem Markt in der Hoffnung das es niemand kauft.der grund, warum die 7000er cpus aber günstiger angeboten wurden war aber der umstand, das die verkaufszahlen sonst brutal schlecht wären. selbst die reduzierung der uvp hat nichtmal gereicht. die 7000er cpus sind einige monate danach brutal abgestürzt. das passiert aber nicht bei den gpus.
ableitungen von cpu preisen zu machen ist hier lächerlich.
wenn n33 es mit der performance der 6800 hinausläuft, dann wird die karte auch deren preis haben, oder leicht darüber.
ich meine wir sind es doch schon gewohnt, das langsamere karten schlechtere perf/€ verhältnisse haben, siehe 7900xt.
Gott1337
2023-01-07, 15:30:51
Quark... ich wäre überrascht wenn die 7700XT 12GB sofern das Gerücht stimmt mehr als 500€ kosten wird. Nicht immer von NVs Gier auf andere schließen. ;).
Nvidias Gier, als ob AMD besser wäre für eine 300m² 1200€ zu verlangen ist nicht besser. oder für die 7950X3D 950€ xD
Langlay
2023-01-07, 15:47:01
der grund, warum die 7000er cpus aber günstiger angeboten wurden war aber der umstand, das die verkaufszahlen sonst brutal schlecht wären. selbst die reduzierung der uvp hat nichtmal gereicht. die 7000er cpus sind einige monate danach brutal abgestürzt. das passiert aber nicht bei den gpus.
Naja ich hoffe das die Grakas auch billiger werden, sowohl bei AMD als auch bei Nvidia. Imo ist bei beiden Herstellern dort genug Luft nach unten. Als Gamer würden wir von günstigeren Komponenten alle profitieren, egal in welchem Lager wir unterwegs sind.
Ich muss auch zugeben, bei 1000€ für ne Graka ist bei mir auch die Schmerzgrenze erreicht. Aber dann muss auch was geliefert werden. Die 6900XT hat auch 1000€ gekostet vor 2 Jahren aber das Teil war wenigsten 2x so schnell wie Radeon VII die sie abgelost hat (mit kleinem Umweg über ne 3090). Und von dem Punkt aus sind weder ne 7900XTX oder ne 4080 son richtig geiler Deal.
Der_Korken
2023-01-07, 15:58:50
Angeblich soll die 7800XT @N32 Vollausbau (60 CUs) wenig hinter der 7900XT liegen was wiederum für einen nicht ganz gelungenen N31 sprechen würde. Denkbar wäre allerdings auch, dass AMD einen vollen N32 hoch prügelt (das Gerücht RDNA3 würde keine hohen Frequenzen @~3Ghz schaffen war ja bullshit, N31 säuft nur bei diesen Frequenzen sehr viel) und das Ding dann einfach mit hoher TGP für so eine Klasse kommt. Ich werfe einfach mal spekulativ 275W TGP in den Raum. Würde ich bei ~3Ghz für realistisch halten wenn N32 genauso durstig pro CU ist wie N31. Besser wäre natürlich wenn AMD den Durst pro CU bei N32 und N33 verbessert falls es tatsächlich diesen ominösen Bug im N31 gibt und es für einen Respin zu spät war.
Interessanterweise wäre eine 7800XT von den CUs her eine dreifache 7870, die 7900XT eine dreifache 7950 und die 7900XTX eine dreifache 7970. Erstere und letztere sogar entsprechend mit 256bit und 384bit SI (nur die 7900XT ist mit 320bit schmaler als die 7950). Zufälle gibts. Die 7950 war im Defaultzustand kaum schneller als eine 7870 wegen 1000Mhz zu 800Mhz Takt bei "nur" 40% mehr CUs und die 7870 trotzdem sehr sparsam. Ich hatte da direkt so ein Déjà-vu als ich die Präsentation von N31 und die niedrigen Taktraten gesehen habe in Kombination mit den Gerüchten um einen Hardware-Bug. Woran es am Ende liegt (Verbrauchsproblem oder schlechte V/F-Kurve) ist egal, wenn N32 den Takt schafft, den man vorher aus den Gerüchten zu N31 gehört hat, dann schrumpft der Vorsprung des kleinen N31 sehr schnell zusammen. Man darf nicht vergessen, dass die großen Chips historisch oft nicht gut skaliert haben mit ihren Recheneinheiten.
Beim Verbrauch hoffe ich natürlich auch, dass sich da was tut. Wenn man einen hypothetischen N31 bei 500W mit 3,3Ghz nimmt, dann würde N32 diesen Takt natürlich auch schaffen, nur eben bei ca. 320W Verbrauch. Das wäre effizienztechnisch aber fast ein Stillstand gegenüber der 6900XT und wahrscheinlich auch eklig zu kühlen bei dem kleinen Chip. 250W würden mir besser passen :freak:.
Bei N31 flossen anscheinend viele Transistoren in den Takt (der nicht erreicht wurde) und in den Interconnect für Chiplets und das breite SI. Aber N33 vs N23 zeigt, dass bei in etwa gleichem Transistorbudget auch RDNA3 CUs reinpassen und man ist pro Transistor schneller geworden.
Schade, dass man das bei N31 so gar nicht auf die Straße bringen kann. Die Mehrtransistoren wären ja gut angelegt, wenn die f/U curve wesentlich besser gewesen wäre und man deutlich mehr Takt gewonnen hätte.
Laut Gerüchten soll N32 deutlich höher takten.
Ich war erstaunt wie wenig Transistoren die 7600 angeblich haben soll. Bei 1/3 der CUs, SI und IF$ sind es weniger als 1/4 der Transistoren, obwohl ja so Sachen wie Display Engine und HW-De/Encoder genauso vorhanden sein müssen. Irgendwie fühlt sich N31 da sehr komisch an. Die F/V-Kurve ist bei N31 schon deutlich besser als bei N21, d.h. man kommt mit Minimalspannung schon irgendwie in den Bereich von 2,3-2,4Ghz bevor die Spannung ansteigt: https://www.hardwareluxx.de/community/threads/amd-rdna3-smalltalk-thread.1319336/page-88#post-29648889
Aber ich habe das Gefühl, dass die ganzen Extratransistoren auch proportional mehr verbrauchen. Dadurch ist die Spannung bei Takt X zwar niedriger, aber der Verbrauch trotzdem so hoch als hätte man den nicht taktgeboosteten Chip einfach über Spannung geprügelt. Bei Vega fand ich das damals auch so komisch: Der hatte 40% mehr Transistoren als Fiji und hat auch in etwa 40% mehr Takt geschafft. Um die auszufahren hat er aber in 14nm so viel verbraucht wie Fiji in 28nm. Das war weder bei Perf/W noch bei Perf/Area ein guter Deal. Dazu kommen bei N31 noch die Dual-Issue-CUs und die um 50% vergrößerten Registerfiles. Hat sich das wirklich gelohnt? Letzteres hat mal eben schlappe 12MB an zusätzlichen Registern verursacht. Viel Chipfläche, dazu die Leitungen und längere Wege von den Registern zu den ALUs, usw. Die Ausbeute kommt mir bisher viel zu klein vor, um diese Investition zu rechtfertigen.
BlacKi
2023-01-07, 16:08:49
Ich muss auch zugeben, bei 1000€ für ne Graka ist bei mir auch die Schmerzgrenze erreicht.
auch in 10 jahren, obwohl du wahrscheinlich 20% mehr verdienst, eher mehr?
ohne dlss würde ich wohl auch eher eine 4080 kaufen. aber diese features die nun fast in jedem spiel eingesetzt werden, reicht mir wohl eine 4070ti auch für die nächsten 3-4 jahre. es ist eher das jucken, das man neue HW kaufen kann, die in nächster zeit entscheiden ob ich neu kaufe oder nicht.
die masse wird weiter relativ teure karten kaufen, da können wir hansel eher nichts ausrichten. und wenns dir nicht passt, dann hat man immernoch die option zu verzichten.
aber gpus bleiben ein wachsender markt, auch wenn das ende der mining kryptos den verkäufen geschadet hat.
prinz_valium_2
2023-01-07, 16:23:57
Nvidias Gier, als ob AMD besser wäre für eine 300m² 1200€ zu verlangen ist nicht besser. oder für die 7950X3D 950€ xD
Kennst du die Preise schon?
Aber wenn eine CPU den Preis von 999€ rechtfertigen würden, dann die.
Wobei ich der Meinung bin, dass der 12 Core ein 3D Cache chiplet haben sollte und der 16 Core dann 2.
Kostet leider Takt. Vllt wird das irgendwann noch gelöst.
Redneck
2023-01-07, 16:27:48
Naja ich hoffe das die Grakas auch billiger werden, sowohl bei AMD als auch bei Nvidia. Imo ist bei beiden Herstellern dort genug Luft nach unten. Als Gamer würden wir von günstigeren Komponenten alle profitieren, egal in welchem Lager wir unterwegs sind.
Ich muss auch zugeben, bei 1000€ für ne Graka ist bei mir auch die Schmerzgrenze erreicht. Aber dann muss auch was geliefert werden. Die 6900XT hat auch 1000€ gekostet vor 2 Jahren aber das Teil war wenigsten 2x so schnell wie Radeon VII die sie abgelost hat (mit kleinem Umweg über ne 3090). Und von dem Punkt aus sind weder ne 7900XTX oder ne 4080 son richtig geiler Deal.
So ist es.. Der Sprung ist zu Klein von einem vorhandenen N21.. Dazu die vermurkste TDP.
Gestern das YT Video von PC World gesehen mit Interview mit AMDs Herkleman. Dessen Statement zu den Performance Angaben auf den Slides sind wenig vertrauenserweckend... Ja, man habe Fehler bei der Auswahl und den gemachten Angaben zum durchsnittlichen increase gemacht udn den Fehler wolle man nicht wieder machen aber kein Wort von "wir hauen da noch was über Treiber raus" oder "in ein paar Monaten sind wie da, was wir angegeben haben in den Slides".
Das hörte sich gefühlt danach an, als wenn man nicht viel mehr zu erwarten hätte.
Fand ich eher ernüchternd... Positiv gegenüber den Usern, die Xtx bereits gekauft haben, aber negativ was die zukunfts Prognose N31 anbetrifft.
Langlay
2023-01-07, 16:27:53
auch in 10 jahren, obwohl du wahrscheinlich 20% mehr verdienst, eher mehr?
Ich hab ja für die 3090 auch >1500€ bezahlt, aber das war es irgendwie nicht wert. Und die Sachen die ich zu 95% spiele würden auf na 6700XT sicherlich genauso gut laufen, wie auf der 6900XT. Ich spiele halt hauptsächlich Tarkov und WoWs und ab und zu ein Singleplayer-AAA Game. (Das letzte Singleplayer-AAA Game das ich gesuchtet hab war Cyberpunk2077(bei Release), das nächste soll Starfield werden).
Ist halt eigentlich pure Verschwendung aber ich hab Spass am basteln und daher sieht mein PC so aus wie der aussieht. Aber irgendwie muss halt Preis/Leistung doch zusammenpassen und da wird bei deutlich über 1000€ für ne Graka bei mir dann die Luft dünne.
dargo
2023-01-07, 16:43:36
Aber ich habe das Gefühl, dass die ganzen Extratransistoren auch proportional mehr verbrauchen. Dadurch ist die Spannung bei Takt X zwar niedriger, aber der Verbrauch trotzdem so hoch als hätte man den nicht taktgeboosteten Chip einfach über Spannung geprügelt.
Das sehe ich eben nicht bei N31. Die Spannung beim Defaulttakt von ca. 2,4-2,5Ghz im Referenzdesign ist mit ~940mV gar nicht mal so hoch sofern ich das noch richtig in Erinnerung habe. Irgendwie saufen die CUs trotzdem viel damit.
Der_Korken
2023-01-07, 17:33:37
Das sehe ich eben nicht bei N31. Die Spannung beim Defaulttakt von ca. 2,4-2,5Ghz im Referenzdesign ist mit ~940mV gar nicht mal so hoch sofern ich das noch richtig in Erinnerung habe. Irgendwie saufen die CUs trotzdem viel damit.
Genau das meine ich ja. Die schiere Masse an Transistoren säuft anscheinend so viel, auch wenn die Spannung eigentlich relativ klein ist. Genauso wie z.B. ein N21 mit 2Ghz und 940mV viel mehr verbraucht als ein N23 mit 2Ghz und 940mV, weil er einfach viel größer ist. N31 hat 57Mrd. Transistoren, N21 gerade mal 27, von denen wiederum mindestens 6 Mrd. nur für die 128MB Cache draufgehen. Bei N31 sind es sogar absolut(!) weniger, da nur 96MB. Die Packdichte ist zwar massiv größer (afaik >2,5x), aber was nützt es, wenn der Verbrauch trotzdem mit der Transistorenzahl steigt? Wenn das eine Eigenschaft des Designs ist und kein Fehler, dann sehe ich für N32 ebenfalls schwarz. Und auch Undervolting bzw. Teillastverbrauch bei N31 sind im Vergleich zu N10 und N21 sehr begrenzt. Verbrauchsreduktion kommt größtenteils über die Spannung, aber wo sie schon klein ist, kann sie auch nicht mehr so stark sinken.
dargo
2023-01-07, 18:31:42
Genau das meine ich ja.
Jetzt nochmal deinen Text oben gelesen, ja stimmt. :freak: War wohl zu sehr vom Ende des Textes abgelenkt. :D
Gott1337
2023-01-07, 19:53:26
säuft vielleicht das IF zuviel? vielleicht liegt dort das Problem. Hab keine Zahlen davon. Der Takt war doch sehr hoch.
Gott1337
2023-01-07, 19:54:46
Kennst du die Preise schon?
Aber wenn eine CPU den Preis von 999€ rechtfertigen würden, dann die.
Wobei ich der Meinung bin, dass der 12 Core ein 3D Cache chiplet haben sollte und der 16 Core dann 2.
Kostet leider Takt. Vllt wird das irgendwann noch gelöst.
ja 800$ + Steuer. Man kann sich ja auch die Preise von den anderen CPUs zum Vergleich nehmen und deren $ Preise.
Natürlich werden die wieder im freien Fall im Handel sein weil die kein Schwein kaufen wird. Dennoch wird die UVP in diesem Bereich sein.
Der 78003XD für 450€ wäre aber okay
reaperrr
2023-01-07, 20:04:08
Wenn das eine Eigenschaft des Designs ist und kein Fehler, dann sehe ich für N32 ebenfalls schwarz.
In Sachen Perf/W ja, aber die Chancen, dass N32 selbst im Worst-Case relativ besser abschneidet als N31 stehen trotzdem recht gut.
Zunächst einmal, selbst wenn die Takt/Spannungskurve nicht oder kaum besser als bei N31 aussieht, kann man bei N32 noch einiges über eine höhere TBP regeln, was bei N31 nur bedingt ging (jedenfalls beim Ref-Design).
Außerdem hat N32 grundsätzlich mehr IF$ und (selber Speichertakt vorausgesetzt) mehr Bandbreite je FLOP als die N31-Karten.
Da die 4070 Ti mit 280W TGP kommt, wäre es marketingtechnisch auch kein Problem, N32XTX ebenfalls bis zu 280W TBP zu spendieren.
Hinzu kommt, dass N32 zwar 2/3 der Fläche, aber von den vermutlichen Haupt-Stromschluckern nur 60% (CUs) bzw. 50% (Frontend SEs/SAs und backend RBEs/ROPs) hat. Somit würde ich selbst im schlechtesten Fall erwarten, dass N32 bei gleichem Takt und gleicher Spannung nur ca. 60% des Stroms zieht, den N31 braucht.
Ich bin mal vorsichtig und sage, wenn die 7900XT in 315W durchschnittlich 2560 MHz schafft, sollte N32XTX in 280W durchschnittlich auch 2,8 GHz oder noch etwas mehr schaffen.
N32 hat ziemlich genau RX 6800 Specs, nur weniger IF$ aber dafür etwas bessere Architektur.
Die Ref 6800 schafft unter Last nur ca. 1900 MHz Gameclock. Somit würde N32 @ 2,8 GHz allein durch den Takt schon theoretisch 47% Mehrleistung haben. Rechnet man noch knapp 10% durch höhere IPC oben drauf, landet man bei theoretisch 62% mehr Leistung als ein 6800.
Selbst wenn au diesen theoretischen 62% am Ende nur knapp 45-50% werden, läge man damit auf dem (Raster-)Niveau der 4070 Ti, bei ähnlicher offizieller TBP (real natürlich dann höher, aber nicht massiv).
Die Hauptfrage ist also im Grunde nur, wie sehr N32 mglw. durch den nur halb so großen IF$ und die geringere Zahl ROPs im Vergleich zur 6800 ausgebremst wird, was Leistung je MHz angeht (v.a. in 4K, 1440p sollte weniger problematisch sein).
Gegenüber den AD104-Karten sollten die N32-Karten aber grundsätzlich eine solide Chance haben, wenn AMD etwas höhere TBPs in Kauf nimmt.
dargo
2023-01-07, 20:28:43
In Sachen Perf/W ja, aber die Chancen, dass N32 selbst im Worst-Case relativ besser abschneidet als N31 stehen trotzdem recht gut.
Zunächst einmal, selbst wenn die Takt/Spannungskurve nicht oder kaum besser als bei N31 aussieht, kann man bei N32 noch einiges über eine höhere TBP regeln, was bei N31 nur bedingt ging (jedenfalls beim Ref-Design).
Richtig.
Man sieht schon an der 7900XTX vs. 7900XT, dass die CUs beim Stromverbrauch praktisch 1:1 skalieren. Die Boostfrequenzen sind nahezu identisch. Laut CB sieht es folgendermaßen aus:
7900XTX bei 96CUs = 354W
7900XT bei 84 CUs = 306W
14,3% mehr CUs saufen also 15,7% mehr Strom. Rein rechnerisch müssten also 60CUs bei gleichen Frequenzen auf ca. 219W bei N32 kommen. Möglicherweise noch minimal weniger durch das schmalere SI + zwei Speicherchips weniger. Wobei die 7900XT beim SI und Speicherbausteinen auch beschnitten ist, zeigt sich aber im Stomverbrauch nicht wirklich. Eventuell verwendet AMD bei der 7900XT eine leicht abweichende V/F-Kurve. Wie dem auch sei... N32 kann kaum mehr als 220W saufen. Mit einer TGP von 280W wie in deinem Beispiel wäre hier also noch einiges an Luft für höhere Frequenzen.
Langlay
2023-01-07, 20:35:29
Die Ref 6800 schafft unter Last nur ca. 1900 MHz Gameclock.
Das stimmt nicht. Die Ref 6800 liegt so bei ~2100MHz Gameclock.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_taktraten_in_spielen_unter_dauerlast
https://i.imgur.com/8iH04Q8.png
Der_Korken
2023-01-07, 20:52:19
säuft vielleicht das IF zuviel? vielleicht liegt dort das Problem. Hab keine Zahlen davon. Der Takt war doch sehr hoch.
Glaube ich nicht. Der Verbrauch steigt massiv mit mehr CU-Takt, der IF-Takt dürfte dabei mehr oder weniger konstant sein. Am hohen Idle-Verbrauch könnten die Chiplets Schuld sein, siehe die Desktop-Ryzens.
@reaperrr: Die 6800 als Basis ist zu nehmen ist tatsächlich ganz nett. 60 CUs, 3 SEs, 256bit SI sind gleich, nur der IF$ halbiert und der Takt in deinem Szenario etwa 33% höher. Ersteres sehe ich nicht so kritisch, da die 6800 da überversorgt war und die 7800XT +25% Speichertakt hätte. Zweiteres würde reichen, um sich knapp vor die 6950XT zu schieben. Sieht nicht so mies aus, wie ich zuerst dachte - ich schätze mal das ist der Skalierungseffekt, dass schon eine 6900XT keine 33% schneller pro Mhz ist als die 6800, sondern eher knapp 25%.
reaperrr
2023-01-07, 20:59:04
Das stimmt nicht. Die Ref 6800 liegt so bei ~2100MHz Gameclock.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_taktraten_in_spielen_unter_dauerlast
https://i.imgur.com/8iH04Q8.png
Hm, OK.
Ich frage mich gerade selbst, wo ich das mit Taktraten unter 2000 MHz gelesen habe (und ja, es war definitiv eine ähnliche Tabelle mit Spieletaktraten).
Hoffentlich hat mein Gehirn da nix mit irgendeinem Ampere-Test zusammengeschmissen:freak:
Egal, meine Erinnerung war offensichtlich falsch, also wird es natürlich auch für N32 knapper, wenn der nicht mindestens 3 GHz Gameclock schafft.
Sieht nicht so mies aus, wie ich zuerst dachte - ich schätze mal das ist der Skalierungseffekt, dass schon eine 6900XT keine 33% schneller pro Mhz ist als die 6800, sondern eher knapp 25%.
Das ist auch meine Hoffnung für N32. Der - oder zumindest ein - Hauptflaschenhals bei N31 könnte der CP sein, in dem Fall würde N32 an realer IPC ggü. N31 weniger einbüßen, als man anhand der CU-Zahl denken würde. Höhere Takraten muss N32 natürlich trotzdem erstmal schaffen, aber wenn das einigermaßen gelingt, könnte N32 gegen AD104 ganz ordentlich abschneiden, selbst wenn es diesen ominösen Takt-/Designbug nicht gibt oder er sich nicht so einfach fixen lässt.
Langlay
2023-01-07, 22:15:15
Hm, OK.
Ich frage mich gerade selbst, wo ich das mit Taktraten unter 2000 MHz gelesen habe (und ja, es war definitiv eine ähnliche Tabelle mit Spieletaktraten).
Hoffentlich hat mein Gehirn da nix mit irgendeinem Ampere-Test zusammengeschmissen:freak:
Egal, meine Erinnerung war offensichtlich falsch, also wird es natürlich auch für N32 knapper, wenn der nicht mindestens 3 GHz Gameclock schafft.
Ich weiss es auch nur weil meine Frau ne Referenz 6800 bei sich im Rechner hat und ich auch öfters mal an dem Gerät sitze. Aber meine Frau daddelt noch in 1080p da schlägt sich die 6800 ziemlich gut, in nächster Zeit soll aber ein neuer Monitor her mit 2560x1440 o. 3440x1440 und da dürfte es schon gerne etwas mehr bums sein. Also ich hätte nichts dagegen wenn Navi32 seinem grösseren Bruder ordentlich auf die Pelle rückt.
vinacis_vivids
2023-01-07, 23:18:06
N32XT 7680SP 3,0Ghz = 46,08 Tflops fp32
N31XT 10752SP 2,5Ghz = 53,76 Tflops fp32
Die 7800XT dürfte ~ -15% bis 17% hinten liegen. Also auf dem Level von N21XTX bzw. leicht schneller.
dargo
2023-01-08, 08:32:41
Lustig wirds wenn N32 mit 3,3Ghz kommt falls an diesem Bug was dran sein sollte im N31. Dann hätte N32 50,7 TFLOPs. Das ist fast Null Unterschied zur 7900XT. X-D Sofern die CUs von N32 genauso viel saufen wie die CUs von N31 würde ich eher von ~2,8Ghz bei N32 ausgehen. Ich denke 3Ghz passen nicht mehr unter 300W.
just4FunTA
2023-01-08, 09:04:45
gibt es irgend ein Gerücht wann die 7800xt unc co kommen soll?
Zergra
2023-01-08, 09:22:45
Denke Mitte März so wie damals mit der 6700XT. Die kam eben auch drei Monate später.
hier ging es mal um N32,
https://www.3dcenter.org/news/news-des-1516-dezember-2022
dargo
2023-01-08, 09:23:47
gibt es irgend ein Gerücht wann die 7800xt unc co kommen soll?
Nein.
Redneck
2023-01-08, 09:56:50
Lektüre
https://chipsandcheese.com/2023/01/07/microbenchmarking-amds-rdna-3-graphics-architecture/
bbott
2023-01-08, 11:26:44
Lustig wirds wenn N32 mit 3,3Ghz kommt falls an diesem Bug was dran sein sollte im N31. Dann hätte N32 50,7 TFLOPs. Das ist fast Null Unterschied zur 7900XT. X-D Sofern die CUs von N32 genauso viel saufen wie die CUs von N31 würde ich eher von ~2,8Ghz bei N32 ausgehen. Ich denke 3Ghz passen nicht mehr unter 300W.
Wenn N32 gefixt so viel besser wäre würde er z. B. per TDP ausgebremst werden, um dann per 7x50er oder 8000er mit fixed N31 2023/24 von der Leine gelassen zu werden. Wars Zeitlich schon wieder fragwürdig wäre...
iamthebear
2023-01-08, 13:13:27
Das was N31 zurückhält ist die Verlustleistung wodurch mit der Spannung so weit runter gefahren werden muss.
N32 wird höher takten können auch ohne irgendwelche mysteriösen Hardwarebugs siehe 6700 XT vs. 6900 XT.
robbitop
2023-01-08, 13:59:46
Ob NN auch ein guter Ansatz für einen shadercompiler sind?
Das was N31 zurückhält ist die Verlustleistung wodurch mit der Spannung so weit runter gefahren werden muss.
N32 wird höher takten können auch ohne irgendwelche mysteriösen Hardwarebugs siehe 6700 XT vs. 6900 XT.
Genau so sieht es aus. Wenn das Ding 100w weniger bei gleicher Performance verbrauchen würde, dann wäre die 4090 eingetütet und irgendwo versenkt worden. Fakt ist allerdings, dass es noch nie eine Architektur gab, welche den Mehrverbrauch beinahe 1:1 in Performance umwandeln konnte. Ich habe allerdings die Info von Sapphire erhalten, dass ein VBios kommt, welches die vollen 515W freisetzt (wahrscheinlich zeitgleich mit den AiO-Varianten).
BTW. gehört jetzt nicht hierher, trotzdem: Der Verbrauch steigt in YT gleich 0 und instabile Treiber? Die Leute, welchen so einen Schachfug erzählen, sind entweder zu blöd Hardware am oberen wie unterem Limit zu betreiben, oder irgendwelche NV-Noobs, welche sich wichtig machen wollen.
basix
2023-01-10, 01:09:13
Ob NN auch ein guter Ansatz für einen shadercompiler sind?
Hatte ich mir auch schon überlegt. Da Muster- und Zusammenhang-Erkennung im Spiel sind, könnte ich mir das schon vorstellen. Zumindest als Ergänzung. Wenn es so einfach wäre, gäbe es das aber wohl schon.
dildo4u
2023-01-10, 06:10:20
Zen 3 war konkurrenzlos, Navi 31 hingegen steht schlechter da als der Vorgänger.
AMD hat logischerweise null Interesse viele GPU zu verkaufen wenn sie deutlich mehr Kohle mit ihren CPU machen.
Nicht mal in Raster Optik bietet AMD mehr Performance für den Euro vs 4070 Ti.
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4070-ti/launch-analyse-nvidia-geforce-rtx-4070-ti-seite-4
robbitop
2023-01-10, 07:18:47
Hatte ich mir auch schon überlegt. Da Muster- und Zusammenhang-Erkennung im Spiel sind, könnte ich mir das schon vorstellen. Zumindest als Ergänzung. Wenn es so einfach wäre, gäbe es das aber wohl schon.
Naja viele Sachen mit NN gabs noch nie und bäm auf einmal sind sie da. Ist eine neue Ära. :)
prinz_valium_2
2023-01-10, 15:30:03
Nicht mal in Raster Optik bietet AMD mehr Performance für den Euro vs 4070 Ti.
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4070-ti/launch-analyse-nvidia-geforce-rtx-4070-ti-seite-4
Da hat die 4090 67% und 1/3 weniger als die 4070TI, ist aber trotzdem das deutlich bessere Produkt ;)
davidzo
2023-01-11, 12:37:53
Da hat die 4090 67% und 1/3 weniger als die 4070TI, ist aber trotzdem das deutlich bessere Produkt ;)
Naja, die Preis/Leistung einer 4090 anhand von 1440p zu beurteilen ist aber auch wie einen Ferrari im Gelände zu testen. Da hängen alle Karten oberhalb der 4070ti im CPU-Limit.
Ich kann dem auch nicht ganz folgen dass die 4070ti eine WQHD Karte sein soll. Bloß weil die sie beschissen mit der Auflösung skaliert, ist das keine WQHD Karte. Es gibt keinen Bedarf für WQHD karten um die 1000€ und es gibt auch keine Spiele die diese Leistung benötigen. Bei einem Kartenpreis von 900€ verwenden die Leute keine 150€ Monitore, sondern eher 400€ Monitore und das heißt 4K oder wenigstens ultrawide (3840 x 1600 oder 3440 x 1440).
Für WQHD benötigt man eine 3060 oder 6600xt, welche reichlich Reserven für 1440p mitbringen. Und wenn es doch mal dippt, dann gibt es immer noch DLSS, womit ne 3060 auf dieselbe Performance wie eine 4070ti kommt. Mit DLSS liefert die 4070ti in WQHD völlig absurde FPS, das braucht niemand. Wozu also ne 900€ Karte kaufen um dann die besten Features nicht zu benutzen weil die normalperformance in WQHD schon absurd ist?
Insofern sehe ich die 7900XT kompetitiv schon gut aufgestellt. Ein bisschen so wie die 6700XT vs 3060ti in der last-gen. Keine Probleme mit zu wenig VRAM, gute Skalierung mit höheren Auflösungen. Dafür darf man dann auch 50€ teurer sein.
Troyan
2023-01-11, 12:41:38
Klar, deswegen gibt es auch keine Monitor, die mehr als 60Hz schaffen. Einfach kein Bedarf in 1440p dafür.
davidzo
2023-01-11, 12:50:05
Klar, deswegen gibt es auch keine Monitor, die mehr als 60Hz schaffen. Einfach kein Bedarf in 1440p dafür.
Guck dir die Spieleauswahl doch mal an. Alles was in irgend einer Weise kompetitiv sein soll läuft sowieso mit 300FPS und für den Rest spielen meh mehr als 100fps einfach keine Rolle. Außerdem sind es die Outlier wie Cyperpunk RT Ultra und co welche den Schnitt senken, da die meisten Reviews stumpf Mittelwerte bilden. Das sind weder Spiele wo hohe FPS nötig sind fürs Spielerlebnis, noch würde jemand in diesen Settings spielen. Hier sollte man lieber einen Median angeben, oder gleich die Outlier entfernen da keiner mit 20-FPS Settings spielen würde in irgendwelchen frei erfunden Overdrive-Modi die optisch nicht von den high settings zu unterscheiden sind.
Lektüre
https://chipsandcheese.com/2023/01/07/microbenchmarking-amds-rdna-3-graphics-architecture/
Sehr spannend, verdient mehr Aufmerksamkeit, auch wenn das ziemlich nerdige Kost ist. Ich finde super, dass dort jede GPU feinteilig zerlegt wird. :up:
MfG
Raff
davidzo
2023-01-11, 14:52:45
Sehr spannend, verdient mehr Aufmerksamkeit, auch wenn das ziemlich nerdige Kost ist. Ich finde super, dass dort jede GPU feinteilig zerlegt wird. :up:
MfG
Raff
Ja, fand ich auch sehr spannend, vor allem der ähnliche Artikel über Intels Arc Architektur im Vergleich zu nvidia und AMD. Da kann man viel herauslesen was da noch an Potential für Intel brach liegt während AMD und NV häufig näher an ihrem eigenen Optimum operieren.
Andererseits geht es hier nur um Bandbreite, Latenzen, Parallelismus und Compute. Der Test ist sehr ähnlich zu den Chips&Cheese CPU-Analysen.
Ich bezweifle dass Cache-latenzen und PCIe-link effizienz viel über die Spiele performance aussagen können. Dinge die viel eher relevant für die rasterizing performance sind wie Füllrate, Dreiecksdurchsatz werden gar nicht erst beleuchtet, ebenso wie neue RT features wie SER oder ray box sorting.
Aber das ist eine gute CPU-Architekturanalyse einer GPU, bzw. aus der Compute-Accelerator Sicht.
Der_Korken
2023-01-11, 15:55:29
Ich bezweifle dass Cache-latenzen und PCIe-link effizienz viel über die Spiele performance aussagen können.
Ich habe mich bei dem Test, aber auch vorher schon gefragt, ob geringere Latenzen nicht helfen würden Registerspace zu sparen. AMD hat das PRF um 50% vergrößert, um mehr Threads in flight zu halten. Aus welchem Grund braucht man so viele Threads pro CU? Warten die auf Daten? Wenn ja, klingt es für mich als Halblaie erstmal logischer die Caches größer und schneller zu machen als Unmengen an teuren Registern zu verbauen. Bei N31 sind es 12MB Register allein für die Vergrößerung und die werden (pro MB) deutlich mehr Fläche brauchen als die zusammengequetschten L3-Lines.
Und Strom brauchen Register doch bestimmt auch mehr als normaler Cache, oder?
basix
2023-01-11, 16:04:57
Naja viele Sachen mit NN gabs noch nie und bäm auf einmal sind sie da. Ist eine neue Ära. :)
War da jetzt nicht kürzlich was zu lesen von einem NN verbessertem Treiber bei Nvidia?
aceCrasher
2023-01-11, 16:46:42
Ich kann dem auch nicht ganz folgen dass die 4070ti eine WQHD Karte sein soll. Bloß weil die sie beschissen mit der Auflösung skaliert, ist das keine WQHD Karte. Es gibt keinen Bedarf für WQHD karten um die 1000€ und es gibt auch keine Spiele die diese Leistung benötigen. Bei einem Kartenpreis von 900€ verwenden die Leute keine 150€ Monitore, sondern eher 400€ Monitore und das heißt 4K oder wenigstens ultrawide (3840 x 1600 oder 3440 x 1440).
Für WQHD benötigt man eine 3060 oder 6600xt, welche reichlich Reserven für 1440p mitbringen. Mit DLSS liefert die 4070ti in WQHD völlig absurde FPS, das braucht niemand. Wozu also ne 900€ Karte kaufen um dann die besten Features nicht zu benutzen weil die normalperformance in WQHD schon absurd ist?
:confused:
Inwiefern hat eine 6600XT "reichlich Reserven" in WQHD? Mein Mitbewohner daddelt gerade Spider Man: Miles Morales (1440p 144Hz Monitor) auf meiner alten 6600XT und da hat er auf dem Boden der Stadt, mit high statt very high, FSR AN, gerade mal ~70fps. Und die Karte ist übertaktet. Ohne FSR 2 ist es dann schon sub-60. Von Raytracing, selbst mit reduzierter Qualität, wollen wir gar nicht reden - da liegen dann eher so 20fps an.
Wo sind da die Reserven?? Er hätte lieber 144fps locked in den Kämpfen. Raytracing interessiert ihn auch. Er plant aktuell eine 4080 oder 7900XTX für seinen Monitor zu kaufen. Ich habe meine 6600XT gerade erst ausgetauscht, weil ich sie als deutlich zu langsam für WQHD empfunden habe.
Und wenn es doch mal dippt, dann gibt es immer noch DLSS, womit ne 3060 auf dieselbe Performance wie eine 4070ti kommt.
Dafür bräuchte man DLSS P. Wer DLSS P in WQHD als akzeptabel empfindet, braucht dringend eine Brille.
Zossel
2023-01-11, 18:31:07
Following last month's launch of the Radeon RX 7900 series graphics cards, AMD's GPUOpen group has now published the instruction set architecture (ISA) programming guide for those interested in RDNA3 GPUs.
https://www.phoronix.com/news/AMD-RDNA3-ISA-Guide
robbitop
2023-01-12, 08:10:31
Guck dir die Spieleauswahl doch mal an. Alles was in irgend einer Weise kompetitiv sein soll läuft sowieso mit 300FPS und für den Rest spielen meh mehr als 100fps einfach keine Rolle. Außerdem sind es die Outlier wie Cyperpunk RT Ultra und co welche den Schnitt senken, da die meisten Reviews stumpf Mittelwerte bilden. Das sind weder Spiele wo hohe FPS nötig sind fürs Spielerlebnis, noch würde jemand in diesen Settings spielen. Hier sollte man lieber einen Median angeben, oder gleich die Outlier entfernen da keiner mit 20-FPS Settings spielen würde in irgendwelchen frei erfunden Overdrive-Modi die optisch nicht von den high settings zu unterscheiden sind.
Noch besser wäre es, wenn bevor es zur Mittelwertbildung eines Spieleindex kommt eine Normierung pro Titel kommt. Von 0 - 1 oder von 0-100%. So haben die absoluten FPS keinen (ungewollten) Einfluss auf die Gewichtung.
Dazu wie du sagst ein Median oder ein geometrisches Mittel anstatt eines normalen Mittelwertes. Ich hoffe, dass das Stand der Technik für die Indizes ist, weil die sonst unsauber sind.
robbitop
2023-01-12, 08:14:41
War da jetzt nicht kürzlich was zu lesen von einem NN verbessertem Treiber bei Nvidia?
Das schoss mir auch schon durch den Kopf. Wobei NVs Shadercompiler bereits schon ziemlich gut ist. Aber 10% oder so kann ich mir gut vorstellen, dass die da auch rauspurzeln. Bei RDNA3 wäre das Potenzial IMO größer weil: a) der Shadercompiler was ich so gehört habe weniger ausgefuchst ist und b) das dual issue an mehr Randbedingungen gekoppelt ist als die 128 FPs pro SM bei NVs Ampere und Ada (Pascal konnte diese dank mehr schedulerports aber besser ausreizen - insofern könnte hier eine Optimierung sicherlich was rausholen)
pilzsammler2002
2023-01-12, 08:37:28
Sehr spannend, verdient mehr Aufmerksamkeit, auch wenn das ziemlich nerdige Kost ist. Ich finde super, dass dort jede GPU feinteilig zerlegt wird. :up:
MfG
Raff
War nen sehr guter Artikel... Aber mit kleinen einem kleinen Fehler... Der Fauxpas ist die Aussage das Nvidia ja 4nm benutzt, das haben auch einige Techsites nicht wirklich aufm Schirm gehabt das 4N != 4NM ist :freak:
Complicated
2023-01-12, 12:30:07
N4 ist schon der 4nm Prozess. Nvidia nutzt die Custom-Variante des N5 mit der Bezeichnung 4N (4 Nvidia) und wohl genau aus dem Grund der leichten Verwechslung.
pilzsammler2002
2023-01-12, 14:06:13
Ach menno, meinte 4N != 4NM :D
Nightspider
2023-01-16, 03:40:58
Gabs zur Phoenix Point Präsentation eigentlich irgendwelche Benchmarks zur neuen integriertem 780M Grafikeinheit?
Clockspeed scheint ja 25% höher zu liegen, die Bandbreite steigt im Optimalfall aber nur um 17% (LPDDR5 7500 MT/s vs 6400).
Eventuell hängt die IGP etwas weniger im Bandbreitenlimit, auf Grund größerer Caches. Obwohl man sich schon fragen kann ob RDNA3 sparsam mit Bandbreite umgehen kann, da das N31 GCD mit Bandbreite zugebombt wird.
Bei der IPC erwarte ich ehrlich gesagt gar nichts, da N31 sich manchmal kaum von N21 absetzen kann, trotz massiv mehr Shaderunits.
Wird wohl irgendwo auf +15 bis 35% gegenüber Rembrandt hinauslaufen, je nachdem wie gut das Spiel mit RDNA3 skaliert. Bei Raytracing vielleicht auch 40% aber das wird bei einer APU wohl eh niemand nutzen.
robbitop
2023-01-16, 09:11:09
Mir schien es als habe man absichtlich (noch) nichts gezeigt. Ggf. erhofft man sich auch hier noch Gewinne aus dem Shadercompiler bis die ersten Reviews kommen.
Höhere Taktraten muss man mal sehen. Gerade mit kleinen TDPs sieht man die ja eh nie. Aber klar wenn die u/f curve besser ist, sieht man auch TDP normiert bessere Taktraten.
DrFreaK666
2023-01-16, 09:13:49
BgYKuswsvVM
Schnitzl
2023-01-16, 09:37:53
Mir schien es als habe man absichtlich (noch) nichts gezeigt. Ggf. erhofft man sich auch hier noch Gewinne aus dem Shadercompiler bis die ersten Reviews kommen.
(...)
ja da ist noch einiges im Argen :
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13212542#post13212542
damit ihr nicht soviel klicken müsst mal das Bild angefügt. Für die Besitzer von Navi31 Karten bleibt nur zu hoffen dass da noch dran gearbeitet wird.
dildo4u
2023-01-16, 09:52:34
Gabs zur Phoenix Point Präsentation eigentlich irgendwelche Benchmarks zur neuen integriertem 780M Grafikeinheit?
Clockspeed scheint ja 25% höher zu liegen, die Bandbreite steigt im Optimalfall aber nur um 17% (LPDDR5 7500 MT/s vs 6400).
Eventuell hängt die IGP etwas weniger im Bandbreitenlimit, auf Grund größerer Caches. Obwohl man sich schon fragen kann ob RDNA3 sparsam mit Bandbreite umgehen kann, da das N31 GCD mit Bandbreite zugebombt wird.
Bei der IPC erwarte ich ehrlich gesagt gar nichts, da N31 sich manchmal kaum von N21 absetzen kann, trotz massiv mehr Shaderunits.
Wird wohl irgendwo auf +15 bis 35% gegenüber Rembrandt hinauslaufen, je nachdem wie gut das Spiel mit RDNA3 skaliert. Bei Raytracing vielleicht auch 40% aber das wird bei einer APU wohl eh niemand nutzen.
Das Ding wird vermutlich nur in Modellen mit Hoch Auflösenden Displays verbaut werden, das wichtigste dort wird sein das die Display Engine das schafft ohne massiv zu viel Saft zu verbrennen.
Gameing vorallem nativ kann man natürlich knicken und FSR sieht gerade von 720p hochskaliert gruselig aus.
Das geht gerade so auf Steam Deck das Display ist dort aber auch deutlich kleiner als am Notebook.
Nightspider
2023-01-16, 11:41:53
FSR wird ja weiterentwickelt und Phoenix wird es garantiert auch in Handhelds schaffen.
Dank N4 dürfte Phoenix bei gleichem Verbrauch deutlich mehr Leistung bieten können als das Steam Deck. Die CPU Kerne sind 2 Generationen weiter und die GPU ist eine Generation weiter.
Wird interessant wie sich Phoenix mit sehr niedrigen Spannungen takten lassen wird.
mboeller
2023-01-16, 12:04:54
Gameing vorallem nativ kann man natürlich knicken und FSR sieht gerade von 720p hochskaliert gruselig aus.
die 680m hat teilweise schon ausreichend Leistung für FHD:
https://www.notebookcheck.com/AMD-Radeon-680M-Grafikkarte-Benchmarks-und-Spezifikationen.589710.0.html
Die Quality Einstellung von FSR2 erlaubt eine Ausgangsauflösung von 1706x960 (-> 2560x1440).
Das sind ca. 25% weniger Pixel pro Bild im Vergleich zu FHD.
https://gpuopen.com/fidelityfx-superresolution-2/
Die Leistung von Phoenix könnte also bei FHD bzw. 2560x1440 mit FSR2.x Quality ganz ok sein.
Ich hoffe ja immer noch, dass die Phoenix - AI-Engine für eine verbesserte Version von FSR 2.x bzw. FSR 3.x benutzt wird, auch wenn die Aussichten dafür, gerade bei AMD ziemlich gering sind.
dildo4u
2023-01-16, 12:08:02
Wie bei Nvidia leider wird die näste Stufe Fake Frames sein gerade im Low End nutzlos da man dann Frametimes von 30fps mit der Optik von 60 hat.
DrFreaK666
2023-01-16, 12:18:50
AMD hat weiterhin die Möglichkeit die Qualität zu verbessern. Was die AI-Einheiten können, wissen wir ja nicht wirklich
MSABK
2023-01-16, 12:25:36
Ich erwarte beim 780M nur so 10% mehr Leistung die auch nur vom minimal schnelleren Ram kommen.
Irgendwie konnte Ryzen 6xxx die Ram Speed nie in Bandbreite umwandeln, während Intel-Geräte bis zu 80GB/s haben, haben die AMDs oft unter 60GB/s.
dildo4u
2023-01-16, 12:32:18
Kann es wie am Desktop sein wenn man zu schnellen Ram nutzt explodiert der idle verbrauch oder betrifft das nur Desktop Modelle?
robbitop
2023-01-16, 12:35:49
ja da ist noch einiges im Argen :
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13212542#post13212542
damit ihr nicht soviel klicken müsst mal das Bild angefügt. Für die Besitzer von Navi31 Karten bleibt nur zu hoffen dass da noch dran gearbeitet wird.
Wobei Meshshader in Spielen bis dato noch kaum eine Verbreitung haben. Da bleibt also noch Zeit das zu fixen.
robbitop
2023-01-16, 12:53:00
Ich finde das Steamdeck hat mit der kleinen Auflösung alles richtig gemacht. Reicht (insbesondere mit TAA) und ist ein guter Kompromiss für Leistung (die ja auch (die eh schon viel zu kurze) Akkulaufzeit kostet). Auch FSR2 hilft da nur begrenzt weil das processing von FSR2 und die in outputresolution gerenderten postprocessings mehr kosten.
IMO müssen die Dinger bessere Akkulaufzeit bekommen.
(1) größerer Akku: beim Steadeckformfaktor sollte das möglich sein
(2) CPU/GPU mit besserer Energieeffizienz (da sollte Phoenix schon deutlich besser sein als Rembrandt und der steamdeck soc
(3) frameupscaling ala dlss3/fsr3 ist potenziell eine Maßnahme (je nach Spiel und frametarget - bei 40 fps inkl reflex sollte es machbar sein da ja dank gamepadsteuerung ordentlich Eingabelatenz versteckt werden kann)
(4) Undervoltingoptionen der CPU und GPU Kennlinie (fehlt dem Steamdeck gänzlich was schade ist weil man zumindest individuelles Potenzial nicht nutzen kann
(5) Funktionierendes Powermanagement im Framelimiter - siehe Videos von thephawkx. Wenn man im Framelimiter bei einer hohen TDP ist taktet die GPU unnötig hoch. Mit einem zusätzlichen reduzierten TDP Limit bekommt man oft die gleiche Framerate bei niedrigeren Taktraten und Verbräuchen. Das ist blöd weil TDP Limits statisch sind - der Bedarf an Rechenleistung für ein bestimtes FPS Limit nicht. Man würde insgesamt effizienter fahren wenn der SoC sich nur genau so viel pro frame nimmt wie er braucht, diesen in der geforderten Zeit zu rendern.*
(5) ein VRR display. Wenn wenn man das Frametarget knapp verpasst juddert es. Das ist blöd
(6) Ein LLC (16+ MiB) könnte auch nochmal richtig Energieeffizienz bringen. Lokale Speicherzugriffe sind aus Energiesicht immer viel billiger als externe. Bei 720p hätte so ein 16 MiB LLC sicherlich schon eine ganz brauchbare Hitrate. Ist aber AMD/Valve sicher zu teuer. Sind selbst bei 4 nm noch locker 10+ mm2 extra.
*Für Windows gibt es laut thephawkx einen Workaround. Da hat einer der Handheldhersteller ein tool geschrieben, was die TDP dynamisch an ein bestimmtes Framelimit anpasst. Das ist IMO unnötig und das sollte der SoC eigentlich selbst (in besser/schneller und effizienter) können.
Locuza
2023-01-16, 13:00:33
AMD hat weiterhin die Möglichkeit die Qualität zu verbessern. Was die AI-Einheiten können, wissen wir ja nicht wirklich
Seitdem Deep-Dive schon, die Vektor-Einheiten haben ein paar extra Transistoren bekommen, um Matrix-Operationen und BF16 berechnen zu können.
https://cdn.mos.cms.futurecdn.net/4p6e2PXgrmdZYhSyxjm3Hc-970-80.jpg.webp
Quelle: https://www.tomshardware.com/news/amd-rdna-3-gpu-architecture-deep-dive-the-ryzen-moment-for-gpus
Dank den extra SIMD Lanes verdoppelt sich der theoretische (!) Durchsatz gegenüber RDNA2 bei FP32 und FP16.
Die INT8/4-Implementierung genießt leider nicht den gleichen Luxus und beim theoretischen Durchsatz bleibt es gleich pro CU.
N21-6900 XT: ~ 25 TF FP32, ~ 50 TF FP16, 100 TOPs INT8, 200 TOPs INT4.
N31-7900 XTX: ~61 TF FP32 (~30 TF bei Single Wave32), ~123 TF FP16 (WMMA oder Dual-Issue), ~123 TOPs INT8 (WMMA oder DP4a), ~246 TOPs INT4 (WMMA oder DP8a).
Theoretisch steht nur der FP16-Durchsatz gut da, wenn man FP32 Accumulate verwendet, dass läuft nur als Half-Rate bei Nvidias Consumer Tensor-Cores ab.
Entsprechend erreicht eine 4080 dort nur ~98 / 195 TFLOPs (Dense / Sparse) bzw. das doppelte sollte FP16 Accumalate verwendet werden.
Bei INT8 (verwendet unter DLSS/XeSS) ist man aber weit abgeschlagen und FP8 wird gar nicht unterstützt von RDNA3.
4090: 660.6 / 1321.2 INT8 oder FP8 TOPs (Dense / Sparse)
4080: ~390 / ~780 INT8 oder FP8 TOPs (Dense / Sparse)
RDNA4 scheint auch keine Matrix-Einheiten mitzubringen, also auch in Zukunft wird der Durchsatz wohl (deutlich) hinter der Konkurrenz liegen.
robbitop
2023-01-16, 13:10:14
Ich glaube er meint die Extra AI Unit im SoC (nicht Teil der GPU).
Ich vermute aber mal, dass das nicht FSR gedacht ist. Weil außerhalb der GPU und dafür ggf nicht optimiert.
Locuza
2023-01-16, 13:12:41
Mea Culpa, ich bin meist im Überflug-Modus.
Von dem Xilinx Accelerator würde ich mir in Bezug auf 3D-Berechnungen auch nicht viel erhoffen.
robbitop
2023-01-16, 13:14:20
btw: laut der chipsandcheese Analyse steigt der fp16 (rapid pcked math) bei rdna3 ggü rdna2 nicht. Da scheint das dual issue nichts zu bringen.
Locuza
2023-01-16, 13:23:15
Bei den verwendeten Testläufen kommt vermutlich auch gar kein Dual-Issue zum Einsatz.
Man könnte/müsste auch noch die neuen WMMA-Instruktionen testen.
Da sollte man dann auch den doppelten FP16-Durchsatz (teilweise) sehen.
Was aber natürlich bedeutet, dass ohne Anpassungen oder extra APIs man das nicht automatisch bekommt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.