PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27] 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

dargo
2022-11-04, 19:25:57
Ist fraglich, ob das jemals kommt, weil Unwinder keinen Bock mehr auf AMD-APIs und AMD-User hat.
Brauchts auch dank Wattman nicht.

Badesalz
2022-11-04, 19:26:51
@Tesseract
Dein ernst? Lisa lässt es auf so einer Zen4X3D prototype Maschine benchen, gibt die Zahlen samt den Namen der Spiele frei für den Launch und die Tester später erreichen diese dann nicht annähernd?

Würde hier jemand in ihrer Position so einen Schwachsinn zulassen Leute? Echt mal. Was für ein Quatsch :freak:

edit:
diese fake-balken sind völliger müll.Jetzt mal unabhängig davon, daß dies natürlich richtig ist ;)

Linmoum
2022-11-04, 19:27:59
Ja, die ganzen Benchmarks wirken generell so, als hätte AMD selbst kein großes Vertrauen in das eigene Produkt. Insbesondere verglichen mit der RDNA2-Präsentation damals.

Einfach schade, dass wir hier aus Kundensicht bezogen auf das Wettbewerbsverhältnis beider Hersteller sehen müssen, dass der Abstand wieder (deutlich) größer wird.

Badesalz
2022-11-04, 19:29:33
Benchmarks zeigen ein fehlendes Vertrauen in das eigene Produkt. DAS ist doch auch mal was neues :D
(Bei GPUs. Bei CPUs kennt man das schon so halbwegs von Intel.)

Hatten wir dazu passend noch keine Stimmanalyse der Vortragenden gehabt? Warum nicht? Ist naheliegend...

Lyka
2022-11-04, 19:33:50
ja, gegen die 4090? Das wäre mehr als nur kontraproduktiv gewesen. Das wusste jeder. Und gegen "die alte Generation 30xx"? Die würde niemanden außerhalb der Computerforen interessieren.

Tesseract
2022-11-04, 19:35:38
Würde hier jemand in ihrer Position so einen Schwachsinn zulassen Leute? :Was für ein Quatsch :freak:

ist dir entgangen, dass in der präsentation ständig von "8k" die rede ist womit aber eine ultrawide-auflösung gemeint ist die die hälfte der pixel von 8k hat? :freak:

dargo
2022-11-04, 19:38:12
Echt? Vor 2 Jahren ist er ja auf Guru3D wegen NV und einem Haufen 3090 Besitzer ausgerastet. Sind jetzt die AMDler dran? :rolleyes:
In zwei Jahren ist Intel dran dann sind alle durch. :D

sChRaNzA
2022-11-04, 19:48:49
das kannst du nicht. nicht von "up to" (lol) auf average, nicht mit so groben angeben wie "1.5x" und nicht ohne die testbedingungen zu kennen. selbst unter der annahme dass alle diese zahlen korrekt sind könnten die das genau so gut auf einem Zen4 3D engineering sample getestet haben und damit auf einen grad der GPU-limitierung kommen die momentan kein reviewer erreichen kann. außerdem weiß kein mensch was die in diesen spielen überhaupt gemessen haben.

diese fake-balken sind völliger müll.

Also liegt die Karte dann genau wo?

Badesalz
2022-11-04, 20:02:09
Wie soll man das denn "genau" jetzt schon sagen? Das werden erst Nexus&Co. rausfinden ;)

Der_Korken
2022-11-04, 20:04:03
Ist dann Ampere keine Mogelpackung? Dort hat man ja auch die FP/INT "Mix" Einheiten.

Nein, warum? Die Datenpfade sind bei Ampere physisch vorhanden und können auch parallel rechnen. Du hattest im vorigen Post gemutmaßt, dass RDNA3 genau das nicht haben könnten, sondern nur SMT-mäßig die Auslastung der vorhandenen ALUS erhöht. Prinzipiell ist das möglich, aber dagegen spricht, dass AMD ganz konkrete TFlops/s genannt hat. Warum sollte man das tun, wenn das eigentlich gar nicht stimmt? Man hätte ja auch einfach nichts sagen können.

AIBs sagen, die xtx lässt kaum(+3%) oc zu


Uff, das wäre ein weiteres Indiz dafür, dass die getrennte Taktdomäne eine Notlösung war, weil der Chip nicht die geplante Taktrate erreicht hat.

Oh interessant. Dann wären 48 WGP ja 48*331 = 15.888 Mio Transistoren, also gerade mal ein VIERTEL der Gesamttransistoren von RDNA 3 (58 Mrd).

Hätte ja gedacht, dass der KERN einer GPU mehr transistoren ausmacht. Aber offenbar ist SI, Caches usw. insgesamt beträchtlich mehr.

1/4 kommt mir aber sehr wenig vor, denn die WGPs belegen definitiv >50% der Chipfläche - zumindest war das bei RDNA1 und RDNA2 so. Die 96MB Cache wären je nachdem, ob man 6 oder 8 Transistoren pro Flipflop nutzt ca. 4,5 bzw. 6 Mrd. Transistoren für die Flipflops, zuzüglich Tags und Control. Wo soll der ganze Rest hin sein?

gruntzmaker
2022-11-04, 20:12:45
Ja, die ganzen Benchmarks wirken generell so, als hätte AMD selbst kein großes Vertrauen in das eigene Produkt. Insbesondere verglichen mit der RDNA2-Präsentation damals.

Einfach schade, dass wir hier aus Kundensicht bezogen auf das Wettbewerbsverhältnis beider Hersteller sehen müssen, dass der Abstand wieder (deutlich) größer wird.

Warum schade? AMD liefert für einen kundenfreundlichen Preispunkt ein Produkt zu bestmöglicher Produktion ab. Sogar mit Chiplet Design etc.

RX7000 ist ein sehr gutes Produkt. Das muss man nicht schön reden. AMD kann es nicht besser.

Badesalz
2022-11-04, 20:15:52
Hmm. Mir kommt der Takt auch niedrig vor. Als wenn sie auf einmal einen Partycrasher entdeckt hätten und das nicht mehr zu fixen/ändern war.
Bisschen komisch find ich ja dabei, daß schon davor was über RDNA3+ blubberte :tongue: Das war davor imho nicht so.

Ist die Folge davon, daß wenn das so sein sollte, sie das dazu zwingt recht nah am Sweetpoint zu operieren? :|

PS:
Ich finde immernoch keinen im Netz - von denen die ihr Gesicht zeigen und nicht Quagmire vorschieben - die RDNA3 schlecht finden. Ich glaub die Preise und TBPs haben halbwegs gewirkt...

Meridian12
2022-11-04, 20:16:40
AMD konnte eigentlich keine richtigen Tests veröffentlichen.

Die 4090 passte null. Man vergleicht seine E Klasse auch nicht mit dem 7er BMW.
Und wenn in 3 Wochen der neue 5er BMW rauskommt, macht es auch wenig Sinn seine E Klasse gegen das alte Modell antreten zu lassen.

Die Aussagekraft wäre dann auch beschränkt.

Mangel76
2022-11-04, 20:20:51
Uff, das wäre ein weiteres Indiz dafür, dass die getrennte Taktdomäne eine Notlösung war, weil der Chip nicht die geplante Taktrate erreicht hat.


Das könnte auch noch ein Treiberproblem sein. Warum sollten sonst AIB-Modelle mit 3 Stromanschlüssen kommen, wenn damit nur 3% an Takt zu holen sind? Die Aussage bezog sich auf preliminary drivers.

dildo4u
2022-11-04, 20:21:58
jKWwMY2qvlo

Badesalz
2022-11-04, 20:22:46
Kommen denn gesichert AIBs mit 3 Buchsen?

Mangel76
2022-11-04, 20:23:37
Kommen denn gesichert AIBs mit 3 Buchsen?

https://www.computerbase.de/2022-11/asus-tuf-gaming-radeon-rx-7900-xtx-7900-xt-custom-design/

dildo4u
2022-11-04, 20:24:05
Kommen denn gesichert AIBs mit 3 Buchsen?
Jup.

https://videocardz.com/newz/asus-reveals-radeon-rx-7900-tuf-series-with-triple-8-pin-power-connectors

Redneck
2022-11-04, 20:25:02
Kommen denn gesichert AIBs mit 3 Buchsen?

Falls die Karten nur Headroom für 3% haben, vollkommen unnötig

OgrEGT
2022-11-04, 20:26:38
Ich würde auch sagen, erst mal auf unabhängige Testberichte warten. Ich würde auch davon ausgehen, dass die max. 3% OC sich auf die Referenzkarten beziehen, welche durch die Stromversorgung mit 2x8Pin (<375W) limitiert sind. OC Karten wie die TUF mit 3,5Slot Kühler und 3x8Pin (<475W) könnten nochmal schneller sein... wieviel schneller wird man ja sehen... niemand weiß wie die Karten mit mehr Leistungsaufnahme skalieren. Wenn man das Schnellste ohne Kompromisse will und die Karten gut skalieren bis 3x8Pin (<475W) warum nicht. Die AMD Werksmodelle sind dann für diejenigen die es vernünftiger/sparsamer und leiser angehen lassen :)
RT ist halt Geschmackssache... mit entsprechender Upscaling Option sollte es auch bei AMD passen. Ansonsten kann man ja auch einfach eine NV Karte kaufen und damit glücklicher sein...

mboeller
2022-11-04, 20:30:58
Ich würde auch sagen, erst mal auf unabhängige Testberichte warten. Ich würde auch davon ausgehen, dass die max. 3% OC sich auf die Referenzkarten beziehen, welche durch die Stromversorgung mit 2x8Pin (<375W) limitiert sind. OC Karten wie die TUF mit 3,5Slot Kühler und 3x8Pin (<475W) könnten nochmal schneller sein... wieviel schneller wird man ja sehen... niemand weiß wie die Karten mit mehr Leistungsaufnahme skalieren. Wenn man das Schnellste ohne Kompromisse will und die Karten gut skalieren bis 3x8Pin (<475W) warum nicht. Die AMD Werksmodelle sind dann für diejenigen die es vernünftiger/sparsamer und leiser angehen lassen :)
RT ist halt Geschmackssache... mit entsprechender Upscaling Option sollte es auch bei AMD passen. Ansonsten kann man ja auch einfach eine NV Karte kaufen und damit glücklicher sein...

wäre eine Erklärung:

(375/355)^0,5 = 1,027 (+2,7%)

(475/355)^0,5 = 1,156 (+15,6%)

sChRaNzA
2022-11-04, 20:35:55
Wie soll man das denn "genau" jetzt schon sagen? Das werden erst Nexus&Co. rausfinden ;)

Eben! :wink:

Darum empfinde ich das Rumgeheule auch als absolut wertlos. ;)

Complicated
2022-11-04, 20:42:32
Falls die Karten nur Headroom für 3% haben, vollkommen unnötig

Und wenn der Headroom genau wegen nur 2x8 Pin besteht? Die Referenzkarten sind schließlich am oberen Limit ausgelegt, vom Verbrauch. 100 Watt dazu bei den Customs und wer kann schon jetzt sagen wie der Takt skaliert?

Badesalz
2022-11-04, 20:47:05
Eben! :wink:

Darum empfinde ich das Rumgeheule auch als absolut wertlos. ;)Seine Wertlosigkeit gleicht aber jener der Fakebalken. Das ist das berüchtigte Zeug mit der Ursache und der Wirkung...

@all
An sich müsste man erstmal schauen und damit abwarten was das Gedöns ohne FSR3 bringt. Und wie sich FSR3 überhaupt optisch macht. Wenn sie ohne FSR3 zusammenfallen und FSR3 wie DLSS3-Q aussieht, dann war es wirklich ein FLOPP. Wenn nicht, dann mal sehen was man real rauskommt... =)

gruntzmaker
2022-11-04, 20:48:03
Eben! :wink:

Darum empfinde ich das Rumgeheule auch als absolut wertlos. ;)

Deswegen habe ich bereits bei meinem lokalen Händler Interesse angemeldet.

Die Karten sind sehr gut, Raster auf sehr sehr hohem Niveau und RT auf anständigem Ampere Level. Zu einem Preis, für den Nvidia weniger Raster- und kaum bis gar nicht mehr Raytracing Leistung liefert.

Man muss nur Mal sehen, was eine 3090 immer noch kostet.

sklave_gottes
2022-11-04, 22:11:10
Ist schon bekannt wann die Test kommen?

Iscaran
2022-11-04, 22:12:58
Nein, warum? Die Datenpfade sind bei Ampere physisch vorhanden und können auch parallel rechnen. Du hattest im vorigen Post gemutmaßt, dass RDNA3 genau das nicht haben könnten, sondern nur SMT-mäßig die Auslastung der vorhandenen ALUS erhöht. Prinzipiell ist das möglich, aber dagegen spricht, dass AMD ganz konkrete TFlops/s genannt hat.

Datenpfade bei Ampere und RDNA 3 sind für diese Operationen in beiden Fällen da. Das ist ja nicht nur "Software" die nun "dual-Issue" ermöglicht. Inwiefern sich die Konstruktionen aber im Detail zwischen nV und AMD unterscheiden hinsichtlich der Datenpfad "Dopplung". Müsste man wohl mit dem Mikroskop nachlesen oder so.

Was die konkreten TFlops Angaben betrifft. Auch nVidia rechnet seit Ampere die Theoretische Flops mit 100% FP32 aus...auch wenn man das praktisch nur in synthetischen Benchmarks erzielen kann.

Bei AMDs "Dual-Issue" wird es auch nicht viel anders sein.

Bei Ampere werden also die theoretisch angegeben, aber faktisch nicht erreichbaren TFlops hingenommen, bei AMD wäre das "komisch"...hmmm.

EDIT: Bin mal gespannt ob AMD die Specs auf der eigenen Homepage nochmal ändert/anpasst.
https://www.amd.com/en/products/graphics/amd-radeon-rx-7900xtx
Dort SIND es 6.144 Stream Prozessoren - und eben geraden NICHT 12.288. IMHO wäre es von nVidia ehrlicher dies ebenfalls so anzugeben.
Aber dann hätte man halt weniger Stream Prozessoren ^^ und Jensen mag Fake zahlen. Je größere desto besser.

Thunder99
2022-11-04, 22:23:19
Beide verdoppeln, wo ist das Problem?
Am Ende interessiert nur was raus kommt. Und mehr ist in der Regel besser

MSABK
2022-11-04, 22:25:29
Gibt es nicht Herstellerkarten der 6900XT die mit 2,7Ghz laufen? Dann sollten wir evtl mit der 7900XTX auch Karten mit 2,7Ghz oder mehr sehen.

Linmoum
2022-11-04, 22:36:23
Erstmal ist die Frage, wo der reale Takt liegt. Der hat in der Regel nur wenig damit zu run, was AMD und NV offiziell angeben. Die 4090 läuft in Spielen auch mit >200MHz mehr als der offizielle Boost aussagt.

amdfanuwe
2022-11-04, 22:37:12
Wie sieht es jetzt mit N32 aus?
Ist der nun
32WGP = 4SE * 32 WGP oder
30WGP = 3SE * 10 WGP?

könnte dann so aussehen:

TheGood
2022-11-04, 22:41:35
Ja für RX5700 z.b aber ich vermute das 3060/6600 das neue Minimum sind also Hardware RT immer mit einkalkuliert wird was Performance angeht.
Schon alleine da die neuen Konsolen es auch können.
Warum sollten sie denn die Verbreitung von RT Grafikkarten ist dafür viel zu gering....
Du glaubst doch selbst nicht dass sie sich die MÜhe und en Aufwand betreiben Lumen mit Software RT Lösung zu programmieren um es dann kurz nach dem Release abzuschalten...

Das Problem ist vor allem dass offensichtlich hier niemand weiss was Software RT bei Lumen macht und wie das Software RT von Lumen durch Hardware RT unterstützt wird. Bisher habe ich dazu noch keine Antworten hier gesehen.

Von dem mal abgesehen ist RDNA RT bei GI gut dabei....

Ravenhearth
2022-11-04, 22:46:28
1/4 kommt mir aber sehr wenig vor, denn die WGPs belegen definitiv >50% der Chipfläche - zumindest war das bei RDNA1 und RDNA2 so. Die 96MB Cache wären je nachdem, ob man 6 oder 8 Transistoren pro Flipflop nutzt ca. 4,5 bzw. 6 Mrd. Transistoren für die Flipflops, zuzüglich Tags und Control. Wo soll der ganze Rest hin sein?
Ne die reinen WGPs belegen weniger als die Hälfte der Chipfläche vom GCD, rein rechnerisch genau 120mm² (40%). Auch bei Navi21 kann das laut AMDs eigenen Angaben nur 1/3 vom ganzen Chip gewesen sein. Dazu kommen noch die Shader Engines, ROPs, L1, L2, Display Engine, Media Engine, Fabric etc. Und zum Transistor Count von N31 zählen noch die 6 MCDs mit IF.
Von Locuza (https://twitter.com/Locuza_/status/1588367724337860609):

https://pbs.twimg.com/media/FgsD5InXoAA9d_y?format=jpg&name=900x900

Wie sieht es jetzt mit N32 aus?
Ist der nun
32WGP = 4SE * 32 WGP oder
30WGP = 3SE * 10 WGP?

könnte dann so aussehen:
Ich denke, es werden wie Angstronomics sagt 30 WGPs, das wäre im Prinzip ein halbierter N31 mit ein paar extra WGPs.

gedi
2022-11-04, 23:03:02
Ihr mit eurem Performance-Krempel. Mal etwas Anderes: trib.al/AsUO6ri

gedi
2022-11-04, 23:05:05
Ich würde auch sagen, erst mal auf unabhängige Testberichte warten. Ich würde auch davon ausgehen, dass die max. 3% OC sich auf die Referenzkarten beziehen, welche durch die Stromversorgung mit 2x8Pin (<375W) limitiert sind. OC Karten wie die TUF mit 3,5Slot Kühler und 3x8Pin (<475W) könnten nochmal schneller sein... wieviel schneller wird man ja sehen... niemand weiß wie die Karten mit mehr Leistungsaufnahme skalieren. Wenn man das Schnellste ohne Kompromisse will und die Karten gut skalieren bis 3x8Pin (<475W) warum nicht. Die AMD Werksmodelle sind dann für diejenigen die es vernünftiger/sparsamer und leiser angehen lassen :)
RT ist halt Geschmackssache... mit entsprechender Upscaling Option sollte es auch bei AMD passen. Ansonsten kann man ja auch einfach eine NV Karte kaufen und damit glücklicher sein...

Liegt am Treiber und dass sich die Referenz nicht übertakten lässt!

OgrEGT
2022-11-04, 23:17:24
Liegt am Treiber und dass sich die Referenz nicht übertakten lässt!

Wahrscheinlich da derzeit nur 2x8pin (<375W) als PTmax hinterlegt sind.

https://videocardz.com/newz/amd-radeon-rx-7900-gpus-are-designed-to-scale-up-to-3-0-ghz
With the preliminary drivers, board partners are only seeing 3% overclocking potential with custom Radeon RX 7900 series. This is indeed low, but it will probably be higher with the final drivers.

Dann mal finale Treiber abwarten...

Linmoum
2022-11-04, 23:22:14
"Auf finale Treiber warten" sollte man bei AMD seit dem Vega-Doom-Fiasko echt nicht mehr in den Mund nehmen. :freak:

TheGood
2022-11-04, 23:27:21
"Auf finale Treiber warten" sollte man bei AMD seit dem Vega-Doom-Fiasko echt nicht mehr in den Mund nehmen. :freak:
Dir ist schon klar, dass das der mit Abstand unqualifizierteste Beitrag ist der hier steht!

aufkrawall
2022-11-04, 23:30:38
Wie naiv muss man sein, zu glauben, unabhängige Tests könnten AMDs eigene Performance-Angaben nennenswert übertreffen? Da bettelt man ja förmlich darum, enttäuscht zu werden. :freak:

Linmoum
2022-11-04, 23:30:42
Mir ist nur klar, dass du scheinbar nicht weißt, was das bedeutet und was damals der Fall war.

Wenn Todd Howard sagt "It just works" sollte man auch die Beine in die Hand nehmen und wegrennen.

Badesalz
2022-11-04, 23:31:06
Was soll da sonst passieren, wenn die Treiber nicht was zünden?! Was die garantiert nicht zünden werden sind die Stromstecker.

Ok wird man nicht nenneswert übertakten können? Dann hat man die Leistung die man zugesichert gekauft hat. Weiß man doch, bevor man sie in den Warenkorb schiebtr.

Keiner macht grad irgendwelche Versprechungen -> keiner wird verarscht. Kommst mit sowas klar oder?

PS:
Mir kommt es du spielst jetzt weniger als davor. Ist noch kein neuer Adapter da?

edit:
aufkrawall scheint echt nur noch Langeweile zu haben... Freitag halb 12 mit RT on, aber das scheint irgendwie doch nicht so lebenserfüllend zu sein wie das so mancher gerne behauptet. Tausende Teraflops um in Foren rumzulungern. Echt ej...

basix
2022-11-05, 01:25:24
Wie sieht es jetzt mit N32 aus?
Ist der nun
32WGP = 4SE * 32 WGP oder
30WGP = 3SE * 10 WGP?

könnte dann so aussehen:

3SE machen bei der Anordnung mehr Sinn. Sonst wird das Die recht schmal. Mit 3SE kann man wie von dir dargestellt eine Seite mit SE weglassen und den Rest des Chips geometrisch fast identisch lassen. Die Breite der restlichen Teile (PCIe, Display, Video) kann dann auch so belassen werden.

Von Locuza (https://twitter.com/Locuza_/status/1588367724337860609):

https://pbs.twimg.com/media/FgsD5InXoAA9d_y?format=jpg&name=900x900
@Locuza: Hier gibt es ein gutes Bild von N31
https://www.pcgameshardware.de/screenshots/original/2022/11/AMD-Radeon-RX-7900-Series-GPU-4-pcgh.jpg

horn 12
2022-11-05, 01:54:55
Die Treiber (durch das Chiplet Design)
sind denke ich das Problem bei AMD´s 7900-er Serie, denn oftmals kann jene knapp bis gar mit 4090 mithalten,- und dann auch nur Gleichauf mit 3090 TI oder knapp darüber.
Dies glaube ich ist die Achillesferse der Neuen AMD Grafikkarte und dies weiss AMD nur zu gut.

Die Gestrige Vorstellung wirkte einfach "Nervös - Unbeholfen" und auch das Interview heute mit Frank,- zu sehen an seinen Gesten und Nervosität (Daumen drehen)

NC
2022-11-05, 03:40:20
Die Treiber (durch das Chiplet Design)
sind denke ich das Problem bei AMD´s 7900-er Serie
Dem Treiber sollte das Chipletdesign relativ egal sein. Der Speicher bei einer GPU ist eh unterteilt und mit einzelnen Memorycontrollern betrieben, ob diese On-Die oder auf Chiplets sind ist eher eine elektronische Herausforderung.
Ich denke der Treiber ist eher gefordert beim Auslasten der Dual-ALUs, falls dazu, wie bei RPM, Register gepaart werden usw.

horn 12
2022-11-05, 03:49:09
RayTracing

https://twitter.com/AMDGPU_/status/1588599436363825152

AMD wird wohl bei RayTracing wie schon beim Vorgänger weit abgehängt bleiben,
denke 4090 wird knapp doppelt so schnell bleiben!

OpenVMSwartoll
2022-11-05, 04:20:43
RayTracing

https://twitter.com/AMDGPU_/status/1588599436363825152

AMD wird wohl bei RayTracing wie schon beim Vorgänger weit abgehängt bleiben,
denke 4090 wird knapp doppelt so schnell bleiben!

Au ja, die Quelle lag ja zuletzt richtig... nicht.

Zumal: Leo hat doch ne ungefähre Abschätzung präsentiert.

DrFreaK666
2022-11-05, 04:29:41
Wieso wird der Typ ständig zitiert?
Ich verstehs nicht...

Nightspider
2022-11-05, 04:30:00
Wird bei mir wohl entweder eine 7900XTX oder 4080 werden.

Mal schauen.

TheGood
2022-11-05, 07:25:42
Bei der Treiberdiskussion ging es doch rein um das OVerclocking und es ist doch allgemein bekannt, das sdie Treiber die aktuell unterwegs dermaßen gesperrt sind, dass da nicht viel geht. DAs haben die hier ach so oft zitierten selbsternannten Koryphäen wie Igor ja auch bestätigt.

Soweit dazu. Dass wir hier in 4 Wochen jetzt nicht einen performance Spurng von +10% erwarten dürfen ist doch hoffentlich jedem klar...

Neurosphere
2022-11-05, 09:36:32
Target 4080...naja.

https://videocardz.com/newz/amd-confirms-rx-7900-xtx-is-rtx-4080-competitor-fsr3-may-be-supported-by-pre-rdna3-architectures

Die Sache ist, selbst wenn AMD eine N32 oder N31 dual GCD bringen könnte, dürfte ihnen die mangelde RT Leistung nicht weiterhelfen. Der Preis einer solchen Lösung wäre wohl auf ähnlichem Niveau wie die 4090, im Raster dann diesmal wirklich schneller, in RT aber trotzdem weit dahinter. Wenn ich dann die Wahl treffen müsste würde ich zur 4090 greifen.

Finde die Namensgebung auch schade. XTX hätte man sich lieber für was aufheben sollen was wirklich einschlägt.

fondness
2022-11-05, 09:41:10
Zumindest die Bestätigung, dass FSR3 nicht RDNA3 only sein wird. Und klar ist die 4080 der Gegner, passt auch besser von der TDP, Preis und Kosten her. Da siehts dann auch nicht mehr so schlecht aus, in Raster klar vorne und in Raytracing etwas hinten.

Thunder99
2022-11-05, 09:43:17
Die Karten sind gut, aber nicht gut genug gegenüber der 4090 aber besser als die 4080.
Rest muss das Marketing richten :freak:

Wegen der RT Differenz zur 4090 würde ich dies nicht überbewerten. Wenn bei zukünftigen Spielen die RT Last nicht extrem wird (UE5) dann stehen die Karten auch besser da.

nordic_pegasus
2022-11-05, 09:46:30
https://youtu.be/jKWwMY2qvlo

wurde hier noch gar nicht erwähnt, bei 8:30 sagt Frank Azor direkt, dass die 7900XTX ein Konkurrent der 4080 ist, nicht der 4090. Jetzt müsste man nur wissen, seit wann dass die offizielle Sprechweise von AMD ist.

Pfuscher
2022-11-05, 09:46:39
Kurzfristig ändert Nvidia eventuell minimal den Preis der 4080
Langfristig kommt eine 4080Ti 4070Ti
Einfach mal abwarten

Sumpfmolch
2022-11-05, 09:49:26
Target 4080...naja.

https://videocardz.com/newz/amd-confirms-rx-7900-xtx-is-rtx-4080-competitor-fsr3-may-be-supported-by-pre-rdna3-architectures

Die Sache ist, selbst wenn AMD eine N32 oder N31 dual GCD bringen könnte, dürfte ihnen die mangelde RT Leistung nicht weiterhelfen. Der Preis einer solchen Lösung wäre wohl auf ähnlichem Niveau wie die 4090, im Raster dann diesmal wirklich schneller, in RT aber trotzdem weit dahinter. Wenn ich dann die Wahl treffen müsste würde ich zur 4090 greifen.

Finde die Namensgebung auch schade. XTX hätte man sich lieber für was aufheben sollen was wirklich einschlägt.

Verstehe den Gedankengang nicht. AMD bietet in diesem Preisbereich gar kein Produkt an. Wer den Preis einer 4090 zahlen möchte, muss eine 4090 kaufen.

Interessant wird es nur um Bereich um 1000€.

AlterSack
2022-11-05, 09:55:40
hab die diskussion nicht vefolgt, deshalb die frage wo denn die hohen frequenzen von 3 ghz+ geblieben sind? fast 2,5 fache anzahl an recheneinheiten für 1,5 fache leistung bei fast identischen taktraten. da ging die ipc ganz schön in den keller, nachdem man die schon mit rdna2 reduzierte.

Linmoum
2022-11-05, 09:55:50
Zumindest die Bestätigung, dass FSR3 nicht RDNA3 only sein wird.Das sagt er nicht. Sie wollen es nicht nur auf RDNA3 zur Verfügung stellen und arbeiten daran, eine direkte Bestätigung, dass das aber auch so kommen wird, liefert er (noch) nicht.

Ansonsten haben wir vs. die 4080:


+50% Speicher
+15-20% (?) Raster-Performance
-30-40% (?) RT-Performance im Mittel, worst case (von denen es, wie man bislang sieht, leider viel zu viele für RDNA gibt) wahrscheinlich eher >70% langsamer
~17% günstiger

Das ist alles so all over the place. Und wenn man laut AMD mit der 4080 konkurriert, hätte man auch noch etwas mehr Geld nehmen sollen.

Ansonsten verstehe ich nicht, warum sie RT dann nicht mit der 3090(Ti) verglichen haben. Die sind klar besser als RDNA2 in der Hinsicht und dann hätte man trotzdem zeigen können, wie gut die Zuwächse sind. Dass man das dennoch nicht getan hat, deutet leider schon an, dass man auch gegen diese wohl leider chancenlos sein wird.

NC
2022-11-05, 09:56:56
Finde die Namensgebung auch schade. XTX hätte man sich lieber für was aufheben sollen was wirklich einschlägt.Damit hätte AMD die Erwartung geweckt dass noch was dickes kommt, somit eigene Verkäufe limitiert UND dann wirklich ein 450W+ Monster liefern müssen.
Wenn sie jetzt im besseren P/L die Kuh melken und in 1-2Jahren ein Dual-Chiplet liefern haben sie mehr davon, denn damit sollten doch bis dahin alle Spiele in Raster 4K mit 60FPS laufen.

Dural
2022-11-05, 09:58:32
Und sie fantasieren immer noch nach einer dual lösung, obwohl es doch technisch offensichtlch gar nicht machtbar ist. Oder was denkt ihr eigentlich wie so die shader nach wie vor im mono die drin sind!?!

Wie ich schon gleich gesagt habe darf sich der 522mm2 inkl. 384bit prügel mit dem 379mm2 256bit ad103 herumschlagen.

Mehr flopp als das geht ja gar nicht mehr, das ja nich schlimmer als der ganze vega und fury müll.

amdfanuwe
2022-11-05, 10:00:34
Ist Fan-Out-Package jetzt der erste Einsatz bei N31/32?
Bei MI250 wurden ja EFBs zur Anbindung des HBM verwendet.

NC
2022-11-05, 10:03:27
+15-20% (?) Raster-Performance
~17% günstiger

Das ist alles so all over the place. Und wenn man laut AMD mit der 4080 konkurriert, hätte man auch noch etwas mehr Geld nehmen sollen.

Das ist aber doch genau der Punkt. Selbst 999 bzw. 899 ist viel, aber da nv weniger Leistung bei 1/3 mehr kosten liefert, wirkt das bei vielen wie "take my money". Am Ende wird die Menge die Marge ausgleichen.

Adam D.
2022-11-05, 10:08:04
Verstehe den Gedankengang nicht. AMD bietet in diesem Preisbereich gar kein Produkt an. Wer den Preis einer 4090 zahlen möchte, muss eine 4090 kaufen.

Interessant wird es nur um Bereich um 1000€.
Das sind die ganzen Konsequenzen dieser bescheuerten Hype-Trains jedes Mal bei AMD. Offensichtlich können die Leute hier nicht mehr 4-stellig zählen.

Linmoum
2022-11-05, 10:17:51
Das ist aber doch genau der Punkt. Selbst 999 bzw. 899 ist viel, aber da nv weniger Leistung bei 1/3 mehr kosten liefert, wirkt das bei vielen wie "take my money". Am Ende wird die Menge die Marge ausgleichen.$999 vs. $1199 sind nicht "1/3 mehr Kosten". :freak: Und die 7900XT dürfte halt nur ~identische Raster-Performance zur 4080 liefern.

Aber da stand ja noch mehr, was du nicht zitiert hast. ;) Der Performancerückstand bei RT wird massiv größer sein als der Performancevorsprung, den sie mit Raster haben. Aus meiner Sicht ist der Preis daher folgerichtig - sie können schlicht aufgrunddessen nicht mehr verlangen - aber aus der Argumentation von Azor irritiert mich der Preis aus AMDs Sicht aber doch. Wenn ich Konkurrenz habe, dann konkurriere ich auch und mach die Karte nicht spürbar günstiger.

[MK2]Mythos
2022-11-05, 10:26:49
$999 vs. $1199 sind nicht "1/3 mehr Kosten". :freak: Und die 7900XT dürfte halt nur ~identische Raster-Performance zur 4080 liefern.

Aber da stand ja noch mehr, was du nicht zitiert hast. ;) Der Performancerückstand bei RT wird massiv größer sein als der Performancevorsprung, den sie mit Raster haben. Aus meiner Sicht ist der Preis daher folgerichtig - sie können schlicht aufgrunddessen nicht mehr verlangen - aber aus der Argumentation von Azor irritiert mich der Preis aus AMDs Sicht aber doch. Wenn ich Konkurrenz habe, dann konkurriere ich auch und mach die Karte nicht spürbar günstiger.
999 USD und 7900XT. Finde den Fehler.

Adam D.
2022-11-05, 10:28:05
$999 vs. $1199 sind nicht "1/3 mehr Kosten". :freak: Und die 7900XT dürfte halt nur ~identische Raster-Performance zur 4080 liefern.

Aber da stand ja noch mehr, was du nicht zitiert hast. ;) Der Performancerückstand bei RT wird massiv größer sein als der Performancevorsprung, den sie mit Raster haben. Aus meiner Sicht ist der Preis daher folgerichtig - sie können schlicht aufgrunddessen nicht mehr verlangen - aber aus der Argumentation von Azor irritiert mich der Preis aus AMDs Sicht aber doch. Wenn ich Konkurrenz habe, dann konkurriere ich auch und mach die Karte nicht spürbar günstiger.
Sag mal, was zur Hölle ist eigentlich mit dir seit dem Kauf der 4090 passiert? Ich bekomme echt Kopfschmerzen.

Wenn ich als Konkurrenz mit einer 899$-Karte in dem weiterhin maßgeblichsten Szenario - Rasterizing Performance - mit der 1299$-Karte des Konkurrenten mithalten kann, dann hab ich auf einmal den Wettkampf verloren? Weißt du, was 400$ für 95% der Käufer für einen gigantischen Unterschied machen? Geil dich an deiner 4090 auf, das nimmt dir hier keiner. Aber hört endlich auf, mit diesen völlig verqueren Argumenten diesen Thread kaputt zu machen.

Complicated
2022-11-05, 10:39:56
wurde hier noch gar nicht erwähnt, bei 8:30 sagt Frank Azor direkt, dass die 7900XTX ein Konkurrent der 4080 ist, nicht der 4090. Jetzt müsste man nur wissen, seit wann dass die offizielle Sprechweise von AMD ist.
Ich finde diese Fragestellung merkwürdig. Die offizielle Sprechweise eines Unternehmens zu seinen Produkten beginnt mit der Vorstellung - das war am 03.11. - Also wäre die Antwort auf Deine Frage: "Schon immer" oder "von Anfang an" oder "nie anders".

nordic_pegasus
2022-11-05, 10:43:02
Wie ich schon gleich gesagt habe darf sich der 522mm2 inkl. 384bit prügel mit dem 379mm2 256bit ad103 herumschlagen.

Mehr flopp als das geht ja gar nicht mehr, das ja nich schlimmer als der ganze vega und fury müll.

für mich als Kunden ist das nicht sonderlich relevant. Die 7900XTX ist vorbehaltlich unabhäniger Tests in Raster schneller als die 4080, hat mehr VRAM, DP2.1, vergleichbaren Stromverbrauch und ist günstiger. Ob jetzt AMD dafür mehr Fläche und SI benötigt, wayne? Vielmehr zeigt es doch, was für Mondpreise Nvidia verlangt. Außerdem bekomme ich als Vollausbau-Fetischist bei AMD wenigstens den ganzen Chip für $1000. Bei Nvidia bekommt man weder bei der 4080 noch bei der 4090 auch nur ansatzweise den vollen AD103 bzw. AD102. Ich wäre durchaus bereit die Preise einer 4090 zu zahlen, wenn ich den vollen Chip bekäme ;-)

Zusätzlich passt aber auch tatsächlich keine 4090 in mein Gehäuse, weil neben dem Mainboard bei mir der AGB meines Custom-Loops verbaut ist. Selbst mit Wakü-Blöcken wird es bei Custom-PCBs knapp, bei Luftkühlung hätte ich keine Chance. Den selten hässlichen Stromadapter mal völlig außen vor.

why_me
2022-11-05, 10:47:22
Ansonsten haben wir vs. die 4080:


+50% Speicher
+15-20% (?) Raster-Performance
-30-40% (?) RT-Performance im Mittel, worst case (von denen es, wie man bislang sieht, leider viel zu viele für RDNA gibt) wahrscheinlich eher >70% langsamer
~17% günstiger


Ich glaube deine -30-40% bei RT ist etwas zu hoch. Und das wird doch auch nur schlimmer dargestellt, als es am Ende sein wird. Wenn sich die 7900XTX bei RT auf höhe einer 3090ti bewegt. Dann ist sie zwar weit abgeschlagen von einer 4090, aber sie wird damit dennoch die dritt/viert schnellste Karte mit RT sein.
Für die handvoll Karten oben drüber wird es keine abgesehen von Nvidia vorzeigetiteln auch keine Spiele geben, die eine 7900 in die Knie zwingen. Weil dafür der Markt einfach zu gering ist.

Linmoum
2022-11-05, 10:56:17
Wenn sich die 7900XTX bei RT auf höhe einer 3090ti bewegt.Das suggerieren aber nicht einmal wirklich die Benchmarks von AMD und das sind schon Herstellerbenchmarks.

In einem Jahr haben wir dann vielleicht von RT-Performance hoch oben bis niedrig unten:

4090Ti
4090
4080Ti
4080
4070Ti (AD103?)
3090Ti
3090
4070 (aka 4080 12GiB)
7900XTX

Vielleicht noch mit der 4070 tauschen, aber selbst das ist dann kein Ruhmesblatt und RDNA3 muss voraussichtlich wieder bis Ende 2024 durchhalten. Mir ist das echt ein Rätsel, was AMD mit RDNA3 hier angestellt hat. Die RT-gains sind niedriger als die Raster-Zuwächse, eigentlich sollte es genau umgekehrt sein - und zwar deutlich.

Sumpfmolch
2022-11-05, 11:06:49
Was genau will ich jetzt mit dieser Liste, wenn es nur darum geht welche Karte im Preisbereich 700€-1000€ das beste Angebot ist?

Also außer man geht davon aus, dass NVIDIA nun die Preise für die 4080 senkt.

Grendizer
2022-11-05, 11:06:59
Ich vermute das Design ist einfach nicht für RT ausgelegt und kann auch nicht so einfach aufgebohrt werden. RT wurde irgendwie noch reingewürgt, damit man zumindest das Feature unterstützt.

nVidia wird hier einfach einen enormen Wissensvorsprung haben. Die werden sie schon seit vielen Jahren vor der ersten Ankündigung Gedanken um ein funktionierendes Design gemacht haben. Und vieleicht ihre Design in die richtige Richtung getrimmt haben um dann RT einzubauen. Aber selbst mit diesem Wissenvorsprung liefert man richtig gute RT Performance bisher nur bei einer 2000+ Euro Grafikkarte ab.

Grendizer
2022-11-05, 11:08:34
Was genau will ich jetzt mit dieser Liste, wenn es nur darum geht welche Karte im Preisbereich 700€-1000€ das beste Angebot ist?

Also außer man geht davon aus, dass NVIDIA nun die Preise für die 4080 senkt.


3090er gibt es ab 1149 Euro... also unterhalb dem Preis, den einen 7900XTX kosten wird

Die 7900XT(mind. 1069 Euro) und XTX(mind. 1189 Euro) werden doch auch über 1000 Euro liegen.

Linmoum
2022-11-05, 11:10:12
Was genau will ich jetzt mit dieser Liste, wenn es nur darum geht welche Karte im Preisbereich 700€-1000€ das beste Angebot ist?
Dann gar keine? Weil die 7900XT(X) auch deutlich im vierstelligen Bereich liegen werden bei uns.

Ich verstehe dieses "value play" bei solch großen Summen (für eine GPU) aber auch gar nicht. Ich will doch viel für mein Geld haben und nicht 1100€ hinlegen, um dann in einem Ende 2022 relevanten und immer stärker relevant werdenden Kern-Aspekt einer GPU derart abgehängt zu werden.

Die Argumentation versteh ich absolut bei einem N33, aber doch nicht im (absoluten) High-End.

MSABK
2022-11-05, 11:10:50
Ich vermute das, dass Design ist einfach nicht für RT ausgelegt ist und auch nicht so einfach aufgebohrt werden kann. Das wurde irgendwie noch reingewürgt, damit man zumindest das Feature unterstützt.

.

Genau das ist meine Theorie und ich bleibe dabei, irgendwann kommt irgendwas ala RTNA, aber dazu muss RT deutlich mehr Verbreitung finden.

Bzgl Preise bei Nvidia, die 3080er werden ja auch im Verkauf bleiben denke ich mal, also wird NV bei den 4080 nicht viel Spielraum nach unten haben aktuell.

][immy
2022-11-05, 11:18:42
Ich vermute das, dass Design ist einfach nicht für RT ausgelegt ist und auch nicht so einfach aufgebohrt werden kann. Das wurde irgendwie noch reingewürgt, damit man zumindest das Feature unterstützt.

nVidia wird hier einfach einen enormen Wissensvorsprung haben. Die werden sie schon seit vielen Jahren vor der ersten Ankündigung Gedanken um ein funktionierendes Design gemacht haben. Und vieleicht ihre Design in die richtige Richtung getrimmt haben um dann RT einzubauen. Aber selbst mit diesem Wissenvorsprung liefert man richtig gute RT Performance bisher nur bei einer 2000+ Euro Grafikkarte ab.
Laut der Roadmap die AMD damals rausgebracht hat, wird mit dieser Gen RT erstmals wirklich nutzbar. Die Gen zuvor war eine reine Unterstützung und erst mit der nächsten Gen würde eine wirklich performante Unterstützung drin sein.
Dementsprechend war jetzt nicht wirklich damit zu rechnen das sie bei der RT-Leistung nvidia überholen könnten. Das war so auch nicht der Plan und es ist ja auch weiterhin nur ein Randnoten-Feature.
Solange praktikables RT nicht in die Low-End Teile rein kommt, spielt das Feature halt nach wie vor keine übergeordnete Rolle. Mit zunehmend allgemeiner Rechenleistung wird die Implementierung von AMD allerdings auch automatisch mit schneller, so dass es dann irgendwann nicht mehr so ein Problem für AMD Karten darstellt.
Interessant wird es zu sehen, ob z.B. MineCraft dann auch mal auf kleineren AMD-Karten RT-fähig ist, wobei dies meine RTX 3070 auch ziemlich zum Verzweifeln bringen kann und das hat schon eine "Schummelimplementierung" da man von Echtzeit-Beleuchtung noch ein gutes Stück entfernt ist (so ein paar Sekunden Verzögerung fallen einem schon auf).
FSR & DLSS packe ich nach wie vor maximal mit der Kneifzange an, weil mich die Artefakte die dadurch entstehen (besonders in Bewegung) nach wie vor mehr stören als eine kleinere Auflösung.

Troyan
2022-11-05, 11:19:32
Die Ampere-Karten steigen doch wieder im Preis. Der Abverkauf ist bald durch und die Lageranzahl bei Geizhals sinkt auch. Das Thema ist durch.

Sumpfmolch
2022-11-05, 11:22:24
3090er gibt es ab 1149 Euro... also unterhalb dem Preis, den einen 7900XTX kosten wird

Die 7900XT(mind. 1069 Euro) und XTX(mind. 1189 Euro) werden doch auch über 1000 Euro liegen.

Ich rechne da echt keine Karten rein, die im Abverkauf innerhalb der nächsten 4 Wochen vom Markt verschwinden.


Es bleibt einzig auf die 3080 und eventuell 3070 zu warten und dann zu sehen, wer insgesamt das beste Angebot macht.


Dann gar keine? Weil die 7900XT(X) auch deutlich im vierstelligen Bereich liegen werden bei uns.
Ich verstehe dieses "value play" bei solch großen Summen (für eine GPU) aber auch gar nicht. Ich will doch viel für mein Geld haben und nicht 1100€ hinlegen, um dann in einem Ende 2022 relevanten und immer stärker relevant werdenden Kern-Aspekt einer GPU derart abgehängt zu werden.
Die Argumentation versteh ich absolut bei einem N33, aber doch nicht im (absoluten) High-End.

Das muss man abwarten, wie die Verfügbarkeit sein wird. Ist ja außerhalb von totalen Extremkrisen nicht so unüblich, dass für Hardware auch mal der Preis sinkt.

Ob RT jetzt 2023/2024 so relavant werden wird, muss man sehen. Da fast alle Games von den Konsolen rüber schwappen, sehe ich da noch nicht viel neues. Oder ist da eine neue RT-optimierte Konsole angekündigt?

Und wenn die XTX deutlich über 1000€ bleibt, dann wird man sich die Vergleiche der 3070 und XT ansehen und gerne ein paar hundert Euro weniger rauswerfen.

Troyan
2022-11-05, 11:30:42
Ob RT jetzt 2023/2024 so relavant werden wird, muss man sehen. Da fast alle Games von den Konsolen rüber schwappen, sehe ich da noch nicht viel neues. Oder ist da eine neue RT-optimierte Konsole angekündigt?


Nicht? Spider-Man und Miles Morales? Sackboy? Zwei PS-Spiele mit zusätzlichen Raytracing. Forza 5 bekommt nächste Woche Raytracing auch in Rennen.

Also ich sehe ziemlich viele Konsolenports mit Raytracing...

/edit: Resident 2 und 3 Remakes vergessen.

why_me
2022-11-05, 11:37:43
Das suggerieren aber nicht einmal wirklich die Benchmarks von AMD und das sind schon Herstellerbenchmarks.

In einem Jahr haben wir dann vielleicht von RT-Performance hoch oben bis niedrig unten:


https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/

Abgesehen vom Nvidia vorzeigespiel CP77, liegt man immer vor einer 3090 auf höhe einer 3090ti. ;)

AffenJack
2022-11-05, 11:52:15
Die Argumentation versteh ich absolut bei einem N33, aber doch nicht im (absoluten) High-End.

Das ist doch bei einem N33 nicht anders. Nen N33/GA106 werden in FullHD eigentlich genug Leistung für RT haben. Der Großteil der Spieler nutzt nunmal diese Auflösung und vieles kann man sogar jetzt schon mit ner 3060/6600 und RT mit 60 FPS in FullHD spielen. Auch da wird AMD gucken müssen, wie man sich positioniert.

Daher ist das schon sehr schade von der Architektur her. Aber AMD weiß um seine Schwäche und positioniert die Karte deswegen auch preislich deutlich tiefer. Selbst Preis/Leistung bei RT wird die 4080 nicht viel besser sein als die 7900XT, weil sie einfach 200$ mehr kostet. Probleme bekommt man eher, wenn Nvidia mit der 4080 Richtung 999$ gehen sollte, wo die Karte eigentlich eher hingehört.

Badesalz
2022-11-05, 11:55:02
Der Performancerückstand bei RT wird massiv größer sein als der Performancevorsprung, den sie mit Raster haben. Aus meiner Sicht ist der Preis daher folgerichtig - sie können schlicht aufgrunddessen nicht mehr verlangen Diese ständigen Andeutungen, daß wenn NV vom Preis her alles +10% höher angesetzt hätte, AMD Preise jetzt auch +10% höher ausgefallen wären... Wo hast du das eigentlich her?

AffenJack
2022-11-05, 11:59:13
Diese ständigen Andeutungen, daß wenn NV vom Preis her alles +10% höher angesetzt hätte, AMD Preise jetzt auch +10% höher ausgefallen wären... Wo hast du das eigentlich her?

AMD passt sich doch schon seit Jahren immer nur an NVs Preise an. Preiskampf hat man doch schon ewig nicht mehr gewollt und gemacht.

Complicated
2022-11-05, 11:59:39
Nicht? Spider-Man und Miles Morales? Sackboy? Zwei PS-Spiele mit zusätzlichen Raytracing. Forza 5 bekommt nächste Woche Raytracing auch in Rennen.

Also ich sehe ziemlich viele Konsolenports mit Raytracing...

/edit: Resident 2 und 3 Remakes vergessen.
Ja wie geht das denn überhaupt mit einer 8-Kern Zen2/RDNA2 APU und 200W Verbrauch? Hier wird ja der 7900XTX die RT-Tauglichkeit abgesprochen von einigen. Mysterien über Mysterien, wenn man solche Vergleiche liest ;)

Badesalz
2022-11-05, 12:07:45
@Complicated
TOP! :up: Ahnte er aber. Daher mit "zusätzlichen" Raytracing. Auf dem PC glänzt sein Anzug bisschen mehr.
(was mir in den Filmen aber ehrlich gesagt NIE auffiel...)

AMD passt sich doch schon seit Jahren immer nur an NVs Preise an. Preiskampf hat man doch schon ewig nicht mehr gewollt und gemacht.Sagen wir mal, man hatte keine Lust auf ein gegenseitiges Zerflischen ;) Ich find das aktuelle Angebot bisher noch recht attraktiv. Solange NV nicht umkalkuliert. Denn:
Die Argumentation versteh ich absolut bei einem N33, aber doch nicht im (absoluten) High-End.
das ist natürlich Blödsinn. Highend wird mir grad bei Geizhals mit keiner 4090 unter 2300€ gelistet ;) Die hat aber auch Highend Leistung, wer es mag.

Eine 7900XTX ist kein Highend :rolleyes: Es ist das (bisher) Top-Produkt der 7000er Reihe. Dem Linmoum ist das mit Worten irgendwie nicht klar zu machen. Seite für Seite. Beim N33 versteht er das ja sofort. Beim N31 überhaupt nicht. Ergo, man müsste wahrscheinlich erst mit dem Bäjsi dahin um im kurzen bilateralen Austausch dem zu der nötigen Gedankenklarheit zu verhelfen.
Das ist natürlich kein Aufruf. Das sollte nur zeigen wie dauerhaft durcheinander so manche Gehirnmasse ist. Und wie frustierend das für Leute die normal Ticken ist.

edit:
Die Ampere-Karten steigen doch wieder im Preis. Der Abverkauf ist bald durch und die Lageranzahl bei Geizhals sinkt auch. Das Thema ist durch.WOW... Wie soll das bei der Menge in einer so ultrakurzen Zeit gelungen sein? Die Idee von Amazon bei Rückläufern aufgegriffen oder wie?

dargo
2022-11-05, 12:18:04
Ich finds erstaunlich wie viel Energie Linmoum in diesen Thread investiert wo der schon längst eine 4090 im Rechner hat. Ist das so ne Art sich selbst auf die Schulter dauerhaft klopfen "hab ich toll gemacht"? :freak: Diese Raytracing Spiele müssen ja unglaublich interessant sein. :D


/edit: Resident 2 und 3 Remakes vergessen.
Lol... die beiden Remakes laufen problemlos auf RDNA2 mit RT, da ist nicht mal FSR 2.x nötig.

Niall
2022-11-05, 12:18:58
Ich kapiere das eh nicht so recht.
Rein intuitiv würde ich die RTX 4090 und 7900XTX schon allein wegen der üppigen Preisdifferenz nicht als direkte Kontrahenten sehen. Die 4090 ist der klare Performancesieger, gar keine Frage - stand aber mEn auch vor dem Launch bereits außer Frage.

Ist aber auch so ein typisches 3DC-Ding irgendwie, bei den Konzernen arbeiten nur Idioten die keinen Überblick über den Markt haben und mit ihren Analysen immer komplett falsch liegen, respektive sich einfach gar keine Gedanken zu ihren Produkten machen. Nur die hohen Herrschaften des 3DC haben die Weisheit mit Löffeln gefuttert. :D

eratte
2022-11-05, 12:19:13
Sag mal, was zur Hölle ist eigentlich mit dir seit dem Kauf der 4090 passiert? Ich bekomme echt Kopfschmerzen.

Ja dieser Feldzug den er hier veranstaltet ist unwürdig, da schwillt einem als Leser der Kamm.

Anscheinend muss er das vor sich und anderen irgendwie rechtfertigen in dem er alles andere als "untauglich" und schlecht darstellt.

Einfach mal Spaß an der 4090 haben und anerkennen das andere Maßstäbe auch legitim sind.

prinz_valium_2
2022-11-05, 12:23:42
https://cdn.videocardz.com/1/2022/11/AMD-RDNA3-NAVI31-BLOCK-DIAGRAM.jpg

Da braucht man sich auch nicht wundern woher die ganzen Gerüchte mit 3GHz kommen.

fondness
2022-11-05, 12:26:12
https://cdn.videocardz.com/1/2022/11/AMD-RDNA3-NAVI31-BLOCK-DIAGRAM.jpg

Da braucht man sich auch nicht wundern woher die ganzen Gerüchte mit 3GHz kommen.

Danke. Das zeigt zumindest deutlich, dass etwas kurzfristig schief gelaufen ist. Oder man hat gesehen, dass man gegen die 4090 nicht ankommt und hat kurzfristig auf Effizienz umgeschwenkt. Dann sollte aber deutlich oc Potential vorhanden sein.

Troyan
2022-11-05, 12:27:39
Jemand sollte AMD mal den Begriff "1st" erklären.


Lol... die beiden Remakes laufen problemlos auf RDNA2 mit RT, da ist nicht mal FSR 2.x nötig.

Es ging um die Aussage, dass kaum Konsolenports mit Raytracing kommen. Das ist einfach falsch, wie Sony, Microsoft und Capcom dieses Jahr gezeigt haben.

DrFreaK666
2022-11-05, 12:28:08
Herstellerkarten werden vielleicht die 3GHz erreichen, aber dann auch sehr viel schlucken.

KriNemeth
2022-11-05, 12:28:21
Ich kapiere das eh nicht so recht.

Verstehe ich auch nicht. Sind beide eher Counterparts (XTX und XT) der RTX 4080 und der RTX 4090 wird allein das Feld überlassen.

In Rasterisation scheint dann AMD die Nase vorn zu haben, in Raytracing NVidia. Also jeder kann für sich entscheiden, was man mehr wichtet und gut.

prinz_valium_2
2022-11-05, 12:30:12
Danke. Das zeigt zumindest deutlich, dass etwas kurzfristig schief gelaufen ist.

Bin mal gespannt ob es an dem großen GCD liegt oder komplett die Architektur verhunzt wurde.

Vllt haben wir glück und N32 wird um die 3GHz laufen und damit extrem konkurrenzfähig im High-End, Mid-Range oder was das auch immer heut zu Tage dann ist für $499+
Der Takt ist die größte, oder besser einzige, Enttäuschung der 7900.
Für manch andere ist es wohl auch noch RT Leistung.

DrFreaK666
2022-11-05, 12:30:41
Jemand sollte AMD mal den Begriff "1st" erklären...

Jemand sollte dir den Begriff "Marketing" erklären.
Am Anfang wurde Zen 4 weiterhin als Top Notch angepriesen, obwohl Intel nachgelegt hat.
Du kaufst wahrscheinlich auch die Milchschnitte, da darin das Gute aus der Milch ist

Niall
2022-11-05, 12:31:14
Ich finds erstaunlich wie viel Energie Linmoum in diesen Thread investiert wo der schon längst eine 4090 im Rechner hat. Ist das so ne Art sich selbst auf die Schulter dauerhaft klopfen "hab ich toll gemacht"? :freak:


Ich kännte mir vorstellen dass es häufig der Versuch ist sich auch extrinsisch die Bestätigung zu holen, dass man mit dem Erwerb eines Produkts alles richtig gemacht hat um das Fundament der eigenen Rechtfertigung für den Kauf immer wieder zu untermauern.

Es gibt jene, die kaufen etwas und sind happy damit, egal was andere sagen und es gibt jene, die es sich immer wieder und wieder und wieder gebetsmühlenartig vorrechnen und -beten (lassen) müssen, dass es die "richtige" Entscheidung war. Klar, ein bisschen was elitäres spielt hier vielleicht auch noch rein, denn "vernünftig" ist ein solches Produkt am Ende nie.

Nicht falsch verstehen, ist ja alles cool, sehe ich irgendwo eine FE für 2000€ könnte ich auch "schwach" werden, ich rechne mir und anderen dann nur nicht alle nicht getroffenen Optionen schlecht. :D

Ich meine wer kennt es nicht, die ersten zwei Wochen ist alles "Boah" und "Yeah", dann ist irgendwie plötzlich weniger Lametta und "zack" steht schon das nächste, spannende Projekt im shop. :)

dildo4u
2022-11-05, 12:31:47
Herstellerkarten werden vielleicht die 3GHz erreichen, aber dann auch sehr viel schlucken.

Kann auch für kleinere Chips gemeint sein die 6500xt war z.b höher getaktet als die High-End Modelle.


6900xt 2Ghz Gameclock 6500xt 2.6Ghz

Matrix316
2022-11-05, 12:33:28
Ja dieser Feldzug den er hier veranstaltet ist unwürdig, da schwillt einem als Leser der Kamm.

Anscheinend muss er das vor sich und anderen irgendwie rechtfertigen in dem er alles andere als "untauglich" und schlecht darstellt.

Einfach mal Spaß an der 4090 haben und anerkennen das andere Maßstäbe auch legitim sind.
Ich hab irgendwie das Gefühl, dass jeder, der keine 4090 kaufen kann oder will ein Loser ist und alle anderen Grafikkarten keine Daseinsberechtigungen mehr haben. :freak:

Wir kriegen hier 80% der Leistung - manchmal 100% für Straßenpreis 60% des Preises. Die 7900 XTX wird der Knüller und ich hoffe es gibt genug Karten, denn ich hab keine Lust in Verfügbarkeitsthreads F5 zu klicken und wenn eine Verfügbar ist man auf den Link klickt und die Karte ist schon weg! :freak:

Complicated
2022-11-05, 12:33:48
Es ist ja auch nicht nur eine Frage der Gewichtung - sondern auch in welchem Ausmaß bringt das überhaupt mehr? Auch bei Tesselation ist ein höherer Faktor nicht besser.
Was bedeutet es wenn Nvidia mit DLSS3+RT über 200 FPS erreicht? Möglicherweise einfach auch, dass mit ähnlicher Technologie bei FSR3 144 FPS und drüber alles schon abdecken, was man an Bildqualität erreichen kann?

Ich will damit sagen, dass jemand der mit 120 Hz spielen will mit der zusätzlichen Renderleistung da ebenso landet wie mit dem schnelleren RT - nur halt in allen Spielen und nicht nur der Nische. Die Checkliste RT wäre dennoch vollständig ausgemaxed für ihn.

Badesalz
2022-11-05, 12:34:32
Es ging um die Aussage, dass kaum Konsolenports mit Raytracing kommen. Das ist einfach falsch, wie Sony, Microsoft und Capcom dieses Jahr gezeigt haben.Erstmal schauen wie sich das RT bei AMDs Konterparts zu NV auf die FPS/€ auch auswirkt? Und bei den Spielen selbst wie sich RT auf High oder Max. vs. Psycho auf die Optik auswirkt?

Beim HighEnd die HighEnd-Einstellungen wählen, beim TopEnd die TopEnd-Einstellungen? Oder sollte das für 999$ jemandem peinlich sein?

Linmoum
2022-11-05, 12:34:53
Sag mal, was zur Hölle ist eigentlich mit dir seit dem Kauf der 4090 passiert? Ich bekomme echt Kopfschmerzen.Kopfschmerzen bekomme ich eher, wenn ich sehe, wer sich Ende 2022 noch das schönredet, was AMD hier mit RDNA3 bei RT abliefert.

Wenn ich als Konkurrenz mit einer 899$-Karte in dem weiterhin maßgeblichsten Szenario - Rasterizing Performance - mit der 1299$-Karte des Konkurrenten mithalten kann, dann hab ich auf einmal den Wettkampf verloren?Ray Tracing ist lange nicht mehr derart Nische, wie es noch vor (über) zwei Jahren der Fall war. Mit RT-Performance, die sich sehen lassen kann, würde man das auch bei AMD so betrachten. ;) Im Übrigen muss man nicht nur das hier und jetzt bedenken, sondern auch den Umstand, dass RDNA3 mit dieser Performance wohl bis (mindestens?) Ende 2024 durchhalten muss. Das ist das viel größere Problem.

Ob Raster heutzutage noch die maßgebliche Methrik ist, kann man so oder so sehen. Unterschreibe ich im Mainstream, aber nicht bei superteuren Grafikkarten im hohen dreistelligen bis vierstelligen Preisbereich.

Und im Übrigen sind es $1199 bei der 4080, nicht $1299. Sie ist also "nur" 20% teurer als eine 7900XTX, und bei RT dafür deutlich schneller, als sie in Raster langsamer sein wird. Die Grundlage für diese Einschätzung hat AMD selbst geliefert.

Weißt du, was 400$ für 95% der Käufer für einen gigantischen Unterschied machen? Geil dich an deiner 4090 auf, das nimmt dir hier keiner. Aber hört endlich auf, mit diesen völlig verqueren Argumenten diesen Thread kaputt zu machen.Ich rede hier gerade von der 4080 (und auch der 3090(Ti) btw), was willst du jetzt mit (m)einer 4090? Die ist doch völlig irrelevant dafür.

Verquer ist eher diese "was wollt ihr mit RT Raster rulez!!!"-Argumentation, die auch du von dir gibst. Weil sie einfach nicht nachvollziehbar ist.

Ja dieser Feldzug den er hier veranstaltet ist unwürdig, da schwillt einem als Leser der Kamm.

Anscheinend muss er das vor sich und anderen irgendwie rechtfertigen in dem er alles andere als "untauglich" und schlecht darstellt.

Einfach mal Spaß an der 4090 haben und anerkennen das andere Maßstäbe auch legitim sind.
Andere Maßstäbe... meint ihr das eigentlich ernst? Hier geht's doch nicht um absolute Performance (im Übrigen auch nicht um die 4090, keine Ahnung, was ihr alle damit wollt). Die Leistungssteigerung mit RT fällt laut AMD (!!) geringer (!!!) aus als die Steigerung bei der Raster-Performance. Klingeln da echt keine Alarmglocken bei diesem Umstand? Die Lücke bei RT zu schließen ist deutlich einfacher und sollte dementsprechend auch eigentlich der Fall sein. Ist es aber nicht, sie wird größer. Und das ist besorgniserregend, weil AMD mit dieser Architektur zwei Jahre am Markt bleiben wird. Dafür braucht man übrigens auch nicht mal die 4080 und Ada, AMD bekommt auch mit einer 3090 bei diesen Benchmark-Zahlen arge Probleme. Und das trotz eines lächerlich schlechten Samsung 8nm.

DrFreaK666
2022-11-05, 12:35:40
Kann auch für kleinere Chips gemeint sein die 6500xt war z.b höher getaktet als die High-End Modelle.


6900xt 2Ghz Gameclock 6500xt 2.6Ghz

Stimmt, das ist natürlich auch eine Möglichkeit. Auf der Folie ist ja nur von RDNA 3 die Rede, nicht von den Topmodellen

@Linmoum: Ist überhaupt nicht auffällig, dass du die wahrscheinliche RTX 4070 12GB nicht erwähnst ;)
Was macht man eigentlich bei ner 3090 wenn die Zahlen zu niedrig sind?

Badesalz
2022-11-05, 12:40:08
Kopfschmerzen bekomme ich eher, wenn ich sehe, wer sich Ende 2022 noch das schönredet, was AMD hier mit RDNA3 bei RT abliefert.Ehrlich? Für mich ist das Wahn.

Niall
2022-11-05, 12:40:57
Die Leistungssteigerung mit RT fällt laut AMD (!!) geringer (!!!) aus als die Steigerung bei der Raster-Performance. Klingeln da echt keine Alarmglocken bei diesem Umstand? Die Lücke bei RT zu schließen ist deutlich einfacher und sollte dementsprechend auch eigentlich der Fall sein. Ist es aber nicht, sie wird größer. Und das ist besorgniserregend, weil AMD mit dieser Architektur zwei Jahre am Markt bleiben wird.

Ehrlich gesagt nicht. Das ist einfach unsere Enthusiasten-Forum-Bubble-Denke par excellence.

Für das Gros der 'Gamer' da draußen, sind "ganz bis nach rechts gesetzte Schieberegler" schon ein feuchter Traum, da passiert selbst nicht viel bzgl. 4K und hier wird so getan, als wenn ohne RT Performance @4K - so wichtig RT in der Zukunft für realistische Beleuchtung etc. sein wird - in den nächsten zwei Jahren alles unspielbar wäre.

Ernsthaft, geht mal vor die virtuelle Tür. :freak:

why_me
2022-11-05, 12:41:13
Jemand sollte AMD mal den Begriff "1st" erklären.

Also haben sie nicht die erste Chiplet Karte im Gaming? :confused:

Nakai
2022-11-05, 12:45:11
Danke. Das zeigt zumindest deutlich, dass etwas kurzfristig schief gelaufen ist. Oder man hat gesehen, dass man gegen die 4090 nicht ankommt und hat kurzfristig auf Effizienz umgeschwenkt. Dann sollte aber deutlich oc Potential vorhanden sein.

Naja 3 Ghz sind mehr als 25% mehr Takt und das sollte auch dementsprechend in Mehrperformance münden. Damit wäre N31 Faktor 2 schneller als N21. Damit wäre man auch wieder auf den erwarteten Performance. RT wäre dann auf LastGen-NV-Niveau und bei RZ eher auf 4090-Niveau.

Es gibt viele Gründe diesen Weg nicht zu gehen:
- Spielraum für eine 7950XT/XTX mit 192 MB Stacked Cache
- Komplett neues PCB und neue Kühlung weil es eher bei 500 W TDP wäre
- AMD-Kunden kaufen eher günstig und NV-Kunden scheißen aufs Geld und auf die Stromrechnung
- Spielraum für Partner-Karten
- Kunden müssten ein neues Netzteil etc. anschaffen

Linmoum
2022-11-05, 12:45:49
https://cdn.videocardz.com/1/2022/11/AMD-RDNA3-NAVI31-BLOCK-DIAGRAM.jpg

Da braucht man sich auch nicht wundern woher die ganzen Gerüchte mit 3GHz kommen.Well. Von dem Takt ist man massiv entfernt, von den angeblichen "up to 1.8x RT" hat AMD auch überhaupt nichts gezeigt (oder meinen sie damit ggf. die RT-Benchmarks mit FSR Performance? Da gab's glaube ich ein Spiel, wo das der Fall war) und damit ergeben die >3GHz Gerüchte auch deutlich mehr Sinn.

Das Argument mit "Effizienz-Play" verstehe ich aber nicht so recht. Man hat die XTX auf 355W TBP hochgeprügelt. Damit hat man nur 11W Spielraum zur maximalen Spec, wenn man es mit dem PCIe Slot genau nimmt. Da hätte man auch gleich auf 3x8pin gehen können und dem Ding zumindest potentiellen OC-Spielraum spendieren können (falls der tatsächlich vorhanden ist). Oder halt als eigenes Spitzenmodell mit (mehr als?) 400W, aber dafür dann 3GHz. Da hätte man 10-20% mehr Performance gehabt und könnte auch Preise auf dem Niveau der 4080 verlangen (bei gleichen Kosten für AMD, die sie auch mit der XTX haben...). Also ein gutes Stück höhere Margen.

Ergibt alles irgendwie nicht so viel Sinn. Irgendwas haut da einfach nicht hin. Vielleicht ist für Lukü die Abwärme bzw. Wärmedichte schlicht ein Problem?

basix
2022-11-05, 12:47:37
Ich hab irgendwie das Gefühl, dass jeder, der keine 4090 kaufen kann oder will ein Loser ist und alle anderen Grafikkarten keine Daseinsberechtigungen mehr haben. :freak:

Wir kriegen hier 80% der Leistung - manchmal 100% für Straßenpreis 60% des Preises. Die 7900 XTX wird der Knüller und ich hoffe es gibt genug Karten, denn ich hab keine Lust in Verfügbarkeitsthreads F5 zu klicken und wenn eine Verfügbar ist man auf den Link klickt und die Karte ist schon weg! :freak:

Eine 7900XT(X) wird in etwa die RT Performance einer 3090 erreichen. Und diese ware bis vor ein paar Wochen das beste, was man für Geld kriegen konnte. Dass es nicht mehr ist, ist schade. Extrem schlimm finde ich das aber nicht. Vor allem, da viele RT-Titel eh von der Konsole her kommen werden und entsprechend auch gut auf RDNA2/3 laufen werden.

Mehr RT-Leistung hätte sicher jeder gerne gesehen. Ich persönlich bin da sicher enttäuscht (1.5x mehr relative RT Performance wäre bereits genug gewesen), aber Spiele mit guter Grafik werden die Karten schon stemmen können ;)

Edit:
@Raff, testet bitte die Matrix City Sample mit UE 5.1 https://drive.google.com/file/d/1eQ_Oav8pxMJ-55qwwyRurjS_dyKgFGqZ/view
Bitte mit Vergleich von RDNA2/3 sowei Turing bis Lovelace. Ich kann für das auch bis Weihnachten warten :)

Troyan
2022-11-05, 12:50:53
Eine 7900XT(X) wird in etwa die RT Performance einer 3090 erreichen. Und diese ware bis vor ein paar Wochen das beste, was man für Geld kriegen konnte. Dass es nicht mehr ist, ist schade. Extrem schlimm finde ich das aber nicht. Vor allem, da viele RT-Titel eh von der Konsole her kommen werden und entsprechend auch gut auf RDNA2/3 laufen werden.


Du findest also 20% bis 30% Mehrleistung zur 3080 10GB vollkommen ausreichend? Die Karte gibt es seit Monaten wieder für 800€ zu kaufen. Du bezahlst also bei AMD 50% mehr und hast in vielen Spielen weniger Mehrleistung als Aufpreis bezahlt wurde.

Verstehe das schönreden nicht. Wem Raytracing egal ist, bekommt heute eine 6900XT für 800€. Die 7900XT wird vielleicht 30% schneller sein, aber 300€+ mehr kosten.

Dazu kommt, dass es nach unten überhaupt keinen Fortschritt gibt. Navi33 wird für 400€ 3060TI Level erreichen...

dargo
2022-11-05, 12:55:36
Danke. Das zeigt zumindest deutlich, dass etwas kurzfristig schief gelaufen ist. Oder man hat gesehen, dass man gegen die 4090 nicht ankommt und hat kurzfristig auf Effizienz umgeschwenkt. Dann sollte aber deutlich oc Potential vorhanden sein.
:confused:

Was genau siehst du an diesem Bild bezüglich "etwas ist deutlich schief gelaufen"?

Herstellerkarten werden vielleicht die 3GHz erreichen, aber dann auch sehr viel schlucken.
Eben... ich kapiere nicht so recht was hier so manche auf diesen OC-Spielraum rumhocken bzw. hoffen. Dann säuft das Teil doch wieder nur mehr als jetzt schon.


Es ging um die Aussage, dass kaum Konsolenports mit Raytracing kommen. Das ist einfach falsch, wie Sony, Microsoft und Capcom dieses Jahr gezeigt haben.
Ich wüsste nicht was an "kaum" jetzt falsch wäre. HZD, Days Gone, GoW und Uncharted sind alle ohne RT gekommen.

Ich kännte mir vorstellen dass es häufig der Versuch ist sich auch extrinsisch die Bestätigung zu holen, dass man mit dem Erwerb eines Produkts alles richtig gemacht hat um das Fundament der eigenen Rechtfertigung für den Kauf immer wieder zu untermauern.

Wie armselig ist das denn bitte schön? :freak: Jesus Maria... was sind das für arme Würstchen im Reallife?

Matrix316
2022-11-05, 12:55:38
Eine 7900XT(X) wird in etwa die RT Performance einer 3090 erreichen. Und diese ware bis vor ein paar Wochen das beste, was man für Geld kriegen konnte. Dass es nicht mehr ist, ist schade. Extrem schlimm finde ich das aber nicht. Vor allem, da viele RT-Titel eh von der Konsole her kommen werden und entsprechend auch gut auf RDNA2/3 laufen werden.

Mehr RT-Leistung hätte sicher jeder gerne gesehen. Ich persönlich bin da sicher enttäuscht (1.5x mehr relative RT Performance wäre bereits genug gewesen), aber Spiele mit guter Grafik werden die Karten schon stemmen können ;)

[...]

Ach was Raytracing. ;) Viele Spiele haben gar keins. Flight Simulator z.B.. Bei F1 2022 merkt man nicht mal einen wirklichen Unterschied wenn man fährt. Das einzige Spiel wo es aktuell halbwegs interessant ist, ist Cyberpunk.

Linmoum
2022-11-05, 12:57:35
Eine 7900XT(X) wird in etwa die RT Performance einer 3090 erreichen. Und diese ware bis vor ein paar Wochen das beste, was man für Geld kriegen konnte. Dass es nicht mehr ist, ist schade. Extrem schlimm finde ich das aber nicht.Immer nur zum alten Vorgänger der Konkurrenz aufzuschließen (oder womöglich auch nicht, das wird man erst in rund fünf Wochen genau wissen), ist aber auch kein Fortschritt für den Markt. Was extrem schade ist.

Aber wie gesagt, dass größere Problem ist IMO eigentlich vor allem, dass die RT-Performance weniger stark ansteigt als die Raster-Performance. Was Fragen aufwirft, weil das eigentlich nicht der Fall sein sollte.

Vor allem, da viele RT-Titel eh von der Konsole her kommen werden und entsprechend auch gut auf RDNA2/3 laufen werden.Das wäre schön, scheint aber leider auch nicht (immer) der Fall zu sein. Spider-Man laut DF:

https://i.gyazo.com/993565a9dc9f7f59fdc1ff45c735196a.jpg

Badesalz
2022-11-05, 12:58:42
Ausführung:
Das Argument mit "Effizienz-Play" verstehe ich aber nicht so recht. Man hat die XTX auf 355W TBP hochgeprügelt. Damit hat man nur 11W Spielraum zur maximalen Spec, wenn man es mit dem PCIe Slot genau nimmt. Da hätte man auch gleich auf 3x8pin gehen können und dem Ding zumindest potentiellen OC-Spielraum spendieren können (falls der tatsächlich vorhanden ist). Oder halt als eigenes Spitzenmodell mit (mehr als?) 400W, aber dafür dann 3GHz. Da hätte man 10-20% mehr Performance gehabt und könnte auch Preise auf dem Niveau der 4080 verlangen (bei gleichen Kosten für AMD, die sie auch mit der XTX haben...). Also ein gutes Stück höhere Margen.

Fazit:
Ergibt alles irgendwie nicht so viel Sinn. Irgendwas haut da einfach nicht hin.An der Stelle gebe ich dir Recht. Ich hab das jetzt 3x gelesen und es ergibt wirklich keinen Sinn. Nur warum lässt du das denn so und schickst es ab?

Von der Technik bis zu Kalkulation. Ein Kunde wünscht sich 400W und höhere Preise. Dir geht es wirklich nicht gut oder?

edit:
Aber wie gesagt, dass größere Problem ist IMO eigentlich vor allem, dass die RT-Performance weniger stark ansteigt als die Raster-Performance. Was Fragen aufwirft, weil das eigentlich nicht der Fall sein sollte.Auch das ergibt überhaupt keinen Sinn. Ehrlich nicht.

Neurosphere
2022-11-05, 13:04:01
Vermutlich hat man, wie schon erwähnt, festgestellt das auch 450-500 Watt usw. nötig wären um den hohen Takt fahren zu können. Damals waren ja 75 TFlops im Gespräch, nun sind wir bei 61, das wäre gut 20% Mehrperformance. (Spricht übrigens für die Leaks im Vorfeld, das einzige was der Arch fehlt ist der Takt, der Rest passt soweit.)

Man wäre mit Raster gut 10% vor der 4090 wenn man von den derzeitigen Abschätzungen ausgeht und bei RT 10-15% über der 3090 ti. Grad keine Ahnung ob das 4080 Niveau wäre.

Entweder erreicht die Arch den Takt nicht, und es wäre halt noch viel mehr Leistung nötig gewesen als angepeilt.

Es kann aber auch sein das AMD strategisch umgeschwenkt ist aufgrund der aktuellen Lage der Strompreise usw. und man sich einfach dafür entschieden hat ein Produkt anzubieten das beim Verbrauch im derzeitig von der Masse akzeptierten Rahmen bleibt.

basix
2022-11-05, 13:05:10
Du findest also 20% bis 30% Mehrleistung zur 3080 10GB vollkommen ausreichend? Die Karte gibt es seit Monaten wieder für 800€ zu kaufen. Du bezahlst also bei AMD 50% mehr und hast in vielen Spielen weniger Mehrleistung als Aufpreis bezahlt wurde.

Verstehe das schönreden nicht. Wem Raytracing egal ist, bekommt heute eine 6900XT für 800€. Die 7900XT wird vielleicht 30% schneller sein, aber 300€+ mehr kosten.

Bei der 3080 limitieren je nach Spiel die 10GB mit RT ;)

Und bei AMD bekommst du abseits von RT deutlich mehr als nur +20-30%. Wenn du also das isolierte Betrachten von einzelnen Eigenschaften eines Produkts mal sein lassen könntest (oder für dich behalten geht auch), dann wäre hier niemand unglücklich.

Und wem Raytracing egal ist, der bekommt mit N31 einiges mehr Performance als mit einer 6900XT. Aber wer will schon mehr Performance? Ist hier jemand, der das will? Wieso kauft man überhaupt schnellere Karten? :rolleyes:

Dazu kommt, dass es nach unten überhaupt keinen Fortschritt gibt. Navi33 wird für 400€ 3060TI Level erreichen...
Was N33 genau leistet und kostet werden wir sehen. Eine 3060Ti kostet Stand heute aber eher ~500 Euro.

prinz_valium_2
2022-11-05, 13:06:32
Halo sollte mal 2020 erscheinen mit RT
Jetzt kommt es 3 Jahre später.

Jeder kann seine eigene Gewichtung der Funktionen haben, aber für niemanden muss RT wichtig sein. Ich werte DP 2.1 support sogar höher als RT Leistung.

Das mag sich dann vllt für die nächste GPU ändern, wenn diese in 5 Jahren gekauft wird.

Troyan
2022-11-05, 13:11:24
Bei der 3080 limitieren je nach Spiel die 10GB mit RT ;)

Und bei AMD bekommst du abseits von RT deutlich mehr als nur +20-30%. Wenn du also das isolierte Betrachten von einzelnen Eigenschaften eines Produkts mal sein lassen könntest (oder für dich behalten geht auch), dann wäre hier niemand unglücklich.

Und wem Raytracing egal ist, der bekommt mit N31 einiges mehr Performance als mit einer 6900XT. Aber wer will schon mehr Performance? Ist hier jemand, der das will? Wieso kauft man überhaupt schnellere Karten? :rolleyes:

Dieser Logik folgend macht keine Karte außer der 4090 Sinn. Hier bekommt man das beste von allen.
Im schlimmsten Fall liegt die 7900XT auf dem Niveau einer 3080 mit Raytracing und kostet 300€ als der UVP der 3080 (aktuell, ist ja nichtmal ein Abverkauf...).

Die 7900 Karten machen einfach hier in Europa genauso wenig Sinn wie die 4080 durch den schwachen Euro und bei AMD durch die schlechte Leistung.

Halo sollte mal 2020 erscheinen mit RT
Jetzt kommt es 3 Jahre später.

Jeder kann seine eigene Gewichtung der Funktionen haben, aber für niemanden muss RT wichtig sein. Ich werte DP 2.1 support sogar höher als RT Leistung.

Das mag sich dann vllt für die nächste GPU ändern, wenn diese in 5 Jahren gekauft wird.

Es gibt 0 Monitore mit DP2.1. Es gibt haufenweise Spiele mit Raytracing. Ergo sieht man hier ja, wie man sich einfach Zustände schön redet. Außerdem musst du ja zusätzlich zur AMD Karte auch den neuen Monitor kaufen. Also irgendwie noch sinnloser DP2.1 als "wichtiger" zu erachten.

why_me
2022-11-05, 13:14:01
Im schlimmsten Fall liegt die 7900XT auf dem Niveau einer 3080 mit Raytracing und kostet 300€ als der UVP der 3080 (aktuell, ist ja nichtmal ein Abverkauf...).


Und ist dabei fast doppelt so schnell in non RT games. Wo ist also das problem?

BigBangBacket
2022-11-05, 13:14:31
Als 3090 TUF Besitzer liebäugel ich schon mit der 7900XTX.
RT ist schon frech bei Cyberpunk aber das war es dann auch schon. Für VR brauche ich Rasterizing und eine 4090 TUF für 2800 kaufe ich bestimmt nicht. Irgendwann reicht es ja auch.

Es kommt halt auch immer auf die eigenen Vorlieben an. Ich habe auch kein Problem den RT Regler nicht ganz nach rechts zu drehen. Dafür aber alles andere in VR nach links. Und dafür brauche ich keine 2800 Euro Karte.

Badesalz
2022-11-05, 13:14:43
@Troyan
Das verstehe ich dagegen. Durch den schwachen Euro, wie wohl auch die allgemeine Lage, machen Grakas unter 2000€ keinen sinn in Europa.

Da sind die Wahnvorstellungen von Linmoum echt nur ein kurzer Rölpser dagegen :usweet:

Und ist dabei fast doppelt so schnell in non RT games. Wo ist also das problem?Udn selbst bei RT bleibt noch ordentlich was über. Man zieht die Regler halt nur nicht auf 4090-HighEnd Niveau (was man auch entsprechend bezahlt hat).
Im Gegensatz zu anderen die ja noch eine moralische Vorstellung von sich haben, geht der Typ echt garnicht. Der lügt die lachend direkt ins Gesicht. Sowas klar ekelhaftes an viraler PR gibts echt selten.

M4xw0lf
2022-11-05, 13:16:34
https://cdn.videocardz.com/1/2022/11/AMD-RDNA3-NAVI31-BLOCK-DIAGRAM.jpg

Da braucht man sich auch nicht wundern woher die ganzen Gerüchte mit 3GHz kommen.

Das ist in der Tat sehr interessant und wirft absolut die Frage auf, wo denn der ganze Takt geblieben ist.

aufkrawall
2022-11-05, 13:16:52
Und ist dabei fast doppelt so schnell in non RT games. Wo ist also das problem?
Weil RT-Spiele mit viel weniger fps laufen? Mal 1s drüber nachgedacht? :freak:

Linmoum
2022-11-05, 13:18:04
Da sind die Wahnvorstellungen von Linmoum echt nur ein kurzer Rölpser dagegen :usweet:Du kannst mich ja auch gerne mit Argumenten überzeugen. Aber da kommt nicht wirklich was. Warum wohl? ;)

Anyway. Bin ich noch gespannt darauf, wie sich RDNA3 in 5K+ verhält. Für Raster sollte die Grundperformance für viele Spiele damit reichen, ist die Frage, ob man die Performance oberhalb von UHD auch halten kann.

LasterCluster
2022-11-05, 13:19:21
AMD schöpft sein Taktpotential nicht aus um später einfach nochmals nachlegen zu können.
Macht doch NV auch nicht wirklich anders, nur halt über deaktivierte Einheiten.

Wenn AMD jetzt schon stark binnt und die besten Chips erst mal behält, wird auch der Spielraum der Partner begrenzt und der eigene Refresh nicht schon präventiv abgeschöpft.

P.S.: Falls wirklich "was schiefgelaufen" wäre, würde man doch nicht das ursprüngliche Designziel auf die Folie knallen.....

basix
2022-11-05, 13:19:40
Immer nur zum alten Vorgänger der Konkurrenz aufzuschließen (oder womöglich auch nicht, das wird man erst in rund fünf Wochen genau wissen), ist aber auch kein Fortschritt für den Markt. Was extrem schade ist.
Logo, da bin ich ganz bei dir. Wenn man AMD Karten kauft, ist es aber ganz klar ein Fortschritt, auch hinsichtlich P/L.


Aber wie gesagt, dass größere Problem ist IMO eigentlich vor allem, dass die RT-Performance weniger stark ansteigt als die Raster-Performance. Was Fragen aufwirft, weil das eigentlich nicht der Fall sein sollte.
Glaube Ravenhearth hat das vor ein paar Seiten gut zusammengefasst:
- Shader Leistung pro CU steigt um +30-40%
- RT-Leistung pro CU steigt um +50% (Ray Accelerator)

Wo soll also die RT-Performance mehr ansteigen können. Das könnte nur der Fall sein, wenn der Ray Accelerator nochmals deutlich schneller geworden wäre und/oder Last von den Shader-ALUs nehmen würde (z.B. BVH-Traversal).


Das wäre schön, scheint aber leider auch nicht (immer) der Fall zu sein. Spider-Man laut DF:

https://i.gyazo.com/993565a9dc9f7f59fdc1ff45c735196a.jpg
Klar, Wunder sind keine zu erwarten. Lovelace wird immer schneller bei RT sein. Bei Konsolen Spielen ist der Abstand zwischen Nvidia und AMD jedoch typ. nicht so gross wie bei z.B. Cyberpunk. Und in sehr vielen Spielen ist der Qualitäts-Unterschied zwischen Very High und High zudem oftmals nicht sehr gross. Und in deinem Beispiel stemmt die 6800XT die gleichen FPS bei High wie die 3080 bei Very High. Schade, klar, wenn man so viel Geld zahlt. Aber weit weg von unbrauchbar. Ich bin aber extrem gespannt auf Vergleiche der Karten in der UE 5.1. Hier sollte RDNA2/3 recht gut abschneiden und die UE5 wird vermutlich noch dominanter als die UE4 werden und mit der UE5 und HW-RT wird dann DX12 Pflicht, wo AMD besser dasteht als bei DX11.

P.S.: Falls wirklich "was schiefgelaufen" wäre, würde man doch nicht das ursprüngliche Designziel auf die Folie knallen.....
Vieleicht war ein höherer Takt das Ziel. Kann schon sein. Aber die zum Teil geweissagten 3.5GHz waren garantiert nie das Ziel. Dass das Design prinzipiell die 3.0 GHz Marke knacken kann, war vermutlich schon das Zeil. Und mittels OC sollte das wohl möglich sein (wie es mit der 4090 auch ganz knapp möglich ist)

M4xw0lf
2022-11-05, 13:21:20
"Architected" kann sich ja durchaus auch darauf beziehen, dass auf kleineren SKUs/Chips noch deutlich höhere Taktraten kommen werden, so wie bei N21/N22.

KarlKastor
2022-11-05, 13:21:32
Danke. Das zeigt zumindest deutlich, dass etwas kurzfristig schief gelaufen ist. Oder man hat gesehen, dass man gegen die 4090 nicht ankommt und hat kurzfristig auf Effizienz umgeschwenkt. Dann sollte aber deutlich oc Potential vorhanden sein.
Naja, was heißt kurzfristig. Die FLOPS sind ja in dem Bild mit 2.5 GHz berechnet und steht auch unten bei der RT Leistung. Vielleicht mit Navi32 oder 33.

Badesalz
2022-11-05, 13:21:51
Du kannst mich ja auch gerne mit Argumenten überzeugen. Aber da kommt nicht wirklich was. Warum wohl? ;)Ich kann dir das jetzt zum 18ten Mal erklären und es wird genausoviel passieren wie die 17 Male davor. Ich hatte aber schon beim 16ten Mal die Vorahnung, daß mir dafür einfach die nötige Ausbildung fehlt. Hier hat die eh nur Troyan...

Anyway. Bin ich noch gespannt darauf, wie sich RDNA3 in 5K+ verhält. Für Raster sollte die Grundperformance für viele Spiele damit reichen, ist die Frage, ob man die Performance oberhalb von UHD auch halten kann.Ja wäre interessant gegenüber ähnlich bepreisten 4000ern.

@all
Ich bin wohl imemrnoch der einzige der sich darüber wundert, daß die 1.7x beim NVs RT-vorzeiger standen? :tongue:

reaperrr
2022-11-05, 13:23:46
Wie ich schon gleich gesagt habe darf sich der 522mm2 inkl. 384bit prügel mit dem 379mm2 256bit ad103 herumschlagen.
Das ist ne absolut lächerliche Gleichung.

5nm-Wafer sind nach letztem Info-Stand ca. 70% teurer als 6nm-Wafer, die 222mm² der MCDs kosten AMD also auf Wafer-Seite nur so viel wie ~130mm² in 5nm, und das berücksichtigt noch nicht, dass die prozentuale Ausbeute an 100% funktionstüchtigen MCDs deutlich höher sein dürfte, als das bei einer monolithischen Umsetzung in 5nm der Fall gewesen wäre.

Auch der GCD sollte ne etwas bessere Yield-Rate als AD103 haben.
Summa Summarum dürften die Silizium-Kosten von N31 unter Berücksichtigung der Ausbeute höchstens um die 10% über AD103 liegen, trotz größerem Cache und breiterem SI.
Das einzige, was die N31-Karten etwas teurer in der Herstellung machen könnte ist der zusätzliche VRAM, andererseits denke ich, dass GDDR6X je GB etwas teurer als normaler G6 sein sollte, also ist nicht einmal das sicher oder zumindest nicht so viel, wie manche vllt. denken, da reden wir vielleicht von ~20-30$ je Karte, in dem Preissegment nicht dramatisch.

Wie es um die zusätzlichen Assembly-Kosten bestellt ist kann ich nicht einschätzen, aber ich tippe, dass selbst ne XTX mit ihren 24GB in der Produktion insgesamt nur um die 50$ teurer ist als ne 4080-16G, die XT noch weniger.

Ich vermute das Design ist einfach nicht für RT ausgelegt und kann auch nicht so einfach aufgebohrt werden. RT wurde irgendwie noch reingewürgt, damit man zumindest das Feature unterstützt.


Die Leistungssteigerung mit RT fällt laut AMD (!!) geringer (!!!) aus als die Steigerung bei der Raster-Performance. Klingeln da echt keine Alarmglocken bei diesem Umstand? Die Lücke bei RT zu schließen ist deutlich einfacher und sollte dementsprechend auch eigentlich der Fall sein. Ist es aber nicht, sie wird größer.
Eigentlich ist es m.E. relativ einfach:

RT läuft bei RDNA3 wohl immer noch primär über die TMUs. Genau die wurden beim neuen CU-Design aber eben nicht verdoppelt, sondern nur die FP32-ALUs.

Man muss es mMn eher so sehen, dass AMD aus nur 20% mehr TMUs und ~9% mehr Gameclock (=~30% mehr TMU-Leistung) trotzdem um die 50% mehr RT-Leistung - im Best-Case sogar deutlich mehr - ggü. N21 rausholt.

Die Implementierung an sich ist ggü. RDNA2 also grundsätzlich durchaus deutlich schneller geworden (jedenfalls je CU/TMU-Block).
Was RNDA3 auf die Füße fällt ist halt, dass man gleichzeitig zugunsten einer besseren Raster-Perf/W und -Perf/mm² eben statt bspw. 120 CUs nach RDNA2-Aufbau nur 96 CUs mit dafür doppelter FP32-Leistung verbaut hat.

Sprich, man hatte bei AMD wohl innerhalb des R&D-Zeitrahmens und -budgets für RDNA3 nur die Wahl zwischen:
a) +~40% Raster, +~30% Perf/W, schlechte Perf/mm², aber ~85% mehr RT-Leistung, oder
b) +55-70% Raster und +54% Perf/W sowie gute Raster-Perf/mm², aber nur ~50% mehr RT-Leistung aufgrund niedrigem TMU-Zuwachs.

Dass man sich da eher für Variante b) entscheiden würde, ist denk ich betriebswirtschaftlich nachvollziehbar, dafür ist RT nach wie vor nicht weit genug verbreitet.

Wenn AMD den Anschluss halten will, müssen sie sich natürlich trotzdem dringend was einfallen lassen. Z.B. RDNA4 schon ziemlich schnell nachschieben (~Anfang 2024) und Fokus auf deutliche Steigerung der RT-Leistung legen (TMUs je CU verdoppeln? Doch echte dedizierte RT-Einheiten wie NV verbauen?).


Und das ist besorgniserregend, weil AMD mit dieser Architektur zwei Jahre am Markt bleiben wird.
Wieviel dran ist muss man natürlich abwarten, aber es gab in der Gerüchteküche schon vor vielen Monaten Aussagen, dass RDNA4 eher so schnell auf RDNA3 folgen soll wie RDNA2 auf RDNA1, und RDNA4 auch deutlich mehr Chips von Highend bis Lowend bieten wird.

Bei AMD ist die Zahl der Chipdesigns oft ein Indikator, wie überzeugt man von der uArch ist:
Vega: Nur V10 und APUs (V11 gestrichen, V12 nur für Apple)
RDNA1: Nur N10 (oberer Midrange) und N14 (N12 Apple-exklusiv und im Grunde nur N10 mit HBM2-SI)
RDNA2: Von N21-N24, also Top-to-Bottom, bei IGPs überall von Vega direkt auf RDNA2 gesprungen
RDNA3: Nur 3 Chips, und N33 soll hauptsächlich Mobile-Chip sein, für N33 offenbar also keine sonderlich hohen Erwartungen an erzielbare Verkaufszahlen/Margen im Desktop, "in 1080p schneller als N21" bezog sich wohl nur auf die 6800 (non-XT).
RDNA4: Zumindest lt. Gerüchteküche schon relativ zeitnah nachfolgend und wieder mit großem Top-to-Bottom Lineup.

dargo
2022-11-05, 13:25:31
Das ist in der Tat sehr interessant und wirft absolut die Frage auf, wo denn der ganze Takt geblieben ist.
Mir fällt dazu noch eine Theorie ein. AMD hatte in den eigenen Slides >+50% Perf/W bei RDNA3 versprochen bzw. anvisiert. Diese werden bei dem aktuellen Betriebspunkt mit +54% auch erreicht. Wenn AMD N31 auf bsw. 2,8Ghz boosten ließe (Design ist offenbar bis 3Ghz ausgelegt) würde man mit hoher Wahrscheinlichkeit bei <+50% rauskommen. Ergo lässt man die Referenz im sinnvolleren Betriebspunkt laufen und AIBs können dann wenn sie wollen OC mit mehr Wattage draufknallen.


5nm-Wafer sind nach letztem Info-Stand ca. 70% teurer als 6nm-Wafer, die 222mm² der MCDs kosten AMD also auf Wafer-Seite nur so viel wie ~130mm² in 5nm, und das berücksichtigt noch nicht, dass die prozentuale Ausbeute an 100% funktionstüchtigen MCDs deutlich höher sein dürfte, als das bei einer monolithischen Umsetzung in 5nm der Fall gewesen wäre.

Keine Ahnung jetzt ob es keinen Abfall bei den MCDs @6nm gibt, wahrscheinlich wird man aber bei der mickrigen Größe schon recht nah an die 100% ran kommen. Das schöne an dem Design ist aber, dass jeder "Abfall" direkt zur 7900XT wandern darf. Denn die 7900XT braucht trotzdem einen Dummy aus Stabilitätsgründen.

basix
2022-11-05, 13:28:52
Das wird sicher auch eine Rolle gespielt haben. Die 355W erscheinen mir aber so gewählt worden zu sein, dass man das Budget möglichst voll ausreizt.

Troyan
2022-11-05, 13:30:58
Die 54% werden mit einer 7900XTX@300W gegen die 6900XT@300W erreicht. Die 7900XT hat 300W wird, aber keine 54% schneller sein als die 6900XT.

basix
2022-11-05, 13:36:05
Die 54% werden mit einer 7900XTX@300W gegen die 6900XT@300W erreicht. Die 7900XT hat 300W wird, aber keine 54% schneller sein als die 6900XT.

Stimmt.
https://ir.amd.com/news-events/press-releases/detail/1099/amd-unveils-worlds-most-advanced-gaming-graphics-cards

RX-816 – Based on AMD internal analysis November 2022, on a system configured with a Radeon RX 7900 XTX GPU, driver 31.0.14000.24040, AMD Ryzen 9 5900X CPU, 32 GBDDR4-7200MHz, ROG CROSSHAIR VIII HERO (WI-FI) motherboard, set to 300W TBP, on Win10 Pro, versus a similarly configured test system with a 300W Radeon 6900 XT GPU and driver 31.0.12019.16007. System manufacturers may vary configurations, yielding different results.

dargo
2022-11-05, 13:36:08
Die 54% werden mit einer 7900XTX@300W gegen die 6900XT@300W erreicht.
Wo steht das? Der Präsentation nach hat AMD offenbar die 7900XTX mit der 6950XT verglichen, auch bei Perf/W.

Edit:
Ah ok, hat sich erledigt.

Linmoum
2022-11-05, 13:38:15
Mir fällt dazu noch eine Theorie ein. AMD hatte in den eigenen Slides >+50% Perf/W bei RDNA3 versprochen bzw. anvisiert. Diese werden bei dem aktuellen Betriebspunkt mit +54% auch erreicht. Wenn AMD N31 auf bsw. 2,8Ghz boosten ließe (Design ist offenbar bis 3Ghz ausgelegt) würde man mit hoher Wahrscheinlich bei <+50% rauskommen. Ergo lässt man die Referenz im sinnvolleren Betriebspunkt laufen und AIBs können dann wenn sie wollen OC mit mehr Wattage draufknallen.
Wie Troyan schon schreibt, die +54% Perf/Watt sind laut Footnotes bei 6900XT@300W vs. 7900XTX@300W entstanden. Bei dem tatscählichen Betriebspunkt, also wohl ~355W, wird Perf/Watt dementsprechend schlechter sein. Bei der 7900XT sowieso auch bei den Default @300W.

Die 7900XT ist zu dem Preis sowieso nicht wirklich attraktiv. Nur 10% günstiger, aber wohl auch langsamer ggü. der 7900XTX als das. Ich hätte ja eher die 7900XTX bei $999 belassen (dafür aber z.B. nur ~320W und diese dann XT genannt) und dafür das zweite Modell (also XTX) nicht darunter, sondern darüber positioniert. Damit hätte man dann auch noch mal 10-20% mehr an Raster-Performance gehabt bei >=3GHz. Geht natürlich auf Kosten des Verbrauchs, aber das sehen wir ja eh bei den ganzen Customs, die es in viel größeren Mengen als die Referenz geben wird. AMD hätte aber mehr verlangen können, dieselben Kosten wie bei der jetzigen XTX gehabt bei gleichzeitig allerdings einem guten Stück höheren Margen. GGf. hätte man bei der jetzigen 7900XTX bei $999 auch 20GiB bieten können, das wären immer noch +25% zu einer 6950XT gewesen und mehr als genug.

Vielleicht sind 3GHz aber tatsächlich nicht so einfach drin und irgendwas ist am Ende des Tages nicht ganz so geworden, wie man es sich erhofft hatte.

basix
2022-11-05, 13:44:16
Die 54% werden mit einer 7900XTX@300W gegen die 6900XT@300W erreicht. Die 7900XT hat 300W wird, aber keine 54% schneller sein als die 6900XT.

Habe nochmals die 4090 Reviews angeschaut. Bei 300W ist die 4090 effektiv ~1.1x schneller und somit effizienter wie die 7900XTX bei ebenfalls 300W (ausgehend von der 6900XT, +54% Effizienz und dem 4K Index von CB).

Platos
2022-11-05, 13:44:35
Irgendwie war doch klar, dass AMD irgendwelche nicht-default Zustände für Ihre Aussagen nimmt.

Die haben ja auch schon ähnliches abgezogen.

Ravenhearth
2022-11-05, 13:51:09
Irgendwie war doch klar, dass AMD irgendwelche nicht-default Zustände für Ihre Aussagen nimmt.

Die haben ja auch schon ähnliches abgezogen.
Nvidia kann das besser, bei der Ampere-Vorstellung haben sie Ampere auf die gleiche Framerate wie Turing limitiert (https://images.anandtech.com/doci/16057/Ampere_PPW.jpg)und dann gemessen wie viel weniger Energie Ampere aufnimmt, da kam dann 1.9x Perf/W bei rum :freak:

amdfanuwe
2022-11-05, 14:01:53
Wann wurden die Designziele für 7900XTX definiert?
Vor 3 Jahren?
Da stand Echtzeit RT wohl noch nicht ganz oben auf der Prioritätenliste.
Dafür viel Speicher, DP 2.1, 8K Monitor Unterstützung, Chiplet, 355W TDP, 2*8Pin Power.
Scheint eher für Content Creator entwickelt worden zu sein statt für Gamer.

Dass Nvidia mit den bestehenden Konzepten bricht und mit Monster Karten kommt die nicht mehr in normale Gehäuse passen mit über 355W, die 2 * 8Pin PCIe zulässt, damit dürfte AMD nicht gerechnet haben.

Mal abwarten, ob AMD nächstes Jahr auch auf den Zug aufspringt, bei der 8000er Serie.

Lyka
2022-11-05, 14:07:08
Scheint eher für Content Creator entwickelt worden zu sein statt für Gamer.

das könnte durchaus passen (mehr Content-Creator / weniger Gamer-Gamer). Die letzte AMD-Ankündigung (AMD Gaming 2022 Returns WIth Bigger & More Epic Gaming Entertainment In Asia-Pacific! https://www.youtube.com/watch?v=F5cbK0karfU) deutet für mich eher auf Streamer und E-Sportler als künftige Multiplikatoren hin als auf den (westlichen) Highend-Gamer. Und da sind FPS und Hochleistungsmonitore nunmal deutlich mehr wert als RT-Leistung.

Linmoum
2022-11-05, 14:12:03
Dass Nvidia mit den bestehenden Konzepten bricht und mit Monster Karten kommt die nicht mehr in normale Gehäuse passen mit über 355W, die 2 * 8Pin PCIe zulässt, damit dürfte AMD nicht gerechnet haben. 3x8pin im High-End mit Customs gab's auch damals bei Vega schon, das ist jetzt nicht wirklich eine neue und überraschende Erfindung. Wie groß die Kühler sein müssen schreiben Nvidia und AMD den Partnern sicher auch nicht vor, zumal die FE der 4090 ja keine abnormale Übergröße hat.

btw.: Hat sich übrigens schon jemand die 7900XT(X) TUFs von Asus angeschaut? Die sind 352,9mm lang und damit sogar länger (!) als die 4090 TUF (348.2mm). :freak: Tiefer sind die Radeons auch noch. Das ist halt das Problem, so toll Referenz auch ist. Die Customs sind dann wieder die ganz fetten Brummer.

Das einzige, was ich mir eher vorstellen kann ist, dass AMD nicht damit gerechnet hat, dass Nvidia einen N5 (4N, whatever) Chip mit >600mm² auf den Markt wirft. Allerdings ist die 4080 16GiB ja auch nur ein beschnittener AD103, da liegen noch mal ~10% Performance brach. Und dann ist das trotzdem ein 379mm² Die vs. 522mm² Die (300mm² + 222mm²). Da dürfte der Kostenfaktor IMO sogar eher vorteilhaft bei dem Mono-Die sein. Und der Performance-Vorteil für AMD auch kleiner (vielleicht +10% im Raster noch, dafür höhere Kosten durch das SI und RAM (und mehr MCDs), RT noch weiter hinten).

Das Problem für AMD ist eigentlich, dass sie schon den Vollausbau haben und Nvidia diesen noch nachschieben kann, weil sie bislang nur beschnittene Chips haben.

w0mbat
2022-11-05, 14:13:08
Und dann ist das trotzdem ein 379mm² Die vs. 522mm² Die (300mm² + 222mm²). Da dürfte der Kostenfaktor IMO sogar eher vorteilhaft bei dem Mono-Die sein.
Ganz sicher nicht, 379mm² "4N" ist alleine schon durch die 79mm² auf "4N" teurer als 6x 37mm² in N6, und das bezieht noch nicht einmal das schlechtere yield mit ein.
Es gibt einen Grund wieso Nvidia AD102 & AD103 erstmal nur als beschnittene Versionen bringen und AMD direkt full Navi31 liefert. Über 300mm² werden die yields exponentiell schlechter.

InFO_OS wird auch keine $10 kosten. Insgesamt wird ein voller Navi31 wohl weniger als die Hälfte von AD102 kosten und auch ein gutes Stück günstiger als AD103 sein.
Bringt aber nur AMD was, den Preis geben sie ja nicht weiter. Die $999 MSRP liegen dort wegen der Performance und nicht dem BOM.

Ich hätte $799 für die XTX und $649 für die XT geil gefunden. Dann aber mit 7800er Bezeichnung. "7900 XTX" klingt für mich wie AMDs ultra-high-end und da man hier mit der 4080 konkurrieren wird, eher fehl am Platz. Die 5700 XT hieß ja auch aus gutem Grund so und hat super gepasst.

DrFreaK666
2022-11-05, 14:19:31
...
Die 7900 Karten machen einfach hier in Europa genauso wenig Sinn wie die 4080 durch den schwachen Euro und bei AMD durch die schlechte Leistung...

Welche schlechte Leistung?
Die günstigste 3090 kostet laut Geizhals 1150€.
Die 7900XTX wird womöglich 1200€ kosten, in RT gleichschnell sein und in RZ die 3090 vernichten.
Machen die 3090 plötzlich auch keinen Sinn mehr?

Troyan
2022-11-05, 14:21:27
Welche schlechte Leistung?
Die günstigste 3090 kostet laut Geizhals 1150€.
Die 7900XTX wird womöglich 1200€ kosten, in RT gleichschnell sein und in RZ die 3090 vernichten.
Machen die 3090 plötzlich auch keinen Sinn mehr?

Die 4080 12GB hätte 3090TI Leistung für 1099€ geboten. Muss wohl ein Schnapper gewesen sein. :rolleyes:

ashantus
2022-11-05, 14:21:42
Zur Diskussion wie verbreitet RT ist, habe ich die offizielle Nvidia-Seite angesehen und verlinkt.

Mir fällt auf, wieviele mir völlig unbekannte Spiele das RT unterstützen. Für mich ein Hinweis, wie nvidia durch ihre Produktpolitik / Support einen Einfluss auf die Studios hat.

Zweitens war ich gerade völlig erstaunt, wieviele APPs auch der deutschen Industrie das benutzen. Der Sprung ins Automotive ist nvidia besser gelungen als ich bisher wusste.


https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/

DrFreaK666
2022-11-05, 14:23:07
Die 4080 12GB hätte 3090TI Leistung für 1099€ angeboten. Muss wohl ein Schnapper gewesen sein. :rolleyes:

Diese Karte ist ein Speicherkrüppel (damit kennt sich NV ja aus) und in RZ den Radeons unterlegen.

nordic_pegasus
2022-11-05, 14:24:48
Stimmt.
https://ir.amd.com/news-events/press-releases/detail/1099/amd-unveils-worlds-most-advanced-gaming-graphics-cards

1. AMD gibt ernsthaft "32 GBDDR4-7200MHz" als Spec für das Testsystem an? Was soll das sein? DDR4-3600 wegen Double Data Rate x2 gerechnet?

2. Wenn die Werte auf einer 7900XTX @ 300Watt TDP basieren, aber die Referenz-Karte 355Watt TDP hat und die Custom-Karten zumindest die Option für mehr TDP haben werden wegen 3x8pin statt 2x8pin, dann sind doch die Ganzen Werte von AMD für die Nüsse.

Agent117
2022-11-05, 14:25:21
Das einzige, was ich mir eher vorstellen kann ist, dass AMD nicht damit gerechnet hat, dass Nvidia einen N5 (4N, whatever) Chip mit >600mm² auf den Markt wirft. Allerdings ist die 4080 16GiB ja auch nur ein beschnittener AD103, da liegen noch mal ~10% Performance brach. Und dann ist das trotzdem ein 379mm² Die vs. 522mm² Die (300mm² + 222mm²). Da dürfte der Kostenfaktor IMO sogar eher vorteilhaft bei dem Mono-Die sein. Und der Performance-Vorteil für AMD auch kleiner (vielleicht +10% im Raster noch, dafür höhere Kosten durch das SI und RAM (und mehr MCDs), RT noch weiter hinten).

Das Problem für AMD ist eigentlich, dass sie schon den Vollausbau haben und Nvidia diesen noch nachschieben kann, weil sie bislang nur beschnittene Chips haben.

Damit dass Nvidia in die Vollen geht musste doch gerechnet werden, der Performancezuwachs dank dem großen Nodesprung > 50 % auch zu erwarten.

Das mit den Kosten AD103 vs. Navi31 ist für mich nicht so klar. Wegen besserer Ausbeute und billigem Packaging könnte N31 am Ende besser dastehen. Können Experten hier wahrscheinlich besser beurteilen.

Die Vorstellung, dass AMD jetzt wieder 2 Jahre mit der schwachen RT-Performance rumgurkt finde ich aber auch sehr trist. Man wird sich ja zumindest in RT bald auch mit Intel noch rumschlagen dürfen.
Vielleicht ist aber ja ein Vorteil der Chiplets mit kleinen Chips, dass die Zyklen kürzer werden und wir sehen schon in einem Jahr N40 mit deutllich verbessertem RT.

eratte
2022-11-05, 14:28:23
Das sind sinnlose Diskussion mit Kandidaten wie Linmoum - alleine wie viel Zeit er hier in seinen Unsinn investiert. Am besten gar nicht drauf einlassen.

Man sieht ja wie 2 User hier den Thread runter ziehen.

DrFreaK666
2022-11-05, 14:30:05
1. AMD gibt ernsthaft "32 GBDDR4-7200MHz" als Spec für das Testsystem an? Was soll das sein? DDR4-3600 wegen Double Data Rate x2 gerechnet?

2. Wenn die Werte auf einer 7900XTX @ 300Watt TDP basieren, aber die Referenz-Karte 355Watt TDP hat und die Custom-Karten zumindest die Option für mehr TDP haben werden wegen 3x8pin statt 2x8pin, dann sind doch die Ganzen Werte von AMD für die Nüsse.

Auf welche Werte beziehst du dich? Finde keine in dem Link

Linmoum
2022-11-05, 14:33:43
Das sind sinnlose Diskussion mit Kandidaten wie Linmoum - alleine wie viel Zeit er hier in seinen Unsinn investiert. Am besten gar nicht drauf einlassen. Gute Diskussionsgrundlage und du hast mich mit Gegenargumenten überzeugt. ;)

Gibt hier zum Glück noch genügend User, mit denen man trotzdem gut diskutieren kann und die das auch tun. :)

Wenn die Werte auf einer 7900XTX @ 300Watt TDP basieren, aber die Referenz-Karte 355Watt TDP hat und die Custom-Karten zumindest die Option für mehr TDP haben werden wegen 3x8pin statt 2x8pin, dann sind doch die Ganzen Werte von AMD für die Nüsse.Dass solche Angaben nicht für ineffiziente Customs gelten, ist doch völlig normal. Die schießen immer über das hinaus, wie der Hersteller seine Produkte in den Markt entlässt.

Vielleicht wollte AMD ursprünglich auch (wieder) nur bis auf 300W gehen und hat sich am Ende doch umentschieden, um noch etwas mehr Performance mitzunehmen. Der Vergleich an sich ist ja nicht falsch (und auch längst nicht so albern wie Nvidias 1.9x bei Ampere vs. Turing), aber man wird es halt in realen Produkten, zumindest den beiden bisher bekannten, nicht sehen.

eratte
2022-11-05, 14:44:24
Gute Diskussionsgrundlage und du hast mich mit Gegenargumenten überzeugt.

Du glaubst doch das ich mich dir auf eine Diskussion ein lasse, geh mal spielen oder an die frische Luft oder reiz deine 4090 mal aus. Aber ich verschwende nicht meine Zeit mit dir.

Gibt hier zum Glück noch genügend User, mit denen man trotzdem gut diskutieren kann und die das auch tun.

Aua Bauchscherzen vor Lachen - damit bin ich dann aus raus ;)

nordic_pegasus
2022-11-05, 14:44:31
basix hatte doch Fußnote 6 zitiert:


RX-816 – Based on AMD internal analysis November 2022, on a system configured with a Radeon RX 7900 XTX GPU, driver 31.0.14000.24040, AMD Ryzen 9 5900X CPU, 32 GBDDR4-7200MHz, ROG CROSSHAIR VIII HERO (WI-FI) motherboard, set to 300W TBP, on Win10 Pro, versus a similarly configured test system with a 300W Radeon 6900 XT GPU and driver 31.0.12019.16007, measuring FPS performance in select titles. Performance per watt calculated using the total board power (TBP) of the AMD GPUs listed herein. System manufacturers may vary configurations, yielding different results.


wobei Fußnote 6 für die 54% Performance pro Watt gilt.

die "up to a 1.7X performance uplift in select titles at 4K compared to AMD RDNA 2 architecture" sind dann wieder Fußnote 4


RX-848 – Based on AMD performance labs internal benchmarks as of November 2022 comparing Radeon RX 7900 XTX and RX 6950 XT graphics similarly configured with AMD Ryzen 9 7900X, AM5 motherboard, 32GB DDR-6000MT, and Windows 11 Pro. System manufacturers may vary configurations, yielding different results. Performance may vary.

hier dann keine Angaben zur TDP, darum mutmaßlich eine 7900XTX @ 355W gegen eine 6590XT @335W

Badesalz
2022-11-05, 14:49:07
Die 4080 12GB hätte 3090TI Leistung für 1099€ geboten. Muss wohl ein Schnapper gewesen sein. :rolleyes:Die hätte die 3090 aber nicht vernichtet, wie die XTX es halt kann.

Gute Diskussionsgrundlage und du hast mich mit Gegenargumenten überzeugt. ;)Du kannst diese rhetorische Idee gleich wieder aufgeben. Du selbst stellst dazu mal wilde mal verrückte Thesen auf, und möchtest Argumente dagegen sehen. Genau das macht einen Wahn eben aus. Was soll man da für Argumene bringen außer dir 101x zu erzählen was für Bullshitbingo du fährst? Du konterst das dann... mit deiner Weltvorstellung.

Irgendwann kämpft man nur noch mit den Fremdschämfaktoren um nicht auszuraten. Warte mal... Ist etwa DAS die Idee? Leute mit Irrsinn zu provozieren?

DrFreaK666
2022-11-05, 14:53:10
Aber AMD hat doch einen Ryzen 7900XT für Benchmarks genutzt, wenn ich mich nicht irre. Die Zahlen können echt für Verwirrung sorgen

nordic_pegasus
2022-11-05, 14:55:13
wenn AMD betont, dass die 7900XTX "set to 300 Watt TBP" wurde, dann war das nicht der Default-Wert. Darum war das wohl wirklich eine XTX@300W

Linmoum
2022-11-05, 14:55:19
Für Perf/Watt haben sie einen 5900X genutzt, für die reine Performance einen 7900X. Warum auch immer sie nicht einfach für alles dieselbe Plattform genommen haben.

prinz_valium_2
2022-11-05, 15:01:56
Der Fehler ist auch nur eine Metrik zu betrachten.
Die 4090 könnte doppelt so viel Leistung haben und wäre trotzdem genauso 100% uninteressant bei Preisen von 2000 bis 2500€ für viele (mich eingeschlossen).

Dieselbe Leistung wie jetzt bei halben Preis wäre aber plötzlich wieder interessant.
Von daher kann hier lange weiter darüber diskutiert werden, dass die 7900 deutlich schwächer als die 4090 ist, es spielt für viele Interessenten keine Rolle. Sie ist schneller als die auch noch viel zu teure (gerade im relativen Leistungsvergleich) 4080. Damit steht die 7900 sehr gut da.


Die 7900 macht mehr Richtig in mehr Belangen als nVidias 4000er Lineup bisher. Das zählt.
Bei nVidia ist es nur die absolute Leistung der 4090 und sehr gute Upgrades bei RT und DLSS positiv hervorzuheben.
AMD macht dagegen nur eine Sache falsch. Zu geringe Taktraten. Ansonsten gäbe es an der Karte aus meiner Sicht gar nichts auszusetzen. Anderen mag RT wichtig sein, aber da war es klar, dass sowieso nur nVidia in Frage kommt, wenn das ein Primärer Kaufgrund ist.

nordic_pegasus
2022-11-05, 15:07:50
ich bin auch in keinster Weise von AMD enttäuscht, ich verstehe nur die unterschiedlichen Testsysteme für die jeweiligen Kennwerte nicht.

Das eine 1000 Dollar Karte weniger Leistung abliefert als eine 1600 Dollar Karte, ist zu erwarten, wenn man nicht gerade mit Volldampf im Hype-Train gesessen hat.

Letztlich verwundern mich auch nur die sehr moderaten Taktraten, wenn der Slide hier stimmen sollte mit "Architected to exceed 3GHz"
https://videocardz.com/newz/alleged-amd-navi-31-gpu-block-diagram-leaks-out (falls der nicht schon verlinkt wurde)

Troyan
2022-11-05, 15:17:51
Der Fehler ist auch nur eine Metrik zu betrachten.
Die 4090 könnte doppelt so viel Leistung haben und wäre trotzdem genauso 100% uninteressant bei Preisen von 2000 bis 2500€ für viele (mich eingeschlossen).

Die 4090 hat doppelte Leistung. Das ist doch das irre hier. Die Karte kostet 60% mehr, liefert >80%+ mehr Leistung in heutigen Spielen. Was bringt es mir also $600 zu sparen, wenn ich dafür deutlich weniger Leistung erhalte?

Dieser Logik folgend, reicht auch eine RTX3060 aus und die 800€ Aufpreis zur 7900XTX sind einfach herausgeworfenes Geld.

basix
2022-11-05, 15:21:56
Die 4090 hat doppelte Leistung. Das ist doch das irre hier. Die Karte kostet 60% mehr, liefert >80%+ mehr Leistung in heutigen Spielen. Was bringt es mir also $600 zu sparen, wenn ich dafür deutlich weniger Leistung erhalte?

Dieser Logik folgend, reicht auch eine RTX3060 aus und die 800€ Aufpreis zur 7900XTX sind einfach herausgeworfenes Geld.

Zwei Kommentare:

Die >80% gelten nur für RT und auch hier nur für ausgewählte Anwendungen
Bei der Kaufentscheidung ist nicht nur P/L sondern auch der absolute Preis entscheidend. Viele haben ein oberes Limit oder besser gesagt Budget von 500 Euro oder weniger. Da ist es egal, wenn die 4090 bei 2000 Euro ein gutes P/L bieten würde. Wenn jemand ein Budget von ~1000 Euro hat, wird er deswegen nicht gleich die 4090 kaufen sondern das beste, was innerhalb des Budgets liegt. Und das wäre Stand jetzt die 7900XT(X)

Daredevil
2022-11-05, 15:22:47
Das eine 1000 Dollar Karte weniger Leistung abliefert als eine 1600 Dollar Karte, ist zu erwarten, wenn man nicht gerade mit Volldampf im Hype-Train gesessen hat.

Man ist natürlich verwöhnt, weil RDNA1 und RDNA2 ja genau das gemacht hat.
Nahezu gleiche Leistung als ne VIEL teurere 6900xt 3090 ( außer RT ) und dabei knapp 600$ weniger aus der Geldbörse losgeworden. Das war schon ne starke Geschichte. Nur das Nvidia jetzt offenbar mal eingesehen hat, das sie für den Preis auch Leistung abliefern müssen und der Sprung mit ADA recht groß ist im Vergleich zu RDNA3. ( u.a. erkauft mit mehr Strom )

Ne 7900xt konkurriert also "nur" mit einer 4080, welche nicht VIEL mehr kosten wird. Das ist immer noch sehr gut, aber kein "Schnäppchen Alarm".

Virtual
2022-11-05, 15:23:15
Warum müssen so viele 4090-Besitzer ihre Karte ausgerechnet in diesem Faden abfeiern? Geht das nicht auch Faden der 4090?

OK, ausgenommen sind natürlich alle Foren-Influencer, Erbsenzähler und Verschwörungstheoretiker die natürlich ihrem Job, ihrer Leidenschaft oder dem inneren Drang nachgehen/nachgeben ... könnt ihr vielleicht doch eine Ausnahme machen. Ich möchte nicht jedesmal 10 Seiten gleichen Inhalts durchkämmen, ich würde lieber eine Seite mit relevanten Neuigkeiten lesen wollen!

Gott1337
2022-11-05, 15:31:28
Scheint eher für Content Creator entwickelt worden zu sein statt für Gamer.

Dass Nvidia mit den bestehenden Konzepten bricht und mit Monster Karten kommt die nicht mehr in normale Gehäuse passen mit über 355W, die 2 * 8Pin PCIe zulässt, damit dürfte AMD nicht gerechnet haben.

Content Creator kaufen erst gar nicht AMD GPUs, weil schlechter Software support. Die haben vorher die 3090 gekauft wegen mehr VRAM und HW RT. auch die 4090 läuft sehr gut mit 300 Watt also auch kein Argument.
Und wenn man sein Geld damit verdient, dann jucken einen die 600$ mehr auch nicht, da spar ich lieber die Zeit beim Rendern. Da ist Nvidia 4x schneller. Da hat man das Geld nach ner Woche wieder raus.

Gott1337
2022-11-05, 15:34:03
Man ist natürlich verwöhnt, weil RDNA1 und RDNA2 ja genau das gemacht hat.
Nahezu gleiche Leistung als ne VIEL teurere 6900xt ( außer RT ) und dabei knapp 600$ weniger aus der Geldbörse losgeworden. Das war schon ne starke Geschichte. Nur das Nvidia jetzt offenbar mal eingesehen hat, das sie für den Preis auch Leistung abliefern müssen und der Sprung mit ADA recht groß ist im Vergleich zu RDNA3. ( u.a. erkauft mit mehr Strom )

Ne 7900xt konkurriert also "nur" mit einer 4080, welche nicht VIEL mehr kosten wird. Das ist immer noch sehr gut, aber kein "Schnäppchen Alarm".
RDNA 1 zu RDNA 2 war der Performancesprung 2x, aber die Kosten waren weit über dem zweifachen.

Daredevil
2022-11-05, 15:36:27
Oh, kleiner Fehler von mir. Ich meinte natürlich 3090 und nicht 6900xt, meinte also den Vergleich zu Nvidias Lineup. :)

basix
2022-11-05, 15:39:59
Nahezu gleiche Leistung als ne VIEL teurere 6900xt RTX 3090 ( außer RT ) und dabei knapp 600$ weniger aus der Geldbörse losgeworden. Das war schon ne starke Geschichte. Nur das Nvidia jetzt offenbar mal eingesehen hat, das sie für den Preis auch Leistung abliefern müssen und der Sprung mit ADA recht groß ist im Vergleich zu RDNA3. ( u.a. erkauft mit mehr Strom )

Naja, die Geschichte wiederholt sich hier ja gerade: Ähnliche Raster-Performance und deutlich geringere RT-Performance, dafür auch deutlich geringerer Preis. Was es diese Generation nicht gibt sind Preisbrecher wie die 3080 und 6800XT @ MSRP (welche aufgrund Mining aber fast nie real waren).

AMD scheint zumindest bei den Nebenfeatures wie Video-Encoding und vermutlich auch Anwendungsperformance (60 TFLOPS, SW-Support, AI-Acceleration) etwas näher an Nvidia ranzukommen als bis anhin.

Atma
2022-11-05, 15:50:36
Welche schlechte Leistung?
Die günstigste 3090 kostet laut Geizhals 1150€.
Die 7900XTX wird womöglich 1200€ kosten, in RT gleichschnell sein und in RZ die 3090 vernichten.
Die 7900 XTX soll eine 3090 beim RZ vernichten? Puh, das glaube ich erst wenn ich es sehe. Die 4080 16 GB war auf den Nvidia Folien 20-30% schneller als GA102, das ist ein respektabler Vorsprung, von "vernichten" kann aber bei bestem Willen nicht die Rede sein. Derzeit vernichtet nur eine Karte alles: die 4090.

basix
2022-11-05, 15:57:43
1.5...1.6x schneller als eine 6950XT ist eindeutig massiv schneller als eine 3090 bei RZ.

DrFreaK666
2022-11-05, 15:59:58
Die 7900 XTX soll eine 3090 beim RZ vernichten? Puh, das glaube ich erst wenn ich es sehe. Die 4080 16 GB war auf den Nvidia Folien 20-30% schneller als GA102, das ist ein respektabler Vorsprung, von "vernichten" kann aber bei bestem Willen nicht die Rede sein. Derzeit vernichtet nur eine Karte alles: die 4090.

Wenn die ~+60% von AMD stimmen, dann ist das für mich vernichtend.
Ob ich 38FPS habe oder 60FPS, ist ein Unterschied

Troyan
2022-11-05, 16:08:10
Zwei Kommentare:

Die >80% gelten nur für RT und auch hier nur für ausgewählte Anwendungen
Bei der Kaufentscheidung ist nicht nur P/L sondern auch der absolute Preis entscheidend. Viele haben ein oberes Limit oder besser gesagt Budget von 500 Euro oder weniger. Da ist es egal, wenn die 4090 bei 2000 Euro ein gutes P/L bieten würde. Wenn jemand ein Budget von ~1000 Euro hat, wird er deswegen nicht gleich die 4090 kaufen sondern das beste, was innerhalb des Budgets liegt. Und das wäre Stand jetzt die 7900XT(X)


Und manchmal macht es Sinn mehr ausgeben, um das bessere Produkt zu erhalten. Der Markt ist durch die 4090 einfach soweit kaputt, weil es nach untenhin keine richtige Abstufung mehr gibt. AMD verkauft nun den Nachfolger der 6800XT für $899 anstatt von $649 und nVidia will die $699 3080 mit einer $1199 Karte ersetzen.

Wenn man überlegt, dass die 4090 mehr als doppelt so schnell ist als die 7900XT, ist das ein Problem für den Markt. Als Vergleich: Die 3090 ist mit Raytracing ca. 1,65x schneller als die 3070 zum 3x Preis. Die 4090 ist 1,77x teurer und 2,2x schneller als die 7900XT. :eek:

prinz_valium_2
2022-11-05, 16:22:41
Du redest von "manchmal macht es Sinn mehr auszugeben um das bessere Produkt zu erhalten", aber kommst dann mit dem Reinfall 7900XT anstatt der $100 oder 11% teureren 7900XTX.

Da lohnt es sich nämlich wirklich mehr auszugeben anstatt $600 oder 60% mehr.
Und hier in Deutschland können wir davon nur träumen. Da werden es es eher 800€ oder 75% mehr.

Sumpfmolch
2022-11-05, 16:25:09
Mit der Argumentation würden auf den Straßen auch nur Limousinen herum fahren...

Was richtig ist: Ich bin mit den Preispunkten beider Lineups massiv unzufrieden.

Kann gut sein, dass ich die komplette Generation auslasse.

TheGood
2022-11-05, 16:27:40
Ich finds erstaunlich wie viel Energie Linmoum in diesen Thread investiert wo der schon längst eine 4090 im Rechner hat. Ist das so ne Art sich selbst auf die Schulter dauerhaft klopfen "hab ich toll gemacht"? :freak: Diese Raytracing Spiele müssen ja unglaublich interessant sein. :D


Lol... die beiden Remakes laufen problemlos auf RDNA2 mit RT, da ist nicht mal FSR 2.x nötig.

DAs ist das typische man muss sich seinen Einkauf Schönreden.
Er schwärmt wahrscheinlich noch in 2 JAhren von der 4090 und gibt dann für die 5090 2500 Euro aus, damit er nochmals 70 % mehr Raytracing bekommt und das Spielenangebot mit RT sich nicht unwesentlich verbessert hat, weil es schlichtweg keine sinnvolle Marktdurchdringung nach unten gibt. Denn alles unter 4090 RT PErformance ist ja ein FAIL.

Meine Güte echt...

Atma
2022-11-05, 16:32:10
1.5...1.6x schneller als eine 6950XT ist eindeutig massiv schneller als eine 3090 bei RZ.
Alles nur relative Werte, krasse Aussagekraft. Wie verlässlich die waren hat man schon bei der Ada Präsentation gesehen.

DAs ist das typische man muss sich seinen Einkauf Schönreden.
Er schwärmt wahrscheinlich noch in 2 JAhren von der 4090 und gibt dann für die 5090 2500 Euro aus, damit er nochmals 70 % mehr Raytracing bekommt und das Spielenangebot mit RT sich nicht unwesentlich verbessert hat, weil es schlichtweg keine sinnvolle Marktdurchdringung nach unten gibt. Denn alles unter 4090 RT PErformance ist ja ein FAIL.
Linmoum war auch einer der ersten hier, der gegen Ada gewettert hat weil der Chip eine noch eine größere Luftpumpe ist als Ampere. Gleichzeitig war er einer der ersten, der sich eine 4090 gekauft hat. Schon sehr glaubwürdig das ganze ;D

TheGood
2022-11-05, 16:33:40
Naja 3 Ghz sind mehr als 25% mehr Takt und das sollte auch dementsprechend in Mehrperformance münden. Damit wäre N31 Faktor 2 schneller als N21. Damit wäre man auch wieder auf den erwarteten Performance. RT wäre dann auf LastGen-NV-Niveau und bei RZ eher auf 4090-Niveau.

Es gibt viele Gründe diesen Weg nicht zu gehen:
- Spielraum für eine 7950XT/XTX mit 192 MB Stacked Cache
- Komplett neues PCB und neue Kühlung weil es eher bei 500 W TDP wäre
- AMD-Kunden kaufen eher günstig und NV-Kunden scheißen aufs Geld und auf die Stromrechnung
- Spielraum für Partner-Karten
- Kunden müssten ein neues Netzteil etc. anschaffen

In dem Showbild ging es um RDNA3 und das geht ja runter bis N33 und N32. GGf. wird da einfach mehr geliefert, who knows...

Badesalz
2022-11-05, 16:36:11
Und manchmal macht es Sinn mehr ausgeben, um das bessere Produkt zu erhalten.Die Leute haben halt wenig Ahnung. Ich wundere mich auch schon lange warum die ganzen Möchtegern mit einem GolfR und nicht mit einem M5 rumfahren. Echt mal. Egal wo man hinschaut, man ist nur von N00bs umgeben was?

unl34shed
2022-11-05, 16:37:15
Alles nur relative Werte, krasse Aussagekraft. Wie verlässlich die waren hat man schon bei der Ada Präsentation gesehen.

Deswegen haben sie auch Spiele genommen, in denen es kein FSR gibt :confused:

TheGood
2022-11-05, 16:44:21
Du kannst mich ja auch gerne mit Argumenten überzeugen. Aber da kommt nicht wirklich was. Warum wohl? ;)

Anyway. Bin ich noch gespannt darauf, wie sich RDNA3 in 5K+ verhält. Für Raster sollte die Grundperformance für viele Spiele damit reichen, ist die Frage, ob man die Performance oberhalb von UHD auch halten kann.

Nein mit Argumenten kann man dich schon lange nicht mehr überzeugen, weil bei dir jegliche Realität verloren geangen ist mit deinem, bei mir zählt nur RT Leistung.
Gott sie Dank kommt hier richtig viel Gegenwind, aber selbst das kommt in deinem Wahn nicht mehr an.

Dazu muss RT in drei Bereiche aufgeteilt werden GI, Shatten und Spiegelungen. Bei den ersten beiden steht AMD gar nicht so schlecht da und das sind die Dinge die man am ehsten einsetzt, warum weil die Entwickler hier Aufwand sparen können.
Aber das klappt am Ende erst dann wenn genügend Leute RT im REchner haben. Bis dass der Fall ist vergehen mindestens noch 4 Jahre, vermutlich noch mehr. Wir sollten mal ne Wette abshcliesen wann das erste Hardware RT only spiel rauskommt (vermutlich wird das schwierig, z.b. Lumen auf Software RT aufgebuat wurde und offensichtlich trotzdem gut aussieht (was man aber mal verifizieren sollte)

Atma
2022-11-05, 16:48:44
Deswegen haben sie auch Spiele genommen, in denen es kein FSR gibt :confused:
Am Ende bleiben es trotzdem relative Werte mit wenig Aussagekraft. Nackte zahlen sind entscheidend, keine 1.x Angaben. Was das angeht war die RDNA 3 Präsentation genauso beschissen wie die Ada Präsentation. Nur relative Werte oder Angaben unter der Verwendung von FSR.

Badesalz
2022-11-05, 16:51:33
Nein mit Argumenten kann man dich schon lange nicht mehr überzeugen, weil bei dir jegliche Realität verloren geangen ist mit deinem, bei mir zählt nur RT Leistung.
Gott sie Dank kommt hier richtig viel Gegenwind, aber selbst das kommt in deinem Wahn nicht mehr an.
Du gehst da mit dem falschen Ansatz dran. Du denkst, ok, er steckt in einer Blase. Wenn man das vernünftig mit dem Finger antippt platzt das und gut. Tut es nicht.
Der ist nicht nur für eine 4090 vermögend genug (das sei ihm auch klar gegönnt), sondern leistet sich auch für seine Blasen Deflektorschilder. Da kannst du auch mit einer Spitzhacke draufzimmern. Da tut sich nichts.

Im Gründe ist er nicht wirklich ein Fanboy. Es geht ihm darum, daß AMD sich bis zum Äußersten verausgabt, damit das NVs Preise drückt und damit er für die 5090 nicht mehr soviel Kohle auf den Tisch stämmen muß. Kann man machen. Aus AMDs Sicht macht das aktuell aber keinen Sinn. Das bedeutet wie wir sehen nicht, daß sie schlechte Produkte bringen, aber für ihn sind die eben grottig, weil das seine Pläne torpediert.

dargo
2022-11-05, 16:53:11
Nein mit Argumenten kann man dich schon lange nicht mehr überzeugen, weil bei dir jegliche Realität verloren geangen ist mit deinem, bei mir zählt nur RT Leistung.
Gott sie Dank kommt hier richtig viel Gegenwind, aber selbst das kommt in deinem Wahn nicht mehr an.

Dazu muss RT in drei Bereiche aufgeteilt werden GI, Shatten und Spiegelungen. Bei den ersten beiden steht AMD gar nicht so schlecht da und das sind die Dinge die man am ehsten einsetzt, warum weil die Entwickler hier Aufwand sparen können.
Aber das klappt am Ende erst dann wenn genügend Leute RT im REchner haben. Bis dass der Fall ist vergehen mindestens noch 4 Jahre, vermutlich noch mehr. Wir sollten mal ne Wette abshcliesen wann das erste Hardware RT only spiel rauskommt (vermutlich so gut wie nie, weil Lumen Software RT nutzt und offensichtlich trotzdem gut aussieht (kann man aber wohl leider nicht so genau sagen )
Ich bin eh gespannt wie die Devs das Problem lösen wollen? Also ab wann sich jemand traut ein Spiel zu releasen, dass RT-Hardware voraussetzt? Damit geht man schon ein sehr hohes Risiko ein. Bsw. sind dann alle Pascal-User keine potenziellen Käufer mehr. Witzigerweise ist ne poppelige GTX 1060 immer noch die Nummer 1 bei Steam. Und nein... Metro zählt bei mir nicht, davon gibt es zwei Versionen.

Linmoum
2022-11-05, 16:54:55
- Zwischen offizieller Vorstellung und dem tatsächlichen Launch fast sechs Wochen. Das ist... auffällig lange
- Su sprach vor Monaten noch davon, dass u.a. auch RDNA3 für die Q4-Zahlen einen entsprechenden Einfluss haben wird. Kann man bei einem Launch erst am 13.12. im Prinzip komplett vergessen.
- "Architected to exceed 3GHz" und dann doch nur 2.3-2.5GHz
- "up to 1.8x RT @2.5GHz" aber bei den eigenen Benchmarks hört es plötzlich bei 1.6x auf. Also taktet die 7900XTX real sogar deutlich niedriger als 2.5GHz :confused:

Wenn ich das alles in einen Topf werfe wirkt das für mich so, als wollte AMD ursprünglich

a) früher launchen und
b) mit (deutlich) mehr Takt

aber beides ist aus irgendwelchen Gründen nicht möglich gewesen. Bondrewd hat auf die Frage von jemandem mit "R520 vibes" mit "absolutely correct" geantwortet.

Hoffen wir es mal nicht. Auch, wenn das Blockdiagramm und die tatsächlichen Produktspecs bzw. Benchmarks aufgrund ihrer Widersprüchlichkeit doch Fragen aufwerfen, ob da wirklich alles glatt lief (oder läuft?).

dargo
2022-11-05, 16:59:28
- "Architected to exceed 3GHz" und dann doch nur 2.3-2.5GHz

:rolleyes:

Mit 2x 8 Pin gibt es Grenzen wenn schon dieser Boost 355W zieht. Zudem hast du N32 und N33 noch gar nicht gesehen. Kleinere SKUs hat AMD auch schon bei RDNA2 höher boosten lassen.


- "up to 1.8x RT @2.5GHz" aber bei den eigenen Benchmarks hört es plötzlich bei 1.6x auf.

Das "up to" scheinst du wohl nicht ganz zu verstehen? In DL2 sind es +85% mit RT gewesen.

Exxtreme
2022-11-05, 17:00:53
Kopfschmerzen bekomme ich eher, wenn ich sehe, wer sich Ende 2022 noch das schönredet, was AMD hier mit RDNA3 bei RT abliefert.

Jein. Es hängt davon ab was an RT-Features genutzt wird. Werden nur Schatten und Beleuchtung per RT berechnet dann laufen auch die Radeons sehr anständig.

https://www.pcgameshardware.de/World-of-Warcraft-Shadowlands-Spiel-72321/Specials/WoW-Raytracing-Vergleich-Test-1362425/

Die Radeons kacken erst dann ab wenn auch noch RT-Reflexionen dazukommen.


Ray Tracing ist lange nicht mehr derart Nische,


Natürlich sind sie das. Ich brauche nur in die Steamcharts reinzuschauen.

Badesalz
2022-11-05, 17:03:56
Bei eigenen Benchmarks hörte es "up to" auch bei 1.7x auf. Nicht bei 1.6. Auch wenn sie wohl bei CP schwer den Treiber nachoptimieren mussten dafür ;) Aber real ist real :tongue:

TheGood
2022-11-05, 17:06:33
Ich bin eh gespannt wie die Devs das Problem lösen wollen? Also ab wann sich jemand traut ein Spiel zu releasen, dass RT-Hardware voraussetzt? Damit geht man schon ein sehr hohes Risiko ein. Bsw. sind dann alle Pascal-User keine potenziellen Käufer mehr. Witzigerweise ist ne poppelige GTX 1060 immer noch die Nummer 1 bei Steam. Und nein... Metro zählt bei mir nicht, davon gibt es zwei Versionen.


Man kann ja sogar sagen, das größte ARgument gegen RT ist die UE5 engine. Weil das hat jeden umgehauen. RT hatte diesen Effekt leider nicht.
Denn wenn es so gewesen wäre, würden wir heute bei RT aus meiner Sicht wo ganz anders stehen...

Ich stelel aber nochmals klar, wie ich schon oft gesagt habe, RT gehört die Zukunft. Aber es jetzt als KO Kriterium zu verkaufen entspricht nicht der Realität.

Am Ende sollten wir jetzt mal auf echte Benchmarks warten, dann kann man auch richtig diskutieren und man muss sich nicht irgendwas zusammenfabulieren. Danach kann man immer noch entscheiden wie das finale RT VErhältnis zum Preis aussieht und nach jetzigem Stand von Leo ist da jede Diskussion sinnlos. Denn je nach Fokus kann man dann die Entschiedung für seine Graka treffen und das ist am Ende dann auch immer richtig :)

BiG OnE
2022-11-05, 17:11:20
Linmoum war auch einer der ersten hier, der gegen Ada gewettert hat weil der Chip eine noch eine größere Luftpumpe ist als Ampere. Gleichzeitig war er einer der ersten, der sich eine 4090 gekauft hat. Schon sehr glaubwürdig das ganze ;D
Na und, er hat mit 4090 offenbar die Leistung bekommen die er haben wollte.

BlacKi
2022-11-05, 17:11:46
- "Architected to exceed 3GHz" und dann doch nur 2.3-2.5GHz


naja, ich halte die 3ghz schon für möglich. unter niedriglast und guter wakü. aber wie relevant sind dann die 3ghz noch.

Linmoum
2022-11-05, 17:12:27
Mit 2x 8 Pin gibt es Grenzen wenn schon dieser Boost 355W zieht. Zudem hast du N32 und N33 noch gar nicht gesehen. Kleinere SKUs hat AMD auch schon bei RDNA2 höher boosten lassen.AMD selbst wird bei N32 und N33 die (finalen) Taktraten noch gar nicht evaluiert haben. Dafür ist der Launch noch viel zu weit entfernt.

Ob 3x8pin daran was ändert, werden wir im Dezember sehen.

Das "up to" scheinst du wohl nicht ganz zu verstehen? In DL2 sind es +85% mit RT gewesen.Ja, mit FSR. :rolleyes: Aber klar. AMD spricht offiziell "nur" von "up to 1.8x" und es sind dann plötzlich in eigenen Benchmarks mehr als das. Ergibt auch total viel Sinn. :freak: Die 1.8x hätten sie in ihren normalen non-FSR-Werten ja auch zeigen können, aber da war bei 1.6x in Doom Schluss.

Natürlich sind sie das. Ich brauche nur in die Steamcharts reinzuschauen.Mal davon ab, dass es die Steam Survey ist... Dann können Nvidia und AMD ja problemlos auf große Chips und hohe RT-Performance verzichten und nur noch den <$500 Grafikkartenmarkt bedienen. ;) Nach deiner Definition sind alle GPUs im höheren Preisbereich "Nische". Und trotzdem prügeln sich die Leute um die schnellsten bzw. sehr schnelle Grafikkarten und das nicht nur in Nerd-Foren.

Bei eigenen Benchmarks hörte es "up to" auch bei 1.7x auf. Nicht bei 1.6. Auch wenn sie wohl bei CP schwer den Treiber nachoptimieren mussten dafür ;) Aber resl ist real :tongue:Der 1.7x-Wert von CP war ohne RT. ;) Das "1.8x" auf der Folie bezieht sich aber explizit darauf und da war bei Doom mit 1.6x Schluss. Der Rest war mit FSR, daher sowieso wenig sinnvoll, das zu beachten ohne zu wissen, ob FSR ggf. mit RDNA3 sogar besser läuft.

Nakai
2022-11-05, 17:14:38
naja, ich halte die 3ghz schon für möglich. unter niedriglast und guter wakü. aber wie relevant sind dann die 3ghz noch.

Und eher 500w Verbrauch.

AMD war einfach nicht gewillt eine NV-Lösung abzuliefern. Die Karte ist am Power-Limit.

BlacKi
2022-11-05, 17:18:49
Und eher 500w Verbrauch.

AMD war einfach nicht gewillt eine NV-Lösung abzuliefern. Die Karte ist am Power-Limit.das widerspricht halt den gerüchten die die AIBs so ablassen. die werden sicher mit 3x 8 pin kommen, wird aber nicht helfen.

Badesalz
2022-11-05, 17:22:04
Der 1.7x-Wert von CP war ohne RT. ;)NA gut. Dann gilt der natürlich nicht :tongue:

Mal davon ab, dass es die Steam Survey ist... Dann können Nvidia und AMD ja problemlos auf große Chips und hohe RT-Performance verzichten und nur noch den <$500 Grafikkartenmarkt bedienen. ;) Der heutige große ist die Basis und Lehrerfahrung für den morgigen kleinen. Du brauchst dafür eine ganze Baureihe und du brauchst die TopDogs.

Nach deiner Definition sind alle GPUs im höheren Preisbereich "Nische". Und trotzdem prügeln sich die Leute um die schnellsten bzw. sehr schnelle Grafikkarten und das nicht nur in Nerd-Foren.Ist ja auch richtig. Und eine "Prügelei" hievt dich nicht aus einer Nische. Das ist hier nicht USA in den Zeiten der Prohibition, du Al Capone du :wink:

Nakai
2022-11-05, 17:23:03
das widerspricht halt den gerüchten die die AIBs so ablassen. die werden sicher mit 3x 8 pin kommen, wird aber nicht helfen.

Werden wir sehen. Eventuell limitiert irgendwas anderes um einen höheren Takt zu erreichen.

robbitop
2022-11-05, 17:26:37
Das ist ne absolut lächerliche Gleichung.

5nm-Wafer sind nach letztem Info-Stand ca. 70% teurer als 6nm-Wafer, die 222mm² der MCDs kosten AMD also auf Wafer-Seite nur so viel wie ~130mm² in 5nm, und das berücksichtigt noch nicht, dass die prozentuale Ausbeute an 100% funktionstüchtigen MCDs deutlich höher sein dürfte, als das bei einer monolithischen Umsetzung in 5nm der Fall gewesen wäre.

Auch der GCD sollte ne etwas bessere Yield-Rate als AD103 haben.
Summa Summarum dürften die Silizium-Kosten von N31 unter Berücksichtigung der Ausbeute höchstens um die 10% über AD103 liegen, trotz größerem Cache und breiterem SI.
Das einzige, was die N31-Karten etwas teurer in der Herstellung machen könnte ist der zusätzliche VRAM, andererseits denke ich, dass GDDR6X je GB etwas teurer als normaler G6 sein sollte, also ist nicht einmal das sicher oder zumindest nicht so viel, wie manche vllt. denken, da reden wir vielleicht von ~20-30$ je Karte, in dem Preissegment nicht dramatisch.

Wie es um die zusätzlichen Assembly-Kosten bestellt ist kann ich nicht einschätzen, aber ich tippe, dass selbst ne XTX mit ihren 24GB in der Produktion insgesamt nur um die 50$ teurer ist als ne 4080-16G, die XT noch weniger.




Eigentlich ist es m.E. relativ einfach:

RT läuft bei RDNA3 wohl immer noch primär über die TMUs. Genau die wurden beim neuen CU-Design aber eben nicht verdoppelt, sondern nur die FP32-ALUs.

Man muss es mMn eher so sehen, dass AMD aus nur 20% mehr TMUs und ~9% mehr Gameclock (=~30% mehr TMU-Leistung) trotzdem um die 50% mehr RT-Leistung - im Best-Case sogar deutlich mehr - ggü. N21 rausholt.

Die Implementierung an sich ist ggü. RDNA2 also grundsätzlich durchaus deutlich schneller geworden (jedenfalls je CU/TMU-Block).
Was RNDA3 auf die Füße fällt ist halt, dass man gleichzeitig zugunsten einer besseren Raster-Perf/W und -Perf/mm² eben statt bspw. 120 CUs nach RDNA2-Aufbau nur 96 CUs mit dafür doppelter FP32-Leistung verbaut hat.

Sprich, man hatte bei AMD wohl innerhalb des R&D-Zeitrahmens und -budgets für RDNA3 nur die Wahl zwischen:
a) +~40% Raster, +~30% Perf/W, schlechte Perf/mm², aber ~85% mehr RT-Leistung, oder
b) +55-70% Raster und +54% Perf/W sowie gute Raster-Perf/mm², aber nur ~50% mehr RT-Leistung aufgrund niedrigem TMU-Zuwachs.

Dass man sich da eher für Variante b) entscheiden würde, ist denk ich betriebswirtschaftlich nachvollziehbar, dafür ist RT nach wie vor nicht weit genug verbreitet.

Wenn AMD den Anschluss halten will, müssen sie sich natürlich trotzdem dringend was einfallen lassen. Z.B. RDNA4 schon ziemlich schnell nachschieben (~Anfang 2024) und Fokus auf deutliche Steigerung der RT-Leistung legen (TMUs je CU verdoppeln? Doch echte dedizierte RT-Einheiten wie NV verbauen?).



Wieviel dran ist muss man natürlich abwarten, aber es gab in der Gerüchteküche schon vor vielen Monaten Aussagen, dass RDNA4 eher so schnell auf RDNA3 folgen soll wie RDNA2 auf RDNA1, und RDNA4 auch deutlich mehr Chips von Highend bis Lowend bieten wird.

Bei AMD ist die Zahl der Chipdesigns oft ein Indikator, wie überzeugt man von der uArch ist:
Vega: Nur V10 und APUs (V11 gestrichen, V12 nur für Apple)
RDNA1: Nur N10 (oberer Midrange) und N14 (N12 Apple-exklusiv und im Grunde nur N10 mit HBM2-SI)
RDNA2: Von N21-N24, also Top-to-Bottom, bei IGPs überall von Vega direkt auf RDNA2 gesprungen
RDNA3: Nur 3 Chips, und N33 soll hauptsächlich Mobile-Chip sein, für N33 offenbar also keine sonderlich hohen Erwartungen an erzielbare Verkaufszahlen/Margen im Desktop, "in 1080p schneller als N21" bezog sich wohl nur auf die 6800 (non-XT).
RDNA4: Zumindest lt. Gerüchteküche schon relativ zeitnah nachfolgend und wieder mit großem Top-to-Bottom Lineup.
Naja man hätte auch BVH traversal in HW verbauen können und coherency sorting. Man hätte pro Transistor deutlich mehr RT Performance geholt.
Ansonsten wird RDNA3 übrigens auch in APUs verbaut werden (Phoenix Point). Also schon 4 Produkte.

Linmoum
2022-11-05, 17:27:17
kepler + Bondrewd:
It's another R520.
Happens.
https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/page-18#post-2272644
Yes, the HW is botched. No, I don't know if we will see a "fixed" Navi31 ever coming out.
https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-117#post-40882494
AFAIK this issue is present on the entire first "batch" of RDNA3 products. Later products like Strix Point may have fixed the issue.
https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-118#post-40882558

Kann jeder natürlich halten wie er mag und es nicht glauben (was ich im Übrigen auch nicht verwerflich finde), aber es wirkt insgesamt trotzdem ein wenig, als wenn hier irgendwas nicht so hinhaut, wie AMD es sich vorgestellt hat. Spätestens rückblickend Sus Aussagen und der Einfluss von RDNA3 auf die Q4-Zahlen, dafür hättest du spätestens ~Mitte November launchen müssen, damit das noch nennenswert reinspielt. Jetzt haben wir einen ganzen Monat später. Und fast sechs Wochen zwischen Ankündigung und Launch sind auch eher ungewöhnlich viel. Zumal das ja ein selbst abgehaltenes Event war und nicht die Große Bühjne wie CES oder Computex, die man sonst nutzen würde.

Geldmann3
2022-11-05, 17:30:09
Kann mir vorstellen, dass AMD RDNA 3 einst viel höher ,,gespect" hat, nun jedoch aufgrund der Marktbedingungen und aus technischen Gründen zurückgerudert ist, daher halte ich es für möglich, dass wir nächstes Jahr einen kompletten Refresh mit einigen Überraschungen sehen könnten.

dargo
2022-11-05, 17:34:48
Ja, mit FSR. :rolleyes:
Ja und? In CP77 wurde auch FSR verwendet und dort sind es nur knapp +48%. Schon mal was von unterschiedlichen RT-Lasten gehört? Junge, junge du bist echt anstrengend.

Atma
2022-11-05, 17:37:18
Na und, er hat mit 4090 offenbar die Leistung bekommen die er haben wollte.
Mehr Leistung will jeder am Ende. An vorderster Front wettern und trotzdem einer der ersten sein der kauft ist und bleibt Fail.

basix
2022-11-05, 17:39:02
Am Ende bleiben es trotzdem relative Werte mit wenig Aussagekraft. Nackte zahlen sind entscheidend, keine 1.x Angaben. Was das angeht war die RDNA 3 Präsentation genauso beschissen wie die Ada Präsentation. Nur relative Werte oder Angaben unter der Verwendung von FSR.

Wenn die Basis bekannt ist (und das ist sie im Falle der 6900XT / 6950XT), sind relative Werte genau so gut. Falls du dieses Prinzip nicht so siehst, wirst du ein Problem im Leben haben ;)

Bei Lovelace war das Problem, dass DLSS2 vs. DLSS3 verglichen wurde und man absolut keine Ahnung hatte, wie sich das in Relation verhält. Oder so Bullshit wie in Flight Simulator, wo alle Karten im CPU-Limit hängen und Frame Generation von DLSS3 hier 2x FPS liefert. Und genau diese Zahlen wurden von Nvidia am prominentesten präsentiert. Bei RDNA3 wurde nativ, mit und ohne RT sowie mit FSR im direkten Vergleich mit dem Vorgänger gezeigt. Was willst du hier noch mehr? Einzig, dass es sich jeweils auf 3 Spiele beschränkt lässt Raum für Ungenauigkeiten. Aber was willst du von so einem Show Case erwarten? Ein volles Review?

basix
2022-11-05, 17:43:14
kepler + Bondrewd:

https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/page-18#post-2272644

https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-117#post-40882494

https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-118#post-40882558

Kann jeder natürlich halten wie er mag und es nicht glauben (was ich im Übrigen auch nicht verwerflich finde), aber es wirkt insgesamt trotzdem ein wenig, als wenn hier irgendwas nicht so hinhaut, wie AMD es sich vorgestellt hat. Spätestens rückblickend Sus Aussagen und der Einfluss von RDNA3 auf die Q4-Zahlen, dafür hättest du spätestens ~Mitte November launchen müssen, damit das noch nennenswert reinspielt. Jetzt haben wir einen ganzen Monat später. Und fast sechs Wochen zwischen Ankündigung und Launch sind auch eher ungewöhnlich viel. Zumal das ja ein selbst abgehaltenes Event war und nicht die Große Bühjne wie CES oder Computex, die man sonst nutzen würde.

Hmm, interessant. Würde zumindest das RDNA3+ Thema ein wenig untermauern. Time will tell.

BlacKi
2022-11-05, 17:44:12
was ich komplett gaga finde ist eben, das RDNA3 schlechter für RT ist als RDNA2.

siehe amd eigene benchmarks in cyberpunk mit RT off und on.

1,7x ohne RT

1,47x mit RT

:biggrin:

ok, natürlich wird wohl fsr mit rein spielen, aber das macht das ganze auch nicht besser.

Redneck
2022-11-05, 17:45:38
Das Problem für AMD ist eigentlich, dass sie schon den Vollausbau haben und Nvidia diesen noch nachschieben kann, weil sie bislang nur beschnittene Chips haben.

Und AMD könnte aus dem vorhandenen Chiplet Baukasten nicht noch etwas schnelleres basteln? unmöglich?

Fand die Präse aber auch alles andere als
Erquickend. Lustlos wirkende Präsentatoren (Naffziger), kaum Werte ohne FSR um vergleichen zu können (hätten sie ja mit der 6800\6900xt vergleichen können in Ermangelung von 4080 Zahlen). Wäre am Ende nicht die "niedrigen" Preise genannt worden, wäre es für mich ein Total Reinfall gewesen.
So ist man aber in der Schwebe, weil man kaum etwas handfestes hat.

Vielleicht hauen die AIBs mit mehr Power noch was raus (glaube ich nicht dran) aber aktuell macht mich RX7000 nicht wirklich an (und das hat nichts mit RT zu tun.. 50% mehr sind 50% mehr und ich habe vorher keinen Wert darauf gelegt und tue es jetzt auch nicht).
Ich finde es schon arg kagge, daß man nicht einmal weiß, wann das NDA für Tests abläuft und man mit realen Zahlen rechnen darf. Wie kann man soetwas nicht kommunizieren? Das ist für mich ein glatter Fail..

dargo
2022-11-05, 17:45:57
was ich komplett gaga finde ist eben, das RDNA3 schlechter für RT ist als RDNA2.

siehe amd eigene benchmarks in cyberpunk mit RT off und on.

1,7x ohne RT

1,47x mit RT

:biggrin:
Bist du auch schon besoffen? RDNA3 performt also mit RT langsamer als RDNA2? :facepalm:

BiG OnE
2022-11-05, 17:46:09
Mehr Leistung will jeder am Ende. An vorderster Front wettern und trotzdem einer der ersten sein der kauft ist und bleibt Fail.
Letzten Endes bleiben wir aber nur Menschen und wenn uns etwas überzeugt, dann dürfen wir unsere Meinung auch um 180° ändern.

Exxtreme
2022-11-05, 17:46:11
kepler + Bondrewd:

https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/page-18#post-2272644

https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-117#post-40882494

https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-118#post-40882558


Und die löschen ihre Accounts auch nachdem die Grafikkarten offiziell gebencht wurden? :)

Sprich, nach dem Greymonddingsta sollte man sehr vorsichtig sein was irgendwelche Leaks angeht. :)

Linmoum
2022-11-05, 17:50:14
Hmm, interessant. Würde zumindest das RDNA3+ Thema ein wenig untermauern. Time will tell.Im Prinzip werden wir ja schon nächsten Monat mit den Customs sehen, ob mit 3x8pin deutlich mehr Takt geht (wobei das auch schon mit 2x8pin via MPT bei der Referenz möglich sein sollte, sofern AMD dem nicht einen Riegel vorschiebt ;) ).

Wie man an der Folie sieht, sind die ">3GHz" ja definitiv nicht aus der Luft gegriffen. Und dass N33 hier plötzlich mit 3.2GHz taktet, während N31 irgendwo bei 2.3GHz rumgammelt, ist auch wenig stimmig. Niedriger takten ja, aber sowas wären ganz andere Dimensionen.

Aber wenn N31 tatsächlich auch mit deutlich mehr Power ein gutes Stück unterhalb von 3GHz bleibt, dann dürfte da tatsächlich irgendwas nicht hinhauen.

BlacKi
2022-11-05, 17:50:37
Bist du auch schon besoffen? RDNA3 performt also mit RT langsamer als RDNA2? :facepalm:


amds zahlen, nicht meine:freak:

dargo
2022-11-05, 17:54:38
amds zahlen, nicht meine:freak:
Hast wohl immer noch nicht kapiert, dass du bullshit von dir gelassen hast? Drücke dich beim nächsten Mal korrekt aus, dann kann man dich wieder ernst nehmen. RDNA3 ist nicht schlechter mit RT für CP77 geeignet als RDNA2 sondern legt im Raster stärker zu als im Raster + RT.

BiG OnE
2022-11-05, 17:56:36
Und AMD könnte aus dem vorhandenen Chiplet Baukasten nicht noch etwas schnelleres basteln? unmöglich?
Dazu müsste der Navi 31 Chip neu designt werden, das glaube ich nicht. Aber ein Respin mit höheren Takt, das schon eher.

OpenVMSwartoll
2022-11-05, 18:15:49
kepler + Bondrewd:

https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/page-18#post-2272644

https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-117#post-40882494

https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-118#post-40882558

Kann jeder natürlich halten wie er mag und es nicht glauben (was ich im Übrigen auch nicht verwerflich finde), aber es wirkt insgesamt trotzdem ein wenig, als wenn hier irgendwas nicht so hinhaut, wie AMD es sich vorgestellt hat.

[...]



Endlich nach den Schlachten, die hier gefochten werden, etwas Substanz.

Mich wunderte die neuerliche Verschiebung auf nun Dezember. Das roch fischig, als gäbe es ein grundlegendes Problem.

Diese Infos sind schon mal ein Indikator. Aber dafür performt man noch ganz okay.

Mal sehen, ob es bald nen Refresh gibt.

LasterCluster
2022-11-05, 18:20:20
Wie man an der Folie sieht, sind die ">3GHz" ja definitiv nicht aus der Luft gegriffen. Und dass N33 hier plötzlich mit 3.2GHz taktet, während N31 irgendwo bei 2.3GHz rumgammelt, ist auch wenig stimmig. Niedriger takten ja, aber sowas wären ganz andere Dimensionen.
.

Aber man schreibt sowas doch nicht auf die Folie wenn nicht wenigstens ein Produkt aus der Reihe das Potential auch heben kann. Auch wenn’s erst ein Refresh ist

robbitop
2022-11-05, 18:24:10
Ggf gibt es dann ja als refresh einen respin und vcache. Wenn man wirklich 3 GHz oder mehr erreichen würde und man das nur durch eine Fehlauslegung nicht geschafft hat wäre mit einem Refresh immerhin 20% mehr Leistung möglich. Hilft ihnen für RT allerdings nicht genug.

OpenVMSwartoll
2022-11-05, 18:28:23
Ggf gibt es dann ja als refresh einen respin und vcache. Wenn man wirklich 3 GHz oder mehr erreichen würde und man das nur durch eine Fehlauslegung nicht geschafft hat wäre mit einem Refresh immerhin 20% mehr Leistung möglich. Hilft ihnen für RT allerdings nicht genug.

Man käme unter RT, wenn wir Leos Hochrechnung betrachten, in Schlagweite zur 4080.

BlacKi
2022-11-05, 18:34:24
Hast wohl immer noch nicht kapiert, dass du bullshit von dir gelassen hast? Drücke dich beim nächsten Mal korrekt aus, dann kann man dich wieder ernst nehmen. RDNA3 ist nicht schlechter mit RT für CP77 geeignet als RDNA2 sondern legt im Raster stärker zu als im Raster + RT.konnte man aus dem kontext schließen. ja, ich hab das was ich gemeint habe schlecht formuliert.

RDNA3 performt also mit RT langsamer als RDNA2?

aber ja. die architektur performt schlechter in RT.

man hat wohl den fokus RT wohl vernachlässigt. die 4090 hat wohl weiter den fokus auf RT gelegt, und wohl auch raster performance geopfert. damit will ich sagen, ohne den fokus auf RT wäre die 4090 wohl schneller im rasterizing.

Exxtreme
2022-11-05, 18:53:08
aber ja. die architektur performt schlechter in RT.


Solange am Ende mehr fps rauskommen ist das egal. :D


man hat wohl den fokus RT wohl vernachlässigt. die 4090 hat wohl weiter den fokus auf RT gelegt, und wohl auch raster performance geopfert. damit will ich sagen, ohne den fokus auf RT wäre die 4090 wohl schneller im rasterizing.

Ich glaube eher, sie haben RT geopfert um unter 1000$ zu bleiben und den Rest so aufgebohrt wie es nur ging.

Ravenhearth
2022-11-05, 18:57:11
Ggf gibt es dann ja als refresh einen respin und vcache. Wenn man wirklich 3 GHz oder mehr erreichen würde und man das nur durch eine Fehlauslegung nicht geschafft hat wäre mit einem Refresh immerhin 20% mehr Leistung möglich. Hilft ihnen für RT allerdings nicht genug.
Möglicherweise hätte man auch ohne V-Cache genug effektive Bandbreite, die ist ja auf 2.7x angestiegen, was im Verhältnis zur aktuellen Leistung absurd viel erscheint.

Lurtz
2022-11-05, 19:01:15
Natürlich sind sie das. Ich brauche nur in die Steamcharts reinzuschauen.
Für die Mehrheit dessen was die Steamuser wie spielen braucht man überhaupt keine GPUs über 500€.

DrFreaK666
2022-11-05, 19:04:28
Ich bin eh gespannt wie die Devs das Problem lösen wollen? Also ab wann sich jemand traut ein Spiel zu releasen, dass RT-Hardware voraussetzt? Damit geht man schon ein sehr hohes Risiko ein. Bsw. sind dann alle Pascal-User keine potenziellen Käufer mehr. Witzigerweise ist ne poppelige GTX 1060 immer noch die Nummer 1 bei Steam. Und nein... Metro zählt bei mir nicht, davon gibt es zwei Versionen.

Das wird erst überhaupt nicht passieren, da man Millionen PS5- und Xbox-Gamer außen vor lässt, oder wie soll das dann auf den Konsolen laufen?

Linmoum
2022-11-05, 19:14:06
Medium-RT und 30fps? Dass man auf Konsolen fps für Bildqualität opfert, ist doch fast schon normal.

Würde der großen Mehrheit davon ab eh nicht auffallen, die wissen nicht einmal was fps überhaupt sind.

Platos
2022-11-05, 19:14:56
Hast wohl immer noch nicht kapiert, dass du bullshit von dir gelassen hast? Drücke dich beim nächsten Mal korrekt aus, dann kann man dich wieder ernst nehmen. RDNA3 ist nicht schlechter mit RT für CP77 geeignet als RDNA2 sondern legt im Raster stärker zu als im Raster + RT.

Ist doch offensichtlich, wie er es gemeint hat.

Der Fortschritt in Raster ist höher, wie in RT. D.h der Abstand zu nvidia wird noch grösser, anstatt kleiner.

Das AMD mit RT nicht auf wundersame Weise aufschliesst, ist klar gewesen m.M.n, aber dass sie auch noch den Abstand vergrössern, ist hald einfach schwach. Das nvidia auf RT setzt, ist nun schon seit 4 Jahren bekannt. AMD hatte genug Zeit.

basix
2022-11-05, 19:18:08
Das wird erst überhaupt nicht passieren, da man Millionen PS5- und Xbox-Gamer außen vor lässt, oder wie soll das dann auf den Konsolen laufen?

UE5 Lumen = RT only und sogar mit 60fps Target auf den Konsolen (Lumen Setting = High)

dargo
2022-11-05, 19:21:42
Das wird erst überhaupt nicht passieren, da man Millionen PS5- und Xbox-Gamer außen vor lässt, oder wie soll das dann auf den Konsolen laufen?
WTF? Ist dir die RT-Fähigkeit von PS5 und XBox Series X/S echt entgangen? :freak: Oder meinst du eher die Vorgänger?

UE5 Lumen = RT only und sogar mit 60fps Target auf den Konsolen (Lumen Setting = High)
Ich höre immer nur UE5, UE5. Dabei verwenden viele Studios ihre eigenen Engines.

DrFreaK666
2022-11-05, 19:26:24
Manchmal sollte ich Sätze auch genauer durchlesen ^^

Dural
2022-11-05, 19:47:50
Mir ist noch gerade aufgefallen das AMD bei den tflops lügt. Den diese wurden mit dem uncore Takt gerechnet, und nicht mit Alu Takt der 200mhz geringer ist.

Zudem ist die 7900xt nichts anderes als eine 7800xt. Komisch bei NV hat das für Schlagzeilen gesorgt, bei AMD ist es egal. Ein x macht bei AMD 20% unterschied, bei NV war die Bezeichnung mit 12gb und 16gb deutlich ersichtlichen.

OpenVMSwartoll
2022-11-05, 19:53:13
[...]

Zudem ist die 7900xt nichts anderes als eine 7800xt. Komisch bei NV hat das für Schlagzeilen gesorgt, bei AMD ist es egal.

Nein, die XT hat nen anderen Namen als die XTX, die 4080 12 GB hieß 4080 ohne Zusatz. Irreführend für Kunden.

Gott1337
2022-11-05, 19:53:27
Mit der Argumentation würden auf den Straßen auch nur Limousinen herum fahren...

Was richtig ist: Ich bin mit den Preispunkten beider Lineups massiv unzufrieden.

Kann gut sein, dass ich die komplette Generation auslasse.
ich glaub 90% der Autos sind auch Limousinen, also mit einem Festen Dach und kein Coupe :confused:

nordic_pegasus
2022-11-05, 19:59:34
ich glaube es sind Stretch-Limousinen gemeint ;-)

TheGood
2022-11-05, 20:06:01
Naja man hätte auch BVH traversal in HW verbauen können und coherency sorting. Man hätte pro Transistor deutlich mehr RT Performance geholt.
Ansonsten wird RDNA3 übrigens auch in APUs verbaut werden (Phoenix Point). Also schon 4 Produkte.
Ist doch top, dass somit Hardware RT soweit runterskaliert oder sind die RAUS ohne RT ?

Im Prinzip werden wir ja schon nächsten Monat mit den Customs sehen, ob mit 3x8pin deutlich mehr Takt geht (wobei das auch schon mit 2x8pin via MPT bei der Referenz möglich sein sollte, sofern AMD dem nicht einen Riegel vorschiebt ;) ).

Wie man an der Folie sieht, sind die ">3GHz" ja definitiv nicht aus der Luft gegriffen. Und dass N33 hier plötzlich mit 3.2GHz taktet, während N31 irgendwo bei 2.3GHz rumgammelt, ist auch wenig stimmig. Niedriger takten ja, aber sowas wären ganz andere Dimensionen.

Aber wenn N31 tatsächlich auch mit deutlich mehr Power ein gutes Stück unterhalb von 3GHz bleibt, dann dürfte da tatsächlich irgendwas nicht hinhauen.

Also schon bei RDNA 2 hatten die kleineren Chips höhere Taktraten. WArum soll das hier nicht auch möglich sein. Wobei ich auch nicth sehe dass es weit über 3 GHZ rausgeht. DAs sagt aber die Folie uach nicht aus.

Was genau soll denn an der Hardware nicht stimmen? Die Infohappen die du gepostet hast geben dazu ja nichts her.

Der_Korken
2022-11-05, 20:07:04
kepler + Bondrewd:

https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/page-18#post-2272644

https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-117#post-40882494

https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-118#post-40882558


Ergänzend:

https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/page-17#post-2272606

Es wurde ja gestern hier auch schon gemutmaßt, dass irgendwas nicht nach Plan lief. Die separaten Clock Domains waren schon absolute weirdness. Wegen 200Mhz Taktbarkeits-Unterschieden führt man am Reißbrett doch keine zweite Taktdomäne ein. Das ergibt für mich nur Sinn, wenn ein Bauteil wirklich deutlich mehr Takt verträgt (bzw. Skalierung über Takt viel einfacher ist als anderswo), wie damals bei Nvidias Shader-Hotclocks. Die Folie mit den "architectured for >3Ghz" ist dann schon die nächste weirdness. Ein Bock von AMD bei der physischen Implementierung passt für mich da gut ins Bild. Shit happens.

Würde aber auch erklären, warum die speakers nicht so begeistert waren. Ich persönlich wäre auch angefressen, wenn mir bei einem Projekt ein Fehler unterläuft, ich aber keine Zeit mehr bekomme, den zu fixen und stattdessen noch Arbeit reinstecken muss, den aktuellen Stand so hinzubiegen, dass man ihn präsentieren kann - wohlwissend, was alles nicht richtig funktioniert und dass es eigentlich so viel besser sein könnte.

Und die löschen ihre Accounts auch nachdem die Grafikkarten offiziell gebencht wurden? :)

Sprich, nach dem Greymonddingsta sollte man sehr vorsichtig sein was irgendwelche Leaks angeht. :)

Kann natürlich alles eine Ausrede von denen sein, aber wir sind hier ja auch ohne Leaker schon auf diese Erklärung gekommen. Ich halte sie für plausibel. Und zwar plausibler als all die phantastischen Performance-Prognosen vor dem Event :D.

Ggf gibt es dann ja als refresh einen respin und vcache. Wenn man wirklich 3 GHz oder mehr erreichen würde und man das nur durch eine Fehlauslegung nicht geschafft hat wäre mit einem Refresh immerhin 20% mehr Leistung möglich. Hilft ihnen für RT allerdings nicht genug.

Ist halt die Frage, ob man das so einfach fixen kann. Wenn da irgendwo ein Denkfehler drin ist, für den man kleinere Teile der Schaltung umschreiben muss, ist das nicht mit einem Respin gefixt. Es bräuchte wirklich einen neuen Chip. Ich persönlich hoffe, dass N32 das Problem nicht mehr hat bzw. der Grund für den späteren Release genau die in N31 entdeckten Probleme waren. Angesichts der Weltwirtschaftslage könnte N32 wirtschaftlich für AMD wesentlich relevanter sein. Zumal N32 mit 200mm² und 16GB nochmal deutlich billiger zu produzieren ist. Wenn der auf 75% von N31-Performance kommt, wäre das genial.

TheGood
2022-11-05, 20:09:33
UE5 Lumen = RT only und sogar mit 60fps Target auf den Konsolen (Lumen Setting = High)
Ich wiederhole mich gerne. Lumen wurde mit Software RT entwickelt, wenn es nach deren Doku geht.
Es wäre spannend zu wissen was die erste Demo denn wirklich genutzt hat.

TheGood
2022-11-05, 20:12:33
Ergänzend:

https://forum.beyond3d.com/threads/amd-rdna3-specifications-discussion-thread.63037/page-17#post-2272606

Es wurde ja gestern hier auch schon gemutmaßt, dass irgendwas nicht nach Plan lief. Die separaten Clock Domains waren schon absolute weirdness. Wegen 200Mhz Taktbarkeits-Unterschieden führt man am Reißbrett doch keine zweite Taktdomäne ein. Das ergibt für mich nur Sinn, wenn ein Bauteil wirklich deutlich mehr Takt verträgt (bzw. Skalierung über Takt viel einfacher ist als anderswo), wie damals bei Nvidias Shader-Hotclocks. Die Folie mit den "architectured for >3Ghz" ist dann schon die nächste weirdness. Ein Bock von AMD bei der physischen Implementierung passt für mich da gut ins Bild. Shit happens.

Würde aber auch erklären, warum die speakers nicht so begeistert waren. Ich persönlich wäre auch angefressen, wenn mir bei einem Projekt ein Fehler unterläuft, ich aber keine Zeit mehr bekomme, den zu fixen und stattdessen noch Arbeit reinstecken muss, den aktuellen Stand so hinzubiegen, dass man ihn präsentieren kann - wohlwissend, was alles nicht richtig funktioniert und dass es eigentlich so viel besser sein könnte.



Kann natürlich alles eine Ausrede von denen sein, aber wir sind hier ja auch ohne Leaker schon auf diese Erklärung gekommen. Ich halte sie für plausibel. Und zwar plausibler als all die phantastischen Performance-Prognosen vor dem Event :D.



Ist halt die Frage, ob man das so einfach fixen kann. Wenn da irgendwo ein Denkfehler drin ist, für den man kleinere Teile der Schaltung umschreiben muss, ist das nicht mit einem Respin gefixt. Es bräuchte wirklich einen neuen Chip. Ich persönlich hoffe, dass N32 das Problem nicht mehr hat bzw. der Grund für den späteren Release genau die in N31 entdeckten Probleme waren. Angesichts der Weltwirtschaftslage könnte N32 wirtschaftlich für AMD wesentlich relevanter sein. Zumal N32 mit 200mm² und 16GB nochmal deutlich billiger zu produzieren ist. Wenn der auf 75% von N31-Performance kommt, wäre das genial.


Wenn es so einen "Fehler" gab und man deisen "Fehler" fixen könnte, dann würden die Karten nicht als 7900XTX und 7900XT vermarktet werden.

Dural
2022-11-05, 20:22:43
Es sind sogar 30%

Die 7900xtx hat bei 2,3ghz Game Takt 56,5 tflops und die 7900xt mit 2,0ghz Game Takt gerade mal 43tflops.

dargo
2022-11-05, 20:24:35
Mir ist noch gerade aufgefallen das AMD bei den tflops lügt. Den diese wurden mit dem uncore Takt gerechnet, und nicht mit Alu Takt der 200mhz geringer ist.

Junge... du bist nur noch peinlich. :facepalm:

AMD bezieht sich bei den TFLOPs selbstverständlich auf den Boost Clock und nicht den Game Clock der offiziell mit 2,3Ghz angegeben ist. Nichts anderes hat AMD schon bei RDNA2 gemacht.
https://www.amd.com/en/products/specifications/compare/graphics/11836,10526

Wenn AMD von 61 TFLOPS bei der 7900XTX spricht wird der Boost Clock bei 2482Mhz liegen, einfache Mathematik. Gib dir doch wenigstens bei deinem nächsten Trollversuch mehr Mühe.

nordic_pegasus
2022-11-05, 20:24:41
btw... was hatte den Coreteks gestern verschluckt? wenn man dem Video folgen würde, ist die 7900XTX das größte Fehlschlag in der Menschheitsgeschichte

w9x3tAHydoU

ferner würde nach dessen Ansicht auch alle Leute, die bereit sind $1000 für eine Grafikkarte auszugeben, auch den Aufpreis zur 4090 zu zahlen ohne mit der Wimper zu zucken.

Exxtreme
2022-11-05, 20:29:17
https://youtu.be/w9x3tAHydoU


Ist mal wieder ein Clickbait-Video. Hab's vorhin gesehen und da ist absolut nichts neues zu sehen ausser Mutmaßungen.

TheGood
2022-11-05, 20:30:24
btw... was hatte den Coreteks gestern verschluckt? wenn man dem Video folgen würde, ist die 7900XTX das größte Fehlschlag in der Menschheitsgeschichte

https://youtu.be/w9x3tAHydoU

ferner würde nach dessen Ansicht auch alle Leute, die bereit sind $1000 für eine Grafikkarte auszugeben, auch den Aufpreis zur 4090 zu zahlen ohne mit der Wimper zu zucken.
Ich glaube tatsächlich dass die Schnittmenge der Käufer für 1000 und 1500 ähnlich ist.
Also wer sich 1000 leisten kann ach 1500 leisten kann.

Nur ist die hemmschwelle bei 1500 halt deutlich höher...

Thomas Gräf
2022-11-05, 20:31:14
Wenn es so einen "Fehler" gab und man deisen "Fehler" fixen könnte, dann würden die Karten nicht als 7900XTX und 7900XT vermarktet werden.

Wer weiß, aber iwie is was dran, die Vorstellung hatte doch das berühmte "Geschmäckle" das hat doch jeder gesehen.
Die haben die 8900XTX doch schon längst in der Pipeline.
Denke auch das AMD die Kiste mit den kleineren Chips schaukeln wird bis dahin.

Der_Korken
2022-11-05, 20:34:19
Wenn es so einen "Fehler" gab und man deisen "Fehler" fixen könnte, dann würden die Karten nicht als 7900XTX und 7900XT vermarktet werden.

Meinst du wegen der 900 im Namen oder die XT/XTX-Suffixe? Die Suffixe sind egal, denn ein Refresh würde eh eine andere Nummer nutzen. Und die 900 könnte deswegen gewählt worden sein, weil man sich preislich und verbrauchstechnisch an der 6900 orientiert. Sie könnten natürlich wie Nvidia auch einfach drauf scheißen und den 800er XT-Chip von 700$ auf 1000$ hochziehen, aber das war bisher eher nicht so AMDs Art. Den Refresh könnten sie immer noch 950 nennen oder vielleicht haben sie auch gar nicht vor den Fehler für N31 zu fixen.

Was ist in dem Zusammenhang eigentlich von folgenden Posts zu halten:

https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-118#post-40882674

RDNA1 has a ton of bugs like 7 or 8 bugs with software work around which impacted performance a lot because of issuing dummy instructions, reordering instructions, SDMA flushes etc.
With RDNA3, N31/32/33 has some SGPR bug. While Phoenix not.
One significant known performance bug is with the export conflict related to the new OREO/ROOE. They have work arounds for it in mesa.

https://forums.anandtech.com/threads/speculation-rdna3-cdna2-architectures-thread.2589999/page-119#post-40882751

Phoenix does not have the SGPR bug but it has the export conflict bug.
Seems all current RDNA3 chips have this export conflict bug. I understood it can impact performance in no insignificant amount. By how much? we will never know.

[...]

BTW, it is not like they are making the patches right now and discovered oopsies, lots of patches were from last year if you check the initial commits which were not squashed.
Drivers development usually starts long before the chip is even taped out. They directly push the RTL code to the emulator and start writing drivers. The physical implementation goes in parallel.

Some HW bugs are just not deemed significant enough to warrant an architecture rework.
Minor physical implementation bugs sometimes can be fixed with metal layers. Many new blocks have unused silicon around critical areas to change logic in case of bugs. The metal layers can be adapted to form a corrective logic with the additional unused transistors.
Then there are chicken bits, which gets fused off in case things don't work the way they are intended. GPUs have tons of chicken bits.

Dass Hardware immer wieder Bugs hat, ist nichts neues. Die Frage ist, bei welchem Chip fixt man was? Und wann? Für N32 bedeutet der Fix vielleicht, dass sich der Chip um drei Monate verzögert. Für N31 bedeutet es vielleicht, dass man einen neuen Chip auflegen muss mit allem, was dazu gehört. Muss sich halt lohnen.

Linmoum
2022-11-05, 20:40:07
https://youtu.be/w9x3tAHydoU
Gibt noch irgendein Video auf seinem Kanal von vor einiger Zeit, wo er meint, Nvidia ist vernichtet worden und AMD würde den GPU-Markt dominieren. Der hat einfach wirklich Null eigene Infos in der Hinsicht. Dass er mit Boardpartnern quatscht wegen irgendwelchem OC ist wahrscheinlich das höchste der Gefühle...

Wenn es so einen "Fehler" gab und man deisen "Fehler" fixen könnte, dann würden die Karten nicht als 7900XTX und 7900XT vermarktet werden.Es wäre im Endeffekt "nur" Takt der fehlt. Das macht Produkte erst einmal nicht unbrauchbar. Auch, wenn es natürlich relativ viel Takt wäre.

Es ist halt AMDs Top-Chip im Vollausbau. Wieso willst du den 7800XT nennen und dafür $1000 verlangen? Das wollten sie wahrscheinlich einfach nicht, auch, wenn es am Ende des Tages nur Namen sind. Was die Namensgebung aber für einen Einfluss hat, hat man bei Nvidia gesehen.

Thomas Gräf
2022-11-05, 20:58:24
Autsch, nich das die 7900 eine zweite Radeon VII geworden ist. :(

TheGood
2022-11-05, 20:58:31
Gibt noch irgendein Video auf seinem Kanal von vor einiger Zeit, wo er meint, Nvidia ist vernichtet worden und AMD würde den GPU-Markt dominieren. Der hat einfach wirklich Null eigene Infos in der Hinsicht. Dass er mit Boardpartnern quatscht wegen irgendwelchem OC ist wahrscheinlich das höchste der Gefühle...

Es wäre im Endeffekt "nur" Takt der fehlt. Das macht Produkte erst einmal nicht unbrauchbar. Auch, wenn es natürlich relativ viel Takt wäre.

Es ist halt AMDs Top-Chip im Vollausbau. Wieso willst du den 7800XT nennen und dafür $1000 verlangen? Das wollten sie wahrscheinlich einfach nicht, auch, wenn es am Ende des Tages nur Namen sind. Was die Namensgebung aber für einen Einfluss hat, hat man bei Nvidia gesehen.

Ja wenn der Bug doch ggf so groß ist, dann würde der N32 doch viel zu na an n31 drankommen. Das war auch die Anspielung mit warum sie es dann 7900 genannt haben. ABer die Abspeckung des N32 ist wohl zu groß und natürlich kann man eine 50 Reihe rausbringen, das stimmt natürlich auch.

Rein vom Chip her ist die Bezeichnung 7900 ja auch richtig...

Badesalz
2022-11-05, 21:07:00
Ich glaube tatsächlich dass die Schnittmenge der Käufer für 1000 und 1500 ähnlich ist.
Also wer sich 1000 leisten kann ach 1500 leisten kann.

Nur ist die hemmschwelle bei 1500 halt deutlich höher...In den Gefilden ist das auch nicht so die Frage von "kann", sondern "will".
Ich hab mir auch eines Tages gesagt, daß ich mich nicht mehr skalpen lassen werde und halbwegs feste Grenzen gesetzt. Hatte dann später eben die Folgen, daß ich erst bei der PS4pro und nun bei der PS5 gelandet bin :rolleyes:

Die meisten übrigens sagen sich, gebe nicht mehr als xyz für eine Graka aus. Forenblase dagegen besteht immer zu mind. 70% aus Enthusiasten. Die schwurbeln untereinander rum, aber für den Rest der spielenden Bevölkerung sind sie absolut unwichtig. Von der Meinung her, nutzlos...

Dino-Fossil
2022-11-05, 21:29:21
So richtig überzeugt mich die "Hardware-Fehler" These nicht.

In Anbetracht der Rohdaten/Größe/des Aufbaus mit dual-issue für FP32 scheint Navi31 (angeblich hat AMD in der Vorstellung nur von N3X gesprochen?) mir jetzt nicht unerwartet schlecht zu performen.

Mindestens genauso wahrscheinlich erscheint mir eigentlich, dass AMD schlicht nicht mit der 4090 in dieser Größe gerechnet hat (was nachvollziehbar wäre, wenn man sich die vorherigen Generationssprünge ansieht).

Aber unterm Strich bietet man einen ordentlichen Zuwachs ggü. der vorherigen Generation, ohne gleichzeitig bei der Leistungsaufnahme zu sehr über die Stränge zu schlagen (bezogen auf die 6900 - womit man sich ein Stück weit gegen den aktuellen Trend stemmt).
Man hat zudem ein paar potentiell sehr nützliche und überfällige Features (AI, Video Engine, DP2.1).

Bleibt mMn am ehesten die Sache mit der potentiellen Taktbarkeit, die aber Mangels Karten und Tests eigentlich noch nicht ganz klar ist, sowie die sicherlich diskutierbare Design-Entscheidung, RT weiterhin eher stiefmütterlich zu behandeln.

Klar ist aber, dass generell mehr erwartet wurde und nun bei vielen die Enttäuschung groß ist. Da müssen nun offensichtlich Erklärungen her und ein Design-Bug erscheint wohl vielen logischer, als dass die Karte im Großen und Ganzen einfach so geplant war.

nordic_pegasus
2022-11-05, 21:30:29
jetzt gehen wir mal davon aus, dass die Referenz-Karte der 7900XTX mit 355 Watt faktisch keinen Spielraum für OC bieten wird wegen der Schallmauer von 366 Watt, die man offiziell über 2x8pin plus PCIe Slot ziehen darf. Faktisch wird hier also nur Undervolting helfen.

Wenn die AIB Karten jetzt freien Lauf haben dank 3x8pin, dann sind hier vielleicht Game Clocks im Bereich von 2.8 GHz möglich. Das wird doch wahrscheinlich auch mit signifikanten Anstieg der TBP erkauft werden müssen. Die Asus TUF 7900XTX wird ja nicht aus Spaß solche Maße haben.

Da für mich bereits die 355 Watt eigentlich oberhalb meiner Schmerzgrenze sind - trotz Custom Wakü wegen Abwärme im Zimmer - scheidet für mich um ehrlich zu sein ein Custom 400+x Watt Monster aus.

Ich musste schon mit Schrecken feststellen, dass ich bereits mit dem angekündigten EKWB Wasserblock für die 7900XTX an die Grenze in meinem Gehäuse komme, weil neben dem Mainboard mein AGB montiert ist. Der EK-Block macht die Referenz-Karte ca. 3 cm länger, weil so ein unnützer Abschluss mit RGB-Beleuchtung angeflanscht wird.

Neben dem Preis und meiner Salvage-Allergie sind die Maße und der Verbrauch ein weiterer Punkt, warum für mich eigentlich nur die 7900XTX im Vergleich zur 4090 in Frage kommt. Auf einen AD103 Vollausbau wird man wohl auch noch lange warten dürfen (4080Ti?), darum bin ich bound for Navi31.

dargo
2022-11-05, 21:42:55
So richtig überzeugt mich die "Hardware-Fehler" These nicht.

Mich auch nicht. Man sollte nicht vergessen, dass der Chip im Prinzip ca. 430mm² groß ist wäre er monolithisch in N5 designt.

Neurosphere
2022-11-05, 22:07:22
Mich auch nicht. Man sollte nicht vergessen, dass der Chip im Prinzip ca. 430mm² groß ist wäre er monolithisch in N5 designt.

Laut Bondrewd liegt es wohl an zu vielen Designänderungen zu RDNA2 die gemacht wurden und irgendwo kam es nachher zu einem Flaschenhals. Er vergleicht es mit der R520.

AMD hat das ganze aber wohl schon identifiziert. Wäre also möglich das ein Refresh kommt der dann die 3 Ghz auch erreicht. Würde aber nichts an der RT Situation ändern.

Außerdem muss das ganze natürlich auch stimmen und sich nicht nur aus den erzeigten Hoffnungen der Leaker ableiten.

NC
2022-11-05, 22:10:50
$999 vs. $1199 sind nicht "1/3 mehr Kosten". :freak: Und die 7900XT dürfte halt nur ~identische Raster-Performance zur 4080 liefern.
Ich glaube du hast dich im Preis versehen, die 7900XT kostet $899 und 4/3 davon sind 1198.67, ziemlich der RTX 4080 Preis. Und es ist nicht, als ob AMD garkein RT bietet, es ist nur langsammer, aber laut den gestrigen News auf 3DCenter, ist die P/L bei RT vermutlich 95% der 4080, Raster 141%.

Ich denke der Preis macht die 7900XT zu einem wirklich guten Produkt, sowohl was P/L als auch absoluter Preis angeht.

MSABK
2022-11-05, 22:13:54
jetzt gehen wir mal davon aus, dass die Referenz-Karte der 7900XTX mit 355 Watt faktisch keinen Spielraum für OC bieten wird wegen der Schallmauer von 366 Watt, die man offiziell über 2x8pin plus PCIe Slot ziehen darf. Faktisch wird hier also nur Undervolting helfen.

Wenn die AIB Karten jetzt freien Lauf haben dank 3x8pin, dann sind hier vielleicht Game Clocks im Bereich von 2.8 GHz möglich. Das wird doch wahrscheinlich auch mit signifikanten Anstieg der TBP erkauft werden müssen. Die Asus TUF 7900XTX wird ja nicht aus Spaß solche Maße haben.

Da für mich bereits die 355 Watt eigentlich oberhalb meiner Schmerzgrenze sind - trotz Custom Wakü wegen Abwärme im Zimmer - scheidet für mich um ehrlich zu sein ein Custom 400+x Watt Monster aus.

Ich musste schon mit Schrecken feststellen, dass ich bereits mit dem angekündigten EKWB Wasserblock für die 7900XTX an die Grenze in meinem Gehäuse komme, weil neben dem Mainboard mein AGB montiert ist. Der EK-Block macht die Referenz-Karte ca. 3 cm länger, weil so ein unnützer Abschluss mit RGB-Beleuchtung angeflanscht wird.

Neben dem Preis und meiner Salvage-Allergie sind die Maße und der Verbrauch ein weiterer Punkt, warum für mich eigentlich nur die 7900XTX im Vergleich zur 4090 in Frage kommt. Auf einen AD103 Vollausbau wird man wohl auch noch lange warten dürfen (4080Ti?), darum bin ich bound for Navi31.

Die AiB Karten wird man aber auch undervolten können, die 2,8Ghz könnten auch unter 400W gehen vlt.

prinz_valium_2
2022-11-05, 22:17:38
Wenn es so einen "Fehler" gab und man deisen "Fehler" fixen könnte, dann würden die Karten nicht als 7900XTX und 7900XT vermarktet werden.

Ich verstehe die Argumentation nicht.
Als was denn sonst? Nach oben wäre dann für 7950XT und 7950XTX noch Luft.
Nach unten gibt es noch den Rest vom Portfolio, der kommen soll und sonst auch komplett umbenannt werden müsste. Die Karte ist ja nicht super langsam, sondern nur langsamer als sie mit mehr Takt sein könnte. Das P/L ist immer noch besser als bei der Konkurrenz.


Also warum sollte man dieses Produkt mit dem Fehler nicht als 7900XTX und 7900XT launchen?






Hoffen wir mal es gibt so einen Fehler. Denn dann hätte AMD es seit Ewigkeiten mal wieder geschafft mit nVidia zu konkurrieren und sie in allen wichtigen Belangen zu schlagen. Leistung, Preis, Verbrauch. Dann gäbe es nur noch RT. Das lässt für die weitere Entwicklung von AMD GPUs hoffen.
Die extrem hohe Bandbreite bezogen auf die Rohleistung ist auch noch ein Indiz was für die These spricht. Vllt wird es sich in der Zukunft herausstellen.

Platos
2022-11-05, 22:20:02
Nein, die XT hat nen anderen Namen als die XTX, die 4080 12 GB hieß 4080 ohne Zusatz. Irreführend für Kunden.

Die 7900XT ist defintiv eher eine 7800XT. Von der Leistung her gesehen ist sie allem Anschein nach eher der Nachfolger einer 6800XT, preislich aber weiter oben. Deswegen heisst sie ja auch 7900XT, um den Preis zu rechtfertigen und die "eigentliche" 7900XT heisst nun 7900XTX.

Die 7900XT sollte bei der Leistung eig. max. 699-799$ kosten und 6800XT genannt werden.