PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

HOT
2022-11-04, 09:54:44
58 Mrd Transistoren für N31 gegen 26.8 Mrd bei N21. 2,15x Transistoren für 1,5-1,6x Performance und null RT Anstieg. Das ist nicht so dolle. Ja AV1 Encoding und DP2.1 sind nett. Das ist Fixed Function Kram - der wird bei den Transistorzahlen kaum in's Gewicht fallen.
Ich hätte noch eine größere SKU rausgebracht und geschaut, dass ich RT Hardware verbessere. Mit special function Hardware bekommst du viel mehr Performance pro mm2 und pro Watt wenn du sie nutzt.

Ich bin gespannt auf echte Tests. AMD hat doch eigentlich erzählt, dass sie die RT HW aufgebohrt haben und dann soll wirklich nichts dabei rauskommen? Ich finde das seltsam.

Das ist ja auch nicht so. Die RT-Einheiten sind 50% schneller geworden und es gibt 20% mehr CUs.

[...]

Erst wenn Spiele RT vorraussetzen, dann wird Preis/Performance in Richtung Nvidia rücken. Aber das könnte noch einige Zeit in Anspruch nehmen.
Das wird denke ich kein Problem. Nur dann, wenn du RT dann manuell hochdrehst wird das ein Problem.

Hammer des Thor
2022-11-04, 09:58:15
Was man wohl auch noch sagen muss.

Die 7900XT ist deutlich uninteressanter als die 7900XTX
Da würde ich doch glatt mehr RAM, Shader und Takt für die $100 mitnehmen.

verstehe das Preisgefüge absolut nicht.

Die 7900XT ist $100 zu teuer.


Ich denke, Sie wollen damit den Abverkauf der 6900/6800 nicht torperdieren wo Sie zu viel Verlust machen würden wenn Sie diese verramschen müssten.

dargo
2022-11-04, 09:58:35
Ka warum du Nvidia so verteidigen musst aber die gestiegenen Preise stehen in keiner Relation zu den gestiegenen Kosten. Schau dir einfach die Entwicklung der Margen der Nvidia Geschäftszahlen an.
Ich und Nvidia verteidigen? lol... ;D

Hab das Posting schon erweitert. Lass dein bescheuertes Augenrollen. So clever wie du zu denken scheinst bist du nicht, dass du dir das leisten kannst. Oder du bist nur ein Kotzbrocken?
Du musst deinen Frust nicht bei mir auslassen nur weil du dir N31, AD102 und wahrscheinlich auch AD103 nicht leisten kannst oder willst. Jeder muss für sich selbst entscheiden ob ihm Preis X bei Leistung Y es wert ist oder nicht, so einfach ist es.

Niall
2022-11-04, 09:58:43
Die Presse reagiert überwiegend positiv.

https://youtu.be/YSAismB8ju4

Wundert es Dich?

Hier im 3DC tummeln sich Menschen, die gleichzeitig drei 4090er bestellt haben um die beste zu halten und den Rest zurückzusenden. Deren Bubble ist dermaßen opak, dass sie den Bezug zum "Otto-Normal-Gaming" völlig verloren haben. Mit der Realität der "breiten Masse" haben die allermeisten Posts im 3DC seit Jahren nicht mehr viel zu tun. :D

Es ist ja auch fein, man muss sich mEn nur einfach immer wieder bewusst machen, dass es schlicht nicht die breite Masse ist, die zu Titan, 4090 etc. greift. Bzgl. Ray Tracing von "Mainstream" zu sprechen, ist da das beste Bespiel, komplett absurd.

Linmoum
2022-11-04, 10:04:07
"Die Presse" und dann LTT. Lol.

Igor ist enttäuscht, auch wegen der Art und Weise, wie das wohl von AMD gegenüber Teilen der Presse ablief. Auch Steve von GN hat AMDs Präsentation ordentlich zerrissen.

Gerade der "8K"-Unsinn war einfach lächerlich, dafür hat NV damals bei der 3090 schon einen auf den Deckel bekommen und jetzt fängt AMD auch noch damit an.

Exxtreme
2022-11-04, 10:06:13
Die Presse reagiert überwiegend positiv.

https://youtu.be/YSAismB8ju4

Wundert mich nicht. Das Gesamtpaket scheint zu dem Preis sehr sehr gut zu sein. :) Man darf halt nicht von einer Handvoll 3DC-User auf die Gesamtheit schließen. :)

Linmoum
2022-11-04, 10:09:37
Das Gesamtpaket ist ohne RT sicher auch absolut in Ordnung. Mit RT wird UVP vs. UVP aber die 4090 deutlich bessere Perf/$ bieten. Und das ist absurd.

vinacis_vivids
2022-11-04, 10:10:08
7900XT 20GB @ 300W für 899USD ist praktisch konkurrenzlos. Jensen muss seine "4080 12GB" in 4060 12GB umbenennen. Jensen wird womöglich den AD102 weiter beschneiden und den Preis nach unten anpassen müssen und eine 4080 20GB bringen, um konkurrieren zu können.

Cherubim
2022-11-04, 10:12:12
Bin mal auf Reviews gespannt, könnte ne gute Karte für VR werden.
Da ist RT eher egal, da brauchts FPS. Und "fast 4090" find ich dann ok.

dildo4u
2022-11-04, 10:13:08
Das Gesamtpaket ist ohne RT sicher auch absolut in Ordnung. Mit RT wird UVP vs. UVP aber die 4090 deutlich bessere Perf/$ bieten. Und das ist absurd.

Das passt der Markt eh an wenn man nicht sofort kaufen will.
6900xt für 700€ passt zur RT Performance gegen 2000€ 4090.

why_me
2022-11-04, 10:21:14
Und was haben wir letztenendes daraus gelernt? Auf Gerüchte kann man bei AMD ab sofort überhaupt nichts mehr geben. Die Löcher sind gestopft.

Bis auf die Chipgröße und DP2.1 lag so gut wie alles Andere komplett daneben.

HOT
2022-11-04, 10:23:55
Und was haben wir letztenendes daraus gelernt? Auf Gerüchte kann man bei AMD ab sofort überhaupt nichts mehr geben. Die Löcher sind gestopft.

Bis auf die Chipgröße und DP2.1 lag so gut wie alles Andere komplett daneben.
Jo die haben wirklich schon extrem gut dichtgehalten.

robbitop
2022-11-04, 10:24:09
Oder was sonst?

Mal ernsthaft, was sollen die Konsequenzen sein? Dass sich jetzt alle ne 4090 kaufen? Sicher doch …
Ok, vermutlich ist die 4080 auch noch über RDNA3, aber wird ja scheinbar auch über $1000 kosten. Wohin soll sich denn RT in dem Ausmaß hinbewegen, wenn man über $1000 investieren muss um es wirklich genießen zu können? Dazu wird doch eh nur ein kleiner Teil der Gamer bereit sein. Insofern wird sich da in den nächsten Jahren nicht sonderlich viel bewegen und die Musik wird weiter bei klassischem Rasterizing spielen.

Oh und ist es nicht am Ende sogar so, dass AMD (insbesondere durch die Konsolen) festlegt wo die Musik in den nächsten Jahren spielt?
Klar, gibt auch PC-only Titel, aber die großen Umsätze und Verkaufszahlen sind dennoch eher auf der Konsole beheimatet.
(Sage ich als Konsolenverweigerer …)
Das hat ja nicht nur Auswirkung auf N31 SKUs sondern auf den kompletten Product stack. Sobald RT zur Anwendung kommt, wird man Benchmarks verlieren und der Spieler muss mit weniger Leistung leben. Das wird Ruf kosten.

robbitop
2022-11-04, 10:25:12
Das ist ja auch nicht so. Die RT-Einheiten sind 50% schneller geworden und es gibt 20% mehr CUs.

Naja die Rasterleistung wird im gleichen Maße höher wie die RT Leistung. Und das ist nur ein offset.

Raff
2022-11-04, 10:26:43
Eventuell ist diese nächtliche Aufbereitung der Spec und Benchmarks für den einen oder anderen hier interessant: AMD Radeon RX 7900 XT(X): Alle bekannten Details zur Hardware und Performance-Prognose (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/)

MfG
Raff

dargo
2022-11-04, 10:29:16
Und was haben wir letztenendes daraus gelernt? Auf Gerüchte kann man bei AMD ab sofort überhaupt nichts mehr geben. Die Löcher sind gestopft.

Bis auf die Chipgröße und DP2.1 lag so gut wie alles Andere komplett daneben.
Nö... die Angaben zum IF waren auch richtig und der TDP ebenso. Speicherausbau + SI auch. Nur bei den Frequenzen lag man voll daneben.

Dural
2022-11-04, 10:29:29
So eine Nacht darüber geschlafen, und ich bin noch fassungsloser als gestern :freak:

Wie man auf die Idee kommt nur den Cache so wie Si auf die Chiplet auszulagern ist für mich ein absolutes Rätsel. Ich habe ja seit längerem davor gewarnt das die Auslagerung bei GPUs nicht so einfach ist…. Aber das war hier ja nie Thema. Navi3 ist für mich eine ganz klare Bankrott Erklärung an Chiplets Gaming GPUs (!!!) Was musste man alles lesen, die „Leaker“ lagen zu 95% komplett daneben: 3,5GHz, Shader in den Chiplets, Leistung klar über der 4090 und natürlich alles bei max 300Watt usw. :freak: wobei mir von Anfang an klar war das wir keine 3,5Ghz sehen werden, ich habe nur nichts gesagt weil es mir einfach zu blöde war. Ich habe keinen starken Navi3 erwartet, die Anzeichen im Vorfeld waren ziemlich eindeutig, aber so schlecht dann auch wieder nicht.

Und ich wette schon jetzt dass die 7900XT alle Chiplets drauf haben wird, und einer nur deaktiviert ist. Geniale Erfindung, die kosten die dadurch gespart werden sind immens :freak: Deswegen auch nur 100.- Preisunterschied…. ;) Das ding wird AMD wohl mit 100.- Dollar Gewinn durchschieben müssen.

Als Turing raus kam habe ich gesagt das AMD min. 6 Jahre benötigen wird um eine Performance starke RT Lösung in Hardware liefern zu können. Fakt im Jahre 2023: AMD wird in RT wahrscheinlich nur noch auf den 3. Platz sein, davor ist Intel.

Navi3 ist für mich jetzt schon Fuji 2.0

robbitop
2022-11-04, 10:30:55
Du musst deinen Frust nicht bei mir auslassen nur weil du dir N31, AD102 und wahrscheinlich auch AD103 nicht leisten kannst oder willst. Jeder muss für sich selbst entscheiden ob ihm Preis X bei Leistung Y es wert ist oder nicht, so einfach ist es.
Um mich ging es in dem Post nicht und du warst derjenige, der respektlos mit deinem Augenrollen ist und ich habe dich darauf hingewiesen.

Budget für sowas wie ein paar PC Teile ist bei mir nicht mal ein Achselzucken wert (Director Posten in einem amerikanischen Unternehmen). Dennoch bin ich primär Endkunde und finde, dass Preis/Leistung relevant ist und ich kaufe nur, wenn P/L stimmt. Und gehe ich nach deinen Postings die letzten Jahre ist das für dich auch relevant. Jeder der ein ernsthafter Endkunde ist sollte es gut finden, wenn Preis/Leistung gut ist.

vinacis_vivids
2022-11-04, 10:31:32
HYPR-RX 90fps 30ms -> 166fps 11ms ;D;D;D
https://abload.de/img/frank-azor3wi44.jpg

Die technischen Marketing-Gags von AMD haben alles bisherige übertroffen. Ich lache mir einen Ast ab. Das ist so genial diese Seitenhiebe auf Jensen. :D:D:D

"dubbed one-click faster framerates and lower latency." - It just workz *lol*

dargo
2022-11-04, 10:31:58
So eine Nacht darüber geschlafen, und ich bin noch fassungsloser als gestern :freak:

Wir sind auch jeden Tag fassungslos über deine Trollposts.

MSABK
2022-11-04, 10:32:48
Wir sind auch jeden Tag fassungslos über deine Trollposts.

Vor allem haben wir noch keinen einzigen Test gesehen.:freak:

Schnitzl
2022-11-04, 10:36:02
Die Reaktionen hier lassen mich schon etwas ernüchtert zurück. Das trifft es nicht mal: Ich hab echt das Gefühl, die Leute hier haben jeden Kontakt zur Realität verloren.

N31 landet exakt genau da, wie ich es erwartet habe. Ich verstehe einfach nicht, wie man sich von diesen völlig belanglosen Rohperformance-Daten so blenden lassen kann, wenn man doch schon bei NV gesehen hat, wie eingeschränkt das Aussagen über die echte Performance zulässt.

Die Lücke zwischen 4080 und 4090 ist riesig und genau da platziert AMD die Karten - und das noch zu einem halbwegs akzeptablen Preis und Betriebspunkt. Wie man sich darüber beschweren kann, erschließt sich mir überhaupt nicht. Wer ein Heizkraftwerk zum Preis von nem Gebrauchtwagen in seinen Rechner stecken will, kann das doch mit der 4090 machen. Was juckt das den Rest der Menschheit? :rolleyes:

Der IMO einzig gerechtfertige Kritikpunkt Stand jetzt ist die RT-Performance, die deutlich hinter den Erwartungen zurückbleibt. Das verstehe ich ehrlich gesagt auch nicht, aber da muss ich erstmal genaue Tests abwarten.
danke für diesen Post :up:

P.S.: soviel zu Halo-Produkte sind unnötig :freak:

Ravenhearth
2022-11-04, 10:37:05
Nö... die Angaben zum IF waren auch richtig und der TDP ebenso. Speicherausbau + SI auch. Nur bei den Frequenzen lag man voll daneben.
Da frage ich mich wieso: Waren >3GHz nie geplant oder hat AMD das Taktziel komplett verfehlt? mMn deuten die Ausgliederung von Cache/Controller in die MCD, das kleine Die und 5nm schon darauf hin, dass deutlich höhere Frequenzen geplant waren, aber vielleicht ist die Chiplet-Konstruktion nicht so effizient wie gedacht.

dildo4u
2022-11-04, 10:38:30
Da frage ich mich wieso: Waren >3GHz nie geplant oder hat AMD das Taktziel komplett verfehlt? mMn deuten die Ausgliederung von Cache/Controller in die MCD, das kleine Die und 5nm schon darauf hin, dass deutlich höhere Frequenzen geplant waren, aber vielleicht ist die Chiplet-Konstruktion nicht so effizient wie gedacht.

Sie wollen keine 3x8 Pin Karten als Referenz bringen, damit können AIB Kasse machen.

mironicus
2022-11-04, 10:39:17
Ne, den Weg den AMD geht ist die Zukunft. NVidia gerät jetzt an die Grenzen von monolithischen Chips und AMD kann schnelle GPUs zu einem deutlich niedrigeren Preis herstellen und verkaufen.

Ein Youtuber meinte sogar daß AMD die Herstellung der 7900XT weniger kostet als eine 6900XT.

dargo
2022-11-04, 10:39:39
Dennoch bin ich primär Endkunde und finde, dass Preis/Leistung relevant ist und ich kaufe nur, wenn P/L stimmt. Und gehe ich nach deinen Postings die letzten Jahre ist das für dich auch relevant. Jeder der ein ernsthafter Endkunde ist sollte es gut finden, wenn Preis/Leistung gut ist.
Ich muss ehrlicherweise sagen ich weiß momentan nicht mal wofür ich mir was schnelleres als die jetzige 6800XT kaufen sollte? :freak: Es gibt einfach kein Futter der nach mehr Leistung schreit im Bereich Software. RT ist für mich immer noch kein Zugpferd. Wahrscheinlich werde ich mir N31 irgendwann holen, nur weil ich Lust auf was Neues habe. Klingt bescheuert, aber wenn die ganze Kohle (und da rede ich nicht von lächerlichen 1k) auf der Bank liegt hat man auch nix davon. Ok... einige Zinsen gibts ja mittlerweile die sowas Unwichtiges wie PC-Hardware refinanzieren. :D

Da frage ich mich wieso: Waren >3GHz nie geplant oder hat AMD das Taktziel komplett verfehlt? mMn deuten die Ausgliederung von Cache/Controller in die MCD, das kleine Die und 5nm schon darauf hin, dass deutlich höhere Frequenzen geplant waren, aber vielleicht ist die Chiplet-Konstruktion nicht so effizient wie gedacht.
Ich vermute mal das haben sich einige Leaker dazu gedichtet weil AMD schon bei RDNA2 vs. RDNA1 den Takt ordentlich angehoben hat. Gleiches hatte man wohl bei RDNA3 vs. RDNA2 erwartet. Solche Taktsprünge lassen sich offenbar nicht einfach je Generation realisieren.

Nakai
2022-11-04, 10:41:49
Wir sind auch jeden Tag fassungslos über deine Trollposts.

Ich hab auch eine Nacht darüber geschlafen und bemerke dass es mich eigentlich nicht interessiert, da ich niemals so eine GPU kaufen werde. 1000€ für eine Grafikkarte.:freak:

Ehrlich gesagt hätte ich generell (auch von NV) mehr von der neuen Generation erwartet. NV macht die Brechstange und AMD baut RV770 2.0.

Das einzige was man AMD vorwerfen kann ist, dass sie nicht ein paar mehr mm² für N31 spendiert haben. Der kleine GCD wird von MCDs gegangt wie auf einer Casting Couch. Ansonsten ist die ganze Generation nur ein Pipecleaner für GPU Chiplets.

Ein paar Punkte aber:
- Dual-Issue SIMDs, mehr SIMDs aber keine Registerbandbreite --> wieso?! Gilt auch für NV.
- wo wird die Diesize verschwendet? Die Skalierung ist ein Witz. Gilt auch für NV.
- Ansonsten finde ich die gesamte Generation der GPUs eher langweilig. Gilt für AMD, NV und Intel


€:
Ne, den Weg den AMD geht ist die Zukunft. NVidia gerät jetzt an die Grenzen von monolithischen Chips und AMD kann schnelle GPUs zu einem deutlich niedrigeren Preis herstellen und verkaufen.

Ein Youtuber meinte sogar daß AMD die Herstellung der 7900XT weniger kostet als eine 6900XT.

Spannend, glaube ich aber nicht. Falls es stimmt, sehr interessant. Die Marge wird jedenfalls auf einem sehr ähnlichen Niveau sein.

MSABK
2022-11-04, 10:43:26
Da frage ich mich wieso: Waren >3GHz nie geplant oder hat AMD das Taktziel komplett verfehlt? mMn deuten die Ausgliederung von Cache/Controller in die MCD, das kleine Die und 5nm schon darauf hin, dass deutlich höhere Frequenzen geplant waren, aber vielleicht ist die Chiplet-Konstruktion nicht so effizient wie gedacht.

Ist halt ein komplett neuer Ansatz und steckt quasi in Kinderschuhen. Würde mich nicht wunder wenn RDNA4 dann mächtig an der Taktschraube dreht. War doch glaube ich bei RDNA1 zu RDNA2 auch so. Oder Zen3 zu Zen4.

vinacis_vivids
2022-11-04, 10:44:02
Da frage ich mich wieso: Waren >3GHz nie geplant oder hat AMD das Taktziel komplett verfehlt? mMn deuten die Ausgliederung von Cache/Controller in die MCD, das kleine Die und 5nm schon darauf hin, dass deutlich höhere Frequenzen geplant waren, aber vielleicht ist die Chiplet-Konstruktion nicht so effizient wie gedacht.

Das Taktziel verfehlt würde ich nicht sagen. Lisa Su hat das Energiebudged hart vorgegeben mit 355W und 300W. Auch die Entwicklungskosten sind fest begrenzt.

https://videocardz.com/newz/asus-reveals-radeon-rx-7900-tuf-series-with-triple-8-pin-power-connectors

3x8pin = 450W + 75W PCIe ~ 525W

Ist leider außerhalb jeder Vernunft so ne Karte als Referenz zu bringen, deswegen gibs das Spielzeug nur bei Partnern für Mehrtakt. Da könnten durchaus +30% rauskommen.

Dann landen wir bei 2,2-2,5 * 1,3 ~ 2,86 - 3,25Ghz. Aber eben bei 525W Brute-Force.

dargo
2022-11-04, 10:48:00
HYPR-RX 90fps 30ms -> 166fps 11ms ;D;D;D
https://abload.de/img/frank-azor3wi44.jpg

Die technischen Marketing-Gags von AMD haben alles bisherige übertroffen. Ich lache mir einen Ast ab. Das ist so genial diese Seitenhiebe auf Jensen. :D:D:D

"dubbed one-click faster framerates and lower latency." - It just workz *lol*
Ehrlich gesagt weiß ich nicht was ich von diesem Bullshit @Framegeneration halten soll. Jetzt kommt AMD damit auch noch an. War aber irgendwo auch klar nachdem einer vordrescht. Für den Pöbel zählen halt überwiegend ganz dolle fps Zahlen.

Hott3X
2022-11-04, 10:48:39
Ich bin echt mal gespannt wie die 7900XT mit 250W so performt, ob es auch nur ein paar % sind die man verliert.

basix
2022-11-04, 10:49:45
58 Mrd Transistoren für N31 gegen 26.8 Mrd bei N21. 2,15x Transistoren für 1,5-1,6x Performance und null RT Anstieg. Das ist nicht so dolle. Ja AV1 Encoding und DP2.1 sind nett. Das ist Fixed Function Kram - der wird bei den Transistorzahlen kaum in's Gewicht fallen.
Ich hätte noch eine größere SKU rausgebracht und geschaut, dass ich RT Hardware verbessere. Mit special function Hardware bekommst du viel mehr Performance pro mm2 und pro Watt wenn du sie nutzt.
Soll ich bezüglich "Transistoreffizienz" nun mit den Zahlen von AD102 vs. GA102 kommen? ;)

AMD hat mMn mit RDNA3 vieles richtig gemacht und eigentlich alle Eigenschaften bis auf die RT-Performance sind mMn nicht nur OK sondern gut. RT ist aber trotzdem ein Problemkind, da es Stand heute viel relevanter geworden ist als vor 2 Jahren. AMD hat Glück, dass RT in Unity (https://www.computerbase.de/2022-11/unity-die-enemies-techdemo-kann-nun-ausprobiert-werden/) sowie UE5 (https://gamegpu.com/test-video-cards/the-matrix-awakens-demo-test-gpu-cpu) relativ gut auf RDNA2 und somit wohl auch auf RDNA3 performt. Dass die Konsolen auf AMD-Technik basieren ist hier nun Gold wert.

AMD hat doch eigentlich erzählt, dass sie die RT HW aufgebohrt haben und dann soll wirklich nichts dabei rauskommen? Ich finde das seltsam.
Sie haben RT ja aufgebohrt. Nämlich um 1.5x. Nur ist hierbei das Problem, dass damit die relative RT-Performance nicht steigt. Keine Ahnung, ob AMD einen 2. Ray Accelerator pro CU hätte einbauen können.

Aha Unreal ist also nicht die wichtigste Engine und die näste Version nutzt RT Beschleunigung für Beleuchtung.
Sehr interessant was so gepostet wird.
AMD hat übrigens selber die UE5 Demo bei der Präsentation gezeigt.
Das RT der UE5 läuft auf AMD ganz anständig. Ich würde die 7900XTX auf ~80% der Performance RTX4090 schätzen (bei maximierten RT Settings).

robbitop
2022-11-04, 10:49:56
Ich muss ehrlicherweise sagen ich weiß momentan nicht mal wofür ich mir was schnelleres als die jetzige 6800XT kaufen sollte? :freak: Es gibt einfach kein Futter der nach mehr Leistung schreit im Bereich Software. RT ist für mich immer noch kein Zugpferd. Wahrscheinlich werde ich mir N31 irgendwann holen, nur weil ich Lust auf was Neues habe. Klingt bescheuert, aber wenn die ganze Kohle (und da rede ich nicht von lächerlichen 1k) auf der Bank liegt hat man auch nix davon. Ok... einige Zinsen gibts ja mittlerweile die sowas Unwichtiges wie PC-Hardware refinanzieren. :D

ETFs kann ich nur empfehlen. Da stapelt mein Geiz die Kohle hin :up:

nordic_pegasus
2022-11-04, 10:50:15
Hatte Igor nicht beim Ada Launch spekuliert, dass Nvidia mit den Preisen für die 4080 16G und 4080 12G einen Rahmen gebaut hat, wo er den Navi31 TopDog reinpasst. Mit dem Preis hatte er recht, die Leistung bezogen auf RT passt auch.

Was ich nicht verstehe, warum die Taktraten fast stagniert sind. Das hier schon in Richtung 4 GHz Game Clock fabuliert wurde, hatte ich nie nachvollziehen können. Aber die +15% bei der 7900XTX zur 6950XT ist doch schon auffallend wenig plus. Dazu noch die magere Steigerung beim RT. Wenn AMD hier in dem Tempo weitermacht, hat Intel wirklich bald Platz 2 bezogen auf RT-Performance.

Ich bin echt ein wenig verwundert. Irgendwas muss doch da nicht geklappt haben wie gewollt. MLID faselt sich auch einen riesigen Headroom für eine 7950XTX zusammen mit 27Gbps RAM, +25% Takt und TDP von über 400Watt zusammen. Warum sollte AMD diese Wunderwaffe zurückhalten. Auf eine 4090Ti warten? Damit man dann auch wieder hinter dieser Karte bleibt?

Und warum holt man den "XTX" Namen aus der Versenkung raus? Das hätte vor einem Jahr für die 6950XT besser gepasst aus für diese Karte. Genauso wie das Preisgefüge zur 7900XT einfach nur strange ist. I don't get it.

dargo
2022-11-04, 10:53:37
Ich hab auch eine Nacht darüber geschlafen und bemerke dass es mich eigentlich nicht interessiert, da ich niemals so eine GPU kaufen werde. 1000€ für eine Grafikkarte.:freak:

Ich sags mal so... vor vielen Jahren hätte ich auch jeden den Vogel gezeigt der 1000€ für eine Grafikkarte ausgibt. Die Lebensumstände ändern sich aber. Man wird älter, irgendwann ist Eigentum abbezahlt. Du hast quasi kaum Ausgaben im Monat mehr. Insofern ist sowas viel zu individuell gestaltet. Heute haben für mich 1k einen ganz anderen Wert als noch vor 10-15 Jahren. Ich habe natürlich volles Verständnis dafür, dass für die Masse auch heute 1000€ sehr viel Geld für eine Pixelschleuder ist.

DrFreaK666
2022-11-04, 10:53:53
Ehrlich gesagt weiß ich nicht was ich von diesem Bullshit @Framegeneration halten soll....

Sicher dass es das ist? Würde dann nicht FSR 3 dabei stehen?

Nakai
2022-11-04, 10:54:37
Hatte Igor nicht beim Ada Launch spekuliert, dass Nvidia mit den Preisen für die 4080 16G und 4080 12G einen Rahmen gebaut hat, wo er den Navi31 TopDog reinpasst. Mit dem Preis hatte er recht, die Leistung bezogen auf RT passt auch.

Was ich nicht verstehe, warum die Taktraten fast stagniert sind. Das hier schon in Richtung 4 GHz Game Clock fabuliert wurde, hatte ich nie nachvollziehen können. Aber die +15% bei der 7900XTX zur 6950XT ist doch schon auffallend wenig plus. Dazu noch die magere Steigerung beim RT. Wenn AMD hier in dem Tempo weitermacht, hat Intel wirklich bald Platz 2 bezogen auf RT-Performance.

Ich bin echt ein wenig verwundert. Irgendwas muss doch da nicht geklappt haben wie gewollt. MLID faselt sich auch einen riesigen Headroom für eine 7950XTX zusammen mit 27Gbps RAM, +25% Takt und TDP von über 400Watt zusammen. Warum sollte AMD diese Wunderwaffe zurückhalten. Auf eine 4090Ti warten? Damit man dann auch wieder hinter dieser Karte bleibt?

Und warum holt man den "XTX" Namen aus der Versenkung raus? Das hätte vor einem Jahr für die 6950XT besser gepasst aus für diese Karte. Genauso wie das Preisgefüge zur 7900XT einfach nur strange ist. I don't get it.

Ich vermute, dass man mit anderen Taktraten gerechnet hatte auch intern, aber die TDP da Probleme bereitete. Macht ja auch Sinn, wenn man verschiedene Taktdomains hat. Naja die neue Generation säuft wie ein Loch oder wie ein Schluckspecht.

BiG OnE
2022-11-04, 10:55:10
Vor allem haben wir noch keinen einzigen Test gesehen.:freak:
Achso, Du meinst die Folien die AMD uns gezeigt hat waren eine Untertreibung und RDNA3 in Wirklichkeit viel schneller ist?

SamLombardo
2022-11-04, 10:55:52
Eventuell ist diese nächtliche Aufbereitung der Spec und Benchmarks für den einen oder anderen hier interessant: AMD Radeon RX 7900 XT(X): Alle bekannten Details zur Hardware und Performance-Prognose (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/)

MfG
Raff
Gute Übersicht, vielen Dank!

vinacis_vivids
2022-11-04, 10:55:56
Und warum holt man den "XTX" Namen aus der Versenkung raus? Das hätte vor einem Jahr für die 6950XT besser gepasst aus für diese Karte. Genauso wie das Preisgefüge zur 7900XT einfach nur strange ist. I don't get it.

XTX ist schon gerechtfertigt, wenn man sich die fps anschaut. Bei high-fps Gaming ist AMD praktisch konkurrenzlos, wüsste jetzt nicht welche Karte außer der 7900XTX solche fps raushauen kann.

https://abload.de/thumb/2022-11-0321_26_00-ams7c4v.png (https://abload.de/image.php?img=2022-11-0321_26_00-ams7c4v.png)

https://abload.de/thumb/2022-11-0321_26_47-amhpe6f.png (https://abload.de/image.php?img=2022-11-0321_26_47-amhpe6f.png)

https://abload.de/thumb/2022-11-0400_35_45-1aevce0.png (https://abload.de/image.php?img=2022-11-0400_35_45-1aevce0.png)

DrFreaK666
2022-11-04, 10:57:50
XTX ist schon gerechtfertigt, wenn man sich die fps anschaut. Bei high-fps Gaming ist AMD praktisch konkurrenzlos, wüsste jetzt nicht welche Karte außer der 7900XTX solche fps raushauen kann.

https://abload.de/thumb/2022-11-0321_26_00-ams7c4v.png (https://abload.de/image.php?img=2022-11-0321_26_00-ams7c4v.png)

https://abload.de/thumb/2022-11-0321_26_47-amhpe6f.png (https://abload.de/image.php?img=2022-11-0321_26_47-amhpe6f.png)

Junge. :rolleyes:

Complicated
2022-11-04, 10:58:21
Bei zweimal wirken lassen der gestrigen Vorstellung kommt einem allerdings schon folgendes in den Sinn:
Wenn RT-Performance und High-FPS Gaming der neueste und wichtigste Trend ist, wie Nvidia das mit seiner 4090 ja pusht und einige hier im Forum ja ebenfalls sehen, dann wird sich bei gegenüberstellen der Lineups einfach folgende Argumentation nicht halten lassen:
Die RDNA3 Karten sind nicht RT-tauglich

Mit dieser Haltung wäre nur die 4090 als einzige Karte von Nvidia RT-tauglich. Denn alles darunter performt da nicht besser als die. Schaut man sich die Preise an und ordnet diese mal nach RT-Leistung, wie das Leo hier gemacht hat, kommt da schon erstaunliches dabei raus:
https://www.3dcenter.org/news/news-des-3-november-2022
Schau ich mir die Tabelle an, kann ich mir wegen der überragenden RT-Performance die 4090 kaufen, für 2000,- - ok, dann sind mal alle bedient, die bereit sind das Geld inkl. der anderen Komponenten zu bezahlen für diese Performance.

Was machen jetzt die anderen 99% der Käufer - kein RT?
Oder die nächste Performance-/Preisklasse nach unten wären laut Leo Tabelle dann eben die 7900 XT/X oder die 4080 16 GB - hier kostet die 4080 200 $ mehr für selbe 4K/RT-Preis/Leistung. Nur haben die RDNA3 hier 40% mehr Render-Performance, die 4080 10% mehr RT Performance. Wer kauft denn da lieber die teurere 4080?

Die Lücke zwischen 4080 und 4090 ist so groß, dass die RDNA3-Customs hier sowohl Strom-/Preisspielraum haben mit den Boarddesign und zusätzlichem 8-Pin. Für 200,- Aufpreis sind auch die +10% RT-Performance der 4080 in Reichweite. Mit dann 50% mehr Render-FPS.

Die Entscheidung ob einem RT wichtig ist, wird man hier nicht mehr treffen müssen. Es geht nur noch um die Entscheidung, möchte ich 2.000,- ausgeben oder weniger. Sobald es weniger ist, kommt man um die RDNA 3 SKUs nicht drumherum, ausser man lässt 40% Renderleistung freiwillig liegen und bezahlt mehr für eine 4080 mit weniger Speicher.

Ich denke die detaillierte Reviews mit konkreten Zahlen werden einiges an Aha-Effekt zeigen wenn es um eine echte Kaufentscheidung geht, die tatsächlich die selben Preisklassen vergleicht. Zumindest für alles das unterhalb der 4090-Preisklasse über die Ladentheke gehen soll.

High FPS Gaming/8K
Das 8K-Gaming ist allerdings ein geiler Marketing-Stunt von AMD, High FPS nach oben pushen und eine Reihe Monitor-Hersteller mit DP 2.1 mit an Bord Anfang 2023 - da haben sie Nvidia im Marketing etwas ausgehebelt. Denn der DP 1.4 kommt da tatsächlich in Limits die mit den neuen Monitoren messbar werden - nicht dass ich das für relevant halte zum jetzigen Zeitpunkt. Das ist ebenfalls eine Nische. Doch einen Sargnagel in der Argumentation hat AMD hier tief reingehauen: Keine Investition für die Zukunft mit einer Nvidia DP 1.4 und vorhersehbare Probleme im Gebrauchtmarkt diese wieder los zu werden.

Das heißt man wird schlußendlich beim Kauf entscheiden müssen ob es jetzt genug RT-Titel gibt um den Preis zu rechtfertigen - dies ist wohl eher nicht der Fall. In 2 Jahren wird die Karte aber nicht die neuesten Monitore vollständig bedienen können, wenn das von Nvidia angezettelte pushen der FPS mit Zwischenbildern geplant war weiter im Marketing zu nutzen - ich habe an der Stelle das Gefühl, AMD hat hier Nvidia ungebremst über die Klippe laufen lassen in Kooperation mit den Monitor-Herstellern.
Edit: Eigentlich machen sie hier genau das was Nvidia mit übertriebenem RT in Spielen macht. Sie pushen es theoretisch über das Limit der Konkurenz um es in Praxis-irrelevanten Höhen in Balken zeigen zu können - war echt witzig mit der Limitfolie für FPS inkls Upsampling
https://www.computerbase.de/2022-11/amd-hypr-rx-radeon-rx-7900-xtx-xt/
Findet noch jemand, dass der Name HYPR-RX schon fast offensichtlich ironisch ist für genau diesen Zweck? :D

Schaut man sich die klassische Renderleistung an, die von AMD auf den Folien gezeigt wurde, dann liegt sie in den gezeigten Games mit der 4090 auf Augenhöhe bis -10%. Das wurde im Vorfeld hier ja eigentlich in der Mehrheit erwartet. Bei RT habe ich allerdings das Gefühl, dass hier kommende AMD-Titel den Abstand verkürzen werden, da der Code darauf optimiert sein sollte, möglicherweise auch mit Patches möglich. Doch das erscheint mir aus Hardwaresicht dann RDNA3 exklusiv zu sein, was wohl der Grund ist, warum AMD hier nur leise Töne macht derzeit.

robbitop
2022-11-04, 10:59:08
Soll ich bezüglich "Transistoreffizienz" nun mit den Zahlen von AD102 vs. GA102 kommen? ;)


Das ist mein move!! ;) Ja Ada ist da richtig mies aber enttäuschen dass rdna3 das auch ist.

AMD hat mMn mit RDNA3 vieles richtig gemacht und eigentlich alle Eigenschaften bis auf die RT-Performance sind mMn nicht nur OK sondern gut. RT ist aber trotzdem ein Problemkind, da es Stand heute viel relevanter geworden ist als vor 2 Jahren. AMD hat Glück, dass RT in Unity (https://www.computerbase.de/2022-11/unity-die-enemies-techdemo-kann-nun-ausprobiert-werden/) sowie UE5 (https://gamegpu.com/test-video-cards/the-matrix-awakens-demo-test-gpu-cpu) relativ gut auf RDNA2 und somit wohl auch auf RDNA3 performt. Dass die Konsolen auf AMD-Technik basieren ist hier nun Gold wert.
Von der Übersicht sie rdna3 gut aus aber was dabei rum kommt ist leider etwas enttäuschend. Zumindest aus meiner Sicht.


Sie haben RT ja aufgebohrt. Nämlich um 1.5x. Nur ist hierbei das Problem, dass damit die relative RT-Performance nicht steigt. Keine Ahnung, ob AMD einen 2. Ray Accelerator pro CU hätte einbauen können.


Das RT der UE5 läuft auf AMD ganz anständig. Ich würde die 7900XTX auf ~80% der Performance RTX4090 schätzen (bei maximierten RT Settings).

Ich glaube nicht, dass der ray accelerator das Problem ist. Was für mich unklar ist: hat man denn nun bvh traversal in Hardware oder nicht? Was ist mit Coherancy Sorting? Die Ergebnisse sehen auf den ersten Blick nach wenig Fortschritt aus.

dreas
2022-11-04, 10:59:51
Schade, NV ist damit für längere Zeit konkurrenzlos und die extremen Preise werden sich verstetigen. Damit wird PC Zockerei im High-Mid Segment was für Reiche.

Keine gute Entwicklung und treibt die Leute zu den Konsolen.

vinacis_vivids
2022-11-04, 11:00:03
Junge. :rolleyes:

Der "CapFrame X" kann schon mal sein Tool updaten :wink:

dargo
2022-11-04, 11:00:56
Sicher dass es das ist? Würde dann nicht FSR 3 dabei stehen?
Was soll es sonst sein? Voodoo? :D

@Complicated
2.000€ für ne 4090 ist noch recht tief gestapelt. :)
https://geizhals.de/?cat=gra16_512&xf=9810_06+17+-+RTX+4090

SamLombardo
2022-11-04, 11:00:59
Ich sags mal so... vor vielen Jahren hätte ich auch jeden den Vogel gezeigt der 1000€ für eine Grafikkarte ausgibt. Die Lebensumstände ändern sich aber. Man wird älter, irgendwann ist Eigentum abbezahlt. Du hast quasi kaum Ausgaben im Monat mehr. Insofern ist sowas viel zu individuell gestaltet. Heute haben für mich 1k einen ganz anderen Wert als noch vor 10-15 Jahren. Ich habe natürlich volles Verständnis dafür, dass für die Masse auch heute 1000€ sehr viel Geld für eine Pixelschleuder ist.
Das ist Korrekt, muss man immer in Relation setzen. Wenn man mal überlegt, wie viel Prozent seines verfügbaren Einkommens von 10 bis 15 Jahren für eine High End Grafikkarte ausgegeben hat, und wie viel Prozent des verfügbaren Einkommens von heute man für ne High End Grafikkarte ausgibt... dann ist diese prozentual in den meisten Fällen sicher trotzdem teurer geworden, aber bei weitem nicht mehr so viel.

prinz_valium_2
2022-11-04, 11:06:45
Man muss sich auch mal überlegen, dass die 4090 zumindest in $ Preisen die beste Karte (einzig gute) bezogen auf P/L in nVidia's High-End launch ist.
Das ist ja auch etwas ganz neues, dass nur der absolute Top Dog das am sinnvollsten Produkt ist, und nicht total unsinnig wie früher mit 10% mehr Leistung für 50% mehr Geld.


Die nicht mehr existierende 4080 12GB für den selben Preis der 7900XT sollte man mal vergleichen. Aber hier gibt es eben ein Problem in Deutschland. Du musst 2000€ hinblättern, wenn du die einzig gute nVidia Karte willst. Wenn du das Geld nicht hast, dann nimmst du eben eine RX 7900. Der Leistungsunterschied ist dann schon fast egal.

Meridian12
2022-11-04, 11:09:07
Bei Computerbase im Forum sind sie sehr zufrieden mit der 7900XTX.

Man muss sich halt einfach mal davon befreien, dass ein 4090 Gegner von AMD geplant war.
Preislich gibt es denn nämlich nicht.
Ohne Tests zu haben,sieht es so aus, als ob man für deutlich weniger Geld eine Karte bekommt,die mit der 4080 den Boden aufwischt.Mit RT vielleicht nicht, aber ich bin einer,der schei..t auf RT.

Nicht vergessen,die 4090 ist 60%!!! teurer als die 7900xtx

dargo
2022-11-04, 11:10:34
Schade, NV ist damit für längere Zeit konkurrenzlos und die extremen Preise werden sich verstetigen. Damit wird PC Zockerei im High-Mid Segment was für Reiche.

Keine gute Entwicklung und treibt die Leute zu den Konsolen.
Wieso? Besteht PC-Gaming neuerdings nur noch aus AD102 und N31? :freak: Die "Massenprodukte" der neuen Gen wurden noch nicht mal vorgestellt.

basix
2022-11-04, 11:12:23
Die nicht mehr existierende 4080 12GB für den selben Preis der 7900XT sollte man mal Vergleichen. Aber hier gibt es eben ein Problem in Deutschland. Du musst 2000€ hinblättern, wenn du die einzig gute nVidia Karte willst. Wenn du das Geld nicht hast, dann nimmst du eben eine RX 7900. Der Leistungsunterschied ist dann schon fast egal.

Von der 7900XT wirst du im Schnitt vermutlich sogar mehr davon haben, als von einer 4080 16GB. In RZ Games wird sie schneller sein und auch in zukünftigen UE5 / Unity Spielen wird sie vermutlich schneller oder zumindest in etwa gleich auf sein. Kein schlechter Deal für 899$ vs. 1199$. Spiele wie Cyberpunk werden auf der 4080 deutlich schneller laufen und DLSS2 ist in mehr Spielen verfügbar. Sind Argumente für die Nvidia Karte. Die kostet aber auch einiges mehr.

Nachteil von RDNA3:
- Heutige RT-Spiele (DLSS2, RT-Performance)

Für alles andere wird man gegenüber Lovelace nicht so schlecht dastehen. Wenn einem jedoch 3090 Performance in heutigen Spielen mit RT nicht reicht, dann ist es auch für Nvidia-Karten von der Performance her nicht wirklich gut ;) Ist für RDNA3 nicht optimal, aber so schlecht ist es auch nicht. Entäuscht ob der etwas geringen RT-Performance bin ich trotzdem. Wäre eine grosse Chance für AMD gewesen, die hat man nun verpasst.

MSABK
2022-11-04, 11:13:18
Wieso? Besteht PC-Gaming neuerdings nur noch aus AD102 und N31? :freak: Die "Massenprodukte" der neuen Gen wurden noch nicht mal vorgestellt.

Vor allem was ist Mid-High Segment? Eine 2300€ Karte?

Exxtreme
2022-11-04, 11:14:56
Achso, Du meinst die Folien die AMD uns gezeigt hat waren eine Untertreibung und RDNA3 in Wirklichkeit viel schneller ist?
AMD stapelt in der Regel ziemlich tief, ja.

Der_Korken
2022-11-04, 11:15:03
Ich vermute, dass man mit anderen Taktraten gerechnet hatte auch intern, aber die TDP da Probleme bereitete. Macht ja auch Sinn, wenn man verschiedene Taktdomains hat. Naja die neue Generation säuft wie ein Loch oder wie ein Schluckspecht.

Da kann durchaus was dran sein. Auf den Folien stand "25% power savings" als sie 2,3Ghz für die Shader und 2,5Ghz fürs Frontend präsentiert haben. Das klingt schon so, als würden die Shader die 2,5Ghz einfach nicht packen bzw. nur mit der Keule, während das Frontend taktfreudiger ist. Ich meine, man muss doch merken, wenn das Frontend zu schwach ist, um die Shader zu füttern und vergrößert es. Und wenn man dann feststellt, dass es sich über die Breite nicht so gut skalieren lässt, sondern besser über Takt, dann würde man den Takt doch hier viel stärker hochschrauben, damit sich die zweite Taktdomäne wirklich lohnt. So wie jetzt, wirkt das eher so wie: "Ups, die Shader schaffen 10-20% weniger Takt als erwartet und der Chip wird zu langsam. Lass uns schnell den Takt vom Frontend entkoppeln, um noch möglichst viel aus dem Chip rauszuholen." Die 7900XT ist ja dann auch direkt satte 300Mhz langsamer als die XTX, was sich schon so anhört, als würden die Samples nicht mal eben alle die 2,3Ghz packen. Schwer zu glauben, dass AMD das von Anfang an so geplant hat. Mit Skalierung in die Breite hatte AMD bei GCN schon schlechte Erfahrungen. Mit Takt hatten sie bei RDNA bisher deutlich mehr Erfolg.

dargo
2022-11-04, 11:15:26
Bei Computerbase im Forum sind sie sehr zufrieden mit der 7900XTX.

Man muss sich halt einfach mal davon befreien, dass ein 4090 Gegner von AMD geplant war.
Preislich gibt es denn nämlich nicht.
Ohne Tests zu haben,sieht es so aus, als ob man für deutlich weniger Geld eine Karte bekommt,die mit der 4080 den Boden aufwischt.Mit RT vielleicht nicht, aber ich bin einer,der schei..t auf RT.

Nicht vergessen,die 4090 ist 60%!!! teurer als die 7900xtx
Das ist eben der Punkt... hier wurde von einigen schon im voraus erwartet AMD würde ein 1600$ Performancesegment bedienen, was offensichtlich gar nicht auf dem Plan stand. Im übrigen sollte man die Straßenpreise erst abwarten. Wenn ich die Knappheit der 4090 so betrachte wäre es auch möglich, dass die Straßenpreise zwischen 4090 und 7900XTX mehr als 600$ bzw. 60% auseinander liegen.

PS: die 1599$ der 4090 kann man sich in Europa eh in die Haare schmieren. Gute Customs liegen bei ~2500€ hier.

DrFreaK666
2022-11-04, 11:17:02
Was soll es sonst sein? Voodoo? :D

Photoshop :D
Dachte das wäre das Zusammenspiel von Radeon Boost und dem Low Latency Mode. Bei der FPS-Steigerung macht FSR 3 aber wahrscheinlich Sinn, auch wenn es da nicht erwähnt wurde

mboeller
2022-11-04, 11:21:29
da ich nur den RDNA3-Artikel auf anandtech überflogen habe:

kann es sein, dass RT bei RDNA3 "noch nicht richtig" funktioniert, da das aufgrund der Hardware-Änderungen erst "programmiert" werden muss und die bisherigen Spiele nur den RDNA2 Pfad benutzen?

arcanum
2022-11-04, 11:23:12
Ich sags mal so... vor vielen Jahren hätte ich auch jeden den Vogel gezeigt der 1000€ für eine Grafikkarte ausgibt. Die Lebensumstände ändern sich aber. Man wird älter, irgendwann ist Eigentum abbezahlt. Du hast quasi kaum Ausgaben im Monat mehr. Insofern ist sowas viel zu individuell gestaltet. Heute haben für mich 1k einen ganz anderen Wert als noch vor 10-15 Jahren. Ich habe natürlich volles Verständnis dafür, dass für die Masse auch heute 1000€ sehr viel Geld für eine Pixelschleuder ist.

nüchtern betrachtet waren 1000€ auch vor 2 jahren was ganz anderes wenn man die inflation und den aktuellen wechselkurs berücksichtigt. von der kaufkraft wären das nämlich nur 800€.

BigKid
2022-11-04, 11:23:18
Das war nicht der Punkt sondern das AMD nicht die beste Fertigung für ihre Notebook Modelle nutzen wird also Nachteile hat.
Einfach lesen was gefragt wurde.
Bedeutet man kann von den jetzt vorgestellten Karten von AMD nur bedingt Rückschlüsse auf das Laptop Lineup ziehen... Naja weiter abwarten... Am Ende war ich 2022 einfach überrascht, dass die Pure AMD Laptops zwar von der Leistung her gar nicht mal schlecht waren, aber dabei einfach mehr Hitze rausgehauen haben (zumindest die, die ich angesehen habe). Da hilft dann auch ein aufwändigeres Kühlsystem nur noch bedingt weil es auf so kleinem Raum halt auch keine Wunder mehr vollbringt...
Für mich sind bei Gaming Laptops (und ich rede nicht von Desktop Replacements sondern eher schlank und leicht) 2 Dinge entscheidend: Spielen und verbleibende Leistung auf Akku ( ich will endlich mal 2 Stunden spielen können und trotzdem 30+ fps haben auf Akku ) und Lärm im Strombetrieb (im "leise Modus") ... Dass das Ding abseits vom Gaming 6 Stunden+ durchzuhalten hat sowieso...
Zurück zum Thema - hätte mir echt gewünscht, dass AMD da im LT Bereich noch mehr aufholt - aber warten wirs mal ab... Ich hätte gedacht, dass sie da eher angreifen können...

Exxtreme
2022-11-04, 11:23:38
Vor allem was ist Mid-High Segment? Eine 2300€ Karte?

Im 3DC-Forum ja. X-D

Oder mal hier angucken:
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

4K+ Auflösungen fahren nicht einmal 5% der Steam-Spieler. Nur um so einordnen zu können wo man gefühlt so liegt und wo die Realität ist. :freak:

Meridian12
2022-11-04, 11:29:29
Im 3DC-Forum ja. X-D

Oder mal hier angucken:
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

4K+ Auflösungen fahren nicht einmal 5% der Steam-Spieler. Nur um so einordnen zu können wo man gefühlt so liegt und wo die Realität ist. :freak:


Niemals,wie man hier im Forum sieht ist Low End die 3090 und die meisten hier mussten MidEnd kaufen mit der 4090 ,weil die 4090ti noch nicht veröffentlicht wurde :D

Hier tun wirklich manche so, als ob die Mehrheit Grafikkarten für 2000 Euro kauft.

Troyan
2022-11-04, 11:29:49
Da kann durchaus was dran sein. Auf den Folien stand "25% power savings" als sie 2,3Ghz für die Shader und 2,5Ghz fürs Frontend präsentiert haben. Das klingt schon so, als würden die Shader die 2,5Ghz einfach nicht packen bzw. nur mit der Keule, während das Frontend taktfreudiger ist. Ich meine, man muss doch merken, wenn das Frontend zu schwach ist, um die Shader zu füttern und vergrößert es. Und wenn man dann feststellt, dass es sich über die Breite nicht so gut skalieren lässt, sondern besser über Takt, dann würde man den Takt doch hier viel stärker hochschrauben, damit sich die zweite Taktdomäne wirklich lohnt. So wie jetzt, wirkt das eher so wie: "Ups, die Shader schaffen 10-20% weniger Takt als erwartet und der Chip wird zu langsam. Lass uns schnell den Takt vom Frontend entkoppeln, um noch möglichst viel aus dem Chip rauszuholen." Die 7900XT ist ja dann auch direkt satte 300Mhz langsamer als die XTX, was sich schon so anhört, als würden die Samples nicht mal eben alle die 2,3Ghz packen. Schwer zu glauben, dass AMD das von Anfang an so geplant hat. Mit Skalierung in die Breite hatte AMD bei GCN schon schlechte Erfahrungen. Mit Takt hatten sie bei RDNA bisher deutlich mehr Erfolg.

Ja, die Taktraten der 7900XT sehen komplett irre aus. Basis-Takt von 1500Mhz(?!) und Game-Takt von 2000MHz(?!). Die 7900XTX hat einen Basis-Takt von 1900MHz (+26%) und Game-Takt von 2300MHz (+15%). Würden die 2000MHz stimmen, wäre die Karte kaum besser als eine 4080 12GB (+8%)...

basix
2022-11-04, 11:32:35
Interessant wird nun vor allem, wie schnell und preiswert N33 wird. Das wäre eine potentiell gute Midrange-Karte. Bei Raster könnte man auf ~RTX 3070 Niveau landen und bei RT evtl. bei ~RTX 3060 (Ti). Das sollte in den meisten Spielen in 1440p für ~60fps reichen, notfalls mit FSR2-Q. Eigentlich kein schlechter Deal für Leute mit 1080p / 1440p Monitoren. Auch wenn 8GByte langsam etwas knapp bemessen sind. Für sagen wir mal ~300...350$ (was absolut realistisch ist) ziemlich OK.

da ich nur den RDNA3-Artikel auf anandtech überflogen habe:

kann es sein, dass RT bei RDNA3 "noch nicht richtig" funktioniert, da das aufgrund der Hardware-Änderungen erst "programmiert" werden muss und die bisherigen Spiele nur den RDNA2 Pfad benutzen?
Wäre sehr schlechtes Marketing ;) Wäre sicher top für die Karte an sich und die Kunden, die die Karte kaufen. Wenn dieses "für RDNA3 programmieren" wirklich real ist, muss AMD das spätestens bis zu den Launch-Reviews parat haben. Sonst sieht die Karte schlechter aus, als sie wirklich ist.

Troyan
2022-11-04, 11:39:58
Reviews kommen am 12. Dezember laut Gamersnexus.

robbitop
2022-11-04, 11:40:02
da ich nur den RDNA3-Artikel auf anandtech überflogen habe:

kann es sein, dass RT bei RDNA3 "noch nicht richtig" funktioniert, da das aufgrund der Hardware-Änderungen erst "programmiert" werden muss und die bisherigen Spiele nur den RDNA2 Pfad benutzen?
Das hab ich mich auch schon gefragt

Die Rasterperformance ist ja okay aber RT ist eine massive Enttäuschung für 2023 und es wird sich auf sen ganzen Productstack auswirken

Der_Korken
2022-11-04, 11:41:39
Wenn die These mit den verfehlten Taktraten stimmen sollte, bestünde bei den kleinen Chips ja noch Hoffnung, dass AMD das rechtzeitig in den Griff bekommt. N33 hat angeblich etwas abgespreckte Shader und ist 6nm statt 5nm. Eventuell tritt hier das Problem nicht auf. Und N32 soll erst irgendwann nächstes Jahr kommen. Bei RDNA2 haben die zeitlich späteren Chips jeweils noch gut zulegen können beim Takt. Wenn AMD bei N31 also irgendwas verbockt hat, könnte es zeitlich bei N32 noch reichen, um es zu fixen. Eine 7800XT mit 60 CUs und 2,6Ghz Gameclock auf beiden Domains würde einer 7900XT schon ziemlich nahe kommen. Das wäre dann ein Remake von Pitcairn vs Tahiti. Angesichts der aktuellen Wirtschaftskrise wären starke Midrange-Produkte vielleicht nicht das schlechteste. Das Rennen um die Performance-Krone hat AMD ja quasi eh schon verloren.

basix
2022-11-04, 11:41:44
Naja, wenn man RT nun für RDNA3 optimieren kann und bei Lovelace SER einsetzt, ist man nicht viel weiter. Ein grosser Rückstand bleibt.

Dass das Frequenz-Target massiv verfehlt wurde glaube ich auch nicht. Das war einfach nie so geplant. Und wie die effektive Performance sowie Taktraten von N33 aussehen werden ist schwer abzuschätzen. Da gibt es keine gute Referenz. Bei RZ+RT sollte man verglichen mit N23 aber auch bei Iso-Taktraten auf ~6700XT Niveau landen. Bei höheren Taktraten sogar darüber. Dafür, dass das Die nur ~200mm2 gross sein soll, wäre das eine sehr gute PPA Steigerung.

Hatstick
2022-11-04, 11:45:50
Passt das nicht alles soweit ganz gut bzgl. den neuen AMD Karten?
Ihr Maximalausbau konkurriert mit der RTX 4080, wird deutlich unter 1500€ zu haben sein und wenn man auf die letzten ca. 20% zur RTX 4090 verzichtet mit schlechterer RT Performance, dann "spart" man minimum seine 600€ zur RTX 4090 oder habe ich da ein Haken übersehen?

Sieht für mich ähnlich zu den 6xxxer Karten aus. On the Top nicht ganz dabei aber grund solide und deutlich günstiger?

mboeller
2022-11-04, 11:45:57
Wäre sehr schlechtes Marketing ;) Wäre sicher top für die Karte an sich und die Kunden, die die Karte kaufen. Wenn dieses "für RDNA3 programmieren" wirklich real ist, muss AMD das spätestens bis zu den Launch-Reviews parat haben. Sonst sieht die Karte schlechter aus, als sie wirklich ist.

ich beziehe mich auf dieses Slide:
https://images.anandtech.com/doci/17638/AMD%20RDNA%203%20Tech%20Day_Press%20Deck%2025.png

neue RT-Instruktionen
neues Raybox Sorting/Traversal

Beides wird man, denke ich erst in neuen Spielen sehen. Bei Nvidia würde ich erwarten, dass vorhandene Vorzeigespiele angepasst werden, bei AMD sehe ich das nicht.

Badesalz
2022-11-04, 11:46:04
AMD setzt den Preis nicht so niedrig an, weil sie die Wohlfahrt sind. Sondern weil sie wissen, dass sie realistisch nicht (viel) mehr ob ihrer Defizite verlangen können.Wenn ich mir das kleine süße Kärtchen mit dem knuffigen Kühler so anschaue, dann ruft diese "Marge!" in den Raum :wink: Für mich ist das nicht halb verschenkt. Nur weil Jensen grad wuchert muss man die Preise nicht auch noch als benhcmark nehmen.

Alle erstmal rumgemeckert, daß der Markt komplett am durchdrehen ist - gebrauchte Karten über UVP, dann 4090 - jetzt gibt es wieder was zu halbwegs, halbwegs normalen Preisen und es wird über AMD gelacht, daß sie mehr garnicht nehmen durften.

:rolleyes:

Dino-Fossil
2022-11-04, 11:49:39
Ich bin gespannt auf echte Tests. AMD hat doch eigentlich erzählt, dass sie die RT HW aufgebohrt haben und dann soll wirklich nichts dabei rauskommen? Ich finde das seltsam.

Das hat mich auch gewundert. Entweder ging da was schief (siehe damals diverse Features von Vega), oder es bedarf Software-Support, wie ja auch bei einigen Features von Ada. Wird man wohl abwarten müssen, ich könnte mir jedenfalls vorstellen, dass die ersten RT Tests tatsächlich nur den generellen Rohpower-Fortschritt zeigen.

Nachdem ich nochmal "drüber geschlafen" habe, ist der Eindruck allerdings etwas besser geworden. Vorbehaltlich unabhängiger Tests könnte P/L eigentlich recht gut werden, ohne das die Karten wirklich eklatante Makel aufweisen (es sei denn, mann will wirklich maximal bestes RT) - damit hat man dann ein grundsolides Produkt und wäre z.B. deutlich überzeugender als damals mit Vega. Lediglich der Halo-Faktor fehlt halt.

In dem Zusammenhang würde mich interessieren, ob AMD die vor längerer Zeit mal angekündigten Pläne des "nVidia-Killers" beerdigt hatte, oder ob man einfach nicht damit gerechnet hatte, dass nVidia bereit war, für die 4090 alle Register zu ziehen. Hätte sich die 4090 im üblichen Rahmen für einen Generationswechsel der letzten Jahre bewegt, wäre die 7900XTX in der Tat im Vergleich stärker erschienen.

Rancor
2022-11-04, 11:51:29
Wenn man maximales RT möchte kommt man an der 4090 nicht vorbei. Selbst die 4080 wird eklatant langsamer sein

basix
2022-11-04, 11:53:12
ich beziehe mich auf dieses Slide:
https://images.anandtech.com/doci/17638/AMD%20RDNA%203%20Tech%20Day_Press%20Deck%2025.png

neue RT-Instruktionen
neues Raybox Sorting/Traversal

Das kann auch intern von Treiber gesteuert werden. Entwickler könnten allenfalls darauf optimieren, sehe ich in diesem Kontext aber nicht als ursächliches Problem hinsichtlich schwacher RT-Performance an.

dildo4u
2022-11-04, 11:53:38
Das hat mich auch gewundert. Entweder ging da was schief (siehe damals diverse Features von Vega), oder es bedarf Software-Support, wie ja auch bei einigen Features von Ada. Wird man wohl abwarten müssen, ich könnte mir jedenfalls vorstellen, dass die ersten RT Tests tatsächlich nur den generellen Rohpower-Fortschritt zeigen.

Nachdem ich nochmal "drüber geschlafen" habe, ist der Eindruck allerdings etwas besser geworden. Vorbehaltlich unabhängiger Tests könnte P/L eigentlich recht gut werden, ohne das die Karten wirklich eklatante Makel aufweisen (es sei denn, mann will wirklich maximal bestes RT) - damit hat man dann ein grundsolides Produkt und wäre z.B. deutlich überzeugender als damals mit Vega. Lediglich der Halo-Faktor fehlt halt.

In dem Zusammenhang würde mich interessieren, ob AMD die vor längerer Zeit mal angekündigten Pläne des "nVidia-Killers" beerdigt hatte, oder ob man einfach nicht damit gerechnet hatte, dass nVidia bereit war, für die 4090 alle Register zu ziehen. Hätte sich die 4090 im üblichen Rahmen für einen Generationswechsel der letzten Jahre bewegt, wäre die 7900XTX in der Tat im Vergleich stärker erschienen.
Das ist das Selbe vorgehen wie bei Ryzen die Compute Die ist die Hälfte der 4090, bei Ryzen sind die CCDs weniger als die Hälfte der Intel Dies.
Die logische Schlussfolgerung ist das sie irgendwann zwei Compute Die auf eine Karte setzen was noch nicht passiert ist.

mboeller
2022-11-04, 11:59:21
Alle erstmal rumgemeckert, daß der Markt komplett am durchdrehen ist - gebrauchte Karten über UVP, dann 4090 - jetzt gibt es wieder was zu halbwegs, halbwegs normalen Preisen und es wird über AMD gelacht, daß sie mehr garnicht nehmen durften.


IMHO:

AMD könnte mit den neuen Karten wesentlich mehr Umsatz machen als Nvidia mit ihren 4080/4090. Stichwort: OEM Markt. Mit 800-1000 Dollar sind sie da vielleicht gerade noch im Rahmen. Eine 4080 und erst recht eine 4090 fällt da wahrscheinlich raus. Nvidia muss dann also mit 4060/4070 mit 12GB gegen eine 7900XT(X) mit 20/24GB antreten.

Tesseract
2022-11-04, 11:59:31
Wenn die These mit den verfehlten Taktraten stimmen sollte, bestünde bei den kleinen Chips ja noch Hoffnung, dass AMD das rechtzeitig in den Griff bekommt.

das ist mit ziemlicher sicherheit eine folge der space-optimierung, sonst gäbe es keine eigene shadertaktdomain. man wollte halt viele shader pro mm² unterbringen und darunter hat die taktbarkeit gelitten. man kann beim chipdesign nicht alles haben.

Troyan
2022-11-04, 11:59:53
Das ist das Selbe vorgehen wie bei Ryzen die Compute Die ist die Hälfte der 4090, bei Ryzen sind die CCDs weniger als die Hälfte der Intel Dies.
Die logische Schlussfolgerung ist das sie irgendwann zwei Compute Die auf eine Karte setzen was noch nicht passiert ist.

Wie oft noch: AD103 ist 378mm^2 groß. Ohne Speichercontroller, großen L2 Cache und TensorCores wäre das Ding deutlich kleiner als die 300mm^2 von AMD. Dazu ist AMD von den Spezifikationen kaum besser: 20% mehr Recheneinheiten und 10% weniger Takt.

Banshee18
2022-11-04, 12:00:53
Niemals,wie man hier im Forum sieht ist Low End die 3090 und die meisten hier mussten MidEnd kaufen mit der 4090 ,weil die 4090ti noch nicht veröffentlicht wurde :D
Vor längerer Zeit wäre das Mal so gewesen, heute macht man sich darüber lustig. Traurige Entwicklung. :eek:

basix
2022-11-04, 12:01:13
Interessant wird nun vor allem, wie schnell und preiswert N33 wird. Das wäre eine potentiell gute Midrange-Karte. Bei Raster könnte man auf ~RTX 3070 Niveau landen und bei RT evtl. bei ~RTX 3060 (Ti). Das sollte in den meisten Spielen in 1440p für ~60fps reichen, notfalls mit FSR2-Q. Eigentlich kein schlechter Deal für Leute mit 1080p / 1440p Monitoren. Auch wenn 8GByte langsam etwas knapp bemessen sind. Für sagen wir mal ~300...350$ (was absolut realistisch ist) ziemlich OK.

Nachtrag zu dem: Ich erwarte N33 Performance bei RZ auf ~3070 Niveau und bei RT im Schnitt etwas überhalb einer 3060. Hinsichtlich PPA wäre das verglichen zu Ampere enorm stark. Verglichen mit GA106 bei RZ ~2x und bei RT ~1.4x

dildo4u
2022-11-04, 12:02:19
Wie oft noch: AD103 ist 378mm^2 groß. Ohne Speichercontroller, großen L2 Cache und TensorCores wäre das Ding deutlich kleiner als die 300mm^2 von AMD. Dazu ist AMD von den Spezifikationen kaum besser: 20% mehr Recheneinheiten und 10% weniger Takt.
Das Ziel scheint mir zu sein bei 300mm² zu bleiben und dann für RDNA4 zwei Die zu nutzen nur so konnte man Intel angreifen.

Grendizer
2022-11-04, 12:04:58
ich beziehe mich auf dieses Slide:
https://images.anandtech.com/doci/17638/AMD%20RDNA%203%20Tech%20Day_Press%20Deck%2025.png

neue RT-Instruktionen
neues Raybox Sorting/Traversal

Beides wird man, denke ich erst in neuen Spielen sehen. Bei Nvidia würde ich erwarten, dass vorhandene Vorzeigespiele angepasst werden, bei AMD sehe ich das nicht.

So wie den primitive Shader der Vega ?

dildo4u
2022-11-04, 12:07:04
So wie den primitive Shader der Vega ?
Die Konsolen werden irgendwann neue AMD GPU bekommen deutlich wahrscheinlicher das die Tech genutzt wird als alles was mit Vega zu tun hatte.

Grendizer
2022-11-04, 12:09:34
Ja... war auch nicht 100% ernst gemeint. Der primitive Shader ist aber ein gutes Beispiel für Tech, die es zur Veröffentlichung nicht geschafft hat genutzt zu werden und die dann"später" freigeschaltet werden sollte. Und am Schluss nie genutzt werden konnte, weil sie wohl augenscheinlich nicht funktioniert hatte.

Dino-Fossil
2022-11-04, 12:10:50
Vega's primitive shaders waren doch letztlich einfach kaputt, oder?
Bei den angeblichen RT-Verbesserungen wird man noch abwarten müssen.

Thunder99
2022-11-04, 12:11:03
Langsamer aber auch billiger. Aber auch mit Vorteilen.
Passt, aus meiner Sicht :up:

Der_Korken
2022-11-04, 12:13:55
Wie oft noch: AD103 ist 378mm^2 groß. Ohne Speichercontroller, großen L2 Cache und TensorCores wäre das Ding deutlich kleiner als die 300mm^2 von AMD. Dazu ist AMD von den Spezifikationen kaum besser: 20% mehr Recheneinheiten und 10% weniger Takt.

N31 hat 300mm² N5 und 225mm² N6. Wenn man mal sagt, dass N5 1.5x so teuer wie N6 ist (afaik wurden sogar mal irgendwo 1.7x gesagt), dann wären es "nur" noch 300 + 150 = 450mm² für N31. Hier muss man aber noch berücksichtigen, dass viele kleine Chips immer einen Yield-Vorteil haben, denn defekte MCDs kann man einfach wegwerfen und stattdessen einen heilen nehmen, während AD103 direkt das SI teildeaktivieren müsste. Mag sein, dass AD103 da immer noch einen kleinen Kostenvorteil hat, aber nicht viel. Was AMD dagegen viel Geld kosten wird, ist der VRAM. In Hinblick darauf, dass man bei RT vermutlich hinter AD104 wird zurückstecken müssen, wirken die 24GB schon etwas übertrieben. Eventuell sehen wir irgendwann eine N31-Version mit vollen Shadern, aber nur 5 MCDs/20GB, um Kosten zu sparen.

Trap
2022-11-04, 12:15:15
Wie oft noch: AD103 ist 378mm^2 groß. Ohne Speichercontroller, großen L2 Cache und TensorCores wäre das Ding deutlich kleiner als die 300mm^2 von AMD.
Ohne Shader wäre der Navi 31 auch viel kleiner und wäre 100% konkurrenzfähig zum AD103 ohne Speichercontroller :wink:

Funktionslose Designs zu vergleichen ist nicht besonders erleuchtend.

vinacis_vivids
2022-11-04, 12:16:39
Wie oft noch: AD103 ist 378mm^2 groß. Ohne Speichercontroller, großen L2 Cache und TensorCores wäre das Ding deutlich kleiner als die 300mm^2 von AMD. Dazu ist AMD von den Spezifikationen kaum besser: 20% mehr Recheneinheiten und 10% weniger Takt.

Klar, ne Grafikkarte läuft ja auch ohne Speichercontroller, am besten ohne Display-Ausgang und nur als Schlüsselanhänger. Trollyan at his best ;D;D;D

Troyan
2022-11-04, 12:18:50
N31 hat 300mm² N5 und 225mm² N6. Wenn man mal sagt, dass N5 1.5x so teuer wie N6 ist (afaik wurden sogar mal irgendwo 1.7x gesagt), dann wären es "nur" noch 300 + 150 = 450mm² für N31. Hier muss man aber noch berücksichtigen, dass viele kleine Chips immer einen Yield-Vorteil haben, denn defekte MCDs kann man einfach wegwerfen und stattdessen einen heilen nehmen, während AD103 direkt das SI teildeaktivieren müsste. Mag sein, dass AD103 da immer noch einen kleinen Kostenvorteil hat, aber nicht viel. Was AMD dagegen viel Geld kosten wird, ist der VRAM. In Hinblick darauf, dass man bei RT vermutlich hinter AD104 wird zurückstecken müssen, wirken die 24GB schon etwas übertrieben. Eventuell sehen wir irgendwann eine N31-Version mit vollen Shadern, aber nur 5 MCDs/20GB, um Kosten zu sparen.

6nm kostet doppelt soviel zu 5nm. Der Compute-Die ist 300mm^1 groß, AD103 ist 378mm^2 groß. Selbst wenn du eine Karte mit nur 256bit und 64mb L2 Cache bringst, sind die Herstellungskosten wohl eher identisch. Wenn man sich dann anschaut, dass AD103 deutlich mehr bietet (RT Cores und TensorCores), dann ist die Nutzung der Transistoren bei AMD einfach immer noch ineffizient.

Der_Korken
2022-11-04, 12:22:16
6nm kostet doppelt soviel zu 5nm. Der Compute-Die ist 300mm^1 groß, AD103 ist 378mm^2 groß. Selbst wenn du eine Karte mit nur 256bit und 64mb L2 Cache bringst, sind die Herstellungskosten wohl eher identisch. Wenn man sich dann anschaut, dass AD103 deutlich mehr bietet (RT Cores und TensorCores), dann ist die Nutzung der Transistoren bei AMD einfach immer noch ineffizient.

Andersrum: Wenn dann kostet 5nm doppelt so viel wie 6nm. Aber das würde mein Argument nur verstärken, weil N31 dann sogar nur 412 statt 450mm² 5nm-Äquivalent wäre. Ansonsten weiß man noch nicht, was die AI Accelerators von RDNA3 können und wie sich AD103 vs N31 in Rasterizer schlagen. Für ein Urteil ist es noch zu früh.

Troyan
2022-11-04, 12:29:06
Andersrum: Wenn dann kostet 5nm doppelt so viel wie 6nm. Aber das würde mein Argument nur verstärken, weil N31 dann sogar nur 412 statt 450mm² 5nm-Äquivalent wäre. Ansonsten weiß man noch nicht, was die AI Accelerators von RDNA3 können und wie sich AD103 vs N31 in Rasterizer schlagen. Für ein Urteil ist es noch zu früh.

Nochmal: AD103 ist ein vollständiger Chip bei 378mm^2. Der Compute-Teil liegt deutlich unter 300mm^2. Ein Navi31 mit 256bit und 64mb L2 Cache läge bei 448mm^2. Heißt also, du sparst bei 5nm 80mm^2 ein und musst dafür 148mm^2 auf 6nm kaufen. Die Ersparnis liegt bei 0€, da das Zusammenbauen beim Chiplet deutlich aufwendiger und teurer ist.

BavarianRealist
2022-11-04, 12:29:09
Lisa hat gestern sicherlich noch nicht alles erzählt. Mir fallen nämlich ein paar Dinge sehr merkwürdig auf:

Wieso soll eine 7900XT nur 10% billiger als die 7900XTX sein, wenn sie fast 30% weniger leistet und 33% weniger Speicher hat? Das macht doch 0,0 Sinn? Das wäre ein völlig überflüssiges Produkt. Wenn dürfte sie eigenlich nur 699$ kosten, oder?

AMD dürfte wie folgt denken:
An Nvidias 4090 (AD102-GPU) kommt Navi31 nicht ganz ran (jedenfalls nicht bei RT). Aber Nvidias 4080 (ADA103) kann man vermutlich locker überflügeln, d.h. man wird sich genau dazwischen hinein setzen und hat zudem die 24GB Ram zu bieten.

Weiter fällt auf:
Die präsentieren Grakas scheinen eher vor allem kostengünstig aufgebaut zu sein, damit man mit dem niedrigen Preis von 999$ in den Markt gehen und trotzdem Gewinn realisieren kann. AMD verwendet jedenfalls keine Highend-GDDR6, sondern "nur" 20Gbps, die heute vermutlich Standard sein dürften und damit preislich deutlich günstiger sein dürften. Nvidias 4080 soll aber 23Gbps nutzen. Auch mit TBP=350Watt bleibt man für die Boards im bekannten Rahmen.

Die Takte erscheinen mir auch mehr als niedrig. Meine Spekulation hierzu:
Womöglich hat man diese für die aktuelle Präsentation genau so gewählt, dass man die ">+50% Performance/Watt" erfüllt und eben problemlos <355Watt bleibt. Gab es denn Aussagen darüber, wieviel Spielraum darüber hinaus beim Takt drin ist? Welche Takte wären z.B bei 450TBP möglich? Vielleicht doch +20%, was dann ein Boost-Takt von 3,0Ghz wäre? Sollte dem so sein, hieße dies, dass die Performance am Ende bis zu +20% höher liegen könnte, wenn ein AIB dann auch noch den 20% schnelleren GDDR6 mit 24Gbps nähme, oder?


Nvidias AD102 dürfte Navi31 nicht erreichen, aber man dürfte gut oberhalb Nvidias AD103 zu lliegen kommen. Zudem bietet Navi31 Features, die die 4080 nicht hat: +50% Speicher, bessere Video-Outputs und womöglich noch ein paar noch unbekannte Features.

Linmoum
2022-11-04, 12:29:16
Was AMD dagegen viel Geld kosten wird, ist der VRAM. In Hinblick darauf, dass man bei RT vermutlich hinter AD104 wird zurückstecken müssen, wirken die 24GB schon etwas übertrieben. Eventuell sehen wir irgendwann eine N31-Version mit vollen Shadern, aber nur 5 MCDs/20GB, um Kosten zu sparen.Ich bin natürlich klar ein Verfechter von mehr Speicher, aber ich hätte hier auch tatsächlich eher auf 4/5 MCDs gesetzt. Wären immer noch 16/20GiB und mehr als ausreichend gewesen, auch von der Bandbreite her.

Gerade für RT braucht man zwar mehr Speicher, aber genau da schwächelt RDNA3 deutlich. Das ist wohl eher das typische "wie kommen (auch) über den Speicher" bei AMD.

gruntzmaker
2022-11-04, 12:29:48
"Sieht man sich die Zahlen an, hinterlässt die Radeon RX 7900 XTX erwartungsgemäß einen starken Eindruck und kann sich in einigen Fällen mit der Geforce RTX 4090 messen. Was Raytracing angeht, macht RDNA 3 zwar einen deutlichen Satz nach vorn, insgesamt reicht das jedoch nur für die Ampere-Topmodelle."

Quelle:

https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/

Also kann man zum voraussichtlichen Fazit kommen, dass AMD mit der RX7000 Serie einen cleveren Zwischenschritt geht.
Die Rasterleistung ist sehr konkurrenzfähig und die Raytracing Leistung auf einem Niveau, das die nächsten zwei Jahre bis RDNA 4 genügen wird. Denn auch die 3080/90 wird Nvidia nicht einfach so bei kommenden Spieletiteln einfach so absägen.

Damit erschwert AMD auch den Griff zu einer RTX 3000 Karte, sind doch viele Produktionsfeatures gründlich verbessert worden und bietet man das Ganze in einem energieeffizienten Paket an.

Wie schon gesagt, es wurden 1000 € netto anvisiert und AMD hat solide abgeliefert.

mironicus
2022-11-04, 12:36:17
Nochmal: AD103 ist ein vollständiger Chip bei 378mm^2. Der Compute-Teil liegt deutlich unter 300mm^2. Ein Navi31 mit 256bit und 64mb L2 Cache läge bei 448mm^2. Heißt also, du sparst bei 5nm 80mm^2 ein und musst dafür 148mm^2 auf 6nm kaufen. Die Ersparnis liegt bei 0€, da das Zusammenbauen beim Chiplet deutlich aufwendiger und teurer ist.

Ja, und für einen 378mm²-Chip wirst du locker 1500-1900 Euro auf den Tisch legen müssen. Wenn man für 200-300 Euro mehr dann noch kurzfristig eine 4090 bekommen kann, wird diese dann wohl wegen ihrer Seltenheit locker auf über 3000 Euro hochgehen.

Für die RX7900 würde ich auch raten, kauft gleich am Anfang wenn ihr eine zur UVP kriegt, danach wird alles deutlich teurer werden.

][immy
2022-11-04, 12:40:23
Mich wundert ein wenig das man nicht den neuen Stromanschluss nutzt. Für so eine Änderung hätte es eigentlich schon zu spät sein müssen. Aus sicht der Kompatibilität ist das natürlich zu begrüßen, bis sich entsprechende Netzteile durchgesetzt haben. Wobei in dem Preissektor wird ein neues Netzteil wohl keine allzu große Rolle spielen. Und je weniger Adapter notwendig sind, desto besser (vor allem sicherer).

mironicus
2022-11-04, 12:42:07
Der neue Netzteilstandard wird erst mal floppen wegen der verschmorten Kabel. :D

user77
2022-11-04, 12:43:37
Das Teil ist kein RTX 4090 Konkurrent, sondern RTX 4080 -> Sieht man auch am Preis.

Performance / Watt gut
(Raster) FPS / Watt gut
RT leider schlecht und kaum (FPS) Verbesserungen gegen RDNA2, bezogen auf die Rohleistung
keine neuen Stecker oder übertriebene Größe (passt auch in mein ITX Gehäuse)
wer kann sich wirklich ne 1700€ Grafikkarte leisten, ich finde es gut, dass AMD ein bisschen weniger Leistung für sehr viel weniger Geld anbietet.

Ich sehe das ähnlich wie LTT -> https://www.youtube.com/watch?v=YSAismB8ju4

][immy
2022-11-04, 12:46:40
Der neue Netzteilstandard wird erst mal floppen wegen der verschmorten Kabel. :D
Das liegt aber weniger an den Kabeln, sondern mehr an den Adaptern wo Mist gebaut wurde. Direkte Anschlüsse vom Netzteil aus, sollten für gewöhnlich kein Problem darstellen.

Mich erschreckt dabei eher, in was für Verbrauchswelten man da rein kommt. 2x8 Pin halte ich schon für vollkommen übertrieben. Aber das ist halt nur meine persönliche Meinung. Nvidia ist mit der RTX 40x0 Serie halt deutlich über dem was ich als Akzeptabel ansehen würde. Gigantischer Chip und ausgereizt bis zum geht nicht mehr. Und scheinbar einige Peaks zwischendurch so das auch etwas schwächere Netzteile nicht mit kommen, selbst wenn man den Verbrauch runter reguliert.


Interessant finde ich die neue Infinity-Cache "generation". Mit 5,3TB/s (Cache + RAM) ist das schon ne Hausnummer. Da sollte so schnell keine CU verhungern.

Tesseract
2022-11-04, 12:46:48
Also kann man zum voraussichtlichen Fazit kommen, dass AMD mit der RX7000 Serie einen cleveren Zwischenschritt geht.

daran ist überhaupt nix clever. RDNA3 ist bereits die zweite generation bei der RT ein checklistenfeature mit sehr beschränkter nutzbarkeit ist. wie man sich das schönreden kann ist mir ein rätsel.

Nakai
2022-11-04, 12:51:00
[immy;13158448']Mich wundert ein wenig das man nicht den neuen Stromanschluss nutzt. Für so eine Änderung hätte es eigentlich schon zu spät sein müssen. Aus sicht der Kompatibilität ist das natürlich zu begrüßen, bis sich entsprechende Netzteile durchgesetzt haben. Wobei in dem Preissektor wird ein neues Netzteil wohl keine allzu große Rolle spielen. Und je weniger Adapter notwendig sind, desto besser (vor allem sicherer).

Naja, jeder der ein N21 im PC hatte kann Problemlos auf N31 wechseln. Gilt das auch für die Konkurrenz.

RTX4080 Konkurrenz --> Ja. RV770 reloaded.

Ich finde die Karte gut, aber es gibt wie immer diesen typischen AMD-Beigeschmack: Wieso nicht ein bisschen mehr? Hat man da so sehr aufs Budget geguckt? Für ein paar mehr mm² hätte man mehr CUs verbauen können...so 56 oder so wären doch schön gewesen. Und den Takt ein bisschen reduzieren, damit man das Powerlimit einhält und man hätte die alte NV-Gen beim RT erreicht und beim Raster wäre man auf 4090 Niveau.

robbitop
2022-11-04, 12:51:43
daran ist überhaupt nix clever. RDNA3 ist bereits die zweite generation bei der RT ein checklistenfeature mit sehr beschränkter nutzbarkeit ist. wie man sich das schönreden kann ist mir ein rätsel.

Extrem kurzsichtig und reaktiv ist das. Selbst Intel hat diesen Aspekt bei XeHPG deutlich weitsichtiger ausgelegt. Und die uArch war schon Anfang 2022 bereit.

dargo
2022-11-04, 12:51:48
Lisa hat gestern sicherlich noch nicht alles erzählt. Mir fallen nämlich ein paar Dinge sehr merkwürdig auf:

Wieso soll eine 7900XT nur 10% billiger als die 7900XTX sein, wenn sie fast 30% weniger leistet und 33% weniger Speicher hat? Das macht doch 0,0 Sinn?
Wann war der Salvage bei AMD ganze 30% langsamer? Ich kann mich da nicht mehr dran erinnern. Es gab überhaupt keine Perfromanceprognosen von AMD zur 7900XT. Die 7900XTX hat 20% mehr WGPs als die 7900XT + etwas mehr Takt. Ich denke erstere wird nicht mal 20% schneller sein oder ganz knapp. Tippe auf +15-20%.

Slipknot79
2022-11-04, 12:55:57
Nicht nur den Tweet, Greymon hat seinen ganzen Twitter-Account gelöscht ;D


War wohl Vertragsbestandteil mit AMD. (y)

vinacis_vivids
2022-11-04, 13:02:12
https://twitter.com/harukaze5719/status/1588322331134283776/photo/4
Metro Exodus Ray-Tacing High estimate AMD & Igors-Lab.
https://abload.de/img/fgraodruuaa76fi1ef4i.png

Cyberpunk 2077 4K
https://abload.de/img/fgranmxuyaatukl46ccu.png

Watch Dogs Legion 4K
https://abload.de/img/fgrameruyaefutepdenq.png

nordic_pegasus
2022-11-04, 13:02:44
Die 7900XTX hat 20% mehr WGPs als die 7900XT + etwas mehr Takt. Ich denke erstere wird nicht mal 20% schneller sein oder ganz knapp. Tippe auf +15-20%.

7900XT hat 42 WGPs, die 7900XTX hat 48 WGPs. Bei mir entsprechen 6 WGPs einer Steigerung von 14,2% (einem Siebtel). Dazu etwas mehr Takt. Da passen doch Deine +15-20% ganz gut.

Nightspider
2022-11-04, 13:05:59
Es gab auch schon riesen GPUs für unter 1000 USD. IMO ist da auch eine Menge Finanzierung von Yachten und Ferraris dabei.
Außerdem hätte man ja optional eine SKU darüber machen können. Gibt vielleicht nicht mehr viele Millionen Käufer aber einen Haloeffekt bringt das schon.

Und aller allerwenigstens hätte man im Jahr 2022 (fast bald schon 2023..) was an der RT Performance machen müssen.

Volle Zustimmung.

Ich hoffe das allgemein im GPU Markt wenig Grafikkarten in den teuren Segmenten die nächsten 2 Jahre verkauft werden.

Es ist einfach unschön wohin die Preisregionen sich entwickeln.

Für die 1080ti hatte ich damals 610 Euro bezahlt und durch einen Ebay Rabatt Code effektiv sogar nur 560 Euro gezahlt.
Und die Karte war jahrelang toll, sogar gegen die 2080 Serie sah die 1080ti noch toll aus jahrelang.

Okay - man muss auch zugeben, das wir mittlerweile auf einem sehr hohen Niveau leben mit flüssign 4K.

Aber für noch brachialere Grafik à la Unreal Engine 5 Matrix Demo braucht es halt wieder viel Rohleistung.

Ich würde mir wirklich wünschen - und ich weiß, dass das wahrscheinlich nicht kommen wird - das AMD nach einem Jahr noch ein midlife Kicker mit einem 400mm² GCD in TSMC N4P bringen wird.


Bei der schwachen RT Leistung halte ich eine Playstation 5 Pro nun für noch unwahrscheinlicher. Da hat sich bei der Effizienz zu wenig getan von N7 auf N5. Was rauskam ist fast schon das "Minimum". 30% durch den Node und 20% durch die Architektur meiner Einschätzung nach.

Matrix316
2022-11-04, 13:06:03
Darf ich mal erinnern, dass die RTX 3090 beim Erscheinen in 4K gerade mal ~ 30% schneller war als die 2080TI? Und hatte ~ 250 € mehr UVP oder so. https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/2/#abschnitt_benchmarks_in_3840__2160

Die 2080TI war auch nur so 35% schneller in 4K als die 1080TI und hatte fast 300~400 € mehr UVP oder? https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/

Dass die 4090 jetzt so ultra schnell ist - ist ja jetzt schon eine Anomalie, weil die Top Karten nie sooo viel schneller waren.

Die 7900XTX ist angeblich 50~70% schneller als die 6950XT. Zum gleichen Preis quasi.

Was wird hier gemeckert?

Iscaran
2022-11-04, 13:10:46
Ein paar Punkte aber:
- Dual-Issue SIMDs, mehr SIMDs aber keine Registerbandbreite --> wieso?!


da ich nur den RDNA3-Artikel auf anandtech überflogen habe Danke für den Hinweis, wirklich interessanter Artikel zu RDNA 3 und den bisher bekannten "facts":
Anandtechs Review (https://www.anandtech.com/show/17638/amd-reveals-radeon-rx-7900-xtx-and-7900-xt-first-rdna-3-parts-to-hit-shelves-in-december)

AMD is accomplishing this not by doubling up on the Dual Compute Units, but instead by giving the Dual Compute Units the ability to dual-issue instructions. In short, each SIMD lane can now execute up to two instructions per cycle.

Das klingt für mich eher nach einer Art "Hyper-Threading" der SIMDs in den WGPs (Dual-Compute Units).

Würde bedeuten, man hat hier womöglich gar nicht ECHTE 2x FP32 Einheiten verbaut, sondern "nutzt" hier eben "Hyper-Threading" um die Auslastung innerhalb der Units hochzuhalten.

Das würde dann auch den "niedrigen" Takt irgendwie besser erklären.

Bei RDNA 2 und seinem hohen Takt sind evtl. viele Taktzyklen "Leerlauf" drin.
Hier dank Dual-Issue ("Hyperthreading") eben nicht mehr so viele.

Müsst man mal überlegen wie man das "quantifizieren" kann.

Evtl. müsste man mal eine Rechnung aufstellen mit 6.144 Shadern und 6.144 "dual-issue" Shadern (ähnlich wie bei Amperes INT/FP splitting, wo die Shader ja auch nur 1-x an Leistung bringen).

Nehme ich mal ähnlich zu Ampere an, dass die 6.144 "Dual-Issue" Shader nur zu bestenfalls 65% Effekt bringen (bei Ampere hat man ja ca 35% "INT"-Auslastung welche FP wegnimmt).
Käme RDNA 3 auf "nur" ~41TFlops an effektiven FP.

Aber der "Architektur"-Leistungswert stiege damit von ca 107 Gflops/Index auf ~73GFlops/Index. Das liegt nur wesentlich schlechter als RDNA 2 mit ~63 GFlops/Index.

Hmmm - ich warte schon aufs Whitepaper oder eine ISA Veröffentlichung von AMD. Irgendwie glaube ich "verstehen" wir die GPU noch komplett falsch.

kann es sein, dass RT bei RDNA3 "noch nicht richtig" funktioniert, da das aufgrund der Hardware-Änderungen erst "programmiert" werden muss und die bisherigen Spiele nur den RDNA2 Pfad benutzen?

Hmmm, zumindest in RT scheinen ja die AI-Cores noch gar nicht zum Einsatz gekommen zu sein in den bisherigen Benchmarks, irgendwie denke ich kommt das erst mit FSR3.0 (bzw. benötigt eben eine Anpassung der Softwares (Game Engines) um das auch zu nutzen.

=> Die RT-Performance KÖNNTE also nochmal massiv steigen (+50%?).

Fazit: Rasterleistung ist wirklich sehr gut, bedenkt man wie klein der Chip ist und wie überraschend niedrig der Takt. Preis ist dafür auch extrem gut, sogar niedrigere MSRP als 6900 XT !

Dino-Fossil
2022-11-04, 13:12:36
daran ist überhaupt nix clever. RDNA3 ist bereits die zweite generation bei der RT ein checklistenfeature mit sehr beschränkter nutzbarkeit ist. wie man sich das schönreden kann ist mir ein rätsel.

Dann gilt das aber auch für alle nVidia-Karten vor Ada (und auch dort evtl. nur für 4090+4080).

Nicht falsch verstehen, überzeugend finde ich den verhaltenen RT-Fortschritt auch nicht, aber man wird wohl zumindest auf dem Niveau von Ampere landen.

dargo
2022-11-04, 13:16:11
7900XT hat 42 WGPs, die 7900XTX hat 48 WGPs. Bei mir entsprechen 6 WGPs einer Steigerung von 14,2% (einem Siebtel). Dazu etwas mehr Takt. Da passen doch Deine +15-20% ganz gut.
Ops... bin von 40WGPs ausgegangen. In dem Fall wird es noch unwahrscheinlicher dass 7900XTX 20% schneller als die 7900XT sein wird.

gruntzmaker
2022-11-04, 13:17:18
daran ist überhaupt nix clever. RDNA3 ist bereits die zweite generation bei der RT ein checklistenfeature mit sehr beschränkter nutzbarkeit ist. wie man sich das schönreden kann ist mir ein rätsel.

Ampere hat also Raytracing nur als Checklisten Feature und es ist darauf nur beschränkt nutzbar? Denn die Performance über die wir hier bei RX7000 reden ist doch nahezu gleich, oder nicht? Und beide Karten kosten auch noch nahezu dasselbe.

AMD ist eine Generation in Sachen RT hintendran, ja das mag sein. Aber hier nimmt doch bitte niemand an, dass RT in zwei Jahren Mal eben zum Standardfeature wird?

Nightspider
2022-11-04, 13:18:14
Witzbold... was haben die Fertigungsprozesse damals gekostet? Und wieviel Vram wurde damals verbaut? :rolleyes:

Ein Zen4 Chiplet kostet bei ~72?mm² 20,3 Dollar. Da wird ein um ~~Faktor 4,3 größerer GCD vielleicht auf Grund der Yields bis zu Faktor 5 teurer sein.

Sind rund 90 bis 100 Dollar für ein Navi31 GCD. Die MCDs kosten geschätzt nochmal 45 bis 55 Dollar.

Da ist die Marge schon hoch genug. Immerhin muss von dem Gewinn noch die Entwicklung von CDNA querfinanziert werden.

Und da liegt wohl auch AMDs Hauptaugenmerk: Datacenter. ;)


Der Verkaufspreis hat wenig mit den gestiegenen Fertigungskosten zu tun.

Während die Nodes teurer wurden wurde Nvidia immer reicher.
Guck dir Nvidias Aktie hat. Da haben die Gamer die ganzen Tegra und Automotive Fehlschläge jahrelang mitbezahlt.
Zum Glück wird das jetzt eher durch Datacenter finanziert bei Nvidia.

Daredevil
2022-11-04, 13:18:17
Die 7900XT säuft auch 50w weniger. Wenn man die auf 350w bringt nähert sich das ganze bestimmt noch mal ne Ecke mehr, ähnlich wie bei ner Vega56/64?

Cubitus
2022-11-04, 13:18:59
https://twitter.com/harukaze5719/status/1588322331134283776/photo/4
Metro Exodus Ray-Tacing High estimate AMD & Igors-Lab.
https://abload.de/img/fgraodruuaa76fi1ef4i.png

Cyberpunk 2077 4K
https://abload.de/img/fgranmxuyaatukl46ccu.png

Watch Dogs Legion 4K
https://abload.de/img/fgrameruyaefutepdenq.png

Metro Exodus mit RT da kommt mir das Ergebnis ziemlich schwach vor.
Die 4090 kann da mehr.

Birdman
2022-11-04, 13:20:09
Basierend auf den "Versprechungen" der AMD Forentrolle hier, ist die 7900XT/XTX tatsächlich ein Flop und die grösste Enttäuschung seit langem...erreicht sie doch mit Mühe und Not und in ausgesuchten Benchmarks vielleicht die hälfte der Performance welche hier von diesen Experten vorausgesagt wurde.

In der Praxis wird es dann aber doch so aussehen, dass die 7900XT/XTX dann auf einmal golden zu glänzen beginnt, sobald nVidia die 4080er Kröten auf den Marks loslässt und jedem bewusst wird dass die nVidia "Mainstream" (lol, weil immernoch 1xxx Euro) Karten bei der Performance und wohl auch Perf/Watt eben auch gnadenlos abstinken...
Die 7900XT/XTX sieht aktuell nur so mau aus, weil alles gegen die 4090 vergleichen wird, die aber halt so massiv viel schneller ist als alles andere was da noch kommt - eben auch das von Team grün.

aufkrawall
2022-11-04, 13:21:17
AMD ist eine Generation in Sachen RT hintendran, ja das mag sein. Aber hier nimmt doch bitte niemand an, dass RT in zwei Jahren Mal eben zum Standardfeature wird?
Schon wieder so ein Hintertürchen über einen Begriff wie "Standardfeature". Es gibt seit 2019 Spiele mit RT, wo es einen deutlichen Mehrwert darstellt. Alles andere ist einfach Realitätsverbiegung, weil nicht wahr sein kann, was nicht wahr sein darf...

Th3o
2022-11-04, 13:22:33
Die 7900XT/XTX sieht aktuell nur so mau aus, weil alles gegen die 4090 vergleichen wird, die aber halt so massiv viel schneller ist als alles andere was da noch kommt - eben auch das von Team grün.
Und wesentlich weniger kosten als eine 4090.

Nightspider
2022-11-04, 13:23:27
Und so teuer ist VRAM IIRC auch nicht. ~10 USD pro GB. Also in Summe etwa ~240 USD für den RAM. Aber bisherige Karten hatten ja nicht null RAM.

Ist GDDR6 überhaupt noch so teuer?

Man ließt ja überall das Speicherpreise an den Börsen ins Bodenlose fallen, zumindest bei NAND und DRAM.

dargo
2022-11-04, 13:25:25
Schon wieder so ein Hintertürchen über einen Begriff wie "Standardfeature". Es gibt seit 2019 Spiele mit RT, wo es einen deutlichen Mehrwert darstellt. Alles andere ist einfach Realitätsverbiegung, weil nicht wahr sein kann, was nicht wahr sein darf...
Nicht schlimm... laut Tesseract ist eh nichts mit einer 3090 + RT spielbar. Da brauchst du mit der poppeligen 3060 erst gar nicht ankommen.

robbitop
2022-11-04, 13:26:06
Ist GDDR6 überhaupt noch so teuer?

Man ließt ja überall das Speicherpreise an den Börsen ins Bodenlose fallen, zumindest bei NAND und DRAM.
Naja die Geschwindigkeit der Module steigt ja im Gegenzug. Die alten langsameren GDDR6 Bausteine sind bestimmt billiger.

-------------

Dual Issue heißt nicht Hyperthreading. Man kann tatsächlich zwei Instruktionen absetzen anstatt einer. Aber das wird an bestimmte Randbedingungen und Engpässe gekoppelt sein. Sonst würde man mehr auf die Straße bringen.

Tesseract
2022-11-04, 13:27:38
Dann gilt das aber auch für alle nVidia-Karten vor Ada (und auch dort evtl. nur für 4090+4080).

nein. mit der kombination RT+DLSS2 war eine ganze reihe spiele ab etwa einer ~2080 zumindest bis 1440p durchaus spielbar. das war ein stimmiges konzept mit realem nutzen. bei AMD spielt die nutzbarkeit so gut wie keine rolle - war auf den shadern :freak: nicht nutzbar, war auf RDNA2 quasi nicht nutzbar (schon garnicht in der zeit vor FSR2) und lässt sich auf RDNA3 offensichtlich gerade mal so roher gewalt mit mehreren fußnoten erschlagen.

aufkrawall
2022-11-04, 13:29:20
Nicht schlimm... laut Tesseract ist eh nichts mit einer 3090 + RT spielbar. Da brauchst du mit der poppeligen 3060 erst gar nicht ankommen.
Tja, wenn ich dann >1000€ für eine 7900 XT ausgebe, und in DL2 trotzdem nur +60-70% mehr Performance bekomme, wäre das wirklich kein gutes Upgrade.

dargo
2022-11-04, 13:29:26
nein. mit der kombination RT+DLSS2 war eine ganze reihe spiele ab etwa einer ~2080 zumindest bis 1440p durchaus spielbar. das war ein stimmiges konzept mit realem nutzen. bei AMD spielt die nutzbarkeit so gut wie keine rolle - war auf den shadern :freak: nicht nutzbar, war auf RDNA2 quasi nicht nutzbar (schon garnicht in der zeit vor FSR2) und lässt sich auf RDNA3 offensichtlich gerade mal so roher gewalt mit mehreren fußnoten erschlagen.
Erzähl uns noch mehr Märchen. :lol:

Tja, wenn ich dann >1000€ für eine 7900 XT ausgebe, und in DL2 trotzdem nur +60-70% mehr Performance bekomme, wäre das wirklich kein gutes Upgrade.
Kein Problem... die 4090 kriegst du gerade ab 2.300€, warum greifst du nicht zu?

nordic_pegasus
2022-11-04, 13:30:22
kann mir jemand erklären, warum AMD wieder so knapp vor Weihnachten launcht. Die 6900XT ist damals auch 8.12. erst in den Handel gekommen, jetzt sogar erst der 13.12. Mit den aktuellen Problemen in der Logistik ist doch der Shitstorm, dass die Karten nicht rechtzeitig zu den Feiertagen ankommen, vorprogrammiert.

Abgesehen davon dass Nutzer von Custom-Waküs dann noch krampfhaft bei EK mit Express-Zuschlag bestellen dürfen, wenn man die Karte über die Feiertage mit Wakü in Betrieb nehmen will. Die Blöcke für die Referenz-Karten sollen ab dem 19.12. geliefert werden.

aufkrawall
2022-11-04, 13:31:10
Erzähl uns noch mehr Märchen. :lol:
Sind denn mal die Frame Times in Doom Eternal mit RT auf AMD mit schnellen Drehungen gefixt? Die waren nämlich zum Testzeitpunkt ziemlicher Schrott mit der 6900 XT vs. die 3060.

Der_Korken
2022-11-04, 13:32:44
Nochmal: AD103 ist ein vollständiger Chip bei 378mm^2. Der Compute-Teil liegt deutlich unter 300mm^2.

Wen interessiert das? N31 hat 6 Links, um die MCDs anzubinden und die kosten auch Fläche. N21 hatte sehr viel weniger Compute-Fläche als GA102, weil da noch tonnenweise Cache auf dem Die war. Und? Was zählt ist die Gesamtfläche btw. die Kosten des Gesamtkonstrukts.

Das klingt für mich eher nach einer Art "Hyper-Threading" der SIMDs in den WGPs (Dual-Compute Units).

Würde bedeuten, man hat hier womöglich gar nicht ECHTE 2x FP32 Einheiten verbaut, sondern "nutzt" hier eben "Hyper-Threading" um die Auslastung innerhalb der Units hochzuhalten.

Das wäre aber eine ziemliche Mogelpackung, da Lisa Su herself von 60TFlops/s sprach. Die erreicht man nur, wenn die neuen CUs auch in irgendeiner Form einen verdoppelten Durchsatz haben, sonst wären es schlicht nur 30TFlops/s.

Ampere hat also Raytracing nur als Checklisten Feature und es ist darauf nur beschränkt nutzbar? Denn die Performance über die wir hier bei RX7000 reden ist doch nahezu gleich, oder nicht? Und beide Karten kosten auch noch nahezu dasselbe.

Nein, AMD ist bei der technischen Umsetzung von Raytracing deutlich hinter Nvidia. Ob N31 überhaupt die RT-Performance von GA102 schafft, muss erst noch gezeigt werden und selbst wenn, muss man das in Relation setzen zum nötigen Aufwand. N31 hat doppelt so viele Transistoren wie GA102, benutzt eine deutlich bessere Fertigung und von dieser auch nicht wenig Fläche (ja GA102 ist größer, aber eben im alten 8nm-Prozess von Samsung). Auch der Verbrauch wäre nicht gerade überragend, wenn man mal die 3090 mit ebenfalls 350W heranzieht, die in RT kaum langsamer sein dürfte - ebenfalls wieder mit 8nm vs 5nm gerechnet. Den technischen Stand von RT sieht man am relativen Einbruch gegenüber der reinen Rasterizer-Lösung. Da stehen Turing, Ampere (Ada sowieso) und auch Intels Alchemist deutlich besser da als RDNA2. Und auch als RDNA3, sofern man AMDs Zahlen aus der Präsi heranzieht.

basix
2022-11-04, 13:36:34
nein. mit der kombination RT+DLSS2 war eine ganze reihe spiele ab etwa einer ~2080 zumindest bis 1440p durchaus spielbar. das war ein stimmiges konzept mit realem nutzen. bei AMD spielt die nutzbarkeit so gut wie keine rolle - war auf den shadern :freak: nicht nutzbar, war auf RDNA2 quasi nicht nutzbar (schon garnicht in der zeit vor FSR2) und lässt sich auf RDNA3 offensichtlich gerade mal so roher gewalt mit mehreren fußnoten erschlagen.

Als ob man nur noch mit einer 4090 und maximierten Einstellungen in 4K ein Spiel spielen könnte....

Eine 7900XT wird auch ohne DLSS mit RT so schnell oder gar schneller als eine 2080 mit DLSS sein. In 1440p ist eh nur DLSS-Q brauchbar und da liegen verglichen mit nativ +50...80% Performance drin. Eine 3090 ist locker so viel schneller in RT und bei den 8GB der 2080 wird je nach Spiel sogar der Speicher eng.

Bei vielen neueren Spielen mit RDNA2 Optimierung und wenn FSR2 verfügbar ist, erübrigt sich dieser Punkt sowieso. Da wird eine 7900XT deutlich schneller als eine 2080 sein. Egal ob die 2080 nun DLSS nutzt oder nicht.

Wenn es also mit der 2080+DLSS spielbar war, wird es auch mit der 7900XT spielbar sein ;)

Und bei richtig gut aussehenden RT-Implementationen (UE5, Unity Enemies Demo) ist RDNA2 nur leicht hinter Nvidia zurück. Ich sehe das Problem hinsichtlich der Nutzbarkeit also nicht. Nvidia liefert obenrum einfach nochmals deutlich mehr Performance und hat bei einigen älteren Spielen DLSS als Bonus. OK, gut. Solange du aber nicht in 4K spielst (die meisten sollen ja noch in 1440 spielen...) stemmt die 7900XT vermutlich alles, was man ihr vorwirft. Und wie gesagt, in neueren Implementationen wird es auch für 4K reichen. Und wenn das für dich immer noch nicht reicht: RT -1x Setting zurückschalten hilft meistens enorm, mit minimalen Qualitätseinbussen.

fondness
2022-11-04, 13:36:51
Die RT Performance wird auf jeden Fall noch näher zu untersuchen sein. Immerhin sprach AMD doch von erheblichen Verbesserungen:

Die Raytracing-Einheit in den Compute Units wechselt bei RDNA 3 in die dritte Generation und soll gegenüber RDNA 2 50 Prozent mehr Strahlen pro Takt berechnen können. Darüber hinaus gibt es neue Instruktionen sowie ein verbessertes Ray Box Sorting sowie Ray Traversal, während die BVH-Struktur anscheinend immer noch nicht wie bei Nvidia von der RT-Einheit, sondern über die FP32-ALUs beschleunigt wird. Auch in diesem Punkt sind aber mehr Details notwendig.

https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/

Warum genau sich das nicht auswirken soll in den Benchmarks ist zumindest seltsam. Aber nachdem was man bis dato weiß wird die RT Performance wohl grob auf 3090Ti Niveau liegen, ohne RT liegt man eher 50% über der 3090 Ti. Also ein deutlich stärkerer Abfall mit RT. Das ist schon ziemlich schade für eine neue Architektur, aber deshalb ist die Karte natürlich nicht unbenutzbar.

user77
2022-11-04, 13:36:51
Darf ich mal erinnern, dass die RTX 3090 beim Erscheinen in 4K gerade mal ~ 30% schneller war als die 2080TI? Und hatte ~ 250 € mehr UVP oder so. https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/2/#abschnitt_benchmarks_in_3840__2160

Die 2080TI war auch nur so 35% schneller in 4K als die 1080TI und hatte fast 300~400 € mehr UVP oder? https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/

Dass die 4090 jetzt so ultra schnell ist - ist ja jetzt schon eine Anomalie, weil die Top Karten nie sooo viel schneller waren.

Die 7900XTX ist angeblich 50~70% schneller als die 6950XT. Zum gleichen Preis quasi.

Was wird hier gemeckert?


guter Post! :eek:


die 4090 ist ca. 70% schneller als die 3090 Ti und kostet aber auch 66% mehr P/L nicht wirklich besser...

https://geizhals.at/?cat=gra16_512&xf=9816_03+05+16+-+RTX+3090+Ti&asuch=&bpmin=&bpmax=&v=k&hloc=at&hloc=de&plz=&dist=&sort=p&bl1_id=30 1380€

https://geizhals.at/?cat=gra16_512&xf=10825_01+-+GeForce~9816_03+05+17+-+RTX+4090&asuch=&bpmin=&bpmax=&v=k&hloc=at&hloc=de&plz=&dist=&sort=p&bl1_id=30 2300€

wenn die 7900xtx 60% schneller als die 6900xt (nicht 6950xt) ist, aber nur 25% teurerer (100€ angenommen), ist das ein Win! :freak:

https://geizhals.at/?cat=gra16_512&xf=9816_02+04+12+-+RX+6900+XT&asuch=&bpmin=&bpmax=&v=k&hloc=at&hloc=de&plz=&dist=&sort=p&bl1_id=30 805€

Mortalvision
2022-11-04, 13:39:32
kann mir jemand erklären, warum AMD wieder so knapp vor Weihnachten launcht. Die 6900XT ist damals auch 8.12. erst in den Handel gekommen, jetzt sogar erst der 13.12. Mit den aktuellen Problemen in der Logistik ist doch der Shitstorm, dass die Karten nicht rechtzeitig zu den Feiertagen ankommen, vorprogrammiert.

Abgesehen davon dass Nutzer von Custom-Waküs dann noch krampfhaft bei EK mit Express-Zuschlag bestellen dürfen, wenn man die Karte über die Feiertage mit Wakü in Betrieb nehmen will. Die Blöcke für die Referenz-Karten sollen ab dem 19.12. geliefert werden.

Die Karten kommen aus Taiwan und wir sind aktuell in einer abflauenden Phase der Corona-Krise. Wird schon ;)

DrFreaK666
2022-11-04, 13:39:33
...Was wird hier gemeckert?

Es wird gemeckert, dass eine 999$ Karte langsamer ist als eine 1599$ Karte :ugly:

dildo4u
2022-11-04, 13:40:03
Die RT Performance wird auf jeden Fall noch näher zu untersuchen sein. Immerhin sprach AMD doch von erheblichen Verbesserungen:



https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/

Warum genau sich das nicht auswirken soll in den Benchmarks ist zumindest seltsam. Aber nachdem was man bis dato weiß wird die RT Performance wohl grob auf 3090Ti Niveau liegen, ohne RT liegt man eher 50% über der 3090 Ti.
Nvidia hat auch deutlich besser RT Performance aber nur wenn die Games dran angepasst werden das könnte hier das Selbe sein.

HOT
2022-11-04, 13:40:24
I have thoughts: :biggrin:

1.) AMD hat keine Perspektiven im normalen Markt ohne Mining über 1000$, von daher kosten sie auch nicht über 1000$.
2.) Das Design ist konsequent auf Kosteneffizienz ausgelegt. Die Chipkosten steigen exponentiell mit der Größe, wenn man über 300mm² geht. Die 5 oder 6 37mm² MCDs sind von den Kosten her ziemlich irrelevant, daher ist das zusammenzählen als Kostenfaktor auch totaler Unsinn. Es ging schlichtweg darum Marge zu erzielen, wenn man ein Preislimit hat, das bei 1000$ liegt. Nichts anderes war der Grund für den Chiplet-Ansatz.
3.) RT ist genau so wie es sein sollte würde ich sagen. Man muss bedenken, dass der AD102 sicherlich 70-80% mehr Rohleistung hat als N31. Ich würde die "RT-Schwäche" hier verorten. Mehr Hardware hätte vermutlich wenig Sinn ergeben, wenn man in der Shaderleistung eh mehr eingeschränkt ist als beim AD102. Bei der Rohleistungsverwertung beim Rasterizing ist AD102 unglaublich schlecht.
4.) Die Chipgröße sollte nun mal so klein wie möglich ausfallen, also hat man sicherlich der Packdichte mehr Priorität eingeräumt als dem Takt. Daher sind diese ganzen OC-Erwartungen mMn für die Katz. Der Chip wird kaum mehr schaffen mMn, der ist für diese Taktraten optimiert. Dafür ist der Chip eben billiger (und wenn man noch mehr Strom sparen möchte wahrscheinlich nach unten hin auch sparsamer, gut für Notebooks).

Tesseract
2022-11-04, 13:41:16
Wenn es also mit der 2080+DLSS spielbar war, wird es auch mit der 7900XT spielbar sein ;)

natürlich, aber das ist der stand von vor ein paar jahren. anforderungen der spiele steigen und anforderungen der user an auflösungen usw. steigen. spätestens von RDNA2 auf 3 hätte ein gewaltiger RT-sprung relativ zu raster kommen müssen. für 2022 ist das was AMD in den folien zeigt peinlich.

user77
2022-11-04, 13:42:24
Es wird gemeckert, dass eine 999$ Karte langsamer ist als eine 1599$ Karte :ugly:

Und am meisten von Leuten, die sich sowieso keine >1000€ Karte kaufen :freak::biggrin::wink:

aufkrawall
2022-11-04, 13:43:37
Und? Wenn man sieht, was eine ähnlich teure 2080 Ti in RT vor vier Jahren rausgehauen hat...

vinacis_vivids
2022-11-04, 13:44:38
Die Packdichte bei N31 ist extrem geil.

N31: 522mm² - 58,0 MrdTr. -> 111,11 MioTr / mm²
N21: 520mm² - 26,8 MrdTr. -> 51,53 MioTr / mm²

AD102: 608mm² - 76,3 MrdTr. -> 125,49 MioTr / mm²

Trotz der deutlich günstigeren Fertigung ist AMD sehr nah dran an NV und hat eine deutlich bessere Ausbeute.

DAS ist eine wahre Meisterleistung von Ingenieuren von AMD. Mit 300-355W extrem effizient. Satter Speicher mit 20/24GB. Insgesamt geile Leistung (bis auf paar NV-Sponsor Demos). Mit dem MCM-Konzept wird sich AMD auf langer Sicht klar durchsetzen. Mit der hohen Ausbeute kann AMD richtig viele bezahlbare Chips auf dem Markt werfen und eine ganze Gaming-Generation auf ein höheres Qualitätslevel heben.

Dass das hier den Grünen Jensen-Jünger nicht schmeckt war ja klar, die müssen 2500€ blechen damit die NV-Demos halbwegs laufen. :->

Je länger ich nachdenke, desto geiler ist AMD RDNA3. Die Zeichen stehen alle auf: KAUFEN, KAUFEN, KAUFEN. Dass Lisa Su so geil gegrinst hat, einfach genial.

Mit 3xpin ~ 525W Customs kommen auch OC-Freaks voll auf ihre Kosten. BruteForce RDNA3 fährt da nochmals die Flügel raus.

Das Feature-Set von RDNA3 ist ebenfalls geil und richtig durchdacht. Die AI-Cores, RT-CUs, FRS 3.0 muss natürlich alles auch entwickelt werden, die Grundlagenbasis auf Hardwarebene ist da. Display I/O top-notch. Hohe fps + hohe Auflösungen. AMD macht alles richtig, indem man sich auf die eigenen Stärken besinnt, konzentriert und technisch sehr solide liefert.

Bin begeistert von RDNA3 ähnlich wie bei Zen1 und prognostiziere AMD eine goldene Zukunft.

DrFreaK666
2022-11-04, 13:54:58
Und? Wenn man sieht, was eine ähnlich teure 2080 Ti in RT vor vier Jahren rausgehauen hat...

3070 Niveau, das ist bekannt

gruntzmaker
2022-11-04, 13:55:38
Die Packdichte bei N31 ist extrem geil.

N31: 522mm² - 58,0 MrdTr. -> 111,11 MioTr / mm²
N21: 520mm² - 26,8 MrdTr. -> 51,53 MioTr / mm²

AD102: 608mm² - 76,3 MrdTr. -> 125,49 MioTr / mm²

Trotz der deutlich günstigeren Fertigung ist AMD sehr nah dran an NV und hat eine deutlich bessere Ausbeute.

DAS ist eine wahre Meisterleistung von Ingenieuren von AMD. Mit 300-355W extrem effizient. Satter Speicher mit 20/24GB. Insgesamt geile Leistung (bis auf paar NV-Sponsor Demos). Mit dem MCM-Konzept wird sich AMD auf langer Sicht klar durchsetzen. Mit der hohen Ausbeute kann AMD richtig viele bezahlbare Chips auf dem Markt werfen und eine ganze Gaming-Generation auf ein höheres Qualitätslevel heben.

Dass das hier den Grünen Jensen-Jünger nicht schmeckt war ja klar, die müssen 2500€ blechen damit die NV-Demos halbwegs laufen. :->

Je länger ich nachdenke, desto geiler ist AMD RDNA3. Die Zeichen stehen alle auf: KAUFEN, KAUFEN, KAUFEN. Dass Lisa Su so geil gegrinst hat, einfach genial.

Mit 3xpin ~ 525W Customs kommen auch OC-Freaks voll auf ihre Kosten. BruteForce RDNA3 fährt da nochmals die Flügel raus.

Das Feature-Set von RDNA3 ist ebenfalls geil und richtig durchdacht. Die AI-Cores, RT-CUs, FRS 3.0 muss natürlich alles auch entwickelt werden, die Grundlagenbasis auf Hardwarebene ist da. Display I/O top-notch. Hohe fps + hohe Auflösungen. AMD macht alles richtig, indem man sich auf die eigenen Stärken besinnt, konzentriert und technisch sehr solide liefert.

Bin begeistert von RDNA3 ähnlich wie bei Zen1 und prognostiziere AMD eine goldene Zukunft.

So überzeichnet sehe ich es nicht ganz, aber das Genörgel über RX7000 kann ich auch nicht mehr nachvollziehen.

Der Preis stimmt und die Architektur hat doch noch Spielraum für mehr Takt. Warten wir mal die Tests ab :).

basix
2022-11-04, 13:57:46
natürlich, aber das ist der stand von vor ein paar jahren. anforderungen der spiele steigen und anforderungen der user an auflösungen usw. steigen. spätestens von RDNA2 auf 3 hätte ein gewaltiger RT-sprung relativ zu raster kommen müssen. für 2022 ist das was AMD in den folien zeigt peinlich.

Natürlich bewegt sich die Welt weiter. Aber bei vielen neueren Implementationen ist RDNA2 gar nicht so schlecht unterwegs. Insbesondere bei den Next-Gen Engines von Epic und Unity läuft auch RDNA2 wunderbar. Nur bei extremen RT-Settings, wo selbst ich mit der Lupe die Unterschiede suchen muss, dann ziehen die Nvidia Karten ein wenig davon. Aber es sind dann nicht 2x Performance-Differenz, sondern eher so 20-30% bei sonst vergleichbarer Raster-Performance.

Dass der RT-Sprung nicht gekommen ist, verstehe ich auch nicht. Es ist aber der einzige wirkliche Kritikpunkt an RDNA3, den ich gerade sehe (und bei den grossen Engines ist der Kritikpunkt nochmals deutlich entschärft). Performance und vor allem P/L stimmen ansonsten ja nicht schlecht.

Und wie bereits vor einigen Seiten geschrieben, hat SW ein viel grösseres Potential für Performance-Verbesserungen als es HW könnte:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13157878#post13157878

Deswegen meine Bitte an Spieleentwickler, Engine-Programmierer sowie Intel, AMD und Nvidias Software-Sparten: Denkt euch gute Algorithmen aus, dann wird das was mit qualitativ hochwertigen Realtime-RT ;) Und speziell bei der UE5 sehe ich da hinsichtlich RDNA2/3 Performance keine grossen Bedenken.

Ravenhearth
2022-11-04, 13:57:47
Die RT Performance wird auf jeden Fall noch näher zu untersuchen sein. Immerhin sprach AMD doch von erheblichen Verbesserungen:



https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/

Warum genau sich das nicht auswirken soll in den Benchmarks ist zumindest seltsam. Aber nachdem was man bis dato weiß wird die RT Performance wohl grob auf 3090Ti Niveau liegen, ohne RT liegt man eher 50% über der 3090 Ti. Also ein deutlich stärkerer Abfall mit RT. Das ist schon ziemlich schade für eine neue Architektur, aber deshalb ist die Karte natürlich nicht unbenutzbar.
Ich würde sagen, die Verbesserungen wirken sich aus. Man spricht von bis zu 50% mehr RT-Leistung pro CU, allerdings hat man nur 20% mehr CUs (und somit vermutlich Ray Accelerators). Zusammengenommen macht das +80%, mit dem höheren Takt vielleicht 2x im theoretischen Maximum. In DL2 kommt man mit +85% fps auch relativ nah heran, aber in anderen Spielen schlagen die Verbesserungen nicht so durch. Hätte man gar keine Verbesserungen am RT, hätte man im Prinzip nur die 20% mehr CUs und den Takt, womit man nicht auf die +50-60% käme, die man bei RT im Schnitt sieht. Das Problem ist, dass man die Rasterleistung pro CU ebenfalls gesteigert hat, sodass RT im Verhältnis nicht schneller geworden ist.

DrFreaK666
2022-11-04, 13:57:59
So überzeichnet sehe ich es nicht ganz, aber das Genörgel über RX7000 kann ich auch nicht mehr nachvollziehen.

Der Preis stimmt und die Architektur hat doch noch Spielraum für mehr Takt. Warten wir mal die Tests ab :).

Das Genörgel kommt, weil die 4080 eine starke Konkurrenz hat und die 4070 12GB dagegen ein Witz ist. Die 7900XTX hat dann doppelt so viel Speicher!

nordic_pegasus
2022-11-04, 13:58:34
https://videocardz.com/newz/amd-radeon-rx-7900-gpus-are-designed-to-scale-up-to-3-0-ghz

laut coreteks ist Navi31 mit 2.5GHz schon an der Grenze des machbaren Taktes...

btw.... https://www.mindfactory.de/product_info.php/16GB-PowerColor-Radeon-RX-6950-XT-Red-Devil-16GB-DDR6-Triple-retail_1452953.html

RedDevil 6950XT für 799 EUR, der Abverkauf ist echt hart.

DrFreaK666
2022-11-04, 14:03:53
...
btw.... https://www.mindfactory.de/product_info.php/16GB-PowerColor-Radeon-RX-6950-XT-Red-Devil-16GB-DDR6-Triple-retail_1452953.html

RedDevil 6950XT für 799 EUR, der Abverkauf ist echt hart.

Welcher Abverkauf? Die Karten gibt es immer wieder mal für den Preis. Das ist ja nicht der Standardpreis

Niall
2022-11-04, 14:04:39
RedDevil 6950XT für 899 EUR, der Abverkauf ist echt hart.

;)

why_me
2022-11-04, 14:05:40
Mindstar, dann sinds 799 ;)

fondness
2022-11-04, 14:06:06
natürlich, aber das ist der stand von vor ein paar jahren. anforderungen der spiele steigen und anforderungen der user an auflösungen usw. steigen. spätestens von RDNA2 auf 3 hätte ein gewaltiger RT-sprung relativ zu raster kommen müssen. für 2022 ist das was AMD in den folien zeigt peinlich.

Naja, N31 ist kein AD102 Konkurrent. Weder aus TDP, noch aus Preis, oder aus Die Size / Kosten Sicht. Gegen AD103 sieht das ganze schon wieder ein wenig anders aus. NV hat mit AD102 halt auch mächtig geklotzt und ein 450W Monster im neuesten Prozess geliefert - etwas das es so noch nie gab (und man bei immer teureren Fertigungsprozessen nicht unbedingt erwarten durfte). AMD deckt halt "nur" den Preisbereich bis 999$ ab.

Daredevil
2022-11-04, 14:08:53
Ich glaube wir sind uns einig, das uns eine BigNavi fehlt mit RDNA3. :D
Vielleicht zaubert AMD ja noch was aus dem Hut, aber so richtig glaube ich nicht dran.
Stetig konsistentes Wachstum ist ja das kommunizierte Ziel von AMD und das haben sie seit 3 Generationen mit Bravour abgeliefert.

Nvidia hingegen hat sich eher zu 20-30-70 verleiten lassen, weil sie in den Generationen vorher halt viel mit RT und AI Upsampling gemacht haben.
Das, was AMD jetzt noch vor sich hat bzw. offenbar aktuell so "nebenher" abliefert.
Wenn AMD weiter mit 50-50-50 voran geht, wird das schon gut laufen. Ich glaube nicht, das mach ADA nochmal nen 50-1005 Kracher kommt.

Was passiert, wenn AMD mal über das Ziel hinaus schießt sehen wir gut am 5800X3D.
Der ist so gut, dass Zen4 einfach links liegen gelassen wird bzw. die neue Plattform einfach super unattraktiv ist.
Gäbe es den X3D nicht, würde Zen4 deutlich mehr verkauft werden.

Niall
2022-11-04, 14:14:09
Mindstar, dann sinds 799 ;)

Ah, I see.
Der Link führte auf die reguläre.

sklave_gottes
2022-11-04, 14:14:25
Ich würde sagen, die Verbesserungen wirken sich aus.

Sehr gut zusammengefasst, es gibt beim TopDog nur 96 statt 80 RT Einheiten. Das sind gerade Mal 20% Zuwachs. Der Takt ist kaum/gar nicht gestiegen gegenüber 6950. Also bleiben nur noch die 50% Leistungssteigerungen der RT Einheiten.

Der Hacken liegt eher in der Frage wieso braucht AMD soviele Transistoren? Gefühlt wäre ein doppelter Vorgänger eher schneller gewesen...

basix
2022-11-04, 14:14:57
Ich würde sagen, die Verbesserungen wirken sich aus. Man spricht von bis zu 50% mehr RT-Leistung pro CU, allerdings hat man nur 20% mehr CUs (und somit vermutlich Ray Accelerators). Zusammengenommen macht das +80%, mit dem höheren Takt vielleicht 2x im theoretischen Maximum. In DL2 kommt man mit +85% fps auch relativ nah heran, aber in anderen Spielen schlagen die Verbesserungen nicht so durch. Hätte man gar keine Verbesserungen am RT, hätte man im Prinzip nur die 20% mehr CUs und den Takt, womit man nicht auf die +50-60% käme, die man bei RT im Schnitt sieht. Das Problem ist, dass man die Rasterleistung pro CU ebenfalls gesteigert hat, sodass RT im Verhältnis nicht schneller geworden ist.

Gut erklärt und auf den Punkt gebracht ;)

Was passiert, wenn AMD mal über das Ziel hinaus schießt sehen wir gut am 5800X3D.
Der ist so gut, dass Zen4 einfach links liegen gelassen wird bzw. die neue Plattform einfach super unattraktiv ist.
Gäbe es den X3D nicht, würde Zen4 deutlich mehr verkauft werden.

Das liegt nicht an Zen 4 selbst, sondern am teuren Speicher und den teueren Mainboards. Und obendrauf kommt, dass der 5800X3D einiges günstiger geworden ist. 329$ sind ziemlich gut ;) Von der generell ungemütlichen Weltlage (politisch, finanziell) fange ich noch gar nicht erst an.

Gott1337
2022-11-04, 14:18:18
guter Post! :eek:


die 4090 ist ca. 70% schneller als die 3090 Ti und kostet aber auch 66% mehr P/L nicht wirklich besser...

https://geizhals.at/?cat=gra16_512&xf=9816_03+05+16+-+RTX+3090+Ti&asuch=&bpmin=&bpmax=&v=k&hloc=at&hloc=de&plz=&dist=&sort=p&bl1_id=30 1380€

https://geizhals.at/?cat=gra16_512&xf=10825_01+-+GeForce~9816_03+05+17+-+RTX+4090&asuch=&bpmin=&bpmax=&v=k&hloc=at&hloc=de&plz=&dist=&sort=p&bl1_id=30 2300€

wenn die 7900xtx 60% schneller als die 6900xt (nicht 6950xt) ist, aber nur 25% teurerer (100€ angenommen), ist das ein Win! :freak:

https://geizhals.at/?cat=gra16_512&xf=9816_02+04+12+-+RX+6900+XT&asuch=&bpmin=&bpmax=&v=k&hloc=at&hloc=de&plz=&dist=&sort=p&bl1_id=30 805€komischer Vergleich, die 3090TI hat doch 2000$ gekostet und die 4090 kostet 1600$...

Das waren die Release Preise. Aber auch dieser Vergleich stinkt.
die XTX wird mit ordentlichem Kühler 1300-1400€ kosten, dann siehts nicht mehr so lustig aus wa?

basix
2022-11-04, 14:19:21
die XTX wird mit ordentlichem Kühler 1300-1400€ kosten, dann siehts nicht mehr so lustig aus wa?

Propheten unter uns? Die P/L simmt für die XTX ja auch dann noch verglichen mit den Nvidia Karten. Was ist dein Problem? Das P/L generell nicht genial ist, musst du niemandem erzählen. Das wissen hier alle.

Die meisten wünschen sich lieber etwas gutes im Bereich 300-500$. Und da ist AD104 wohl drüber. Bleibt noch N33 und AD106. Und letzterer wird nicht viel schneller sein als eine 3070. P/L Stagnation vom feinsten (wenn man die Ampere Karte zu dem Preis kaufen konnte).

robbitop
2022-11-04, 14:22:33
Gut erklärt und auf den Punkt gebracht ;)


IMO würde die Erklärung nur Sinn machen, wenn die RT Performance zur Rasterperformance steigt. Tut sie aber zumindest in ersten Benchmarks nicht. Die Rasterperformance steigt ja auch um den gleichen Faktor. Der relative Hit ist der gleiche.

basix
2022-11-04, 14:25:10
IMO würde die Erklärung nur Sinn machen, wenn die RT Performance zur Rasterperformance steigt. Tut sie aber zumindest in ersten Benchmarks nicht. Die Rasterperformance steigt ja auch um den gleichen Faktor. Der relative Hit ist der gleiche.

Seine Erklärung ist schon sinnvoll:
- 2x FP32 * 1.2x CU = 1.6x RZ Performance (Real)
- 1x RA/CU * 1.5x Boost * 1.2x CU = 1.8x RT Performance (Ideal)

Beides ist pro CU in etwa ähnlich gesteigert worden. Passt doch. Und bei RDNA2/3 hängt die RT-Performance nochmals stärker an den Shader-ALUs. Wenn man hier nicht schneller wird (wonach es aussieht), dann limitiert das automatisch auch die RT-Performance.

Dino-Fossil
2022-11-04, 14:29:08
Der Hacken liegt eher in der Frage wieso braucht AMD soviele Transistoren? Gefühlt wäre ein doppelter Vorgänger eher schneller gewesen...

Das ist nur meine unqualifizierte Vorstellung, aber man kann davon ausgehen, dass die AI-Kerne und RT-Verbesserungen nicht umsonst sind, und auch die "dual-issue" SIMDs werden Transistoren gekostet haben.
N21 einfach zu verdoppeln macht vermutlich aus Sicht der Auslastbarkeit (wobei die neuen SIMDs da auch nicht ideal sind), Perf/Watt und weiteren Metriken keinen Sinn.

dargo
2022-11-04, 14:32:03
Sind denn mal die Frame Times in Doom Eternal mit RT auf AMD mit schnellen Drehungen gefixt? Die waren nämlich zum Testzeitpunkt ziemlicher Schrott mit der 6900 XT vs. die 3060.
Alles total smooth hier. Ich hatte das Game aber auch recht spät angefasst. Von daher kenne ich eventuelle Probleme vorher nicht.

Achill
2022-11-04, 14:35:02
natürlich, aber das ist der stand von vor ein paar jahren. anforderungen der spiele steigen und anforderungen der user an auflösungen usw. steigen. spätestens von RDNA2 auf 3 hätte ein gewaltiger RT-sprung relativ zu raster kommen müssen. für 2022 ist das was AMD in den folien zeigt peinlich.

Das Argument ist technisch richtig, dass RT bei AMD grob 2/3 Jahre bzw. eine Generation im Vergleich zu NV zurück liegt. Daran ist aber nichts peinlich sondern die aktuelle Lage von AMD an der man anscheinend noch nichts ändern konnte.

Wie lange eine Firma wie AMD oder NV braucht um ihre Architektur anzupassen, dass wissen wir doch faktisch alle nicht. Falls es hier jemanden im Forum geben sollte, der dieses Problem innerhalb von 2/3 Jahren für AMD gelöst hätte bzw. die bis zur nächsten Gen garantiert schaffen würde, wäre mit Sicherheit mit Angeboten und Geld überhäuft worden ..

--

Mich freut es, wenn durch die Situation oder auch aktive Entscheidung von AMD die Preise nicht weiter stark inflationär steigen. Den faktisch ist dies nichts anderes und all die Behauptungen und Argumentationen warum ich immer mehr zahlen müsste (über die letzten Jahre) sind m.E. falsch und dienen rein der Konditionierung für den Markt selbst.

PC-Gaming ist reiner Luxus (ihmo, wie auch vieles anderes):
- Es schafft keinen Mehrwert für die Menschheit
- Es löst keine aktuellen ökologischen, ökonomischen oder politischen Probleme oder Herausforderungen

Ich beruhige mich, dass für Publisher nicht die 0.1-1% des Markts interessant sind, die jetzt eine 4090ishe GPU haben oder auch die vielleicht 1-5% mit einer GPU der 3090 Klasse sondern für die Segmente darunter. Das Gefälle und damit die Anforderungen von Spielen wird sich also auch nicht drastisch in den nächsten Jahren verschieben solange es keine GPUs für 300-500€ gibt mit der Leistung einer 4090. Erst dann ist RT im Mainstream angekommen und wird nach einer entsprechenden Akzeptanz der Nutzer auch Pflicht in neuen Spielen werden ..

BavarianRealist
2022-11-04, 14:37:10
Reine Überlegungen von mir:

Meines Erachtens könnte AMD die präsentierten Leistungs-Daten unter folgenden Aspekten gewählt haben:

1) Man möchte Nvidia weiter im Dunkeln tappen lassen und macht Nvidia mit der 999$-Preis-Ankündigung schon mal extrem nervös: man prästentiert zumindest so viel Performance, dass die teurere 4080 jetzt nicht mehr gut da steht.

2) Man berücksichtigt vermutlich aber gleichzeitig auch den noch laufenden Abverkauf der noch im Channel befindlichen RX-6xxx-Grakas: man hätte dann die präsentierte Leistung auf das Nötigste beschränkt, das man präsentieren muss, um die Versprechungen zu erfüllen und die Erwartungen nicht zu enttäuschen: man verspricht deutlich mehr als eine 4080 zu günstigerem Preis um die Gamer erst mal wieder auf die eigene Seite zu ziehen.

3) Zuletzt sollen schon am Release-Tag (13.12.) auch die diversen OC-Varianten der AIB erscheinen, was für mich ein klares Anzeichen dafür ist, dass die AMD-eigenen Navi31-Graka schon von Anfang an kaum eine Rolle spielen dürften, nachdem AMD ganz offensichtlich für die eignen Varianten zumindest bei TBP und GDDR6-Takt auffällig niedrige Specs gewählt hat. Womöglich hat AMD auch den Takt für die eingenen Versionen erst mal sehr niedrige gewählt, um den AIB hier gewaltigen Spielraum zu bieten.

Mit den präsentierten Daten wären diese Bedingungen meines Erachtens gut erfüllt: die 7900XTX liefert bei weitgehend unveränderter TBP von 355Watt die versprochenen >+50% Performance/Watt und damit gleichzeitig auch mindestens +50% mehr als die 6950XT.

Die TBP von 355Watt dürfte kaum das Ende der Fahnenstange sein. Eine höhere TBP dürfte sehr wahrscheinlich höher Takte ermöglichen. Zudem deuten die eher moderat getakteten GDDR6 mit 20Gbps kaum darauf hin, dass AMD selbst auf Leistung gegangen ist.

Womit ich zu den Preisen käme:
Eine 7900XT zu 899€ wird kaum einer kaufen, wenn es eine 7900XTX zu nur 100$ mehr gibt. Aber wer sagt, dass es die AMD-eigenen Grakas in großer Stückzahl geben wird? Die OC-Versionen werden vermutlich deutlich besser performen aber dann vermutlich auch viel teurer ausfallen.

Zuletzt verbleibt: die AIBs wissen nun, was sie von AMD bekommen können im Gegensatz zu Nvidia. Und sie werden am Ende die GPUs verbauen, mit denen sie besser Geld verdienen können...

Raff
2022-11-04, 14:39:57
Das Argument ist technisch richtig, dass RT bei AMD grob 2/3 Jahre bzw. eine Generation im Vergleich zu NV zurück liegt. Daran ist aber nichts peinlich sondern die aktuelle Lage von AMD an der man anscheinend noch nichts ändern konnte.

Wie lange eine Firma wie AMD oder NV braucht um ihre Architektur anzupassen, dass wissen wir doch faktisch alle nicht. Falls es hier jemanden im Forum geben sollte, der dieses Problem innerhalb von 2/3 Jahren für AMD gelöst hätte bzw. die bis zur nächsten Gen garantiert schaffen würde, wäre mit Sicherheit mit Angeboten und Geld überhäuft worden ..

--

Mich freut es, wenn durch die Situation oder auch aktive Entscheidung von AMD die Preise nicht weiter stark inflationär steigen. Den faktisch ist dies nichts anderes und all die Behauptungen und Argumentationen warum ich immer mehr zahlen müsste (über die letzten Jahre) sind m.E. falsch und dienen rein der Konditionierung für den Markt selbst.

PC-Gaming ist reiner Luxus (ihmo, wie auch vieles anderes):
- Es schafft keinen Mehrwert für die Menschheit
- Es löst keine aktuellen ökologischen, ökonomischen oder politischen Probleme oder Herausforderungen

Ich beruhige mich, dass für Publisher nicht die 0.1-1% des Markts interessant sind, die jetzt eine 4090ishe GPU haben oder auch die vielleicht 1-5% mit einer GPU der 3090 Klasse sondern für die Segmente darunter. Das Gefälle und damit die Anforderungen von Spielen wird sich also auch nicht drastisch in den nächsten Jahren verschieben solange es keine GPUs für 300-500€ gibt mit der Leistung einer 4090. Erst dann ist RT im Mainstream angekommen und wird nach einer entsprechenden Akzeptanz der Nutzer auch Pflicht in neuen Spielen werden ..

[x] Für RCDs (Raytracing Complex Die)

Idealerweise voll modular. Wenn jemand also lieber RT-Leistung als Cache haben will, so bestellen und bauen lassen. :biggrin:

MfG
Raff

dargo
2022-11-04, 14:45:08
Ich glaube wir sind uns einig, das uns eine BigNavi fehlt mit RDNA3. :D

Nö... überhaupt keine Lust auf noch mehr Wattage. Selbst die 355W sind zu viel.

Sehr gut zusammengefasst, es gibt beim TopDog nur 96 statt 80 RT Einheiten. Das sind gerade Mal 20% Zuwachs. Der Takt ist kaum/gar nicht gestiegen gegenüber 6950. Also bleiben nur noch die 50% Leistungssteigerungen der RT Einheiten.

Der Hacken liegt eher in der Frage wieso braucht AMD soviele Transistoren? Gefühlt wäre ein doppelter Vorgänger eher schneller gewesen...
Der würde aber garantiert nicht bei "nur" 355W rauskommen.

SamLombardo
2022-11-04, 14:53:04
Die RT Performance wird auf jeden Fall noch näher zu untersuchen sein. Immerhin sprach AMD doch von erheblichen Verbesserungen:



https://www.computerbase.de/2022-11/amd-radeon-rx-7900-xtx-rdna-3-vorstellung/

Warum genau sich das nicht auswirken soll in den Benchmarks ist zumindest seltsam. Aber nachdem was man bis dato weiß wird die RT Performance wohl grob auf 3090Ti Niveau liegen, ohne RT liegt man eher 50% über der 3090 Ti. Also ein deutlich stärkerer Abfall mit RT. Das ist schon ziemlich schade für eine neue Architektur, aber deshalb ist die Karte natürlich nicht unbenutzbar.

Also laut dieser PCGH Hochrechnung (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/) ist die Raytracing Performance mehr als 50 Prozent gewachsen im Vergleich zur 6900xt und liegt auf 3090 (teilweise Ti) Niveau. Das sind schon erhebliche Verbesserungen. Diese Performance war bis vor ein paar Wochen noch das Nonplusultra. Ich finde das beachtlich, dass AMD jetzt dieses Niveau hat. Für den breitgefächerten Einsatz von RT in Games ist diese Entwicklung absolut positiv.

Troyan
2022-11-04, 14:55:18
Also laut dieser PCGH Hochrechnung (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/) ist die Raytracing Performance um fast 70 Prozent gewachsen im Vergleich zur 6900xt und liegt auf 3090(ti) Niveau. Dss sind schon erhebliche Verbesserungen. Diese Performance war bis vor ein paar Wochen noch das Nonplusultra. Ich finde das beachtlich, dass AMD jetzt dieses Niveau hat. Für den breitgefächerten Einsatz von RT in Games ist diese Entwicklung absolut positiv.

nVidia wollte dir die selbe Leistung als 4080 12GB verkaufen. Fanden die Leute irgendwie nicht so lustig. :cool:

Linmoum
2022-11-04, 15:00:12
Also laut dieser PCGH Hochrechnung (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Specials/Radeon-7900-XTX-vs-RTX-4090-Specs-Preis-Benchmark-RDNA-3-Performance-1406625/) ist die Raytracing Performance um fast 60 Prozent gewachsen im Vergleich zur 6900xt und liegt auf 3090 Niveau. Das sind schon erhebliche Verbesserungen. Diese Performance war bis vor ein paar Wochen noch das Nonplusultra. Ich finde das beachtlich, dass AMD jetzt dieses Niveau hat. Für den breitgefächerten Einsatz von RT in Games ist diese Entwicklung absolut positiv.Raff hat nur das genommen, was aus AMDs eigenen Benchmarks hervorgeht. Also knapp über +50%. Das ist WENIGER, als RDNA3 an Raster-Performance zulegt. Und genau das ist alles andere als beachtlich, da es dementsprechend keinen Fortschritt gibt. Ganz im Gegenteil, der Performanceabstand zu Nvidia vergrößert sich sogar weiter. Es hätte eigentlich das genaue Gegenteil der Fall sein und die Lücke verkleinert werden müssen.

Der Abstand in RT ist noch größer geworden, in Raster kann man nach RDNA2 auch nicht mehr mit Nvidias großem Chip mithalten (auch hier ist der Abstand größer geworden, gegenüber dem Vollausbau auch deutlich) und auch Perf/Watt dürfte deutlich weniger zum Vorteil für AMD werden als noch mit RDNA2. Wenn die 4090 nicht sogar bessere reale Perf/Watt hat, was ich fast schon vermute.

why_me
2022-11-04, 15:02:14
nVidia wollte dir die selbe Leistung als 4080 12GB verkaufen. Fanden die Leute irgendwie nicht so lustig. :cool:

Würde eher sagen, das lag an 2/3 der Rasterleistung und 12GB... :rolleyes:

Mal ehrlich, sind dir solche Posts nicht langsam peinlich?

basix
2022-11-04, 15:03:07
nVidia wollte dir die selbe Leistung als 4080 12GB verkaufen. Fanden die Leute irgendwie nicht so lustig. :cool:

Die 4080 12GB bietet aber einen Ticken geringere RT Performance, deutlich weniger Performance in allem ohne RT und keine 20GByte an Speicher.

P/L besteht nicht nur aus RT-Performance ;)

SamLombardo
2022-11-04, 15:06:50
Raff hat nur das genommen, was aus AMDs eigenen Benchmarks hervorgeht. Also knapp über +50%. Das ist WENIGER, als RDNA3 an Raster-Performance zulegt. Und genau das ist alles andere als beachtlich, da es dementsprechend keinen Fortschritt gibt. Ganz im Gegenteil, der Performanceabstand zu Nvidia vergrößert sich sogar weiter. Es hätte eigentlich das genaue Gegenteil der Fall sein und die Lücke verkleinert werden müssen.

Der Abstand in RT ist noch größer geworden, in Raster kann man nach RDNA2 auch nicht mehr mit Nvidias großem Chip mithalten (auch hier ist der Abstand größer geworden, gegenüber dem Vollausbau auch deutlich) und auch Perf/Watt dürfte deutlich weniger zum Vorteil für AMD werden als noch mit RDNA2. Wenn die 4090 nicht sogar bessere reale Perf/Watt hat, was ich fast schon vermute.
Ja relativ gesehen ist das schon so. In absoluten Zahlen sind es aber dennoch 50 Prozent RT Mehrleistung. AMD ist halt in diesem Bereich eine Gen zurück. Aber sie treten nicht auf der Stelle. Die Leistung der 3090 (ti) in RT ist doch zunächst mal nicht übel.

...wenn sie sich in echten Benchmarks bestätigt.

Dino-Fossil
2022-11-04, 15:08:13
Der Abstand in RT ist noch größer geworden, in Raster kann man nach RDNA2 auch nicht mehr mit Nvidias großem Chip mithalten (auch hier ist der Abstand größer geworden, gegenüber dem Vollausbau auch deutlich) und auch Perf/Watt dürfte deutlich weniger zum Vorteil für AMD werden als noch mit RDNA2. Wenn die 4090 nicht sogar bessere reale Perf/Watt hat, was ich fast schon vermute.

Die Frage ist - muss AMD unbedingt mit nVidias großem Chip mithalten, oder eher mit dem Chip/Produkt in einer vergleichbaren Watt und Preisklasse?

Linmoum
2022-11-04, 15:11:01
P/L besteht nicht nur aus RT-Performance ;)Im Mainstream? Absolut, bin ich völlig bei dir.

Allerdings reden wir hier von GPUs mit derart hohen dreistelligen bzw. ja sogar vierstelligen Preisen, dass man da einfach auch nichts halbgares akzeptieren sollte. Man wird in diversen Spielen sogar hinter eine 3080 (!) zurückfallen, wenn AMDs Zahlen in etwa hinkommen. Wir haben Ende 2022, da sogar noch bei diesen Preisen hinter der alten 2020-Gen des Konkurrenten zurückzuhängen - bei deutlich höheren Papierpreisen (Straßenpreise bleiben natürlich noch abzuwarten) ist einfach schwach, um es mal noch netter zu formulieren.

fizzo
2022-11-04, 15:11:36
Das Argument ist technisch richtig, dass RT bei AMD grob 2/3 Jahre bzw. eine Generation im Vergleich zu NV zurück liegt. Daran ist aber nichts peinlich sondern die aktuelle Lage von AMD an der man anscheinend noch nichts ändern konnte.

Wie lange eine Firma wie AMD oder NV braucht um ihre Architektur anzupassen, dass wissen wir doch faktisch alle nicht. Falls es hier jemanden im Forum geben sollte, der dieses Problem innerhalb von 2/3 Jahren für AMD gelöst hätte bzw. die bis zur nächsten Gen garantiert schaffen würde, wäre mit Sicherheit mit Angeboten und Geld überhäuft worden ..

--

Mich freut es, wenn durch die Situation oder auch aktive Entscheidung von AMD die Preise nicht weiter stark inflationär steigen. Den faktisch ist dies nichts anderes und all die Behauptungen und Argumentationen warum ich immer mehr zahlen müsste (über die letzten Jahre) sind m.E. falsch und dienen rein der Konditionierung für den Markt selbst.

PC-Gaming ist reiner Luxus (ihmo, wie auch vieles anderes):
- Es schafft keinen Mehrwert für die Menschheit
- Es löst keine aktuellen ökologischen, ökonomischen oder politischen Probleme oder Herausforderungen

Ich beruhige mich, dass für Publisher nicht die 0.1-1% des Markts interessant sind, die jetzt eine 4090ishe GPU haben oder auch die vielleicht 1-5% mit einer GPU der 3090 Klasse sondern für die Segmente darunter. Das Gefälle und damit die Anforderungen von Spielen wird sich also auch nicht drastisch in den nächsten Jahren verschieben solange es keine GPUs für 300-500€ gibt mit der Leistung einer 4090. Erst dann ist RT im Mainstream angekommen und wird nach einer entsprechenden Akzeptanz der Nutzer auch Pflicht in neuen Spielen werden ..

Sehr gut auf den Punkt gebracht. Das 3DCenter ist nicht der Nabel der Welt. Wenn mann über den Tellerrand hinausschaut, ist das Echo zur RX 79xx Serie durchwegs positiv. Wie auch mein erster Eindruck. Zwar nicht mein Budget, aber die kleinen Brüder werden durchaus intressant für mich.

Lyka
2022-11-04, 15:11:54
Die Frage ist - muss AMD unbedingt mit nVidias großem Chip mithalten, oder eher mit dem Chip/Produkt in einer vergleichbaren Watt und Preisklasse?


jepp: für die Leute in den Computerforen gilt ersteres (more power, more money spent, more wattage) -für alle anderen gilt das zweite

Cubitus
2022-11-04, 15:12:04
Die Frage ist - muss AMD unbedingt mit nVidias großem Chip mithalten, oder eher mit dem Chip/Produkt in einer vergleichbaren Watt und Preisklasse?

Die können es nicht und setzen mit ihrem Preispunkt die 4080 und die 4070 unter Druck. Imo das beste was AMD machen kann.

Der 4090er Markt ist bald abgegrast, viele wollen einfach keine 2K Karte kaufen.

fondness
2022-11-04, 15:12:09
Die Frage ist - muss AMD unbedingt mit nVidias großem Chip mithalten, oder eher mit dem Chip/Produkt in einer vergleichbaren Watt und Preisklasse?

Die Erwartungshaltung war, dass man mit 100W weniger und deutlich weniger Transistoren/Chipfläche NVs Topdog schlägt, was natürlich lächerlich war. N31 konkurriert viel eher mit AD103, da sieht es dann auch nicht mehr so schlecht aus.

Linmoum
2022-11-04, 15:12:19
Die Frage ist - muss AMD unbedingt mit nVidias großem Chip mithalten, oder eher mit dem Chip/Produkt in einer vergleichbaren Watt und Preisklasse?Müssen ist relativ. Mit RDNA2 haben sie es halt mal wieder getan, daher ist das definitiv eine Regression.

fondness
2022-11-04, 15:15:25
Müssen ist relativ. Mit RDNA2 haben sie es halt mal wieder getan, daher ist das definitiv eine Regression.

Das liegt aber vorwiegend an Nvidia, die mit dem neuesten Fertigungsprozess und einer neuen TDP Stufe defacto ein neues Segment aufgemacht haben. Samsung 8nm Prozess war ein 10nm Halfnode Shrink. Einen >600mm² Chip im neuesten Fertigungsprozess hat es auch von NV noch nie gegeben.

Exxtreme
2022-11-04, 15:16:59
Raff hat nur das genommen, was aus AMDs eigenen Benchmarks hervorgeht. Also knapp über +50%. Das ist WENIGER, als RDNA3 an Raster-Performance zulegt. Und genau das ist alles andere als beachtlich, da es dementsprechend keinen Fortschritt gibt. Ganz im Gegenteil, der Performanceabstand zu Nvidia vergrößert sich sogar weiter. Es hätte eigentlich das genaue Gegenteil der Fall sein und die Lücke verkleinert werden müssen.

Der Abstand in RT ist noch größer geworden, in Raster kann man nach RDNA2 auch nicht mehr mit Nvidias großem Chip mithalten (auch hier ist der Abstand größer geworden, gegenüber dem Vollausbau auch deutlich) und auch Perf/Watt dürfte deutlich weniger zum Vorteil für AMD werden als noch mit RDNA2. Wenn die 4090 nicht sogar bessere reale Perf/Watt hat, was ich fast schon vermute.

Naja, ich glaube, AMD sieht kaum einen Markt bei Kosten über 1k $. Also haben sie sich diese 1k $ als Referenz genommen und geschaut wie man das Maximum da rausholt. Und ich glaube, das haben sie geschafft, mit ihren Mitteln zumindest.

Dann ist auch die Frage: auf welche Zielgruppe optimiert man? Wie schon geschrieben, 4K+ Auflösungen fahren unter 5% der Spielerschaft. Und dann muss man auch noch bedenken, dass aktuelle Spiele, die RT exzessiv nutzen wohl auch keine 5% ausmachen. Da ist man schnell bei einer Zielgruppe, die 0,25% des gesamten Spielerschaft auf dem PC ausmacht. Oder: gehört man zu den 0,25%, dann sind die RTX 4xxx-Serie wohl die bessere Alternative, ja. Und dann darf man ~2k € auf den Tisch legen.

gruntzmaker
2022-11-04, 15:21:09
Müssen ist relativ. Mit RDNA2 haben sie es halt mal wieder getan, daher ist das definitiv eine Regression.

Das kann man so sehen. Imho muss AMD auch verstärkt auf Intel acht geben. Deswegen ist die Rückkehr zu mehr Kompromiss gar nicht so schlecht. Intel wird sicher stärker mit AMD konkurrieren als AMD mit Nvidia.

Diejenigen, die keine Kompromisse wollen, müssen eben das Monopol in der Nische von Nvidia aushalten. Wir als Kunden können das leider nicht ändern.

Dino-Fossil
2022-11-04, 15:24:06
Diejenigen, die keine Kompromisse wollen, müssen eben das Monopol in der Nische von Nvidia aushalten. Wir als Kunden können das leider nicht ändern.

Kompromisse hast du ja trotzdem, z.B. u.U. hohe Leistungsaufnahme und Preis. Muss halt jeder für sich entscheiden, welcher Kompromiss ihm besser erscheint.

dargo
2022-11-04, 15:26:22
Müssen ist relativ. Mit RDNA2 haben sie es halt mal wieder getan, daher ist das definitiv eine Regression.
Was haben sie mit RDNA2 getan? Ich dachte RDNA2 wäre so viel langsamer als Ampere bei RT? Beim Preis war der Unterschied bei RDNA2 vs. Ampere auch groß oben. RX 6900XT lag bei 999$ während 3090 bei 1499$ lag. 6950XT lag afaik bei 1099$ und eine 3090TI bei 2249€, den $ UVP weiß ich jetzt gerade nicht. Nicht so verfolgt damals.

Edit:
Mal was anderes... wo wird denn nun N32 bei der Wattage landen? Ich würde jetzt mal 230W schätzen die mir deutlich besser gefallen. Eventuell 250W weil AMD die Frequenzen vs. N31 etwas anhebt? 7800XT dann ca. 25% langsamer als 7900XT?

Badesalz
2022-11-04, 15:31:29
Allerdings reden wir hier von GPUs mit derart hohen dreistelligen bzw. ja sogar vierstelligen Preisen, dass man da einfach auch nichts halbgares akzeptieren sollte.Warum sollte man das so kindisch sehen? Normale Leute stellen sich die Frage was/wieviel sie für ihr Geld bekommen. Nachdem sie abgewogen haben wieviel sie brauchen.
Und das wars schon. Wirklich :rolleyes:
Quantitativ gesehen kauft keine Sau eine Graka, weil sie zum Beispiel Perf/Watt 1/3 besser ist. Und TopDog ist. Nach solchen Geschwurbel

Wie man da damit aufgestellt ist und welche grünen Alternativen es gibt, darüber kann man natürlich reden. DAS ist auch das Thema. Alles andere ist ein Furz der aus einer Forenblase entweicht.

Das kann man so sehen. Imho muss AMD auch verstärkt auf Intel acht geben. Deswegen ist die Rückkehr zu mehr Kompromiss gar nicht so schlecht. Intel wird sicher stärker mit AMD konkurrieren als AMD mit Nvidia.Das ist - oder wäre - eh der größte Shice für den Consumer. Wir brauchen jemanden der NV einheizt und nicht AMD Marktanteile wegnehmen will. Für den Consumer ist das ein Bärendienst.

Troyan
2022-11-04, 15:36:32
Dann ist auch die Frage: auf welche Zielgruppe optimiert man? Wie schon geschrieben, 4K+ Auflösungen fahren unter 5% der Spielerschaft. Und dann muss man auch noch bedenken, dass aktuelle Spiele, die RT exzessiv nutzen wohl auch keine 5% ausmachen. Da ist man schnell bei einer Zielgruppe, die 0,25% des gesamten Spielerschaft auf dem PC ausmacht. Oder: gehört man zu den 0,25%, dann sind die RTX 4xxx-Serie wohl die bessere Alternative, ja. Und dann darf man ~2k € auf den Tisch legen.

Wieso sollten Leute mit 1080p und 1440p Monitore bei $1000 Karten kein Raytracing nutzen? Eine 4080 16GB wird hier 30% bis 50% schneller als eine 3090TI sein und damit in vielen Spielen über die 100 FPS in 1440p kommen: https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/34.html

Je niedriger die Auflösung, umso eher schaltet man grafische Effekte hinzu.

basix
2022-11-04, 15:39:15
Im Mainstream? Absolut, bin ich völlig bei dir.

Allerdings reden wir hier von GPUs mit derart hohen dreistelligen bzw. ja sogar vierstelligen Preisen, dass man da einfach auch nichts halbgares akzeptieren sollte. Man wird in diversen Spielen sogar hinter eine 3080 (!) zurückfallen, wenn AMDs Zahlen in etwa hinkommen. Wir haben Ende 2022, da sogar noch bei diesen Preisen hinter der alten 2020-Gen des Konkurrenten zurückzuhängen - bei deutlich höheren Papierpreisen (Straßenpreise bleiben natürlich noch abzuwarten) ist einfach schwach, um es mal noch netter zu formulieren.

Ich will nicht die hinter den Erwartungen zurückliegende RT-Performance schönreden. Und auch nicht, dass RDNA3 P/L mässig bei RT nicht wirklich ein Fortschritt ist (verglichen mit Nvidias MSRPs). Bei allem anderen ausserhalb RT und wenn RT für RDNA2 optimiert ist (UE5 usw.), dann sieht das aber ganz anders aus. Für den Preis möchte man keine Abstriche machen klar. Bei Nvidia bekommt man aber zum gleichen Preis nicht wirklich was besseres. Ist nicht schön, ist aber so.

vinacis_vivids
2022-11-04, 15:44:21
AMD's Navi 31 Might Clock to 3 GHz, Partner Cards Will be Able to Overclock
https://www.techpowerup.com/300655/amds-navi-31-might-clock-to-3-ghz-partner-cards-will-be-able-to-overclock

3Ghz Takt sind möglich mit RDNA3

Grundlagearbeit für dich dargo: 4k@240hz bzw. 4k@480hz ist eine andere Dimension.

https://abload.de/img/amd-rdna3-event-pressqifcv.png

dildo4u
2022-11-04, 15:50:18
Wenn die Karte High Refrech King wäre hätten sie ja 1440p Benches gegen 4090 zeigen können.

Exxtreme
2022-11-04, 15:51:16
Wieso sollten Leute mit 1080p und 1440p Monitore bei $1000 Karten kein Raytracing nutzen? Eine 4080 16GB wird hier 30% bis 50% schneller als eine 3090TI sein und damit in vielen Spielen über die 100 FPS in 1440p kommen: https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/34.html

Je niedriger die Auflösung, umso eher schaltet man grafische Effekte hinzu.

Klar darfst du das. Aber welche Karte hier jetzt besser sein wird, das wissen wir erstmal nicht. Man kann IMHO nur davon ausgehen, dass AMD in 4K-Auflösung zu langsam sein wird. Ob das in 1080p oder 1440p auch so ist, das steht in den Sternen.

Troyan
2022-11-04, 15:53:20
Klar darfst du das. Aber welche Karte hier jetzt besser sein wird, das wissen wir erstmal nicht. Man kann IMHO nur davon ausgehen, dass AMD in 4K-Auflösung zu langsam sein wird. Ob das in 1080p oder 1440p auch so ist, das steht in den Sternen.

Ging ja nicht um "zu langsam". In 1440p sollten 7900XTX und 4080 16GB genug Frames in vielen Spielen mit Raytracing schaffen. Die 4080 16GB eben noch mehr. Und ab dem Zeitpunkt wird aus Luxus plötzlich Mainstream. Anderenfalls müsste man ja gegenerell grafische Einstellungen für Benchmarks hinterfragen.

Hamster
2022-11-04, 15:57:21
Immerhin bietet AMD die seltene Möglichkeit eine fast Namensgleiche CPU & GPU im System zu haben :ugly:

DrFreaK666
2022-11-04, 15:58:53
nVidia wollte dir die selbe Leistung als 4080 12GB verkaufen. Fanden die Leute irgendwie nicht so lustig. :cool:

besonders mit 12GB ist RT nicht so lustig. Von der RZ-Performance der 4070 fangen wir am besten erst gar nicht an

The_Invisible
2022-11-04, 16:04:22
besonders mit 12GB ist RT nicht so lustig. Von der RZ-Performance der 4070 fangen wir am besten erst gar nicht an

Hä jetzt sind 12GB auch schon zu wenig, merke aber nix davon :D

DrFreaK666
2022-11-04, 16:10:04
Hä jetzt sind 12GB auch schon zu wenig, merke aber nix davon :D

Bei AMD-optimierten Titeln wirst was davon merken ;)

Badesalz
2022-11-04, 16:13:10
Wieso sollten Leute mit 1080p und 1440p Monitore bei $1000 Karten kein Raytracing nutzen? Eine 4080 16GB wird hier 30% bis 50% schneller als eine 3090TI sein Das wird glaub ich selten sein, daß die Kundschat mit einem FHD Monitor eine dermassen teure Graka anschaffen möchte. Die 1099€ Karte (für uns relevant oder schreibst du grad aus Boston?) bei NV war übrigens die 4080/12. Nicht die 4080/16.

Lurtz
2022-11-04, 16:18:32
Naja, ich glaube, AMD sieht kaum einen Markt bei Kosten über 1k $. Also haben sie sich diese 1k $ als Referenz genommen und geschaut wie man das Maximum da rausholt. Und ich glaube, das haben sie geschafft, mit ihren Mitteln zumindest.

Dann ist auch die Frage: auf welche Zielgruppe optimiert man? Wie schon geschrieben, 4K+ Auflösungen fahren unter 5% der Spielerschaft. Und dann muss man auch noch bedenken, dass aktuelle Spiele, die RT exzessiv nutzen wohl auch keine 5% ausmachen. Da ist man schnell bei einer Zielgruppe, die 0,25% des gesamten Spielerschaft auf dem PC ausmacht. Oder: gehört man zu den 0,25%, dann sind die RTX 4xxx-Serie wohl die bessere Alternative, ja. Und dann darf man ~2k € auf den Tisch legen.
Der Markt kann ja jetzt entscheiden. Dann müssten sich die 7900er ja wesentlich besser verkaufen als die 4090 und 4080. Falls AMD die Stückzahlen liefern kann/will.

Iscaran
2022-11-04, 16:21:31
Das wäre aber eine ziemliche Mogelpackung, da Lisa Su herself von 60TFlops/s sprach. Die erreicht man nur, wenn die neuen CUs auch in irgendeiner Form einen verdoppelten Durchsatz haben, sonst wären es schlicht nur 30TFlops/s.


Ist dann Ampere keine Mogelpackung? Dort hat man ja auch die FP/INT "Mix" Einheiten.

Die theoretische doppelt so hohe FP-Leistung wird faktisch nur in (Gaming-)Realitätsfernen speziellen Compute-Anwendungen annähernd erreicht.

Eine 3090 Ti hat also auch nicht 10752 Shader, sonderen deren nur 5376, welche "dual-Issue" bis zu einem gewissen grad können.

Die 3090 Ti hat also "theoretisch ~40 TFlops..."praktisch" erreicht man aber nur so ca 33 Tflops (angenommene 35% INT-Anteil in den "Mixed Shadern").

AMD hat hier scheinbar einen ähnlichen, aber nicht denselben Weg, gewählt.

AMDs Lösungen scheint hier den "INT"-Teil wegzulassen.

Also RDNA 2 hat ja fixed function INT einheiten, die AFAIK parallel zu den FPs arbeiten.
Daran hat sich bei RDNA 3 mit den "dual issue" nichts geändert. Entsprechend dürfte die INT-Leistung hier auch nur um ~20%+Takt gestiegen sein (=> womöglich ist das der Grund hier Front-End Clock einzuführen um den INT-Teil stärker belasten zu können, da er sonst "bottlenecked" bei x2 FP pro CU?)

Also in etwas diegleiche "Mogelpackung" wie bei nVidia seit Ampere.

/Locutus oB
2022-11-04, 16:21:32
bei manchen Leuten hier frage ich mich warum sie nicht selber eine GPU firma aufmachen so unglaublich fähig wie sie scheinbar sind...

ich finde Preis/Leistung vollkommen in Ordnung.

Thunderburne
2022-11-04, 16:23:41
Hab jetzt hier nicht weiter mit gelesen !
Hattet ihr das schon Nur 3% OC möglich
https://videocardz.com/newz/amd-radeon-rx-7900-gpus-are-designed-to-scale-up-to-3-0-ghz

dargo
2022-11-04, 16:26:17
alt

Ravenhearth
2022-11-04, 16:34:46
Edit:
Mal was anderes... wo wird denn nun N32 bei der Wattage landen? Ich würde jetzt mal 230W schätzen die mir deutlich besser gefallen. Eventuell 250W weil AMD die Frequenzen vs. N31 etwas anhebt? 7800XT dann ca. 25% langsamer als 7900XT?
Schätze ich auch so ein.

Um das Ganze zusammenzufassen nehme ich mal die 3090 Ti als Referenz: Die 7900 XTX ist laut AMDs Benchmarks ~55% schneller als die 6950 XT und damit in Raster ca. 40% über der 3090 Ti, die 7900 XT mit 14% weniger Shadern, weniger Takt und 17% weniger Bandbreite vielleicht 15% langsamer und damit ca. 20% schneller als die Ti. Die 4080 ist laut Nvidia ca. 15% schneller.

Die 7800 XT (N32) kann man etwa ein Drittel unter 7900 XTX einordnen und damit grob auf das Niveau von AD104 (4070 Ti?). Wenn der Salvage mit 12GB ca. 15 % langsamer ist, kommt er in etwa bei der 3080 heraus, womöglich liegt eine 4070 10GB hier auch. Die 7600 XT (N33) schafft es mMn auf das Niveau der 6750 XT und prügelt sich mit AD106 (4060 Ti?). AD107 liegt als 4050 (Ti) ein Drittel darunter. Kurz gesagt:

160% - 4090
140% - 7900 XTX
120% - 7900 XT
115% - 4080
100% - 3090 Ti
93% - 3090/4070 Ti/7800 XT
80% - 3080/4070/7700 XT
60% - 4060 Ti/6750 XT/7600 XT
50% - 4060/7600
40% - 3060/4050/6650 XT

Das gilt selbstverständlich nur für Raster und ist natürlich sehr grob für die ungefähre Orientierung, +/- ein paar Prozent.

Preislich könnte es so aussehen, dass AMD Nvidia bei der gleichen Raster-Leistung auch weiterhin unterbietet, weil man langsamer in RT ist. Es ist aber fraglich, wie sich Nvidia positionieren wird. Wie teuer wird man AD104 anbieten? Es könnte ungefähr so aussehen:

$1599 - 4090
$1199 - 4080
$999 - 7900 XTX
$899 - 7900 XT
$799 - 4070 Ti
$649 - 7800 XT
$599 - 4070
$499 - 7700 XT
$449 - 4060 Ti
$379 - 4060
$349 - 7600 XT
$299 - 7600
$299 - 4050

The_Invisible
2022-11-04, 16:35:29
Bei AMD-optimierten Titeln wirst was davon merken ;)

AMD optimiert und RT, jetzt wirds spannend ; )

Badesalz
2022-11-04, 16:36:11
@dargo
So alt kann das nicht sein, wenn sie DAZU drunter heutige Artikel verlinken...

Mit 450W doch 3Ghz möglich oder wie?
https://www.techpowerup.com/300655/amds-navi-31-might-clock-to-3-ghz-partner-cards-will-be-able-to-overclock


160% - 4090
140% - 7900 XTX
120% - 7900 XT
115% - 4080
100% - 3090 Ti
93% - 3090/4070 Ti/7800 XT
80% - 3080/4070/7700 XT
60% - 4060 Ti/6750 XT/7600 XT
50% - 4060/7600
40% - 3060/4050/6650 XT

Das gilt selbstverständlich nur für Raster und ist natürlich sehr grob für die ungefähre Orientierung, +/- ein paar Prozent.Sieht auf den ersten Blick sinnig aus. Jetzt nochmal aber mit RT? :smile:

Badesalz
2022-11-04, 16:40:25
(doppelt)

DrFreaK666
2022-11-04, 16:43:42
AMD optimiert und RT, jetzt wirds spannend ; )

Far Cry 6, inzwischen ein Jahr alt und ein von AMD optimierter Titel:
"Auch wenn die Speicherbelegung im Spiel mit zugeschaltetem HD-Pack nicht gleich in astronomische Höhen schnellt, auf GPUs mit ausreichend Speicher überschreitet die Belegung schnell 12 GiByte - eventuell kommen Sie mit einer 11-GiByte-GPU in niedrigeren Auflösungen und ohne Raytracing noch hin, doch in UHD sind 11 GiByte und weniger definitiv sehr knapp."

vinacis_vivids
2022-11-04, 16:57:49
Bei Uncharted reißt NV auch keine Bäume raus, hier liegt 7900XTX 30-50% vorne.

https://abload.de/img/2022-10-2611_25_42-unogcb4.png

TheGood
2022-11-04, 16:58:52
UE5 hat immer RT Beschleunigung mit Lumen, ich würde garantiert keine 1000€ + hinlegen bevor man nicht weiß wie 7900XTX vs 4080 dort Performt.

Lumen nutzt Software RT als default laut deren eigener Dokumentation.
Unterstützt aber auch hardware RT. Das müsste man halt irgendwann mal benchen wie gro´ß der Unterschied ist.

Nakai
2022-11-04, 16:59:32
Kam vielleicht schon, aber Greymon55 hat seinen Twitter-Account gelöscht.

Linmoum
2022-11-04, 17:01:35
Bei Uncharted reißt NV auch keine Bäume raus, hier liegt 7900XTX 30-50% vorne.

https://abload.de/img/2022-10-2611_25_42-unogcb4.pngUncharted ist CPU-limitiert. Sinnlose Diskussion Nr. 23 mit dir darüber.

dildo4u
2022-11-04, 17:03:07
Lumen nutzt Software RT als default laut deren eigener Dokumentation.
Unterstützt aber auch hardware RT. Das müsste man halt irgendwann mal benchen wie gro´ß der Unterschied ist.


Ja für RX5700 z.b aber ich vermute das 3060/6600 das neue Minimum sind also Hardware RT immer mit einkalkuliert wird was Performance angeht.
Schon alleine da die neuen Konsolen es auch können.

TheGood
2022-11-04, 17:03:20
UE5 nutzt mit Lumen genauso RT. So ein Unsinn. Geometrie und Beleuchtung sind zwei völlig verschiedene Paar Schuhe und beides profitiert unabhängig voneinander von Innovation. Nanite UND Lumen

LEsen und verstehen. Der Mehrwert von Nanite ist für jeden Spieler auf Anhieb sichtbar, hat man ja sehr gut an der damaligen Demo sehen können.
Als RT rauskam gabs irgendwelche Showtitel mit mega Spiegelungen und die meisten konnten bei einer gegenüberstellung nicht feststellen was jetzt RT ist und was nicht... Ganz davon abgesehen dass du das bei einem flinken Shooter erst gar nicht mehr wahrnimmst, weils nicht relevant ist (wie auch in er realität oder geilst du dich im REal life auch an jeder spiegelnden Oberfläche auf)

Was ich hier schon länger schreibe ist, dass RT perfekt für Global Illumination ist. Aber hier ist das gleiche Problem. Die Fake Beleuchtung fällt 80% der User auuch nicht auf und GI gabs auch schon ohne RT z.b. in der Cryengine.

Es geht um eine realitätsnahe Betrachtung der Dinge und da ist Nanite jeder RT Implentierung überlegen da es für jeden ERSICHTLICH ist.

Natürlich gehört RT der Zukunft vor allem bei GI und Schatten, aber gerade da schneidet die AMD IMplementierung gar nicht so schlecht ab. Das sollte man zukünftig auch mal gerne bei den ganzen Tests mit in Betracht ziehen.

TheGood
2022-11-04, 17:03:51
Äpfel bringen mehr als Birnen. Das sind zwei total verschiedene und unabhängige Dinge. Nanite ist Geometrie. Raytracing hat vor allem mit Licht zu tun (Reflexion, Schatten, Beleuchtung). Beides sind sinnvolle Innovationen.
siehe vorheriger Post.

vinacis_vivids
2022-11-04, 17:04:02
Uncharted ist CPU-limitiert. Sinnlose Diskussion Nr. 23 mit dir darüber.

Ist bestimmt auch alles CPU-Limitiert ;D;D;D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13158722&postcount=6435

Jupiter
2022-11-04, 17:06:22
PC-Gaming ist reiner Luxus (ihmo, wie auch vieles anderes):
- Es schafft keinen Mehrwert für die Menschheit
- Es löst keine aktuellen ökologischen, ökonomischen oder politischen Probleme oder Herausforderungen

Natürlich können sie einen Mehrwert für die Menschheit bieten. Manche interaktive Erlebnisse wie Cyberpunk 2077 sind höchste Kunst und Kunst hat vor den meisten Sachen immer Vorrang.

besonders mit 12GB ist RT nicht so lustig. Von der RZ-Performance der 4070 fangen wir am besten erst gar nicht an

Nvidia sollte nach Lovelace die Rasterleistung langsamer steigern und verstärkt auf Raytracing setzen.

DrFreaK666
2022-11-04, 17:08:29
Kam vielleicht schon, aber Greymon55 hat seinen Twitter-Account gelöscht.

Viele haben sich beschwert, dass er als Leaker nichts getaugt hat

Dino-Fossil
2022-11-04, 17:11:12
Ich würde sagen, die Verbesserungen wirken sich aus. Man spricht von bis zu 50% mehr RT-Leistung pro CU, allerdings hat man nur 20% mehr CUs (und somit vermutlich Ray Accelerators). [...] Das Problem ist, dass man die Rasterleistung pro CU ebenfalls gesteigert hat, sodass RT im Verhältnis nicht schneller geworden ist.
Kann man beides bei AMDs Ansatz unabhängig betrachten? Ein Teil des RT läuft doch über die Shader, und damit sollte der dual-issue Ansatz bei RDNA3 sich hier auch auswirken.
Anders gesagt, wenn AMD an den RT-Einheiten sonst ggü. RDNA 2 nichts ändert, erwartet man dann deutlich weniger?

Gymnopédies
2022-11-04, 17:24:57
AMD's Navi 31 Might Clock to 3 GHz, Partner Cards Will be Able to Overclock
https://www.techpowerup.com/300655/amds-navi-31-might-clock-to-3-ghz-partner-cards-will-be-able-to-overclock

3Ghz Takt sind möglich mit RDNA3

Grundlagearbeit für dich dargo: 4k@240hz bzw. 4k@480hz ist eine andere Dimension.

https://abload.de/img/amd-rdna3-event-pressqifcv.png


Brauch ich dann ein extra Schalltoten Raum oder wie soll das stattfinden, das Spulen und Co. Konzert erträgt doch dann keiner.^^

The_Invisible
2022-11-04, 17:26:17
Far Cry 6, inzwischen ein Jahr alt und ein von AMD optimierter Titel:
"Auch wenn die Speicherbelegung im Spiel mit zugeschaltetem HD-Pack nicht gleich in astronomische Höhen schnellt, auf GPUs mit ausreichend Speicher überschreitet die Belegung schnell 12 GiByte - eventuell kommen Sie mit einer 11-GiByte-GPU in niedrigeren Auflösungen und ohne Raytracing noch hin, doch in UHD sind 11 GiByte und weniger definitiv sehr knapp."

Hast ja von RT geredet und nicht irgendwelche aufgeblasenen Texturpacks. Warum soll man da irgendwas auf 16gb rt-schwache Radeons optimieren, macht überhaupt keinen Sinn. Zudem hat UE5 auch sehr gutes Streaming.

Wiseman
2022-11-04, 17:28:10
bei manchen Leuten hier frage ich mich warum sie nicht selber eine GPU firma aufmachen so unglaublich fähig wie sie scheinbar sind...

ich finde Preis/Leistung vollkommen in Ordnung.

+1

Das frage ich mich auch seit Jahren. ;D

Im Übrigen habe ich die gleiche Vermutung wie Iscaran betreffs neue KI-Einheiten bei RDNA3:

kann es sein, dass RT bei RDNA3 "noch nicht richtig" funktioniert, da das aufgrund der Hardware-Änderungen erst "programmiert" werden muss und die bisherigen Spiele nur den RDNA2 Pfad benutzen?
Hmmm, zumindest in RT scheinen ja die AI-Cores noch gar nicht zum Einsatz gekommen zu sein in den bisherigen Benchmarks, irgendwie denke ich kommt das erst mit FSR3.0 (bzw. benötigt eben eine Anpassung der Softwares (Game Engines) um das auch zu nutzen.
=> Die RT-Performance KÖNNTE also nochmal massiv steigen (+50%?).

Warten wir also erst mal die Einführung von FSR 3.0 und HYPR-RX in 2023 ab, bevor wir ein endgültiges Urteil über die RT-Performance von RDNA3 fällen. CB schreibt heute, ihnen wäre von AMD eine Demo gezeigt worden, in der RDNA3 dank FSR 3.0 und HYPR-RX beeindruckende Steigerungen erzielen konnte.

DrFreaK666
2022-11-04, 17:31:33
Hast ja von RT geredet und nicht irgendwelche aufgeblasenen Texturpacks. Warum soll man da irgendwas auf 16gb rt-schwache Radeons optimieren, macht überhaupt keinen Sinn. Zudem hat UE5 auch sehr gutes Streaming.

In dem Text wird Raytracing erwähnt. Nochmal durchlesen!
Qualität mit RT verbessern ist ok, mit Texture-Packs nicht?


Über FSR 3 wissen wir zu wenig. Wenn es nur mit RX7000 läuft, dann setzt es sich nicht durch

Badesalz
2022-11-04, 17:35:43
Nun... Wenn das so mit RT sein würde, hätte AMD auch mal ein richtig fettes Demo raushauen können ;)

Sonst bin ich bei TheGood. DARAUF kommt es an
https://www.youtube.com/watch?v=DKvA7NZRUcg

Tesseract
2022-11-04, 17:37:16
Warten wir also erst mal die Einführung von FSR 3.0 und HYPR-RX in 2023 ab, bevor wir ein endgültiges Urteil über die RT-Performance von RDNA3 fällen.

AI hat nichts mit RT zu tun. :confused:

Ein Teil des RT läuft doch über die Shader
ich würde es eher so formulieren: die shader lagern bestimmte berechnungen (bei RT vor allem schnittberechnungen der strahlen mit geometrie) in fixed function units aus ähnlich wie das beim texture filtering auf den TMUs auch der fall ist. idealerweise sollten diese helfer schnell genug sein damit die shader nicht idle gehen müssen.

BlacKi
2022-11-04, 17:39:31
AIBs sagen, die xtx lässt kaum(+3%) oc zu


Some people asked during the stream so I asked AIBs and they are saying about only 3% OC over the XTX with preliminary drivers (that have been used mostly for thermal testing, to be fair). If true then it looks like the XTX is already close to maxed out ��

https://twitter.com/coreteks/status/1588329053530251265?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1588329 053530251265%7Ctwgr%5E9809119bb05bdeb9e623f300680b788e8b6e1b74%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fvideocardz.com%2Fnewz%2Famd-radeon-rx-7900-gpus-are-designed-to-scale-up-to-3-0-ghz

dargo
2022-11-04, 17:42:04
Über FSR 3 wissen wir zu wenig. Wenn es nur mit RX7000 läuft, dann setzt es sich nicht durch
FSR 3 kann nur auf RDNA3 laufen da nur dieser KI-Einheiten hat.

Linmoum
2022-11-04, 17:49:28
AIBs sagen, die xtx lässt kaum(+3%) oc zu




https://twitter.com/coreteks/status/1588329053530251265?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1588329 053530251265%7Ctwgr%5E9809119bb05bdeb9e623f300680b788e8b6e1b74%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fvideocardz.com%2Fnewz%2Famd-radeon-rx-7900-gpus-are-designed-to-scale-up-to-3-0-ghz
Wahrscheinlich, weil die 7900XT(X) real sowieso schon ein gutes Stück oberhalb dessen boostet, was AMD offiziell angibt.

dargo
2022-11-04, 17:54:26
Oder Wattman ist noch gar nicht auf Custom-Karten mit mehr Spielraum für OC freigeschaltet.

BlacKi
2022-11-04, 17:58:44
ah, der letzte grashalm.

Linmoum
2022-11-04, 18:03:44
Karten kann man nicht nur via Wattman übertakten, zumal die AiB sowieso alle ihre eigenen Tools dafür haben.

Nutzten zwar eh 99% AB, aber wenn sie alle eigene Software brauchen.

Daredevil
2022-11-04, 18:04:34
Wird interesannt, ob sich an der Kühlbarkeit etwas ändert, wenn die meiste Power von 300 mm² ausgehen oder ob es sogar hilfreich ist, dass die MCDs drum herum angeordnet sind.
So weit ist der Kram ja jetzt nicht auseinander wie bei Zen, aber Hitzig wurde das zumindest früher beim HBM2 trotz Nähe zum DIE auch.

basix
2022-11-04, 18:08:08
AMD optimiert und RT, jetzt wirds spannend ; )

Bitte, nur für dich ;)
- Reflections
- Shadows
- GI

Alles auf GPUOpen zu finden und als Sample oder im Fall GI bald als UE5 Plugin zu haben:
https://gpuopen.com/learn/hybrid-reflections/
https://gpuopen.com/learn/hybrid-shadows/
https://gpuopen.com/download/publications/GPUOpen2022_GI1_0.pdf

Unter "Research Publications" gibt es noch weitere Paper zum Thema Raytracing:
https://gpuopen.com/learn/publications/

Dazu der RT-Analyzer als Entwicklertool:
https://gpuopen.com/radeon-raytracing-analyzer/

Dazu halt Engines wie die UE5, wo sehr gut auf AMD optimiert sind ;)

Wird interesannt, ob sich an der Kühlbarkeit etwas ändert, wenn die meiste Power von 300 mm² ausgehen oder ob es sogar hilfreich ist, dass die MCDs drum herum angeordnet sind.
So weit ist der Kram ja jetzt nicht auseinander wie bei Zen, aber Hitzig wurde das zumindest früher beim HBM2 trotz Nähe zum DIE auch.
Ich hätte mal Vega VII als Referenz genommen, da ähnlich grosses Die wie das GCD, HBM drum rum, ähnliche TBP.

Der Referenzkühler sieht aber deutlich besser aus als der der VII. Und wenn die Partnerkarten den 4090 Kühler nehmen, wird das auch ziemlich OK sein.

dargo
2022-11-04, 18:14:11
Karten kann man nicht nur via Wattman übertakten, zumal die AiB sowieso alle ihre eigenen Tools dafür haben.

Nutzten zwar eh 99% AB, aber wenn sie alle eigene Software brauchen.
Kennt der AB überhaupt schon RDNA3 bei OC? Vor allem bezüglich zwei Taktdomains?

Badesalz
2022-11-04, 18:29:04
Bisher hatten wir hier im Thread ja nur ausschließlich sehr objektive Teilnehmer :up: Was mich wurdert :biggrin:

Bei der... Stimmung :rolleyes: mussten doch irgendwann auch die echten grünen Trolle auftauchen und den Thread mit all den miesen Kritiken der allgemeinen YT-Götter beglücken? Ihr wisst schon, Nexus, Unboxed, Canucs und wie sie alle nicht heißen. Linus Trollshow, Foundry und und und.
Was ist damit?

Eigentlich wollte ich grad nur aus Spaß an der Freude nachschauen wie MLID nun sein Geseier der vergangenen Tage nach dem Launch in "habs doch gesagt" umschwurbelt :tongue:
Angesprungen hat mich aber das erstmal
https://www.youtube.com/watch?v=_PRXJZHWqMI

Lyka
2022-11-04, 18:31:23
Beleidigungen werden unterlassen. Sonst behandel ich das als Flame - mit Sperre :)

Daredevil
2022-11-04, 18:32:57
Natürlich ist RDNA3 mit Chiplet Spaß nun die Basis für blöd große DIEs mit Speicher bis zum abwinken. Wenn die Kiste nun 1000$ kostet, kann AMD auch 1500$ nehmen mit nem 400mm² oder 500m² DIE und Nvidia mit RDNA4 davon scheuchen.

Eigentlich kann man auch irgendwo dankbar sein, dass AMD die Grundstruktur der GPU geändert hat und es sehr routiniert gebaut hat, ähnlich wie Chiplets bei Zen oder der 3D Cache. Das ist schon bemerkenswert und macht Tor und Tür auf für "BigNavis", wie wir sie uns nicht vorstellen können. :redface:

Badesalz
2022-11-04, 18:35:47
PS:
Natürlich können die erwähnten YT-Blogvids, auch die objektiven Threadteilnehmer (also alle bisher) posten :) Man macht sich ja nicht zum einen grünen Troll, nur weil man so eins nun fand und es nachreicht. Nicht falsch verstehen bitte.

Meridian12
2022-11-04, 18:36:31
Anscheinend ist die 7900XTX sehr nach an der 4090 Rastermässig dran, wenn hier ständig und ständig RT ins Feld geführt wird.

Ich bin VR Spieler und brauche Rastering Leistung. Mit RT kann ich absolut gar nichts anfangen.

Momentan tendiere ich zu 4090 aber rein von der Rastering Leistung her, wenn die 7900XTX da aber sehr nah rankommt und 60% weniger kostet (Aktuell 100% ,da 4090 zur UVP kaum erhältlich), dann bekomme ich 13600,Mobo, 32GB DD5 RAM quasi bei der AMD Karte "Gratis" im Vergleich zur 4090.

BlacKi
2022-11-04, 18:44:34
Anscheinend ist die 7900XTX sehr nach an der 4090 Rastermässig dran, wenn hier ständig und ständig RT ins Feld geführt wird.


falsch.


hast du die gezeigten benches gesehen? die meisten 1,5x und einzelne reißen etwas nach oben aus. das reicht gerade mal in raster die 408016gb mit 5-10% zu knacken, die weniger strom verbrät. und dann kommt noch obendrauf das man nochmal 30-40% schneller mit RT ist.


deshalb auch der niedrigere preis. für leute die in zukunft gerne RT nutzen wollen ist amd eine schlechte option. dafür aber eine option, wenn man drauf verzichten kann.

Badesalz
2022-11-04, 18:47:50
Welche, Zukunft? 2023? Oder 2026?

"gerne RT nutzen"? Ist RT UNBENUTZBAR auf RDNA3?

Meridian12
2022-11-04, 18:50:10
falsch.


hast du die gezeigten benches gesehen? die meisten 1,5x und einzelne reißen etwas nach oben aus. das reicht gerade mal in raster die 408016gb mit 5-10% zu knacken, die weniger strom verbrät. und dann kommt noch obendrauf das man nochmal 30-40% schneller mit RT ist.


deshalb auch der niedrigere preis. für leute die in zukunft gerne RT nutzen wollen ist amd eine schlechte option. dafür aber eine option, wenn man drauf verzichten kann.


Wie gesagt, so sehr wie hier ständig RT ins Feld geführt wird,scheinen die Raster Argumente sehr gering zu sein.

Mit der Rasterleistung kann die 4090 wohl nicht richtig Punkten bei dem Preis.So kommt es mir jedenfalls vor und muss deswegen ständig RT,RT,RT ins Feld bringen.

Und wenn NVIDIA bei RT sogar noch mit DLSS3 ankommen muss, sollte man vielleicht sich um RT erst bei der 6xxx NVIDIA Generation kümmern.

Aber wie gesagt, mir geht RT am Bobbes vorbei ,deswegen ist es ermüdent ständig,RT,RT,RT zu hören.

Zumal man nichtmal Benchmarks hat. Und die 4090 nunmal komplett aussen vor ist, weil eine andere Klasse bezogen auf die 7900XTX.

Äpfel mit Birnen Vergleich.

BlacKi
2022-11-04, 18:53:21
lol

meri, du gehst null auf das ein was ich geschrieben habe, und machst mit deinem monolog weiter wo du am thema einer diskussion die performance ableitest. das ist komplett weird.

Welche, Zukunft? 2023? Oder 2026?

"gerne RT nutzen"? Ist RT UNBENUTZBAR auf RDNA3?

hä?

basix
2022-11-04, 18:53:52
Ich habe mir das Pricing nochmals durch den Kopf gehen lassen. Die 7900XT sollte in etwa die Marge einer 6800XT aufweisen. Folgendes waren die Parameter:
- 20 / 16 GB * 1.1x Kostenerhöhung des GDDR6 = 1.35x
- 300mm2 * 1.6x @ N5 = 480mm2 @ N6
- 220mm2 @ N6
- Total ~700mm2 @ N6
- 700 / 520 = 1.35x
--> Overall schätze ich N31 + 20GByte als ~1.35x teurer ein als N21 + 16GByte

--> 6800XT = 649$
--> 649$ * 1.35x = 880$

PCB und teurere Elektronik sowie allenfalls teurerer Kühler kann man auch gleich einpreisen und man bleibt in etwa dort: Die 7900XT wird von der Marge her nicht weit weg wie die 6800XT liegen. Und mir wäre nicht bekannt, dass die 6800XT vom Gewinn her nicht machbar gewesen wäre. Es ist eine sehr grobe Rechnung und in der Tendenz sehe ich es sogar so, dass die 7900XT eine nichtmal unwesentlich höhere Marge als die 6800XT aufweist, zumindest wenn man vom MSRP ausgeht. Die 6900XT war hier sicher besser gestellt von der Marge her, war verglichen mit der 6800XT aber eh nicht attraktiv.

Die 7900XTX hat vermutlich eine nochmals etwas bessere Marge wie die XT, aber nicht viel mehr.

RoNsOn Xs
2022-11-04, 18:54:13
Also ich empfinde AMDs neue GPU wirklich gut gelungen. Klar, gibt es hier und da kleine Weh-wehchen. Die eierlegende Wollmilchsau ist die 4090 allerdings auch nicht. Verfolge den Release mit Spannung und dies könnte meine erste AMD-GPU in Zukunft werden.
Weiß man schon in etwa in welchem Zeitraum mit offiziellen Reviews zu rechnen ist? Hoffentlich nicht einen Tag vor Kauf, wie bei nv?

dildo4u
2022-11-04, 18:54:18
Performance Einschätzung von Leonidas.


https://3dcenter.org/news/news-des-3-november-2022

Badesalz
2022-11-04, 18:54:22
hä?Ja genau :uclap:

aufkrawall
2022-11-04, 18:55:29
Kennt der AB überhaupt schon RDNA3 bei OC? Vor allem bezüglich zwei Taktdomains?
Ist fraglich, ob das jemals kommt, weil Unwinder keinen Bock mehr auf AMD-APIs und AMD-User hat.

sChRaNzA
2022-11-04, 18:55:51
Weiß gar nicht, wo jetzt eigentlich das Problem sein soll? Es gibt noch keinen einzigen Test zu den Karten. Und wenn man jetzt anhand der hochgerechneten Performance auf die Karte schließt, dann sieht das doch ganz solide aus und liegt genau im zu erwartbaren Bereich. Setzt die 4080 & 4070 gut preislich unter Druck. Und das KANN nur gut sein. Und das eine 999$ Karte langsamer ist als eine 1600$-Karte... Ja, äh... Genau!

https://abload.de/img/8ljtycmt3xx91u2eql.png

https://abload.de/thumb/8ljtycmt3xx91u2eql.png (https://abload.de/image.php?img=8ljtycmt3xx91u2eql.png)

Ravenhearth
2022-11-04, 18:56:38
Kann man beides bei AMDs Ansatz unabhängig betrachten? Ein Teil des RT läuft doch über die Shader, und damit sollte der dual-issue Ansatz bei RDNA3 sich hier auch auswirken.
Anders gesagt, wenn AMD an den RT-Einheiten sonst ggü. RDNA 2 nichts ändert, erwartet man dann deutlich weniger?
Zumindest teilweise würde ich das erwarten, ja.

FSR 3 kann nur auf RDNA3 laufen da nur dieser KI-Einheiten hat.
Naja, was die KI-Einheiten überhaupt leisten, wird man abwarten müssen. Laut AMDs Fußnoten bezieht sich das "2.7x Performance" auf einen Vergleich der 7900 XTX mit der 6900 XT in Bfloat16, wo RDNA3 den doppelten Durchsatz pro Takt und CU erreicht. Ob RDNA2 deswegen zu langsam für FSR 3 ist, wird man abwarten müssen.

hast du die gezeigten benches gesehen? die meisten 1,5x und einzelne reißen etwas nach oben aus. das reicht gerade mal in raster die 408016gb mit 5-10% zu knacken, die weniger strom verbrät. und dann kommt noch obendrauf das man nochmal 30-40% schneller mit RT ist.
Also mit 1.55x zur 6950 XT sollte die 7900 XTX schon ~40% über der 3090 Ti und damit ~20% über der 4080 herauskommen.

BlacKi
2022-11-04, 19:04:27
Und wenn man jetzt anhand der hochgerechneten Performance auf die Karte schließt, dann sieht das doch ganz solide aus und liegt genau im zu erwartbaren Bereich.


up to werte mit avg werte? ich nehme lieber die werte, wo man gegen die eigene pre gen testet.

Ravenhearth
2022-11-04, 19:05:03
Die Fußnoten sind übrigens sehr interessant: So gibt AMD eine RDNA3 WGP mit 331 Mio. Transistoren auf 2,5mm² an, verglichen mit 215 Mio. Transistoren in 4,33mm² bei RDNA2 (Fußnote RX-819). AMD scheint generell dichter gepackt zu haben, das kommt nicht nur durch 5nm. Die Info, dass ein RDNA3 WGP im gleichen Prozess minimal kleiner sei als ein RDNA2 WGP, kann also trotz der erhöhten Transistorenzahl noch stimmen. Möglicherweise ist die hohe Packdichte auch ein Grund für den kaum gestiegenen Takt.

Badesalz
2022-11-04, 19:07:02
Ist fraglich, ob das jemals kommt, weil Unwinder keinen Bock mehr auf AMD-APIs und AMD-User hat.Echt? Vor 2 Jahren ist er ja auf Guru3D wegen NV und einem Haufen 3090 Besitzer ausgerastet. Sind jetzt die AMDler dran? :rolleyes:

Iscaran
2022-11-04, 19:12:47
Die Fußnoten sind übrigens sehr interessant: So gibt AMD eine RDNA3 WGP mit 331 Mio. Transistoren auf 2,5mm² an, verglichen mit 215 Mio. Transistoren in 4,33mm² bei RDNA2 (Fußnote RX-819).

Oh interessant. Dann wären 48 WGP ja 48*331 = 15.888 Mio Transistoren, also gerade mal ein VIERTEL der Gesamttransistoren von RDNA 3 (58 Mrd).

Hätte ja gedacht, dass der KERN einer GPU mehr transistoren ausmacht. Aber offenbar ist SI, Caches usw. insgesamt beträchtlich mehr.

Meridian12
2022-11-04, 19:18:05
lol

meri, du gehst null auf das ein was ich geschrieben habe, und machst mit deinem monolog weiter wo du am thema einer diskussion die performance ableitest. das ist komplett weird.



hä?

Ich weiß dass die 4090 schneller ist als die 7900XTX. Die Frage ist wieviel schneller.

RT wird doch ständig von der NVIDIA Fraktion nur gebracht, weil da der NVIDIA Vorteil deutlich größer ist als beim Raster.Wäre es umgekehrt, würde die NVIDIA Fraktion RT quasi nicht erwähnen ;D

Genauso wie die AMD Fraktion die ganze Zeit über FSR3 reden würde, wenn man da bei gleicher Qualität doppelt so schnell wäre wie die 4090.

So oder so sollte man bei der 7900XTX die 4090 komplett rausstreichen.

Das ist die schnellste Karte. PUNKT.Und die teuerste. Das Gegenstück zur 7900XTX ist die 4080 16GB. Wobei preislich sogar eher die ehemalige 12GB,weil näher an dieser als an der 4080 16GB. Aber dafür gibt es ja die 7900XT mit gleicher UVP.

Tesseract
2022-11-04, 19:24:24
Und wenn man jetzt anhand der hochgerechneten Performance auf die Karte schließt

das kannst du nicht. nicht von "up to" (lol) auf average, nicht mit so groben angeben wie "1.5x" und nicht ohne die testbedingungen zu kennen. selbst unter der annahme dass alle diese zahlen korrekt sind könnten die das genau so gut auf einem Zen4 3D engineering sample getestet haben und damit auf einen grad der GPU-limitierung kommen die momentan kein reviewer erreichen kann. außerdem weiß kein mensch was die in diesen spielen überhaupt gemessen haben.

diese fake-balken sind völliger müll.