PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29] 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Thomas Gräf
2022-11-07, 18:04:00
Fake Folie und Leaker mal ganz aussen vor.
2 andere Dinge sind iwie schwer verständlich.
Wenn alles so super gelaufen wäre, warum dann der späte Launch, der fürs Weihnachtsgeschäfft der Bordpartner so gut wie zu spät ist.
Dann der unglaublich winzige Unterschied zwischen XT und XTX ihrem Top Dog.
Das reimt sich nich zusammen, bin da bei Mangel76.

Complicated
2022-11-07, 18:06:27
Ja, sprachliche Ungenauigkeiten halte ich für möglich. Auch, dass OREO dem Marketing besser gefällt, weil "jeder mag Oreos".

Aber wir wissen es beide nicht. Von daher können wir noch stundenlang darüber sinnieren.
Und genau das Unwissen macht AMDs offizielle Ausführung wahrscheinlicher als Ausgangspunkt, bis man es genau weiss. Wann wurde ein unbestätigter Leak zu einer wahrscheinlicheren Quelle als das Unternehmen selbst?

Wenn das nicht gegeben ist, sind jegliche Forendiskussionen ohne Grundlage.

DrFreaK666
2022-11-07, 18:10:20
Ich hätt auch besser gefunden, wenn die Karten 7900XT und 7800XT gebrandet worden wären, wie letzte Generation. Das hätte auch preislich besser gepasst...

Wieso? UVP der 6900XT war 999$, bei der 7900XTX ist 999$.
Wäre es dir lieber gewesen, wenn AMD wie NV die Empfehlung erhöht hätte?

Nazar
2022-11-07, 18:57:58
Was für mich nicht zusammenpasst:

Entweder gibt es so einen Bug und er lässt sich nicht kurzfristig fixen - dann ist der lange bekannt, warum also so lange bis zum Launch zögern und das Weihnachtsgeschäft verpassen? Dann hätte man Wochen vorher launchen können, denn ich glaube der Plan war durchaus früher zu sein als 10 Tage vor Weihnachten.

Gibt es den Bug und lässt er sich doch kurzfristig fixen, hat man den Launch vielleicht soweit wie möglich rausgezögert und wir bekommen am 13.12. doch einen gefixten und besseren Chip, aber eventuell in geringen Dosen, weil die Vorproduktion fehlt? Das würde aber bedeuten, dass AMD bei der Präsi extrem tiefgestapelt haben müsste.

Beides klingt für mich unwahrscheinlich. Aber wenn es keinen Bug gibt, verstehe ich diesen Launchtermin noch weniger :confused:. Die einzige Erklärung wäre, dass am 13.12. die bereinigte Version gelauncht wird und es eben das ist, was AMD vorgestellt hat.

Im Prinzip ist daran ja nichts auszusetzen: AMD würde bei 2000€ kaum Karten verkaufen, also konzentriert man sich auf Bereiche, in denen sich Geld verdienen lässt. Andererseits hat man NV soweit getrieben, einen völlig überdimensionierten AD102 zu veröffentlichen, der horrende Kosten hat, Probleme mit der Stromversorgung und damit schlechte Presse verursacht und mit >2000€-Preisen auch in überschaubaren Mengen verkauft wird. Dazu das unausgewogene Portfolio darunter mit den im Verhältnis zu kleinen 103 und 104, was wieder schlechte Presse bringt. Man könnte fast meinen, das war Absicht :biggrin:

Mal einfach so schnell gibt es nicht in einem Millionengeschäft. ;)
Ich kann mir gut vorstellen, dass sie den Bug zwar gefunden, dann aber alles auf "Halt" gesetzt haben, um die Folgen, die Kosten und den Imageverlust in der Chefetage zu diskutieren. Dann muss das auch noch im Vorstand besprochen und abgestimmt werden. So "einfach", wie manche zu denken scheinen, ist das Thema bei weitem nicht.
Schlussendlich hat man sich entschieden, dass man das Weihnachtsgeschäft nicht vollkommen in der Hand von nVidia lassen möchte, und den buggy Chip ins Rennen gegen die 4080 und (Ti) schickt. Deshalb vermutlich die Verzögerung.

Ich glaube, dass es nächstes Jahr eine 7990 oder sowas Ähnliches geben wird, die nicht unter dem Taktproblem leidet.
AMD hat wirklich richtig tief in die "Sche*ße gegriffen und versucht das Beste daraus zu machen.
Derzeit hat nVidia alle Trümpfe in er Hand und kann das Marktgeschehen diktieren. Vermutlich wusste nVidia um das Problem und hat deshalb die 4080 12GB und 16GB gebracht, weil sie vermuteten, dass AMD nur mit Navi 32 kommen werden und den Launch von N31 bis nach Mitte nächstens Jahres verschieben müssen. Dann hat man mitbekommen, dass der "defekte" Navi 31 doch kommt aber die 4080 deutlich schlagen wird (Preis/Leistung) und AMD ihre Preise an die von nVidia anpasst, und schon musste die 4080 12GB (4060Ti ;)) verschwinden, weil die kein Land für den Preispunkt sehen würde.
Ich wette, dass das nVidia auch am liebsten mit der 4080 16GB machen würde (4070), doch waren die Boardpartner schon zu weit vorangeschritten und man wird vermehrt auf DLSS 3 setzen und alles von Seiten nVidias tun, um auch aktuelle Spiele damit schnell auszustatten, um noch irgendwie den hohen Preispunkt zu rechtfertigen.
Aber das Heft hat gerade nVidia in fester Hand. ;)

Complicated
2022-11-07, 19:14:11
Wie ich schon zuvor vermutet habe: Der unterschiedliche Core/Uncore Takt und der geringe Unterschied von nur 200MHz mit erheblichen Verbrauchs unterschiede (laut AMD!!!) zeigen mehr als eindeutig dass da was nicht stimmt.
Aha - ich biete eine für mich wahrscheinlichere Erklärung dafür an:
Wenn AMD vorhat hat ein zweites GCD-Chiplet mit der Architektur zu nutzen, wäre eine getrennte Taktdomain der beiden GCD und Frontend Grundvoraussetzung, damit die beiden Chiplets ihren jeweils bestmöglichen Takt nutzen können oder auch unterschiedlich ausgelastet/Powerstates einnehmen können - ich sage es ist ein Design-Merkmal wenn man die Zahl der Chiplets skalieren will. Vor allem um kleinere Taktunterschiede der Chiplets kompensieren zu können. Ich denke ein 2xGCD Chiplet Design ist gar nicht sinnvoll möglich mit einer gemeinsamen Taktdomain für 2xGCD und Frontend.

Savay
2022-11-07, 19:15:44
Denke auch, dass es u.a. ein Zwischenschritt zu mehr GCDs ist.

Ansonsten helfen mehr Clock Domains ja sicher beim Stromsparen und dem Loadbalancing innerhalb eines Chips.
Das wird halt nötig, weil die Leistungsaufnahme immer mehr an die Grenze dessen geht was mit dem bisherigen Steckkartenkonzept handlebar ist.
nV ist ja defakto bereits (fast) drüber!

Deswegen wurde auch schon bei Rembrandt ja viel mehr entkoppelt, wenn auch aus anderen Gründen. (ULP Optimierung)
Aber das ist am Ende die selbe Zielsetzung die aus einem begrenzten TDP resultiert, egal ob sie jetzt nach oben effektiv begrenzt ist oder möglichst nach unten gedrückt werden soll.

DrFreaK666
2022-11-07, 19:21:44
Für was sind jetzt eigentlich die AI-Einheiten? Gibt es dazu Infos/Gerüchte? Das ist doch viel interessanter

Exxtreme
2022-11-07, 19:22:39
Wie ich schon zuvor vermutet habe: Der unterschiedliche Core/Uncore Takt und der geringe Unterschied von nur 200MHz mit erheblichen Verbrauchs unterschiede (laut AMD!!!) zeigen mehr als eindeutig dass da was nicht stimmt.

Dann stellt sich wiederum die Frage warum die Möglichkeit verschiedene Teile des GPU-Paketes mit unterschiedlichen Taktraten zu betreiben überhaupt drin ist. Das macht einige Dinge komplexer und teurer. Das macht man nicht einfach mal so. Ausser natürlich, man plante es vorher. Ergo glaube ich schon, dass das, was man jetzt sieht von vorneherein geplant war.

Complicated
2022-11-07, 19:23:58
Und es ermöglicht darüber hinaus weitere Chiplets mit FFUs für alles möglich separat anzubinden.
Der Beginn der AMD Chiplet Strategie sah so aus:
https://forum.planet3dnow.de/index.php?threads/amd-interposer-strategie-zen-fiji-hbm-und-logic-ics.422600/

iamthebear
2022-11-07, 19:30:47
Ich finde es amüsant wie alle, die die ganze Zeit bewusst oder unbewusst irgendeinen Schwachsinn verbreitet haben jetzt nach 1 Mio. Ausreden suchen was nicht alles passiert sein muss, dass damit sie vielleicht doch Recht haben.

Die 3.5GHz für N31 hat es nie gegeben genauso wie die Dual GCD Varianten.

Was AGF angeht: Der gibt ja selbst zu, dass er keine Connections zu AMD hat und nur das wiedergibt, was da so in der Branche als Gerücht zirkuliert und die Gesichte ist in sich schon nicht schlüssig:
AMD soll den AIBs Taktraten weit jenseits von 3GHz versprochen haben und das noch bevor sie den ersten Chip selbst getestet haben? Das klingt für mich nicht besonders logisch.

Noch einmal: AMD sagt es ja selber!
Wenn man bei humanen 2,3GHz für 9% mehr Takt 25% mehr Verbrauch angibt ist es mehr als offensichtlich.

Verstehe nicht ganz worauf du hinaus willst. 25% mehr Verbrauch für 9% mehr Takt ist genauso viel wie aope anderen Karten am Markt auch haben angefangen von RDNA2 über Ampere bis hin zu Ada.

Faustregel für GPUs:
U~f

und daraus folgend:
P~f³

Das Ganze gilt bei GPUs ca. 10-20% um den Standardtakt herum.

Badesalz
2022-11-07, 19:34:39
Irgendwie komm ich trotzdem nicht drum herum um das Gefühl, daß da irgendwas der Showstopper geworden ist und sie gerne eine Leistung gebracht hätten für die sie 100$ mehr verlangen könnten :wink:

Ob RDNA3+ kommt und wann RDNA4 kommt steuert für mich (im sinnvollen Zeitfenster) nach wie vor das was 4080 und 4070 zeigen und vor allem zu welchen Preisen.

Und von den ganzen spannenden Sachen die ihr so findet, sind für mich imemrnoch die obigen ohne DLSS vs. RDNA3 ohne FSR. Das will ich erstmal sehen :|
Und leg mich auch keineswegs fest, ob das AMD besser aussehen lässt...

Linmoum
2022-11-07, 19:36:00
Fängt das Ding eigentlich wirklich derart an zu saufen, wenn man den Takt anhebt bzw. ist der einfach schon derart am Limit?

Ich interpretiere zumindest die Folie mit dem "up to 25% power savings" und dem Shader/FE-Takt so, dass die nur 2.3GHz im Vergleich zu den 2.5GHz für derartige Einsparungen sorgen, obwohl das ja nicht einmal ein Taktplus von 10% ist.

Dann sind die 355W wahrscheinlich wirklich letzte Rille und das Maximum mit dem Takt, bevor man auf 3x8pin hätte wechseln müssen.

ashantus
2022-11-07, 19:41:42
was seien könnte ist, daß N31 ursprünglich für ATX 3.0 und PCI 5.0 designed wurde. Dann hat man erkannt, daß es keine PSUs auf dem Markt gibt und musste weider auf die alten Standards zurück. Daraus könnte sich ein Problem bei Stromversorgung und verbrauch sowie den Taktraten ergeben haben.
(rein persönliche Spekulation)

Was ich auf jeden Fall erwarte, ist ein Rebrand/ B-Version im Frühjahr. Dieser Chip wird dann PCI 5.0 sein und den neuen Stromanschluss mitbringen. Und höhere Taktraten.

Complicated
2022-11-07, 19:45:23
Was gar kein blöder Service für die Custom-Hersteller ist - in 2 Monaten gibt es die Referenz von AMD mit 2x8-Pin einfach nicht mehr, nachdem alle Custom-Designs sich mit 3x8-Pin ausgetobt und preislich positioniert haben. Ist die Referenz bei Ihrem Preispunkt unter 1.000,- jedoch beliebter, gibt es ein sehr günstiges Referenz-Layout, das jeder Hersteller ebenfalls ins Programm nehmen kann.

Exxtreme
2022-11-07, 19:55:25
Was ich auf jeden Fall erwarte, ist ein Rebrand/ B-Version im Frühjahr. Dieser Chip wird dann PCI 5.0 sein und den neuen Stromanschluss mitbringen. Und höhere Taktraten.

Pcie5 halte ich für unwahrscheinlich. Das erhöht wohl die Kosten und bringt aber nichts. Es gibt jetzt schon kaum Unterschiede zwischen Pcie3 und Pcie4. Und je mehr RAM die Grafikkarte hat desto unwichtiger wird es.

TheGood
2022-11-07, 20:52:09
Also ich finde die Videocarz Folie nicht wirklich problematisch.
Es steht ja wirklich dran RDNA3 ist designed für über 3 GHZ. Für mich heisst das wenn N32 oder N33 mit über 3 GHZ kommen dann ist an der Folie ja nichts falsch.

Jetzt wirds hypotetisch.... Wenn N31 wirklich ein Problem hätte, warum dann diese extermen 7900 Bezeichnunge? Das macht doch schlichtweg keinen Sinn und von daher wird da auch nicht so schnell ein Nachfolger rauskommen. Ausserdem kann ich nicht so schnell eine 7950 rausbringen und mal kurz 30% Performance draufpacken. Da kriegen sie einen Shitstorm von den bisherigen Käufern der sich gewaschen hat. Das passt für mich auch nicht zusammen.

Ebenso wird die 7900XTX ja nicht soweit von der 4090 weg sein, was auch wieder dafür spricht, dass er genauso gedacht war.


Unklar ist aber tatsäschlich, warum die Grafikkarten erst so später rauskommen. GGf. gibts ja auch probelme bei der Produktion das Packaging oder sonst irgendwas. Wir wissen es ja nicht.

Ich finde den HArdware Bug, vor allem mit den aktuellen Erklärung auf der Hauptseite hier. Nicht realistisch und auch nicht nachvollziehbar. Schaun wir mal

PJ
2022-11-07, 20:54:07
Ich interpretiere zumindest die Folie mit dem "up to 25% power savings" und dem Shader/FE-Takt so, dass die nur 2.3GHz im Vergleich zu den 2.5GHz für derartige Einsparungen sorgen, obwohl das ja nicht einmal ein Taktplus von 10% ist.
"Up to" means 25% in certain circumstances or scenario, so it could be, for example, 10% for the average workload.
As for the 3ghz+, given that some rdna2 chip has Fmax 2800, 15% clock increase is well above 3000 already.

iamthebear
2022-11-07, 21:15:26
Fängt das Ding eigentlich wirklich derart an zu saufen, wenn man den Takt anhebt bzw. ist der einfach schon derart am Limit?

Ich interpretiere zumindest die Folie mit dem "up to 25% power savings" und dem Shader/FE-Takt so, dass die nur 2.3GHz im Vergleich zu den 2.5GHz für derartige Einsparungen sorgen, obwohl das ja nicht einmal ein Taktplus von 10% ist.


Wie oben schon erwähnt: Das macht jede GPU so.
Hier einmal als Beispiel den Skalierungstest von Geldmann3 mit seiner RTX 3090 und die mit ihren 900mV schon auf Stock sehr nahe am Sweetspot:

https://i.ibb.co/3y9JXKX/MHz-Curve.png (https://i.ibb.co/W2zQcKP/MHz-Curve.png)

300W: 1630MHz
375W: 1830MHz (+11%)

Dann sind die 355W wahrscheinlich wirklich letzte Rille und das Maximum mit dem Takt, bevor man auf 3x8pin hätte wechseln müssen.

2x8 Pin liefern 300W
Das PCIe liefert auf der 12V Schiene 66W (die restlichen 9W sind 3.3V).
Also ja es ist wirklich "letzte Rille" und ich hoffe einmal stark, dass AMD hart deckelt, denn die üblichen 20% mehr TDP, die man im Menü einstellen kann würden schon die Spezifikation verletzen.

was seien könnte ist, daß N31 ursprünglich für ATX 3.0 und PCI 5.0 designed wurde. Dann hat man erkannt, daß es keine PSUs auf dem Markt gibt und musste weider auf die alten Standards zurück. Daraus könnte sich ein Problem bei Stromversorgung und verbrauch sowie den Taktraten ergeben haben.
(rein persönliche Spekulation)

Versuch einmal 450W bei einem 300mm² Die wegzukühlen. Wer das ernsthaft vorschlägt, darf das gerne mit einem 13900K im 350W Mode probieren. Da steigen schon reihenweise die High End AOIs aus.

Einmal abgesehen davon:
450W bedeutet nicht nur höheren Stromverbrauch beim Käufer. Das treibt auch die BOM Kosten enorm. Man braucht deutlich bessere Kühler, die Platinen müssen die Leistungsaufnahme vertragen usw.
Das kann sich Nvidia bei einer 1600$ Karte (die sie real sowieso um 2000$ verkaufen) leisten. Bei einer 1000$ Karte sieht das aber schon wieder ganz anders aus.

Was ich auf jeden Fall erwarte, ist ein Rebrand/ B-Version im Frühjahr. Dieser Chip wird dann PCI 5.0 sein und den neuen Stromanschluss mitbringen. Und höhere Taktraten.

Der 12VHPWR ist zwar teil der PCIe 5.0 Spezifikation hat aber sonst mit PCIe 5.0 relativ wenig zu tun.
Und nein ich glaube nicht, dass AMD nach dem Debakel bei Nvidia hier auf den neuen Stecker setzen wird.
Jetzt mal ehrlich: Ob da 3 Stecker drauf sind oder nur einer ist wirklich meine letzte Sorge.

davidzo
2022-11-07, 21:31:21
Man sollte da auch noch eine Sache bedenken: selbst wenn es den Bug gibt und es einen gefixten Respin gibt, die "reparierten" Karten werden mehr Saft ziehen wenn man sie höher taktet. Dieser angebliche Bug verhindert offenbar, dass man den Chip höher denn 2,9 GHz bekommt. Am Stromverbrauch an sich ändert sich da nichts.
Ja, aber es kann schon sein dass man mit niedrigerer Voltage geplant hat, diese aber erhöhen musste um eine bestimmt Schwachstelle des Designs stabil zu bekommen.
Auch nicht zu vernachlässigen sind die Einsparungen beim SI und GDDR wenn man 192mb stacked cache verbaut. Bei N22 war es auch hauptsächlich der Cache der mehr Power für die ALUs freigegeben hat im vergleich zum ansonsten ähnlichen Navi10.


Wenn das Ding wirklich einen solchen Bug hätte, wüsste man das schon seit langem. (und deshalb ist es nicht plausibel, dass die Rumors kurz nach dem Launch damit anfingen - ich tippe darauf, dass das Ausreden der Leaker für ihre Fehlinformation war. Mich würde nicht wundern, wenn ganz bewußt Fehlinformationen gestreut werden. So wie mit den Dual GCDs.) Würde man wirklich einen Respin wollen, wäre der schon lange unterwegs und es gäbe in wenigen Monaten neues Silizium.
Dann hätte man aber das Produkt nicht 7900 XTX genannt.


ja Plausibel ist es nicht, aber deine Lösung ist auch nicht ganz plausibel:
1. AMD wird nicht mit 6950XT Taktraten geplant haben. Für den neuen N5 Prozess wird man sicher höhere Ziele gehabt haben. Anders kann ich mir auch nicht vorstellen wieso man mit stacked Cache Modellen plante.
2. Finale Taktraten werden wirklich erst so spät festgelegt. Augenscheinlich fertigt AMD die erste Serie auch mal wieder selber, die AIBs haben also vermutlich erst seit kurzem die nötigen designfiles und keine Karten gehabt.
3. Dual GCD war imo nur eine Fixe Idee aus dem Forum, das war nie ein plausibler leak afaik. Fand ich von Anfang an unglaubwürdig.
4. Ja, wenn es in N32 und N33 behoben sein soll, dann weiß AMD es schon sehr lange. Ich bin auch am Zweifeln ob es durch einen einfachen Respin fixbar ist. Wenn es wirklich ein Designproblem ist, dann wird man um änderungen am floorplan, rtl, synthese nicht herum kommen. Eventuell hat es nur mit der Power delivery zutun, das heißt man muss nur an die letzten Metal RDS Layer ran, da hält sich der Aufwand for rerouting in Grenzen.
5. Man weiß mittlerweile fast gar nichts mehr. AMD sowie Nvidia scheinen sehr gut dicht zu halten und nur das zu leaken was man will. Insofern würde ich nicht sagen dass man das schon lange hätte wissen müssen.


Dieser Chip wird dann PCI 5.0 sein und den neuen Stromanschluss mitbringen. Und höhere Taktraten.
Ein simpler respin/neues Stepping/neue last metal Leayer kann keine fehlenden Features nachliefern. RTL und synthese wird man sicher nicht komplett von vorne beginnen, das würde Jahre dauern bevor dann der respin kommt.



Ich gehe von einer 7900X3D oder 7990 eher ab Mitte 2023 aus. Wieso? - Weil die 4090 den kleinen Enthusiast Markt bis Q1 schon bedient hat und die allgemeine PC Konjunktur so stark abgekühlt ist dass es sich aus unternehmerischen gründen nicht lohnt hier noch weitere Modelle zu pushen. AMD kann die N5 Kapazitäten besser für Epyc aber auch N32 verwenden, der einen wesentlich größeren Markt hat und von Nvidia noch keine direkte Konkurrenz bekommt.

Agent117
2022-11-07, 23:13:16
Also ich finde die Videocarz Folie nicht wirklich problematisch.
Es steht ja wirklich dran RDNA3 ist designed für über 3 GHZ. Für mich heisst das wenn N32 oder N33 mit über 3 GHZ kommen dann ist an der Folie ja nichts falsch.

Jetzt wirds hypotetisch.... Wenn N31 wirklich ein Problem hätte, warum dann diese extermen 7900 Bezeichnunge? Das macht doch schlichtweg keinen Sinn und von daher wird da auch nicht so schnell ein Nachfolger rauskommen. Ausserdem kann ich nicht so schnell eine 7950 rausbringen und mal kurz 30% Performance draufpacken. Da kriegen sie einen Shitstorm von den bisherigen Käufern der sich gewaschen hat. Das passt für mich auch nicht zusammen.


Geht ja technisch auch nicht so schnell, Respin kann je nach Änderungen schonmal 6 Monate dauern. Je nachdem, wann der Bug auffiel, sofern es den tatsächlich gibt, könnte es natürlich eher soweit sein.

Angeblich soll Navi 32 ja noch rechtzeitig gefixed worden sein. Wir werden daher vermutlich mehr wissen wenn der verdächtig wenig verbraucht, um die Distanz zur 7900X zu wahren.
Im Umkehrschluss wäre der mit in Richtung 3 Ghz so schnell wie die 7900XT.
Mal angenommen die Shader takten mit 2,7 Ghz:

60/80 * 2700/2000 = 100 %, also gleiche Rohleistung und 80 % Speicherbandbreite. Können mit dem etwas unberechenbaren IF dann schon im Mittel 95 % Gamingleistung sein bei vermutlich 250 W, je nachdem natürlich noch, wie das Weniger an Shaderengines/Flop sich bemerkbar macht. Wäre die deutlich bessere Karte technisch gesehen.
Wird spannend, denke spätestens da sollten wir wissen, ob N31 kaputt ist oder nicht.

crux2005
2022-11-07, 23:19:52
Gibt es grobe Schätzungen wie teuer ein N31 die sein soll? Ich bin auf cca. 140 USD gekommen. (82% und 95%+ yield, 14k für N5 und 10k für N6 wafer) und je nachdem wie teuer das packaging ist.

amdfanuwe
2022-11-08, 00:10:42
Hab ich vor ein paar Seiten schon mal gemacht
Hab dazu gestern noch was gerechnet wie jan für die CPU in seinem Video.
Ich komme auf eine BOM von:
AD102 ~300$
N21 ~ 170$
N31 ~170$
N32 ~120$
N33 ~50$
N24 ~30$

N33 in N5 bei 150mm² käme ich auf ~60$
Natürlich nur Hausnummern mit 17000$ für N5 Wafer und 10000$ für N6 Wafer. Dazu noch 20$ Packaging für N31/2, 10$ bei N33.
Wer selbst rechnen möchte: http://cloud.mooreelite.com/tools/die-yield-calculator/index.html

Eigentlich interessant, dass N31 und N21 bei gleicher Größe auf nahezu den selben Preis kommt.
N32 hat fast die gleiche Größe wie N22, wobei ich bei N22 auf ~85$ und bei N23 auf 60$ komme.

Aber nicht vergessen, AMD muss die Entwicklungskosten wieder reinholen, will noch etwas Gewinn machen, OEMs wollen Gewinn, Händler wollen Gewinn und der Finanzminister will auch seinen Teil. Dazu noch RAM, Board, Kühler, ein paar Kleinteile, Verpackung und Transport. Das summiert sich halt.

Edit:
300mm Wafer, Defekt Density 0,07
AD 103 ~165$
AD 104 ~120$

Da konkurriert eindeutig N31 mit AD103 und N32 mit AD104.

Etwas übersichtlicher:
~300$|AD102||
~170$|AD103|N31|N21|
~120$|AD104|N32|
~80$|||N22|
~60$|||N23|
~50$||N33|
~30$|||N24

Digidi
2022-11-08, 01:14:40
Wie lange hat eigentlich der Respin beim Prozessor 1800x gedauert? Das waren doch nicht mehr als 2 Monate. AMD hätte ja dann eine 7850 xt als Lückenfüller bringen können.

HOT
2022-11-08, 01:56:22
Wenn es einen respin von n31 geben sollte wird n32 nicht erscheinen und alles zusammen launcht dann als 8k Serie. Die 7k werden dann einfach als Intermezzo in die Geschichte eingehen.

reaperrr
2022-11-08, 02:04:37
Ich gehe von einer 7900X3D oder 7990 eher ab Mitte 2023 aus. Wieso? - Weil die 4090 den kleinen Enthusiast Markt bis Q1 schon bedient hat und die allgemeine PC Konjunktur so stark abgekühlt ist dass es sich aus unternehmerischen gründen nicht lohnt hier noch weitere Modelle zu pushen.
So ist es (leider).
Ich wäre mir selbst bzgl. der X3D nicht zu sicher, weil die XTX für die 4080 reicht und eine X3D zusätzlich schon ne deutliche Chiptakt-Steigerung bräuchte, um selbst in Raster an die 4090 ranzukommen.
Eine Karte oberhalb der XTX wird mMn nur kommen, wenn entweder NV noch eine 4080 Ti mit 320bit/20GB und weniger GPC/SM zwischen 4080 und 4090 bringt und die 4080 billiger macht, oder wenn sich das Takt-/Effizienzproblem von N31 doch leichter beheben lässt, sich ein Respin lohnt und wirklich 10%+X an Takt bei gleicher TBP rausholen kann.

AMD kann die N5 Kapazitäten besser für Epyc aber auch N32 verwenden, der einen wesentlich größeren Markt hat und von Nvidia noch keine direkte Konkurrenz bekommt.
In die Richtung denke ich auch.

Bei N32 geht auch 1/3 weniger TBP für die MCDs und den VRAM drauf, d.h. selbst wenn es ein generelles RDNA3-Takt-Problem ist und N32 hier noch keine nennenswerte Verbesserung der Takt/Spannung-Kurve bringt (Design-seitig wird der N32-GCD hauptsächlich ein halbierter N31-GCD mit zwei zusätzlichen WGPs je SE sein, von daher fraglich, wieviel Zeit und Ressourcen für Layout-/Implementierungsoptimierungen hier noch war), können sie den Chip notfalls über die TBP auf bessere Taktraten prügeln.

Vielleicht 270-280W TBP? Schwerer zu kühlen wg. dem kleinen GCD, aber vom Gesamtverbrauch noch machbar, theoretisch sogar mit 6+8pin.

Jedenfalls braucht N32XTX wenigstens 200Mhz höhere Shader-Taktraten als die 7900XTX, besser wären 250MHz (>=10%).
Sonst wird es mit etwas Pech selbst gegen die noch kommende 4070 eng, denn mMn wird NV die schön hochprügeln, um die gegen den N32-Vollausbau platzieren zu können, wenn die 3080Ti-3090Ti endlich abverkauft sind.

Mit Taktraten an 3GHz ran würde ich aber auch bei N32 nicht rechnen, wenn der z.B. 2,8/3,0 schaffen würde hätte AMD mMn die 79XT etwas höher spezifiziert, weil N32XTX der sonst zu nahe käme, wenn er 33% mehr Shadertakt schaffen würde.

Tippe leider eher auf 2,5/2,7 @ 250-260W TBP.

kmf
2022-11-08, 02:30:49
Ich glaub diese ganzen Gerüchte wegen Bug im Chiplet nicht. Wahrscheinlich kommt wegen der Packungsdichte eine ähnliche OC-Sperre zum Einsatz wie beim 7800 3D. Ich bin wie Exxtreme der Meinung, dass das so geplant war.

DrFreaK666
2022-11-08, 05:40:41
...
Tippe leider eher auf 2,5/2,7 @ 250-260W TBP.

Man benötigt ja noch Luft für die Refresh-Karten.
Frag mich wie AMD das bei Navi31 anstellen will. Dann doch mit 3x 8pin?

dildo4u
2022-11-08, 05:46:05
Paar gute Punkte von DF die 7900xt scheint anzukündigen das Midrange mher als mäh wird.
Die Karte ist mehr beschnitten als 6800xt vs 6900xt.
Auch gab es keine Performance Werte der XT bei NV wusste man wenigstens vor Release was für Abfall die 4080 12 GB war.

k04PoRR62-k

DrFreaK666
2022-11-08, 05:48:02
Wo sagen die dass Midrange "mäh" wird? Das habe ich da nicht rausgehört und woher wollen die das wissen?
Die 7900XT ist da um kaputte Chips loszuwerden. Aber die Preisdifferenz ist zu gering

dildo4u
2022-11-08, 05:54:01
Hab ich doch geschrieben die 6800xt war 650$ und näher am Top Modell als die 7900xt.
Wenn Midrange gut wird würde das Modell für den Preis absolut kein Sinn machen.

DrFreaK666
2022-11-08, 05:58:10
Die 6900XT war damals absolut sinnlos. Sie war kein High End wegen 10% mehr Performance.

dildo4u
2022-11-08, 06:04:22
Ja das wurde wie bei Nvidia korregiert, die Abstände sind größer.
Jetzt kann die 7800xt für 650€ kommen und nur 6900xt Performance bringen und es würde ins Bild passen.
Preis/Leistung kaum besser als jetzt mit selber RT Performance etc.

dargo
2022-11-08, 06:14:35
Ich finde Differenzen zwischen den Produkten von 10% auch ziemlich Banane, als ob das einer merken würde. Imho wären Werte zwischen 20 und 30% viel sinnvoller um vernünftige Produktdifferenzierung zu bieten.

btw.
Die 7900XTX hat nur 14% mehr Shader als die 7900XT. AMD geht hier schon mit dem Takt bei der XT etwas runter damit da überhaupt ein Performanceunterschied von ~15-20% entsteht. Nüchtern betrachtet ist die Preisdifferenz von nur 100$ dennoch recht ungünstig gewählt, zumindest für den Kunden. Es werden auch 4GB Vram weggelassen. Womöglich will AMD, dass die Kunden eher zum vollen N31 greifen als zum Salvage, deshalb der kleine Preisunterschied. Muss man mal abwarten wie die Straßenpreise dann aussehen.


Jetzt kann die 7800xt für 650€ kommen und nur 6900xt Performance bringen und es würde ins Bild passen.
Preis/Leistung kaum besser als jetzt mit selber RT Performance etc.
N32 wird schneller sein als die 6900XT und weniger verbrauchen.

PS: die 7900XTX erwarte ich im Schnitt der Games bei +60-65% vs. 6900XT. Die 7800XT mit 32 WGPs würde ich auf ca. +15-20% über der 6900XT einschätzen. Ich gehe nämlich davon aus, dass N32 höher takten wird als N31.

dildo4u
2022-11-08, 06:24:44
War das Gerücht nicht immer 6900xt Performance aber für billig?
Das hätte Sinn gemacht wenn AMD die 7900XT für den Preis der 6800XT verkaufen würde.
Jetzt können sie n32 als 7800XT für 650€ verkaufen und sagen sie haben die Preise nicht erhöht.

dargo
2022-11-08, 06:32:20
War das Gerücht nicht immer 6900xt Performance aber für billig?

War genauso ein feuchter Traum wie die 3+Ghz von N31. Die Gerüchte gingen von N33 = ~N21 aus. Was mir von Anfang an spanisch vorkam. Schon alleine wegen den 8GB Vram. Das passt einfach nicht in eine N21 Performanceklasse.

DrFreaK666
2022-11-08, 06:32:21
Zu wie viel Prozent waren die Gerüchte denn korrekt?

dargo
2022-11-08, 06:38:02
Zu 80,67%. :freak:

Vieles war richtig, außer Frequenzen und Performanceinschätzungen.

mboeller
2022-11-08, 06:46:29
Die Gerüchte gingen von N33 = ~N21 aus.

wieso?

funktioniert doch sicher. Aber eben nur bei RT. Oder auch nicht :)

dildo4u
2022-11-08, 06:50:41
Ich denke die 7800XT kommt mit 16GB damit AMD weiterhin besser dasteht als die 4070 12GB, das zementiert aber Preise über 600€.

dargo
2022-11-08, 06:54:02
Natürlich kommt der N32 Full mit 16GB, siehst du doch am 256Bit SI. Salvage dann logischerweise mit 12GB @192Bit und drei MCDs.

DrFreaK666
2022-11-08, 07:16:29
Zu 80,67%. :freak:

Vieles war richtig, außer Frequenzen und Performanceinschätzungen.

Naja, schau dir mal frühere Gerüchte an ;)
https://www.guru3d.com/news-story/rumor-radeon-rx-7900-xt-would-be-up-to-3-times-faster-than-the-radeon-rx-6900-xt.html

Im Englischen sagt man, dass man Gerüchte "mit einer Prise salz" (grain of salt = mit Vorsicht) genießen soll.
Heutzutage benötigt man eher 1kg

reaperrr
2022-11-08, 07:18:29
Die Gerüchte gingen von N33 = ~N21 aus. Was mir von Anfang an spanisch vorkam. Schon alleine wegen den 8GB Vram. Das passt einfach nicht in eine N21 Performanceklasse.
Die Ur-Quellen haben wohl nur gesagt, dass N33 "in 1080p schneller als manche N21-Modelle" wird, womit wohl die 6800 gemeint war, RGT & Co. haben daraus dann "N33 in 1080p so schnell wie oder sogar schneller als 6900 XT" gemacht.

Dass N33 so oder so eher N23-Nachfolger und primär für 1080p gedacht ist und 8GB deshalb ausreichend (nicht toll, aber halt ausreichend) sind, war aber von Anfang an abzusehen.

Zossel
2022-11-08, 07:22:12
Die Ur-Quellen

Definiere "Quelle".

dildo4u
2022-11-08, 07:22:22
Ich vermute die 7800xt wird das Pedal zum Boden drücken um 650€ zu rechtfertigen, bei 250 Watt läge sie noch unter der 4070 kann aber massiv höher Takten als N31.

dargo
2022-11-08, 08:02:35
Ich vermute die 7800xt wird das Pedal zum Boden drücken um 650€ zu rechtfertigen, bei 250 Watt läge sie noch unter der 4070 kann aber massiv höher Takten als N31.
Massiv höher takten? lol... :tongue:

Wenn der Boosttakt von 2,48Ghz bei N31 stimmt wird N32 mit ca. 2,7Ghz boosten. Viel mehr wird es da nicht geben imho. Den Rest geben dann AIBs drauf mit dann noch mehr Verbrauch.

btw.
N32 wird imo mehr als 650€ kosten. Selbst bei einer UVP von 649$ ist die Preislücke zur 7900XT ziemlich groß.

Neurosphere
2022-11-08, 08:17:33
Problem könnte sein das durch die kleinen Chips der Yield einfach zu gut ist. Man müsste Chips absichtlich deaktivieren um die 7900XT zu fertigen, da ist die Marge natürlich geringer als bei der XTX, die Kosten bei AMD aber erstmal gleich. Die 4GB fallen da auch nicht mehr ins Gewicht.

OgrEGT
2022-11-08, 08:31:11
https://twitter.com/Locuza_/status/1589659433990512641?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1589823 625162465282%7Ctwgr%5Eb180cd812ca714c78bac5a0a24374bf5c3063b9c%7Ctwcon%5Es2_&ref_url=https%3A%2F%2Fforum.beyond3d.com%2Fthreads%2Famd-rdna3-specifications-discussion-thread.63037%2Fpage-24

Badesalz
2022-11-08, 08:35:12
good and bad news… An welcher Stelle werden jetzt die schlechten angesprochen? Komm mit den Texten grad irgendwie (wohl) nicht zurecht.

OgrEGT
2022-11-08, 08:39:00
Ab wann müssten Leaks zu Timespy erwarten sein? Eigentlich doch wenn die AIBs die GPUs erhalten haben und die Karten bauen und den Betriebspunkt ausloten? Das sollte doch bereits laufen wenn man Mitte Dez launchen will?

dargo
2022-11-08, 08:44:44
Mal eine Frage wo ich gerade den Die-Shot von N31 sehe... meint ihr AMD wird bei RDNA4 auch den PCIe Controller sowie Media-/ und Display Engine in einen günstigeren Fertigungsprozess auslagern? Würde für mich nahe liegen da die Sachen immer noch relativ viel teuerste Fläche verschlingen. Nur stelle ich mir die Anordnung der Chiplets dann etwas schwierig vor. Es sei denn die MCDs würden kleiner ausfallen. Oder halt der GCD größer.

OgrEGT
2022-11-08, 08:46:44
good and bad news… An welcher Stelle werden jetzt die schlechten angesprochen? Komm mit den Texten grad irgendwie (wohl) nicht zurecht.
Ich vermute das Gute ist dass man die Dieshots erhalten hat um nun die einzelnen Chipteile zuordnen zu können... Schlecht vlt weil es nun klar ist dass die SPs nicht verdoppelt wurden und vieles beim Alten geblieben ist? 2CUs zu 64SPs pro WGP... wenn auch dual issue und größere Register welche aber je nach Workload mal mehr mal weniger dual issue erreichen...

OgrEGT
2022-11-08, 08:51:01
Mal eine Frage wo ich gerade den Die-Shot von N31 sehe... meint ihr AMD wird bei RDNA4 auch den PCIe Controller sowie Media-/ und Display Engine in einen günstigeren Fertigungsprozess auslagern? Würde für mich nahe liegen da die Sachen immer noch relativ viel teuerste Fläche verschlingen. Nur stelle ich mir die Anordnung der Chiplets dann etwas schwierig vor. Es sei denn die MCDs würden kleiner ausfallen. Oder halt der GCD größer.
Die Frage wäre Aufwand und Nutzen bzw Kosten...
Wenn diese Chipteile noch halbwegs mit der Fertigung skalieren und die Taktbarkeit von SEs und CP nicht beeinträchtigen dann lohnt es ggf diese nicht auszulagern...

reaperrr
2022-11-08, 08:56:25
Definiere "Quelle".
Die Quellen der Leaker. Es ist schon offensichtlich, dass MLID etc. zumindest ein paar zuverlässige Quellen haben, bloß werden deren Aussagen dann von den Leakern teils falsch interpretiert bzw. spinnen die das manchmal zu milchmädchenmäßig weiter.

Aber egal, zum Thema Zuverlässigkeit der einzelnen Gerüchteküchen hat eh jeder seine eigene Meinung.
Ich habe für mich nur halt schon öfter festgestellt, dass z.B. die Aussagen seiner Quellen, die MLID in seinen Videos zitiert hat, im Nachhinein bei genauerer Betrachtung teils besser zutrafen als die Schlussfolgerungen, die er aus ihnen gezogen hat. Und der ist meistens nicht so reißerisch und hypt nicht so sehr wie z.B. RGT, der bei RDNA3 von den - grundsätzlich weitgehend richtigen - TFLOP-Leaks immer auf die vermeintliche reale Performance geschlossen hat.

robbitop
2022-11-08, 09:00:25
Mal eine Frage wo ich gerade den Die-Shot von N31 sehe... meint ihr AMD wird bei RDNA4 auch den PCIe Controller sowie Media-/ und Display Engine in einen günstigeren Fertigungsprozess auslagern? Würde für mich nahe liegen da die Sachen immer noch relativ viel teuerste Fläche verschlingen. Nur stelle ich mir die Anordnung der Chiplets dann etwas schwierig vor. Es sei denn die MCDs würden kleiner ausfallen. Oder halt der GCD größer.

ggf könnte man das stapeln. Ich würde davon ausgehen, dass der Kram nicht so viel Power benötigt und könnte dann unter das GCD stapeln. Könnte schon sinnvoll sein, das auszulagern und mit einem günstigerem Prozess auszuführen. Groß genug sieht es in Summe schon aus.

robbitop
2022-11-08, 09:03:31
Ich vermute das Gute ist dass man die Dieshots erhalten hat um nun die einzelnen Chipteile zuordnen zu können... Schlecht vlt weil es nun klar ist dass die SPs nicht verdoppelt wurden und vieles beim Alten geblieben ist? 2CUs zu 64SPs pro WGP... wenn auch dual issue und größere Register welche aber je nach Workload mal mehr mal weniger dual issue erreichen...
Kommt auf den Kosten/Nutzen an. Man scheint ja grob 30-40% mehr pro WGP zu erreichen. Wenn die Gerüchte stimmen, dass ein RDNA3 WGP dank Entschlackung nicht mehr Transistoren kostet als ein RDNA2 WGP aber 30-40% mehr leistet, war es doch eine sinnvolle Entscheidung. Man kann ja zusätzlich auch WGPs nach oben skallieren.
Erinnert mich ein wenig an die Verdopplung der FPUs bei Ampere pro SM. Das war auch transistorgünstig und hat so viel mehr auch nicht gebracht (weil eben Schedulerresources nicht mitskaliert worden sind).

mironicus
2022-11-08, 09:04:13
Igor kommt bei seiner Spekulation der Leistung der 7900XTX auf die ca. gleiche Effizienz wie die RTX 4090 bei Rasterization.
https://www.igorslab.de/amd-radeon-rx-7900xtx-im-virtuellen-zweikampf-mit-der-nvidia-geforce-rtx-4080-taschenrechner-und-fakten/

Badesalz
2022-11-08, 09:07:17
Ich habe für mich nur halt schon öfter festgestellt, dass z.B. die Aussagen seiner Quellen, die MLID in seinen Videos zitiert hat, im Nachhinein bei genauerer Betrachtung teils besser zutrafen als die Schlussfolgerungen, die er aus ihnen gezogen hat.:biggrin:
Ja! :wink: Anschließend wird das gleiche nochmal genommen und frisch interpretiert, um darzustellen, daß alles eben so ähnlich hervorgesagt wurde und wie gut seine Quellen sind :rolleyes:

DrFreaK666
2022-11-08, 10:01:13
Igor kommt bei seiner Spekulation der Leistung der 7900XTX auf die ca. gleiche Effizienz wie die RTX 4090 bei Rasterization.
https://www.igorslab.de/amd-radeon-rx-7900xtx-im-virtuellen-zweikampf-mit-der-nvidia-geforce-rtx-4080-taschenrechner-und-fakten/

Er misst 396W bei der 4090,rechnet aber dann mit 450W?

HOT
2022-11-08, 10:05:25
Das sind ja nur 394W aufgrund der CPU-Limits.

Linmoum
2022-11-08, 10:06:16
Ist sowieso Quatsch was er macht, zumal CP laut AMD ja schon der Best Case ist. Die anderen beiden Spiele lagen nur bei 1.5x mehr Performance.

Ansonsten schreibt Igor, dass die 7900XTX in Raster leicht vor der 4080 liegen soll, die XT leicht darunter. Und in RT sollen XTX und 4080 etwa gleichauf sein. Komplett wirrer Artikel irgendwie.

Verstehe diese Prognosen und Hochrechnungen aber auch nicht. Bringt doch einfach nichts.

Iscaran
2022-11-08, 10:09:56
Hier ist ein Patent, das Locuza auf Twitter verlinkt hat, zum "Dual-Issue":
https://www.freepatentsonline.com/20220188076.pdf

Scheint mir als ob es ganz ähnlich zu Ampere ist. Man "verdoppelt" die FP-Pipeline für bestimmte Befehlsgruppen, was man durch eine ZWEITE Alu-Pipeline die aber deutlich "schmaler" gebaut ist, verwirklicht.

Also genauso "fake" ALUs wie seit Ampere's "mixed FP/INT" ALUs. Erklärt dann natürlich warum dieser nur mit 30-40% Leistung skalieren und nicht wie man von vollen Einheiten vermuten würde mit 60-70%.

dargo
2022-11-08, 10:39:49
Ist sowieso Quatsch was er macht, zumal CP laut AMD ja schon der Best Case ist. Die anderen beiden Spiele lagen nur bei 1.5x mehr Performance.

Lol... AMD hat in der Folie nur drei lausige Games gezeigt im Raster. :freak:


Ansonsten schreibt Igor, dass die 7900XTX in Raster leicht vor der 4080 liegen soll, die XT leicht darunter. Und in RT sollen XTX und 4080 etwa gleichauf sein. Komplett wirrer Artikel irgendwie.

Weil du nicht verstehen willst, dass es nicht die RT-Last über alle Games mit RT gibt.

Zossel
2022-11-08, 10:40:53
Verstehe diese Prognosen und Hochrechnungen aber auch nicht. Bringt doch einfach nichts.

Doch, bringt Klicks und Aufmerksamkeit.

Linmoum
2022-11-08, 10:42:34
Lol... AMD hat in der Folie nur drei lausige Games gezeigt im Raster. :freak:

Weil du nicht verstehen willst, dass es nicht die RT-Last über alle Games mit RT gibt.
Ja, und CP war das mit dem größten Zuwachs aller. Und zwar ein gutes Stück. Also Best Case. Oder verschweigt AMD uns hier etwa noch die ganzen >1.7x Zuwächse? ;)

Es gibt die RT-Last innerhalb eines Durchschnitts von Spielen. Aka Benchmark-Parcours. Da bräuchte AMD ggü. RDNA2 Faktor 1.8x-2x, um dort überhaupt ~gleichzuziehen mit der 4080. Außerdem was interessiert mich sowas wie FC6-RT, wo die fps schon hoch genug sind und der Einsatz von RT... nunja ist? Dafür brauche ich keine super teure GPU.

dargo
2022-11-08, 10:45:02
Ja, und CP war das mit dem größten Zuwachs aller. Und zwar ein gutes Stück. Also Best Case.
Junge... genau das erwähnt Igor auch im Artikel. :facepalm: Zudem war Bestcase DL2 mit RT und +85%. :rolleyes:

Oder verschweigt AMD uns hier etwa noch die ganzen >1.7x Zuwächse? ;)
Glaube zwar nicht dran, lustig fände ich das aber schon. Wäre wieder schönes Trolling Richtung Lederjacke wie schon bei RDNA2 wo nicht der Top Dog gemessen wurde. :D

Außerdem was interessiert mich sowas wie FC6-RT, wo die fps schon hoch genug sind und der Einsatz von RT... nunja ist? Dafür brauche ich keine super teure GPU.
Was interessiert uns was dich interessiert?

why_me
2022-11-08, 10:50:38
Hier ist ein Patent, das Locuza auf Twitter verlinkt hat, zum "Dual-Issue":
https://www.freepatentsonline.com/20220188076.pdf

Wenn ich das richtig sehe, werden in dem Patent nur 2 Fälle beschrieben:
- ein Befehl wird auf beiden ALUs ausgeführt
- jeweils ein Befehl wird auf jeweils einer der ALUs ausgeführt.

Konnte da nichts zu finden, dass beschreibt, dass nur 1 Befehl auf einer ALU läuft und die andere nichts machen kann.
Vielleicht hab ich den Punkt aber auch überlesen.

Platos
2022-11-08, 12:35:34
Was Igor da macht, ist halt ein Witz. "Best-Case Hochrechnung"... Vlt. wäre ja "Cherry-Picking Hochrechnung" deutlicher gewesen. Aber dann wäre der Artikel ja für'n Arsch.

Er misst 396W bei der 4090,rechnet aber dann mit 450W?

Es handelt sich dabei um ein Powerlimit und nicht um Messwerte, ebenfalls nicht um Rechnungen sondern um Benchmarkwerte bei der 4090.

Badesalz
2022-11-08, 12:42:14
Es gibt die RT-Last innerhalb eines Durchschnitts von Spielen. Aka Benchmark-Parcours.Nach irgendwas muss man sich ja richten :wink: aber geht dir das mit den Parcours nicht auf den Pinsel? Letztens noch so eine Ansammlung gesehen von nicht-RT Spielen. die NICHT im CPU-Limit laufen (da entsprechende Steigerungen vorhanden).

Und trotzdem (in 1440 war das meine ich) mal die 6950XT gar noch gutes Stück vor der 3090Ti (!), mal fast schon perfekte Gleichstände, mal noch nennenswertes Stück hinter der 3090 und ständig so ein hin und her. Was sagen die Parcours noch überhaupt aus?
Wenn das Spiele bei sind die man selbst gerne spielen will/spielt/, ok. Und unter dem AAA+ Gedöns?

Wieviel sagt das über die Hardware, und wieviel über die Treiberoptimierungen ("dann lasst uns mal den Shadercode komplett umschreiben und immer on the fly ersetzen") und wieviel über die Unterm-Tisch-Investitionen bei dem Spielhersteller?
Klar, am Ende zählt eben so ein... Gesamtpaket. Ist das aber dann die Grundlage um sich über die GPUs selbst auszulassen?

(das hab ich mich halt schon nicht nur einmal gefragt)

Gott1337
2022-11-08, 13:01:06
Ist sowieso Quatsch was er macht, zumal CP laut AMD ja schon der Best Case ist. Die anderen beiden Spiele lagen nur bei 1.5x mehr Performance.

Ansonsten schreibt Igor, dass die 7900XTX in Raster leicht vor der 4080 liegen soll, die XT leicht darunter. Und in RT sollen XTX und 4080 etwa gleichauf sein. Komplett wirrer Artikel irgendwie.

Verstehe diese Prognosen und Hochrechnungen aber auch nicht. Bringt doch einfach nichts.
Igor macht ständig so ein Quatsch, der ist doch die Bild in der IT Branche.
Fachwissen hat er, aber die Interpretation ist Müll

DrFreaK666
2022-11-08, 13:18:38
Ist sowieso Quatsch was er macht, zumal CP laut AMD ja schon der Best Case ist. Die anderen beiden Spiele lagen nur bei 1.5x mehr Performance.

Ansonsten schreibt Igor, dass die 7900XTX in Raster leicht vor der 4080 liegen soll, die XT leicht darunter. Und in RT sollen XTX und 4080 etwa gleichauf sein. Komplett wirrer Artikel irgendwie.

Verstehe diese Prognosen und Hochrechnungen aber auch nicht. Bringt doch einfach nichts.

Hast du den Artikel überhaupt gelesen und verstanden?

"Da habe ich mir sicherheitshalber den Best Case der Spiele herausgepickt, warne aber vor absoluter Verallgemeinerung. Es wird also kaum besser werden, allerdings auch in einigen Spielen sicher schlechter"

Und wo steht dass "in RT XTX und 4080 etwa gleichauf sein" sollen?

Junge, Junge...
Gott1337, darfst dich übrigens auch angesprochen fühlen. Du hast den Link wahrscheinlich nicht mal angeklickt

Linmoum
2022-11-08, 13:33:05
Hast du den Artikel überhaupt gelesen und verstanden?

Und wo steht dass "in RT XTX und 4080 etwa gleichauf sein" sollen?

Junge, Junge...
Mit Raytracing sollten sich die Radeon RX 4080 16GB und die Radeon RX 7900XTX dann nichts geben und je nach Spiel dürfte mal Team Rot oder mal Team Grün vorn sein.Gebe ich dir gern zurück. Andere ankacken, sie hätten nichts gelesen, aber scheinbar selbst überfordert sein, die zwei Seiten entsprechend zur Kenntnis zu nehmen.

Junge, Junge...

Igors Hinweis ändert davon ab nichts, dass diese Prognosen einfach wenig sinnvoll und nicht zielführend sind. Was ist beispielsweise, wenn die Karten plötzlich (wie bei NV) doch nicht immer die vollen 355W ziehen? Das weiß aktuell niemand.

Abwarten und Tee trinken, bevor man hübsche Balken macht.

Ravenhearth
2022-11-08, 13:38:35
Kommt auf den Kosten/Nutzen an. Man scheint ja grob 30-40% mehr pro WGP zu erreichen. Wenn die Gerüchte stimmen, dass ein RDNA3 WGP dank Entschlackung nicht mehr Transistoren kostet als ein RDNA2 WGP aber 30-40% mehr leistet, war es doch eine sinnvolle Entscheidung.
Ein RDNA3 WGP hat deutlich mehr Transistoren, ist nur dichter gepackt:
Die Fußnoten sind übrigens sehr interessant: So gibt AMD eine RDNA3 WGP mit 331 Mio. Transistoren auf 2,5mm² an, verglichen mit 215 Mio. Transistoren in 4,33mm² bei RDNA2 (Fußnote RX-819). AMD scheint generell dichter gepackt zu haben, das kommt nicht nur durch 5nm.
Die Gerüchte (Angstronomics) sprachen aber ohnehin nur von der ~gleichen Fläche, das mit den Transistoren war eine Interpretation.

robbitop
2022-11-08, 13:50:25
Oh ok also ~50% mehr Transistoren pro WGP. Für 30-40% mehr Performance. Andererseits unterliegt die Skalierung von WGPs (zumindest bei RDNA3 einem Skalierungsfaktor von 0.7). 50% mehr RDNA3 WGPs hätten als 35% Performance auf die Straße gebracht. In etwa das was die RDNA3 CUs tun. Hm. Irgendwie nur ein Nullsummenspiel. Ggf. sollten die RDNA3 CUs ja doch höher takten und dann wäre es wahrscheinlich doch die leicht bessere Wahl vs RDNA2 WGPs skalieren. Ist zumindest ein Indiz für die These, dass N31 hätte ggf höher takten sollen.

Locuza
2022-11-08, 14:06:26
good and bad news… An welcher Stelle werden jetzt die schlechten angesprochen? Komm mit den Texten grad irgendwie (wohl) nicht zurecht.
Die wurden gar nicht angesprochen, Twitter ist nicht ganz optimal um alles auszuführen, entsprechend habe ich das einfach so allgemein formuliert.
Zu den negativen Überraschungen hat der im Durchschnitt eher geringe Takt gezählt, ziemlich seriöse Quellen haben als Clock Target mehr als 3 GHz angegeben.
Sicherlich haben sich auch viele mehr von der Ray-Tracing-Implementierung erhofft.

Hier ist ein Patent, das Locuza auf Twitter verlinkt hat, zum "Dual-Issue":
https://www.freepatentsonline.com/20220188076.pdf

Scheint mir als ob es ganz ähnlich zu Ampere ist. Man "verdoppelt" die FP-Pipeline für bestimmte Befehlsgruppen, was man durch eine ZWEITE Alu-Pipeline die aber deutlich "schmaler" gebaut ist, verwirklicht.

Also genauso "fake" ALUs wie seit Ampere's "mixed FP/INT" ALUs. Erklärt dann natürlich warum dieser nur mit 30-40% Leistung skalieren und nicht wie man von vollen Einheiten vermuten würde mit 60-70%.

Wenn ich das richtig sehe, werden in dem Patent nur 2 Fälle beschrieben:
- ein Befehl wird auf beiden ALUs ausgeführt
- jeweils ein Befehl wird auf jeweils einer der ALUs ausgeführt.

Konnte da nichts zu finden, dass beschreibt, dass nur 1 Befehl auf einer ALU läuft und die andere nichts machen kann.
Vielleicht hab ich den Punkt aber auch überlesen.
Steht im Fließtext auf Seite 10 auf der rechten Hälfte mittig.
Es werden wie immer bei solchen Patenten mehrere Möglichkeiten genannt.
Die ALU Pipelines können gleich sein, sie könnten aber auch Unterschiede aufweisen.
Da über VODP nur eine limitierte Anzahl an Instruktionen unterstützt wird, denke ich das dieser Fall eher wahrscheinlich ist, denn ansonsten wäre die ganze Logik dupliziert, wobei in der Praxis nur ein kleiner Teil gleichzeitig verwendet werden kann.
Das klingt sehr verschwenderisch, entsprechend gefiel mir das Konzept, dass eine ALU-Pipeline nur eine beschränkte Anzahl an Befehlen unterstützt.
Das würde erklären wie Dual-Issue für doppelten Durchsatz sorgen kann, denn es sind in solchen Fällen tatsächlich 64 Lanes verfügbar.
Es würde möglicherweise auch erklären, wieso das Marketing diese nicht als SPs zählt, vermutlich wäre das selbst für solche Leute zu "verlogen"/krass, wenn die Hälfte der SPs nur eine ziemlich eingeschränkte Funktionalität aufweisen und häufig gar nicht aktiv sind.

Bei Ampere sollte die Implementierung schon teurer sein, die zwei FP-Pipelines unterstützen wahrscheinlich die gleichen Befehle, während bei RDNA3 auch ohne INT viele FP-Operationen nicht unterstützt werden, praktisch alles was ansonsten als VOP3 encodiert wird.

Dino-Fossil
2022-11-08, 14:07:46
Oh ok also ~50% mehr Transistoren pro WGP. Für 30-40% mehr Performance.

Wobei es ja noch mehr Features in RDNA3 gibt, so wurde RT laut Vorstellung durch neue Befehle erweitert und die AI-Einheiten stecken auch irgendwo (aber evtl nicht in den WGPs?).
Und es sei mal dahin gestellt, ob die Leistungsaufnahme so vielleicht besser skaliert.

dargo
2022-11-08, 14:24:14
Wobei es ja noch mehr Features in RDNA3 gibt, so wurde RT laut Vorstellung durch neue Befehle erweitert und die AI-Einheiten stecken auch irgendwo (aber evtl nicht in den WGPs?).

Laut der Präsentation schon.
https://youtu.be/kN_hDw7GrYA?t=730

Oder verstehe ich es falsch?

Passt schon... zwei AI Beschleuniger pro CU.

DrFreaK666
2022-11-08, 14:26:33
Gebe ich dir gern zurück. Andere ankacken, sie hätten nichts gelesen, aber scheinbar selbst überfordert sein, die zwei Seiten entsprechend zur Kenntnis zu nehmen...

Lustig dass du genau da aufgehört hast zu zitieren.
"Die Radeon RX 7900XTX erbt wohl, trotz ordentlicher Verbesserung, die leichte Schwäche in fast allen DXR-Spielarten."
und
"Dass sich AMD mit DXR noch etwas schwertut, darf man annehmen, auch wenn sich ja vieles bereits verbessert hat. Ganz wird man es wohl nicht schaffen."

dargo
2022-11-08, 15:18:33
Was für mich noch ein ziemliches Rätsel ist ist die aktuelle RT-Performance. Laut der Präsentation soll RDNA3 pro CU bis zu 50% mehr RT-Performance liefern. Dabei hat N31 schon 140% mehr CUs als N21. Wo bleibt die zu erwartende RT-Performance in den Games? Oder muss die Software speziell für RDNA3 angepasst werden? Treiber noch nicht soweit? Ist schon eine große Diskrepanz zwischen Präsentationdetails und tatsächliche RT-Leistung.

Edit:
Rein rechnerisch würde das ja im Peak bis zu +210% bedeuten. Gezeigt wurde ein Peak von +85%.

Pirx
2022-11-08, 15:29:35
Was für mich noch ein ziemliches Rätsel ist ist die aktuelle RT-Performance. Laut der Präsentation soll RDNA3 pro CU bis zu 50% mehr RT-Performance liefern. Dabei hat N31 schon 140% mehr CUs als N21. Wo bleibt die zu erwartende RT-Performance in den Games? Oder muss die Software speziell für RDNA3 angepasst werden? Treiber noch nicht soweit? Ist schon eine große Diskrepanz zwischen Präsentationdetails und tatsächliche RT-Leistung.

Edit:
Rein rechnerisch würde das ja im Peak bis zu +210% bedeuten. Gezeigt wurde ein Peak von +85%.
jupp, das ist auch für mich DIE Frage

Platos
2022-11-08, 15:30:25
Was für mich noch ein ziemliches Rätsel ist ist die aktuelle RT-Performance. Laut der Präsentation soll RDNA3 pro CU bis zu 50% mehr RT-Performance liefern. Dabei hat N31 schon 140% mehr CUs als N21. Wo bleibt die zu erwartende RT-Performance in den Games? Oder muss die Software speziell für RDNA3 angepasst werden? Treiber noch nicht soweit? Ist schon eine große Diskrepanz zwischen Präsentationdetails und tatsächliche RT-Leistung.

Edit:
Rein rechnerisch würde das ja im Peak bis zu +210% bedeuten. Gezeigt wurde ein Peak von +85%.

Wo steht das denn mit den 50% pro CU ?

dargo
2022-11-08, 15:32:19
Wo steht das denn mit den 50% pro CU ?
Hier...
https://youtu.be/kN_hDw7GrYA?t=886

Deshalb meine Frage ob die DEVs das erst richtig ansprechen müssen wie zB. die Sache mit "SER" bei Ada damit da mehr bei rumkommt?

Ravenhearth
2022-11-08, 15:37:31
Was für mich noch ein ziemliches Rätsel ist ist die aktuelle RT-Performance. Laut der Präsentation soll RDNA3 pro CU bis zu 50% mehr RT-Performance liefern. Dabei hat N31 schon 140% mehr CUs als N21. Wo bleibt die zu erwartende RT-Performance in den Games? Oder muss die Software speziell für RDNA3 angepasst werden? Treiber noch nicht soweit? Ist schon eine große Diskrepanz zwischen Präsentationdetails und tatsächliche RT-Leistung.

Edit:
Rein rechnerisch würde das ja im Peak bis zu +210% bedeuten. Gezeigt wurde ein Peak von +85%.
N31 hat 20% mehr CUs, nicht 140%. Es wurden ja nicht die Anzahl der CUs verdoppelt, sondern die ALUs innerhalb der CUs. Damit hat N31 auch nur 20% mehr Ray Accelerators, sodass die RT-Leistung taktbereinigt um maximal 80% ansteigt, durch den Mehrtakt vielleicht auf 2x. Das passt gut zu dem Wert aus DL2.

dargo
2022-11-08, 15:41:53
N31 hat 20% mehr CUs, nicht 140%. Es wurden ja nicht die Anzahl der CUs verdoppelt, sondern die ALUs innerhalb der CUs. Damit hat N31 auch nur 20% mehr Ray Accelerators, sodass die RT-Leistung taktbereinigt um maximal 80% ansteigt, durch den Mehrtakt vielleicht auf 2x. Das passt gut zu dem Wert aus DL2.
Ach verdammt... wie komme ich bloß darauf N21 hätte nur 40 CUs? :freak: Das Ding hat 80 CUs. Ok... dann passt es ja mit 96 CUs bei N31, sind ja bloß 20% mehr.

Edit:
Im Peak heißt es also +80% vs. N21, bei gleichen Takt nehme ich an. Da N31 etwas höher taktet wird im Peak wohl minimal mehr drin sein.

robbitop
2022-11-08, 16:05:30
Was für mich noch ein ziemliches Rätsel ist ist die aktuelle RT-Performance. Laut der Präsentation soll RDNA3 pro CU bis zu 50% mehr RT-Performance liefern. Dabei hat N31 schon 140% mehr CUs als N21. Wo bleibt die zu erwartende RT-Performance in den Games? Oder muss die Software speziell für RDNA3 angepasst werden? Treiber noch nicht soweit? Ist schon eine große Diskrepanz zwischen Präsentationdetails und tatsächliche RT-Leistung.

Edit:
Rein rechnerisch würde das ja im Peak bis zu +210% bedeuten. Gezeigt wurde ein Peak von +85%.
Es wurde ja offenbar nur die Box intersection rate erhöht. Die hat vermutlich nie großartig limitiert. Alles andere läuft halt auf den Shadern. Deswegen ist auch keine relative Steigerung der RT Leistung (relativ zur Rasterleistung) sichtbar. Kein BVH Traversal in HW, kein Coherency Sorting in Hardware. Einfach nur plain old level 2 wie bisher.

w0mbat
2022-11-08, 16:38:03
Kein BVH Traversal in HW, kein Coherency Sorting in Hardware. Einfach nur plain old level 2 wie bisher.
Woher wissen wir das, gibt es schon genauere Details oder ist das eine Vermutung?

Dino-Fossil
2022-11-08, 16:54:05
Es wurde ja offenbar nur die Box intersection rate erhöht. Die hat vermutlich nie großartig limitiert. Alles andere läuft halt auf den Shadern. Deswegen ist auch keine relative Steigerung der RT Leistung (relativ zur Rasterleistung) sichtbar. Kein BVH Traversal in HW, kein Coherency Sorting in Hardware. Einfach nur plain old level 2 wie bisher.

Die Rasterleistung steigt ja vor allem auch durch die dual-issue Fähigkeit von RDNA3, wärend die Anzahl der RT-Einheiten entsprechend der Zunahme an CUs nur um 20% gestiegen ist. Dazu kommt sicherlich noch ein wenig Takt.
Nun ist aber die Frage, ob die durchschnittlich 1,5x, oder in Ausnahmen bis 1,8x (je laut AMD) RT-Leistung in erster Linie ebenfalls vom dual-issue Aufbau der CUs profitieren (+Takt), oder ob die Einheiten eben doch noch ein wenig mehr können.
Was das dann ist, und inwiefern das in Software angesprochen werden muss, steht auf einem anderen Blatt.

robbitop
2022-11-08, 17:23:55
Woher wissen wir das, gibt es schon genauere Details oder ist das eine Vermutung?

Wurde alles in der CU nicht erwähnt. Aber eben eine gesteigerte ray box intersection rate und optimierte instructions. Hätte man bvh und/oder coherency sorting hw würde man das da nennen und dann hätte man auch einen sichtbaren relativen Speedup.

robbitop
2022-11-08, 17:25:52
Die Rasterleistung steigt ja vor allem auch durch die dual-issue Fähigkeit von RDNA3, wärend die Anzahl der RT-Einheiten entsprechend der Zunahme an CUs nur um 20% gestiegen ist. Dazu kommt sicherlich noch ein wenig Takt.
Nun ist aber die Frage, ob die durchschnittlich 1,5x, oder in Ausnahmen bis 1,8x (je laut AMD) RT-Leistung in erster Linie ebenfalls vom dual-issue Aufbau der CUs profitieren (+Takt), oder ob die Einheiten eben doch noch ein wenig mehr können.
Was das dann ist, und inwiefern das in Software angesprochen werden muss, steht auf einem anderen Blatt.
Dual issue hilft jeglichem compute. Die fpu weiss nichts von raytracing oder rasterizing. Sie rechnet Vektoren. Ob jetzt für bvh traversal oder irgendwelches post processing oder pixel/vertex/computeshader. Ist total egal. Profitiert beides davon sofern die Instruktionstypen es zulassen.

Tesseract
2022-11-08, 17:27:10
laut den bisher bekannten information hat dual issue ziemlich sicher nix (direkt) mit RT zu tun und erhöht auch nicht die performance sondern macht ganz einfach den chip kompakter: die shader werden verdoppelt und dual issue verhindert (auf kosten von etwas flexibilität) dass alles drum herum was die shader füttert (scheduling usw.) ebenfalls deutlich komplexer wird. die software muss da auch nix spezielles machen, nur der treiber bzw. der hardwarescheduler.

warum AMD offiziell keine doppelte shaderanzahl angibt liegt wohl daran dass sie nach dem gerichtsurteil gegen "8-core-bulldozer" übervorsichtig sind.

fondness
2022-11-08, 17:31:25
Naja, nachdem einiges bei RT über die Shader läuft, sollte man schon annehmen, dass RT indirekt von Dual Issue profitiert.

Tesseract
2022-11-08, 17:34:34
im gegenteil: wenn sich die FP32-performance verdoppelt läuft RT viel eher in die fixed-function-limiterung der RT units. dementsprechend müssen diese pro shader engine also deutlich stärker ausgelegt sein (was sie sicher auch sind, aber ob doppelt ist die frage) damit die shader nicht verhungern.

in einem mischworkload wo nur ein kleiner teil RT ist macht sich das natürlich weniger stark bemerkbar weil man die shader mit anderem zeug füttern kann.

fondness
2022-11-08, 17:38:07
Die Aussage ergibt keinen Sinn imo. Wenn die Shader bei RT nicht limitieren, würde es auch nichts bringen dafür FF hw zu verbauen. Ergo müsste man wissen was genau limitiert aktuell bei RT?

robbitop
2022-11-08, 17:48:27
im gegenteil: wenn sich die FP32-performance verdoppelt läuft RT viel eher in die fixed-function-limiterung der RT units. dementsprechend müssen diese pro shader engine also deutlich stärker ausgelegt sein (was sie sicher auch sind, aber ob doppelt ist die frage) damit die shader nicht verhungern.

in einem mischworkload wo nur ein kleiner teil RT ist macht sich das natürlich weniger stark bemerkbar weil man die shader mit anderem zeug füttern kann.
Doch aber nur wenn ray box intersection Durchsatz limitiert. Und das schien bis dato kaum der Fall gewesen zu sein.

Tesseract
2022-11-08, 17:50:24
Die Aussage ergibt keinen Sinn imo. Wenn die Shader bei RT nicht limitieren, würde es auch nichts bringen dafür FF hw zu verbauen. Ergo müsste man wissen was genau limitiert aktuell bei RT?

ganz vereinfacht gesagt: bei rasterisierung holen sich die shader daten aus verschiedenen buffern (schatten, texturen, vektoren usw.) und verrechnen diese zum farbwert den man dann sieht. bei RT muss man diese daten aber erst "zusammensuchen" weil sie davon abhängen welcher strahl wo hin geht und was genau trifft. dieses "zusammensuchen" machen die RT units. wenn diese zu langsam sind drehen die shader däumchen. wenn die shader einen teil der RT-arbeit selbst machen drehen sie natürlich keine däumchen weil genug zu tun ist aber das macht das ganze nicht besser weil FF das potenziell schneller und effizienter kann.
wenn nur ein kleiner teil der pipeline RT ist macht es nix wenn die shader auf die RT units warten müssen weil sie wärendessen was anderes berechnen können.

robbitop
2022-11-08, 17:57:49
Ich würde sagen es ist wahrscheinlich dass letzteres der Fall ist ansonsten würde NV nicht so viel schneller sein und sie haben die HW ja auch integriert.

Achill
2022-11-08, 18:01:44
--

Complicated
2022-11-08, 18:15:36
Wurde alles in der CU nicht erwähnt. Aber eben eine gesteigerte ray box intersection rate und optimierte instructions. Hätte man bvh und/oder coherency sorting hw würde man das da nennen und dann hätte man auch einen sichtbaren relativen Speedup.
Du suchst da an der falschen Stelle.



https://www.techpowerup.com/img/eOisryjCEReidYTS.jpg

TheGood
2022-11-08, 19:04:47
Ich würde sagen es ist wahrscheinlich dass letzteres der Fall ist ansonsten würde NV nicht so viel schneller sein und sie haben die HW ja auch integriert.

Die Frage ist doch warum die FF HW nur knapp 50-100% schneller ist. DAs ist nicht wirklcih viel..

OpenVMSwartoll
2022-11-08, 19:13:11
Die Frage ist doch warum die FF HW nur knapp 50-100% schneller ist. DAs ist nicht wirklcih viel..

Da müsste jetzt jemand ganz tief im Thema sein, um uns mitzuteilen, was wo limitiert.

robbitop
2022-11-08, 19:14:55
Du suchst da an der falschen Stelle.



https://www.techpowerup.com/img/eOisryjCEReidYTS.jpg
Aber wissen wir ob es in rdna3 so umgesetzt wurde? Der speedup sieht nicht danach aus und erwähnt wurde davon auch nichts.

robbitop
2022-11-08, 19:16:15
Die Frage ist doch warum die FF HW nur knapp 50-100% schneller ist. DAs ist nicht wirklcih viel..

BVH Traversal ist ja nur ein weiterer Schritt. Da kann man noch einiges mehr in HW gießen. Siehe Ada und siehe RT HW Level 5 (imgtech Übersicht). BVH FF ist gerade mal Level 3 HW. Hat NV seit Turing / 2018.

fondness
2022-11-08, 19:20:10
BVH Traversal ist ja nur ein weiterer Schritt. Da kann man noch einiges mehr in HW gießen. Siehe Ada und siehe RT HW Level 5 (imgtech Übersicht). BVH FF ist gerade mal Level 3 HW. Hat NV seit Turing / 2018.

Man sollte sich nicht an diesen Level aufhängen. Gibt unendlich viele Lösungen zum Ziel.

Neurosphere
2022-11-08, 19:23:48
Hatten wir schon?:

https://www.igorslab.de/amd-radeon-rx-7900xtx-im-virtuellen-zweikampf-mit-der-nvidia-geforce-rtx-4080-taschenrechner-und-fakten/

dargo
2022-11-08, 19:33:36
BVH Traversal ist ja nur ein weiterer Schritt. Da kann man noch einiges mehr in HW gießen. Siehe Ada und siehe RT HW Level 5 (imgtech Übersicht). BVH FF ist gerade mal Level 3 HW. Hat NV seit Turing / 2018.
Hat Turing trotzdem nicht nennenswert beschleunigt vs. RDNA2. Die RT-Performance von Turing ist mit RDNA2 vergleichbar. Dieses Aufhängen am RT Level wird langsam langweilig.

Hatten wir schon?:

https://www.igorslab.de/amd-radeon-rx-7900xtx-im-virtuellen-zweikampf-mit-der-nvidia-geforce-rtx-4080-taschenrechner-und-fakten/
Ja und es gab zwei Kandidaten hier die sich schön darüber eschauffiert haben.

Dampf
2022-11-08, 19:42:58
Hat Turing trotzdem nicht nennenswert beschleunigt vs. RDNA2. Die RT-Performance von Turing ist mit RDNA2 vergleichbar. Dieses Aufhängen am RT Level wird langsam langweilig.


Eine 6900XT performt ähnlich wie eine 2080Ti in Games mit viel RT. Dabei hat die 2080Ti signifikant weniger Rohleistung. Eine ganze Generation schlechter, um genau zu sein (Die 6900XT is auf 3090 Niveau in Raster, die 2080Ti ist auf 3070 Niveau)

BVH Traversal macht enorm viel aus.

robbitop
2022-11-08, 19:44:32
Hat Turing trotzdem nicht nennenswert beschleunigt vs. RDNA2. Die RT-Performance von Turing ist mit RDNA2 vergleichbar. Dieses Aufhängen am RT Level wird langsam langweilig.

IIRC war der relative Performanceverlust bei Turing und Ampere bei RT mahezu gleich. Ampere hatte einfach eine höhere Grundleistung. Die 6900XT ist in RT so schnell wie Turing aber in Raster so schnell wie Ampere.

robbitop
2022-11-08, 19:45:53
Man sollte sich nicht an diesen Level aufhängen. Gibt unendlich viele Lösungen zum Ziel.

Muss man zwar nicht aber bisher sind die HW Maßnahmen ziemlich daran orientiert. Etwas außer der Reihe hab ich jedenfalls noch nixht gesehen. Und die Level zeigen zumindest das Spektrum an RT HW an.

iamthebear
2022-11-08, 20:09:32
IIRC war der relative Performanceverlust bei Turing und Ampere bei RT mahezu gleich. Ampere hatte einfach eine höhere Grundleistung. Die 6900XT ist in RT so schnell wie Turing aber in Raster so schnell wie Ampere.

Das sieht man gut am Vergleich der 2080 Ti vs. 3070. Beide sind sowohl in Raster als auch in RT annähernd gleich schnell.

Wenn man sich die 4090 vs. 3090 Ti ansieht im CB 4K Rating:
Raster: 1.65x
RT: 1.69x

Da sehe ich ehrlich gesagt nicht unbedingt die großen RT Verbesserungen. In vielen Fällen ist der prozentuale RT Schub bloß größer weil es dann weniger CPU limitiert ist.

In der Theorie gibt es Unmengen neuer RT Features aber in der Praxis sieht man davon nicht viel.

Und genauso ist es dann eben auch bei RDNA3 vs. RDNA2.
Wem RT wirklich wichtig ist, der holt sich sowieso eine Nvidia Karte also wozu das Ganze Drama.

fondness
2022-11-08, 20:31:22
IIRC war der relative Performanceverlust bei Turing und Ampere bei RT mahezu gleich. Ampere hatte einfach eine höhere Grundleistung. Die 6900XT ist in RT so schnell wie Turing aber in Raster so schnell wie Ampere.

Der relative performance Verlust ist auch bei der 4090 nur geringfügig besser. Das geringfügig könnte auch an CPU Limits ohne RT liegen.

robbitop
2022-11-08, 20:38:01
Der relative performance Verlust ist auch bei der 4090 nur geringfügig besser. Das geringfügig könnte auch an CPU Limits ohne RT liegen.

Das stimmt. Aber das liegt daran, dass SER explizit angesprochen werden muss vom Developer im Moment (sicherlich mit zukünftigen DXR Versiomen anders). Entsprechend ist dort noch ein Speedup zu erwarten.

fondness
2022-11-08, 20:52:04
Das stimmt. Aber das liegt daran, dass SER explizit angesprochen werden muss vom Developer im Moment (sicherlich mit zukünftigen DXR Versiomen anders). Entsprechend ist dort noch ein Speedup zu erwarten.

Laut Nvidia ist automatisches sortieren immer aktiv, nur manuelles kann über nvapi angesprochen werden. Wieviel das bringt ist völlig offen.

robbitop
2022-11-08, 21:05:07
Nv sagte, dass explizit deutlich mehr Leistung bringt. Out of the box scheint es nicht viel zu bringen - das untermauert die Aussage. Dazu kommen noch OMM und DMM die erst mit Entwicklereingriff funktionieren.

NC
2022-11-08, 21:06:16
Jemand von Nvidia sagte mal, dass die RT Leistung alleine nicht alles ist, weil immer noch viel Alu fürs Shading benötigt wird. Deswegen wird RT noch weiter mit Shaderleistung (oder Rasterperformance wie es hier genannt wird :) ) skalieren.

gruntzmaker
2022-11-08, 21:13:43
Das sieht man gut am Vergleich der 2080 Ti vs. 3070. Beide sind sowohl in Raster als auch in RT annähernd gleich schnell.

Wenn man sich die 4090 vs. 3090 Ti ansieht im CB 4K Rating:
Raster: 1.65x
RT: 1.69x

Da sehe ich ehrlich gesagt nicht unbedingt die großen RT Verbesserungen. In vielen Fällen ist der prozentuale RT Schub bloß größer weil es dann weniger CPU limitiert ist.

In der Theorie gibt es Unmengen neuer RT Features aber in der Praxis sieht man davon nicht viel.

Und genauso ist es dann eben auch bei RDNA3 vs. RDNA2.
Wem RT wirklich wichtig ist, der holt sich sowieso eine Nvidia Karte also wozu das Ganze Drama.

Eigentlich ist doch eine 7900XTX oder XT für Raytracing völlig ausreichend. Beide dürften da Ampere Level erreichen.

Nvidia wäre, wie gesagt, ziemlich rabiat, würden sie einfach Ampere die nächsten Jahre nicht mehr "durch schleppen". Und dann muss man sich auch mal die Release Liste für 2023 ansehen. Es mag mir gerne einer DAS Raytracing Verkaufsargument in Software aufzeigen. Das könnte höchstens noch das Witcher Remake werden.

Dass Raster sowieso erstmal wichtiger bleibt, steht imho ausser Frage. Schon alleine wegen den Konsolen und wegen der Lieferschwierigkeiten der Ampere / RDNA2 Releases.

Wenn es darum ginge, dass theoretische Fortschritte in der Technologie gemacht werden, könnten wir alle zufrieden sein bisher. Wir stehen am Anfang. Und das Ende ist nicht abzusehen.

Badesalz
2022-11-08, 21:28:26
Ich bin schon recht verwundert. ODer gar enttäuscht? :cool:

Da greif ich einmal die "Grundpfeiler des Schwachsinns" auf
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13161874#post13161874
und alle so: "DUCK, leise atmen, in die entgegengesetzte Richtung krabbeln" :ulol:

OgrEGT
2022-11-08, 21:48:19
Hatten wir schon?:

https://www.igorslab.de/amd-radeon-rx-7900xtx-im-virtuellen-zweikampf-mit-der-nvidia-geforce-rtx-4080-taschenrechner-und-fakten/

Ich finde die Schätzung nicht so schlecht... ist in jedem Fall transparent wie sie zustande kam...

Basierend auf dieser Best Case Schätzung würde ich die 7800Xt mit 60CUs wie folgt einschätzen:
Spekulativ mit 2,7GHz Game Clk, 41TF Peak FP32 und 300W

15% mehr Raster Perf als die 6950XT...

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81345&stc=1&d=1667940164

Unrockstar
2022-11-08, 23:08:37
Am Ende sind es dann 85% einer 4090 in 4k.
Würde eben passen, da man in RT halt "nur" eine 3090 schafft!?

TheGood
2022-11-08, 23:16:03
BVH Traversal ist ja nur ein weiterer Schritt. Da kann man noch einiges mehr in HW gießen. Siehe Ada und siehe RT HW Level 5 (imgtech Übersicht). BVH FF ist gerade mal Level 3 HW. Hat NV seit Turing / 2018.
Die 50 bis 100% sind ja gerade in Bezug auf NVIDIA gewesen. Mehr Vorpsrung haben sie ja nicht. Von daher muss man sich doch die Frage stellen warum FF HW nur so wenig mehrperformance bringt... Vor allem wenn man den dazugehörigen Silizium Einsatz sieht.

Tesseract
2022-11-08, 23:40:55
Das sieht man gut am Vergleich der 2080 Ti vs. 3070. Beide sind sowohl in Raster als auch in RT annähernd gleich schnell.

die 2080Ti hat fast 50% mehr RT cores als die 3070 bei ähnlichem takt, da hat sich also schon einiges getan am design. die 2080Ti hat das problem halt mit roher gewalt erschlagen.

Thomas Gräf
2022-11-09, 00:34:25
Am Ende sind es dann 85% einer 4090 in 4k.
Würde eben passen, da man in RT halt "nur" eine 3090 schafft!?

Die Erwartungshaltung war 100% in 4k zur 4090 ohne jegliches RT.
Also der Keks mit 85% schmeckt überhaupt nicht.
Bei effektiven Summen jenseits von 1500euro kann einem derzeit da sehr schnell die Lust vergehen.

ChaosTM
2022-11-09, 00:40:54
Wir wissen es noch nicht. 90% scheint eher realistisch dank der CPU Limitierung in dem Bereich.
Auch egal, RT wird hinterher hinken, wie bei der letzten Gen.
500€ weniger wird für viele aber ein Argument sein..

Thomas Gräf
2022-11-09, 00:48:39
Jesus 500euro weniger als 4090 würde auf GZ 2000euro für die XTX zu Weihnachten bedeuten.
Sagt das ich falsch liege...

ChaosTM
2022-11-09, 00:56:03
Eher 1500-1600. Mehr traut sich AMD sicher nicht zu nehmen.

Immer noch viel zu viel..

Thomas Gräf
2022-11-09, 01:03:33
Ja AMD mit der 2x8pol Ref Modell wird preislich oke. Aber die Bordpartner mit ev 3x8pol werden es knacken lassen. Hach ich brauch eh ne Wakü, Ref Modell wird nur 2x8 haben is Käse, und schon isses wieder schwierig mit Radeon@FullCover Wakü..........

[MK2]Mythos
2022-11-09, 01:53:25
Die 7900XTX wird maximal 1250 Euro kosten, wie kommt ihr auf 1500+?
Oder redet ihr über Scalperhändlerpreise?

ChaosTM
2022-11-09, 01:56:30
Mythos;13162460']Die 7900XTX wird maximal 1250 Euro kosten, wie kommt ihr auf 1500+?
Oder redet ihr über Scalperhändlerpreise?


Du hast natürlich recht. Ich hatte die 4080er Preise im Kopf.

SamLombardo
2022-11-09, 02:15:36
Du hast natürlich recht. Ich hatte die 4080er Preise im Kopf.
Oder der Händler wird selbst zum Scalper. Sollte auch nur ansatzweise eine Knappheit herrschen, ist das so gut wie sicher. Siehe 4090. Da brauchst du kein Ebay.

horn 12
2022-11-09, 02:24:24
Italien Preise bei Amd.com
Habe zudem 22% Mwst.

See full specificationsAMD Radeon™ RX 6900 XT Graphics
1.229,63 €
Out of Stock


Können nur hoffen das AMD genug Stock vorbereitet und Digital River
komplett anderes System aufbaut für den Vertrieb der Neuen Generation.
Zudem sollte Käufer von Digital River bevorzugt werden, welche bereits dort eine RX 6000 Serie gekauft hatten :-) Bin mal so frei :-)

Ne, Spass beiseite, hoffe haben aus der Warteschlange und den Script/ Holländer gelernt und gehen anderen Weg.

horn 12
2022-11-09, 02:47:03
Spielevideo mit RX 7900 XTX
Langsam sollte es losgehen mit Benchmark Werten.

https://www.youtube.com/watch?v=ClLN-ZC1zMs


https://www.youtube.com/shorts/APoeBqCRUao


https://www.youtube.com/watch?v=4Ie4fnN8d8I

Langlay
2022-11-09, 04:12:04
Ref Modell wird nur 2x8 haben is Käse, und schon isses wieder schwierig mit Radeon@FullCover Wakü..........

Ich hätte bei 450W mehr Vertrauen zu dem 2x 8 Pin als den neuen 12V Stecker.

Du kannst >300W über einen 8-Pin ziehen und wenn du AWG18 Kabel hast sind es fast 400W.

robbitop
2022-11-09, 06:35:50
Die 50 bis 100% sind ja gerade in Bezug auf NVIDIA gewesen. Mehr Vorpsrung haben sie ja nicht. Von daher muss man sich doch die Frage stellen warum FF HW nur so wenig mehrperformance bringt... Vor allem wenn man den dazugehörigen Silizium Einsatz sieht.

Wissen wir denn wie viel Silizium explizit dafür eingesetzt wurde? Und wie gesagt: bei Ada schlummert noch Level 4 HW die mehr speedup bringt wenn sie angesprochen wird.
Und auch finde ich es seltsam wenn man 50-100% Mehrperformance mit einem „nur“ versieht. Der Transistoreinsatz ist ein Bruchteil davon.

robbitop
2022-11-09, 06:36:57
die 2080Ti hat fast 50% mehr RT cores als die 3070 bei ähnlichem takt, da hat sich also schon einiges getan am design. die 2080Ti hat das problem halt mit roher gewalt erschlagen.

Die Anzahl der RT Cores sind doch völlig nebensächlich wenn dessen Durchsatz nicht limitiert. Warum gehst du davon aus, dass das so ist?

nordic_pegasus
2022-11-09, 06:40:01
Ja AMD mit der 2x8pol Ref Modell wird preislich oke. Aber die Bordpartner mit ev 3x8pol werden es knacken lassen. Hach ich brauch eh ne Wakü, Ref Modell wird nur 2x8 haben is Käse, und schon isses wieder schwierig mit Radeon@FullCover Wakü..........

das Referenz-Modell wird wegen 355Watt TBP und 2x8pin wohl keinerlei Freiraum beim Powerlimit haben. Vielleicht kommen hier auch die Gerüchte um maximal 3% OC her. Leider sind AMD Referenz-Karten häufig auch vom Layout nur absolutes Minimum. Ich hatte bei der R9 Nano und 6900XT mit extremen Spulenrasseln zu kämpfen (eine Vega64 war aber absolut top).

Darum wird man wohl, selbst wenn kein extremes OC geplant ist, auf ein AIB Modell setzen müssen. Und hier wird dann Luft für gute Fullcover-Blöcke dünn. Abseits von Bykski und Alphacool wird sicherlich EK ein paar Customs unterstützen. Ich tendiere derzeit gedanklich zu Asus 7900XTX. Die TUF ist als erstes Custom Board angekündigt (eine Red Devil wurde ja nur angeteasert). Ich hoffe noch auf ein Strix Modell. Hierfür wird man relativ sicher einen Fullcover-Block bekommen können, wenn auch mit etwas Verzögerung vom Marktstart. Wobei dies auch bei der 4090 diesmal auch nicht optimal war.

Complicated
2022-11-09, 08:13:54
Ich glaube auch nicht, dass das 2x8-Pin Modell lange verfügbar sein wird. Nach dem Launch aller Custom 3x8-Pin zu einem 200,- € höheren Preispunkt, wird AMD das Referenz-Modell einfach auslaufen lassen. Dann passen auch die Preispunkte wieder besser zur XT - die Stimmung können die AIB-Hersteller jetzt genau ausloten und entsprechend das Lineup mit einem günstigen Referenz-XTX ergänzen, wenn es sinnvoll erscheint.

Zossel
2022-11-09, 08:16:15
Ich glaube auch nicht, dass das 2x8-Pin Modell lange verfügbar sein wird. Nach dem Launch aller Custom 3x8-Pin zu einem 200,- € höheren Preispunkt, wird AMD das Referenz-Modell einfach auslaufen lassen. Dann passen auch die Preispunkte wieder besser zur XT - die Stimmung können die AIB-Hersteller jetzt genau ausloten und entsprechend das Lineup mit einem günstigen Referenz-XTX ergänzen, wenn es sinnvoll erscheint.

Verkaufen sich wirklich nur möglichst massive Metallklumpen?

Complicated
2022-11-09, 08:19:33
Das scheinen die AIBs zu glauben - ist ja nicht AMDs Entscheidung. Mit der Referenz setzt AMD einen Preispunkt zur Vorstellung, der wohlwollend der "niedrigeren als erwartet" Leistung gegenüber steht. Der Kunde entscheidet was er kauft in der Preisklasse.

Badesalz
2022-11-09, 08:58:36
Ich glaube auch nicht, dass das 2x8-Pin Modell lange verfügbar sein wird. Nach dem Launch aller Custom 3x8-Pin zu einem 200,- € höheren Preispunkt, wird AMD das Referenz-Modell einfach auslaufen lassen.Da die Kühlung der Refkarte ziemlich ok ist und 3x8pin bei N31rev1 nicht wirklich Sinn zu machen scheint, sehe ich das genauso umgekehrt :wink:

Hott3X
2022-11-09, 09:11:38
Verkaufen sich wirklich nur möglichst massive Metallklumpen?

Genau das ist mein Problem. Diese ganzen fetten Karten, passen nicht in Mein Case. Die Referenz würde gehen.

Thorin
2022-11-09, 09:13:01
Ich bin an einer 7900xtx als Aufrüstung zu meiner Rx480 interessiert. Wo wird die Referenzkarte wahrscheinlich zum launch verfügbar sein? Nur auf Amd.com oder auch bei anderen Händlern?

dildo4u
2022-11-09, 09:20:40
Ich bin an einer 7900xtx als Aufrüstung zu meiner Rx480 interessiert. Wo wird die Referenzkarte wahrscheinlich zum launch verfügbar sein? Nur auf Amd.com oder auch bei anderen Händlern?

Kein Plan ob das neu ist aber Caseking hat Referenz 6950XT.
Ansonsten nur AMD.com.

https://www.caseking.de/amd-radeon-rx-6950-xt-16384-mb-gddr6-gcam-016.html

robbitop
2022-11-09, 09:26:11
Ich bin an einer 7900xtx als Aufrüstung zu meiner Rx480 interessiert. Wo wird die Referenzkarte wahrscheinlich zum launch verfügbar sein? Nur auf Amd.com oder auch bei anderen Händlern?
Das wäre ja mal eine richtig richtig fettige Aufrüstung. :D Eine 6 Jahre alte Midrange gegen eine brandneue High End. Das Ding wird in etwa um Faktor 8-10 schneller sein. Das muss ein wirklich geiles Gefühl sein so einen großen Sprung zu machen. Das erinnert mich an die Zeit der 1990er Jahre, wo es alle 6 Monate fette Sprünge gab und ich von einem 486DX2 66 MHz auf einen K6-2 300 MHz upgegradet habe. Das war ein vergleichbarer Sprung (aber seitens der CPU). :D

dargo
2022-11-09, 09:28:58
Ich bin an einer 7900xtx als Aufrüstung zu meiner Rx480 interessiert. Wo wird die Referenzkarte wahrscheinlich zum launch verfügbar sein? Nur auf Amd.com oder auch bei anderen Händlern?
Wird noch keiner sagen können. Normalerweise beauftragt AMD einen mit der Produktion vom Referenzdesign (Sapphire?) und alle anderen machen ihren Label drauf. Diese Karten kriegst du bei den Händlern. Irgendwann wenn genug Customs produziert wurden fährt man die Referenzkarten runter bis sie dann letztendlich komplett verschwinden. Bei der letzten Gen war das mit AMD glaube ich nur eine Ausnahme wegen Miningboom.

Complicated
2022-11-09, 10:04:36
Da die Kühlung der Refkarte ziemlich ok ist und 3x8pin bei N31rev1 nicht wirklich Sinn zu machen scheint, sehe ich das genauso umgekehrt :wink:Wie kommst Du zu der Schlußfolgerung mit den 3x8-Pin?

Thorin
2022-11-09, 10:10:58
Das wäre ja mal eine richtig richtig fettige Aufrüstung. :D Eine 6 Jahre alte Midrange gegen eine brandneue High End. Das Ding wird in etwa um Faktor 8-10 schneller sein. Das muss ein wirklich geiles Gefühl sein so einen großen Sprung zu machen. Das erinnert mich an die Zeit der 1990er Jahre, wo es alle 6 Monate fette Sprünge gab und ich von einem 486DX2 66 MHz auf einen K6-2 300 MHz upgegradet habe. Das war ein vergleichbarer Sprung (aber seitens der CPU). :D
Habe schon zu lange mit der Karte ausgehalten und gehe mit der Aufrüstung auch preislich etwas höher als gewollt. Bin es langsam leid mit 75% Auflösung (von 1440p) und niedrigsten Einstellungen zu spielen. Der i6700k wird auch in kürze ersetzt, Da will ich aber die Ankündigung der neuen 7800x3d Prozessoren abwarten. Den alten Rechner erhält meine Tochter als Erstrechner.

Ja früher waren die Zeiten anders da habe ich den Rechner alle 2 Jahre ersetzt, weil man spätesten dann kaum was mehr spielen konnte. Heute ist der Fortschritt bzw. der Anstieg der Anforderungen langsamer.

Kein Plan ob das neu ist aber Caseking hat Referenz 6950XT.
Ansonsten nur AMD.com.

https://www.caseking.de/amd-radeon-rx-6950-xt-16384-mb-gddr6-gcam-016.html

Danke werde es dort auch versuchen falls die Reviews ein Tag zuvor keinen großen haken bei der Karte finden.

amdfanuwe
2022-11-09, 10:26:46
Habe schon zu lange mit der Karte ausgehalten
Geht mir mit der 480 ähnlich. Die letzten Jahre gab es einfach nichts zu einem akzeptablem Preis.
Allerdings bleib ich bei FHD und schwanke grad, ob ich auf 6700XT oder 6800 umsteige und den 1600X durch einen 5600 ersetze. Gibt aktuell noch ein Spielebündel bei den 6000ern GPUs und bei den 5000ern CPUs dazu.
Bis es 7000er in dem Preisbereich gibt, dauert ja noch.
Mal sehen, vielleicht wart ich noch ob zur CES noch etwas interessantes vorgestellt wird.

nordic_pegasus
2022-11-09, 10:31:04
Genau das ist mein Problem. Diese ganzen fetten Karten, passen nicht in Mein Case. Die Referenz würde gehen.

das Problem habe ich auch. Die angekündigte TUF 7900XTX passt nicht in mein Gehäuse. Ich bin hier quasi auf kompakte Wakü-Blöcke angewiesen. Die TUF ist mit Luftkühler ca. 35cm lang, das PCB endet ungefähr bei 28cm.

Wenn ich provisorisch erstmal mit Luftkühler betreiben will, wird die Referenz-Karte fast die einzige Option sein.

Thorin
2022-11-09, 10:34:10
Geht mir mit der 480 ähnlich. Die letzten Jahre gab es einfach nichts zu einem akzeptablem Preis.



Fand ich auch, Preis Leistung war einfach nicht da. Ich sehe aber auch in Zukunft keine große Besserung gegenüber der xtx mehr. Ich will mit der Karte hoffentlich für die Konsolengeneration ruhe haben und dann frühestens wieder in 4 Jahren aufrüsten. Abseits von eventuell viel höheren Raytracingeinsatz sollte es klappen.

Badesalz
2022-11-09, 11:17:10
Das wäre ja mal eine richtig richtig fettige Aufrüstung. :D Eine 6 Jahre alte Midrange gegen eine brandneue High End. Das Ding wird in etwa um Faktor 8-10 schneller sein.Die CPU ist ein 2500k.

Wie kommst Du zu der Schlußfolgerung mit den 3x8-Pin?Für 3,4% OC kommt man mit 2x8pin wohl noch aus (?) Oder übersehe ich etwas? ODER anders: 400W für 3,4% OC, ist das eine sinnvolle Investition?

Da sie sich die Zeit genommen haben es zu betonen, daß sie den Kühler überarbeitet und effizienter gemacht haben... wenn die Referenz bis 144Hz/fps nicht fiept, wird sie doch das beste Angebot sein, wenn sie auch nur 10€ billiger ist als die billigste AIB (?) :smile: Vor allem passt sie ja auch bei jedem rein :tongue:

Hott3X
2022-11-09, 11:47:38
das Problem habe ich auch. Die angekündigte TUF 7900XTX passt nicht in mein Gehäuse. Ich bin hier quasi auf kompakte Wakü-Blöcke angewiesen. Die TUF ist mit Luftkühler ca. 35cm lang, das PCB endet ungefähr bei 28cm.

Wenn ich provisorisch erstmal mit Luftkühler betreiben will, wird die Referenz-Karte fast die einzige Option sein.

Dabei kann ich schon 3 Slot und 30cm verbauen. Eigentlich sind mit die 300W auch 50Watt zu viel. aber die kann man bestimmt noch durch UV einsparen.
Vielleicht erbarmt sich ja Sapphire und bingt eine Pulse mit max. 30cm länge raus. Zumindest bei der 6800 - 6900 war es leider nicht so.
Einzig Gigabyte hatte passende, aber mit Gigabyte und AMD bin ich durch.

DrFreaK666
2022-11-09, 11:55:53
In Zukunft kommen wohl noch mehr Infos, auch zu den KI-Einheiten.

Video ab ca. 14:50

SxcjZdiKgK0

Bin gespannt. Vielleicht geht AMD den Intel-Weg und bietet ein besseres und schnelleres FSR 2 auf RDNA 3 Karten (sagen wir ab FSR 2.3)

][immy
2022-11-09, 12:00:11
In Zukunft kommen wohl noch mehr Infos, auch zu den KI-Einheiten.

Video ab ca. 14:50

https://youtu.be/SxcjZdiKgK0

Bin gespannt. Vielleicht geht AMD den Intel-Weg und bietet ein besseres und schnelleres FSR 2 auf RDNA 3 Karten (sagen wir ab FSR 2.3)
Solange FSR, DLSS & co aber vom Spieleentwickler extra eingebaut werden müssen und so etwas nicht standardisiert ist, würde ich so etwas nicht als Feature sehen.
Sieht man ja jetzt bei nvidia. Die Bringen DLSS 3.0 und alle älteren Karten gucken plötzlich in die Röhre sobald nur noch DLSS 3 angeboten wird. Das fühlt sich einfach wie so eine künstliche Hürde an, die nicht da sein müsste.

Sumpfmolch
2022-11-09, 12:11:16
Die CPU ist ein 2500k.

Für 3,4% OC kommt man mit 2x8pin wohl noch aus (?) Oder übersehe ich etwas? ODER anders: 400W für 3,4% OC, ist das eine sinnvolle Investition?


Das war schon das erste, was ich mit meiner Referenz 6900xt gemacht habe: den Power Slider auf -10% drehen und dann über undervolting testen, was an Takt drin ist.

Zossel
2022-11-09, 12:13:59
[immy;13162674']Solange FSR, DLSS & co aber vom Spieleentwickler extra eingebaut werden müssen und so etwas nicht standardisiert ist, würde ich so etwas nicht als Feature sehen.
Sieht man ja jetzt bei nvidia. Die Bringen DLSS 3.0 und alle älteren Karten gucken plötzlich in die Röhre sobald nur noch DLSS 3 angeboten wird. Das fühlt sich einfach wie so eine künstliche Hürde an, die nicht da sein müsste.

Wenn die Berechnungen mit KI/NN Methoden ohne spezielle Einheiten so lange dauern das kein Gewinn dabei rum kommt ist es nutzlos.

Complicated
2022-11-09, 12:16:02
Die CPU ist ein 2500k.

Für 3,4% OC kommt man mit 2x8pin wohl noch aus (?) Oder übersehe ich etwas? ODER anders: 400W für 3,4% OC, ist das eine sinnvolle Investition?
Der Grund warum nur 3% OC drin ist ist ja gerade die maximale Stromversorgung mit 2x8-Pin. So lange keiner mit 3x8-Pin getetest hat ist da das Limit ziemlich offensichtlich.
TDP 355W - 2x8-Pin -> Am Limit bei 300+66W
TDP 355W - 3x8-Pin -> Am Limit bei 450+66W

Dino-Fossil
2022-11-09, 12:27:06
Über die 8Pin Anschlüsse könnte theoretisch mehr, ohne das man gleich Probleme bekommt.
Wenn die Karte da nicht hart abregelt, ist das also kein Hindernis, denke ich.
Evtl. boostet sie aber eh schon relativ deutlich über den offiziellen Clock-Angaben (wie das ja bei RDNA2 teils auch der Fall war) und man at auch deswegen nicht mehr viel Luft nach oben.
Muss man die Tests abwarten.

Edit: könnte natürlich auch wirklich schon an der absoluten Grenze sein, wobei mir die TDP nicht zwangsläufig danach aussieht.

Badesalz
2022-11-09, 12:28:29
Der Grund warum nur 3% OC drin ist ist ja gerade die maximale Stromversorgung mit 2x8-Pin.Ähh… Nein? :freak:

Ph0b0ss
2022-11-09, 12:44:17
Der Grund warum nur 3% OC drin ist ist ja gerade die maximale Stromversorgung mit 2x8-Pin. So lange keiner mit 3x8-Pin getetest hat ist da das Limit ziemlich offensichtlich.
TDP 355W - 2x8-Pin -> Am Limit bei 300+66W
TDP 355W - 3x8-Pin -> Am Limit bei 450+66W

Die 6950 XT Referenz mit 2x 8-pin hat 335W TDP und zieht mit dem offiziellen +20% Powerlimit auch schon ~400W. Sollte das MorePowerTool mit der RX 7900 XTX auch wieder funktionieren, gehen sicher auch 500W oder mehr.

OpenVMSwartoll
2022-11-09, 12:44:54
Der Verdacht ist immer noch: Irgendwas funktioniert nicht sowie gewollt, daher die Verzögerung. Man hat den Takt bis zur max. erlaubten TDP hochgerissen, viel mehr Performance kommt nicht mehr.

dildo4u
2022-11-09, 12:50:43
Weil die Gerüchte komplett überzogen waren?
Es waren immer 50% besser Effizienz geplant und man zieht das TDP nicht in unsinnige Regionen.

OpenVMSwartoll
2022-11-09, 12:53:44
Weil die Gerüchte komplett überzogen waren?
Es waren immer 50% besser Effizienz geplant und man zieht das TDP nicht in unsinnige Regionen.

Schauen wir mal, wie die OC Versionen der Hersteller performen, dann sehen wir, ob noch Headroom ist.

DrFreaK666
2022-11-09, 12:59:51
[immy;13162674']Solange FSR, DLSS & co aber vom Spieleentwickler extra eingebaut werden müssen und so etwas nicht standardisiert ist, würde ich so etwas nicht als Feature sehen.
Sieht man ja jetzt bei nvidia. Die Bringen DLSS 3.0 und alle älteren Karten gucken plötzlich in die Röhre sobald nur noch DLSS 3 angeboten wird. Das fühlt sich einfach wie so eine künstliche Hürde an, die nicht da sein müsste.

Bei FSR 2 guckt keine andere Karte in die Röhre, ebenso bei XeSS. Das ist nur bei DLSS der Fall, weil Nvidia.
Mir würde auch reichen wenn sich FSR durchsetzt und alle sich um die Verbesserung kümmern, aber natürlich muss jeder sein eigenes Süppchen kochen.
Aber nochmal: Nur DLSS ist eingeschränkt

Platos
2022-11-09, 13:03:18
Es ging um DLSS 3.0. Du weisst ja noch gar nicht, ob FSR 3.0 dann auch auf allen Karten läuft oder ob nur auf RDNA 3

DrFreaK666
2022-11-09, 13:15:15
Es ging um DLSS 3.0. Du weisst ja noch gar nicht, ob FSR 3.0 dann auch auf allen Karten läuft oder ob nur auf RDNA 3

Ich schrieb von einem möglichen FSR 2.3, nicht von FSR 3.
Vielleicht habe ich mich undeutlich ausgedrückt.
XeSS läuft auf allen Karten, mit Intel Arc aber hardwarebeschleunigt und mit besserer Qualität. Vielleicht plant AMD auch sowas oder für was sollen die KI-Einheiten sonst sein?
Von FSR 3 war überhaupt nicht die Rede

Matrix316
2022-11-09, 13:18:57
9FX4Z_JVx58

robbitop
2022-11-09, 14:01:19
Bei FSR 2 guckt keine andere Karte in die Röhre, ebenso bei XeSS.
Ein bisschen schon. XeSS ist ohne VMX richtig schlecht. Und VMX gibt es dann nur auf Intel dGPUs mit XeHPG uArch. Insofern ist XeSS eigentlich viel weniger vielseitig nutzbar als zunächst gedacht.

basix
2022-11-09, 14:07:17
Leider, ja. Momentan sehe ich FSR2 als einzige Technologie an, welche herstellerübergreifend wirklich gleichwertig ist. Und so langsam kommt es auch zu den Konsolen (z.B. CP2077 mit FSR 2.1)

DrFreaK666
2022-11-09, 14:10:30
Ein bisschen schon. XeSS ist ohne VMX richtig schlecht. Und VMX gibt es dann nur auf Intel dGPUs mit XeHPG uArch. Insofern ist XeSS eigentlich viel weniger vielseitig nutzbar als zunächst gedacht.

Ja, so gesehen schon. Das war vorher leider nicht absehbar. Aber da geht sicherlich noch was, was Bildqualität angeht

Complicated
2022-11-09, 14:19:13
Ähh… Nein? :freak:Weil?

aufkrawall
2022-11-09, 14:22:34
Ja, so gesehen schon. Das war vorher leider nicht absehbar. Aber da geht sicherlich noch was, was Bildqualität angeht
Oder auch nicht, so teuer wie es jetzt schon ist.

Complicated
2022-11-09, 14:23:36
Die 6950 XT Referenz mit 2x 8-pin hat 335W TDP und zieht mit dem offiziellen +20% Powerlimit auch schon ~400W. Sollte das MorePowerTool mit der RX 7900 XTX auch wieder funktionieren, gehen sicher auch 500W oder mehr.
Ich denke das werden dann die Tests zeigen müssen - mit dem dann aktuellen BIOS, das hier möglicherweise noch überhaupt nicht final im Umlauf ist. Ich denke erst nach den Tests ist da eine sinnvolle Bewertung möglich ob zusätzlicher Pin oder BIOS Limits, die jetzt noch da sind, lösen. Oder eben dann nicht. Ich finde es zu früh ohne diese Daten Takt/W Kurven und Limits festzulegen in der Architektur.

DrFreaK666
2022-11-09, 15:07:57
Oder auch nicht, so teuer wie es jetzt schon ist.

AMD hat auch die BQ verbessert ohne massiv Geschwindigkeit zu opfern

aufkrawall
2022-11-09, 15:16:05
AMD hat auch die BQ verbessert ohne massiv Geschwindigkeit zu opfern
AMD hat auch kein NN mit offensichtlich zu geringer Anzahl an Nodes mit dem DP4a-Fallback. Intel kann damit die Anzahl der Nodes nicht steigern, ohne weiter die Geschwindigkeit zu reduzieren. Und mehr Nodes = mehr Qualität, wie der MC-Pfad aufzeigt.

DrFreaK666
2022-11-09, 15:26:34
Die BQ hängt sicherlich nicht nur daran.

Langlay
2022-11-09, 15:43:35
Die 6950 XT Referenz mit 2x 8-pin hat 335W TDP und zieht mit dem offiziellen +20% Powerlimit auch schon ~400W. Sollte das MorePowerTool mit der RX 7900 XTX auch wieder funktionieren, gehen sicher auch 500W oder mehr.

This. ich hab schon 360W GPU Power in die 6900XT geschaufelt da ist nix abgefackelt, ich hab auf der Radeon VII 400W+ GPU Power in die Karte geschaufelt auch dort alles easy mit 2x 8Pin. Wer sich wegen den 2x8Pin ins Höschen macht, der hat hat keine anderen Probleme.

aufkrawall
2022-11-09, 15:48:40
Die BQ hängt sicherlich nicht nur daran.
Ist Stand jetzt nicht mehr als die reine Hoffnung von dir.

robbitop
2022-11-09, 15:56:02
Leider, ja. Momentan sehe ich FSR2 als einzige Technologie an, welche herstellerübergreifend wirklich gleichwertig ist. Und so langsam kommt es auch zu den Konsolen (z.B. CP2077 mit FSR 2.1)
Scorn und Forza 5 sollen es auch auf der XSX bringen.
Leider kommt es von der Rekonstruktion und der Robustheit ggü Implementierungsgüte noch nicht an DLSS heran. Aber immerhin haben wir etwas. :)

DrFreaK666
2022-11-09, 15:59:10
Scorn und Forza 5 sollen es auch auf der XSX bringen.
Leider kommt es von der Rekonstruktion und der Robustheit ggü Implementierungsgüte noch nicht an DLSS heran. Aber immerhin haben wir etwas. :)

Von Forza hab ich nichts gehort, aber CP2077 brachte es auf Konsolen

robbitop
2022-11-09, 16:01:26
Forza ggf. doch nur für PC. Scorn hat es aber schon vor ein paar Wochen gehabt.

DrFreaK666
2022-11-09, 16:02:12
Ist Stand jetzt nicht mehr als die reine Hoffnung von dir.

Intel muss es verbessern. Wieso weiter Geld investieren, wenn es niemand nutzt weil die Bildqualität nicht überzeugt?

basix
2022-11-09, 16:45:38
Leider kommt es von der Rekonstruktion und der Robustheit ggü Implementierungsgüte noch nicht an DLSS heran. Aber immerhin haben wir etwas. :)

Das wird noch besser ;)

fondness
2022-11-09, 16:50:53
Scorn und Forza 5 sollen es auch auf der XSX bringen.
Leider kommt es von der Rekonstruktion und der Robustheit ggü Implementierungsgüte noch nicht an DLSS heran. Aber immerhin haben wir etwas. :)

Dafür hat es andere Vorteile und blurrt nicht so viel. Je nach Spiel liefert FSR das bessere Ergebnis.

aufkrawall
2022-11-09, 16:57:10
Dafür hat es andere Vorteile und blurrt nicht so viel. Je nach Spiel liefert FSR das bessere Ergebnis.
Ändert leider nicht, dass man sich noch einen unnötigen Nachteil auflädt, wenn man eine Grafikkarte kauft, mit der man auf DLSS verzichten muss.
Insbesondere mit dem Performance-Modus (gerade für 4k-Nutzer oder RT mit Mittelklasse-Modellen interessant) ist das schon ein ziemlicher Verlust gegen die aktuellste DLSS-Version.
Hoffen wir, dass es mit RDNA 4 besser aussehen wird. Ist ja keine ganz abwegige Annahme. Kann natürlich auch sein, dass das Imperium mit einer noch viel besseren DLSS-Version zurückschlägt. :freak:

robbitop
2022-11-09, 17:01:16
Das wird noch besser ;)

Ich vermute für das next level wird man um ein NN nicht herumkommen. Aber das beisst sich mit der Philosophie dass es überall gut laufen soll.

Tesseract
2022-11-09, 17:01:48
Das war vorher leider nicht absehbar.

natürlich war das absehbar. diese diskussion gibt es seit dem release von turing 2018 und die antwort ist immer noch die gleiche: für sinnvolles echtzeit-DL braucht man den durchsatz spezialisierter hardware.

fondness
2022-11-09, 17:02:17
Ändert leider nicht, dass man sich noch einen unnötigen Nachteil auflädt, wenn man eine Grafikkarte kauft, mit der man auf DLSS verzichten muss.

Sobald es nur ein einziges Spiel gibt wo DLSS besser aussieht hast du das Problem. Das ist eben der Vorteil von Vendor-Locks, NV-User können jeweils das bessere wählen. Nur wenn man das als Spieler supportet hat man halt iwann ein Monopol.

fondness
2022-11-09, 17:05:55
Ich vermute für das next level wird man um ein NN nicht herumkommen. Aber das beisst sich mit der Philosophie dass es überall gut laufen soll.

Warum sollte das an NN hängen?

robbitop
2022-11-09, 17:23:18
Weil ein NN zwei Vorteile zu bringen scheint:
1. Höhere Trefferrate beim Clamping -> artefaktnormiert mehr Samples möglich zu akkumulieren
2. Ein Fehltreffer beim Clamping wird durch "Erfinden" von erstaunlich konsistenten Werten ausgeglichen

Auch scheint es in Fällen, wo vom Entwickler nicht überall alles eingehalten wurde Dinge wieder gerade zu biegen. Z.B in Death Stranding gab es Anfangs Ghosting bei den Particles, weil wahrscheinlich Motion Vectors fehlten oder im falschen Format vorlagen. Das reine Tauschen der DLL (ohne Patch des Spieles) gegen eine neuere führt schon dazu, dass das Problem entfällt.

Matrix316
2022-11-09, 17:24:12
Wann kommen denn eigentlich erste Tests raus für die neuen Karten? Oder erst zu Release? Die 4080 kommt ja schon nächste Woche oder so... da müsste AMD aber schon bald was zeigen, damit nicht zu viele Leute dort zugreifen (oder man zeigt nix, aus dem gleichen Grund ;)).

DrFreaK666
2022-11-09, 17:37:36
Ich vermute für das next level wird man um ein NN nicht herumkommen. Aber das beisst sich mit der Philosophie dass es überall gut laufen soll.

Für irgendwas müssen die KI-Einheiten ja gedacht sein

Thunder99
2022-11-09, 19:18:04
Wann kommen denn eigentlich erste Tests raus für die neuen Karten? Oder erst zu Release? Die 4080 kommt ja schon nächste Woche oder so... da müsste AMD aber schon bald was zeigen, damit nicht zu viele Leute dort zugreifen (oder man zeigt nix, aus dem gleichen Grund ;)).
Keine Sorge, der Preis macht es zunichte das die Karte weg geht wie warme Semmeln :freak: :wink:

Gott1337
2022-11-09, 19:45:40
Keine Sorge, der Preis macht es zunichte das die Karte weg geht wie warme Semmeln :freak: :wink:
Die letzten 2 Jahre sollten dir doch das Gegenteil bewiesen haben. die 3090 hat sich laut Steam Survey besser als die 6600XT verkauft, welche die am häufigsten genutzt RDNA2 GPU ist. Außer ich hab noch eine übersehen aber guck halt selbst.

Achill
2022-11-09, 19:49:35
Ich vermute für das next level wird man um ein NN nicht herumkommen. Aber das beisst sich mit der Philosophie dass es überall gut laufen soll.

Weil ein NN zwei Vorteile zu bringen scheint:
1. Höhere Trefferrate beim Clamping -> artefaktnormiert mehr Samples möglich zu akkumulieren
2. Ein Fehltreffer beim Clamping wird durch "Erfinden" von erstaunlich konsistenten Werten ausgeglichen

Auch scheint es in Fällen, wo vom Entwickler nicht überall alles eingehalten wurde Dinge wieder gerade zu biegen. Z.B in Death Stranding gab es Anfangs Ghosting bei den Particles, weil wahrscheinlich Motion Vectors fehlten oder im falschen Format vorlagen. Das reine Tauschen der DLL (ohne Patch des Spieles) gegen eine neuere führt schon dazu, dass das Problem entfällt.

Abwarten, man kann jedes NN in Algorithmen gießen. Der Vorteil eines NN ist, dass man durch "lernen" den Algorithmen und dessen Divergenz abbilden kann sowie das trainieren automatisiert wird.

Ein NN muss aber nicht besser noch schneller sein im Vergleich zu einer anderen Lösung. Etwas anderes zu behaupten ist nicht richtig. Man sollte m.E. auch immer bedenken, wie sehr NV ggf. mit Entwicklern zusammen arbeitet und ob eben nicht eben dies den einen oder anderen Unterschied ausmacht.

Aus Sicht des Marketings ist es aber natürlich wünschenswert wenn DLSS mit bester Qualität assoziiert wird.

fondness
2022-11-09, 20:18:16
Weil ein NN zwei Vorteile zu bringen scheint:
1. Höhere Trefferrate beim Clamping -> artefaktnormiert mehr Samples möglich zu akkumulieren
2. Ein Fehltreffer beim Clamping wird durch "Erfinden" von erstaunlich konsistenten Werten ausgeglichen

Auch scheint es in Fällen, wo vom Entwickler nicht überall alles eingehalten wurde Dinge wieder gerade zu biegen. Z.B in Death Stranding gab es Anfangs Ghosting bei den Particles, weil wahrscheinlich Motion Vectors fehlten oder im falschen Format vorlagen. Das reine Tauschen der DLL (ohne Patch des Spieles) gegen eine neuere führt schon dazu, dass das Problem entfällt.

Ist für mich wohl eher eine Frage wieviel Leistung man verbraten will. Man muss sich vorstellen Nvidia hat extra tensor cores verbaut die einen beachtlichen Teil Die Fläche kosten und defacto nur für DLSS verwendet werden und dennoch ist FSR selbst auf Nvidia Karten kaum langsamer. Man weiß durch die closed source schiene natürlich nicht was DLSS hier alles herum rechnet, aber es dürfte wohl erheblich mehr Aufwand sein als FSR.

gedi
2022-11-09, 20:21:24
Keine Sorge, der Preis macht es zunichte das die Karte weg geht wie warme Semmeln :freak: :wink:

Eben. Wenn die Benches auf Twitter einigermaßen legit sind, dann ist die 4080 ein ziemlicher Fail. 1500€ aufwärts für eine Grafikkarte mit lediglich 16GB mit 256er SI ? Und das Ding ist kaum schneller als eine 3090 (ti), was heißt, dass das Ding ab 4k max. Q mit RT komplett eingeht ...

Linmoum
2022-11-09, 20:21:41
Man muss sich vorstellen Nvidia hat extra tensor cores verbaut die einen beachtlichen Teil Die Fläche kostenGibt's dafür mittlerweile handfeste Zahlen? Irgendwann schwirrten iirc für RT und Tensor Core mal ~10% Die Size rum, was lächerlich wäre. Ich denke auch, dass das einfach überschätzt wird und man automatisch annimmt, dass das massig Platz frisst.

iamthebear
2022-11-09, 20:28:23
Ich vermute für das next level wird man um ein NN nicht herumkommen. Aber das beisst sich mit der Philosophie dass es überall gut laufen soll.

Das mit dem NN hat immer 2 Seiten. Damit es vernünftig läuft braucht man wie bei Nvidia oder Intel auch entsprechende Matrixbeschleuniger. Wenn dann z.B. 10% der Chipfläche nur dafür drauf geht bedeutet das, dass man auf derselben Fläche dann 10% weniger Shaderperformance hat und das eben auch in Spielen, die die eigene Technologie nicht unterstützen oder bei Spielern, die kein Upscaling brauchen da Karte schnell genug bzw. Monitorauflösung zu gering.

Matrix316
2022-11-09, 20:38:18
Eben. Wenn die Benches auf Twitter einigermaßen legit sind, dann ist die 4080 ein ziemlicher Fail. 1500€ aufwärts für eine Grafikkarte mit lediglich 16GB mit 256er SI ? Und das Ding ist kaum schneller als eine 3090 (ti), was heißt, dass das Ding ab 4k max. Q mit RT komplett eingeht ...
Wäre ja "schön", dann kann man wenigstens eine Karte unter 2000 Euro kaufen, die schneller als eine 3090TI ist. :freak:

Wenn man bedenkt, dass selbst eine 3070 die letzten 2 Jahre weggegangen ist wie warme Semmeln...

Zossel
2022-11-09, 20:53:15
Ist für mich wohl eher eine Frage wieviel Leistung man verbraten will.

Wie viel mehr FLOPS/TOPS braucht man für doppelt besser?

TheGood
2022-11-09, 21:24:55
Wissen wir denn wie viel Silizium explizit dafür eingesetzt wurde? Und wie gesagt: bei Ada schlummert noch Level 4 HW die mehr speedup bringt wenn sie angesprochen wird.
Und auch finde ich es seltsam wenn man 50-100% Mehrperformance mit einem „nur“ versieht. Der Transistoreinsatz ist ein Bruchteil davon.
Fuer dedizierte Einheiten,die nur dafür da sind, ist die erzielte Performance schlichtweg schlecht. Aber natürlich braucht man einen gewissen Grad an Einheiten um es überhaupts auszuführen.
Wenn man es anders ausdrückt, müsste man die eigentliche Performancepotential hier anders heben und zwar wie von ein oder andren schonmal angedeutet, von der Softwareseite um den Load deutlich zu verringern...
Mark Cerny hat da ja das ein oder andere Patent für Sony erschlossen. Stand doch in diesem Thread vor ungefähr 150 Beiträgen :)

robbitop
2022-11-09, 21:52:31
Abwarten, man kann jedes NN in Algorithmen gießen. Der Vorteil eines NN ist, dass man durch "lernen" den Algorithmen und dessen Divergenz abbilden kann sowie das trainieren automatisiert wird.

Ein NN muss aber nicht besser noch schneller sein im Vergleich zu einer anderen Lösung. Etwas anderes zu behaupten ist nicht richtig. Man sollte m.E. auch immer bedenken, wie sehr NV ggf. mit Entwicklern zusammen arbeitet und ob eben nicht eben dies den einen oder anderen Unterschied ausmacht.

Aus Sicht des Marketings ist es aber natürlich wünschenswert wenn DLSS mit bester Qualität assoziiert wird.
Das Problem ist die Anzahl der Permutationen an Fällen die man abbilden will. Mit einem NN hat man da Vorteile. Sowohl VMX XeSS als auch DLSS zeigen gerade mit niedriger Inputresolution deutlich warum sie ein NN nutzen. Zufall ist das sicherlich nicht.
Kostet sicherlich einiges an Leistung aber dank fixed function HW kein großes Problem.

robbitop
2022-11-09, 21:55:19
Ist für mich wohl eher eine Frage wieviel Leistung man verbraten will. Man muss sich vorstellen Nvidia hat extra tensor cores verbaut die einen beachtlichen Teil Die Fläche kosten und defacto nur für DLSS verwendet werden und dennoch ist FSR selbst auf Nvidia Karten kaum langsamer. Man weiß durch die closed source schiene natürlich nicht was DLSS hier alles herum rechnet, aber es dürfte wohl erheblich mehr Aufwand sein als FSR.

Ja es hat auch Nachteile. Aber es scheint zu robusteren und konsistenteren Ergebnissen zu führen und insbesondere bei niedriger Inputresolution (performance mode) doch Vorteile zu bieten.

Ich will FSR 2 nicht schlecht reden. Wenn es gut implementiert ist, sieht es gut aus und ist schnell und rennt auf jeder HW. Aber das Performancepreset lässt mir dann doch etwas viele Federn und einige Implementierungen sind nicht so toll. ZB RDR2 was ich gerade spiele.

robbitop
2022-11-09, 21:56:45
Das mit dem NN hat immer 2 Seiten. Damit es vernünftig läuft braucht man wie bei Nvidia oder Intel auch entsprechende Matrixbeschleuniger. Wenn dann z.B. 10% der Chipfläche nur dafür drauf geht bedeutet das, dass man auf derselben Fläche dann 10% weniger Shaderperformance hat und das eben auch in Spielen, die die eigene Technologie nicht unterstützen oder bei Spielern, die kein Upscaling brauchen da Karte schnell genug bzw. Monitorauflösung zu gering.

Jap. Und dennoch fährt NV damit offenbar besser. Außerdem kann man durch die besseren Ergebnisse ggf auch die Inputresolution ggü FSR senken und hat die 10% auch schnell wieder drin. :)

robbitop
2022-11-09, 22:01:27
Fuer dedizierte Einheiten,die nur dafür da sind, ist die erzielte Performance schlichtweg schlecht. Aber natürlich braucht man einen gewissen Grad an Einheiten um es überhaupts auszuführen.
Wenn man es anders ausdrückt, müsste man die eigentliche Performancepotential hier anders heben und zwar wie von ein oder andren schonmal angedeutet, von der Softwareseite um den Load deutlich zu verringern...
Mark Cerny hat da ja das ein oder andere Patent für Sony erschlossen. Stand doch in diesem Thread vor ungefähr 150 Beiträgen :)
Patent ist das eine aber abliefern das andere. Ich muss hier klar widersprechen - man setzt sicherlich eine Größenordnung weniger Transistoren ein als die Mehrleistung die man in RT bekommt. Für Ada sollte man erstmal abwarten was passiert wenn OMM, DMM und SER explizit angesprochen werden. Da ist noch speedup unerschlossen.

Eine genaue Bewertung ist sicherlich schwer ohne das Delta an Transistoren zwischen Level 2 (rdna), Level 3 (turing/ampere), Level 4 (lovelace) pro SM zu kennen. Was ohne das bleibt sind Zweifel die auf Allgemeinplätzen basieren.

Tesseract
2022-11-09, 22:21:12
Abwarten, man kann jedes NN in Algorithmen gießen.

nein, absolut keine chance. sobald im NN mal genug hirnschmalz, rechenleistung und training steckt kommt irgendwann der punkt wo klassische algorithmen völlig aussteigen. eines der extremsten (offline) beispiele dafür ist momentan wohl midjourney (https://www.midjourney.com/showcase/).

aufkrawall
2022-11-09, 22:36:41
Gibt's dafür mittlerweile handfeste Zahlen? Irgendwann schwirrten iirc für RT und Tensor Core mal ~10% Die Size rum, was lächerlich wäre. Ich denke auch, dass das einfach überschätzt wird und man automatisch annimmt, dass das massig Platz frisst.
GA106: 43.5M / mm², 276 mm²
Navi 10: 41.0M / mm², 251 mm²

Nvidia hat es jedenfalls geschafft, das ökonomisch unterzubringen (inkls. der vollen Ladung D3D12U mit mehr als Support nur auf dem Papier). Da gibts eigentlich keine faulen Ausreden.

basix
2022-11-09, 23:42:28
Hat mal wer bei Turing verglichen: 10.9 vs. 8.9mm2 pro SM. Habe die Zahlen aber nie überprüft.
https://www.reddit.com/r/nvidia/comments/baaqb0/rtx_adds_195mm2_per_tpc_tensors_125_rt_07/

Auf TU102 gesehen: 72 SM * 2mm2 (Tensor + RT) = 144mm2 oder 144 / 754mm2 = 19%

~20% Chipfläche sind jetzt nicht nichts, verglichen mit dem Performance-Boost in RT das aber mehr als Wert. Bei Ampere und Lovelace sind Tensor & RT Cores sicher angewachsen. Der Rest der SMs ist es aber auch.

horn 12
2022-11-10, 02:50:04
RTX 4080OC gegen hochgerechnete 7900TX
Wohl BullShit denke ich mal, wären alle ziemlich knapp auf RTX 4090 Level.

https://www.youtube.com/watch?v=xt5Cn8qEVi0

OpenVMSwartoll
2022-11-10, 06:16:26
RTX 4080OC gegen hochgerechnete 7900TX
Wohl BullShit denke ich mal, wären alle ziemlich knapp auf RTX 4090 Level.

https://www.youtube.com/watch?v=xt5Cn8qEVi0

Wie findet man solche Kanäle, die komplett unbekannt sind?

DrFreaK666
2022-11-10, 07:32:28
Vermutlich indem man nach "rtx4080 vs" sucht

dildo4u
2022-11-10, 09:27:06
Die 4080 ist schwach in RT zumindest laut 3D Mark Port Royal wäre nur 80% über 6950XT.
Wenn 7900XTX nur 10-20% in RT Games zurück liegt wäre es imo ein massiver Gewinn zu Ampere vs RDNA2.

https://wccftech.com/nvidia-geforce-rtx-4080-16-gb-gaming-performance-3dmark-benchmarks-leak-up-to-85-percent-faster-than-3080/

robbitop
2022-11-10, 09:30:24
Jap 7900XTX vs 4080 wird wirklich interessant. Sehr wahrscheinlich, dass die 7900XTX in Raster etwas schneller sein wird und in RT etwas langsamer. Aber 300 EUR günstiger. Wahrscheinlich wird NV einfach die 4080 künstlich verknappen wie sie es mit vielen GPUs schon eine Weile machen damit die Preise nicht sinken müssen.

Linmoum
2022-11-10, 09:34:20
Die 4080 ist schwach in RT zumindest laut 3D Mark Port Royal wäre nur 80% über 6950XT.
Wenn 7900XTX nur 10-20% in RT Games zurück liegt wäre es imo ein massiver Gewinn zu Ampere vs RDNA2.

https://wccftech.com/nvidia-geforce-rtx-4080-16-gb-gaming-performance-3dmark-benchmarks-leak-up-to-85-percent-faster-than-3080/
RT Feature Test (Full RT) ist die 4080 3x schneller als die 6950XT. Port Royal ist nur Hybrid-RT, wenig überraschend, dass die Karten da näher zusammenliegen.

dildo4u
2022-11-10, 09:37:31
Gerade der Feature Test ist nur auf 3090 TI Level sie gesagt schwach für Nvidia Verhältnisse.
NV fährt dort zurück und nur das Top Modell rockt alles andere Weg.
Wenn AMD im Bereich des Hybrid RT einer 3090 ist wird es sehr knapp.

dargo
2022-11-10, 09:52:08
Eine 6900XT performt ähnlich wie eine 2080Ti in Games mit viel RT. Dabei hat die 2080Ti signifikant weniger Rohleistung. Eine ganze Generation schlechter, um genau zu sein (Die 6900XT is auf 3090 Niveau in Raster, die 2080Ti ist auf 3070 Niveau)

BVH Traversal macht enorm viel aus.
Ach Gottchen... wo habe ich ein Wort über die 6900XT verloren? Wie man am 3DFurz sehen kann gibt es da keine gravierenden Unterschiede zwischen 2080TI und 6800 non XT.
https://wccftech.com/nvidia-geforce-rtx-4080-16-gb-gaming-performance-3dmark-benchmarks-leak-up-to-85-percent-faster-than-3080/

Time Spy Extreme = +9% für die 6800
Port Royal = +13% für die 2080TI

Ich bin jetzt nicht unbedingt ein Freund vom 3DMark. Die Ergebnisse decken sich aber sehr gut mit dem Schnitt was Computerbase über mehrere Spiele ermittelt hat.

RT Feature Test (Full RT) ist die 4080 3x schneller als die 6950XT. Port Royal ist nur Hybrid-RT, wenig überraschend, dass die Karten da näher zusammenliegen.
Spiele verwenden einen hybriden Ansatz sobald RT Verwendung findet, welch eine Überraschung.

Gerade der Feature Test ist nur auf 3090 TI Level sie gesagt schwach für Nvidia Verhältnisse.

Da ist gar nichts dran schwach. Völlig normal in den Segmenten unter einem Topdog wenn man mit Die-Size stärker haushalten muss. Keine Ahnung worüber man jetzt da so überrascht ist. Ich habe schon bei Ampere gesagt, dass die RT-Performance nicht linear nach unten skaliert.

Exxtreme
2022-11-10, 09:58:26
RT Feature Test (Full RT) ist die 4080 3x schneller als die 6950XT. Port Royal ist nur Hybrid-RT, wenig überraschend, dass die Karten da näher zusammenliegen.
Es ist höchst unwahrscheinlich, dass man brauchbare "Full-RT"-Spiele in den nächsten drei Jahren sehen wird. Ergo sind Hybrid-RT-Benchmarks näher an der Realität. Ich glaube sogar, dass man die nächsten 10 Jahre Hybrid-RT-Spiele spielen wird. :)

dildo4u
2022-11-10, 10:00:41
Ich finds schwach wenn die 3070 auf Level mit der 2080 Ti war.
Die 4070 wird diesmal ein Witz die 4080 als 4070 wäre annehmbar als 3090 Ti Ersatz.

Troyan
2022-11-10, 10:10:10
Es ist höchst unwahrscheinlich, dass man brauchbare "Full-RT"-Spiele in den nächsten drei Jahren sehen wird. Ergo sind Hybrid-RT-Benchmarks näher an der Realität. Ich glaube sogar, dass man die nächsten 10 Jahre Hybrid-RT-Spiele spielen wird. :)

nVidia und Intel unterstützen die Sortierung von Threads in Hardware. Damit kann man sehr wohl sehr nah in die theoretische Mehrleistung herankommen.

dargo
2022-11-10, 10:14:30
Ich finds schwach wenn die 3070 auf Level mit der 2080 Ti war.

Ich nicht wenn man die Rahmenbedingungen kennt.

3070 = 220W
3090 = 350W (+59%)

4080 = 285W
4090 = 450W (+58%)

Die 3080 hatte sich Nvidia bei Ampere noch vom GA102 geschnitzt. Bei Ada ist die 4080 eine eigene SKU mit deutlich weniger Die-Size.

Complicated
2022-11-10, 10:32:10
Jap 7900XTX vs 4080 wird wirklich interessant. Sehr wahrscheinlich, dass die 7900XTX in Raster etwas schneller sein wird und in RT etwas langsamer. Aber 300 EUR günstiger. Wahrscheinlich wird NV einfach die 4080 künstlich verknappen wie sie es mit vielen GPUs schon eine Weile machen damit die Preise nicht sinken müssen.
Die Rede ist von +20% in Raster gegenüber -10% in RT
Nur um mal das "etwas" in Relation zu bringen. Zudem 200,- $ Preis Differenz (20%).
https://www.3dcenter.org/news/news-des-3-november-2022

Resultierend in ca. gleichem Preis-/Leistungsverhältnis bei RT (-5%) und +40% für Renderleistung für die 7900XTX.
Ich bin gespannt wie Testwerte das verschieben und was schlußendlich real davon bestehen bleibt.

Exxtreme
2022-11-10, 11:28:35
nVidia und Intel unterstützen die Sortierung von Threads in Hardware. Damit kann man sehr wohl sehr nah in die theoretische Mehrleistung herankommen.

AMD hat eine sog. "Opaque Random Export Order"-Funktionalität, welche das offenbar auch kann.

mksn7
2022-11-10, 11:51:36
AMD hat eine sog. "Opaque Random Export Order"-Funktionalität, welche das offenbar auch kann.

Das hat nichts miteinander zu tun. OREO ist raster spezifisch und hat mit Raytracing nichts zu tun. Die API spezifizieren dass bei gleicher depth oder ohne depth test ein später submitiertes Dreieck über ein früheres Dreieck gemalt wird.

Ganz naiv müsste man warten bis alle Dreiecke eines früheren draw calls fertig sind, und die Pixelwerte in den frame buffer geschrieben sind. Aus performance Gründen werden aber beide draw calls gleichzeitig bearbeitet. Es kann sein dass ein fragment eines späteren draw calls früher fertig ist als ein fragment eines früheren draw calls, und beide beschreiben den gleichen pixel. Es braucht hier irgendeinen Mechanismus, der sicherstellt, dass erst das frühere fragment für diesen pixel geschrieben/geblendet wird, und dann das spätere fragment.

Diesen Mechanismus hat AMD wohl geändert, fragt mich aber nicht wie es vorher war.

fondness
2022-11-10, 12:03:53
Das hat nichts miteinander zu tun. OREO ist raster spezifisch und hat mit Raytracing nichts zu tun. Die API spezifizieren dass bei gleicher depth oder ohne depth test ein später submitiertes Dreieck über ein früheres Dreieck gemalt wird.

Ganz naiv müsste man warten bis alle Dreiecke eines früheren draw calls fertig sind, und die Pixelwerte in den frame buffer geschrieben sind. Aus performance Gründen werden aber beide draw calls gleichzeitig bearbeitet. Es kann sein dass ein fragment eines späteren draw calls früher fertig ist als ein fragment eines früheren draw calls, und beide beschreiben den gleichen pixel. Es braucht hier irgendeinen Mechanismus, der sicherstellt, dass erst das frühere fragment für diesen pixel geschrieben/geblendet wird, und dann das spätere fragment.

Diesen Mechanismus hat AMD wohl geändert, fragt mich aber nicht wie es vorher war.


AMD spricht ausdrücklich von "new Ray Box Sorting"

https://freeimage.host/i/yxif6l

https://www.techspot.com/images2/news/bigimage/2022/11/2022-11-03-image-29.jpg

mksn7
2022-11-10, 12:26:53
Das stimmt, und hier steht noch eine Erklärung aus was das jetzt genau bedeutet, aber es hat mit "Opaque Random Export Order" nichts zu tun.

Das eine ist ein Raytracing, das andere ein Rasterfeature.

Edit: Aber solange niemand das eine oder das andere als "OoO für GPUs" bezeichnet, bin ich zufrieden.

robbitop
2022-11-10, 12:36:42
Also bist du mit Jensen Huang nicht zufrieden? :D

fondness
2022-11-10, 13:14:21
Also bist du mit Jensen Huang nicht zufrieden? :D

Du meinst den selben Huang, der mit seinen DLSS3 Benchmarks ankommt und das mit dem Vorgänger vergleicht und dann von 4x Performance spricht?

DrFreaK666
2022-11-10, 13:54:09
Du meinst den selben Huang, der mit seinen DLSS3 Benchmarks ankommt und das mit dem Vorgänger vergleicht und dann von 4x Performance spricht?

FSR 3 ist auch doppelt so schnell wie FSR 2

mksn7
2022-11-10, 14:06:59
Also bist du mit Jensen Huang nicht zufrieden? :D

Hab die Präsentation nicht komplett geschaut, kann mich nicht mehr genau erinnern. Aber stimmt, am Anfang war das super vage was das sein soll, und teilweise wurde wirklich impliziert dass das eine Art OoO ist. Aber das Jensen gern viel BS Halbwahrheiten labert ist nichts neues.

Aber ich war da schon skeptisch, weil nur die Vorteile für RT beschrieben wurden. Wäre das wirklich eine Art OoO, dann hätte das auf alles Einfluss.

Tatsächlich ist es nur ein Umpacken von Rays an den Schnittstellen zwischen verschiedenen Shaderprogrammen, und nicht ein umsortieren von Shaderprograminstanzen. Insbesondere bin ich mir auch nicht sicher ob man das schon als ray coherency sorting bezeichnen kann, also ob Strahlen geometrisch sortiert werden. Primär wird erreicht, dass die gleichen Hit- oder Missshader zusammen ausgeführt werden.

Unrockstar
2022-11-10, 18:45:25
Die Erwartungshaltung war 100% in 4k zur 4090 ohne jegliches RT.
Also der Keks mit 85% schmeckt überhaupt nicht.
Bei effektiven Summen jenseits von 1500euro kann einem derzeit da sehr schnell die Lust vergehen.

Eine 999 USD 7900XTX mit 85-92% 4090 Leistung schmeckt mir sehr wohl.. Für das Geld einer FE bekomme ich dann ne 7900 XTX und ne 6900XT :D

Thomas Gräf
2022-11-10, 20:07:02
Ja gut 999 USD, ich wusste doch nich das Ihr alle bei der US.Botschaft unterm Ladentisch kauft... ;)

horn 12
2022-11-10, 20:10:32
https://www.youtube.com/watch?v=XttBv00r_0E

10 Games Getestet und Festgetackert bei 2450 Mhz
GPU 63 - max. 69 Grad
Lüfterspeed kann ich nicht sehen, aber dies sieht alles mehr als Gut aus!

PS:
Wenns kein Fake ist!

Linmoum
2022-11-10, 20:15:53
Och Jungs, doch nicht schon wieder.

mironicus
2022-11-10, 20:21:30
Ist fake, keine Karte schafft 200 FPS in Forza Horizon 5 in 4K Max.

Langlay
2022-11-10, 20:45:39
PS:
Wenns kein Fake ist!

Wofür die Wahrscheinlichkeit irgendwo bei <5% liegt. Diese Art Youtube Videos sind imo alle fake.

Platos
2022-11-10, 22:40:55
https://www.youtube.com/watch?v=XttBv00r_0E

10 Games Getestet und Festgetackert bei 2450 Mhz
GPU 63 - max. 69 Grad
Lüfterspeed kann ich nicht sehen, aber dies sieht alles mehr als Gut aus!

PS:
Wenns kein Fake ist!

200 FPS ;D

Natürlich ist es fake.

Gott1337
2022-11-11, 00:14:19
Jap 7900XTX vs 4080 wird wirklich interessant. Sehr wahrscheinlich, dass die 7900XTX in Raster etwas schneller sein wird und in RT etwas langsamer. Aber 300 EUR günstiger. Wahrscheinlich wird NV einfach die 4080 künstlich verknappen wie sie es mit vielen GPUs schon eine Weile machen damit die Preise nicht sinken müssen.
200$ Unterschied aber eigentlich muss man AMD Customs vs Nvidia FE vergleichen. die FE ist schon deutlich besser. am Ende wird ein Unterschied von 100-150€ sein wenn keine Überzogenen Preise sind.

Nazar
2022-11-11, 01:36:15
200$ Unterschied aber eigentlich muss man AMD Customs vs Nvidia FE vergleichen. die FE ist schon deutlich besser. am Ende wird ein Unterschied von 100-150€ sein wenn keine Überzogenen Preise sind.

Momentan wären es 258,00 € Unterschied, inklusive Märchensteuer.
Und weshalb müsste man AMD Custom Karten mit der nVidia FE vergleichen?
Möchte der nVidiatiker sich auch mal erklären, oder verkrümelst du dich erneut wieder bevor die Sonne aufgeht? :freak:

PJ
2022-11-11, 01:47:27
Die 4080 ist schwach in RT zumindest laut 3D Mark Port Royal wäre nur 80% über 6950XT.
Wenn 7900XTX nur 10-20% in RT Games zurück liegt wäre es imo ein massiver Gewinn zu Ampere vs RDNA2.

https://wccftech.com/nvidia-geforce-rtx-4080-16-gb-gaming-performance-3dmark-benchmarks-leak-up-to-85-percent-faster-than-3080/

I'm not familiar with the Nvidia GPUs, so perhaps someone could make the following clear to me:
All 3DMark graphs showed 4080 run steady gfx clock ~ 2900Mhz (supposedly at 320W PL) regardless of workload. Is it normal behavior for the nvidia gpus to run at fixed clock?
Or there's a frequency cap at 2900 limiting 4080 in those benchmarks?

Langlay
2022-11-11, 02:04:36
I'm not familiar with the Nvidia GPUs, so perhaps someone could make the following clear to me:
All 3DMark graphs showed 4080 run steady gfx clock ~ 2900Mhz (supposedly at 320W PL) regardless of workload. Is it normal behavior for the nvidia gpus to run at fixed clock?
Or there's a frequency cap at 2900 limiting 4080 in those benchmarks?

It's not normal behavior but it can be managed with the Curveoptimizer. But i don't know a way an AMD Card could do the same, imo you have at least some frequency variation.

P.S, The 2nd sentence is in relation to the Video Horn12 posted.

nordic_pegasus
2022-11-11, 07:48:47
Und weshalb müsste man AMD Custom Karten mit der nVidia FE vergleichen?


AMD Referenz-Karte ist unterstes Limit bei den Bauteilen. Wenn man sich die kurze Explosions-Animation in der Präsentation anschaut, wird die Karte bzgl. Filter-Kondensatoren wieder genauso schwach bestückt sein wie die RDNA2 Karten.

Das Äquivalent dazu sind die Nvidia Referenz-Karten, die man wohl derzeit nur von Inno3D/PNY mit crappy Kühlern bekommt. Schau Dir mal an, wieviele Phasen auf dem PCB unbestückt sind, das ist auch unterstes Minimum. Das Nvidia FE Design ist dagegen deutlich aufwändiger ABER auch von Nvidia subventioniert.

Von der Qualität her gebe ich Gott1337 recht, beim Preis muss man aber die subventionierte UVP der Nvidia FE mit dem Preis der AMD Karten aus dem AMD-Shop vergleichen als faire Baseline.

HOT
2022-11-11, 09:17:08
AMD Referenz-Karte ist unterstes Limit bei den Bauteilen. Wenn man sich die kurze Explosions-Animation in der Präsentation anschaut, wird die Karte bzgl. Filter-Kondensatoren wieder genauso schwach bestückt sein wie die RDNA2 Karten.

Das Äquivalent dazu sind die Nvidia Referenz-Karten, die man wohl derzeit nur von Inno3D/PNY mit crappy Kühlern bekommt. Schau Dir mal an, wieviele Phasen auf dem PCB unbestückt sind, das ist auch unterstes Minimum. Das Nvidia FE Design ist dagegen deutlich aufwändiger ABER auch von Nvidia subventioniert.

Von der Qualität her gebe ich Gott1337 recht, beim Preis muss man aber die subventionierte UVP der Nvidia FE mit dem Preis der AMD Karten aus dem AMD-Shop vergleichen als faire Baseline.
Wie kommste denn auf das schmale Brett? AMD Referenzkarten sind auf Effizienz bestückt, also viel stärker als benötigt.
Zudem setzt die Referenzkarte auf SPS von Infineon, da kannste bei NV Referenzkarten (nicht FE!) nicht mal im Traum dran denken. Leider verzichtet AMD oft auf eine starke Eingangsfilterung, was Spulenfiepen Vorschub leisten kann. Das hat aber nix mit der Stärke der Stromversorgung an sich zu tun.

https://www.techpowerup.com/review/amd-radeon-rx-6900-xt/5.html

Achill
2022-11-11, 09:42:25
AMD Referenz-Karte ist unterstes Limit bei den Bauteilen. Wenn man sich die kurze Explosions-Animation in der Präsentation anschaut, wird die Karte bzgl. Filter-Kondensatoren wieder genauso schwach bestückt sein wie die RDNA2 Karten.

[..]


Ist deine Avatar & Sig "Sorry, something went wrong. A team of highly trained monkeys has been dispatched to deal with this situation." Programm? Irgend ein Link zu einer Quelle die deine Behauptung unterstützt? Ansonsten ab auf die Ignore und in Gesellschaft zu u.a. Gott1337 ..

Neurosphere
2022-11-11, 11:21:50
Ist auch ziemlicher Blödsinn.

Wie Igor im Video gesagt hat sind die 355 Watt die AMD bei der Referenz XTX abruft eh das Maximum was technisch innerhalb der Specs geht. Alles an Bauteilen darüber ist weggeschmissen es Geld.

Allgemein sind wir aber beim Customs, sei es nun Grafikkarten oder Mainboards, auf einem Level an Bauteilen die nicht benötigt werden. Gute Bauteile und ein sauberes Design sind das eine, aber wenn zB soviel Phasen auf eine Karte geklatscht werden das man über 1000 Watt abrufen könnte, wozu?!? Nur weil irgendwelche Leute ihre Karten durch Shunts eh außerhalb der Specs betreiben? Der Nutzer muss das mitbezahlen und freut sich sogar noch.

iamthebear
2022-11-11, 12:19:32
Die 355W Maximum gelten nur für die Referenzkarten mit 2x8 Pin.

Die AIB Varianten haben 3x8Pin womit sie bis zu 500W ziehen könnten.

nordic_pegasus
2022-11-11, 16:36:32
Wie kommste denn auf das schmale Brett? AMD Referenzkarten sind auf Effizienz bestückt, also viel stärker als benötigt.
Zudem setzt die Referenzkarte auf SPS von Infineon, da kannste bei NV Referenzkarten (nicht FE!) nicht mal im Traum dran denken. Leider verzichtet AMD oft auf eine starke Eingangsfilterung, was Spulenfiepen Vorschub leisten kann. Das hat aber nix mit der Stärke der Stromversorgung an sich zu tun.

https://www.techpowerup.com/review/amd-radeon-rx-6900-xt/5.html

ich habe doch genau auf die unterdimensionierte Eingangsfilterung hingewiesen. Ich maße mir nicht an, die Auswirkungen in der Tiefe bewerten zu können. Ich habe meine Aussage aus dem 6900XT Layout Vergleich von Buildzoid, der aus dem genannten Grund die Layouts von AMD und Sapphire sehr kritisch bewertet hat.

Ob jetzt mehr Phasen für Normal-Betrieb besser / effizienter / sinnvoll sind, sei mal außen vor. Bei Mainboards meckert auch niemand über die 20 Phasen Monster bei Z790/X670. Ich wundere mich nur immer, warum CPUs in Relation bei weniger Verbrauch mehr Phasen erhalten.

Ich bewerte aber ein Layout, bei dem man die unbelegten Lötpunkte für eingesparte Phasen sehen kann, als negativ. Man kauft eine 4090 für 2000+€ und erhält eine Karte, die für ein paar Cents mehr deutlich mehr Qualität (vielleicht auch für OC-Headroom) hätte haben können. Ich habe auch das gleiche Problem mit dem 11% beschnittenen AD102 auf einer 4090. Bei dem Preis würde ich als Käufer einen vollständigen Chip erwarten und keine Resteverwertung der künftigen Quadro-Karten oder vielleicht irgendwann Titan/4090Ti.

Die Nvidia FE wirkt dageben deutlich hochwertiger bezogen auf den Kühler und den Aufbau des Layouts, zumindest sind nicht überall leere Stellen. Auch andere für mich relevante Aspekte, z.B. nur sehr geringes Spulenfiepen, wurde im Review bei Guru3d positiv hervorgehoben.

Meine Aussage war auch lediglich, dass Nvidia FE ein besseres Layout hat als die Referenz-Karten. Ich schreibe aber nicht, dass Nvidia FE gut sind oder irgendein Vergleich zu AMD Referenz.

Die Nvidia FE ist die Baseline, diese wurde auch an alle Tester verschickt. Die 4090 Referenz (Inno3D und PNY) ist darunter. Bei AMD ist die Referenz-Karte aus dem AMD-Shop die Baseline. Darunter wird es hoffentlich nichts geben.

Ist deine Avatar & Sig "Sorry, something went wrong. A team of highly trained monkeys has been dispatched to deal with this situation." Programm? Irgend ein Link zu einer Quelle die deine Behauptung unterstützt? Ansonsten ab auf die Ignore und in Gesellschaft zu u.a. Gott1337 ..

muss ich mich jetzt wirklich von Dir so rüde von der Seite ansprechen lassen, nur weil Dir meine Aussage nicht zusagt? Soll ich jetzt Angst haben, dass der große Achill androht mich auf seine Ignore-Liste zu setzen. Tut mir leid, aber ich habe in keinster Weise aggressiv oder mit einer Fan-Brille irgendeine Aussage getroffen. Vielleicht überdenkst Du mal Deinen Tonfall. Man kann anderer Meinung sein, aber dann bitte höflich.

Ist auch ziemlicher Blödsinn.

Wie Igor im Video gesagt hat sind die 355 Watt die AMD bei der Referenz XTX abruft eh das Maximum was technisch innerhalb der Specs geht. Alles an Bauteilen darüber ist weggeschmissen es Geld.


Es geht um die sehr schlechte Eingangs-Filterung. Habe ich irgendwo geschrieben, dass mMn die 7900XTX Referenz-Karte zu wenig Phasen hat? Ich fände es nett, wenn man hier nicht so viel Subtext interpretieren würde.

HOT
2022-11-11, 16:40:37
Weniger Eingangsfilterung bedeutet weniger Eingangsfilterung, das heißt, nicht perfekt geglättetes Signal des Stromes, der aus dem Netzteil kommt. Da braucht man sich nichts "Anmaßen", da kann man sehr schnell sehen, welche Auswirkungen das hat, eben beispielsweise Spulenfiepen. Aber es hat eben keine Auswirkungen auf die Stromversorgung, der ist das egal. Die meisten Nutzer haben heute Netzteile von so hoher Qualität, dass das übrignes eh total egal ist mit der Eingangsfilterung, AMD hat also nichts schlimmes gemacht, sondern geht schlichtweg von einer vernünftigen PCIe-Stromversorgung aus, das ist alles. Buildzoid sagt übirgens genau das, die Videos hab ich alle verfolgt. Einige Customs sind "rediculously overpowered", aber die Referenzkarte ist sehr gut elektronisch, die Sapphire entspricht der Referenz und ist gut ausgewogen, wärend Asus und Powercolor eben total übers Ziel hinausgeschossen sind. Die NV-Karten sind elektisch durch die Bank schlechter bestückt mit nur wenigen Ausnahmen.
Buildzoid hat nur eine einzige Kritik an diesen Karten: Die dämliche Taktgrenze von 2,8 bzw. 3GHz.

20 Phasen auf einem Mobo ist halt dem chinesischen Markt geschuldet, die stehen da total auf die Masse. Für mich ist das schlichtweg sinnlos rausgeschmissenes Geld. Aber einem Board, dass einen 7950X vernünftig beteiben soll, reichen 12 60A-Phasen mit Kühlung dicke aus, alles darüber ist für Regelbetrieb komplett sinnfrei. Überaktern reichen dann 16 Phasen.

nordic_pegasus
2022-11-11, 16:56:45
ich kann halt von der 6900XT im Referenz-Design aus eigener Erfahrung berichten, dass diese ein sehr starkes Spulenfiepen bzw. Rasseln hatte. Ich mein damaliges Seasonic Prime Netzteil ist nun wirklich nicht von schlechter Qualität.

Hingegen ist meine PowerColor LiquidDevil mit "rediculously overpowered" Layout fast lautos, egal ob im Silent-BIOS mit 300Watt oder im OC-Bios und 15% im Wattman bei 400Watt. Da ich bereits früher mit einer AMD R9 Nano genau die gleiche Akustik hatte bezogen auf die Spulen, habe ich eine gewisse Abneigung gegen das AMD Referenz-Design entwickelt. Und die Hauptkritik von Buildzoid war die schwache Eingangsfilterung mit Verweis auf Spulenfiepen. Ich hatte das Symptom, ob es auch die genannte Ursache war, weiß ich nicht. Für mich ist es plausibel.

Aus diesem Blickwinkel habe ich meine Meinung zu der Thematik geschrieben, ich hoffe damit die grauen Eminenzen hier im Forum zu stark erzürnt zu haben.

TheGood
2022-11-11, 19:28:00
ich kann halt von der 6900XT im Referenz-Design aus eigener Erfahrung berichten, dass diese ein sehr starkes Spulenfiepen bzw. Rasseln hatte. Ich mein damaliges Seasonic Prime Netzteil ist nun wirklich nicht von schlechter Qualität.

Hingegen ist meine PowerColor LiquidDevil mit "rediculously overpowered" Layout fast lautos, egal ob im Silent-BIOS mit 300Watt oder im OC-Bios und 15% im Wattman bei 400Watt. Da ich bereits früher mit einer AMD R9 Nano genau die gleiche Akustik hatte bezogen auf die Spulen, habe ich eine gewisse Abneigung gegen das AMD Referenz-Design entwickelt. Und die Hauptkritik von Buildzoid war die schwache Eingangsfilterung mit Verweis auf Spulenfiepen. Ich hatte das Symptom, ob es auch die genannte Ursache war, weiß ich nicht. Für mich ist es plausibel.

Aus diesem Blickwinkel habe ich meine Meinung zu der Thematik geschrieben, ich hoffe damit die grauen Eminenzen hier im Forum zu stark erzürnt zu haben.
Ich fasse mal zusammen:

Kann ich nicht nachvollziehen, denn du machst aus dem Spulenfiepen automatisch ein super schlechtes Design, verglichen mit einer FE. Obwohl die Kopmonenten vom AMD REferenzdesign offensichtlich so gut wie alle besser sind als die von der Nvidia FE.
Das ist schon sehr strange, um das mal vorsichtig auszusagen und sehr aus de Fan brille beschrieben. In deinem Ursprungspost hast du das zudem alles wild durcheinandergewuerfelt und erst mit etwas gegenwind dann doch differenziert dargelegt... Man könnte auch sagen zurückgerudert.
Immerhin ist jetzt klar was du gemeint hast :)

nordic_pegasus
2022-11-11, 22:11:58
welche Fanbrille soll ich aufhaben? Ich habe derzeit eine 6900XT und will eine 7900XTX kaufen. Ich halte aber nicht viel vom AMD Referenz-Design, darum werde ich wohl eine total übertriebene Custom-Karte kaufen, weil ich u.a. die besseren Eingangsfilterung für einen relevanten Kaufgrund halte.

Ferner halte ich das Nvidia FE Design nicht für "gut", sondern besser in Relation zum Nvidia Referenz-Design. Der Aufhänger meines ersten Postings war die Antwort von Nazar auf Gott1337 (Posts #7236 #7237). Denn Unterkante beim Preis sind NV FE gegen AMD Referenz, Unterkante beim Layout sind NV Referenz gegen AMD Referenz. Anders ausgedrückt enspricht die Nvidia FE bezogen auf das Layout einem mittelprächtigen Custom-Design (egal von welchen Hersteller). Und hier gebe ich Gott1337 recht, ein fairer Vergleich wäre mMn Nvidia FE gegen ein simples AMD Custom Board. Wer mir jetzt wegen dieser Aussage einen Bias für irgendwas in den Mund legen will, dem kann ich auch nicht mehr helfen.

Ich habe bereits in meinem ersten Post auf die Eingangsfilterung bei AMD und die unbestückten Phasen bei Nvidia als Gründe hingewiesen. Darum rudere ich hier nicht zurück. Ich bleibe bei der Aussage, dass ich diese Punkte jeweils kritisch sehe. Es steht jedem frei, dies anders zu bewerten.

Gott1337
2022-11-11, 22:35:34
Momentan wären es 258,00 € Unterschied, inklusive Märchensteuer.
Und weshalb müsste man AMD Custom Karten mit der nVidia FE vergleichen?
Möchte der nVidiatiker sich auch mal erklären, oder verkrümelst du dich erneut wieder bevor die Sonne aufgeht? :freak:
du fragst mich das, obwohl ich im gleichen Post sagte warum, dämlicher gehts ja kaum

DrFreaK666
2022-11-11, 22:42:50
du fragst mich das, obwohl ich im gleichen Post sagte warum, dämlicher gehts ja kaum

Wegen der "Märchensteuer"? Oder was soll die Erklärung sein?