Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
robbitop
2023-08-16, 12:23:22
AMD war aber wohl der Ansicht, dass die uArch "beyond 3 GHZ" schafft. Und das kann in dem Kontext nur unter normalen Bedingungen (Luftkühlung und nicht übermäßige TDP sein). Da lässt einen der Eindruck nicht los, dass da was schief gegangen ist.
Wie auch immer wir werden es mit RDNA3.5 hoffentlich erleben (wenn sich jemand bei den APUs erbarmt, zu testen wie hoch es geht, wenn man die TDP ordentlich anhebt).
BlacKi
2023-08-16, 12:29:48
AMD war aber wohl der Ansicht, dass die uArch "beyond 3 GHZ" schafft. Und das kann in dem Kontext nur unter normalen Bedingungen (Luftkühlung und nicht übermäßige TDP sein). Da lässt einen der Eindruck nicht los, dass da was schief gegangen ist.
ja, beim design hat man falsche angaben gemacht. denn wenn man das design nicht groß verändert, wo sollen dann die designbedingten p/w verbesserungen herkommen?
Exxtreme
2023-08-16, 12:35:39
Ich bin immer noch der Meinung, dass AMD es massivst unterschätzt hat, dass die Leute empfindlich reagieren wenn AMD-Produkte zuviel Strom ziehen. Sie sahen, dass es den Leuten bei Ampere egal ist wieviel Saft das zieht und dachten sich wohl, das wird bei Navi3x ebenfalls egal sein. Dass Leute hier mit zweierlei Maß messen das entging ihnen wohl komplett.
dargo
2023-08-16, 12:40:01
AMD war aber wohl der Ansicht, dass die uArch "beyond 3 GHZ" schafft. Und das kann in dem Kontext nur unter normalen Bedingungen (Luftkühlung und nicht übermäßige TDP sein). Da lässt einen der Eindruck nicht los, dass da was schief gegangen ist.
Natürlich ist da was schief gelaufen. Mir kann doch keiner erzählen das war so geplant. Da verweigere ich mich dies zu glauben. In der Simulation passte eventuell alles, in der Endphase vom Produkt ging was schief.
Ich bin immer noch der Meinung, dass AMD es massivst unterschätzt hat, dass die Leute empfindlich reagieren wenn AMD-Produkte zuviel Strom ziehen. Sie sahen, dass es den Leuten bei Ampere egal ist wieviel Saft das zieht und dachten sich wohl, das wird bei Navi3x ebenfalls egal sein. Dass Leute hier mit zweierlei Maß messen das entging ihnen wohl komplett.
Ach komm... das ist doch kompletter Unsinn. RDNA2 ist bestens gelungen und plötzlich macht AMD beim Nachfolger mit Absicht nur halbe Sachen? Lächerlich...
aufkrawall
2023-08-16, 12:40:14
Die Leute sind wohl nicht so blöd, wie du offenbar glaubst, sondern AMD zieht für ~gleiche Leistung rein faktisch mal eben 100W mehr:
https://abload.de/img/pd5id1c.png (https://abload.de/image.php?img=pd5id1c.png)
robbitop
2023-08-16, 12:41:24
ja, beim design hat man falsche angaben gemacht. denn wenn man das design nicht groß verändert, wo sollen dann die designbedingten p/w verbesserungen herkommen?
Wie kannst du beurteilen, welche (taktrelevanten) Veränderungen es von N21 zu N31 gab? Wer nur high level specs liest, weiß null über die physische Implementierung. Wenn man sich den Transistorcount anschaut und das pro CU runterbricht, ist die Transistorzahl pro CU massiv angestiegen. Da wurden Transistoren in Takt investiert. Das sieht man in High Level Specs nicht.
Bei Vega hat man das auch schon gemacht (und da hat es dann auch nicht so toll funktioniert). Oder auch bei RDNA2 vs RDNA1 (deutlich mehr Takt obwohl die high level Specs nicht großartig anders waren und es keinen Shrink gab). Da gibt es sehr sehr viele Stellgrößen, die man für Taktbarkeit optimieren kann (die dann auch Transistoren kosten können).
Anscheinend ging das bei N31 nur zu einem Teil auf.
Ähnliches kennen wir von Pascal zu Maxwell oder von Ada zu Ampere. Ja da gab es einen Shrink aber der enorme Taktgewinn kam größtenteils aus der physischen Implementierung. Und jeweils war der Transistoreinsatz pro SM deutlich höher.
Natürlich ist da was schief gelaufen. Mir kann doch keiner erzählen das war so geplant. Da verweigere ich mich dies zu glauben.
Jep - sowas schreibt man auf keine uArch Technology slide, wenn es nicht so geplant war. Zu RDNA3.5 (oder spätestens RDNA4) werden wir mehr wissen.
Die Leute sind wohl nicht so blöd, wie du offenbar glaubst, sondern AMD zieht für ~gleiche Leistung rein faktisch mal eben 100W mehr:
https://abload.de/img/pd5id1c.png (https://abload.de/image.php?img=pd5id1c.png)
Aber nur im Extremfall, weil AMD keinen Maximaltakt festlegt und die auch bei Teillast ballern ohne Ende.
BlacKi
2023-08-16, 12:55:26
Jep - sowas schreibt man auf keine uArch Technology slide, wenn es nicht so geplant war. Zu RDNA3.5 (oder spätestens RDNA4) werden wir mehr wissen.
naja, die power efficiency wird von oben vorgegeben. die macht amd schon teilweise 2 gen im vorraus, ohne überhaupt ahnung zu haben ob die erreichbar sind.
es gab die perf/w angaben im vorraus, aber die angaben waren mit den designentscheidungen nicht zu machen. ob man das bei rdna4 diesmal rechtzeitig bemerkt hat und bei den großen chips die reißleine gezogen hat?
Aber nur im Extremfall, weil AMD keinen Maximaltakt festlegt und die auch bei Teillast ballern ohne Ende.
das mag gegen rdna2 ein argument sein, aber ada ballert da auch den höchsten takt, so wie alle nv karten.
Dass der Betriebspunkt für RDNA3 so schlecht gewählt wäre, ist ein Märchen.
richtig, overall liegen bei n31 niedrigere voltages an, was auf den besseren betriebspunkt hindeutet.
aufkrawall
2023-08-16, 12:56:54
Aber nur im Extremfall, weil AMD keinen Maximaltakt festlegt und die auch bei Teillast ballern ohne Ende.
Was soll an 12 Spiele Durchschnitt 1440p ein Extremfall sein?
"AMD legt keinen Maximaltakt fest". Was soll das überhaupt heißen? 10000MHz, wenn das Power-Budget es zulässt? :freak:
Die RDNA3-Karten undervolten sich bei Gaming-Tasks schon quasi ootb durch den hohen Maximaltakt mit dem Powerlimit selbst und gehen auf deutlich <0,9V runter. Dass der Betriebspunkt für RDNA3 so schlecht gewählt wäre, ist ein Märchen.
robbitop
2023-08-16, 13:02:54
naja, die power efficiency wird von oben vorgegeben. die macht amd schon teilweise 2 gen im vorraus, ohne überhaupt ahnung zu haben ob die erreichbar sind.
es gab die perf/w angaben im vorraus, aber die angaben waren mit den designentscheidungen nicht zu machen. ob man das bei rdna4 diesmal rechtzeitig bemerkt hat und bei den großen chips die reißleine gezogen hat?
Tja ich glaube eher, dass da was nicht ganz aufgegangen ist in der Implementierung von N31.
Was soll an 12 Spiele Durchschnitt 1440p ein Extremfall sein?
"AMD legt keinen Maximaltakt fest". Was soll das überhaupt heißen? 10000MHz, wenn das Power-Budget es zulässt? :freak:
Die RDNA3-Karten undervolten sich bei Gaming-Tasks schon quasi ootb durch den hohen Maximaltakt mit dem Powerlimit selbst und gehen auf deutlich <0,9V runter. Dass der Betriebspunkt für RDNA3 so schlecht gewählt wäre, ist ein Märchen.
Das spricht ggf. auch für Leckströme - Stromaufnahme hoch, Leistung hoch aber Spannung unauffällig klein könnte ein Zeichen dafür sein.
Der_Korken
2023-08-16, 13:06:21
Okay, fair enough da hast du einen Punkt. Wenn man isoliert v/f betrachtet sieht n31 ganz okay aus. Und ich hatte ja explizit v/f erwähnt, da hast du also einen Punkt.
[...]
Ich glaube nicht dass das voll auf das Konto der µArch geht. N33 scheint das Problem ja nicht zu haben, trotz schlechterem Node.
Ich meine aber den oberen Teil der v/f Curve. Nicht den unteren.
Imho ist mit der v/f-Kurve von N31 alles in bester Ordnung. Es wird aber in allen Betriebspunkten viel zu viel Strom verbraucht und zwar nicht pauschal, sondern in einem Szenario mal mehr und in einem anderen mal weniger.
Und was N33 angeht: Solange mir niemand zeigen kann, dass man den Chip stabil auf 3,2Ghz unter Spielelast hochprügeln kann, behaupte ich, dass sich das Ding schlechter takten lässt als N31. Ich würde sogar sagen, dass sich RDNA2 und 3 in N6 gleich verhalten. Zum Vergleich: Die 7600 taktet bei CB im Schnitt mit 2650Mhz und damit genauso hoch wie eine 6650XT. Mit OC steigt der Takt nicht wesentlich an, es gibt einzelne Peaks auf 3Ghz wenn das PPT nicht limitiert. Eine 6500XT schaffte bei CB im Schnitt 2875Mhz mit einigen Spielen >2900Mhz. OC ging zwar nicht über 3000Mhz, was aber daran lag, dass der Schieberegler im Wattman das nicht zugelassen hat. Die vielen Transistoren bei N31 werden schon ihren Grund haben, aber sie liefern nicht den gewünschten Ertrag.
dargo
2023-08-16, 13:09:03
Die Leute sind wohl nicht so blöd, wie du offenbar glaubst, sondern AMD zieht für ~gleiche Leistung rein faktisch mal eben 100W mehr:
https://abload.de/img/pd5id1c.png (https://abload.de/image.php?img=pd5id1c.png)
Wie alt ist das eigentlich? Weil bei Teillast hatte AMD afaik auch was in den letzten Monaten verbessert. Allerdings glaube ich nicht mehr daran, dass N31 bei Teillast so sparsam wie N21 wird. Das würde wiederum zu dem Gerücht passen N31 muss zusätzliche Berechnungen durchführen weil AMD Grafikfehler aufgefallen sind. Jedenfalls halte ich das Gerücht gar nicht mal für so abwegig. Zusätzliche Berechnungen würden zumindest zu dem Bild passen wie sich N31 verhält bei Perf/W.
Und was N33 angeht: Solange mir niemand zeigen kann, dass man den Chip stabil auf 3,2Ghz unter Spielelast hochprügeln kann, behaupte ich, dass sich das Ding schlechter takten lässt als N31. Ich würde sogar sagen, dass sich RDNA2 und 3 in N6 gleich verhalten. Zum Vergleich: Die 7600 taktet bei CB im Schnitt mit 2650Mhz und damit genauso hoch wie eine 6650XT. Mit OC steigt der Takt nicht wesentlich an, es gibt einzelne Peaks auf 3Ghz wenn das PPT nicht limitiert.
Du kannst das gar nicht vernünftig überprüfen weil mehr als +15% PT bzw. 190W dafür nicht ausreichen. Außer vielleicht in einem AC: Origins.
robbitop
2023-08-16, 13:12:50
Imho ist mit der v/f-Kurve von N31 alles in bester Ordnung. Es wird aber in allen Betriebspunkten viel zu viel Strom verbraucht und zwar nicht pauschal, sondern in einem Szenario mal mehr und in einem anderen mal weniger.
Und was N33 angeht: Solange mir niemand zeigen kann, dass man den Chip stabil auf 3,2Ghz unter Spielelast hochprügeln kann, behaupte ich, dass sich das Ding schlechter takten lässt als N31. Ich würde sogar sagen, dass sich RDNA2 und 3 in N6 gleich verhalten. Zum Vergleich: Die 7600 taktet bei CB im Schnitt mit 2650Mhz und damit genauso hoch wie eine 6650XT. Mit OC steigt der Takt nicht wesentlich an, es gibt einzelne Peaks auf 3Ghz wenn das PPT nicht limitiert. Eine 6500XT schaffte bei CB im Schnitt 2875Mhz mit einigen Spielen >2900Mhz. OC ging zwar nicht über 3000Mhz, was aber daran lag, dass der Schieberegler im Wattman das nicht zugelassen hat. Die vielen Transistoren bei N31 werden schon ihren Grund haben, aber sie liefern nicht den gewünschten Ertrag.
Ja scheint als wenn N31 einfach zu viel Strom (Ampere) zieht.
Was N33 angeht - wenn man sich die Transistoren pro CU anschaut, wird klar, dass N33 eine ganz andere physische Implementierung hat und weniger in maximalen Takt investiert worden ist. Dazu noch der 6 nm Prozessnachteil vs 5 nm aus N31.
BlacKi
2023-08-16, 13:13:21
Die vielen Transistoren bei N31 werden schon ihren Grund haben, aber sie liefern nicht den gewünschten Ertrag.
da sehe ich auch das hauptproblem. misskalulation, wie sich die vielen transen sich im gaming niederschlagen.
Ja scheint als wenn N31 einfach zu viel Strom (Ampere) zieht.
ampere war unter teillast ziemlich gut. und vergleichbar ist die situation auch nicht, wegen dem alten prozess.
N31 hat mMn einfach ein großes Problem mit Leckströmen. Das hab ich aber von Anfang an gesagt ;).
Dass wir hier von alten Verhältnissen sprechen, beispielsweise Hawaii vs. Maxwell oder Pascal vs. Vega ist klar, das lockt glaub ich niemanden mehr hinterm Ofen hervor.
robbitop
2023-08-16, 13:23:53
Ja scheint als wenn N31 einfach zu viel Strom (Ampere) zieht.
ampere war unter teillast ziemlich gut. und vergleichbar ist die situation auch nicht, wegen dem alten prozess.
:facepalm:https://de.wikipedia.org/wiki/Elektrische_Stromst%C3%A4rke
BlacKi
2023-08-16, 13:25:35
blacki verlässt den chat...^^
dargo
2023-08-16, 13:30:38
@Korken
Hier hast du mal ein Beispiel einer Custom RX 7600 in Valhalla mit 2,9+Ghz, in GTAV sieht es ähnlich aus.
https://youtu.be/iE-qSCEgXJc?t=430
Leider hat der Reviewer PT nicht um 15% erhöht. Ich gehe davon aus, dass die 181W Default PT bei der ASUS ist. Insofern müssten max. 208W gehen. Für 3,2GHz dürfte das aber eventuell auch noch zu wenig sein.
PS: achja... man müsste natürlich auch die V/F-Kurve ändern denn AMD bzw. ASUS setzt da sicherlich als max. Takt "nur" 2,9+Ghz an.
Der_Korken
2023-08-16, 13:42:08
Das würde wiederum zu dem Gerücht passen N31 muss zusätzliche Berechnungen durchführen weil AMD Grafikfehler aufgefallen sind. Jedenfalls halte ich das Gerücht gar nicht mal für so abwegig. Zusätzliche Berechnungen würden zumindest zu dem Bild passen wie sich N31 verhält bei Perf/W.
An zusätzlichen Berechnungen kann ich mich nicht erinnern, nur an ein Gerücht u.a. von MLID, wo es darum ging, dass die Kommunikation der einzelnen Chips mit der Zeit zu Bildfehlern führt. Dies würde per Software mit Leistungsverlust gefixt und damit wollte er erklären, warum die reale Leistung am Ende so viel niedriger war als in der Präsentation (dort waren es 1.7x auf die 6950XT aber eben mit Bildfehlern). Ob da was dran ist, sei mal dahingestellt, aber ich würde bei zusätzlichen Berechnungen eher erwarten, dass der Chip Performance einbüßt und nicht der Verbrauch unter Volllast (!) hochgeht. Es sind ja nicht plötzlich mehr Recheneinheiten da.
Du kannst das gar nicht vernünftig überprüfen weil mehr als +15% PT bzw. 190W dafür nicht ausreichen. Außer vielleicht in einem AC: Origins.
Da hast du Recht, aber solange nicht getestet wurde, was die Karte z.B. mit 250W anstellen würde, wäre ich eher konservativer bzw. würde nicht einfach davon ausgehen, dass die Karte annähernd N31-Taktraten schaffen würde nur weil RDNA3 draufsteht.
dargo
2023-08-16, 13:52:33
An zusätzlichen Berechnungen kann ich mich nicht erinnern, nur an ein Gerücht u.a. von MLID, wo es darum ging, dass die Kommunikation der einzelnen Chips mit der Zeit zu Bildfehlern führt. Dies würde per Software mit Leistungsverlust gefixt und damit wollte er erklären, warum die reale Leistung am Ende so viel niedriger war als in der Präsentation (dort waren es 1.7x auf die 6950XT aber eben mit Bildfehlern). Ob da was dran ist, sei mal dahingestellt, aber ich würde bei zusätzlichen Berechnungen eher erwarten, dass der Chip Performance einbüßt und nicht der Verbrauch unter Volllast (!) hochgeht. Es sind ja nicht plötzlich mehr Recheneinheiten da.
Naja... dieses Gerücht würde zwar nichts am zu hohen Durst von N31 bei mittlerer bis hoher Shaderlast ändern. Aber bei 1.7 vs. RX 6950XT würde so eine RX 7900XTX trotz 355W deutlich besser da stehen. Das wäre dann ja in etwa 2.0 zur RX 6800XT. In so einem Fall würde selbst ich mit einer RX 7900XTX klar kommen denn dann würde ich den Takt oben begrenzen so, dass ich auf ca. 260W runter komme und das Teil wäre trotzdem noch 85-90% schneller als meine Karte. Ein durchaus lohnendes Upgrade wäre das im gleichen Powerbudget. :)
Der Durst muss schon da zu suchen sein, wo AMD mit RDNA3.5 ansetzt mMn und das gilt um so mehr für N33, weil der nur N6 ist. Die Chiplets + ROPs scheinen ja auch teilweise ein paar W zuviel zu verbrauchen, aber das wird bei den 300W+ kaum ins Gewicht fallen und das Powermanagement arbeitet hier zunehmend besser, wie man an den Idle-Fortschritten sieht.
Langlay
2023-08-16, 14:08:54
In so einem Fall würde selbst ich mit einer RX 7900XTX klar kommen denn dann würde ich den Takt oben begrenzen so, dass ich auf ca. 260W runter komme und das Teil wäre trotzdem noch 85-90% schneller als meine Karte. Ein durchaus lohnendes Upgrade wäre das im gleichen Powerbudget. :)
Was aber nur suboptimal geht, da AMD in geistiger Umnachtung die Softpowertables gekillt hat. Also das muss man AMD schon lassen sie wissen schon wie mein ein schlechtes Produkt noch schlechter macht. Manchmal kommt es mir echt so vor als wollen die eigentlich nichts verkaufen.
Das die Nvidia Karten jetzt die Karten sind für die Leute die gerne selber Hand anlegen, das hab ich ehrlich gesagt nicht kommen sehen.
dargo
2023-08-16, 14:13:17
Was aber nur suboptimal geht, da AMD in geistiger Umnachtung die Softpowertables gekillt hat.
Jo... das war die dümmste Entscheidung überhaupt (wenn man schon sowas beklopptes macht dann hätte man auch wesentlich mehr als nur -10% beim PT zulassen sollen). :freak: Wobei man den Durst auch ohne MPT in den Griff bekommt, man muss sich "nur" drei Profile im Wattman anlegen. Je eins für niedrige, mittlere und hohe Shaderlast. Komfortabler war natürlich MPT dennoch.
Mir schwebt das sowas vor.
1. Niedrige Shaderlast = max. 2,7Ghz
2. Mittlere Shaderlast = max. 2,5Ghz
3. Hohe Shaderlast = max. 2,2Ghz
Zusätzlich noch etwas UV und dann schauen ob damit ~260W (mein Favorit-Budget) überall rauskommen. Ist aber wieder so ein unnötiges Gefrickel. Schließlich weiß man vorher nie wie hoch die Heizlast vom neuen Game XYZ ausfällt. Ergo heißt es dann erstmal ausprobieren.
@Korken
Hier hast du mal ein Beispiel einer Custom RX 7600 in Valhalla mit 2,9+Ghz, in GTAV sieht es ähnlich aus.
https://youtu.be/iE-qSCEgXJc?t=430
Leider hat der Reviewer PT nicht um 15% erhöht. Ich gehe davon aus, dass die 181W Default PT bei der ASUS ist. Insofern müssten max. 208W gehen. Für 3,2GHz dürfte das aber eventuell auch noch zu wenig sein.
PS: achja... man müsste natürlich auch die V/F-Kurve ändern denn AMD bzw. ASUS setzt da sicherlich als max. Takt "nur" 2,9+Ghz an.
Wichtig zu wissen: AC Valhalla lastet quasi keine aktuelle GPU-Architektur ordentlich aus, die boosten hier alle überdurchschnittlich hoch. Das ist also grundsätzlich kein gutes Beispiel für allgemeingültige Aussagen - außer es ging nur darum, zu zeigen, dass eine GPU Takt X überhaupt in freier Wildbahn fahren kann. Die höchsten Taktraten kriegt man übrigens zu sehen, wenn der VRAM voll ist. :ulol:
MfG
Raff
dargo
2023-08-16, 15:20:25
Wie oft muss ich noch sagen, dass der höchste Takt bei den niedrigsten Shaderlasten vorhanden ist und für durchgehend solchen Takt über nahezu alle Spiele PT deutlich weiter aufgedreht werden müsste was nicht geht? :rolleyes:
Ich weiß das (manchmal arbeite ich mit Grafikkarten, aber nur etwa 10 Stunden am Tag) - ich wollte nur wissen, ob du das weißt. =)
Die schönsten Zahlen bei RDNA 3* kriegt man übrigens, wenn man anstelle des ALU-Takts den des Front-Ends angibt.
MfG
Raff
*Navi 31, vermutlich auch Navi 32.
Nightspider
2023-08-16, 15:51:18
Der Durst muss schon da zu suchen sein, wo AMD mit RDNA3.5 ansetzt mMn und das gilt um so mehr für N33, weil der nur N6 ist. Die Chiplets + ROPs scheinen ja auch teilweise ein paar W zuviel zu verbrauchen, aber das wird bei den 300W+ kaum ins Gewicht fallen und das Powermanagement arbeitet hier zunehmend besser, wie man an den Idle-Fortschritten sieht.
RDNA 3.5 war bestimmt schon lange für APUs geplant bevor die "Fehler" von RDNA3 auftraten.
Aber natürlich dürfte für die APUs sowieso eine bessere Effizienz angepeilt worden sein.
horn 12
2023-08-16, 16:24:42
Btw, die Probleme mit der Taktbarkeit von Navi31 scheinen ja noch schlimmer zu sein als anfangs angenommen. Von den +15% perf des N5 Prozesses gegenüber N7 ist nichts zu sehen.
Nicht nur bewegen sich die 7900XT und 7900XTX in der Praxis weit unter dem anvisierten 3Ghz Niveau, sondern schaffen es kaum sich beim Takt von der 6950XT zu distanzieren. Der Durchschnittstakt von 2429mhz einer 7900XTX ist gerademal 53mhz höher als Navi21 KXTX.
Stellt sich heraus das sind noch die Golden Samples!
Wenn man sich mal die 7900GRE anschaut, dann erreicht diese kaum die durchschnittlichen Taktraten einer RX6800 (ca. 2,2Ghz).
Und Navi21-XL war ein solider Overclocker der nur durch die Referenzkühlung und Power delivery zurückgehalten wurde. Die Navi31 GPU auf der 7900GRE dagegen skaliert fast gar nicht mehr. Eine Anhebung des Power Limits um 15% bringt lediglich 100mhz, also 4,6% an Leistung. So weit am Limit der V/F Kurve befinden wir uns also schon mit Navi31 bei knapp über 2Ghz.
Ich werde das Gefühl nicht los dass ein Navi21 refresh in N6 mit der GFX1102 Architektur hier besser gewesen wäre als Navi31-XL.
Also meine MBA XTX mit PL minus 10% erreicht so immer 2575 bis 2650 Mhz, ist aber Game Abhängig und zocke in 3440 x 1440 @175 Hz Oled
dargo
2023-08-16, 16:34:46
Ich weiß das (manchmal arbeite ich mit Grafikkarten, aber nur etwa 10 Stunden am Tag) - ich wollte nur wissen, ob du das weißt. =)
Nicht dein ernst oder? Ich beschäftige mich mit PC-Hardware auch erst seit gestern. X-D
Ich sehe mir Grafikkarten seit 25 Jahren an und weiß trotz der Druckbetankung immer noch nicht alles. :) Wollte das nur klarstellen.
MfG
Raff
dargo
2023-08-16, 17:28:56
Schön, ich sehe mir PC-Hardware seit dem hier an.
https://de.wikipedia.org/wiki/Commodore_64
Da waren grafikkarten noch einfach :D.
https://i.etsystatic.com/29008253/r/il/a6a84b/3532474947/il_1588xN.3532474947_bl7y.jpg
DrFreaK666
2023-08-16, 17:37:29
Schön, ich sehe mir PC-Hardware seit dem hier an.
https://de.wikipedia.org/wiki/Commodore_64
Der C64 war kein PC :P
Complicated
2023-08-16, 18:25:04
Hmmm
Der Commodore 64[1] (https://de.wikipedia.org/wiki/Commodore_64#cite_note-1) (kurz C64, umgangssprachlich 64er oder Brotkasten) ist ein 8-Bit (https://de.wikipedia.org/wiki/8-Bit-Architektur)-Heimcomputer (https://de.wikipedia.org/wiki/Heimcomputer) mit 64 KB (https://de.wikipedia.org/wiki/Byte) Arbeitsspeicher (https://de.wikipedia.org/wiki/Arbeitsspeicher).
https://upload.wikimedia.org/wikipedia/commons/4/45/C64-IMG_5331.jpg
https://de.wikipedia.org/wiki/Heimcomputer
Heimcomputer (vom engl. home computer) war eine in den 1980er-Jahren gebräuchliche Bezeichnung für eine Klasse von Mikrocomputern (https://de.wikipedia.org/wiki/Mikrocomputer), die vor allem in Privathaushalten (https://de.wikipedia.org/wiki/Privathaushalt) genutzt wurden. Per Definition handelt es sich bei diesen Geräten im engeren Sinn um Personal Computer (https://de.wikipedia.org/wiki/Personal_Computer), wobei der Heimcomputer den Teil solcher Geräte umschließt, die im unteren Preissegment zu finden und eher für Unterhaltungszwecke und zum Programmieren (https://de.wikipedia.org/wiki/Programmieren) durch den Anwender vorgesehen waren.
DrFreaK666
2023-08-16, 18:42:57
Heißt es nicht immer, der Amiga hätte am Ende keine Chance gegen den PC gehabt?
horn 12
2023-08-16, 20:17:58
https://videocardz.com/newz/amd-radeon-chief-confirms-major-product-announcements-at-gamescom-next-week
BlacKi
2023-08-16, 20:30:35
gibts jetzt doch schnelleren speicher für n32 verglichen mit der GRE?
DrFreaK666
2023-08-16, 21:09:31
in wenigen Tagen wissen wir mehr
Der_Korken
2023-08-16, 21:09:49
gibts jetzt doch schnelleren speicher für n32 verglichen mit der GRE?
Die 19,5Gbps standen vorher schon in Gerüchten drin, aber nach dem Leak von Powercolor würde ich (leider) von 18Gbps ausgehen.
dargo
2023-08-16, 21:41:49
Als ob die 8% einen Unterschied machen würden. :freak:
Der_Korken
2023-08-16, 22:42:34
Ich klammere mich an jeden Strohhalm :freak:
BlacKi
2023-08-16, 22:48:45
Als ob die 8% einen Unterschied machen würden. :freak:bei einem powerlimit von 280+ und genug takt, skalieren die praktisch durch
Je weniger Cache, desto wichtiger die "externe" Transferrate. Die Kombination säuft dann zwar schnell wie ein Loch, aber AMD hat hoffentlich das Ziel verfolgt, wenigstens den eigenen Vorgänger zu überholen ... Bei komplexem Raytracing wird's jedenfalls klappen.
MfG
Raff
horn 12
2023-08-17, 01:38:26
https://www.amd.com/de/corporate/events/gamescom-2023.html#schedule
Kommt wohl wirklich FSR 3.0
bei der Show nehme ich mal Stark an.
dargo
2023-08-17, 07:17:09
bei einem powerlimit von 280+ und genug takt, skalieren die praktisch durch
Aha... kannst du uns auch die nächsten Lottozahlen verraten?
PS: was eine bescheuerte These von Blacki wieder. :rolleyes: Meinst du die Ingenieure sind blöd oder was? Wenn irgendwas 1:1 mitskaliert dann wird es auch verbaut. Keiner ist so bescheuert und verschenkt 8% Performance wenn er vor der Wahl 18Gbps oder 19,5Gbps beim Vram steht. Diese 8% alleine bei der GPU zu holen ist wesentlich teurer.
Je weniger Cache, desto wichtiger die "externe" Transferrate.
Blödsinn... schließlich gibt es max. 60 CUs. Ein N33 hat nur 32MB IF und dennoch mickrige 288GB/s "extern".
N31 hat mMn einfach ein großes Problem mit Leckströmen.
Ich habe nochmal drüber nachgedacht. Müsste in so einem Fall dann nicht jedes Game sehr viel saufen? Das ist ja eben nicht der Fall bei N31. Es gibt spiele wo der Takt sehr hoch und logischerweise die Spannung dann auch entsprechend hoch ist und der Verbrauch sich dennoch für so eine SKU in Grenzen hält. Auch gab es hier mal im Forum ein Beispiel wo N31 bei bestimmten Workloads afaik mit 3,3GHz taktete (oder waren es sogar 3,5GHz?) und der Verbrauch nicht durch die Decke ging. Ich weiß leider nicht mehr wo das verlinkt wurde, weiß nur es war keine Gaminglast.
Edit:
Habs gefunden... Compute war das.
https://www.computerbase.de/2023-01/rx-7900-xtx-oc-rtx-4080-oc-benchmark/
3,4+Ghz bei "nur" 374W mit manuellen Eingriff.
die GRE beinhält wohl einfach chips, die bei n21 schon ausschuss wären. diese these, auch wenn sie wahrscheinlich zumindest zum teil stimmt wenn man die taktunterschiede zwischen den GRE karten bertrachtet, nicht neu ist.
wenn du eine gute GRE erwischst sind wohl 100mhz mehr oder weniger drin. das hast du bei den xt und xtx karten auch nicht.
naja, unter 0,7v kann die karte nichtmehr skalieren.
n21 braucht für 2ghz 0,8v
n31 braucht für 2,4ghz 0,7
jetzt kommst du und meinst, die v/f ist bei n31 scheiße und ich behaupte das gegenteil und verweiße auf langlays 6900xt und meine erfahrungen mit der xtx.
der 5nm prozess ist vorzüglich und macht seinen job. das problem liegt daher im design. richtig übel ist rdna3 unterteillast.
Ich denke die hohe Leistungsaufnahme unter Teillast ist dem Multichip Package geschuldet.
Ryzen mit Multichip Package ist im Idle und Teillast auch durstig im Vergleich zu den hervorragenden Volllastverbrauch.
Wie sieht das eigentlich mit N33 und Teillast aus, ist der da auch so verhältnismäßig durstig?
Blödsinn...
Ich höre ab sofort auf, mit dir zu "diskutieren".
MfG
Raff
mboeller
2023-08-17, 08:15:01
Blödsinn... schließlich gibt es max. 60 CUs. Ein N33 hat nur 32MB IF und dennoch mickrige 288GB/s "extern".
und woher weißt du, dass ein N33 nicht an der externen Bandbreite verhungert?
dargo
2023-08-17, 08:32:09
und woher weißt du, dass ein N33 nicht an der externen Bandbreite verhungert?
Zeig du mir erstmal wo ein N33 1:1 mit Speicher-OC skaliert.
Wie sieht das eigentlich mit N33 und Teillast aus, ist der da auch so verhältnismäßig durstig?
Solche Feinheiten untersucht kein Reviewer, generiert zu wenige Klicks. Dabei wäre so ein Vergleich mit RX 6600XT durchaus interessant bei bsw. 60fps in 1080p. Wenn die GPU-Last vom Game XYZ zu hoch ist dann eben bei 30fps um Teillast zu simulieren.
robbitop
2023-08-17, 08:39:15
Je weniger Cache, desto wichtiger die "externe" Transferrate. Die Kombination säuft dann zwar schnell wie ein Loch, aber AMD hat hoffentlich das Ziel verfolgt, wenigstens den eigenen Vorgänger zu überholen ... Bei komplexem Raytracing wird's jedenfalls klappen.
MfG
Raff
Ich finde das kann man aus folgendem Blickwinkel sehen:
N32 ist der Nachfolger von N22. Und den sollte er deutlich schlagen können.
60 vs 40 CUs + mehr Takt + ein wenig mehr IPC. Einzig beim LLC gibt es eine Regression von 96 auf 64 MiB. IMO ein gesunder (und historisch normaler) Sprung von einer Next Gen Midrange GPU zu ihrem Vorgänger.
Nur leider sind die IHVs gierig geworden. Sie labeln ihre SKUs seit Ada um ein Tier nach oben. Was dabei herauskommt, ist dass sie kaum schneller oder nur genauso schnell sind wie ihr mutmaßlicher SKU Vorgänger.
Als 7800XT - also legitimer 6800 XT Nachfolger ist N32 IMO zu schwach. Da zieht man dann nur gleich. Aber das entspricht leider der aktuellen Doktrin. :-(
Als 7700XT zu einem Preis, der zu der 700er SKU passen würde, wäre das alles in Ordnung.
robbitop
2023-08-17, 08:52:40
Je weniger Cache, desto wichtiger die "externe" Transferrate.
Blödsinn... schließlich gibt es max. 60 CUs. Ein N33 hat nur 32MB IF und dennoch mickrige 288GB/s "extern".
Ihr redet aneinander vorbei und man muss leider konstatieren, dass dein Diskussionsstil nicht konstruktiv, sondern unnötig rüde ist.
Den Zusammenhang den Raff hier beschreibt, ist völlig richtig. Wie sehr das hingegen N32 in seiner Konfiguration betrifft (was dein Punkt zu sein scheint) steht natürlich auf einem anderen Blatt.
Du hast damit Recht, dass alle anderen RDNA3 dGPUs ein sehr ähnliches CU zu LLC Verhältnis haben. Das gilt für N31 und N33.
Allerdings muss man sagen, dass anzunehmen ist, dass sie Skalierung von LLCs und CUs wahrscheinlich anders ist. Cache skaliert die Missrate mit ~Quadratwurzel(2) bei einer Verdoppelung - also einer Wurzelfunktion. CUs skalieren eher mit einer Linearfunktion (allerdings einem Faktor <1 - grob kann 0,7 angenommen werden).
Insofern wäre erstmal zu hinterfragen ob, die Skalierung von LLC und CUs so ideal ist. :)
Ich habe nochmal drüber nachgedacht. Müsste in so einem Fall dann nicht jedes Game sehr viel saufen?
Ist eine Frage der Ausprägung. Es wäre aber defintiv ein Nachteil bei Teillast.
Aufgrunddessen, dass bei modernen GPUs viele Bereiche komplett abschaltbar (powergating/clockgating) sind (und wenn es auch nur für millisekunden ist) ist dieser Effekt wahrscheinlich aber auch etwas eingeschränkt / verschleiert.
dildo4u
2023-08-17, 08:53:38
60 CU ist imo gut für Consumer wenn die Karte die 4070 schlägt kommt
sie nicht für 500€.
Mit einer stärken Karte hätte wir das Szenario wie bei der 6800 vs 3070 TI kostet fast das selbe nur die AMD hat 16GB.
Der Vram Vorteil wäre diesmal halt nur 12 vs 16GB.
dargo
2023-08-17, 08:59:23
Einzig beim LLC gibt es eine Regression von 96 auf 64 MiB.
Ich verstehe ehrlich gesagt nicht warum man sich daran so aufhängt. Genau wie von anderen dieser Unsinn... mimimi N31 hat weniger Infinity Cache als N21. Obwohl N31 25% weniger IF hat konnte AMD im Peak die Bandbreite fast verdoppeln.
https://pics.computerbase.de/1/0/5/5/8/9-2991513a3a73eca5/17-1080.3e1c95fd.png
Nur weil etwas weniger vorhanden ist heißt es nicht automatisch es wäre ein Nachteil. Schließlich lässt sich die Effizienz auch in anderen Bereichen verbessern.
robbitop
2023-08-17, 08:59:28
60 CU ist imo gut für Consumer wenn die Karte die 4070 schlägt kommt
sie nicht für 500€.
Mit einer stärken Karte hätte wir das Szenario wie bei der 6800 vs 3070 TI kostet fast das selbe nur die AMD hat 16GB.
Der Vram Vorteil wäre diesmal halt nur 12 vs 16GB.
Wie gesagt es kommt auf die Einordnung und den Preis an. Aber wie gesagt: viel Hoffnung braucht man da nicht zu haben bei der aktuellen Gier Doktrin. Als 7700XT (bzw wichtiger ein adäquater Preis unabhängig vom Namen) für 449 - 499 € wäre das eine empfehlenswerte Karte.
robbitop
2023-08-17, 09:04:47
Ich verstehe ehrlich gesagt nicht warum man sich daran so aufhängt. Genau wie von anderen dieser Unsinn... mimimi N31 hat weniger Infinity Cache als N21. Obwohl N31 25% weniger IF hat konnte AMD im Peak die Bandbreite fast verdoppeln.
https://pics.computerbase.de/1/0/5/5/8/9-2991513a3a73eca5/17-1080.3e1c95fd.png
Nur weil etwas weniger vorhanden ist heißt es nicht automatisch es wäre ein Nachteil. Schließlich lässt sich die Effizienz auch in anderen Bereichen verbessern.
Du scheinst ein Leseverständnisproblem zu haben. Ich habe sämtliche Fakten benannt ohne diese zu werten. Dazu gehören die Erhöhungen und Reduktionen aller Specs. Ob die Regression beim LLC Nachteile hat oder nicht habe ich nicht bewertet.
Ich habe N32 sogar einen gesunden Sprung ggü N22 prognostiziert. Und ich habe dir in einem anderen Posting sogar zugestimmt, dass innerhalb RDNA3 die Verteilung von LLC zu den CUs mit der in N32 Konfiguration übereinstimmt (~1:1 CUs zu MiB LLC).
Ganz im Gegenteil denke ich nicht, dass die 1:1 Regression in RDNA3 ein Nachteil ist, denn immerhin hat man die kleineren Cachelevels deutlich vergrößert und wahrscheinlich die uArch inherente Bandbreiteneffizienz (bessere DCC etc) gesteigert und hat höher getakteten VRAM.
Wo "hänge" ich mich beim LLC "auf"? Bitte mal eine Chill-Pill nehmen. ;)
robbitop
2023-08-17, 09:30:43
Nochmal kurz zur Vorstellung der neuen Grafikkarten. Ist es denn ausgeschlossen (durch die Fakten und Indizien, die wir bereits kennen) dass folgende Konfiguration kommen könnte):
1. 7800XT mit N31 Salvage als offizielle internationale Version der "7900GRE." Aber nur 70 CUs - dafür höherer Takt, 256 bit, 16 GiB
2. 7800 mit N32 Vollausbau - 60 CUs, 256 bit, 16 GiB
3. 7700XT mit N32 Salvage und 192 bit / 12 GiB?
Es wird langsam knapp von der Zeit her. Die 7800XT soll ja nächste Woche vorgestellt werden.
Ich gehe davon aus, dass AMD den PR-Gau mal wieder mitnimmt, also ne langsamere 7800XT als 6800XT zum gleichen oder höheren Preis auf den Markt entlässt. Dann gibts mal wieder absolut verdient Prügel. Das lässt sich eigentlich nur noch damit retten, dass N32 in der Praxis deutlich höher taktet als gedacht und zur GRE aufschließt, aber das ist unwahrscheinlich, da es hier ja auch 3 vs. 5 SEs steht (3x10 vs. 5x8 WGPs).
dildo4u
2023-08-17, 10:10:25
Die GRE ist halt der Lückenfüller weil Navi 32 nicht hoch genug Taktet, AMD kann nix an der maximalen Ausbaustufe des Chips ändern.
Wie bei Allem unter dem Halo Produkt Preis ist entscheidend.
robbitop
2023-08-17, 10:15:02
Ich vermute leider auch, dass AMD den launch wieder aus PR Sicht verkackt. Das hat bei AMD leider Tradition.
Ich frage mich, warum Lisa zumindest in der Hinsicht da nicht eingreift und mal jemand vernünftigen einstellt und eine vernünftige Strategie für das PR aufstellen lässt.
Aber wer weiß - vielleicht ist das aufgrund der Tradition ja auch gewollt sich jedes mal zu belöffeln. X-D
dildo4u
Die GRE ist einfach der Verkauf der schlecht taktbaren N31. Der Yield scheint ja super zu sein, weswegen man ja nur eine SE deaktiviert und nicht wie ursprünglich geplant 1SE und je 1 WGP (=70CUs). Dafür kann man den Takt weiter reduzieren anstatt Leistung zu verlieren. Ich denke, AMD hat viele N31 speziell aus den ersten Produktionschargen, die die Anforderungen für die 7900XT(X) nicht erfüllen, das wird das Problem sein - und deshalb auch die GRE, der Mist wird halt in begrenzter Charge abverkauft in China und die wenigen N31, die die Taktanforderungen bei aktueller Fertigung nicht erfüllen, landan in OEM-Rechnern.
Die wenigen defekten Chips mit guter Taktbarkeit landen in W7800, Produkt N31 optimal ausgenutzt. Technisch absolut gut geplant, Marketing auf ganzer Linie verkackt, wie immer.
Die sollten ihre ganze Marketingabteilung rausschmeißen und komplett neu aufstellen. Das kann nicht schlechter werden.
Ich vermute leider auch, dass AMD den launch wieder aus PR Sicht verkackt. Das hat bei AMD leider Tradition.
Ich frage mich, warum Lisa zumindest in der Hinsicht da nicht eingreift und mal jemand vernünftigen einstellt und eine vernünftige Strategie für das PR aufstellen lässt.
Aber wer weiß - vielleicht ist das aufgrund der Tradition ja auch gewollt sich jedes mal zu belöffeln. X-D
Was willst du da für PR machen wenn du aktuell kein konkurenzfähiges Produkt hast?
Da kannst du eigentlich nur über Features gehen (hinkt halt leider auch hinter her) oder den Preis (das will man nicht)
dildo4u
2023-08-17, 10:24:36
PR ist diesmal imo deutlich besser als zum Navi 31 Launch.
Die Karte wird mit FSR3 gelauncht zusammen mit Starfield, das wäre endlich mal ein Game was wirklich Relevant ist auf Level mit Cyberpunk in 2020.
Ich könnte mir vorstellen das Framegenration ein Muss ist das Game wird massiv CPU Limitiert sein.
Odal
Marketing muss aus Scheisse Gold machen. Das können die nicht im Ansatz. Und passende Preise gehören zum guten Marketing. Die hohen UVPs sind total überflüssig, wenn die sowieso in den ersten 3 Wochen nicht im Ansatz gehalten werden können.
dildo4u
FG wird ne Katastrophe in dem Spiel, weil das starke Shooterelemente hat. Du brauchst den besten Prozessor, den man kriegen kann, das wars dann auch. Grafik muss nur passen.
dargo
2023-08-17, 10:25:55
Die GRE ist halt der Lückenfüller weil Navi 32 nicht hoch genug Taktet, AMD kann nix an der maximalen Ausbaustufe des Chips ändern.
Halte ich für Unsinn. Wäre die GRE ein Lückenfüller würde man die nicht nur für China anvisieren im Retailmarkt.
Ich vermute leider auch, dass AMD den launch wieder aus PR Sicht verkackt. Das hat bei AMD leider Tradition.
Hat AMD diese Tradition bei RDNA2 ausgelassen oder wo genau hat man sich da belöffelt? :rolleyes: Das Portfolio von RDNA2 war exzellent aufgestellt, leider hat der Miningboom nur vieles versaut.
Odal
Marketing muss aus Scheisse Gold machen. Das können die nicht im Ansatz.
Wenn das Marketing aus scheiße Gold machen kann dann belügt man die potenziellen Kunden!
Das erschreckende war, dass man bei N31 wieder in alte Muster von vor 10 Jahren zurückgefallen ist bei der PR. Bei N2x musste man gute Produkte bei mäßiger Konkurrenz vermarkten, das hätte auch ganz ohne Marketing geklappt :D (na ja fast).
dildo4u
2023-08-17, 10:29:57
dildo4u
FG wird ne Katastrophe in dem Spiel, weil das starke Shooterelemente hat. Du brauchst den besten Prozessor, den man kriegen kann, das wars dann auch. Grafik muss nur passen.
Cyberpunk ist ziemlich vergleichbar FG ist eine Katastrophe in Multiplayer Games für Single Player RPG Hybride ist es imo brauchbar.
BlacKi
2023-08-17, 10:32:05
Die GRE ist halt der Lückenfüller weil Navi 32 nicht hoch genug Taktet, AMD kann nix an der maximalen Ausbaustufe des Chips ändern.
Wie bei Allem unter dem Halo Produkt Preis ist entscheidend.
für einen reinen lückenfüller ist die GRE zu langsam. aber zwischen der GRE und der 7900XT wäre noch platz^^
deshalb hat die GRE hat keinen festen platz im portfolio. ich denke, wenn die 7800xt mit schnellem speicher und entsprechenden taktraten,die GRE performance bringen kann, dann stört es amd überhauptnicht. die tatsachen wie die taktunterschiede innerhalb der GRE karten und die beschädigten DIE lassen imho nur einen fakt zu: es ist ausschussware die gerade irgendwie funktioniert.
deshalb ist die 7800xt auch nicht störend im portfolio auf dem platz der GRE.
robbitop
2023-08-17, 10:36:51
Was willst du da für PR machen wenn du aktuell kein konkurenzfähiges Produkt hast?
Da kannst du eigentlich nur über Features gehen (hinkt halt leider auch hinter her) oder den Preis (das will man nicht)
PR Marketing ist nicht (nur) Marketing PR. PR Marketing ist auch der Produkt und Preismix.
Ersteinmal sind die launches häufig auch voller Pannen. Siehe den N31 Launch wo die Benchmarkwerte überhaupt nicht zu den unabhängigen Tests passten. Das hat richtig Glaubwürdigkeit gekostet. Professioneller und akribischer werden.
Was den Produkt und Preismix angeht - man könnte Produkte sinnvoller benennen und bepreisen um die Marke nicht zu verbrennen.
Ein paar Beispiele aus aller jüngster Vergangenheit:
- 7900XTX
- jetzt wahrscheinlich den 6700XT Nachfolger "7800XT" zu benennen.
- die 7900XT ein schlechteres Preis/Leistungsverhältnis (UVP) als die XTX.
Und was die Bewertung der Produkte angeht: AMD hat konkurrenzfähige SKUs. Zumindest bis inkl AD103. Nur die SKU Bezeichnung und Preiseinordnung passt einfach nicht.
Viel sinnvoller wäre
7900 XTX -> 7800 XT (da sie nur im 2. GPU Tier mitspielt)
7900 XT -> 7800
7800 XT -> 7700 XT (3. GPU Tier)
7600 (passt so)
Dann die SKUs noch entsprechend sinnvoll bepreisen (gleich von der UVP! und nicht erst den Straßenpreis arbeiten lassen -> das kostet auch mindshare/wahrnehmung).
Klar gibts weniger Marge aber man kann auch mehr verkaufen und bekommt mehr Mindshare. Wenn man in der Premiumecke mitspielen will und Premium Margen haben will, muss man relativ zu NV halt auch mehr abliefern. Über Generationen hinweg.
Solange man das nicht kann, muss man die Produkte halt entsprechend einordnen. Mit dem richtigen P/L gibt's auch gute Presse und gute Verkäufe (siehe Polaris - da hat alles gepasst).
edit:
Korrektur PR <-> Marketing
Cyberpunk ist ziemlich vergleichbar FG ist eine Katastrophe in Multiplayer Games für Single Player RPG Hybride ist es imo brauchbar.
FG ist auch bei Cyberpunkt total unbrauchbar. Finden alle so toll, weil man damit PT "spielbar" machen kann, aber auch bei Cyberpunk hättest du gerne möglichst wenig Lag. Also ich würde das niemals so einstellen, genauso wie ich PT in dem Spiel niemals ersthaft nutzen würde außerhalb von einer Sightseeingfahrt oder sowas. Für Shooter ist FG einfach kacke, wenn man die nicht grad auf ultra leicht spielt. CPU-Leistung ftw.
robbitop
2023-08-17, 10:39:56
Hat AMD diese Tradition bei RDNA2 ausgelassen oder wo genau hat man sich da belöffelt? :rolleyes: Das Portfolio von RDNA2 war exzellent aufgestellt, leider hat der Miningboom nur vieles versaut.
RDNA2 ist die Ausnahme, die die Regel bestätigt. ;)
RDNA2 war unbestritten seit ganz ganz langer Zeit eine super Generation. Aber leider hat man es verpasst nachzulegen und macht wieder die gleichen Anfängerfehler im PR wie vorher. Und was man so über RDNA4 hört wird es da nicht besser.
Linmoum
2023-08-17, 10:40:14
Bei Polaris mag einiges gepasst haben, aber ganz sicher nicht die Margen. Und Su fährt schon länger nicht mehr die Strategie, Produkte auf Kosten der Margen zu verramschen. Da ist es auch egal, ob das Marketshare kostet. Margen > Marketshare, das ist bei CPUs genau dasselbe Spiel. Daher freut sich AMD auch, dass sie für RDNA3 solche Preise verlangen können und geht - in abgespeckter Form - den NV-Weg (mit).
dildo4u
2023-08-17, 10:45:23
Bei Polaris mag einiges gepasst haben, aber ganz sicher nicht die Margen. Und Su fährt schon länger nicht mehr die Strategie, Produkte auf Kosten der Margen zu verramschen. Da ist es auch egal, ob das Marketshare kostet. Margen > Marketshare, das ist bei CPUs genau dasselbe Spiel. Daher freut sich AMD auch, dass sie für RDNA3 solche Preise verlangen können und geht - in abgespeckter Form - den NV-Weg (mit).
4060 Ti 16GB gibt AMD recht in dem Fall, die 4070 ist deutlich Konkurrenzfähiger.
Du kannst ohne Cheaten vernichtende PR Foilen erstellen wenn AMD 530$ ansetzt.
dargo
2023-08-17, 10:49:27
für einen reinen lückenfüller ist die GRE zu langsam. aber zwischen der GRE und der 7900XT wäre noch platz^^
Seltsame Logik. RTX 4090 und RTX 4080 trennen laut CB 35%, auch dort schiebt NV nichts dazwischen. Der Abstand zwischen der GRE und XT ist geringer. Diese ganzen Grakas die sich um bsw. magere 10% unterscheiden sind imho eh überflüssig.
Viel sinnvoller wäre
7900 XTX -> 7800 XT (da sie nur im 2. GPU Tier mitspielt)
7900 XT -> 7800
7800 XT -> 7700 XT (3. GPU Tier)
7600 (passt so)
Dann die SKUs noch entsprechend sinnvoll bepreisen (gleich von der UVP! und nicht erst den Straßenpreis arbeiten lassen -> das kostet auch mindshare/wahrnehmung).
Klar gibts weniger Marge aber man kann auch mehr verkaufen und bekommt mehr Mindshare.
Das ist reine Spekulation von dir. Du weißt nicht wie NV reagiert wenn AMD bsw. plötzlich eine saftige Preissenkung für N31 ankündigt. Wenn NV die Preise in den entsprechenden Segmenten ebenfalls dann als Reaktion senkt und am Ende doch wieder überwiegend Geforces gekauft werden hat AMD nichts gewonnen... im Gegenteil.
Bei Polaris mag einiges gepasst haben, aber ganz sicher nicht die Margen. Und Su fährt schon länger nicht mehr die Strategie, Produkte auf Kosten der Margen zu verramschen. Da ist es auch egal, ob das Marketshare kostet. Margen > Marketshare, das ist bei CPUs genau dasselbe Spiel. Daher freut sich AMD auch, dass sie für RDNA3 solche Preise verlangen können und geht - in abgespeckter Form - den NV-Weg (mit).
Polaris hätte es unheimlich gut getan, hätte man davon einen 400mm²-Chip gebracht.
BlacKi
2023-08-17, 11:03:28
Seltsame Logik. RTX 4090 und RTX 4080 trennen laut CB 35%, auch dort schiebt NV nichts dazwischen. Der Abstand zwischen der GRE und XT ist geringer. Diese ganzen Grakas die sich um bsw. magere 10% unterschieden sind imho eh überflüssig.
mir ging es nie um die lückengröße, sondern darum, wenn man die lücke hätte schließen wollen, dann hätte man die GRE schneller machen sollen, denn die 7800xt und die GRE werden praktisch beide beinahe gleichschnell, oder minimal langsamer. da ist keine lücke, die GRE setzt sich auf den 7800xt platz, bzw zeitlich eher umgekehrt.
Da die GRE ein reines OEM-Produkt ist (ich gehe davon aus, dass die auch in China wieder vom Retailmarkt gehen wird), ist der Platz für die 7800XT in dem Leistungsbereich nach wie vor frei. AMD hat schon öfter OEM-Produkte gebracht die höher im Namensschema eingefügt waren als die Retail-Ware.
robbitop
2023-08-17, 11:10:51
Bei Polaris mag einiges gepasst haben, aber ganz sicher nicht die Margen. Und Su fährt schon länger nicht mehr die Strategie, Produkte auf Kosten der Margen zu verramschen. Da ist es auch egal, ob das Marketshare kostet. Margen > Marketshare, das ist bei CPUs genau dasselbe Spiel. Daher freut sich AMD auch, dass sie für RDNA3 solche Preise verlangen können und geht - in abgespeckter Form - den NV-Weg (mit).
Tja aber ob die Hochmargenstrategie kurz und langfristig aufgeht ist die Frage.
Kurzfristig:
wenn man nicht genug GPUs absetzt, bringt einem eine hohe Bruttomarge pro GPU wenig.
Man kann auch mit geringerer Bruttomarge unter Umständen sogar mehr verdienen. Siehe Preiselastizität. Preis und Nachfrage können hoch-nichtlinear gekoppelt sein.
(Extrem hochmargige Produkte werden einem trotzdem aus der Hand gerissen, wenn die Marke stark genug ist. Das ist aber bei AMD nicht der Fall. Das müssten sie sich über mehrere Generationen aufbauen.)
Langfristig:
Wenn sich GPUs schlecht verkaufen, verliert man Mindshare, die Marke verliert noch mehr an Wert und der Entwicklersupport (Optimierungen etc) leidet noch mehr. Das kann auch gefährlich für das langfristige Businesssegment werden.
robbitop
2023-08-17, 11:15:31
Das ist reine Spekulation von dir. Du weißt nicht wie NV reagiert wenn AMD bsw. plötzlich eine saftige Preissenkung für N31 ankündigt. Wenn NV die Preise in den entsprechenden Segmenten ebenfalls dann als Reaktion senkt und am Ende doch wieder überwiegend Geforces gekauft werden hat AMD nichts gewonnen... im Gegenteil.
Zugegeben ist das Spekulation. Wir sind ja auch in einem Spekulationsforum. ;)
Es gibt allerdings klar erkennbare Indizien, dass Nvidia keinen Preiskampf will. Die GPUs der Adageneration liegen laut Berichten wie Blei in den Regalen. Nv hat sogar schon die Produktion gedrosselt laut weiteren Berichten. Aber mit dem Preis großartig gegenzusteuern ist offenbar keine Option.
Man kann pro mm² Chipfläche im HPC und AI Segment viel höhere Margen holen (weil der Endkunde dort ja damit sein Geld verdient - insofern darf das Arbeitsgerät auch mehr kosten) und das wird bei NV immer stärker fokussiert. Entsprechend haben die Investoren mittlerweile die Erwartungshaltung Profi-Margen in jedem Segment haben zu wollen.
Und wenn die GPUs sich nicht so gut verkaufen wie sie können schickt Nv diese einfach ins Datacenter oder AI. Sie müssen keine 3D GPUs verkaufen.
Entsprechend hat Nvidia überhaupt keine Motivation ihre Preise im 3D GPU Segment zu senken. Sie können mit jedem mm² Silizium viel mehr Geld drucken.
Dino-Fossil
2023-08-17, 11:17:26
Ich denke, wir können uns sicher sein, dass AMD das alles bedacht hat.
Vielleicht haben sie aktuell ebenfalls bessere Verwendungsmöglichkeiten für die entsprechenden Fertigungskapazitäten, so dass geringere Stückzahlen bei einem Produkt mit (bei niedrigeren Preisen) geringeren Margen ganz willkommen sind. Oder Gaming-GPUs sind ihnen im Moment einfach nicht wichtig genug, um da groß zu pushen.
robbitop
2023-08-17, 11:25:17
Ich denke, wir können uns sicher sein, dass AMD das alles bedacht hat.
Vielleicht haben sie aktuell ebenfalls bessere Verwendungsmöglichkeiten für die entsprechenden Fertigungskapazitäten, so dass geringere Stückzahlen bei einem Produkt mit (bei niedrigeren Preisen) geringeren Margen ganz willkommen sind. Oder Gaming-GPUs sind ihnen im Moment einfach nicht wichtig genug, um da groß zu pushen.
Vielleicht. Aber AMD ist bekannt dafür auch daneben zu greifen - insbesondere im GPU Segment.
dargo
2023-08-17, 11:34:16
mir ging es nie um die lückengröße, sondern darum, wenn man die lücke hätte schließen wollen, dann hätte man die GRE schneller machen sollen, denn die 7800xt und die GRE werden praktisch beide beinahe gleichschnell, oder minimal langsamer. da ist keine lücke, die GRE setzt sich auf den 7800xt platz, bzw zeitlich eher umgekehrt.
Ok... aber wie gesagt die GRE spielt da außerhalb von China keine große Rolle.
Exxtreme
2023-08-17, 11:38:41
mir ging es nie um die lückengröße, sondern darum, wenn man die lücke hätte schließen wollen, dann hätte man die GRE schneller machen sollen, denn die 7800xt und die GRE werden praktisch beide beinahe gleichschnell, oder minimal langsamer. da ist keine lücke, die GRE setzt sich auf den 7800xt platz, bzw zeitlich eher umgekehrt.
Die GRE ist ein OEM-Produkt für China. GRE steht für "Golden Rabbit Edition" und "Golden Rabbit" hat irgendwas mit irgendeinem chinesischen Horoskop oder so zu tun. Ohne das Internet würde man wohl gar nicht mitbekommen, dass diese Karte überhaupt existiert. Scheint aber ein netter Marketingzug von AMD zu sein. Durch die GRE sind sie in aller Munde. X-D
dargo
2023-08-17, 11:41:42
Zugegeben ist das Spekulation. Wir sind ja auch in einem Spekulationsforum. ;)
Es gibt allerdings klar erkennbare Indizien, dass Nvidia keinen Preiskampf will. Die GPUs der Adageneration liegen laut Berichten wie Blei in den Regalen. Nv hat sogar schon die Produktion gedrosselt laut weiteren Berichten. Aber mit dem Preis großartig gegenzusteuern ist offenbar keine Option.
Man kann pro mm² Chipfläche im HPC und AI Segment viel höhere Margen holen (weil der Endkunde dort ja damit sein Geld verdient - insofern darf das Arbeitsgerät auch mehr kosten) und das wird bei NV immer stärker fokussiert. Entsprechend haben die Investoren mittlerweile die Erwartungshaltung Profi-Margen in jedem Segment haben zu wollen.
Und wenn die GPUs sich nicht so gut verkaufen wie sie können schickt Nv diese einfach ins Datacenter oder AI. Sie müssen keine 3D GPUs verkaufen.
Entsprechend hat Nvidia überhaupt keine Motivation ihre Preise im 3D GPU Segment zu senken. Sie können mit jedem mm² Silizium viel mehr Geld drucken.
Wenn bei dir alles so simpel ist empfehle ich sich bei AMD zu bewerben. Vielleicht kannst du die so besser überzeugen. ;) Ich sehe da nämlich ein "kleines" Problem. Nehmen wir an Radeons werden plötzlich sehr günstig und nehmen wir an der Ansturm darauf nimmt entsprechend deutlich zu. Wie willst du die Kundschaft laufend ausreichend bedienen wenn du mit der Produktion gar nicht hinterher kommst? Und warum sollte AMD diesen Ansturm überhaupt zu deutlich geringeren Margen anstreben wenn die Margen bei den CPUs höher ausfallen und im schlimmsten Fall es dann für die CPU-Produktion nicht genug Wafer gibt? So einfach wie du dir das alles vorstellst ist es nicht.
Die GRE ist ein OEM-Produkt für China. GRE steht für "Golden Rabbit Edition" und "Golden Rabbit" hat irgendwas mit irgendeinem chinesischen Horoskop oder so zu tun. Ohne das Internet würde man wohl gar nicht mitbekommen, dass diese Karte überhaupt existiert. Scheint aber ein netter Marketingzug von AMD zu sein. Durch die GRE sind sie in aller Munde. X-D
Psst... AMDs PR-Abteilung ist eine Vollkatastrophe in Tradition und basta! ;)
Linmoum
2023-08-17, 11:49:40
Die GRE ist ein OEM-Produkt für China. GRE steht für "Golden Rabbit Edition" und "Golden Rabbit" hat irgendwas mit irgendeinem chinesischen Horoskop oder so zu tun. Ohne das Internet würde man wohl gar nicht mitbekommen, dass diese Karte überhaupt existiert. Scheint aber ein netter Marketingzug von AMD zu sein. Durch die GRE sind sie in aller Munde. X-DDie GRE ist kein OEM-Produkt für China, sondern ist weltweit als solches erhältlich.
Die GRE ist ein Retail-Produkt für China und ein OEM-Produkt weltweit.
AMD kalkuliert sicherlich auch pro Waferspace. Eine GPU muss eigentlich soviel Marge machen wie eine CPU auf vergleichbarem Platz. Jetzt GPUs billig zu machen und die Kontingente dafür zu verballern, obwohl man diese gut für KI-Chips verbrauchen könnte, wo nur die Packaging-Kapazität die Produktmenge limitiert, wäre dämlich.
DrFreaK666
2023-08-17, 12:34:30
Wieso so viele Pessimisten?
7900XT war schneller als 6900XT
7600 schneller als 6600
Kann jetzt natürlich anders werden, aber wieso sollten die neuen Karten jetzt plötzlich langsamer werden als ihre namentlichen Vorgänger?
Abwarten und Tee trinken
BlacKi
2023-08-17, 12:42:57
Wieso so viele Pessimisten?
7900XT war schneller als 6900XT
7600 schneller als 6600
Kann jetzt natürlich anders werden, aber wieso sollten die neuen Karten jetzt plötzlich langsamer werden als ihre namentlichen Vorgänger?
Abwarten und Tee trinkenwie kann man +5% 6800xt vs 7800xt positiv sehen? auch preislich wird sich nicht viel tun. amd hat kein interesse daran grafikkartenpreisdumping zu betreiben.
Edit: ich leg mich mal fest, 499$ 550€
dargo
2023-08-17, 12:43:45
Wieso so viele Pessimisten?
7900XT war schneller als 6900XT
Wow... +~25% nach zwei Jahren, einem vollen Nodesprung und paar Wattchen mehr. Nichts worauf man stolz sein kann.
Kann jetzt natürlich anders werden, aber wieso sollten die neuen Karten jetzt plötzlich langsamer werden als ihre namentlichen Vorgänger?
Die 7900XT ist 39% schneller als die 6800XT bei 4k @CB. Mit 60CUs hat eine 7800XT gute Chancen bei der 6800XT rauszukommen, wenn nicht sogar etwas drunter.
DrFreaK666
2023-08-17, 12:49:11
Musst Zitate auseinander pflücken um "Recht" zu haben? :rolleyes:
dargo
2023-08-17, 12:52:41
Musst du immer dumme Kommentare abgeben?
BlacKi
2023-08-17, 12:54:14
ich bin hier mit der art der kommunikation hier nicht zufrieden.
DrFreaK666
2023-08-17, 12:54:15
Auf die 7600 bist gar nicht eingegangen, sondern hast sie ganz komplett aus dem Zitat entfernt.
The_Invisible
2023-08-17, 12:55:16
Wieso so viele Pessimisten?
7900XT war schneller als 6900XT
7600 schneller als 6600
Kann jetzt natürlich anders werden, aber wieso sollten die neuen Karten jetzt plötzlich langsamer werden als ihre namentlichen Vorgänger?
Abwarten und Tee trinken
Weil immer alle so tun als wäre AMD die "Guten" die keine kack Produkte rausbringen und nur der Gamer zählt... dabei gehts auch hier nur um max Profit, aber bei AMD verzeiht man viel... FSR3 wartet man schon ewig, hoher idle Verbrauch, Verwendung des 7900er Namens und jetzt 7800er obwohl kaum schneller, läuft ja bei AMD ;)
DrFreaK666
2023-08-17, 12:57:14
Ob die 7800 kaum schneller ist, weiß man doch gar nicht. Natürlich deuten viele Zeichen genau darauf hin, aber meine Beispiele waren schneller als ihre Vorgänger
Linmoum
2023-08-17, 12:58:12
Auf die 7600 bist gar nicht eingegangen, sondern hast sie ganz komplett aus dem Zitat entfernt.Weil der Vergleich halt auch Quatsch ist, da die 6600 nicht der Vorgänger ist. Auch, wenn AMD damit scheinbar Erfolg hat, das so darzustellen.
6600 = Salvage
6600XT/6650XT = Vollausbau
7600 = Vollausbau
Natürlich ist die 7600 trotzdem auch schneller als eine 6600XT, aber sie verbraucht in dem Fall auch mehr. Das ist alles andere als ein Ruhmesblatt, auch, wenn das noch N6 ist.
dargo
2023-08-17, 12:59:28
Auf die 7600 bist gar nicht eingegangen, sondern hast sie ganz komplett aus dem Zitat entfernt.
Warum sollte ich auch auf alles von dir eingehen? Schon alleine der Vergleich 7600 vs. 6600 ist bullshit weil ersteres eine volle SKU ist und zweiteres ein Salvage. Du beziehst dich hier ausschließlich nur aufs Namensschema. Das sagt viel darüber aus wie gut du über jegliche Eckdaten einer SKU informiert bist.
dildo4u
2023-08-17, 13:01:44
Weil immer alle so tun als wäre AMD die "Guten" die keine kack Produkte rausbringen und nur der Gamer zählt... dabei gehts auch hier nur um max Profit, aber bei AMD verzeiht man viel... FSR3 wartet man schon ewig, hoher idle Verbrauch, Verwendung des 7900er Namens und jetzt 7800er obwohl kaum schneller, läuft ja bei AMD ;)
Ohne AMD hast du keine 16 GB Modelle unter 1000€, AMD ist schon deshalb wertvoll.
Für 500€ sollte man IMO schon erwarten das man eine besser als Konsolen Erfahrung hat.
robbitop
2023-08-17, 13:04:07
Wenn bei dir alles so simpel ist empfehle ich sich bei AMD zu bewerben. Vielleicht kannst du die so besser überzeugen. ;) Ich sehe da nämlich ein "kleines" Problem. Nehmen wir an Radeons werden plötzlich sehr günstig und nehmen wir an der Ansturm darauf nimmt entsprechend deutlich zu. Wie willst du die Kundschaft laufend ausreichend bedienen wenn du mit der Produktion gar nicht hinterher kommst? Und warum sollte AMD diesen Ansturm überhaupt zu deutlich geringeren Margen anstreben wenn die Margen bei den CPUs höher ausfallen und im schlimmsten Fall es dann für die CPU-Produktion nicht genug Wafer gibt? So einfach wie du dir das alles vorstellst ist es nicht.
Psst... AMDs PR-Abteilung ist eine Vollkatastrophe in Tradition und basta! ;)
Deine Diskussionskultur ist leider unschön. Toxisch, passiv aggressiv und selten objektiv und respektvoll (was von erwachsenen, gut gebildeten Menschen zu erwarten ist). Ich kann Raff's Reaktion absolut nachvollziehen.
Weiterhin scheinst du Dinge binär wahrzunehmen (schwarz/weiß) anstatt diese in einem Spektrum einzuordnen. Ist AMD's PR Marketing Abteilung eine Katastrophe? Nein wahrscheinlich nicht. Gibt es (offensichtliches und zT deutliches) Potenzial zur Verbesserung? Wahrscheinlich schon (vor allem gemessen am Wettbewerb). Besser geht immer und das Ziel einer guten Führungskraft ist es, ständig bessere Ergebnisse mit ihrer Organisation zu erzielen. Fehler nicht zu wiederholen. Und ja da sehe ich Verbesserungspotenzial.
1.)
Wir wissen nicht, ob es einen Bottleneck von verfügbaren Dies bei AMD gibt. Ich kenne dazu keine belastbaren Zahlen aus neuster Zeit. Der PC Markt schrumpft aktuell stark und AMD kann die Radeon GPUs nicht so einfach wie Nvidia in den AI Bereich umleiten - Nachfrage und Angebot sind absolut gekippt. Und das ist auch in AMDs Quartalszahlen klar sichtbar. Es kann also sehr gut sein, dass diese Doktrin (man kann jeden mm² Silizium zu jeden Preis verkaufen - alles ist knapp) in der Zeit der Rezession und Inflation nicht mehr gültig ist.
2.)
Aber ja wenn das ein Bottleneck ist und man nur kurzfristig denkt (was ja leider bei Aktienunternehmen kaum anders geht, da das Quartalsergebnis enorm wichtig ist), kann man das natürlich so machen. Aber es kostet mindshare und Wert der Marke, die wenn Angebot und Nachfrage (sofern sie es nicht schon sind) wieder zugunsten des Endkunde entwickelt (also viel Angebot), dann ist mindshare/Marke wichtig um gut verkaufen zu können.
3.)
Ist es blauäugig und viel zu leicht anzunehmen: da arbeiten Profis im PR Department - die werden es schon besser wissen. Erstens: es wurden offensichtliche Fehler gemacht, die Skepsis legitim machen. Zweitens kann jeder mal in sein berufliches Umfeld bei den "Profis" (also den Vollzeitkollegen und insbesondere Vollzeitentscheidern / Führungskräften) schauen und sich die Frage stellen: sind die alle durchweg sehr gut oder gibt's da auch schlechte (hochgestellte) Entscheider?
Ich habe letzteres oft genug erlebt, wo man von außen erwarten hätte müssen: Director / Vice President / COO und 15+ Jahre in der Branche der muss wissen was er tut und hat die Organisation in die falsche Richtung getrieben. Genau deshalb werden die auch immer mal wieder gewechselt.
Ich finde es (grundsätzlich) wichtig, immer skeptisch zu bleiben und alles zu hinterfragen anstatt Dinge einfach als gegeben hinzunehmen nur weil vermeintliche Profis es besser wissen. Hat schon oft genug in meinem Leben eben nicht gestimmt. ;)
edit:
Korrektur PR <-> Marketing
Ich glaub ja, dass dargo nur (und vor allem immer noch) angepisst ist, weil die XTX nicht das versprochen hat, was er sich erhofft hat. Hätte AMD immer noch MPT, wäre dargo bestimmt deutlich versöhnlicher mit AMD :D.
dargo
2023-08-17, 13:14:32
Weil immer alle so tun als wäre AMD die "Guten" die keine kack Produkte rausbringen und nur der Gamer zählt... dabei gehts auch hier nur um max Profit, aber bei AMD verzeiht man viel... FSR3 wartet man schon ewig, hoher idle Verbrauch, Verwendung des 7900er Namens und jetzt 7800er obwohl kaum schneller, läuft ja bei AMD ;)
:facepalm:
1. Wer ist man? FSR3 juckt mich bsw. überhaupt nicht.
2. Deine Schallplatte mit dem hohen Idle-Verbrauch hat einen Sprung. Sehr viele N31 Besitzer liegen in Idle bei ca. 7-11W. Es soll aber auch User geben wo der Verbrauch immer noch zu hoch ist.
3. Wenn du schon hier die Spielerei mit den Namen erwähnst wo ist NV da bei der RTX 4060 besser? 18% schneller als 3060... wow, was für ein Fortschritt nach zwei Jahren und fast zwei vollen Nodesprüngen. :uclap: Bei der 4070 vs. 3070 sieht es zwar mit +26% ein klein wenig besser aus. Unterm Strich aber auch wieder nicht denn die UVP ist um 100$ gestiegen. Und wenn man die 4080 vs. 3080 heran zieht hat NV da komplett den Arsch auf. +47% Performance für +72% Preis. Und nicht vergessen dabei... ich vergleiche hier sogar zu Gunsten NV da ich die UVP zum jeweiligen Release vergleiche. Die Preise von Ampere senkt NV praktisch nicht im Gegensatz zu AMD. RDNA2 ist heute wesentlich günstiger zu bekommen als noch vor zwei Jahren.
Ich glaub ja, dass dargo nur (und vor allem immer noch) angepisst ist, weil die XTX nicht das versprochen hat, was er sich erhofft hat. Hätte AMD immer noch MPT, wäre dargo bestimmt deutlich versöhnlicher mit AMD :D.
Deutlich nicht, aber ein bisschen. ;) Die 7900XTX für 950€ bei max. 260W wäre zwar immer noch einiges unter meinen Erwartungen, würde mich aber schon eher ansprechen. Übrigens brauchts dafür kein MPT, ein Bios mit max. -30% hätte die gleiche Wirkung.
prinz_valium_2
2023-08-17, 13:15:45
PR ist nicht (nur) Marketing. PR ist auch der Produkt und Preismix.
Anders herum ist es richtig.
Marketing ist nicht nur PR. Marketing ist auch Produkt und Preismix.
Musste ich nur mal eben als Marketingtyp, der PR und Werbung hasst loswerden...
BlacKi
2023-08-17, 13:16:30
Ob die 7800 kaum schneller ist, weiß man doch gar nicht. Natürlich deuten viele Zeichen genau darauf hin, aber meine Beispiele waren schneller als ihre Vorgängersie muss aber zwischen der 6800xt und der GRE liegen. alles andere wäre ein marketing disaster. und die GRE ist nur 11% schneller als die 6800xt. und die meisten hier meinen die 7800xt kann die GRE garnicht schlagen. so oder so, die 7800xt muss durch ein nadelöhr.
DrFreaK666
2023-08-17, 13:17:34
Weil der Vergleich halt auch Quatsch ist, da die 6600 nicht der Vorgänger ist. Auch, wenn AMD damit scheinbar Erfolg hat, das so darzustellen.
6600 = Salvage
6600XT/6650XT = Vollausbau
7600 = Vollausbau
Natürlich ist die 7600 trotzdem auch schneller als eine 6600XT, aber sie verbraucht in dem Fall auch mehr. Das ist alles andere als ein Ruhmesblatt, auch, wenn das noch N6 ist.
Laut den mir bekannten Seiten ist die 7600 effizienter als die 6650XT. Die 6600XT wurde nicht getestet. Hast du da Quellen?
Bei 7600 vs 6600 siehts irgendwie ähnlich düster aus, was Quellen angeht. Hab was auf spanisch gefunden und da schluckt die 7600 6% mehr als die 6600 (243W vs 229W). Bei 37% Mehrleistung (laut Test) meines Erachtens mehr als in Ordnung
dargo
2023-08-17, 13:24:47
Laut den mir bekannten Seiten ist die 7600 effizienter als die 6650XT. Die 6600XT wurde nicht getestet. Hast du da Quellen?
Bei 7600 vs 6600 siehts irgendwie ähnlich düster aus, was Quellen angeht. Hab was auf spanisch gefunden und da schluckt die 7600 6% mehr als die 6600 (243W vs 229W). Bei 37% Mehrleistung (laut Test) meines Erachtens mehr als in Ordnung
Keine Ahnung was du da geguckt hast. Aber weder eine 7600 und erst recht nicht eine 6600 schlucken >200W. Ist es wirklich so schwer sich entsprechende Informationen dazu von CB zu holen?
https://www.computerbase.de/2023-05/amd-radeon-rx-7600-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop
https://www.computerbase.de/2021-10/amd-radeon-rx-6600-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop
Auch die 6650XT/6600XT hat CB im Programm.
https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop
Linmoum
2023-08-17, 13:26:57
Er nimmt vermutlich das Gesamtsystem. Die 6650XT zieht laut CB 19% mehr Strom für 3% mehr Leistung vs. 6600XT. Das ist ein hochgeprügelter Schluckspecht, natürlich sieht eine 7600 gegen sowas rosig aus. Und natürlich ist die 7600 auch vs. 6600 und 6600XT bei der Effizienz besser. Effizienter wird auch eine 7800XT sein, selbst wenn sie nur ~6800XT-Niveau erreicht. Wenn man sich mit sowas - zumal der Vorsprung sicher auch nicht groß sein wird - aber bei einer neuen uArch zufrieden geben will, dann weiß ich auch nicht. Sowas kann in der Form weder Ziel, noch Anspruch sein.
robbitop
2023-08-17, 13:27:44
Anders herum ist es richtig.
Marketing ist nicht nur PR. Marketing ist auch Produkt und Preismix.
Musste ich nur mal eben als Marketingtyp, der PR und Werbung hasst loswerden...
Ah du hast Recht. Natürlich! Ich meinte selbstverständlich Marketing in meiner Kritik. Danke für die Richtigstellung :up:
aufkrawall
2023-08-17, 13:31:24
Auch hier hat Kitguru den Durchschnitt über 12 Spiele gemessen:
https://youtu.be/suT6eNVE3Yg
-> Effizienzgewinn der 7600 gegenüber der 6600/XT ist nicht der Rede wert. Dagegen sieht ja selbst Navi 31 gut aus...
DrFreaK666
2023-08-17, 13:34:09
@Linmoum Ich hoffe auf +15% für die 7800XT. Einen Performancegleichstand kann ich mir nicht vorstellen. Die 7900XT wäre sonst ca. 40% schneller
DrFreaK666
2023-08-17, 13:38:17
Auch hier hat Kitguru den Durchschnitt über 12 Spiele gemessen:
https://youtu.be/suT6eNVE3Yg
-> Effizienzgewinn der 7600 gegenüber der 6600/XT ist nicht der Rede wert. Dagegen sieht ja selbst Navi 31 gut aus...
Da ist P/W auf dem gleichen Niveau
Der_Korken
2023-08-17, 13:47:13
@Linmoum Ich hoffe auf +15% für die 7800XT. Einen Performancegleichstand kann ich mir nicht vorstellen. Die 7900XT wäre sonst ca. 40% schneller
+15% auf die 6800XT wäre nur möglich, wenn N32 entgegen aller Leaks plötzlich doch auf Hardwareebene einen Fix für den hohen Verbrauch erhalten hat und dadurch mit 2,8-3,0Ghz läuft. Mit N31-Taktraten werden es maximal 5% sein. Selbst wenn AMD die Karte auf 300W hochprügelt, sehe ich +15% nicht.
DrFreaK666
2023-08-17, 13:50:08
Die Hoffnung stirbt zuletzt.
7800XT FSR3 vs 6800XT FSR2 Benchmarks braucht niemand.
Wie wollen sie den 40% Gap dann füllen?
dildo4u
2023-08-17, 13:53:05
Verstehe nicht 7800XT sollte auf 4070 Level sein wenn sie 5% zugelegt damit haben sie alle Nvidia Modelle unter 1k abgedeckt.
7700 XT = 4060Ti 7800XT = 4070 7900XT = 4070ti
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_2560__1440
DrFreaK666
2023-08-17, 13:59:14
So kann mans natürlich auch sehen. Aber wenn RDNA3 schon am Taktlimit läuft, wie reagiert man auf ADA Super Karten?
dargo
2023-08-17, 13:59:16
Die Hoffnung stirbt zuletzt.
7800XT FSR3 vs 6800XT FSR2 Benchmarks braucht niemand.
Wie wollen sie den 40% Gap dann füllen?
Indem man später u.U. einen 70CU N31 bringt und diesen noch u.U. zusätzlich bei der Frequenz leicht höher prügelt als 7900XT.
So kann mans natürlich auch sehen. Aber wenn RDNA3 schon am Taktlimit läuft, wie reagiert man auf ADA Super Karten?
RDNA3 läuft nicht am Takt-/ sondern Powerlimit! Oder anders ausgedrückt... die hohe Powereinbremsung verhindert hohe Taktraten in stärker heizenden Games.
dildo4u
2023-08-17, 14:04:56
So kann mans natürlich auch sehen. Aber wenn RDNA3 schon am Taktlimit läuft, wie reagiert man auf ADA Super Karten?
Ich würde nicht so viel auf die Namen geben die 6800 war z.b der Gegner der 3070/Ti Modelle.
Daher erwarte ich 4070 Performance.
Die Karte ist XT da es schon der volle Chip ist sie hat halt nicht den geplanten Takt erreicht.
Der_Korken
2023-08-17, 14:22:21
Ich habe nochmal drüber nachgedacht. Müsste in so einem Fall dann nicht jedes Game sehr viel saufen? Das ist ja eben nicht der Fall bei N31. Es gibt spiele wo der Takt sehr hoch und logischerweise die Spannung dann auch entsprechend hoch ist und der Verbrauch sich dennoch für so eine SKU in Grenzen hält. Auch gab es hier mal im Forum ein Beispiel wo N31 bei bestimmten Workloads afaik mit 3,3GHz taktete (oder waren es sogar 3,5GHz?) und der Verbrauch nicht durch die Decke ging.
Ein Bug kann sich auch nur an einer ganz spezifischen Stelle befinden und nur bei ganz bestimmten Workloads durchschlagen. Im CB-Forum hatte jemand in der Sache ein wenig weitergetestet: https://www.computerbase.de/forum/threads/kuehler-gegen-steckergate-devpandis-hin-und-her.2151961/
Unter dem Abschnitt "Hardwarebug - wo könnte er sein?" kommt raus, dass FSR den Takt erhöht, weil durch die kleinere Auflösung die ROP-Last sinkt. RT und PT (path tracing) lassen den Takt sogar noch weiter ansteigen, da sie nur die Shader belasten. Abschließend wird noch eine Anwendung getestet, die einmal etwas über die ROPs rendert und einmal über die Shader. Shader-Takt hui, ROP-Talt pfui. Keine Ahnung, ob die Anwendung für den Vergleich taugt, aber komisch sieht es allemal aus. Es müssen am Ende auch nicht die ROPs sein, sondern vielleicht auch andere fixed function hardware, die mit den ROPs zusammenhängt.
Die Hoffnung stirbt zuletzt.
7800XT FSR3 vs 6800XT FSR2 Benchmarks braucht niemand.
Wie wollen sie den 40% Gap dann füllen?
Müssen sie jede Lücke füllen? Wenn Nvidia jede Gen 5 separate Chips bringen muss, von denen jeweils zwei Versionen verkauft werden, ist das deren Sache. Vielleicht lohnt es sich nicht, N31 so weit runter zu salvagen, bloß um in dem Leistungsbereich eine Karte zu haben. Die GRE ist schon der Lückenfüller, aber wenn AMD da so die Hand drauf hält, gibt es vielleicht genug schlechte Chips um hier große Stückzahlen anbieten zu können. Außer natürlich AMD verkauft ihre 7900XT-Chips alle unter Wert, aber dann könnte man auch einfach den Preis der 7900XT senken.
Indem man später u.U. einen 70CU N31 bringt und diesen noch u.U. zusätzlich bei der Frequenz leicht höher prügelt als 7900XT.
Ich glaube nicht, dass AMD so viele kaputte Dies hat, dass sich ein 70CU-Modell lohnt. Den krebsigen Taktraten der GRE nach sieht es eher nach Yield-Problemen im Taktbereich aus als nach Yield-Problemen mit CUs.
dargo
2023-08-17, 14:37:37
Ein Bug kann sich auch nur an einer ganz spezifischen Stelle befinden und nur bei ganz bestimmten Workloads durchschlagen. Im CB-Forum hatte jemand in der Sache ein wenig weitergetestet: https://www.computerbase.de/forum/threads/kuehler-gegen-steckergate-devpandis-hin-und-her.2151961/
Unter dem Abschnitt "Hardwarebug - wo könnte er sein?" kommt raus, dass FSR den Takt erhöht, weil durch die kleinere Auflösung die ROP-Last sinkt. RT und PT (path tracing) lassen den Takt sogar noch weiter ansteigen, da sie nur die Shader belasten. Abschließend wird noch eine Anwendung getestet, die einmal etwas über die ROPs rendert und einmal über die Shader. Shader-Takt hui, ROP-Talt pfui. Keine Ahnung, ob die Anwendung für den Vergleich taugt, aber komisch sieht es allemal aus. Es müssen am Ende auch nicht die ROPs sein, sondern vielleicht auch andere fixed function hardware, die mit den ROPs zusammenhängt.
Hmm... das ist recht interessant. Denn dann müsste man das Verhalten von RDNA3 bzw. N31 anders bennenen. Nicht hohe Shaderlast heizt besonders stark bei N31 sondern andere Game-Workloads. :uponder:
amdfanuwe
2023-08-17, 14:54:19
Könnte noch eine 7600XT auf N32 Basis kommen?
Mit 36 CU (2*8*2) oder 40 CU (2*10*2)?
Könnte dann 12GB haben.
DrFreaK666
2023-08-17, 15:09:01
Ich würde nicht so viel auf die Namen geben die 6800 war z.b der Gegner der 3070/Ti.
Mir geht's auch nicht um Namen. Die 7900XT ist für mich z.B. auch die Konkurrenz der 4070Ti, da ähnlicher Preis.
reaperrr
2023-08-17, 15:11:11
wie reagiert man auf ADA Super Karten?
Wieviel sollen die schon bringen?
- 4060Ti fast Vollausbau, und selbst mit 36 SM wahrscheinlich langsamer als selbst ein 48CU/192bit N32, also von einer AD106-basierten 4060 Super ist nicht viel zu erwarten. Und ne AD104-basierte 4060 Super wird's nicht geben, das ist NV zu viel Silizium für zu wenig Geld.
- 4070 Super könnte zwar mehr SM aktivieren als 4070, aber dann könnte AMD immer noch mit einer 7850 XT / 7900 auf N31-Basis (also entweder GRE-Specs, oder 70 CUs wie früher für die N31-7800XT kolportiert) kontern. Lohnt die Mühe nicht.
- 4070Ti ist schon Vollausbau und für Ada schon recht hohe Taktraten/TDP, und Salvage AD103 wäre teurer zu produzieren (~100mm² mehr Fläche in 4N). Wie ich NV kenne machen die das nur, wenn von AMD Druck kommt, und ich wüsste aktuell nicht, wo der so richtig herkommen sollte, wenn schon die Specs der 7900XT nicht reichen, um die 4070Ti verkaufsmäßig so richtig ernsthaft vor Probleme zu stellen.
Anyway, wenn NV Refreshes bringen sollte, dann sind mMn die eher am oberen Ende zu erwarten (4090Ti @ 2K$, 4070Ti-16GB auf AD103-Basis @949$/1K €), den Rest lässt NV mMn einfach so laufen, zu viel Wafer wollen sie eh nicht in Desktop-Karten investieren, da sich mit HPC/KI momentan viel mehr Schotter machen lässt.
3.)
Ist es blauäugig und viel zu leicht anzunehmen: da arbeiten Profis im PR Department - die werden es schon besser wissen. Erstens: es wurden offensichtliche Fehler gemacht, die Skepsis legitim machen. Zweitens kann jeder mal in sein berufliches Umfeld bei den "Profis" (also den Vollzeitkollegen und insbesondere Vollzeitentscheidern / Führungskräften) schauen und sich die Frage stellen: sind die alle durchweg sehr gut oder gibt's da auch schlechte (hochgestellte) Entscheider?
Ich habe letzteres oft genug erlebt, wo man von außen erwarten hätte müssen: Director / Vice President / COO und 15+ Jahre in der Branche der muss wissen was er tut und hat die Organisation in die falsche Richtung getrieben. Genau deshalb werden die auch immer mal wieder gewechselt.
Ich finde es (grundsätzlich) wichtig, immer skeptisch zu bleiben und alles zu hinterfragen anstatt Dinge einfach als gegeben hinzunehmen nur weil vermeintliche Profis es besser wissen. Hat schon oft genug in meinem Leben eben nicht gestimmt. ;)
edit:
Korrektur PR <-> Marketing
Also PR und Marketing setzt du nicht synonym? Weil ansonsten hätte ich gesagt:
Wenn ich bedenke was bei uns im Marketing für komische Tussis sitzen und was die so raushauen wo jeder Ingenieur nur den Kopf gegen die Wand schlägt, da würde ich das Wort inkompetent bei Marketing schon generell für als gesetzt halten :wink:
robbitop
2023-08-17, 16:06:53
Also PR und Marketing setzt du nicht synonym? Weil ansonsten hätte ich gesagt:
Wenn ich bedenke was bei uns im Marketing für komische Tussis sitzen und was die so raushauen wo jeder Ingenieur nur den Kopf gegen die Wand schlägt, da würde ich das Wort inkompetent bei Marketing schon generell für als gesetzt halten :wink:
Ich glaube, dass es viele (Menschen und leider auch Firmen) fälschlicherweise gleichsetzen. Aber wenn man es richtig macht, ist Marketing viel viel mehr als nur PR.
nur als Beispiel eine Übersicht zum Marketingmix - sorry für die Größe:
https://www.marketingbright.de/wp-content/uploads/sites/3/2021/06/Marketing-Mix-4P.jpg
Also bei uns gehört Purchasing und Sales nicht zum Marketing (soll jetzt aber nicht heißen das die die Weisheit mit Löffeln gefressen haben :D )
Aber ja mag sein das hier unterschiedliche Abgrenzungen verwendet werden.
Fakt ist das irgendwo ein Kundenangebot seitens AMD von Nöten ist sonst gibt es kein gutes Release (und Features, Effizienz, Performance ist es schon mal nicht).
Bleibt eigentlich nur noch der Preis. Da dürfte selbst unter Anbetracht das kaputten Marktes diie 7800XT bei max. 500€ liegen um interessant zu werden. Und ich befürchte die liegt drüber.
BlacKi
2023-08-17, 16:36:02
lediglich wenn sie ab der 7800xt mit einem dumping beginnen würden. sah bisher aber nicht so aus, auch die GRE nicht.
davidzo
2023-08-17, 23:41:19
6800XT vs 7800XT
72 CU vs 60CU
FP32 Tflops ohne Dual issue bei Boostclock:
20,74Tflops 19,36Tflops
- die GRE hat 23Tflops ohne Dual issue.
Das ist also ein 7% Nachteil bei der Rohleistung gegenüber dem direkten Vorgänger 6800xt. Wenn man bedenkt dass die 7900GRE einen 10% Nachteil bei der Rohleistung gegenüber der 6950XT wettmacht müsste es reichen dass die 7800xt auch in reinen rasterizer workloads minimal schneller als der Vorgänger wird.
Zudem dürften 60CU mit Hochtakt besser skalieren als die 6800Xt mit 72. Daneben ist man im Vergleich zur GRE seltener Bandbreitenlimitiert, da Navi32 mit 60CU das gleiche Speicherinterface hat wie die GRE mit 80CU.
AMD orientiert sich beim Sprung augenscheinlich an dem Genererationensprung der 4060ti :freak:
Apropos: Wissen wir eigentlich, wie es um die Interna von Navi 32 bestellt ist? Hat das Ding so viele Register/Caches wie Navi 31 pro Einheit, oder wurde hier - wie bei Navi 33 - gespart? Ansonsten sehe ich das wie davidzo: Takt hilft immer, Software-abhängige Gimmicks wie die Dual-Ische ;) nicht.
MfG
Raff
dildo4u
2023-08-18, 07:37:36
Nvidia hat bei den Midrange GPU das Speicherinterface gekappt AMD vergrößert da sie schnelleren Ram nutzten, 20 Tflops sind eine Menge für die Vorhandene Bandbreite kann also sein das dort der Flaschenhals liegt.
dargo
2023-08-18, 07:46:46
Lol... als ob die TFLOP-Angaben bei den aktuellen GPUs was aussagen würden. :lol:
OgrEGT
2023-08-18, 07:58:01
Die Angabw der "TFlop Zahl" bezieht sich auf FP32 Berechnungen der Recheneinheiten (CU/CC). Gibt es eigentlich Untersuchungen zu den Spieleengines zu der Anzahl und Art (Genauigkeit) der Berechnungen die angefordert werden?
dargo
2023-08-18, 08:11:52
Die Angabw der "TFlop Zahl" bezieht sich auf FP32 Berechnungen der Recheneinheiten
Schon klar. ;) Ich wollte damit nur nochmal aufzeigen, dass die TFLOPs von RDNA3 absolut Null vergleichbar in Gaming-Workloads sind mit den TFLOPs Angaben von bsw. RDNA2. Diese Angaben sind bestcase und werden in der Praxis nie erreicht.
Apropos: Wissen wir eigentlich, wie es um die Interna von Navi 32 bestellt ist? Hat das Ding so viele Register/Caches wie Navi 31 pro Einheit, oder wurde hier - wie bei Navi 33 - gespart? Ansonsten sehe ich das wie davidzo: Takt hilft immer, Software-abhängige Gimmicks wie die Dual-Ische ;) nicht.
MfG
Raff
Wie es aussieht wird N32 ein halber N31 mit +2 WGPs pro SE. Unwahrscheinlich, dass sich sonst irgendwas unterscheidet.
robbitop
2023-08-18, 08:55:16
Und da der Chip laut Gerüchten schon lange bei AMD herumoxidiert (weil man N21 abverkaufen wollte / musste) ist ein "fix" des angeblichen RDNA3 issues auch sehr unwahrscheinlich.
horn 12
2023-08-18, 09:22:10
Passend dafür gibt es die AMD MBA 7900 XTX heute mal wieder im AMD Shop nach Monatelanger Abstinenz!
https://shop-eu-en.amd.com/graphics-cards/
Inkl. Starfield
Und da der Chip laut Gerüchten schon lange bei AMD herumoxidiert (weil man N21 abverkaufen wollte / musste) ist ein "fix" des angeblichen RDNA3 issues auch sehr unwahrscheinlich.
Er wird mMn schon besser takten. Mal sehen.
davidzo
2023-08-18, 09:48:22
Schon klar. ;) Ich wollte damit nur nochmal aufzeigen, dass die TFLOPs von RDNA3 absolut Null vergleichbar in Gaming-Workloads sind mit den TFLOPs Angaben von bsw. RDNA2. Diese Angaben sind bestcase und werden in der Praxis nie erreicht.
Hm, du meinst das Boostverhalten von RDNA2 und RDNA3 lässt sich nicht vergleichen? Das hieße ja zum Beispiel dass RDNA2 den Boostclock häufiger erreicht während RDNA3 häufiger unter den beworbenen Zahlen liegt. Das wäre ungewöhnlich dass AMD da unterschiedliche Maßstäbe ansetzt, denn die ungeraden zahlen für den Boostclock wirken nicht gerade wie Marketing claims sondern wie tatsächlich gemessen. Wäre gespannt auf die Quelle oder ist das nur ein Gefühl?
reaperrr
2023-08-18, 09:59:02
Hm, du meinst das Boostverhalten von RDNA2 und RDNA3 lässt sich nicht vergleichen? Das hieße ja zum Beispiel dass RDNA2 den Boostclock häufiger erreicht während RDNA3 häufiger unter den beworbenen Zahlen liegt. Das wäre ungewöhnlich dass AMD da unterschiedliche Maßstäbe ansetzt, denn die ungeraden zahlen für den Boostclock wirken nicht gerade wie Marketing claims sondern wie tatsächlich gemessen. Wäre gespannt auf die Quelle oder ist das nur ein Gefühl?
Die RDNA3-TFLOPs beinhalten Dual-Issue, was nur selten zum Tragen kommt.
Die realen Taktraten selbst landen bei RDNA3 meist eher deutlich über den (relativ vorsichtig gewählten) offiziellen Angaben.
Die 7900 XT erreicht in der Praxis z.B. auch fast exakt die gleichen Taktraten wie die XTX (durchschnittlich 2560 MHz Shadertakt bei CB), obwohl sie offiziell 200 MHz niedriger takten sollte.
robbitop
2023-08-18, 10:02:33
Er wird mMn schon besser takten. Mal sehen.
Das kann gut sein, wenn man ihm im Verhältnis zu der reduzierten CU Anzahl etwas mehr TDP gibt, dann selbst ohne fixes.
Linmoum
2023-08-18, 10:09:59
Laut PC scheint ja zumindest die Red Devil 7800XT identische Taktraten zur 7900XTX zu haben. Das wird sich vermutlich real nichts nehmen.
Die 7900 XT erreicht in der Praxis z.B. auch fast exakt die gleichen Taktraten wie die XTX (durchschnittlich 2560 MHz Shadertakt bei CB), obwohl sie offiziell 200 MHz niedriger takten sollte.
Das kann ich von meinen beiden Mustern übrigens nicht behaupten, da liegt die XT um durchschnittlich 120 MHz (Raster) bis 200 MHz (Ray) drunter. Takten die gleich/hoch, limitiert das Drumherum.
MfG
Raff
davidzo
2023-08-18, 10:41:46
Die RDNA3-TFLOPs beinhalten Dual-Issue, was nur selten zum Tragen kommt.
Lies noch mal:
6800XT vs 7800XT
72 CU vs 60CU
FP32 Tflops ohne Dual issue bei Boostclock:
20,74Tflops 19,36Tflops
- die GRE hat 23Tflops ohne Dual issue.
Die dual issue Tflops wären doppelt so hoch. ;)
BlacKi
2023-08-18, 11:10:16
wie hast du die tflops denn eigentlich ermittelt? ein realistischerer ansatz wäre den typischen spieletakt der in spielen anliegt zu nehmen.
die gameclock die amd angibt weicht von den realen takten ab:
AMD has two different clock domains. There is the Game Clock and the “Max” Boost Clock that the GPU is capable of boosting to in certain workloads. For the most part, the Game Clock of 2015MHz is what you should expect while gaming.
You can see in the graph on this page how that turned out. The GPU frequency did jump all over the place, but it ended up being much higher than we thought. It actually remained well above the 2015MHz clock domain at all times. In fact, it was even in excess of the 2250MHz clock domain! It started very high at 2300MHz and then dropped down after a minute to mostly around that or upwards of that 2250MHz mark. The average clock speed turned out to be 2265MHz. https://www.thefpsreview.com/2020/12/21/amd-radeon-rx-6800-xt-overclocking/
Rechnet doch einfach mit den aktuellen Daten von hier: https://www.pcgameshardware.de/Radeon-RX-7900-GRE-Grafikkarte-279821/Tests/Review-Benchmark-Preis-vs-7900-XT-vs-6800-XT-vs-4070-1426289/
7900 GRE:
Ø 2.230 MHz beim Rasterizing
Ø 2.200 MHz beim Raytracing
-> ~22,8 TFLOPS FP32, ~45,7 mit Dual-Issue (Rast)
-> ~22,5 TFLOPS FP32, ~45,1 mit Dual-Issue (Ray)
6800 XT:
Ø 2.300 MHz sowohl beim Rasterizing als auch Raytracing
-> ~21,2 TFLOPS FP32
... und setzt das dann ins Verhältnis zu den Indizes. :) Navi 32 XT bräuchte brutal viel Takt für diese Werte:
7800 XT:
Ø 2.900 MHz -> ~22,3 TFLOPS FP32, ~44,5 mit Dual-Issue
MfG
Raff
robbitop
2023-08-18, 12:14:55
Da kommen dann ~+5% für Raster und ~+12% für RT raus.
Wobei die 7900GRE ziemlich bandbreitenlimitiert zu sein scheint. Wenn ich mir die 7900XTX gegen die 6950 XT nehme, komme ich auf +~8% Raster und + ~18% Raster raus. (auch Rohleistungsnormiert)
Alles nicht gerade doll dafür, dass die CUs so extremst gewachsen sind.
BlacKi
2023-08-18, 12:24:46
Rechnet doch einfach mit den aktuellen Daten von hier: https://www.pcgameshardware.de/Radeon-RX-7900-GRE-Grafikkarte-279821/Tests/Review-Benchmark-Preis-vs-7900-XT-vs-6800-XT-vs-4070-1426289/
7900 GRE:
Ø 2.230 MHz beim Rasterizing
Ø 2.200 MHz beim Raytracing
-> ~22,8 TFLOPS FP32, ~45,7 mit Dual-Issue (Rast)
-> ~22,5 TFLOPS FP32, ~45,1 mit Dual-Issue (Ray)
6800 XT:
Ø 2.300 MHz sowohl beim Rasterizing als auch Raytracing
-> ~21,2 TFLOPS FP32
... und setzt das dann ins Verhältnis zu den Indizes. :) Navi 32 XT bräuchte brutal viel Takt für diese Werte:
7800 XT:
Ø 2.900 MHz -> ~22,3 TFLOPS FP32, ~44,5 mit Dual-Issue
MfG
Raff
sind das nicht taktraten, die rdna3 schaffen würde mit guter kühlung und offenenem powertarget? das die rdna3 karten nicht 2,9 ghz schaffen liegt doch nur am powerlimit richtig?
der bauer hat nur mit powerlimit schon 2914-2980mhz bei der xtx. der kleinere n32 chip könnte sogar leicht höher takten. timestamp https://youtu.be/ySxNdg13y9A?t=245
robbitop
2023-08-18, 12:32:43
Beachten dass der shadertakt 200 MHz unter dem Frontend Takt liegt und letzterer wird in der Regel reportet.
BlacKi
2023-08-18, 12:39:39
das gilt aber nicht für jeden rdna3 chip. es ist möglich, das es bei n32 nicht der fall ist, so wie bei n33, so wie raff das im video erwähnt hat.
nur speku: bei 3ghz und schnellem 20gbps speicher ist die 7800xt potentiell minimal schneller als die GRE.
Jo. Aber die Kombination klingt nach 300 Watt ...
Beachten dass der shadertakt 200 MHz unter dem Frontend Takt liegt und letzterer wird in der Regel reportet.
CapFrameX meldet übrigens die Shader-Domäne - zumindest ergibt das der Abgleich mit Hwinfo (https://www.pcgameshardware.de/Radeon-RX-7900-GRE-Grafikkarte-279821/Tests/Review-Benchmark-Preis-vs-7900-XT-vs-6800-XT-vs-4070-1426289/galerie/3779145/?fullsize) (nach wie vor das einzige mir bekannte Tool, welches das Front-End auslesen kann) und diese Zahlen sind auch die Quelle aller PCGH-Taktangaben. Nach aktuellem Stand sieht es so aus:
Navi 31 XT(X): Front-End taktet um 200 MHz höher als ALUs
Navi 31 XL: Front-End taktet nur um 100 MHz höher als ALUs
Navi 33: Front-End und ALUs takten synchron
Navi 32: ???
MfG
Raff
robbitop
2023-08-18, 12:48:09
das gilt aber nicht für jeden rdna3 chip. es ist möglich, das es bei n32 nicht der fall ist, so wie bei n33, so wie raff das im video erwähnt hat.
nur speku: bei 3ghz und schnellem 20gbps speicher ist die 7800xt potentiell minimal schneller als die GRE.
Wobei die Informationslage eher so aussieht, dass N32 eher so ist wie N31. Die gleichen CUs, der gleiche Aufbau nur weniger.
N33 hat eine völlig andere Implementierung der uArch genau wie die Phoenix APU. Die kann man eigentlich nicht mit den großen RDNA3s vergleichen - eigentlich hätte man die Architekturen schon fast anders nennen müssen wie bei Xe LP und Xe HPG.
Was die 3 GHz angeht - ich hab da nicht viel Hoffnung - außer für high TDP Modelle vielleicht.
dargo
2023-08-18, 12:50:34
Beachten dass der shadertakt 200 MHz unter dem Frontend Takt liegt und letzterer wird in der Regel reportet.
Nö... RTSS meldet default Shadertakt und HW-INFO bietet beide Optionen an. Das mit den 200Mhz Unterschied stimmt auch nicht generell, hängt davon ab wo du dich innerhalb der V/F Kurve bewegst.
robbitop
2023-08-18, 12:52:17
Nö... RTSS meldet default Shadertakt und HW-INFO bietet beide Optionen an. Das mit den 200Mhz Unterschied stimmt auch nicht generell, hängt davon ab wo du dich innerhalb der V/F Kurve bewegst.
Ich meinte eher die Reviews wie CB. Die geben bei N31 den Frontend Takt an. Also muss man dort den Shadertakt errechnen in dem man den Offset abzieht. Besser/akurater wäre es natürlich wenn sie den mit auslesen würden.
Nö... RTSS meldet default Shadertakt und HW-INFO bietet beide Optionen an. Das mit den 200Mhz Unterschied stimmt auch nicht generell, hängt davon ab wo du dich innerhalb der V/F Kurve bewegst.
Interessant! Wo gibt's denn Abweichungen von den 200 MHz? Hat mal jemand den Table ausgelesen oder aufgeschrieben?
Ich meinte eher die Reviews wie CB. Die geben bei N31 den Frontend Takt an. Also muss man dort den Shadertakt errechnen in dem man den Offset abzieht. Besser/akurater wäre es natürlich wenn sie den mit auslesen würden.
Siehe mein Edit hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13374877&postcount=10897
Ich gehe davon aus, dass Computerbase ebenfalls die CX-Werte angibt, weil das sowohl bequem als auch logisch ist. Das Tool kann aber nicht die Front-End-Clocks erfassen.
MfG
Raff
dargo
2023-08-18, 12:56:14
Ich meinte eher die Reviews wie CB. Die geben bei N31 den Frontend Takt an. Also muss man dort den Shadertakt errechnen in dem man den Offset abzieht. Besser/akurater wäre es natürlich wenn sie den mit auslesen würden.
Nanu... CB gibt den Frontend-Takt an? :freak: Ist mir völlig entgangen.
Interessant! Wo gibt's denn Abweichungen von den 200 MHz?
Dort zum Bleistift.
https://abload.de/image.php?img=assassinscreedoriginsdpf5f.jpg
https://abload.de/image.php?img=unknown_2023.04.09-0795cal.jpg
Witzigerweise kann er auch geringer als 200Mhz ausfallen.
https://abload.de/image.php?img=assassinscreedorigins9wevm.jpg
Das war ein 2,7GHz/1150mV Profil bei der XTX, eventuell verschiebt sich an den Verhältnissen etwas wenn man an der V/F-Kurve was ändert.
reaperrr
2023-08-18, 13:06:38
nur speku: bei 3ghz und schnellem 20gbps speicher ist die 7800xt potentiell minimal schneller als die GRE.
Das wird nix.
Erstens deutet zu viel darauf hin, dass RDNA3 generell - egal, woran genau es nun liegt - massive Probleme hat, ohne explodierenden Stromverbrauch über 2,6 GHz zu takten.
Der andere Punkt: N32 hat nur 3 SEs und 96 ROPs, die GRE hat 5 SEs und 160 ROPs.
Das heißt, N32 hat nicht nur lediglich 75% der Shader/TMU, sondern auch nur 60% des Primitive- und Pixel-Durchsatzes der GRE (je MHz).
Unterm Strich kommt N32 vielleicht auf 65-70% der pro-MHz-Leistung der GRE, damit bräuchte N32 ca. 3,2 Ghz unter Spiele-Last, um auf die Leistung der GRE zu kommen. Da bin ich jetzt mal skeptisch.
Es wird mit Ach und Krach für 6800XT-Leistung reichen, und auch das nicht überall mMn, da die 6800XT halt nicht nur 20% mehr CUs, sondern auch 4 SE und 128 ROP sowie doppelt so großen IF$ hat.
Größerer Speicher und etwas niedrigerer Preis werden die einzigen Vorteile der 7800XT gegenüber der 4070, fürchte ich.
robbitop
2023-08-18, 13:12:18
Ich hätte es angenommen - aber leider schreiben sie nicht was sie genau messen. Wenn es Shaderclocks sein sollten - OK.
Der_Korken
2023-08-18, 13:23:10
Der andere Punkt: N32 hat nur 3 SEs und 96 ROPs, die GRE hat 5 SEs und 160 ROPs.
Das heißt, N32 hat nicht nur lediglich 75% der Shader/TMU, sondern auch nur 60% des Primitive- und Pixel-Durchsatzes der GRE (je MHz).
Unterm Strich kommt N32 vielleicht auf 65-70% der pro-MHz-Leistung der GRE, damit bräuchte N32 ca. 3,2 Ghz unter Spiele-Last, um auf die Leistung der GRE zu kommen. Da bin ich jetzt mal skeptisch.
Plot-Twist: Durch die wenigen ROPs ist der Verbrauch von N32 überproportional kleiner als der von N31 :freak:.
dargo
2023-08-18, 13:26:11
Plot-Twist: Durch die wenigen ROPs ist der Verbrauch von N32 überproportional kleiner als der von N31 :freak:.
Hehe... da bin ich jetzt gespannt ob die ROPs der Übeltäter sind. :tongue: N33 hat zwar auch wenig ROPs, aber wegen 6nm von dem was abzuleiten ist schwierig.
BlacKi
2023-08-18, 13:31:31
Es wird mit Ach und Krach für 6800XT-Leistung reichen, und auch das nicht überall mMn, da die 6800XT halt nicht nur 20% mehr CUs, sondern auch 4 SE und 128 ROP sowie doppelt so großen IF$ hat.
Größerer Speicher und etwas niedrigerer Preis werden die einzigen Vorteile der 7800XT gegenüber der 4070, fürchte ich.
es gibt leute die jetzt sagen würden, amd weiß was sie tun und die 7800xt wird natürlich deutlich schneller als die 6800xt. trust me bro.
ich check das nicht, warum sie die karte nicht 7700xt nennen, abgesehen davon das man den preis nicht so hoch setzen kann wie wenn man eine 7800xt verkaufen will. so oder so, amd kann den großen n32 nicht für 500€+ verkaufen ohne das es ein marketing fail wird. lediglich die powerlimit karte können sie noch ausspielen, indem sie dem chip 315w gönnen. aka 3ghz edition, worlds first 3ghz gpu.
reaperrr
2023-08-18, 13:32:20
Plot-Twist: Durch die wenigen ROPs ist der Verbrauch von N32 überproportional kleiner als der von N31 :freak:.
Plot-Twist: Das Problem ist, dass die ROPs deutlich mehr Spannung für bestimmte Taktraten brauchen als der Rest des Chips, und diese Spannung dann auch für den gesamten GCD anliegt, so dass weniger ROPs nur bedingt helfen, weil der Spannungsbedarf und damit der Verbrauch/die Hitzeentwicklung je mm² trotzdem auf N31-Niveau liegt ;)
ich check das nicht, warum sie die karte nicht 7700xt nennen, abgesehen davon das man den preis nicht so hoch setzen kann wie wenn man eine 7800xt verkaufen will. so oder so, amd kann den großen n32 nicht für 500€+ verkaufen ohne das es ein marketing fail wird. lediglich die powerlimit karte können sie noch ausspielen, indem sie dem chip 315w gönnen. aka 3ghz edition, worlds first 3ghz gpu.
Gute Idee, denn die "2 GHz Edition" haben sie verpennt, obwohl sie 2012 die "GHz Edition" hatten. :ugly:
MfG
Raff
davidzo
2023-08-18, 13:54:27
wie hast du die tflops denn eigentlich ermittelt? ein realistischerer ansatz wäre den typischen spieletakt der in spielen anliegt zu nehmen.
So wie es in jedem Review bei CB oder auch techpowerup. Boostclock * Shaderanzahl *2
2250mhz für die 6800XT laut Datenblatt
2525mhz für die 7800XT laut Datenblatt-leak
Der typische Spieletakt ist schön und gut, aber den haben wir nunmal von der 7800XT nicht. Außerdem sind alle Samples unterschiedlich, da müsse man also schon große Mittelwerte bilden.
Ich will aber nochmal betonen dass ich mich hier zu keiner Diskussion über real anliegende Flops hineinreißen lasse, dazu habe ich die Tflops ja nicht ohne Grund im Kontext und ohne Dual issue aufgezählt. Mein Punkt war nur ein vergleich von 6800Xt und 7800Xt auf Basis der Herstellerangaben und dabei die IPC Gewinne erst später aufzuschlagen. Für den Vergleich innerhalb der Familie ist unerheblich ob das real 20 Tflops oder 23Tflops sind. Ich mache ja keine Quervergleiche zu Vega oder Nvidia. Ob du dann Boostclock oder Gameclock vergleichst ist egal, solange du das durchziehst dass du nur vergleichbare Herstellerangaben nimmst und nicht munter gemessene Daten mit Datenblättern vermischt.
Das ganze setzt natürlich vorraus dass AMD als Hersteller seine eher konservativen Einstellung zu Base- und Boosttakt nicht geändert hat. N21 und auch die anderen RDNA2 Chips haben meist leicht über dem Boostclock performt beim durschnittlichen Spieletakt. Das sieht bisher auch bei N31 so aus.
6800XT 2250mhz 20,74 Tflops
7800XT 2525mhz 19,39 Tflops ohne Dual issue
7800XT 2525mhz 21,33 Tflops mit 10% Dual Issue Aufschlag (siehe 7900GRE vs 6950XT)
Das wären knapp 3% Vorteil für die 7800XT. Aber vermutlich ist der IPC Aufschlag von RDNA3 eher größer als die 10% bei der GRE, da letztere deutlich Bandbreitenlimitiert ist. Es wird trotzdem nicht mehr zweistellig fürchte ich. AMD pullt mal wieder einen Radeon 6870 mit uns.
dargo
2023-08-18, 14:04:32
Plot-Twist: Das Problem ist, dass die ROPs deutlich mehr Spannung für bestimmte Taktraten brauchen als der Rest des Chips, und diese Spannung dann auch für den gesamten GCD anliegt, so dass weniger ROPs nur bedingt helfen, weil der Spannungsbedarf und damit der Verbrauch/die Hitzeentwicklung je mm² trotzdem auf N31-Niveau liegt ;)
Hast du dazu auch eine Quelle die das belegt? Klingt für mich eher ausgedacht denn die Vcore bei N31 und um die 2,5GHz ist nicht hoch, ganz im Gegenteil.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13271699&postcount=1949
Im Schnitt hatte ich 864mV bei im Schnitt 2484Mhz in CP77, was zwar nicht max. heizt wie bsw. APTR aber schon ordentlich.
https://abload.de/image.php?img=cx_2023-03-31_21-59-3f5evs.png
Wobei die Heizlast an sich in diesem Beispiel keine Rolle spielt denn sinkt die Heizlast geht der Takt und somit auch die Spannung innerhalb der V/F-Kurve ja hoch.
Der_Korken
2023-08-18, 14:08:04
Plot-Twist: Das Problem ist, dass die ROPs deutlich mehr Spannung für bestimmte Taktraten brauchen als der Rest des Chips, und diese Spannung dann auch für den gesamten GCD anliegt, so dass weniger ROPs nur bedingt helfen, weil der Spannungsbedarf und damit der Verbrauch/die Hitzeentwicklung je mm² trotzdem auf N31-Niveau liegt ;)
Ich glaube nicht, dass die Spannung das Problem ist. Die ist schon bei gleichem Takt deutlich niedriger als bei RDNA2 (und der 7600?). Außerdem müsste der hohe Verbrauch (bzw. der Takt) dann bei nahezu jedem Workload konstant sein, so wie es in Tests bei Ada der Fall ist. RDNA3 aber zeigt massiv unterschiedliches Verhalten je Workload, d.h. die Erklärung muss in einzelnen Teilen des GCDs zu finden sein.
OgrEGT
2023-08-18, 14:45:58
Bei GPGPU läuft RDNA3 eigentlich wie er soll mit hohen Taktraten... es müssen Berechnungen an einer oder mehreren Stellen in der 3D Rendering Pipeline sein die den hohen Verbrauch verursachen... wenn man die Berechnungen der einzelnen Stages simulieren könnte also Schritt für Schritt alle Berechnungen hinzufügen dann müsste man irgendwann die Ursache finden können...?
amdfanuwe
2023-08-18, 16:22:02
Meine Prognose zu N32 Portfolio:
7800XT 16 GB auf Niveau mit 4070 12 GB
7700XT 16 GB auf Niveau mit 4060 Ti 16GB
nach Abverkauf der 6700XT und 6750XT noch eine
7600XT 12GB
Bei Full HD Raster stelle ich mir das etwa so vor:
TheGood
2023-08-19, 08:50:45
Die GRE ist ein OEM-Produkt für China. GRE steht für "Golden Rabbit Edition" und "Golden Rabbit" hat irgendwas mit irgendeinem chinesischen Horoskop oder so zu tun. Ohne das Internet würde man wohl gar nicht mitbekommen, dass diese Karte überhaupt existiert. Scheint aber ein netter Marketingzug von AMD zu sein. Durch die GRE sind sie in aller Munde. X-D
Wir sind im Jahr des Golden Rabbit. Drum heisst die karte so.
Liegt an den Tierkreiszeichen ob man die jetzt von der Astrologie ableiten kann. Eher unwahrscheinlcih, da sie ja ein jahr lang gelten.
Zossel
2023-08-19, 09:19:38
Im Schnitt hatte ich 864mV bei im Schnitt 2484Mhz in CP77, was zwar nicht max. heizt wie bsw. APTR aber schon ordentlich.
Mit welchen Messgerät kannst du Spannungen auf ein Millivolt genau messen?
Troyan
2023-08-19, 10:39:20
Bei GPGPU läuft RDNA3 eigentlich wie er soll mit hohen Taktraten... es müssen Berechnungen an einer oder mehreren Stellen in der 3D Rendering Pipeline sein die den hohen Verbrauch verursachen... wenn man die Berechnungen der einzelnen Stages simulieren könnte also Schritt für Schritt alle Berechnungen hinzufügen dann müsste man irgendwann die Ursache finden können...?
Compute benutzt nur ein Teil der GPU. Die Grafikpipeline besteht auch fixed function units, die parallel laufen.
Bei purem Compute-Workload läuft meine 4090 auch nicht mit 450W, sondern mit <350W und höhster Taktrate.
OgrEGT
2023-08-19, 13:13:50
Ja das wäre die Idee. Schritt für Schritt alle Stages der 3D Pipeline mit Berechnungen auszulasten bis der Verbrauch überproportional nach oben geht...
OgrEGT
2023-08-19, 13:19:16
Eigentlich neu an RDNA3 ist das FP32 Dual Issue... ist es möglich dass dieses beim 3D Rendering zu dem hohen Verbrauch führt ohne Mehrwert?
So als rechnen die doppelten Ressourcen für das einfache Ergebnis? Nur bei Compute funktioniert es wie es soll...
Kann man das abschalten?
aufkrawall
2023-08-19, 19:05:45
Gibt im Radeon-Panel für den Pro-Treiber offenbar schon "Anti-Lag+" und "Radeon RT Boost" zur Auswahl.
"RT Boost" im Treiber klingt nach cheaten :D
Wie stark unterscheiden sich die "normalen" von den Pro Treibern? Lässt sich mit den Pro Treibern ganz normal zocken? Gibt es da Tests/Benchmarks?
Lurtz
2023-08-19, 21:57:42
"RT Boost" im Treiber klingt nach cheaten :D
Ja, klingt eher nach RT-"Optimierungen" als nach Frame Generation :D
Thunder99
2023-08-19, 22:26:12
Klingt wie die Tesselation Optimierung ;D
robbitop
2023-08-19, 23:14:55
Der Knopf schaltet RT einfach aus. Braucht man eh nicht. X-D (wer Sarkasmus findet darf ihn behalten)
Exxtreme
2023-08-19, 23:30:36
Oder sie berechnen den RT-Teil nur bei jedem zweiten Bild und dazwischen wird interpoliert. Damit könnte man die RT-Leistung verdoppeln. X-D
BlacKi
2023-08-20, 00:09:43
warum nicht gleich das ganze jede 2. bild interpolieren? aka FG mal davon abgesehen, das nur je 2. bild RT scheiße aussähe.
Ist schon länger im Umlauf, dass AMD für Teile der RT-Berechnungen durch die Matrix-Cores einsetzen möchte. Genau das dürfte RT-Boost sein. Der Treiber nimmt offenbar schon die RT-Beschleunigung (die bis 50% bringen soll) und HyprRX des September-Treibers vorweg. Ich hoffe, dass das alles mit Starfield kommt, auch FSR3 drüfte mit Starfield debütieren. Wenn das gut genug ist, braucht man ja gar kein DLSS, dann wäre der "Skandal" völlig umsonst gewesen ;).
robbitop
2023-08-20, 08:23:40
Keine bisher veröffentlichte RDNA GPU hat Matrixcores und RT nutzt keinen wesentlichen Anteil an Matrizen zur Berechnung.
Matritzen werden auch bei N3x auf den Vektro FPUs gerechnet. Man hat nur einen effizienteren Befehlssatz für Matrixberechnungen spendiert.
Das ist ja nur das, was an Gerüchte im Umlauf war ;).
Die nutzen die Matrixcores auch nicht für RT direkt. Das Gerücht war, man möchte mit KI-Berechnungen RT beschleunigen. Wir werden ja bald erfahren, was da tatsächlich hintersteckt.
TheGood
2023-08-20, 08:32:23
Das würde dann auch eher zum PS5 PRO "RT Monster" passen :D
Stimmt. Irgendwas ist da im Busch. Mal gucken, was. Kann auch ein brauner Haufen sein, man weiß es noch nicht.
robbitop
2023-08-20, 09:28:37
Das was da an Gerüchten da war klang etwas weit hergeholt aber selbst wenn es so ist bräuchte das sehr wahrscheinlich explizite Umsetzung vom Spieleentwickler.
Warten wirs mal ab. RT Boost hört sich jetzt eher nicht danach an, sondern eher nach etwas, was man im Treiber zuschalten kann ;). Man kann dazu einfach nichts sagen, weil man nichts weiß ;).
https://www.tomshardware.com/news/amd-allegedly-preps-rx-6750-gre-to-rival-rtx-4060-ti-at-dollar299
AMD bietet statt ner 7600XT ne nochmals gepimpte 6700GRE an offenbar.
robbitop
2023-08-20, 11:13:49
Wenn's was gegeben hätte, was man über den Treiber stülpen kann, was einen nennenswerten Boost in RT Spielen geben würde (ohne BQ zu opfern) hätte es das längst gegeben. Spielerenderpipelines sind heute so komplex, dass man da nur noch sehr wenig drüberstülpen kann.
Wenn es da wirklich was über das Panel gibt, was hilft, ist stark zu vermuten, dass es dann eher wie bei der Tesselationsoptimierung Samples zurücknimmt. (weniger Lightbounces oder weniger rays pro Pixel oder sowas - Dinge die man eigentlich im Spiel auch einstellen können sollte)
Naja mal schauen - ich bin da jedenfalls sehr skeptisch.
Wenn's was gegeben hätte, was man über den Treiber stülpen kann, was einen nennenswerten Boost in RT Spielen geben würde (ohne BQ zu opfern) hätte es das längst gegeben
Na darum gehts ja, was keine BQ opfert muss man nicht zuschaltbar machen.
Ich denke der Vergleich mit Tesslation trifft es schon gut.
aufkrawall
2023-08-20, 11:31:44
Btw. Quelle:
https://forums.guru3d.com/threads/amd-radeon-software-preview-drivers-dch-uwp.437511/page-106
https://abload.de/thumb/upload_2023-8-18_21-1uyiiq.png (https://abload.de/image.php?img=upload_2023-8-18_21-1uyiiq.png)
Hab den mal installiert, sind keine solche Optionen vorhanden. Die Version vom 3Q23 ist etwas geringer als vom Ratchet and Clank-Treiber, gleicher Branch.
Ab 2019 unterstützen die Radeon Pro-Treiber ja auch die Consumer-Karten. Feel free to test ;). Anscheinend sind das auch nur 2 Optionen, die neu in der UI sind, aber die der Treiber noch nicht unterstützt. Ich würd das mal als Leak-Unfall beschreiben, der rein zufällig zu den Vorabgerüchten passt :D. Ich möchte die Aufmerksamkeit auf das Hypr-RX lenken, dass da als Profil vorhanden ist ;).
Entweder kostet die RT-Optimierung mehr oder weniger BQ, oder es funktioniert schlichtweg nicht überall, was den Schalter ebenfalls nötig machen würde. Oder einfach, damit das mit und ohne testen kann. Ich möchte daran erinnern, dass es auch einen Schalter für die Optimierung des Anisotropen Filterns gibt.
SimonGreen
2023-08-20, 15:11:33
Meine Prognose zu N32 Portfolio:
7800XT 16 GB auf Niveau mit 4070 12 GB
7700XT 16 GB auf Niveau mit 4060 Ti 16GB
nach Abverkauf der 6700XT und 6750XT noch eine
7600XT 12GB
Bei Full HD Raster stelle ich mir das etwa so vor:
Verstehe nicht ganz wo sich die 7800/7800XT einordnen sollen.
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_3840__2160
Wenn ich mir das hier anschaue und die 7800XT, dem Namen nach zu urteilen, langsamer als die GRE wird, sehe ich keine Verbesserungen zum direkten Vorgänger der 6800er Serie.
Wird die 7800XT gleich schnell wie die 6800XT?
Dann könnte man ja nur noch über den Preis kommen. 4070er Niveau @450€
horn 12
2023-08-20, 15:47:07
Rechne September kommt eine Ganze Flut für RDNA 3 daher
ebenso ein Treiber Update und FSR 3.0 Vorstellung bei Starfield InGame gezeigt.
mit Release wohl zu N32 Karten Release Mitte September.
AffenJack
2023-08-20, 15:58:28
Verstehe nicht ganz wo sich die 7800/7800XT einordnen sollen.
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_3840__2160
Wenn ich mir das hier anschaue und die 7800XT, dem Namen nach zu urteilen, langsamer als die GRE wird, sehe ich keine Verbesserungen zum direkten Vorgänger der 6800er Serie.
Wird die 7800XT gleich schnell wie die 6800XT?
Dann könnte man ja nur noch über den Preis kommen. 4070er Niveau @450€
Die 6800XT ist nicht der Vorgänger der 7800XT, das ist eher die 6700. Das ganze Portfolio ist anders angesiedelt und das dürfte man auch beim Preis der N32 GPUs sehen, da sind eher etwas im Bereich 499$ +-X realistisch.
amdfanuwe
2023-08-20, 16:13:13
4070er Niveau @450€
Wo das denn?
Günstigste 12GB 4070 seh ich bei MF ab 595,-
BlacKi
2023-08-20, 16:16:36
genau wie bei nvidia, aber man wirft es ihnen trotzdem vor, das zb. die fortschritte kaum vorhanden sind.
amdfanuwe
2023-08-20, 16:29:52
Spielt doch auch keine Rolle. Wer meint er müsse sich jedes Jahr die neueste x8x kaufen, ist selbst Schuld.
Ich kaufe nach Bedarf, Geldbeutel und aktuellen Testberichten. Da interessiert nur, was aktuell oder in Kürze verfügbar ist.
BlacKi
2023-08-20, 16:49:11
du meinst jede generation, ja das machen viele und viele werden sich daran stören.
Btw. Quelle:
https://forums.guru3d.com/threads/amd-radeon-software-preview-drivers-dch-uwp.437511/page-106
https://abload.de/thumb/upload_2023-8-18_21-1uyiiq.png (https://abload.de/image.php?img=upload_2023-8-18_21-1uyiiq.png)
Wow, das wurde aber spät gefunden. :D
MfG
Raff
https://www.computerbase.de/2023-08/nvidia-geforce-rtx-dlss-3-5-soll-raytracing-huebscher-machen/
Na jo, das oder sowas ähnliches dürfte ähnlich auch hinter AMDs RT-Beschleunigung stecken, nur das AMD wohl nicht mehr Stahlen machen wird sondern mehr Performance.
Ich finds aber schön, dass NV die bessere RT-Leistung in Qualität umsetzt, das hat wirklich was.
Lurtz
2023-08-22, 21:56:41
Wenn AMD über Einsparungen bei der RT-Berechnung Performance gewinnen will, während nVidia mit DLSS 3.5 mit besserer Optik bei eh schon besserer Grund-Performance ums Eck kommt, wird das ein Autounfall :ugly:
Jetzt übertreib mal nicht. Es ist ja gut, dass hier generell was passiert. Die bessere RT-Performance von NV ist doch ein schöner Mehrwert.
Complicated
2023-08-23, 06:47:30
Spannend ist, dass schon DLSS 3 als bessere Optik gefeiert wurde. Jetzt kommt DLSS 3.5 und behebt Probleme die zuvor "gar nicht existierten" wenn man in den RT-Thread im Forum rein schaut.
Die Diskussionen zu dem Thema sind einfach nur toxisch und basieren wenig auf objektiven Eckpunkten, leider.
basix
2023-08-23, 08:53:58
Wie kommst du darauf? Ich glaube jeder weiss, dass die RT-Effekte zu Lag/Smearing/zu geringe Detail-Auflösung neigten. Insbesondere wenn kombiniert mit Temporal Upsampling, welches RT-Effekte aussen vor gelassen hat.
Bei FSR2/3 gab es auch mal Gerüchte, dass man sich dort auf RT konzentriert. Weiss aber nicht, ob da was dran ist. Zu wünschen wäre es.
dildo4u
2023-08-23, 09:04:30
Lumen schmiert auch wie Blöde manchmal hat man so den Eindruck das sich die Masse noch gar nicht mit dem Next-Gen Rendering beschäftigt haben.
Gerade Konsolen/AMD braucht so eine Lösung wenn sie wegen Performance Software Lumen nutzt müssen.(geringer Raycount)
DrFreaK666
2023-08-23, 10:28:14
Als ob sich Konsolen-Gamer sich bei ihrer 500€ Konsole darüber aufregen würden...
dildo4u
2023-08-23, 10:35:47
Es fällt gerade dort auf weil du von einer geringen Auflösung kommst, die meisten Sony Exklusives schaffen zumindest 1080p bis 1440p@60fps.(UE5 720p60fps)
Da muss man nicht auf den PC schauen.
The_Invisible
2023-08-23, 11:32:17
Spannend ist, dass schon DLSS 3 als bessere Optik gefeiert wurde. Jetzt kommt DLSS 3.5 und behebt Probleme die zuvor "gar nicht existierten" wenn man in den RT-Thread im Forum rein schaut.
Die Diskussionen zu dem Thema sind einfach nur toxisch und basieren wenig auf objektiven Eckpunkten, leider.
Klar existieren die Probleme aber Rendering ist niemals perfekt, man muss immer von den Standards ausgehen die derzeit möglich sind. Es geht eben nicht alles von 0 auf 100 sondern mit vielen Zwischenschritten. Man darf sich ja trotzdem freuen wenn Technologie immer weiter gepusht wird.
DrFreaK666
2023-08-23, 11:57:50
Hier ist übrigens voll der coole DLSS-Thread: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13377922#post13377922
DrFreaK666
2023-08-23, 12:16:50
"AMD Teases Upcoming “Enthusiast” Radeon RX 7000 GPU, First Look At New Reference Design"
https://wccftech.com/amd-teases-upcoming-enthusiast-radeon-rx-7000-gpu-first-look-new-reference-design/
Die 7700 sieht knuffig aus
Der_Korken
2023-08-23, 12:46:15
AMD considers all GPUs above the $500 US price range as "Enthusiast-Class" whereas $1000 US & above products are labeled as the "Ultra-Enthusiast Class".
Damit besteht der Markt ja fast nur noch aus "enthusiasts" bei den heutigen Preisen :freak:
][immy
2023-08-23, 12:50:42
Damit besteht der Markt ja fast nur noch aus "enthusiasts" bei den heutigen Preisen :freak:
Ist doch aus so. Wer so viel Geld für eine Komponente ausgibt, will damit wohl auch eher was anfangen können.
"AMD Teases Upcoming “Enthusiast” Radeon RX 7000 GPU, First Look At New Reference Design"
https://wccftech.com/amd-teases-upcoming-enthusiast-radeon-rx-7000-gpu-first-look-new-reference-design/
Die 7700 sieht knuffig aus
Mehr als 200W sind wären bei dem Ding außer Spezifikation ;). Ich tippe mal auf 170W. Heißt die 7800XT wohl doch nur 7800 oder? Mehr als 2 Produkte sind doch unwahrscheinlich. Mal sehen, ist ja nicht mehr weit ;).
dildo4u
2023-08-23, 13:50:40
225 sind möglich 75 Slot plus 150 Stecker.
Mehr als 200W sind wären bei dem Ding außer Spezifikation ;). Ich tippe mal auf 170W. Heißt die 7800XT wohl doch nur 7800 oder? Mehr als 2 Produkte sind doch unwahrscheinlich. Mal sehen, ist ja nicht mehr weit ;).
Nope, 55W mit 12V, genau wie die XTX. Maximal als 205W. Das wird man bei einem so kleinen Produkt (mit ja deutlich billigeren Bauteilen als der XTX) aber nicht auf Kante bauen (schlechte Erfahrungen mit RX480), daher 200W maximal. Da man aber keine 6-Pin-Stecker mehr verbauen wird, könnte das Teil auch 120W haben - find ich aber unwahrscheinlich ;). 3,3V und 5V kommt bei so einem Produkt auf keinen Fall am Limit zum Einsatz.
dildo4u
2023-08-23, 13:55:34
Ah OK warum wurde das 55 Watt beschränkt nicht stabil auf billigen Mainboards?
Stimmt ja nicht, dann würd ja keine XTX laufen...
55W liefert jedes Mobo, Igor bewies ja sogar, dass man weit über 70W über 12V Mobo ziehen kann ohne Probleme zu bekommen, ist schon etliche Jahre her. Den Skandal hatte AMD trotzdem an der Backe und mußte den zurecht ausbaden. Die Spezifikation sind 66W über 12V Mobo, 75W sind die Summe aus allen Spannungen, das würde keiner mehr ans Limit bringen. Bei der XTX entschied sich AMD für 55W über PEG, das ist eine sinnvolle Ausbeute bei einer mit guten Bauteilen bestückten Karte. Damit bleibt man auf jeden Fall immer in der Spezifikation. Bei einer billiger bestückten Karte mit weniger Powerstages/MOSFETs sind die Schwankungen größer, da würde man nicht mehr als 50W aus dem PEG ziehen - es sei den die ganze Karte ist dafür gebaut, nur über den PEG ohne externe Stromversorgung zu laufen, sowas kann man auch bauen.
BlacKi
2023-08-23, 17:19:52
du leitest das von der xtx ab, 300+55=355. aber das ist nicht richtig. es sind 5,5ampere auf der 12v leitung + 3ampere auf der 3,3v leitung.
max 75w gesammt, und 66w auf der 12v leitung alleine für den pcie slot. damit wären also 216w mit 12v und mit gedöns auf der 3,3v leitung, die immer weniger als 9w sind, 225w für die ganze karte
die rx480 hat über den pcie slot teilweiße über 80w gezogen, was ausserhalb der specs war. nach dem fix, hat die karte immernoch 68-72w 12v aus dem mainboard gezogen.
keine ursache:) https://www.igorslab.de/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig/2/
https://www.igorslab.de/sapphire-nitro-radeon-rx-7900-xtx-vapor-x-24-gb-im-test-viel-hilft-viel-auch-bei-der-kuehlung/7/
Die XTX zieht bis zu 5,3A, im Durchschnitt aber eher 5A aus dem PEG, also 60W.
BlacKi
2023-08-23, 18:01:07
richtig, aber ableiten lässt sich daran nichts.
Klar, AMD muss die einhalten ;). Und das macht die Karte ziemlich gut.
BlacKi
2023-08-23, 18:35:50
die 55w muss amd nicht einhalten.
Dino-Fossil
2023-08-24, 14:06:16
Interessanter Artikel auf CB zu RDNA3 vs RDNA2 anhand der 7900GRE vs 6950 XT:
https://www.computerbase.de/2023-08/amd-rdna-2-rdna-3-gaming-vergleich/
tl;dr:
RDNA3 ist im Mittel bei gleichem Takt und Anzahl CUs im Raster ca 5% schneller (allerdings hat die 7900GRE mehr ROPs). Der Vorteil für RDNA3 wird umso größer, je mehr Raytracing genutzt wird (z.B. RT in Cyberpunk2077 bis +23%). Einzelne Titel können RDNA3 deutlich besser schmecken, aber es gibt auch ein paar wenige in denen RDNA2 besser ist.
Tesseract
2023-08-24, 14:41:03
dual issue scheint ein ziemlicher griff ins klo gewesen zu sein. vom massiv höheren theoretischen throughput kommt, zumindest in spielen, kaum was beim user an.
Troyan
2023-08-24, 14:45:30
Naja, das wissen wir seit Kepler schon.
Exxtreme
2023-08-24, 14:45:39
Naja, wenn das "dual issue" billig zu haben ist dann ist das kein Griff ins Klo. Aber ja, auf den AMD-Folien wurde mehr suggeriert.
aufkrawall
2023-08-24, 15:23:41
Naja, wenn das "dual issue" billig zu haben ist dann ist das kein Griff ins Klo.
War es aber offenbar nicht, oder wofür sind die ganzen Transistoren sonst draufgegangen?
Bei Turing -> Ampere hatte Nvidia das in einem massiven Shrink untergebracht bekommen.
robbitop
2023-08-24, 15:27:59
Man muss Implementierung von uArch unterscheiden. Bei N33 sieht man, dass pro CU wesentlich weniger Transistoren geflossen sind als bei N31. Ein Teil davon ist die erhöhte Menge an Registern drauf gegangen bei N31, die N33 nicht hat. Der Rest scheint aber gleich zu sein (dual issue, gleiche Menge an L0 und L1). Da scheinen eine Menge an Transistoren (erfolglos wie auch schon bei Vega als die CUs aus dem Grund fetter wurden) für Taktbarkeit bei N31 draufgegangen zu sein.
Wenn man N33 als Ausgangspunkt nimmt, ist der Mehrverbrauch an Transistoren (wenn man bedenkt, dass auch L0 und L1 Cache pro WGP größer wurden) relativ moderat ggü RDNA2.
Auf jeden Fall war die Verdopplung bei Ampere (ggü Turing) anscheinend deutlich weniger restiktiv, so dass mehr bei rumkam.
Tesseract
2023-08-24, 15:44:16
ist bekannt wievel % mehr fläche dual issue in etwa gekostet hat?
reaperrr
2023-08-24, 16:21:47
ist bekannt wievel % mehr fläche dual issue in etwa gekostet hat?
Bei N33 gar keine, der ist sogar etwas kleiner, als man von einem N23-Shrink auf 6nm erwarten würde.
robbitop
2023-08-24, 16:29:17
ist bekannt wievel % mehr fläche dual issue in etwa gekostet hat?
Ich hab mal ein wenig "Milchmädchen" gespielt.
N23: 11,06 Mrd Transistoren
N33: 13,3 Mrd Transistoren
Beide haben nahezu die gleichen Specs bis auf dass die WGPs etwas mehr L0-L1 Cache haben.
Grob geschätzt fallen ~50% der Transistoren für die WGPs an wenn ich mir einen N23 die shot anschaue.
Pro WGP komme ich bei N23 auf 345 Mio Transistoren und bei N33 auf 415 Mio.
Abzüglich von grob 8,5 Mio Transistoren bei dem N33 WGP für die Cacheerhöhung (128 + 32 kiB pro WGP delta - von einem Zen 2 CCX interpoliert - kann auch total falsch sein weil ich es vom L3 Cache eines Zen 2s als Basis genommen habe).
Also 345 Mio vs 407 Mio. Das sind ~18% mehr Transistoren pro WGP. (wohl gemerkt sind WGPs aber nur ein Teil des Chips).
In einigen Spielen (insbesondere mit besonders "heftigem RT") holt RDNA3 aber anscheinend etwas mehr als 18/2 %. Ich habe schon >20%+ gesehen - allerdings bei 7900GRE vs 6950XT.
https://www.computerbase.de/2023-08/amd-rdna-2-rdna-3-gaming-vergleich/
Andererseits sind in den 18% pro WGP auch die WMMA Instruktionen enthalten und die RT Verbesserungen. Also kann man annehmen, dass Dual issue nur einen Teil der +18% kostet pro WGP.
Die 7600 vs 6650XT (N33 vs N23) schafft bei CP2077 RT sogar deutlich mehr: https://www.computerbase.de/2023-05/amd-radeon-rx-7600-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_1920__1080
Also ich würde sagen, dass bestimmte Workloads mehr davon profitieren. Ggf. ist einfach auch nicht jedes Spiel so extrem compute heavy, dass FP Durchsatz stark limitiert. Heftiger Einsatz von RT scheint compute zu erhöhen, weil ja RDNA3 noch eine Menge "zu Fuss" rechnen muss (weniger FF für die RT Pipeline).
Auf den ersten Blick würde ich sagen: war nicht so teuer - bringt aber auch nicht immer besonders viel.
Bei N33 gar keine, der ist sogar etwas kleiner, als man von einem N23-Shrink auf 6nm erwarten würde.
Besser ist es, Transistoren zu vergleichen in diesem Falle :)
--------------
Für mich sieht RDNA3 bei N33 pro WGP jedenfalls viel sinnvoller aus als RDNA3 in seiner Implementierung bei N31. Es kommt bei N31 einfach zu wenig Mehrtakt heraus.
Aber auch bei N33 als baseline ist RDNA3 pro Watt nicht beeindruckend. Wirkt auf mich wie eine (zu) sanfte Evolution von RDNA2.
reaperrr
2023-08-24, 16:30:12
Interessanter Artikel auf CB zu RDNA3 vs RDNA2 anhand der 7900GRE vs 6950 XT:
https://www.computerbase.de/2023-08/amd-rdna-2-rdna-3-gaming-vergleich/
tl;dr:
RDNA3 ist im Mittel bei gleichem Takt und Anzahl CUs im Raster ca 5% schneller (allerdings hat die 7900GRE mehr ROPs). Der Vorteil für RDNA3 wird umso größer, je mehr Raytracing genutzt wird (z.B. RT in Cyberpunk2077 bis +23%). Einzelne Titel können RDNA3 deutlich besser schmecken, aber es gibt auch ein paar wenige in denen RDNA2 besser ist.
Dass CB hierfür die GRE nimmt macht die Sache (leider) ein Stück weit wertlos, weil die GRE durch den nur halb so großen IF$ viel stärker ins Bandbreitenlimit läuft. Mit 128MB IF$ wäre die GRE definitiv ein paar Prozent schneller, vor allem in 1440p aufwärts.
Besser ist es, Transistoren zu vergleichen in diesem Falle :)
Nur bedingt. N6 soll nur bis zu 18% mehr Logik-Dichte bringen, N33 hat außerdem wesentlich mehr L0- und L1-Cache als N23 sowie 20% mehr Logik-Transistoren, und ist trotzdem fast 15% kleiner.
Am Layout der CUs - zumindest was Packdichte angeht - muss sich also schon einiges getan haben.
Klar, ohne die zusätzliche SIMD wären die CUs vmtl. noch kleiner, aber Fakt ist, die N33-CUs sind offenbar normalisiert auf den gleichen Prozess nicht größer (tendenziell eher kleiner) und bis zu einem bestimmten Takt auch nicht stromhungriger als die von N23, es ist also nicht so, dass Dual-Issue jetzt die Wurzel allen Übels bei RDNA3 wäre, definitiv nicht von der Packdichte/Fläche her, und vom Takt her scheinbar auch nicht wirklich (hier werden ja eher die ROPs verdächtigt).
Dual-Issue scheint für das, was es in einigen Spielen an Mehrperformance bringt, nahezu kostenlos zu sein, was Fläche angeht. In der Beziehung war Ampere schlechter, etwas mehr IPC-Gewinn, aber auch gehörig mehr Transistoren je SM (und normalisiert auf den gleichen Prozess wohl auch Fläche, im Vergleich zu Turing).
robbitop
2023-08-24, 16:33:17
Das 7600 review ist dafür fast besser finde ich. Die 6650XT ist nahezu identisch von den Specs.
Taktraten auch vergleichbar: 7600 im Durchschnitt 2645 MHz / 6650XT im Durchschnitt 2601 MHz. Also unter 2% Abweichung
https://www.computerbase.de/2023-05/amd-radeon-rx-7600-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_1920__1080
https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/2/#abschnitt_die_durchschnittlichen_taktraten_unter_last
Tesseract
2023-08-24, 16:35:02
Bei N33 gar keine, der ist sogar etwas kleiner, als man von einem N23-Shrink auf 6nm erwarten würde.
das funktioniert so nicht. allgemeine größenoptimierungen hätte ein theoretischer RDNA3 ohne dual issue auch mitgenommen.
prinz_valium_2
2023-08-25, 10:08:44
Die RX 7700XT mit 54 CUs könnte bei einem guten Preise eine top Karte werden.
Von der RX 7800XT erwarte ich allerdings wenig.
RitterRost
2023-08-25, 10:14:05
Anscheinend die Spezifikationen:
https://videocardz.com/newz/amd-announces-radeon-rx-7800-xt-16gb-and-rx-7700-xt-12gb-graphics-cards
https://cdn.videocardz.com/1/2023/08/RADEON-RX-7800-7700-SPECS-1-1536x716.jpg
Ich hatte ja auf RDNA 3.5 gehofft...
Linmoum
2023-08-25, 10:18:38
Sie haben die 7800XT tatsächlich - wenn auch nur marginalst - beim Verbrauch über die GRE geprügelt. ;D
Anhand von AMDs Benchmarks ist das dann tatsächlich ca. 6800XT-Niveau bei ~260W. Das ist schon wirklich schwach. Von der 4070 ganz zu schweigen, die 60W weniger zieht und gleich schnell ist. Mit fps-Limit dürfte der Abstand dann sogar noch mal deutlicher anwachsen. Übel.
dildo4u
2023-08-25, 10:23:27
Die 7700XT scheint schlimmer da dort vermutlich billigere Kühler verbaut werden.
Diese Karten müssen irgendwann für unter 400$ verkauft werden.
Linmoum
Klar, musste man ja tun, um die GRE halbwegs zu erreichen und über der 6800XT zu landen, auch wenn da kaum ein Blatt Papier dazwischen passen dürfte wahrscheinlich.
Hart ist, dass die 7700XT nur wenig langsamer sein dürfte von der Grundleistung her, aber es fehlt ja 16MB IF$.
prinz_valium_2
2023-08-25, 10:25:43
Irgendwann?
Die wird wohl hoffentlich für $379 launchen
Die 7800XT für $499
RitterRost
2023-08-25, 10:26:57
Es kommt natürlich auf den Verkaufspreis an.
Nach meinem Check der Computerbase Benchmarks, sehe ich die 7800XT bei Raster eher auf 6950XT Niveau.
Der Gegner scheint die 4070FE zu sein, die 600€ kostet...
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_2560__1440
Linmoum
2023-08-25, 10:28:50
Da AMD mit der 4070 und 4060Ti 16GiB vergleicht, kann man sich vermutlich schon denken, wo die Teile preislich landen werden.
Keine Ahnung, aber der erste Eindruck ist hier sogar noch schlimmer, als bei N31. Und der Preis wird das vermutlich noch weiter verfestigen. Eigentlich müsste man die 7800XT für irgendwas um die $449 launchen, wird AMD aber natürlich nicht tun. Das ist dann wahrscheinlich der Preis der 7700XT. ;D
dargo
2023-08-25, 10:31:36
Anscheinend die Spezifikationen:
https://videocardz.com/newz/amd-announces-radeon-rx-7800-xt-16gb-and-rx-7700-xt-12gb-graphics-cards
https://cdn.videocardz.com/1/2023/08/RADEON-RX-7800-7700-SPECS-1-1536x716.jpg
Ich hatte ja auf RDNA 3.5 gehofft...
Sieht gar nicht mal so schlecht aus der von AMD gewählte Betriebspunkt. Hatte schon mit irgendwas um 2,8Ghz bei N32 gerechnet und entsprechend dann 280-300W. Finde ich gut die Entscheidung von AMD keinen übertriebenen Heizstrahler in dem Segment zu bringen. Die AIBs werden da eh wieder was drauf legen. Und ja... leider sieht das nicht nach einem gefixten RDNA3 aus.
horn 12
2023-08-25, 10:34:12
7800 XT 449 Euro
7700 XT 379 Euro
und wenn´s so kommen sollte hat NV ein Problem.
Dennoch denke ist wird ein knapper Hunderter oben drauf gelegt.
prinz_valium_2
2023-08-25, 10:35:59
Die 4060Ti 8GB oder 16GB ist doch völlig egal was Leistung angeht.
Da zahlst du 100 mehr für nichts.
Die 4060Ti gibt es ab $399.
Mit $379 wäre man günstiger, hätte mehr RAM, und wäre schneller.
Aber ja, bisher hat AMD im GPU Bereich nie etwas wirklich sinnvoll gelauncht.
Dagegen spricht auch die 7600 für $269. Aber auch das war schon leicht overpriced.
Linmoum
2023-08-25, 10:37:14
Es kommt natürlich auf den Verkaufspreis an.
Nach meinem Check der Computerbase Benchmarks, sehe ich die 7800XT bei Raster eher auf 6950XT Niveau.
Der Gegner scheint die 4070FE zu sein, die 600€ kostet...
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_2560__1440Die 7800XT ist selbst bei AMDs eigenen Benchmarks nur minimal vor der 4070. In der Realität dann vermutlich gleich auf, heißt auch ~6800XT. Nur bei Raster wohlgemerkt.
Bei einer 4070 kann ich in 1440p auch entspannt RT nutzen, darauf verzichtet man doch nicht freiwillig, wenn es die Umstände hergeben. Aber gut, AMD hat ja Cyberpunk vs. die 4070 schon ohne RT (mit schönen +23%) gebencht. Weiß aber wahrscheinlich selbst AMD nicht, warum man das mit einer 4070 ohne RT spielen sollte. Völlig sinnlos einfach nur.
Naja, RDNA3 kann man auch mit N32 endgültig abschreiben. Dass man die 7800XT tatsächlich auf/über die GRE prügelt, offenbart mal wieder, wie viel hier schiefgelaufen sein muss. Sie können das jetzt nur noch über den Preis retten, aber da ahne ich wie gesagt auch schon schlimmes. Einfach nur "Raster" als Grundlage für die Bepreisung zu nehmen, ist einfach nicht mehr zeitgemäß und geht an der Realität vorbei.
dargo
2023-08-25, 10:37:25
Linmoum
Klar, musste man ja tun, um die GRE halbwegs zu erreichen und über der 6800XT zu landen, auch wenn da kaum ein Blatt Papier dazwischen passen dürfte wahrscheinlich.
Hart ist, dass die 7700XT nur wenig langsamer sein dürfte von der Grundleistung her, aber es fehlt ja 16MB IF$.
Ich finde daran überhaupt nichts "hart". Endlich macht AMD auch eine vernünftige Produktsegmentierung beim Salvage und nicht wie früher immer diese bekloppten <10% Unterschied bei der Performance zur vollen SKU. Allerdings werden hier womöglich doch wieder nur grob 10-12% bei rum kommen wenn ich die Daten so sehe. ;D Die volle SKU hat 11% mehr Shader, dafür aber weniger Boostclock. :ulol:
dildo4u
2023-08-25, 10:42:51
Die 7800XT ist selbst bei AMDs eigenen Benchmarks nur minimal vor der 4070. In der Realität dann vermutlich gleich auf, heißt auch ~6800XT. Nur bei Raster wohlgemerkt.
Bei einer 4070 kann ich in 1440p auch entspannt RT nutzen, darauf verzichtet man doch nicht freiwillig, wenn es die Umstände hergeben. Aber gut, AMD hat ja Cyberpunk vs. die 4070 schon ohne RT (mit schönen +23%) gebencht. Weiß aber wahrscheinlich selbst AMD nicht, warum man das mit einer 4070 ohne RT spielen sollte. Völlig sinnlos einfach nur.
Naja, RDNA3 kann man auch mit N32 endgültig abschreiben. Dass man die 7800XT tatsächlich auf/über die GRE prügelt, offenbart mal wieder, wie viel hier schiefgelaufen sein muss. Sie können das jetzt nur noch über den Preis retten, aber da ahne ich wie gesagt auch schon schlimmes. Einfach nur "Raster" als Grundlage für die Bepreisung zu nehmen, ist einfach nicht mehr zeitgemäß und geht an der Realität vorbei.
12 GB sind wieder an der Grenze wie 8GB der 3070,daher fällt der RT Vorteil weg PS5 Games haben oft 12GB belegt und kein RT.
Das heißt wenn du PS5 Settings plus RT nutzen willst bist du zwischen 13 bis 16GB.
dargo
2023-08-25, 10:51:38
7800 XT 449 Euro
7700 XT 379 Euro
und wenn´s so kommen sollte hat NV ein Problem.
Dennoch denke ist wird ein knapper Hunderter oben drauf gelegt.
Dann denkst du richtig. ;) Da die RTX 4070 eine UVP von 599$ und die RTX 4060TI 16GB 499$ hat wird es eher so aussehen.
RX 7800XT = 529-549$
RX 7700XT = 449-479$
Rampage 2
2023-08-25, 10:52:35
Ich kann das alles nach wie vor nicht begreifen... was ist bei RDNA3 nur schiefgelaufen? :| Offensichtlich mehr als nur ein Aspekt... (also nicht nur das Taktproblem)
R2
Troyan
2023-08-25, 10:54:11
Das ist echt übel. Die 4060TI liegt bei 160W oder so, die 4070 bei 180W (läuft nicht gegen die 200W). Wenn man überlegt, die eine hat einen 200mm^2 Die und die andere einen beschnitteten 300mm^2 Die, ist AMD wirklich meilenweit hintendran.
Da sieht selbst Navi33 auf 6nm deutlich besser aus.
dargo
2023-08-25, 10:55:23
Zum x-ten Mal... RDNA3 hat kein Taktproblem!!! Wie oft muss man sich in diesem Forum eigentlich wiederholen? Das Problem ist der zu hohe Durst und deshalb müssen Taktraten für ein einigermaßen brauchbares Powerlimit Powerbudget entsprechend runter. Im übrigen wirst du bei der RX 7800XT auch 2,6-2,7Ghz in Games sehen, nur halt nicht bei den höchsten Heizlasten wie zb. in APTR.
Der_Korken
2023-08-25, 10:58:31
263W :ulol:
Das scheint dann wohl die Effizienz von RDNA3 zu sein, wenn der Takt etwas geprügelt wird. Ob es wohl >10% oder <10% Perf/W auf N21 werden?
Und dabei scheint der Takt nichtmal geprügelt worden zu sein, bei 2,4x Ghz Boost. Alter Schwede ist die GPU schlecht. Wer sich letzten Herbst im Sale eine 6800/6900 gekauft hat, hat alles richtig gemacht. Da kann man per MPT noch vernünftig nachoptimieren bzw. überhaupt mal das Powertarget sinnvoll reduzieren. Hier werden ja minimal 0,9*263W = 237W möglich sein. Bestimmt setzt AMD da auch noch einen drauf und hat das minimale Powertarget auf -5 statt -10 eingeschränkt, um noch ein paar mehr Käufe ihrer Produkte zu verhindern.
Edit:
Achso, die 7700XT haut auch noch 245W raus :freak:
Wenn die nicht an der 6800 nonXT vorbeikommt (was bei dem verkleinerten SI nicht unwahrscheinlich ist), wäre sie sogar ineffizienter als N21. Sowas hab ich selten erlebt bei Hardware-Vorstellungen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.