Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
Gott1337
2022-12-04, 22:06:18
ehrlich gesagt, sehe ich das genau anders. amd hat gesagt, das sie effizienter als nv sein will, was nicht geklappt hat und selbst generationsübergreifend schafft man nicht die anvisierten effizienzziele nicht ohne tricks.
die effizienzsteigerung von 50% wurde leicht übertroffen. Effizienter war RDNA2 auch nicht, sind wir ganz ehrlich. Nur unter bestimmten settings aber nicht generell. Jetzt haben sie kein Fertigungsvorteil mehr.
DeadMeat
2022-12-04, 22:31:53
Ist mir klar, aber das sind trotzdem 37% Aufpreis auf den Dollarpreis. 15% davon sind Mwst (1€ = 1,05$ mittlerweile), die restlichen 20% Aufschlag von Händlern und Herstellern.
die 999$ beziehen sich aber nicht auf Customs, welche hier aber gelistet sind. Vermutlich wird man aber außerhalb vom AMD Shop auch die uvp Preise nicht allzu schnell sehen.
Ob die msrp/uvp gehalten werden bei den Referenz Karten ist etwas ganz anderes. Es wären übrigens ~ 1150€ welche die Referenz kosten müsste, ausgehend der letzten generations UVP Preise.
BlacKi
2022-12-04, 23:41:06
asus leakt taktraten ihrer karten.
ASUS TUF Gaming Radeon RX 7900 XTX OC Edition
OC mode:
up to 2615 MHz (Boost Clock) +4.6%
up to 2455 MHz (Game Clock) +6.7%
Default mode:
up to 2565 MHz (Boost Clock) +2.6%
up to 2395 MHz (Game Clock) +4.1%
ASUS TUF Gaming Radeon RX 7900 XT OC Edition*
OC mode:
up to 2535 MHz (Boost Clock) +5.6%
up to 2175 MHz (Game Clock) +8.7%
Default mode:
up to 2500 MHz (Boost Clock) +4.1%
up to 2130 MHz (Game Clock) +6.5%
default sind das dann für die xt dann 2 ghz game clock;D
quelle videocardz
die effizienzsteigerung von 50% wurde leicht übertroffen. Effizienter war RDNA2 auch nicht, sind wir ganz ehrlich. Nur unter bestimmten settings aber nicht generell. Jetzt haben sie kein Fertigungsvorteil mehr.nein, die haben getrickst. das ergebnis liegt nicht beim realen produkt vor, sondern unter bedingungen, die die neue architekur bevorteilt.
Mangel76
2022-12-05, 00:06:01
nein, die haben getrickst. das ergebnis liegt nicht beim realen produkt vor, sondern unter bedingungen, die die neue architekur bevorteilt.
Hä? Es geht doch um die Architektur, die 50% effektiver sein soll, nicht ein bestimmtes Produkt. Und dazu gehört eben auch ein bestimmter Vergleichspunkt. Was dann an Produkten in die Regale wandert ist auch ne Marketingentscheidung und hat wenig mit der Architektur zu tun. Wenn das AMD-Marketing meint, ein Modell mit 500 Watt mit unterirdischer Effizienz bringen zu müssen, sagt das doch nichts über die Effizienz der Architektur als solche aus. Das ist wie bei der Definition von Wirtschaftlichkeit - du kannst nicht Kosten und Nutzen gleichzeitig optimieren, lege eines fest und optimiere das andere!
BlacKi
2022-12-05, 00:12:36
Hä? Es geht doch um die Architektur, die 50% effektiver sein soll, nicht ein bestimmtes Produkt. Und dazu gehört eben auch ein bestimmter Vergleichspunkt. Was dann an Produkten in die Regale wandert ist auch ne Marketingentscheidung und hat wenig mit der Architektur zu tun. Wenn das AMD-Marketing meint, ein Modell mit 500 Watt mit unterirdischer Effizienz bringen zu müssen, sagt das doch nichts über die Effizienz der Architektur als solche aus. Das ist wie bei der Definition von Wirtschaftlichkeit - du kannst nicht Kosten und Nutzen gleichzeitig optimieren, lege eines fest und optimiere das andere!
korken hat es doch schon erklärt. reale produkte, alles andere ist irreführend.
wenn du eine 6900xt und eine 7900xtx mit 300w betreibst, dann hat die 7900xtx einen vorteil, weil sie im effizienteren bereich taktet.
damit ist der architekturvergleich schon nichtmehr gegeben, weil unterschiedliche betriebspunkte.
du siehst auch an den nachträglich gestrichenen benchfolien gegen die 4090, das amd selbst nicht ihr produkt als effizienter hält, obwohl sie der meinung mal waren.
DrFreaK666
2022-12-05, 00:33:17
...wenn du eine 6900xt und eine 7900xtx mit 300w betreibst, dann hat die 7900xtx einen vorteil, weil sie im effizienteren bereich taktet...
Du glaubst also dass die 6900XT bei 355W weniger Effizienzeinbußen hat als die 7900XTX?
BlacKi
2022-12-05, 00:39:38
nein
Der_Korken
2022-12-05, 00:49:20
Du glaubst also dass die 6900XT bei 355W weniger Effizienzeinbußen hat als die 7900XTX?
Ich persönlich würde darauf tippen, ja. Höhere Effizienzeinbußen von 300W auf 355W bedeutet ja, dass der Sweetspot niedriger liegt, denn je weiter man ihn überschreitet, desto größer werden die Effizienzeinbußen.
@Mangel76: Ich verstehe was du meinst, aber imho ist es trotzdem kein besserer Vergleich mit ISO-Power zu testen als mit den finalen Produkten. Wenn du N21 vs N22 bei 225W testest, wird N21 deutlich gewinnen. Demnach wäre die Architektur von N21 effizienter als die von N22, aber dummerweise sind die identisch. Hier würde es mehr Sinn machen N22@225W mit N21@300W zu vergleichen. Auch das ist natürlich nicht optimal, weil N22 dabei höher takten würde, aber die Differenz wäre deutlich kleiner als wenn beide mit 225W laufen würden. Bei N31 wissen wir nicht wie hoch das Verbrauchsniveau ist. Es könnte wie beim Ryzen 7950X sein, der zwar 60% mehr als der 5950X auf dem Papier verbraucht (und dadurch sogar ineffizienter ist!), diesen Verbrauch aber überhaupt nicht benötigt. Es könnte aber auch sein, dass N31 ein Schluckspecht ist, der die 355W braucht, um einigermaßen zu takten.
horn 12
2022-12-05, 00:54:21
Bei den Preisen und dem Mehrtakt lohnen sich die Ganzen Custom Karten der 7900XTX (XT) überhaupt nicht bis kaum (Leiser)
wenn man dann ca. 320 bis 340 mm im Rechner verbaut
und die Slots 3 bis 4 Höhen besetzen.
Dann lieber die Referenz zum "Guten" Preis und die 5% durch UV rausholen!
Tangletingle
2022-12-05, 03:52:09
nein, die haben getrickst. das ergebnis liegt nicht beim realen produkt vor, sondern unter bedingungen, die die neue architekur bevorteilt.
I smell Bullshit. Die 6950 hat eine deutlich schlechtere p/w ratio über 300w. Du behauptet also, dass n31 noch schlechter skaliert als n21? ;D
nein
Was laberst du dann?
Nightspider
2022-12-05, 04:23:11
Bondrewd behauptet ja auch das ein Respin in Arbeit wäre.
Dann würde ich mich aber schon wundern warum sie N31 als 7900XTX releasen.
Dann hätte man N31 als 7800er Reihe und den Respin als 7900er Reihe bringen können.
Ein Respin wäre schon interessant, obwohl dieser wohl zur gleichen Zeit kommen würde wie ein voller Ada Chip.
Die 4090 basiert schließlich auch nur auf einem Salvage Chip. Die 4090ti/ Ada Titan dürfte nochmal 10-15% drauflegen.
Interessanter hätte ich dann einen Midlife Kicker von AMD gefunden, mit 33% mehr CUs. So ein GCD wäre wohl nur ~20-25% größer. Dank gestapeltem IF$ würde die Bandbreite locker für ein hypothetischen N30 ausreichen und man könnte die VRAM Größe bei 24GB belassen.
(falls es denn überhaupt stimmt - gab es überhaupt mal offizielle Aussagen zu stacked MCDs auf AMDs Folien oder in Interviews?)
dargo
2022-12-05, 06:24:45
default sind das dann für die xt dann 2 ghz game clock;D
Blitzmerker. :uclap: Das ist schon seit der Präsentation bekannt.
iamthebear
2022-12-05, 06:48:36
Ansonst fordert hier niemand eine imaginäre Taktrate X, weil die sich so schön liest, sondern weil AMD auf einer Slide selbst damit wirbt, dass ihr Design für >3Ghz ausgelegt und in Gerüchten ständig Taktraten von 3Ghz und mehr genannt wurden.
Auf dem Slide steht "up to" und nichts von > 3GHz
Zum Vergleich:
RDNA2 lief bis 2.8GHz Boosttakt mit der 6500 XT.
Die 6900 XT hatte einen Basistakt von 2015 MHz mit 2250 MHz Boost
Die 7900 XTX hat 2300 MHz Basistakt und angeblich um die 2500 MHz Boost also ca. 200MHz mehr.
Schlag diese 200MHz auf die 2.8GHz der 6500 XT drauf und du hast deine 3GHz.
Die ganzen Leaks mit "fast 4 GHz" waren Schwachsinn genauso wie die ganzen anderen Dual GCD etc.
Nightspider
2022-12-05, 06:58:47
"architected to exceed 3ghz" heißt nicht "up to" ;)
TheGood
2022-12-05, 08:08:43
Ist mir klar, aber das sind trotzdem 37% Aufpreis auf den Dollarpreis. 15% davon sind Mwst (1€ = 1,05$ mittlerweile), die restlichen 20% Aufschlag von Händlern und Herstellern.
Ähm, dir ist schon klar, dass die kleineren Karten von RDNA3 noch kommen und noch nichts über dessen Taktraten bekannt sind? Ansonst fordert hier niemand eine imaginäre Taktrate X, weil die sich so schön liest, sondern weil AMD auf einer Slide selbst damit wirbt, dass ihr Design für >3Ghz ausgelegt und in Gerüchten ständig Taktraten von 3Ghz und mehr genannt wurden. Es würde außerdem auch gut in AMDs Strategie reinpassen und das ist Flächenreduktion.
Ich weiss gar nicht was man hierzu schreiben sollte. ERst stimmst du mir zu um dann irgendwas zu schreiben was komplett gegenteilig ist....
Die ARchitektur soll 3 GHZ+ das ist die Auslegung. Und genau das sagte ich ja, die kleineren Kartren fehlen noch und die könnten ja locker über 3 GHZ laufen.
Damit ist an der Folie nichts mehr auszusetzen....
Daraus zu schließen der N31 fehlen nun 500 und mehr Megahertz ist Wunschdenken der AMD Fans und schlechtreden von NVIDIA Fans....
Und was die Gerüchte sagen hat noch nie was mit echten fakten zu tun gehabt. WAs AMD wirklich wollte werden wir nie erfahren, ausser wir arbeiten in der Grafikchipentwicklung von AMD...
Mangel76
2022-12-05, 08:11:33
korken hat es doch schon erklärt. reale produkte, alles andere ist irreführend.
wenn du eine 6900xt und eine 7900xtx mit 300w betreibst, dann hat die 7900xtx einen vorteil, weil sie im effizienteren bereich taktet.
damit ist der architekturvergleich schon nichtmehr gegeben, weil unterschiedliche betriebspunkte.
du siehst auch an den nachträglich gestrichenen benchfolien gegen die 4090, das amd selbst nicht ihr produkt als effizienter hält, obwohl sie der meinung mal waren.
Das ist genauso Blödsinn. Die 50% wurden lange vorher angegeben, bevor das konkrete Produkt festgetackert wurde. Und wenn das Marketing reingrätscht, ist es eben kein Architekturvergleich mehr. Den kriegst du nur bei gleichen Bedingungen. Ist halt die Frage, welchen Punkt man sich aussucht. Aber Vergleiche an verschiedenen Betriebspunkten sind Produktvergleiche, keine Architekturvergleiche. Der Vorteil, den du bei 300W für die 7900XTX siehst, ist ja gerade der Architekturvorteil, da sie eben auf höheren Takt und Verbrauch ausgelegt ist und hier im effizienteren Bereich läuft. Wie weit das finale Produkt getrieben wird ist dann was anderes. Ein Vergleich mit einer hypothetischen 450W-7900XTX mit mieser Effizienz sagt doch auch nichts über die Effizienz von RDNA3 aus. Dann könnte ich auch fragen, warum nicht gegen die 6950 getestet wird. Der Vergleich wäre sicher noch besser ausgegangen.
Was ich sagen will: ein Produktvergleich auf realen Betriebspunkten vergleicht nicht nur Architekturen, sondern auch ne Menge Marketing bei der Produktplatzierung. Ihr sprecht über Produktvergleiche!
dargo
2022-12-05, 08:14:56
Die ARchitektur soll 3 GHZ+ das ist die Auslegung. Und genau das sagte ich ja, die kleineren Kartren fehlen noch und die könnten ja locker über 3 GHZ laufen.
Damit ist an der Folie nichts mehr auszusetzen....
Richtig, aber bei manchen rennst du da gegen die Wand. Zumindest deuten die 60 CUs von N32 darauf hin, dass N32 einiges höher takten wird als N31 beim von AMD gewählten Betriebspunkt. Denn gleicher Takt würde +60% bei den CUs für N31 bedeuten was zu viel Luft in der Produktsegmentierung bedeuten würde. Da ändert auch ein N31 Salvage mit 84 CUs und weniger Takt zu wenig dran.
BlacKi
2022-12-05, 09:42:59
Was ich sagen will: ein Produktvergleich auf realen Betriebspunkten vergleicht nicht nur Architekturen, sondern auch ne Menge Marketing bei der Produktplatzierung. Ihr sprecht über Produktvergleiche!
aber das hat man doch so bei amd in der vergangenheit. und die amd user waren immer so stolz darauf das die werte real wären. jetzt macht amd denselben bullshit wie NV und plötzlich ist das ok.
I smell Bullshit. Die 6950 hat eine deutlich schlechtere p/w ratio über 300w. Du behauptet also, dass n31 noch schlechter skaliert als n21?
Was laberst du dann?
ich habe gesagt:
damit ist der architekturvergleich schon nichtmehr gegeben, weil unterschiedliche betriebspunkte.
eine 6900xt bei 300w ist stock, eine 7900xtx bei 300w ist eine 7900xtx mit reduziertem powerlimit, weil man mit 355w die +50p/w steigerung nicht erreicht. das ist die verarschung daran.
ich bin da ja nicht alleine...
Der Vergleich sollte dennoch fair sein, d.h. beide Karten sollten in einem ähnlich guten oder ähnlich schlechten Betriebspunkt laufen. Wenn N31 und N21 eine ähnliche Kurve haben bezüglich des absoluten Verbrauchs, dann ist ein Vergleich bei Verbrauch X fair.
mironicus
2022-12-05, 09:45:19
Werden die Reviews eigentlich einen Tag vor Verkaufsstart veröffentlicht, oder startet der Verkauf bereits bei Veröffentlichung der Reviews? Ist immer blöd wenn man keine Zeit hat eine Review zu lesen und die Karten sind dann möglicherweise schon ausverkauft...
rumpeLson
2022-12-05, 09:49:51
Werden die Reviews eigentlich einen Tag vor Verkaufsstart veröffentlicht, oder startet der Verkauf bereits bei Veröffentlichung der Reviews? Ist immer blöd wenn man keine Zeit hat eine Review zu lesen und die Karten sind dann möglicherweise schon ausverkauft...
Ich meine gelesen zu haben, dass das NDA am 12.12. um 15 Uhr fällt.
DrFreaK666
2022-12-05, 10:39:44
...ich bin da ja nicht alleine...
Wieso sind 300W bei der 6900XT nicht fair? Bei wie viel W hätte man beide dann vergleichen sollen? 200W?
BlacKi
2022-12-05, 10:40:21
Wieso sind 300W bei der 6900XT nicht fair? Bei wie viel W hätte man beide dann vergleichen sollen? 200W?nein
DrFreaK666
2022-12-05, 10:43:53
nein
Dann nenn mal eine Zahl, statt dauernd nur zu meckern oder "nein" zu schreiben!
Linmoum
2022-12-05, 11:04:03
Man könnte als Hersteller grundsätzlich die Produkte in der Form vergleichen, wie sie auf den Markt kommen. Also in dem Fall 335W 6950XT vs. 355W 7900XTX. Davon hat der Kunde am meisten.
In dem Fall hätten sie aber augenscheinlich nicht mit +54% werben können, also hat man sich dazu entschieden, die XTX für den Vergleich auf den Sweetspot bzw. näher zum Sweetspot hin einzuschränken. Kriegt der Kunde nicht als Produkt zu kaufen, aber Marketing ist immer fancy.
Ampere-Käufer warten heute ja auch noch auf ihre 1.9x Perf/Watt.
DrFreaK666
2022-12-05, 11:22:14
Rein theoretisch könnte man doch die bekannten FPS-Werte nehmen und ein grobes P/W-Rating der 6950XT und 7900XTX erstellen. Was kommt da heraus?
Ich bin zu faul dafür :D
Berniyh
2022-12-05, 11:24:49
Den Vergleich kann man doch machen wie man will, bei jeder Variante wird irgendwer irgendwas zum Meckern finden. ;)
unl34shed
2022-12-05, 11:25:55
Man könnte als Hersteller grundsätzlich die Produkte in der Form vergleichen, wie sie auf den Markt kommen. Also in dem Fall 335W 6950XT vs. 355W 7900XTX. Davon hat der Kunde am meisten.
Dann wäre es aber ein Produktvergleich und kein Architekturvergleich. AMD hat aber die beiden Architekturen verglichen. Ja das ist für den Kunden weniger interessant, weil er das so nicht kaufen kann.
dargo
2022-12-05, 11:33:33
Dann wäre es aber ein Produktvergleich und kein Architekturvergleich. AMD hat aber die beiden Architekturen verglichen. Ja das ist für den Kunden weniger interessant, weil er das so nicht kaufen kann.
Doch... kann er, nennt sich RX 7900XT.
Linmoum
2022-12-05, 11:41:17
Die 7900XT wird meilenweit von +54% Perf/Watt entfernt sein gegenüber einer 6900XT. Was auch logisch ist, wenn man sieht, wie beschnitten die Karte ggü. der XTX ist.
BlacKi
2022-12-05, 11:59:34
Dann nenn mal eine Zahl, statt dauernd nur zu meckern oder "nein" zu schreiben!kein bock mich ständig zu wiederholen, aber ich hab stock gesagt.
Doch... kann er, nennt sich RX 7900XT.
das ist auch kein guter vergleich, salvage vs full chip.
Die 7900XT wird meilenweit von +54% Perf/Watt entfernt sein gegenüber einer 6900XT. Was auch logisch ist, wenn man sieht, wie beschnitten die Karte ggü. der XTX ist.
der punkt ist, das amd die folien mit +50% p/w zum zeitpunkt released hat, wo es noch keine 6950xt gab. also kann man sich nicht auf die 6950xt beziehen.
also müsste man für einen stock fullchip vergleich wirklich die 6900xt nehmen.
dargo
2022-12-05, 12:18:24
das ist auch kein guter vergleich, salvage vs full chip.
Bei dir hilft doch eh nichts mehr. Nur noch Kindergarten hier.
Die 7900XT wird meilenweit von +54% Perf/Watt entfernt sein gegenüber einer 6900XT. Was auch logisch ist, wenn man sieht, wie beschnitten die Karte ggü. der XTX ist.
Na und? Trotzdem hast du einen 300W vs. 300W Vergleich. Ihr solltet euch schon entscheiden was ihr wollt, außer natürlich belangloses rumkacken.
DrFreaK666
2022-12-05, 12:20:21
...
der punkt ist, das amd die folien mit +50% p/w zum zeitpunkt released hat, wo es noch keine 6950xt gab. also kann man sich nicht auf die 6950xt beziehen.
...
AMD sagte 50+% effizienter als RDNA2 und nicht als 6900XT.
Die Folie ist übrigens von Juni 2022
https://www.computerbase.de/2022-06/radeon-rx-7000-und-mi300-rdna-3-kommt-mit-chiplets-aber-erst-cdna-3-stapelt-sie/
Die 6950XT kam im Mai
nordic_pegasus
2022-12-05, 12:39:39
https://www.computerbase.de/2022-12/asus-tuf-gaming-oc-radeon-rx-7900-xtx-7900-xt-custom-design/
Asus legt bei der 7900XTX TUF maximal 4,6%/6,7% im Boost/Game Mode drauf. Damit maximal 2615MHz... also keine Custom-Karten mit 3GHz+ im Anmarsch? Hätte mich auch sehr stark gewundert, wenn hier AMD bei der Referenz-Karte so viel Takt verschenkt hätte.
Mangel76
2022-12-05, 12:40:19
aber das hat man doch so bei amd in der vergangenheit. und die amd user waren immer so stolz darauf das die werte real wären. jetzt macht amd denselben bullshit wie NV und plötzlich ist das ok.
Das ist Strohmann-Argumentation, denn das habe ich ja nie behauptet. Und ein Vergleich von tatsächlichen Produkten ist genauso sinnvoll, aber eben kein Architekturvergleich. Wenn die 7900XTX bei 300W 50% schneller ist als die 6900XT, dann kriege ich eben 50% mehr Leistung bei gleichem Verbrauch. Das ist Effekt der neuen Architektur. Wenn AMD das Ding aber völlig überzieht und mit 450W aber kaum besserer Leistung pro Watt releasen würde, dann ist die Architektur immer noch gut, das konkrete Produkt aber völlig indiskutabel.
amdfanuwe
2022-12-05, 12:48:27
der punkt ist, das amd die folien mit +50% p/w zum zeitpunkt released hat, wo es noch keine 6950xt gab. also kann man sich nicht auf die 6950xt beziehen.
also müsste man für einen stock fullchip vergleich wirklich die 6900xt nehmen.
Wieviel mehr P/W hat eigentlich die 6950XT gegenüber der 6900XT?
Ich mein nur, weil die P/W Aussage sich auf die 6900XT bezieht und die Benches sich auf 6950XT.
DrFreaK666
2022-12-05, 13:26:01
kein bock mich ständig zu wiederholen, aber ich hab stock gesagt...
Ich hab mir nun doch die Arbeit gemacht und alle Einzelwerte verglichen (7900XTX vs 6950XT (ohne die "up to"s)).
Ich komme auf durchschnittlich 59.6% höhere Performance, was seltsam ist.
Darf gerne jemand gegenrechnen
Gipsel
2022-12-05, 13:41:15
Ich hab mir nun doch die Arbeit gemacht und alle Einzelwerte verglichen (7900XTX vs 6950XT (ohne die "up to"s)).
Ich komme auf durchschnittlich 59.6% höhere Performance, was seltsam ist.Was genau ist seltsam?
Davon unabhängig:
159,6% Leistung im Vergleich zu 335W/355W => 150,6% Performance/W (+50,6%) der 7970XTX zur 6950XT @ Stock.
Lohnt sich jetzt soviel Aufhebens darum zu machen, ob es nun 51%, 54% oder 56% sind, wenn das auf dem Level genau so von der Benchmarkauswahl beeinflußt wird? :rolleyes:
DrFreaK666
2022-12-05, 13:46:47
Wie kommst du auf die 50,6%?
Der_Korken
2022-12-05, 13:48:02
Die ganzen Leaks mit "fast 4 GHz" waren Schwachsinn genauso wie die ganzen anderen Dual GCD etc.
Da bin ich absolut bei dir, das waren übertriebene Phantasie-Werte so wie bei RDNA2 mit Modellen >80 CUs oder Performance-Werte, wo man 1:1 die Rohleistung der Dual-Issue-CUs umgerechnet hat. Die Dual-GCD-Geschichte mit 2xN32 fand ich alleine schon deswegen immer Quatsch, weil das mit 120CUs nur +25% gegenüber N31 wären. Abzüglich Skalierungseffekte ist das doch kaum schneller, dafür lohnt der Aufwand nicht.
Ich weiss gar nicht was man hierzu schreiben sollte. ERst stimmst du mir zu um dann irgendwas zu schreiben was komplett gegenteilig ist....
Eigentlich habe ich dir überhaupt nicht zugestimmt. Du hast dich über die Erwartungshaltung bezüglich N31 aufgeregt mit der Begründung, dass der Topdog bisher quasi nie die höchsten Taktraten hatte. Das ergibt aber keinen Sinn, weil die anderen RDNA3-Karten bisher komplett fehlen. Ich wüsste jedenfalls nicht, dass bereits bekannt wäre dass N32 und N33 definitiv <3Ghz takten würden.
Das ist Strohmann-Argumentation, denn das habe ich ja nie behauptet. Und ein Vergleich von tatsächlichen Produkten ist genauso sinnvoll, aber eben kein Architekturvergleich. Wenn die 7900XTX bei 300W 50% schneller ist als die 6900XT, dann kriege ich eben 50% mehr Leistung bei gleichem Verbrauch. Das ist Effekt der neuen Architektur.
Eben nicht. Siehe mein Beispiel mit N21 und N22. Wenn du jeweils eine 6700XT und eine 6900XT in die Hand gedrückt bekommst ohne irgendein Wissen über die dahinterliegende Architektur und würdest diese Karten bei einem festen Powerlimit testen, wird das Ergebnis immer sein, dass die 6900XT deutlich effizienter als die 6700XT sein wird. Folglich müsste der Chip in der 6900XT eine effizientere Architektur haben als der in der 6700XT. Das stimmt aber nicht, denn die Architektur ist identisch. Durch Verschieben der Betriebspunkte kann man sich jede Karte irgendwie (in-)effizient rechnen, da sehe ich nicht warum ein fixes Powerlimit ein repräsentativeres Ergebnis abliefern sollte als ein Vergleich bei den finalen Specs.
Gipsel
2022-12-05, 14:03:10
Wie kommst du auf die 50,6%?
|TDP [W]|rel. Performance
7900XTX|355|159,6
6950XT|335|100
Und dann rechnen: 159,6 * 335 / 355 = 150,6
=> 50,6% mehr Performance pro Watt der 7900XTX gegenüber der 6950XT in der von Dir präsentierten Benchmarkauswahl.
Achja, was war nun an den von Dir genannten 59,6% Mehrperformance seltsam?
DrFreaK666
2022-12-05, 14:26:10
Bei mir ist das die Lösung. Was mache ich falsch?
https://abload.de/img/screenshot_20221205_194irb.jpg (https://abload.de/image.php?img=screenshot_20221205_194irb.jpg)
OgrEGT
2022-12-05, 14:26:42
Rein theoretisch könnte man doch die bekannten FPS-Werte nehmen und ein grobes P/W-Rating der 6950XT und 7900XTX erstellen. Was kommt da heraus?
Ich bin zu faul dafür :D
Ich hatte das Mitte November für CP77 4K RT off gemacht...
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13169585#post13169585
Perf/W ist bei den 4/5N GPUs besser, als bei 7N... allerdings bringen sie weniger Perf pro theoretischer FP32 Perf auf die Straße... Ist wie gesagt aber nur CP77, also ein Spiel...
Wenn man die geschätzten Werte von Igor durch die von AMD ersetzt, dann ergibt sich im Wesentlichen das gleiche Bild, nur geringfügig besser für 7900XT/X...
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81704&stc=1&d=1670247267
Der_Korken
2022-12-05, 14:33:14
Bei mir ist das die Lösung. Was mache ich falsch?
https://abload.de/img/screenshot_20221205_194irb.jpg (https://abload.de/image.php?img=screenshot_20221205_194irb.jpg)
Du musst mit 159,6 anfangen.
DrFreaK666
2022-12-05, 14:34:32
Du musst mit 159,6 anfangen.
Ok, so komme ich auf die 150,6.
AMD sagte aber 54% bessere Effizienz und nicht 154% bessere Effizienz!?
Gipsel
2022-12-05, 14:35:07
Bei mir ist das die Lösung. Was mache ich falsch?
https://abload.de/img/screenshot_20221205_194irb.jpg (https://abload.de/image.php?img=screenshot_20221205_194irb.jpg)
Du mußt die relative Gesamtperformance (159,6%) ansetzen (das Verhältnis 7900XTX / 6950XT) und nicht nur die relative Mehrperformance ([7900XTX - 6950XT] / 6950XT). ;)
DrFreaK666
2022-12-05, 14:37:02
Du mußt die relative Gesamtperformance (159,6%) ansetzen (das Verhältnis 7900XTX / 6950XT) und nicht nur die relative Mehrperformance ([7900XTX - 6950XT] / 6950XT). ;)
Ich glaub dir einfach mal. 50,6% sind ja auch mehr als 50%, die AMD im Juni versprochen hat
...Achja, was war nun an den von Dir genannten 59,6% Mehrperformance seltsam?
Und um noch deine Frage zu beantworten: mit meiner falschen Rechnung wäre die Effizienz besser als die von AMD angegebene. Deswegen fand ich es seltsam.
Der_Korken
2022-12-05, 14:41:05
Ok, so komme ich auf die 150,6.
AMD sagte aber 54% bessere Effizienz und nicht 154% bessere Effizienz!?
Erstens wissen wir nicht exakt welche Werte AMD benutzt hat. Wenn man den Parcour leicht ändert, kommen direkt andere Werte raus. Und/oder es ist der Effekt, dass die 54% bei einem 300W-Vergleich entstanden sind. Zugegeben, die 50% vs 54% sind am Ende schon etwas Haarspalterei.
Lehdro
2022-12-05, 15:19:36
Zudem kann es seit den Messungen noch Treiberverbesserungen gegeben haben bis zum baldigen Release - ziemlich sicher sogar. Bis zum Release ist das also eh alles egal, denn erst dann muss AMD liefern. Von daher nehme ich solche Werte einfach hin, besondere Aussagekraft hat nur die relative Höhe (20%? 50%? 100%?), auf ein paar Prozente hin oder her würde ich mich da nicht fixieren.
Complicated
2022-12-05, 15:19:54
kein bock mich ständig zu wiederholen, aber ich hab stock gesagt.
Das ist halt kein Betriebspunkt - Du meinst ein Benchmark-Setup.
Erstens wissen wir nicht exakt welche Werte AMD benutzt hat. Wenn man den Parcour leicht ändert, kommen direkt andere Werte raus. Und/oder es ist der Effekt, dass die 54% bei einem 300W-Vergleich entstanden sind. Zugegeben, die 50% vs 54% sind am Ende schon etwas Haarspalterei.
Und genau die selbe Argumentation über Benchmark-Parcours mit SKUs.
Ihr wiederholt euch ohne einzusehen, dass dies völlig irrelevant ist, wenn AMD einen Architekturvergleich macht und die Rahmenbedingungen dafür transparent macht. Den Betriebspunkt haben sie festgelegt und genannt: 300W Verbrauch.
Tester dürfen ja gerne dann die Benches mit anderen Betriebspunkten machen und die Kurven der getesteten SKUs machen. Was AMD da falsch oder unfair gemacht haben soll ist eben für keinen nachvollziehbar, auch nicht in der 10 falschen Wiederholung.
Linmoum
2022-12-05, 15:23:22
Den haben sie ganz klein in den Footnotes genannt. Was nicht verwerflich ist.
Wenn man aber groß +54% verkündet und sämtliche Benchmarks mit der 6950XT vergleicht, bei Perf/Watt davon aber abweicht und auf eine 6900XT zurückgreift, dann ist sowas wenig optimal. Gilt für alle Hersteller.
Complicated
2022-12-05, 15:29:31
Wenn ich "bis zu" angeben möchte, dann suche ich doch den Betriebspunkt/Vergleich, der mir die Bestmarke darstellt für die gewünschte Metrik. Selbst Testredaktionen schreiben in Texten "bis zu xy% Mehrperformance" und nehmen den Max-Wert der gefunden wurde.
Troyan
2022-12-05, 15:31:02
Das ist halt kein Betriebspunkt - Du meinst ein Benchmark-Setup.
Und genau die selbe Argumentation über Benchmark-Parcours mit SKUs.
Ihr wiederholt euch ohne einzusehen, dass dies völlig irrelevant ist, wenn AMD einen Architekturvergleich macht und die Rahmenbedingungen dafür transparent macht. Den Betriebspunkt haben sie festgelegt und genannt: 300W Verbrauch.
Tester dürfen ja gerne dann die Benches mit anderen Betriebspunkten machen und die Kurven der getesteten SKUs machen. Was AMD da falsch oder unfair gemacht haben soll ist eben für keinen nachvollziehbar, auch nicht in der 10 falschen Wiederholung.
Also wird die 7900XT 54% schneller als die 6900XT sein?
Complicated
2022-12-05, 15:47:40
Wer hat das denn behauptet?
Effizientere Architektur bei 300W ist doch nicht das selbe wie schneller im Vergleich von 2 bestimmten SKUs. Hört doch mal auf die Metriken zu vermischen. Oder hört auf über etwas zu diskutieren, das ihr nicht versteht und mehrfach erklärt bekommen habt, von verschiedenen Leuten hier.
Gipsel
2022-12-05, 15:53:17
Was für eine Phantomdiskussion soll das hier werden?
Wir wissen, was verglichen wurde. Und Jedem (oder auch jedem Tester) steht es frei, auch was Anderes zu vergleichen. Als Beispiel mit den von DrFreak666 herausgesuchten Zahlen (Vergleich von 7900XTX mit 6950XT bei jeweiligen Standard-TDP-Settings) kommt dann beispielsweise knapp 51% höhere Performance pro Watt raus.
Spielt das irgendeine nennenswerte Rolle? Meiner Meinung nach nein.
OpenVMSwartoll
2022-12-05, 16:05:24
Edit: Geschenkt
Berniyh
2022-12-05, 16:15:24
Ok, so komme ich auf die 150,6.
AMD sagte aber 54% bessere Effizienz und nicht 154% bessere Effizienz!?
54%+ ist eine relative Angabe, wenn du nur darauf die unterschiedliche Wattzahl beziehst, dann würdest du davon ausgehen, dass 7900XTX die ersten 100% mit gleicher Wattzahl erziehen und dann nur die 54% drauf mit höherer Leistung. Was aber nicht stimmt. ;)
amdfanuwe
2022-12-05, 16:22:44
Also wird die 7900XT 54% schneller als die 6900XT sein?
nein
Musst schon dieselbe Konfiguration wie AMD verwenden:
81709
Also eine 7900XTX auf 300W TBP eingestellt erreicht bei den getesteten Spielen im Schnitt ~50% mehr FPS gegenüber einer 6900XT.
Dural
2022-12-05, 16:35:36
"...in select titles..."
Das Ding hat +20% Alus drin (5120 - 6144) bei weniger Takt und die doppelte FP32 Leistung wird schlechter skalieren als bei Ada, alles andere wäre eine Überraschung.
Ich drücke die Daumen :up:
aufkrawall
2022-12-05, 16:43:06
Was für eine Phantomdiskussion soll das hier werden?
Die seltsame Obsession um ein paar % Effizienz um der Effizienz wegen, scheint hier ein Hobby vieler zu sein. Viel gravierender, ob AMDs Aussagen um ein paar Prozent jetzt so oder anders zu deuten sind, ist dann wohl eher die grottenschlechte Effizienz bei RT und deutlich seltener gescheites Upsampling als mit DLSS, um etwa im Notebook die Akkulaufzeit ohne Ekel-Grafik zu erhöhen.
Sorry für diesen Realitätseinschub...
Complicated
2022-12-05, 16:54:19
"...in select titles..."
Und wer testet ALLE titles?
robbitop
2022-12-05, 16:59:34
"...in select titles..."
Das Ding hat +20% Alus drin (5120 - 6144) bei weniger Takt und die doppelte FP32 Leistung wird schlechter skalieren als bei Ada, alles andere wäre eine Überraschung.
Ich drücke die Daumen :up:
Ich hab das rohleistungsnormiert verglichen. Die RDNA3 CUs bringen 90-95% der Leistung eines Ada SMs auf die Straße. Man muss natürlich richtige Tests abwarten.
TheGood
2022-12-05, 22:57:17
Eigentlich habe ich dir überhaupt nicht zugestimmt. Du hast dich über die Erwartungshaltung bezüglich N31 aufgeregt mit der Begründung, dass der Topdog bisher quasi nie die höchsten Taktraten hatte. Das ergibt aber keinen Sinn, weil die anderen RDNA3-Karten bisher komplett fehlen. Ich wüsste jedenfalls nicht, dass bereits bekannt wäre dass N32 und N33 definitiv <3Ghz takten würden.
.
Jein. Ich verstehe die Diskussion um die 3 GHZ+ der RDNA 3 Diskussion nicht in Bezug auf die N31, welche diese ja nicht erreicht.
Danach hatte ich genaus das geschrieben, was du mir dann darauf geantwortet hattest: die Frage ob RDNA3 3ghz+ liefert oder nicht können wir erst sagen nachdem die kleineren Chips raus sind und daher ist die Diskussion um N31 und deren Taktziel einfach falsch und sinnlos und wird nur für irgendwelche Phantomdiskussionen genutzt...
Von dem her stimmst du mir doch sehr wohl zu in dem was ich geschrieben habe... Wir beiden sagen man muss die kleineren Chips abwarten, um das zu bewerten.
Nightspider
2022-12-06, 02:08:55
Vielleicht sollte man bei dieser Diskussion noch erwähnen, das es zwar stimmt, das die kleinsten Ableger der RDNA2 Reihe schon nah der 3Ghz Marke waren aber das es bei der RDNA3 Reihe scheinbar gar keine so kleinen Ableger geben wird.
Scheinbar ist Navi33 der kleinste RDAN3 Chip und der kommt sogar im älteren N6 Prozess.
Alles darunter wird wohl durch zukünftige APUs abgedeckt.
Im Januar werden wohl bereits die N4 APUs vorgestellt und ein Jahr später sichlich die N3 APUs.
Sicherlich wäre da zumindest noch Platz für eine N34 GPU aber das wars dann wahrscheinlich auch.
Aber günstiger ist es dann wohl die LastGen in diesem Bereich einfach weiter zu produzieren und zu verkaufen. Da spart man Ressourcen.
PS: Rembrandt boostet ja schon auf 2,4Ghz bei der GPU. Der Nachfolger mit RDNA3 in N4 könnte durchaus auch knapp unter oder auf der 3Ghz Marke landen.
APUs sind in dem Kontext aber nicht gemeint gewesen.
Edgecrusher86
2022-12-06, 13:31:10
Igorslab: Startschwierigkeiten bei AMDs Radeon RX 7900XTX und 7900XT? Boardpartner scheinbar mit Problemen und Verzögerungen (https://www.igorslab.de/startschwierigkeiten-bei-amds-radeon-rx-7900xtx-und-7900xt-boardpartner-scheinbar-mit-problemen-und-verzoegerungen/)
Klingt nach 2020.
Linmoum
2022-12-06, 14:01:47
Ob AMD es auch außerhalb von irgendwelchen Mining-Einflüssen jemals schafft, einen reibungslosen GPU-Launch hinsichtlich Verfügbarkeit abzuliefern?
Kann doch nicht sein, dass Nvidia ständig zaubert und Karten - vor allem Customs - gut verfügbar hat und man bei AMD etliche Wochen warten muss.
Ok, vielleicht hat Igor doch unrecht. Benefit of the doubt bis in einer Woche. Aber ich befürchte es nicht.
Die Powercolor-Karten gibt es wohl bereits am 13.12.!
Matrix316
2022-12-06, 14:36:33
Wenn die Boardpartner nicht gleich liefern können... so kann man auch 4080 verkaufen. :ugly:
davidzo
2022-12-06, 14:55:54
Sicherlich wäre da zumindest noch Platz für eine N34 GPU aber das wars dann wahrscheinlich auch.
Aber günstiger ist es dann wohl die LastGen in diesem Bereich einfach weiter zu produzieren und zu verkaufen. Da spart man Ressourcen.
Genau, denn sobald 32Gbit GDDR6 Module verfügbar sind, ist N24 auch wieder gangbar. Clamshell mode ist auch ne Alternative, aber auf Dauer wohl nicht günstig genug, sonst hätten wir es häufiger gesehen.
Performance spielt in dieser Leistungsklasse eh keine Rolle und N24 hat bereits alle Checklistenfeatures die ein N34 bräuchte und wird ebenfalls im sehr gut verfügbaren N6 Produziert, ganz wie N33. Die nur 4GB VRAM sind das einzige was auf der Box / Sticker schlecht aussieht.
Videocodecs in der GPU braucht es auch nicht mehr. Intel hat sowieso sehr gute eigene Codecs in der CPU und AMD seit Zen4 ebenfalls. Das mach auch Sinn für das Power Management, denn bisher waren es die Media Codecs in der GPU welche im Videobetrieb verhindern dass der GDDR6 Controller sich schlafen legt. Der Dram-controller der CPU ist deutlich sparsamer, schnell genug und wahrscheinlich eh awake.
Navi24 ist der ideale Lowcost Chip für die Zukunft, daran ändern auch eine neuere RDNA3 Architektur nichts. Wir werden in 2030 immer noch Navi entrylevel Karten für 30-50€ in den Regalen sehen, genau wie wir aktuell noch 10 Jahre alte R7 240s (GCN1 Oland) oder GT710s bei den Händlern liegen haben (GK208). Polaris12 / lexa ist raus, wegen des verschwenderischen 128bit SI, dem Featureset welches nicht besser als GCN1/Oland ist und einfach weil 14/12nm Finfet zugunsten von N6 zurückgefahren wird.
iamthebear
2022-12-06, 16:08:45
Ob AMD es auch außerhalb von irgendwelchen Mining-Einflüssen jemals schafft, einen reibungslosen GPU-Launch hinsichtlich Verfügbarkeit abzuliefern?
Kann doch nicht sein, dass Nvidia ständig zaubert und Karten - vor allem Customs - gut verfügbar hat und man bei AMD etliche Wochen warten muss.
Ok, vielleicht hat Igor doch unrecht. Benefit of the doubt bis in einer Woche. Aber ich befürchte es nicht.
Tja bei Nvidia haben die AIBs auch schon Monate vor Launch erste Prototypen und es leaken fröhlich diverse Hardwaredetails.
Bei AMD ist bis auf Angstronomics noch nichts ausgesickert. Davon kann man denke ich ableiten, dass die AIBs noch nicht so weit sind.
Ravenhearth
2022-12-07, 07:27:34
9iEDpXyFLFU
GerryB
2022-12-07, 09:59:41
Vielleicht sollte man bei dieser Diskussion noch erwähnen, das es zwar stimmt, das die kleinsten Ableger der RDNA2 Reihe schon nah der 3Ghz Marke waren aber das ...
in der 24/7 Praxis kaum Jemand soviel Takt braucht, ... nur@h2o erträglich
(bei der 6900@300W TBP sinds mit UVen gerade mal 2450MHz = rein zufällig auch der Betriebspunkt von der 7900)
Also
wichtig ist eigentlich für so ne Ref.graka mit "kleinem" Kühler, ob das UVen genausogut funzt!
mal ein Bsp. aus dem Luxx, wo ne 6900 mit 300W@UVen landet, ... da dann 50% mooore wäre nice to have
(in RZ-Games sicher ausreichend)
Gipsel
2022-12-07, 10:24:56
in der 24/7 Praxis kaum Jemand soviel Takt braucht,Mehr Takt => mehr Leistung. Und mehr Leistung wollen die meisten.
... nur@h2o erträglichWas erträglich ist, hängt vom Stromverbrauch (eventuell noch pro Fläche) ab, nicht vom Takt per se. Bei einer 6500XT sind auch 2,8GHz drin (das macht die @stock), ohne das es unerträglich wird. ;)
(bei der 6900@300W TBP sinds mit UVen gerade mal 2450MHz = rein zufällig auch der Betriebspunkt von der 7900)Nur sind das unterschiedliche Architekturen auf unterschiedlichen Prozessen. Da hätte es auch deutliche Änderungen geben können.
GerryB
2022-12-07, 11:22:07
Die Rasterleistung wird auch ohne 3Gig reichen und für RT nehmen die Käufer eeh ne andere Colour.
und
3Gig mit der Brechstange bringts nur mit viiiel Watt+Abwärme und Lärm.
(wäre mir in meinem kleinen Homeoffice too much)
Und mein Post oben passte auch gerade ideal zu dem Aspekt, das AMD mit 300W für die 50% more vergleicht.
Wer ohne Ende mehr Leistung will, sollte eeh auf die 4090Ti warten.
Das ist eigentlich net DAS, was der typische AMD-user braucht und bezahlen will.
Wenn die Boardpartner nicht gleich liefern können... so kann man auch 4080 verkaufen. :ugly:
Nicht zu den Preisen :freak:
OgrEGT
2022-12-07, 12:15:39
XFX Radeon RX 7900 XTX and 7900 XT Merc 310 GPUs have been pictured
https://videocardz.com/newz/xfx-radeon-rx-7900-xtx-and-7900-xt-merc-310-gpus-have-been-pictured
Sieht flach aber lang aus...
Und...
ASRock preps liquid-cooled Radeon RX 7900 XTX AQUA graphics card
https://videocardz.com/newz/asrock-preps-liquid-cooled-radeon-rx-7900-xtx-aqua-graphics-card
Gipsel
2022-12-07, 12:24:29
Die Rasterleistung wird auch ohne 3Gig reichen und für RT nehmen die Käufer eeh ne andere Colour.Und für den Arbeitsspeicher werden 640kB auch reichen...
Mal aus der Luft gegriffenen +20% Mehrleistung sowohl in Raster als auch RT würde sicher keiner ablehnen und verschöbe die Erwägungen bei Kaufentscheidungen vermutlich schon ein wenig.
3 Gig mit der Brechstange bringts nur mit viiiel Watt+Abwärme und Lärm.Es ging doch irgendwie auch darum, daß man bei RDNA3 eventuell auch 3GHz ohne Brechstange und viel Abwärme hätte sehen können.
Deine Deklarationen sind vor Allem eines: zu absolut. ;)
Wenn die Boardpartner nicht gleich liefern können...
... just buy from AMD direct.
][immy
2022-12-07, 16:06:03
Und für den Arbeitsspeicher werden 640kB auch reichen...
Mal aus der Luft gegriffenen +20% Mehrleistung sowohl in Raster als auch RT würde sicher keiner ablehnen und verschöbe die Erwägungen bei Kaufentscheidungen vermutlich schon ein wenig.
Es ging doch irgendwie auch darum, daß man bei RDNA3 eventuell auch 3GHz ohne Brechstange und viel Abwärme hätte sehen können.
Deine Deklarationen sind vor Allem eines: zu absolut. ;)
Naja, an 3GHz bei der großen Karte habe ich nie wirklich mit gerechnet. Bei den kleineren Chips wäre das vielleicht möglich um die Kosten für den Chip so niedrig wie möglich zu halten (kleine Chipfläche) und das maximum raus zu kitzeln. Das hat AMD ja schon bei den Vorgängern so gemacht. Also einen 3GHz RDNA3 würde ich nicht per se ausschließen, aber halt nicht im Top-End. Ist halt ein Unterschied ob man viel Silizium schnell arbeiten lässt oder wenig.
Gipsel
2022-12-07, 16:56:30
[immy;13182860']Naja, an 3GHz bei der großen Karte habe ich nie wirklich mit gerechnet. Bei den kleineren Chips wäre das vielleicht möglich um die Kosten für den Chip so niedrig wie möglich zu halten (kleine Chipfläche) und das maximum raus zu kitzeln. Das hat AMD ja schon bei den Vorgängern so gemacht. Also einen 3GHz RDNA3 würde ich nicht per se ausschließen, aber halt nicht im Top-End. Ist halt ein Unterschied ob man viel Silizium schnell arbeiten lässt oder wenig.Immer diese Kleingeister! ;)
RDNA2 schon vergessen? Und da haben wir entsprechende Steigerungen im gleichen 7nm Prozeß gesehen. RDNA3 hat den Vorteil der 5nm Fertigung. Bei einer neuen Architektur ist ab und zu auch mal ein neue Charakteristik drin.
Kriterium|RX5700XT Basis|6600XT|6700XT
Die Size [mm²]|251|237 (-6%)|335 (+33%)
Anzahl CUs|40|32 (-20%)|40
Game/Boost [MHz]|1.755/1.905|2.359/2.589 (+34%/36%)|2.424/2.581 (+38%/35%)
rel. 3DC-Leistungsindex|100|106|129
TDP [W]|225|160 (-29%)|230 (+2%)
Am dichtestens ist sicher die 6600XT (N23) dran. Man hat ein 6% kleineres Die mit 20% weniger Einheiten (und halbiertem Speicherinterface), die dafür aber mit ~35% höherem Takt laufen und am Ende noch 6% Mehrperformance abliefern und das Ganze mit einer um fast 30% gesunkener TDP im wie gesagt gleichem Prozeß. Sachen gibt's.
Zossel
2022-12-07, 17:58:23
Neues RAM:
https://www.computerbase.de/2022-12/grafikspeicher-samsungs-gddr7-nutzt-pam-3-fuer-36-gbit-s/
robbitop
2022-12-07, 18:11:28
Es ging doch irgendwie auch darum, daß man bei RDNA3 eventuell auch 3GHz ohne Brechstange und viel Abwärme hätte sehen können.
This :up:
Vor 2-3 Jahren hätte man noch denken könnten 2,5 GHz seien Brechstange auf GPUs. Wenn die Implementierung so gemacht ist geht Takt auch ohne Brechstange. AMDs Ryzen Team hat genau das bei RDNA2 gezeigt und ich kann mir gut vorstellen (die slide hintet es ja und die stapelbaren mcds wären auch nicht nötig) dass das Ziel war hier wieder einen Sprung hinzulegen und es hat aus irgend einem Grund nicht geklappt.
Mir ist es völlig unklar was daran so fernab jeglicher Vorstellung sein soll. Kann sein - muss aber nicht. Mit den aktuell bekannten Indizien kann man es weder ausschließen nich bestätigen.
OgrEGT
2022-12-07, 18:41:56
Was war damals noch bei der GTX480 GF100 kaputt... 8 Monate später gab es die GTX580 GF110 Transistor-optimiert mit mehr Takt und mehr Recheneinheiten... noch weiß man nicht sicher ob es diesen Hardware Bug bei N31 gibt bzw. worin dieser besteht? Die Frage wäre dann ob es lohnt diesen zeitnah zu beseitigen, oder erst später mit RDNA4...
TheGood
2022-12-07, 19:54:13
This :up:
Vor 2-3 Jahren hätte man noch denken könnten 2,5 GHz seien Brechstange auf GPUs. Wenn die Implementierung so gemacht ist geht Takt auch ohne Brechstange. AMDs Ryzen Team hat genau das bei RDNA2 gezeigt und ich kann mir gut vorstellen (die slide hintet es ja und die stapelbaren mcds wären auch nicht nötig) dass das Ziel war hier wieder einen Sprung hinzulegen und es hat aus irgend einem Grund nicht geklappt.
Mir ist es völlig unklar was daran so fernab jeglicher Vorstellung sein soll. Kann sein - muss aber nicht. Mit den aktuell bekannten Indizien kann man es weder ausschließen nich bestätigen.
Es ging um die Argumentationen dazu und wie es genutzt wird.
Allerdings kann man druchaus Fragen warum sich bei der 7900 XTX nur der Boost Takt um 300 Mhz erhöht, der basetakt aber praktsich identisch zur 6950 ist.
Ich glaube trotzdem nicht daran dass ein Resing auf einmal 500 MHZ mehr rausholt. Vor allem deswegen nciht weil ja die Performancverbesserung um die 60% ist, was für ne neue Generation ein wirklcih guter Wert ist.
amdfanuwe
2022-12-07, 20:37:28
Allerdings kann man druchaus Fragen warum sich bei der 7900 XTX nur der Boost Takt um 300 Mhz erhöht, der basetakt aber praktsich identisch zur 6950 ist.
Erklärt sich das nicht durch die TDP?
Basetakt ist doch der Takt, den der Chip bei gegebener TDP mindestens erreicht. Durch 5nm schafft die 7900XTX mit mehr Einheiten den gleichen Basetakt.
Boost Takt gibt an welcher Takt maximal erreicht wird bei gegebener TDP.
Durch 5nm kann man etwas höher tackten.
Also Zufall, dass der gleiche Basetakt erreicht wird.
robbitop
2022-12-07, 21:06:40
Es ging um die Argumentationen dazu und wie es genutzt wird.
Allerdings kann man druchaus Fragen warum sich bei der 7900 XTX nur der Boost Takt um 300 Mhz erhöht, der basetakt aber praktsich identisch zur 6950 ist.
Ich glaube trotzdem nicht daran dass ein Resing auf einmal 500 MHZ mehr rausholt. Vor allem deswegen nciht weil ja die Performancverbesserung um die 60% ist, was für ne neue Generation ein wirklcih guter Wert ist.
RDNA2 brachte ggü RDNA1 einen ähnlichen Taktsprung und Ada gegenüber Ampere sogar noch größer. Warum soll denn damit auf einmal Schluss sein? Ggf war AMDs Ziel mit N31 mit dem geplanten Takt ja auch eher gegen AD102 anzutreten und irgendwas hat nicht geklappt in der Implementierung. Man weiß es nicht. Es gibt Indizien.
Je nach dem wie sich N32 entwickelt und ob es mal einen N31B geben wird, werden wir es ggf sogar mal erfahren.
Igorslab: Startschwierigkeiten bei AMDs Radeon RX 7900XTX und 7900XT? Boardpartner scheinbar mit Problemen und Verzögerungen (https://www.igorslab.de/startschwierigkeiten-bei-amds-radeon-rx-7900xtx-und-7900xt-boardpartner-scheinbar-mit-problemen-und-verzoegerungen/)
Klingt nach 2020.
Wenn AMD (mal wieder) verkackt, dann können sich die 4080-Skalper ja eventuell doch noch freuen.
Virtual
2022-12-07, 23:19:02
Wenn AMD (mal wieder) verkackt, dann können sich die 4080-Skalper ja eventuell doch noch freuen.Mensch L233, bleib mal locker! Inwiefern sympathisiest du mit 'nem Scalper? Hast du deren Konzept verstanden, oder warum bist naheliegend du auf deren Seite?!
Wie kommst Du darauf, dass ich mit diesen Parasiten sympathisieren würde?
Ravenhearth
2022-12-08, 00:32:51
https://twitter.com/kopite7kimi/status/1600309445447520256
Virtual
2022-12-08, 00:52:37
Wie kommst Du darauf, dass ich mit diesen Parasiten sympathisieren würde?
Naja! Deine Reaktion auf diesen unsäglichen Sachverhalt legt es Nahe. Wer in in dieser Welt würde diesem Abschaum niederen Kapitalismus noch Erwähnung gewähren, wenn nicht eine seltsame Form der Bewunderung oder zumindest Anerkennung vorläge?
Gott1337
2022-12-08, 01:54:37
Naja! Deine Reaktion auf diesen unsäglichen Sachverhalt legt es Nahe. Wer in in dieser Welt würde diesem Abschaum niederen Kapitalismus noch Erwähnung gewähren, wenn nicht eine seltsame Form der Bewunderung oder zumindest Anerkennung vorläge?
sorry aber er hat nirgends mit denen sympathisiert.
Gott1337
2022-12-08, 01:57:27
RDNA2 brachte ggü RDNA1 einen ähnlichen Taktsprung und Ada gegenüber Ampere sogar noch größer. Warum soll denn damit auf einmal Schluss sein? Ggf war AMDs Ziel mit N31 mit dem geplanten Takt ja auch eher gegen AD102 anzutreten und irgendwas hat nicht geklappt in der Implementierung. Man weiß es nicht. Es gibt Indizien.
Je nach dem wie sich N32 entwickelt und ob es mal einen N31B geben wird, werden wir es ggf sogar mal erfahren.
also hat man den Fehler gefunden, für eine GPU die 2 Monate später kommt gefixed und hielt es nicht nötig das bei ihrem Halo produkt zu tun? damit man, die wenigen die sich sowieso diese Karte kaufen werden, auch noch schön für die Zukunft vergrault? Die würden sich doch alle verarscht vorkommen.
horn 12
2022-12-08, 04:22:33
7900xtx custom Asus tuf oc da Drako.it a 1374 euri. E non sono nemmeno uscite...non malissimo dai
lo dicevo e l'ho ridetto proprio oggi ( o ieri?? non ricordo) che l'amico negoziante di mio cugino bla bla ha confermato le asus tuf a 1300 e senza problemi di magazzino...
e ripeto, all'ingrosso le paga sui 730/740 cadauna...
TUF bereits auf Magazzin, und Händler soll gar nur 730/740 Euro zahlen
Kann ich kaum Glauben.
Gott1337
2022-12-08, 05:45:59
stimmt auch nicht, soviel Marge hat kein Händler
dargo
2022-12-08, 06:25:26
7900xtx custom Asus tuf oc da Drako.it a 1374 euri. E non sono nemmeno uscite...non malissimo dai
lo dicevo e l'ho ridetto proprio oggi ( o ieri?? non ricordo) che l'amico negoziante di mio cugino bla bla ha confermato le asus tuf a 1300 e senza problemi di magazzino...
e ripeto, all'ingrosso le paga sui 730/740 cadauna...
TUF bereits auf Magazzin, und Händler soll gar nur 730/740 Euro zahlen
Kann ich kaum Glauben.
Kann schon sein. Brutto bist du bei ~900€ dann bei euch. Und am Anfang gibts eh immer den "Deppenaufschlag" der Händler.
robbitop
2022-12-08, 07:40:52
also hat man den Fehler gefunden, für eine GPU die 2 Monate später kommt gefixed und hielt es nicht nötig das bei ihrem Halo produkt zu tun? damit man, die wenigen die sich sowieso diese Karte kaufen werden, auch noch schön für die Zukunft vergrault? Die würden sich doch alle verarscht vorkommen.
Wenn sowas kommt dann als Refresh und eher später in 2023.
Verarscht vorkommen bräuchte sich niemand da 1.) Fortschritt und so 2.) man könnte so eine SKU höher einpreisen (und müsste es auch tun wegen gestackter mcds und/oder höher gerateten gddr6
horn 12
2022-12-08, 08:30:37
730 / 740 Plus 22% Mwst.
Exxtreme
2022-12-08, 08:34:16
also hat man den Fehler gefunden, für eine GPU die 2 Monate später kommt gefixed und hielt es nicht nötig das bei ihrem Halo produkt zu tun? damit man, die wenigen die sich sowieso diese Karte kaufen werden, auch noch schön für die Zukunft vergrault? Die würden sich doch alle verarscht vorkommen.
Bisher gibt es keinerlei Belege, dass es einen Fehler gibt. Das sind nur Behauptungen von irgendwelchen Accounts auf Twitter.
robbitop
2022-12-08, 08:44:12
Es gibt weder dagegen noch dafür Belege. Aber immerhin das Indiz der stapelbaren MCDs (bei denen sich ja alle einig sind - ob Angstronomics oder Kopite und wie sie alle heißen). Das wäre für die jetzige Konfiguration nicht notwendig. Wenn die GPU deutlich höher getaktet wäre hingegen wäre es notwendig gewesen um nicht an Bandbreite zu verhungern.
N32 und N33 werden zumindest weitere Indikatoren sein.
Ich glaube auch nicht, dass es einfach nur "ein Bug" oder sowas ist. Das wird schon etwas komplexer sein.
Der_Korken
2022-12-08, 09:20:32
also hat man den Fehler gefunden, für eine GPU die 2 Monate später kommt gefixed und hielt es nicht nötig das bei ihrem Halo produkt zu tun? damit man, die wenigen die sich sowieso diese Karte kaufen werden, auch noch schön für die Zukunft vergrault? Die würden sich doch alle verarscht vorkommen.
Den Fehler (sofern es ihn gibt) wird man schon viel früher gefunden haben, aber die Entwicklungs-Pipeline bis zur Produktion ist sehr lang. Man könnte den kurzen zeitlichen Abstand zwischen N31 und N33 (gab es dafür überhaupt schon einen Termin?) damit erklären, dass N33 von der "Grundlagenforschung" durch N31 profitiert hat und dass sich N31 verspätet, weil man irgendwie versucht hat, noch das Beste daraus zu machen. Der Launch-Zeitpunkt ist mit nichtmal 2 Wochen vor Weihnachten maximal ungünstig, das kann nicht der Plan von AMD gewesen sein.
DrFreaK666
2022-12-08, 09:37:41
Verstehe immer noch nicht wieso sechs Wochen vor Weihnachten besser sein soll
robbitop
2022-12-08, 09:39:08
Wirklich unschön für AMD damit sicherlich einen großen Teil des Weihnachtsgeschäfts verpasst zu haben. Kann mir gut vorstellen, dass das nicht der ursprüngliche Zeitplan war.
Linmoum
2022-12-08, 09:42:19
Weil sechs Wochen vor Weihnachten vor allem erstmal heißt, du kannst BF mitnehmen? Keine drei Wochen vor Jahresende heißt zudem Auswirkungen aufs Quartalsergebnis sind vernachlässigbar. Anders übrigens, als Su es mal in einem Call angedeutet hatte.
Es hat einen Grund, warum man große Produktlaunches ungern unmittelbar vor Weihnachten durchzieht. Und dass AMD ursprünglich anders (= früher) geplant hatte, ist eigentlich offensichtlich.
DrFreaK666
2022-12-08, 09:50:16
Gibt es eine Grafik, die eure Behauptungen belegt?
Die 6900XT wurde am 8.12 getestet und der Großteil kauft sowieso kleinere Karten, die nicht kurz vor Weihnachten erscheinen (6700XT im März, 6600XT im August, 6600 im Oktober)
Complicated
2022-12-08, 10:05:56
Schaut man sich die Umsatzzahlen an werden die Karten das ganze Jahr gekauft. Der Peak zu Weihnachten ist am Ende nur ein kleiner Baustein für den Erfolg-/Misserfolg einer SKU. Der Termin wird hier im Forum völlig überbewertet.
Jo finde das auch total überdamatisiert. Die Referenzdesigns hat jeder Hersteller im Programm und die ersten Custums kommen halt auch.
nordic_pegasus
2022-12-08, 10:21:58
sicherlich ist die Zahl an Käufern, die eine $999 Karte verschenken wollen zu Weihnachten eher gering. Aber es gibt auch genug Käufer, die sich selbst eine Karte schenken wollen. Viele haben nur über die Feiertage Zeit zum Einbauen, Testen und Spielen. Darum ist es schon ungeschickt, wenn das gewollte Produkt vielleicht erst Mitte Januar in der breiten Masse verfügbar ist, speziell Custom-Karten. Wenn die Gerüchte um maximal 10.000 Karten für ganz Europa und Mittleren Osten stimmen, spielt dies zusätzlich den Scalpern vor Weihnachten in die Karten.
Der zugegeben noch kleinere Kreis an Custom-Wakü Nutzern haben dann noch das Problem, dass so knapp nach Launch bis Weihnachten keine Blöcke verfügbar sein werden (abgesehen von EKWB für die Referenz-Karte... hoffentlich).
Für den breiten Markt ist es kein Drama, aber die eher kleine Kreis, der eine AMD HighEnd-Karte haben wollen, machst Du mit diesem Launch nicht sonderlich glücklich. Zumal es vor 2 Jahren genauso knapp war, bzw. eine Woche mehr Puffer drin war. Und Nvidia wieder einmal deutlich früher gelauncht hatte.
Auch mit Blick auf die Reviews wäre es für AMD aus meiner Sicht vorteilhafter gewesen, wenn die 7900XTX vor der 4090 am Markt gewesen wäre. AMD hätte kurz die Krone gehabt und in allen Reviews der 4090 hätte man die 7900XTX im Vergleich gehabt samt klaren Preisvorteil. So wie es diesmal wieder gekommen ist, hatte Nvidia bei der 4090 nur seine Vorgänger-Karten als Konkurrenz und konnte damit sogar das P/L-Verhältnis der 4090 positiv einwirken lassen.
Ich verstehe einfach das Marketing von AMD nicht.
Complicated
2022-12-08, 10:30:12
Es ist ja auch die Frage ob man da mitmachen will. Nvidia nutzt diese Marketing-Mosaikstück sehr intensiv "als erster am Markt" und hat da schon die seltsamsten Kapriolen fabriziert um doch vor AMD etwas vorzustellen. AMD hat sich mit RDNA2 davon verabschiedet diesen Tanz mit zu machen.
Da kann das AMD Marketing sich auf den Kopf stellen, wenn Nvidia dann Releasetermine vorzieht. War mit der RX 3xxx ja ebenfalls im September um AMD im Oktober zuvorzukommen.
Exxtreme
2022-12-08, 10:40:50
Ich verstehe einfach das Marketing von AMD nicht.
Ja, das Marketing von AMD ist wirklich sauschlecht. Aber ein Veröffentlichungstermin, da hat das Marketing nicht so wirklich einen Einfluss drauf. Wenn die Karte nicht fertig ist dann ist sie nicht fertig. :)
Linmoum
2022-12-08, 10:41:44
Gibt es eine Grafik, die eure Behauptungen belegt?
Die 6900XT wurde am 8.12 getestet und der Großteil kauft sowieso kleinere Karten, die nicht kurz vor Weihnachten erscheinen (6700XT im März, 6600XT im August, 6600 im Oktober)Bei der 6900XT gab es aber schon zwei GPUs, die noch im November und vor BF gelauncht sind.
Dass Nvidia mit einem 608mm2 4N zwei Monate vor AMD mit ihrem kleinen Hybrid-Ansatz am Markt ist, kann auch rein logisch betrachtet doch niemand für normal erachten. Time-to-market und die Flexibilität mit den MCDs ist ja gerade der große Vorteil. Also eigentlich, ausspielen tut AMD den auch hier nicht.
Während AMD einen Chip am Markt hat, sind es bei NV am 05.01 schon ganze drei. Trotz 4N überall im Vergleich mit N5/N6 oder einem reinen N6-Chip wie N33. Die Strategie dahinter, die AMD zumindest in der Praxis verfolgt, wirkt... fragwürdig.
GerryB
2022-12-08, 10:42:28
This :up:
Vor 2-3 Jahren hätte man noch denken könnten 2,5 GHz seien Brechstange auf GPUs. Wenn die Implementierung so gemacht ist geht Takt auch ohne Brechstange. AMDs Ryzen Team hat genau das bei RDNA2 gezeigt und ich kann mir gut vorstellen (die slide hintet es ja und die stapelbaren mcds wären auch nicht nötig) dass das Ziel war hier wieder einen Sprung hinzulegen und es hat aus irgend einem Grund nicht geklappt.
oder
Es hat ja insofern geklappt, als man deutlich mehr Units verbaut hat.
Da kann man doch bei TSMC wählen, obs mehr Takt oder Packdichte sein soll!
(Beides gleichzeitig wäre net Fisch oder Fleisch.)
Interessant wirds dann in den Reviews, ob die vielen Units bereits in niedrigen Auflösungen ausgelastet werden können, wo RDNA2 in FHD soo stark war.
... bzw. die Masse der Gamer ist eeh noch in WQHD zu finden. (ob da nun Jeder 240Fps in RZ braucht ist ne ganz andere Frage)
robbitop
2022-12-08, 10:43:24
Naja es gibt Dinge die sind auch einfach mal logisch. Ob es jetzt den großen Unterschied macht: wer weiß. Dass es von Vorteil ist ein Produkt so verfügbar zu machen, dass es in der Vorweihnachtszeit erwerbbar ist sollte auf der Hand liegen. Wie groß der Effekt pro SKU ist steht auf einem anderen Blatt. Aber das war ja auch gar nicht die Debatte.
Linmoum
Das wird auch erst mal nichts mit mehr Chips.
Die Mobilvarianten von N32 und 33 sind für 2.H geleakt. Es erhärtet sich mMn, dass es auch bei einem Chip erst mal bleiben wird. Ich könnt mir gut vorstellen, dass wir im 2.H eine neue Serie sehen wird dann mit allen Chips.
dargo
2022-12-08, 10:44:44
Der zugegeben noch kleinere Kreis an Custom-Wakü Nutzern haben dann noch das Problem, dass so knapp nach Launch bis Weihnachten keine Blöcke verfügbar sein werden (abgesehen von EKWB für die Referenz-Karte... hoffentlich).
Warum tut man sich den Aufwand an und kauft nicht direkt sowas hier?
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/AMD-7900-XTX-Asrock-erstes-wassergekuehltes-Modell-1408972/
robbitop
2022-12-08, 10:50:12
oder
Es hat ja insofern geklappt, als man deutlich mehr Units verbaut hat.
Da kann man doch bei TSMC wählen, obs mehr Takt oder Packdichte sein soll!
(Beides gleichzeitig wäre net Fisch oder Fleisch.)
Interessant wirds dann in den Reviews, ob die vielen Units bereits in niedrigen Auflösungen ausgelastet werden können, wo RDNA2 in FHD soo stark war.
Naja wenn man sich anschaut wie viele Transistoren das Redesign pro TFLOP gekostet hat, ist es nicht undenkbar, dass ein guter Teil davon auch in die Auslegung für höhere Taktraten geflossen ist. Das Argument mit der Packdichte ist allerdings valide. Man packt den GCD mit 134 MTr/mm² in etwa so dicht wie Apple's M1 (gleicher Prozess) und dichter als AD102 (125MTr/mm²). Allerdings ist man von AD102 auch nur 7% entfernt.
dargo
2022-12-08, 10:51:11
Während AMD einen Chip am Markt hat, sind es bei NV am 05.01 schon ganze drei.
Du kannst doch nicht ernsthaft die 4080 hier mitzählen die sich extrem schlecht verkauft. :freak: Und ob das bei der 4070TI wesentlich besser wird muss man auch erstmal abwarten.
Die würd ich schon wegen der 12GB nicht mal für 500€ kaufen.
aufkrawall
2022-12-08, 11:16:54
Du kannst doch nicht ernsthaft die 4080 hier mitzählen die sich extrem schlecht verkauft.
Als ob die paar Retail-Bastler repräsentativ für den gesamten Absatz wären, immer wieder wird dieses Märchen aufgetischt. Warum wohl ist der Marktanteil von AMD so mies, obwohl hier zig Leute Radeons haben...
nordic_pegasus
2022-12-08, 11:17:47
Warum tut man sich den Aufwand an und kauft nicht direkt sowas hier?
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/AMD-7900-XTX-Asrock-erstes-wassergekuehltes-Modell-1408972/
- in der Regel sind Grafikkarten mit Wakü-Block ab Werk teurer als die luftgekühlte Variante plus extra Wakü-Block. Vergleiche mal die Preise der PowerColor LiquidDevil mit der RedDevil Reihe.
- ob die Asrock vor Weihnachten lieferbar sein wird, wird sich erstmal zeigen müssen.
- die Asrock Aqua Reihe war bislang immer limitiert, zumindest bei den Mainboards. Hier ist auch die Frage, welche Stückzahl davon überhaupt nach Deutschland kommen wird und was dies für den Preis bedeutet.
- nicht jeder Wakü-User mag Acryl-Blöcke bzw. Acryl Terminals. Asrock arbeitet immer mit Bitspower zusammen. Hier habe ich selbst mal einen Bitspower Acryl CPU-Block nur mit dem händischen Einschrauben eines Fittings zum Knacken gebracht. Darum würde ich immer Acetal, speziell beim Terminal, einer Acryl Option vorziehen.
dargo
2022-12-08, 11:20:42
Die würd ich schon wegen der 12GB nicht mal für 500€ kaufen.
Lol... ich erwarte die hier eher bei ~1000€ sofern der Preis der 4080 nicht gesenkt wird. :D
- in der Regel sind Grafikkarten mit Wakü-Block ab Werk teurer als die luftgekühlte Variante plus extra Wakü-Block.
:uponder:
https://geizhals.de/?cat=gra16_512&xf=9809_05+12+-+RX+6900+XT
Aber kann sein, dass es beim frischen Release ganz anders aussieht.
nordic_pegasus
2022-12-08, 11:27:12
:uponder:
https://geizhals.de/?cat=gra16_512&xf=9809_05+12+-+RX+6900+XT
Aber kann sein, dass es beim frischen Release ganz anders aussieht.
dann schau doch zumindest bei der 6950XT... https://geizhals.de/?cat=gra16_512&xf=545_PowerColor%7E9809_05+12+-+RX+6950+XT
die LiquidDevil kostet 400€ mehr als die RedDevil. Der Aufpreis war vielleicht nicht immer so extrem, aber immer höher als der Preis für einen Wakü-Block extra.
dargo
2022-12-08, 11:55:24
Ich denke der frische Release der 4080 ist da besser geeignet.
https://geizhals.de/?cat=gra16_512&xf=545_INNO3D%7E9810_06+17+-+RTX+4080
Mittlerweile sind das so große Ziegelsteine bei Lukü geworden, dass ne Wakü vom Werk aus nur unwesentlich mehr kostet. :tongue:
horn 12
2022-12-08, 12:09:17
Zumindest Italien hat mehrere Custom Karten am Start pünktlich zum 13.12.
XFX - ASROCK - ASUS - POWERCOLOR - Sapphire
MSI kommt später aber dies ist auch Egal.
Wieviele Referenz Karten kommen steht in den Sternen bei den Boardpartnern.
nordic_pegasus
2022-12-08, 12:36:24
Mittlerweile sind das so große Ziegelsteine bei Lukü geworden, dass ne Wakü vom Werk aus nur unwesentlich mehr kostet. :tongue:
das ist wahr und wäre eigentlich auch fair. Ein großer Luftkühler dürfte mittlerweile, speziell wenn eine Vapor-Chamber verbaut ist, ziemtlich das gleiche kosten in der Produktion im Vergleich zu einem Wakü-Block.
Inno3D nutzt Alphacool Kühler, hier sind die Meinungen auch eher gespalten. Bei der 4090 ist die Wakü-Variante nur selten verfügbar und war zeitweise nur mit deftigen Aufschlag im Vergleich zur Lukü-Variante gelistet.
Das die 4080er Versions der Inno3D so günstig ist, zeigt einmal mehr die nicht vorhandene Nachfrage nach der 4080 ;-)
@horn 12
hoffen wir das Beste bzgl. der Verfügbarkeit in den Tagen vor Weihnachten. Wobei ich halt erstmal an eine Referenz-Karte gebunden bin, weil ich den EK-Block vorbestellt habe.
aufkrawall
2022-12-08, 12:55:22
Nur ist WK-Stangenware für große Stückzahl nicht zu trauen und wird es auch nie sein.
GerryB
2022-12-08, 13:03:35
dann schau doch zumindest bei der 6950XT... https://geizhals.de/?cat=gra16_512&xf=545_PowerColor%7E9809_05+12+-+RX+6950+XT
die LiquidDevil kostet 400€ mehr als die RedDevil
heutige Geizhals zu Restbeständen sind net aussagekräftig, ... gibts auch anders für 869€ (XTXH)
... würde denken PC oder der Händler sind nur zu faul zum umpreisen
die 6950 ist nur Dummenfang, ne olle 6900XTXH ist i.d.R. sogar besser gebinnt
Complicated
2022-12-08, 13:31:09
Dass Nvidia mit einem 608mm2 4N zwei Monate vor AMD mit ihrem kleinen Hybrid-Ansatz am Markt ist, kann auch rein logisch betrachtet doch niemand für normal erachten. Time-to-market und die Flexibilität mit den MCDs ist ja gerade der große Vorteil. Also eigentlich, ausspielen tut AMD den auch hier nicht.
Während AMD einen Chip am Markt hat, sind es bei NV am 05.01 schon ganze drei. Trotz 4N überall im Vergleich mit N5/N6 oder einem reinen N6-Chip wie N33. Die Strategie dahinter, die AMD zumindest in der Praxis verfolgt, wirkt... fragwürdig.
:freak: - ja ich vermisse noch die neuen Desktop- und Server CPUs, sowie Konsolen von Nvidia - da zeigen die drei GPUs von Nvidia die überlegene Execution für Dich. Ernsthaft?
Linmoum
2022-12-08, 13:43:01
Laut AMD gibt es keine Kapazitätsprobleme (mehr), also zählen hier andere Produktstacks als Ausrede für späte Launches auch nicht.
Was ist also dein nicht vorhandenes Argument? Ich weise übrigens noch mal darauf hin, dass Su bei einem früheren Earnings Call in diesem Jahr davon gesprochen hatte, dass es in Q4 durch neue Produkte bei GPUs einen üblichen Einfluss auf das Quartalsergebnis geben wird. Wenn du meinst, dass sie diese Aussage getätigt hat mit dem Wissen, dass man erst Mitte Dezember launchen tut... Nunja. Muss man nicht zu sagen.
Es ist doch bekannt, was zur Verzögerung führte.
1.) Bauteilknappheit bei den AIBs führte zu Verzögerungen in der Massenproduktion einiger Partnermodelle (ich nehme an, dass AMD wie bei der 6950XT wieder TDA21490 vorschreibt, vielleicht sind die knapp), z.B. PCPartner
2.) Dämliches "made in Taiwan" auf dem Grafikchip, was dazu führt, dass für China vorgesehene Chips in andere Lieferkanäle gegeben werden müssen, was schlichtweg Zeit kostet.
GerryB
2022-12-08, 13:56:27
Erstaunlicherweise meint Igor, das die meisten AIB´s noch keine Treiber und Bios´haben.
Was kann die Ursache sein? ... will man nur Leaks vermeiden
oder/und
war z.Bsp. das Leak mit dem 3,5Gig-bios nur dazu gedacht, damit der andere Wettbewerber mit ner sinnlos überzogenen Werkseinstellung
launched und dann ... (ein kleines Steckerdisaster hat)
Könnte mir gut vorstellen, das man so@stock leichter für RDNA3 die Effizienzkrone@RZ holen kann.
Exxtreme
2022-12-08, 13:57:58
Erstaunlicherweise meint Igor, das die meisten AIB´s noch keine Treiber und Bios´haben.
Ohne Treiber und Bios kannst du keine Benchmarks veröffentlichen. :) Das ist wohl der Grund warum es das wohl erst ein paar Tage vor der Veröffentlichung gibt.
Erstaunlicherweise meint Igor, das die meisten AIB´s noch keine Treiber und Bios´haben.
Das ist normal. Die haben nur Treiber+BIOS, welche zwar die elektrischen Funktionen unterstützen und Bild beim Booten gibt, aber nichts, was 3D könnte.
GerryB
2022-12-08, 14:12:13
bei Lovelace gabs da aber eher Leaks zu Benchmarks
nordic_pegasus
2022-12-08, 14:15:43
Das ist normal.
wenn wirklich am Dienstag auch Custom-Karten im Handel sein sollen, wäre es doch wirklich sehr spät, wenn die AiB-Partner bislang kein BIOS hätten.
amdfanuwe
2022-12-08, 14:28:33
dass Su bei einem früheren Earnings Call in diesem Jahr davon gesprochen hatte, dass es in Q4 durch neue Produkte bei GPUs einen üblichen Einfluss auf das Quartalsergebnis geben wird.
Naja, der übliche Einfluss ist erstmal, dass die Altware für den Abverkauf im Preis gesenkt wird, die Verkäufe zurückgehen weil die Leute auf neue Produkte warten, evtl. Lagerbestände abgeschrieben werden müssen.
Also üblicher Einfluss heißt keineswegs mehr Umsatz, mehr Gewinn.
wenn wirklich am Dienstag auch Custom-Karten im Handel sein sollen, wäre es doch wirklich sehr spät, wenn die AiB-Partner bislang kein BIOS hätten.
BIOS werden die haben, Treiber nicht. Die Reviewer bekommen die Treiber.
Linmoum
2022-12-08, 14:58:15
Naja, der übliche Einfluss ist erstmal, dass die Altware für den Abverkauf im Preis gesenkt wird, die Verkäufe zurückgehen weil die Leute auf neue Produkte warten, evtl. Lagerbestände abgeschrieben werden müssen.
Also üblicher Einfluss heißt keineswegs mehr Umsatz, mehr Gewinn.Ich hab noch mal nachgeschaut, um hier jetzt ggf. doch nicht zu sehr getrübte Erinnerungen in den Raum zu werfen. Aber das ist wörtlich aus dem Trascript zum Q2-Call:
As it relates to the consumer graphics, I would say that as we entered this year, we were coming off of a very strong 2021 for consumer graphics where gaming demand was very high, we have seen a slowdown here in the second quarter, and we expect that is somewhat due to sort of demand now -- sort of the supply now and more supply versus demand, as well as some of the macro issues as it relates to consumer spending. We do expect, as we go into the fourth quarter, though, that we'll see some sequential increase in that business because we'll have new products that are launching in that time frame.
Su spricht von sequentiellem Wachstum aufgrund von RDNA3 für Q4. Das war Anfang August, also drei Monate, bevor sie das finale Launchdatum offiziell gemacht haben. Wie gesagt, es passt einfach nicht, wenn man damals schon davon ausgegangen ist bzw. wusste, dass die neuen Grafikkarten sowieso erst Mitte Dezember in den Handel kommen. Dann tätigst du so eine Aussage gar nicht erst.
Im Endeffekt muss man jetzt damit leben. Es wird aber eigentlich schon deutlich, dass ein Launch am 13. Dezember... nicht wirklich das ist, was man sich ursprünglich vorgenommen bzw. anvisiert hat.
DrFreaK666
2022-12-08, 15:18:37
https://www.computerbase.de/2022-12/radeon-rx-7900-xtx-und-xt-amds-altes-und-neues-referenzdesign-im-direkten-vergleich/
Die 4000er Karten sind echt riesig im Vergleich
Complicated
2022-12-08, 15:28:16
Laut AMD gibt es keine Kapazitätsprobleme (mehr), also zählen hier andere Produktstacks als Ausrede für späte Launches auch nicht.
Du scheinst nicht zu begreifen dass dies nichts mit Kapazität zu tun hat.
Welches Produkt derzeit die Aufmerksamkeit priorisiert bekommt. Die Prio bei AMD ist ganz sicher nicht, sich gegen Nvidias GPU-Launchtermine zu positionieren. Deine ganzen Beiträge zu dem Termin sind argumentfrei, da Du GPUs isoliert betrachtest.
SamLombardo
2022-12-08, 15:29:55
FrymStN2ZQ8
Leichte Änderungen in den Specs, wohl höher getaktet als bisher bekannt, 355 Watt tdp. Klingt nicht übel.
Langlay
2022-12-08, 15:33:01
Ich hab noch mal nachgeschaut, um hier jetzt ggf. doch nicht zu sehr getrübte Erinnerungen in den Raum zu werfen. Aber das ist wörtlich aus dem Trascript zum Q2-Call:
Su spricht von sequentiellem Wachstum aufgrund von RDNA3 für Q4. Das war Anfang August, also drei Monate, bevor sie das finale Launchdatum offiziell gemacht haben. Wie gesagt, es passt einfach nicht, wenn man damals schon davon ausgegangen ist bzw. wusste, dass die neuen Grafikkarten sowieso erst Mitte Dezember in den Handel kommen. Dann tätigst du so eine Aussage gar nicht erst.
Das Q4 geht bei AMD bis 31.01.
Linmoum
2022-12-08, 15:41:33
Das Q4 geht bei AMD bis 31.01.Q4 ist laut AMD ein 14W-Quartal. Da Q3 am 24.09. endete, haut das nicht ganz hin. ;)
amdfanuwe
2022-12-08, 16:02:13
Es wird aber eigentlich schon deutlich, dass ein Launch am 13. Dezember... nicht wirklich das ist, was man sich ursprünglich vorgenommen bzw. anvisiert hat.
Danke fürs raussuchen. Da war Lisa noch optimistisch.
Da sieht man auch, dass Lisa die Abschreibungen in Q3 nicht auf dem Plan hatte. Die Warnung dazu kam Anfang Oktober, 2 Monate später.
Gipsel
2022-12-08, 16:32:30
https://youtu.be/FrymStN2ZQ8
Leichte Änderungen in den Specs, wohl höher getaktet als bisher bekannt, 355 Watt tdp. Klingt nicht übel.Oder sowas wie der Unterschied zwischen "Game Clock" und dem maximalen Boost als Ende der hinterlegten V/F-Kurve.
Da ja offenbar der Scheduler keine zwei 32er-Waves gleichzeitig schedulen kann, liegt ein Großteil der ALUs außer bei VOPD-Nutzung (was vom Compiler vermutlich sehr häufig eingebaut wird) oder mit Wave64 vermutlich oft brach. Dies kann dann zu etwas höheren Boost-Takten führen. Vielleicht hat AMD die offiziellen Zahlen einfach etwas mehr an die Realität angepaßt.
davidzo
2022-12-08, 16:42:04
https://youtu.be/FrymStN2ZQ8
Leichte Änderungen in den Specs, wohl höher getaktet als bisher bekannt, 355 Watt tdp. Klingt nicht übel.
Der Referenzkühler gefällt mir nur so meh :rolleyes:
Klar, der ist immerhin kleiner und mit Triplefan etwas sinnvoller als die Nvidia Designs, aber da ist trotzdem noch viel ungenutztes Potential.
Sieht so aus als wenn die Kühler jeweils um gut 2cm länger sind als notwendig, rein aus ästhetischen Gründen. Das PCB ist kürzer, endet direkt hinter den 8Pin Connectoren und da hinten sind weder Lamellen, noch eine Flowthrough Öffnung. Die Fläche am Ende ist sowieso nur mit einer optischen Kappe geschlossen. Die könnte kürzer sein oder da könnten noch weitere Kühllamellen sein.
Die Lüfter könnten auch weiter an der Slotblende anfangen, so wie bei der Referenz 4090, dann wäre das auch symmetrisch wenn man die ästhetische Kappe hinten weglässt.
Aufwändige und lange Kappen für das der Slotblende gegenüberliende Kartenende scheinen gerade in Mode zu sein.
Auch bei der 4090 gibts leider viele Partnerdesigns die so eine Kappe verwenden, unter der nichts steckt Leistungsrelevant wäre. Macht die Karte nur "fetter" und unhandlicher und manchmal sind diese Kappen auch noch RGB Beleuchtet :ugly2:.
Sieht halt nach mehr aus und kostet weniger als tatsächlich einen größeren Kühler zu verbauen.
dargo
2022-12-08, 16:43:15
Igor quatscht sich auch beim Unboxing tot. ;D
brMAdzZQXnk
Wofür heute Videos erstellt werden... sagenhaft.
Unboxings finde ich (vor dem Fall der NDA) eh ... unnötig, aber ich bin ja auch kein Streamer :|
Gott1337
2022-12-08, 17:02:15
Bisher gibt es keinerlei Belege, dass es einen Fehler gibt. Das sind nur Behauptungen von irgendwelchen Accounts auf Twitter.
genau das mein ich ja, es ergibt einfach keinen Sinn. Die Gerüchte sind wunschdenken von den Fanboys die ja vorher schon nahe 4GHz prophezeit haben.
gruntzmaker
2022-12-08, 17:08:22
genau das mein ich ja, es ergibt einfach keinen Sinn. Die Gerüchte sind wunschdenken von den Fanboys die ja vorher schon nahe 4GHz prophezeit haben.
Dabei braucht es kein Wunschdenken, RDNA3 ist ein Rastermonster, aber im Raytracing eben relativ "schwach". Daran wird der Takt nicht viel ändern.
Imho ist die Kartengeneration entweder praktisch krass "over the top" (Rtx 4090, 80) oder für RDNA2 / Rtx 3000 quasi kaum ein Upgrade.
Da ist die RX7900XT schon fast eine Vernunftlösung für alle mit Vega und Turing im PC Gehäuse.
Zossel
2022-12-08, 17:42:25
Ohne Treiber und Bios kannst du keine Benchmarks veröffentlichen. :) Das ist wohl der Grund warum es das wohl erst ein paar Tage vor der Veröffentlichung gibt.
Warum ziehen die Hersteller eigentlich so ein Kasperletheater ab?
Ist das der infantilen und wohlstandsverwahrlosten Zielgruppe solcher Geräte geschuldet?
Zossel
2022-12-08, 17:48:16
BIOS werden die haben, Treiber nicht. Die Reviewer bekommen die Treiber.
Tolle Wurst, wenn die Teile ein Problem unter Last haben wird der Hersteller das nicht bemerken und produziert ggf. einen großen Haufen Sondermüll.
Zum Glück ist das ja nur Spielzeug das eine Aufmerksamkeitsökonomie ähnlich wie Gala, Instagram oder Bild der Frau bedient.
Die haben ja einen Treiber der Lastscenarien abdeckt. Braucht man ja für die Entwicklung.
horn 12
2022-12-08, 19:04:14
Die Kleine wurde wohl etwas aufgebohrt um mit der 4080 mitzuhalten oder um wenige Prozentpunkte zu übertrumpfen,-
und die XTX setzt sich mittig zwischen 4080 und 4090 und wird wohl maximal gute 10% schneller als die XT sein.
user77
2022-12-08, 19:13:06
https://youtu.be/FrymStN2ZQ8
Leichte Änderungen in den Specs, wohl höher getaktet als bisher bekannt, 355 Watt tdp. Klingt nicht übel.
wo bekomm ich so ein beleuchtetes AMD Logo? :eek::cool::D
Prinzenrolle
2022-12-08, 19:15:20
war z.Bsp. das Leak mit dem 3,5Gig-bios nur dazu gedacht, damit der andere Wettbewerber mit ner sinnlos überzogenen Werkseinstellung
launched und dann ... (ein kleines Steckerdisaster hat)
Darf ich dich als Sherlock anreden?:freak:
dargo
2022-12-08, 19:18:09
Den Ziegelstein XFX Merc 310 Black sollte es auch direkt am 13.12 zu kaufen geben.
76cQnkNdfPo
Edit:
Noch was zum schmunzeln. :D
https://youtu.be/F17mSKU3hWE?t=774
Rolsch
2022-12-08, 19:55:32
Hier gibts schon mal ein paar Zahlen. Ist in etwa das was ich so erwartet hab. Natürlich kann das auch Fake sein.
uutQK6A2xp4
OpenVMSwartoll
2022-12-08, 20:13:59
Hier gibts schon mal ein paar Zahlen. Ist in etwa das was ich so erwartet hab. Natürlich kann das auch Fake sein.
https://youtu.be/uutQK6A2xp4
Sorry, das Video ist peinlich. Warum nicht die altbekannte Präsentation verwenden, um seinen 500 Member Channel zu promoten?
Weil Lebenszeit teuer ist.
Linmoum
2022-12-09, 09:33:17
In der Gerüchteküche geistern ja jetzt schon 315W für die XT umher. Igor hat die in seinem Unboxing auch erwähnt und meinte, der Verbrauch liegt höher als (die bisher offiziellen) 300W.
Hat man hier echt wieder Takt und Verbrauch angehoben für 1% mehr Performance so kurz vor dem Launch?
horn 12
2022-12-09, 09:37:04
Nun, wenn man mit beiden Karten die 4080 in Schach halten kann, warum nicht.
Die 4080 braucht 270 bis 285 Watt, die XT vielleicht 290 bis 310 Watt.
Wenn man gleichzieht und die XTX dann nochmals gute 10% schneller bleibt (vorher wohl knappe 20%)
So kann man eine RTX 4080 mit der Kleinen Karte gleichziehen, der Preis der XT passt auch besser als Minus 20% Performance Einbussen
und eine 4080 TI wäre dann fast schon Sinnlos für Nvidia, bei Höherem Preis!
Wer Lisa Su alles glaubt was sie sagt ist selbst Schuld.
Exxtreme
2022-12-09, 09:43:56
In der Gerüchteküche geistern ja jetzt schon 315W für die XT umher. Igor hat die in seinem Unboxing auch erwähnt und meinte, der Verbrauch liegt höher als (die bisher offiziellen) 300W.
Hat man hier echt wieder Takt und Verbrauch angehoben für 1% mehr Performance so kurz vor dem Launch?
Wenn man den Stromverbrauch ohne Frickeln reduzieren kann dann ist das eher egal. :)
dargo
2022-12-09, 09:55:52
In der Gerüchteküche geistern ja jetzt schon 315W für die XT umher. Igor hat die in seinem Unboxing auch erwähnt und meinte, der Verbrauch liegt höher als (die bisher offiziellen) 300W.
Hat man hier echt wieder Takt und Verbrauch angehoben für 1% mehr Performance so kurz vor dem Launch?
Die AIBs machen doch auch nichts anderes.
BlacKi
2022-12-09, 10:08:53
was ich nicht verstehe ist, das man damit wirbt, den pcie slot weniger belasten zu wollen, das sagen die amd folien. aber im prinzip müssten bei 355w, schon 55w über den pcie slot. das ist mehr als last gen, nicht weniger...
Linmoum
2022-12-09, 10:16:16
Die AIBs machen doch auch nichts anderes.Die kündigen ihre GPUs aber selten mit xxx W an und ziehen das dann kurz vor dem Launch doch noch mal hoch.
Das wirkt wieder wie so eine Last-Minute-Aktion, weil man festgestellt hat, dass doch noch irgendwo Performance fehlt. Auch wenn's eigentlich lächerlich ist.
dargo
2022-12-09, 10:25:17
was ich nicht verstehe ist, das man damit wirbt, den pcie slot weniger belasten zu wollen, das sagen die amd folien. aber im prinzip müssten bei 355w, schon 55w über den pcie slot. das ist mehr als last gen, nicht weniger...
Bist du wieder in deinem AMD macht alles falsch Jammer-Modus? Warum stört dich sowas bloss nicht bei Nvidia? :uponder:
https://www.igorslab.de/wp-content/uploads/2021/07/02-PEG-Utilization.png
Um es kurz zu machen... bis 66W ist alles Safe am PCIe-Slot.
Die kündigen ihre GPUs aber selten mit xxx W an und ziehen das dann kurz vor dem Launch doch noch mal hoch.
Mich würde es nicht überraschen, dass einer kurz nach der Vorstellung festgestellt hat oh... dem Kühler können wir doch noch paar Wattchen mehr zutrauen. ;D Keine Ahnung warum man sowas macht... bringen tut sowas nichts Nennenswertes. Und zuerst mit X werben und Y ankommen hat auch einen etwas faden Beigeschmack.
BlacKi
2022-12-09, 10:38:21
Bist du wieder in deinem AMD macht alles falsch Jammer-Modus? Warum stört dich sowas bloss nicht bei Nvidia? :uponder:
https://www.igorslab.de/wp-content/uploads/2021/07/02-PEG-Utilization.png
Um es kurz zu machen... bis 66W ist alles Safe am PCIe-Slot.
schade das du wieder mal am thema vorbei argumentierst.
dargo
2022-12-09, 10:41:23
schade das du wieder mal am thema vorbei argumentierst.
Schade, dass dir nichts anderes einfällt als nach jedem noch so kleinen Strohhalm bei AMD zu suchen um es ins Negative zu ziehen.
Virtual
2022-12-09, 10:44:11
Die kündigen ihre GPUs aber selten mit xxx W an und ziehen das dann kurz vor dem Launch doch noch mal hoch.
Das wirkt wieder wie so eine Last-Minute-Aktion, weil man festgestellt hat, dass doch noch irgendwo Performance fehlt. Auch wenn's eigentlich lächerlich ist.
Lächerlich ist, eine 4080 12GB anzusagen und sie anschließend mit fadenscheiniger Bergründung, "wir wollen euch Gamer doch nicht irritieren", abzusagen. Die 7900XT hat es wenigstens bis zum Marktstart geschafft. Ob nun mit 300W oder vielleicht 315W, das ist Erbsenzählerrei. Sich darüber aufzuregen, ebenso!
horn 12
2022-12-09, 10:47:40
Welch ein Klopper
Geil ist die Karte
https://videocardz.com/newz/sapphire-radeon-rx-7900-xtx-nitro-graphics-card-has-been-pictured
Aber da Gelobe ich mir doch die Referenz Modelle :-)
Spring
2022-12-09, 10:51:56
Lächerlich ist, eine 4080 12GB anzusagen und sie anschließend mit fadenscheiniger Bergründung, "wir wollen euch Gamer doch nicht irritieren", abzusagen. Die 7900XT hat es wenigstens bis zum Marktstart geschafft. Ob nun mit 300W oder vielleicht 315W, das ist Erbsenzählerrei. Sich darüber aufzuregen, ebenso!
Seitdem er die 4090 hat kommt sowas von ihm, vorher war es andersrum.
Du hast recht, die 4080 12 GB Story, äh 4070 Ti, war schon doll.
Ich persönlich finde Karten über 300W (egal ob NV oder AMD) nicht so pralle, da wäre so oder so UV angesagt.
GerryB
2022-12-09, 11:11:14
In der Gerüchteküche geistern ja jetzt schon 315W für die XT umher. Igor hat die in seinem Unboxing auch erwähnt und meinte, der Verbrauch liegt höher als (die bisher offiziellen) 300W.
solange die Lautstärke noch passt, why not
(ob man sich leistungsmäßig an der 285W Ti orientieren muss, who knows, ... wäre dann also deutlich ineffizienter)
horn 12
2022-12-09, 11:15:41
Nein, jene 4070 (TI) ist sicherlich 10 bis 15% langsamer als eine 4080
und die XTX soll ja schneller als die 4080 sein,- aber nicht beim Raytracing.
Der Abstand zwischen XTX und XT wurde verkleinert.
dargo
2022-12-09, 11:16:23
Welch ein Klopper
Geil ist die Karte
https://videocardz.com/newz/sapphire-radeon-rx-7900-xtx-nitro-graphics-card-has-been-pictured
Aber da Gelobe ich mir doch die Referenz Modelle :-)
OMG X-D
Dabei wollte ich eigentlich von diesen Ziegelsteinen weg.
GerryB
2022-12-09, 11:22:19
Die Ref. sieht doch noch ganz "passend" aus. (1,8kg die Große)
und der Aufpreis von XT auf XTX ist net allzu groß
() wären ca. 250g mehr als bei meiner jetzigen Trio, ... die XT würde ungefähr dasselbe wiegen
(meine alte Trio hatte schon ne Stütze dabei)
horn 12
2022-12-09, 11:24:11
Ja, mit dem Update der Wattsteigerung und MEHRPERFORMANCE passt der Preis nun doch etwas Besser!
dargo
2022-12-09, 11:25:28
Die Ref. sieht doch noch ganz "passend" aus. (1,8kg die Große)
Ja... die Referenzkarten sprechen mich durchaus an. Aber da muss ich erst Tests abwarten ob die Kühler mich auch überzeugen.
GerryB
2022-12-09, 11:28:11
UVen geht hoffentlich ähnlich gut wie bei den 6000ern.(x)
--> 24/7 dann bei <300W die gleiche Perf. wie Stock?
(x) mal abwarten, ob hellm wieder das MPT anpassen kann
Virtual
2022-12-09, 11:39:21
UVen geht hoffentlich ähnlich gut wie bei den 6000ern.
--> 24/7 dann bei <300W die gleiche Perf. wie Stock?
Hoffentlich genauso! Runter auf ca. 750 mV und dann gucken, was der Game-stabile Takt sein wird. Damit drückt man sie mit etwas Glück problemlos auf <50% Leistungsaufnahme bei noch >85% Leistung ... zu einem halbwegs akzeptablen Preis. Die Referenz reicht dazu aus, die Lüfter und Temps sollten auch kein Problem sein. RT, falls grafisch überhaupt relevant, muss dann eben mit Medium betrieben werden. Da bricht bei mir kein Zacken aus der Krone.
BlacKi
2022-12-09, 11:43:54
Schade, dass dir nichts anderes einfällt als nach jedem noch so kleinen Strohhalm bei AMD zu suchen um es ins Negative zu ziehen.da hier ja sonst kaum kritsch hinterfragt wird, fällt mir das eben zu.
ich finds auch kritisch, welchen preis die xt hat. 899$ ist total gaga. selbst 799$ wären wohl etwas hoch, perf/dollar müsste die karte wohl eher bei 749$ liegen. und dann hat die karte gerade mal perf/$ der xtx erreicht.
https://www.planet3dnow.de/cms/wp-content/gallery/amd-radeon-rx-7900-series-deep-dive/15.jpg
GerryB
2022-12-09, 11:59:07
750mV bzw. <750mV ist bei meiner 6800nonXT schon seeehr speziell und nur mit MPT machbar!
Am 60Hz-Moni mit Chill57fps und XeSS@Perf. aber 24/7 tatsächlich erreichbar in einigen gut optimierten Games, wie SoTR.
Nightspider
2022-12-09, 12:02:52
da hier ja sonst kaum kritsch hinterfragt wird, fällt mir das eben zu.
ich finds auch kritisch, welchen preis die xt hat. 899$ ist total gaga. selbst 799$ wären wohl etwas hoch, perf/dollar müsste die karte wohl eher bei 749$ liegen. und dann hat die karte gerade mal perf/$ der xtx erreicht.
https://www.planet3dnow.de/cms/wp-content/gallery/amd-radeon-rx-7900-series-deep-dive/15.jpg
UVP Preise müssen nicht zwingend etwas aussagen.
Die 6950XT kostet im AMD Shop auch noch 1.243,29 € aber beim Händler ~750 bis 799€. Sind mal eben 450-500 Euro Differenz.
horn 12
2022-12-09, 12:03:00
@Blacki
XT ca. 20% langsamer laut Folie
Lass es nun nur noch gute 10 bis maximal 15% langsamer sein.
Rechne im Schnitt ist die XTX nun nur noch 12% schneller als die Kleine Schwester.
GerryB
2022-12-09, 12:06:22
wg. der 100€ lohnt sich die XT trotzdem net
24/7 haste mit der XTX bei gleichen Watt weniger Lärm und mindestens 7% mehr Perf.
(bei 10% mehr Perf. wäre dann schon P/L gleich, bei besserer Ausstattung/Kühler+Vram/Bandbreite)
Ob AMD die XTX binnt, ... da muss man sich überraschen lassen, bzgl. UV/OCen.
Die kleine XT ist eher was für Leute, wo die Große net ins Gehäuse vom HTPC passt.
dargo
2022-12-09, 12:08:27
Rechne im Schnitt ist die XTX nun nur noch 12% schneller als die Kleine Schwester.
Nie im Leben bei nur +5% Wattage der XT. Eher läufts dann auf ca. +~18% für die XTX hinaus.
Zossel
2022-12-09, 12:09:42
Die haben ja einen Treiber der Lastscenarien abdeckt. Braucht man ja für die Entwicklung.
Mein Spruch lautet da immer: Man kann gar nicht so blöd denken, wie es hinterher kommt"
Und es gab doch diesen Fall wo bestimmte Grakas am Anfang unter Last abgekackt sind weil die Kondensatoren direkt vor der GPU doch hätten besser sein müssen.
GerryB
2022-12-09, 12:21:02
OT: die 4070Ti soll auch 899$ kosten.
Da wirds interessant für die XT!
(wenn man denn unbedingt 100$ sparen muss/will wie Horn)
BlacKi
2022-12-09, 12:55:57
UVP Preise müssen nicht zwingend etwas aussagen.
Die 6950XT kostet im AMD Shop auch noch 1.243,29 € aber beim Händler ~750 bis 799€. Sind mal eben 450-500 Euro Differenz.die 6950xt ist doch nur eine 6900xt mit mehr powerlimit. die karte gabs doch schon für unter 700€ 50-60% teurer für 30-35% mehr speed?
und dann eben von der 7900xtx kommend sehen die 10% die man sparen kann bei der xt gegen -20-25% performanceverlust sogar noch schlimmer aus als die 4080 vs 4090.
also ja, da muss sich abseits von der uvp einiges tun am markt, der uvp preis ist einfach lächerlich. wie gesagt, 749-799$ wären passend, besser eher darunter so wie wir es aus der vergangenheit kennen. denn das war mal umgekehrt. ist dieses jahr das verkehrte welt jahr?
GerryB
2022-12-09, 13:01:58
aktuell ne 6900 TOXIC XTX ohne H für 799€ im MS
(<700€ gabs wann und wo?)
dargo
2022-12-09, 13:06:28
die 6950xt ist doch nur eine 6900xt mit mehr powerlimit. die karte gabs doch schon für unter 700€ 50-60% teurer für 30-35% mehr speed?
Die UVP der 3090 war 114% höher als bei 3080 bei +17% Performance, hast du da auch so ein Aufriss gemacht?
dildo4u
2022-12-09, 13:17:56
Die 900€ werden das unter Limit für 300mm² 5nm Chip sein immerhin gibt es bei der 7900XT 20 statt 12GB bei NV.
Aber klar sind Abverkauf RDNA2 das deutlich bessere Angebot wenn man davon ausgeht das die Masse der Games wegen den Konsolen keine hohen RT Anforderungen stellen.
GerryB
2022-12-09, 13:18:46
btw.
Im NUC13 extreme passt auch ne 7900 XTX rein meint CB.
https://www.computerbase.de/2022-12/intel-nuc-13-extreme-test/#abschnitt_beim_gaming_zaehlt_die_grafikkarte
Alternativ sollte die Kühlung auch in nem exotischen FractalDesignRidge noch funzen. (2x140mm IN + Top 3x80mm OUT passend zur Graka)
https://geizhals.de/fractal-design-ridge-weiss-fd-c-rid1n-02-a2848730.html
Da hat AMD ne gute Länge+Dicke im Angebot!
(man braucht netmal die kleinere XT)
Virtual
2022-12-09, 13:38:44
die 6950xt ist doch nur eine 6900xt mit mehr powerlimit. die karte gabs doch schon für unter 700€ 50-60% teurer für 30-35% mehr speed?
und dann eben von der 7900xtx kommend sehen die 10% die man sparen kann bei der xt gegen -20-25% performanceverlust sogar noch schlimmer aus als die 4080 vs 4090.
also ja, da muss sich abseits von der uvp einiges tun am markt, der uvp preis ist einfach lächerlich. wie gesagt, 749-799$ wären passend, besser eher darunter so wie wir es aus der vergangenheit kennen. denn das war mal umgekehrt. ist dieses jahr das verkehrte welt jahr?
Du möchtest dich über das Upselling-Konzept von NV und AMD beschweren? Dann lass dir eins gesagt sein, der Upselling-Druck als Verkaufsstrategie für die neue Generation kommt ursprünglich vom Marktführer. AMD reiht sich nur passend(?) ein, allerdings ohne großen Widerwillen, möchte man vermuten. In Zeiten fallender Stückzahl-Absätze möchte Lederjacke einen Apple-artigen Ausgleich für die jüngsten Profit-Ausfälle in der Gamer-GraKa-Sparte schaffen. Und zu diesem Zweck lotet er die Schmerzgrenze der Zocker-Gemeinde aus.
Kurzum, das ist der falsche Faden zum Thema Upselling bzw. Hochpreisstrategie bei NV und AMD. Warum? Das Übel muss man immer an der Wurzel packen und AMD ist nur der Trittbrettfahrer. Das leutet doch ein, oder?
dildo4u
2022-12-09, 14:04:38
Das könnte die Preise erklären Timespy zeigt kein Unterschied zwischen den Modellen in 4k.
https://videocardz.com/newz/first-amd-radeon-rx-7900-xtx-7900-xt-3dmark-timespy-firestrikes-scores-are-in
Bei Timespy ist die XTX zu langsam.
GerryB
2022-12-09, 14:28:08
Jo, im TSE isses ja ganz krass.
Die XTX kommt net von der XT weg!?
(evtl. keine Review-Treiber?)
basix
2022-12-09, 14:34:07
da hier ja sonst kaum kritsch hinterfragt wird, fällt mir das eben zu.
ich finds auch kritisch, welchen preis die xt hat. 899$ ist total gaga. selbst 799$ wären wohl etwas hoch, perf/dollar müsste die karte wohl eher bei 749$ liegen. und dann hat die karte gerade mal perf/$ der xtx erreicht.
https://www.planet3dnow.de/cms/wp-content/gallery/amd-radeon-rx-7900-series-deep-dive/15.jpg
1.2x Performance. Da wäre man schon bei 799$ bei P/L besser als die XTX und gleiche P/L hätte man bei 829$ erreicht ;)
Dass die 899$ bei P/L nicht attraktiv sind ggü. der XTX ist klar. Aber bitte das Problem nicht grösser machen als es ist. Ausserdem wird die XT mit hoher Wahrscheinlichkeit noch etwas mehr Potential beim Takt (wenn man das Power Limit erhöht). Dann rücken die XT und XTX auf vermutlich nicht viel mehr wie 1.1x zusammen.
Anscheinend ist N31 und 20GB GDDR6 so teuer, dass 899$ für AMDs Margenziel notwendig sind. Was hat Nvidia hier zu bieten? Die "4080 12GB"? Da ist die 7900 XT in vielen Fällen attraktiver, weil einiges schneller und deutlich mehr Speicher. Einzig RT kann das Pendel in Richtung AD104 ausschlagen lassen und auch hier wohl nur in einzelnen Fällen.
Complicated
2022-12-09, 14:37:33
Kurzum, das ist der falsche Faden zum Thema Upselling bzw. Hochpreisstrategie bei NV und AMD. Warum? Das Übel muss man immer an der Wurzel packen und AMD ist nur der Trittbrettfahrer. Das leutet doch ein, oder?
Da steckt mehr dahinter. AMD geht die Preissteigerungen gerne mit und Nvidia schaufelt sich schon jetzt das eigene Grab damit. Das Chiplet-Design ist in der ersten Iteration und sobald das Konzept Multi-GCD nutzt hat AMD mit jeder Steigerung die jetzt erfolgt mehr Puffer um, bei ausreichend Wafer Kapazität, einen Preiskampf zu beginnen um Marktanteile.
Da AMDs Gesamtumsätze mit der CPU und embedded Sparte deutlich weniger vom GPU-Umsatz abhängt, denke ich ist Nvidia dabei jetzt die Kriegskasse zu füllen soweit es geht. In 2 Jahren hat AMD 50% Server-CPU Markt und bringt nächstes Jahr CDNA3 mit Mulit-GCD. Nvidia rechnet sicher bei RDNA4 mit Multi-GCD und einem Preiskampf, wo AMD einen Kostenvorteil bei der 3nm/2nm Fertigung hat.
dildo4u
2022-12-09, 15:17:46
Blender Werte 7900XT/XTX
https://opendata.blender.org/benchmarks/query/?device_name=Radeon&blender_version=3.4.0&group_by=device_name
Linmoum
2022-12-09, 15:21:29
Schlechter als eine 3070. Aber da gibt's sicher sowieso kaum jemanden, der dafür AMD nutzt. Aus offensichtlichen Gründen.
Wollen wir einfach hoffen, dass zumindest die klassische Rasterperformance passt und oberhalb der durchgesickerten 3DMarks liegt. Das wäre ansonsten irgendwie komisch und auch deutlich unterhalb von AMDs Benchmarks.
SimonGreen
2022-12-09, 15:23:06
Wie schätzt ihr die GPU Leistung von einem 7740u ein, wenn der Leak stimmt?
https://appuals.com/ryzen-7000-leak/
PHX2:
TSMC N4
2c Zen 4 (4MB L3, 2MB L2)
4c Zen 4C (4MB L3, 4MB L2)
2 WGP RDNA3 (GC 11.0.4)
DDR5/LPDDR5X
15-28w
DrFreaK666
2022-12-09, 16:08:19
da hier ja sonst kaum kritsch hinterfragt wird, fällt mir das eben zu.
ich finds auch kritisch, welchen preis die xt hat. 899$ ist total gaga. selbst 799$ wären wohl etwas hoch, perf/dollar müsste die karte wohl eher bei 749$ liegen. und dann hat die karte gerade mal perf/$ der xtx erreicht.
https://www.planet3dnow.de/cms/wp-content/gallery/amd-radeon-rx-7900-series-deep-dive/15.jpg
Da kommst du aber zu spät, denn die geringe Preisdifferenz wurde schon vor Wochen diskutiert
Exxtreme
2022-12-09, 16:15:09
Wie schätzt ihr die GPU Leistung von einem 7740u ein, wenn der Leak stimmt?
https://appuals.com/ryzen-7000-leak/
PHX2:
TSMC N4
2c Zen 4 (4MB L3, 2MB L2)
4c Zen 4C (4MB L3, 4MB L2)
2 WGP RDNA3 (GC 11.0.4)
DDR5/LPDDR5X
15-28w
Geh nicht davon aus, dass das spieletauglich ist. Das ist grad mal gut genug für Office-PCs.
amdfanuwe
2022-12-09, 17:12:47
Das Chiplet-Design ist in der ersten Iteration und sobald das Konzept Multi-GCD nutzt hat AMD mit jeder Steigerung die jetzt erfolgt mehr Puffer um, bei ausreichend Wafer Kapazität, einen Preiskampf zu beginnen um Marktanteile.
Marktanteile holt man eher im Massenmarkt und das dürfte N33 sein.
Wichtig wäre es auch für AMD mal bei Mobile GPUs Fuß zu fassen.
Wenigstens geht der Gesamtmarktanteil für GPUs demnächst etwas hoch, da nun ja auch die Desktop CPUs mit iGPU ausgestattet sind.
Geh nicht davon aus, dass das spieletauglich ist. Das ist grad mal gut genug für Office-PCs.
Naja, manche betrachten Wimmelbilder und Candy Crush auch als Spiele. Dafür wird es reichen. Zumindest schon mal besser als die Ryzen 7000er iGPU.
robbitop
2022-12-09, 17:32:18
RGT hat heute in seinem Video zu rdna4 gesagt dass es nur 1x gcd geben soll / keine gcd Skalierung.
Gott1337
2022-12-09, 18:17:29
Blender Werte 7900XT/XTX
https://opendata.blender.org/benchmarks/query/?device_name=Radeon&blender_version=3.4.0&group_by=device_name
ja 30% einer 4090
61% einer 3090
bei der 4090 wird aber noch ordentlich was dazu kommen, es gab kein optix update bis jetzt
Meine erste Einschätzung: AMD hat ein paar viele Transen weggelassen, um das Taktziel zu erreichen. Es wird wohl keine GPU-gen ever geben, welche up to 600w abartig skaliert, denn dann scheinen weit über 3.3g möglich zu sein.
Der_Korken
2022-12-09, 19:43:08
Wie schätzt ihr die GPU Leistung von einem 7740u ein, wenn der Leak stimmt?
Kommt auf den Takt der iGPU an. Wenn diese etwas taktfreudiger als N31 wird, wären das gegenüber Rembrandt mit RDNA2 ca. 20% mehr Leistung pro CU und vielleicht +25% mehr Takt, also ca. 50% mehr Leistung pro CU. Da nur 1/3 der CUs vorhanden ist, würde ich ins Blaue auf halbe Rembrandt-Leistung tippen. Man muss ja bedenken, dass die Speicherbandbreite gleich bleibt. Das wäre etwa auf dem Niveau der alten Renoir/Cezanne-APUs.
Tangletingle
2022-12-09, 20:02:27
Da kommst du aber zu spät, denn die geringe Preisdifferenz wurde schon vor Wochen diskutiert
Ist doch schön, wenn er zumindest Wochen nach allen anderen im thread gedanklich soweit ist.
OgrEGT
2022-12-09, 20:56:20
Welch ein Klopper
Geil ist die Karte
https://videocardz.com/newz/sapphire-radeon-rx-7900-xtx-nitro-graphics-card-has-been-pictured
Aber da Gelobe ich mir doch die Referenz Modelle :-)
Heftig :biggrin:
BlacKi
2022-12-09, 20:57:45
Ist doch schön, wenn er zumindest Wochen nach allen anderen im thread gedanklich soweit ist.ich mag dich auch
Heftig :biggrin:
Ready for more than 500w
Tangletingle
2022-12-09, 22:23:41
ich mag dich auch
Sorry, ich geb's zu. War ein bisschen spitz. 🕊️☮️
horn 12
2022-12-10, 09:36:59
https://videocardz.com/press-release/gigabyte-announces-custom-radeon-rx-7900-xtx-and-rx-7900-xt-graphics-cards-clocks-up-to-2680-mhz
Das es keine Custom Karten am 13-ten geben wird, ist wohl ein Gerücht was gar von der Konkurrenz gestreut werden sein könnte.
Nun sind es gar 4 bis 5 welche Custom Karten anbieten am 13-ten.
Unser Lieber Igor sagte dass nur XFX die Karten lagernd haben wird.
robbitop
2022-12-10, 09:56:50
Die upsell Strategie scheint jetzt in Mode zu sein (man macht das P/L von SKUs unter dem Topdog absichtlich schlechter damit der Topdog gekauft wird). Bedeutet: sie funktioniert bei den Lemmingen. X-D
Complicated
2022-12-10, 09:57:45
Das nächste Problem, fast Alle Custom XT(X) haben den HDMI 2.1 Port nicht vorgesehen, nur die AMD Referenz für jene für die es wichtig erscheint.Unfug.
https://videocardz.com/newz/sapphire-radeon-rx-7900-xtx-nitro-graphics-card-has-been-pictured
The NITRO+ is equipped with three 8-pin power connectors and non-reference I/O configuration. There is no USB Type-C port like on AMD MBA cards, but there are two DisplayPort 2.1 and two HDMI 2.1 ports. As far as we can tell, this is the first card to feature two DisplayPort.
horn 12
2022-12-10, 10:04:41
@Bitte deinen Beitrag löschen!
Hatte mich verrannt. Sorry!
mironicus
2022-12-10, 10:32:06
Findet ihr es nicht auch blöd, daß beim AMD Referenzmodell die gesamte Backplate ohne Lüftungslöcher auskommt? Bei neueren Designs sind die PCBs schon so kurz, daß der Lüfter ganz rechts die Abwärme ohne großen Widerstand nach oben drücken kann.
robbitop
2022-12-10, 10:55:06
Wenn es nicht so viel statischen Druck kosten würde wäre 100% der Luft durch den Kühler nach draußen die beste Wahl.
BlacKi
2022-12-10, 11:33:01
ich find das design gut, aber die farbe einfach geil. komplett schwarz matt? da geh ich steil! hab gerade das ltt video gesehen.
basix
2022-12-10, 12:25:31
Findet ihr es nicht auch blöd, daß beim AMD Referenzmodell die gesamte Backplate ohne Lüftungslöcher auskommt? Bei neueren Designs sind die PCBs schon so kurz, daß der Lüfter ganz rechts die Abwärme ohne großen Widerstand nach oben drücken kann.
Bei den AMD Karten sind die PCBs zum Teil deutlich länger. Da kann man diese Löcher nur wenig sinnvoll anbringen. Die Sapphire Nitro+ hat zumindest Andeutungen solcher "Durchgangslöcher"
Nightspider
2022-12-10, 12:32:16
Die upsell Strategie scheint jetzt in Mode zu sein (man macht das P/L von SKUs unter dem Topdog absichtlich schlechter damit der Topdog gekauft wird). Bedeutet: sie funktioniert bei den Lemmingen. X-D
Nenn mich noch ein mal Lemming und....:mad::biggrin:
Aber ganz ehrlich, was hat man denn für eine Wahl wenn man Leistung im Bereich zwischen 4080 und 4090 haben willl?
Emil_i_Lönneberga
2022-12-10, 12:36:51
Findet ihr es nicht auch blöd, daß beim AMD Referenzmodell die gesamte Backplate ohne Lüftungslöcher auskommt? Bei neueren Designs sind die PCBs schon so kurz, daß der Lüfter ganz rechts die Abwärme ohne großen Widerstand nach oben drücken kann.
Alles ähnlich wie bei der 6900XT: Kühlerdesign ist noch schnittiger und in komplett schwarz sieht das insgesamt knorke aus. Ansonsten ähnliche PCB Bestückung / Anordnung & Länge, wieder Vapor Chamber, wieder ähnliche Kühlerdimensionen, Slotblende geschlossen und entsprechende Finnenanordnung zur Seite, demstsprechend performt der Kühler bei der TBP von 355 wieder solide (siehe 6900XT). Ob es bei +10% bzw. ~390W TBW noch ausreicht, muss man sehen. Wäre nicht weiter tragisch, dafür gibt es die 4 Slot Prügel wie die 7900XTX Nitro.
Und die 7900XTX Referenz passt in viele ITX Gehäuse. Dazu gibt es ein anschauliches Video von Optimus Tech.
hhPnqr6-cSo
https://pics.computerbase.de/1/0/6/0/2/2-36fe72258d54a3bc/20-1080.d1e69838.jpg
davidzo
2022-12-10, 12:36:54
Wie schätzt ihr die GPU Leistung von einem 7740u ein, wenn der Leak stimmt?
https://appuals.com/ryzen-7000-leak/
PHX2:
TSMC N4
2c Zen 4 (4MB L3, 2MB L2)
4c Zen 4C (4MB L3, 4MB L2)
2 WGP RDNA3 (GC 11.0.4)
DDR5/LPDDR5X
15-28w
Wenn man statt RX570 lieber zwischen RX6500xt und RX6400 schreibt, klingt das ganze weniger glamourös. Und das bezieht sich auf die 6WGP Variante, die 2WGP ist deutlich unterhalb der RX6400 einzuordnen (50%?). Vermutlich irgendwo in Schlagweite von vega8 und Intel XE G7 (Alderlake 96CU). Meteorlake-U (128EU) wird wohl deutlich schneller sein als PHX2.
Ist okay für eine Midrange to low end IGP in 2023.
- PHX1 IGP 6WGP: 6-7Tflops @3DC FHD 400-600% (?)
- Apple M2 10C: 3,6Tflops @ 3DC FHD ca. 300-500% (?)
- Radeon 680M 12CU: 3,6 Tflops @ 3DC FHD 365%
- Intel G7 Alderlake 96CU: 2,1Tflops @3DC FHD 200-250% (?)
- PHX2 IGP 2WGP: 2-3Tflops @3DC FHD 150-250%
- Vega 8 CU @2,0: 2Tflops @3DC FHD ca. 180-200% (?)
Leider ist Leos 3DC Ranking für IGPs nur sehr Lückenhaft, daher die vielen Schätzungen.
Die 2WGP / 4CU RDNA3 IGP wird eher auf Cezanne/Renoir/Lucienne niveau (8CU Vega @1850mhz) einzuordnen sein. In Bandbreitenlimitierten Szenarios etwas schneller durch den DDR5.
Die CPUleistung wird mit 6C wohl auch ähnlich sein wie 8x Zen2/3 kerne bei der MT CPU-Leistung. Renoir/Lucienne ist im low power Bereich um die 15Watt stark und auf Augenhöhe mit Cezanne/Zen3. Zen4+Zen4C wird sicher an die 30% schneller im ST sein, aber für signifikant höhere MT-Leistung müssten die Cores zu hoch takten. Ein 7600x mit 6 vollen Zen4 Kernen ist in MT-Anwendungen nur unwesentlich schneller als ein 5700x Zen3 8-Kerner und verbraucht dabei sogar etwas mehr. Ähnlich wird das mobile auch ablaufen, es sei denn das Scaling von TSMC N4 ist wesentlich besser als der bei Raphael genutzte N5 Prozess. Ich rechne aber eher damit dass N4 bei Density und unten rum effizienter ist, nicht bei den maximal Taktraten.
Prinzenrolle
2022-12-10, 12:46:33
Die "4080 12GB"? Da ist die 7900 XT in vielen Fällen attraktiver, weil einiges schneller und deutlich mehr Speicher. Einzig RT kann das Pendel in Richtung AD104 ausschlagen lassen und auch hier wohl nur in einzelnen Fällen.
Wer den aktuellsten Shit zocken will, wird wohl auch mit einer 4070Ti besser fahren als sich eine AMD zu holen. Das ist ja wohl ein Trauerspiel für AMD.
Nach den Benchmarks dürfte auch klar sein, dass die 4080 nicht von der 7900XTX geschlagen wird, auch nicht oldschool Raster.
Das erklärt auch die Preise, aber jeder wusste das ja besser.
basix
2022-12-10, 12:58:34
Wer den aktuellsten Shit zocken will, wird wohl auch mit einer 4070Ti besser fahren als sich eine AMD zu holen.
Eine N31 Karte wird auch inkl. RT in vielen Fällen schneller oder gleichauf mit einer 4070 Ti liegen. Mit einigen Ausnahmen wie CP2077.
Nach den Benchmarks dürfte auch klar sein, dass die 4080 nicht von der 7900XTX geschlagen wird, auch nicht oldschool Raster.
Die 7900XTX wird die 4080 in Raster 100%ig schlagen. Bei der 7900XT wird es evtl. knapp. Ansonsten: Wir können in 2 Tagen nochmals schauen, inwiefern deine Aussage Bestand hat ;)
BlacKi
2022-12-10, 13:04:04
Nach den Benchmarks dürfte auch klar sein, dass die 4080 nicht von der 7900XTX geschlagen wird, auch nicht oldschool Raster.
du meinst nach dem benchmark leak timespy?
halte ich nicht für repräsentativ. darauf würde ich nichts geben, man sieht das da was nicht stimmt, wenn man die amd karten untereinander vergleicht.
7900xtx vs xt oder gegen die 6950xt. selbst wenn man die shader irgendwie nicht auslasten könnte, der taktvorteil der xtx müsste alleine schon mehr als nur 1-2% bringen vs xt.
auch der firestrike bench zeigt das irgendwas nicht stimmt. wenn das die tatsächliche performance sein sollte, und amd in ihren slides nur absolute ausreisser nach oben hin gezeigt hätte, dann hätte amd ein ganz anderes problem. ich denke dann würde n31 komplett eingestampft werden, sowas darf man nicht releasen, so macht man seine firma kaputt.
Prinzenrolle
2022-12-10, 13:17:43
Eine N31 Karte wird auch inkl. RT in vielen Fällen schneller oder gleichauf mit einer 4070 Ti liegen. Mit einigen Ausnahmen wie CP2077.
Klar, sicher.
Die 7900XTX wird die 4080 in Raster 100%ig schlagen. Bei der 7900XT wird es evtl. knapp. Ansonsten: Wir können in 2 Tagen nochmals schauen, inwiefern deine Aussage Bestand hat ;)
Dann schauen wir mal. Nach dem aktuellen Stand fraglich.:wink:
davidzo
2022-12-10, 13:20:53
Findet ihr es nicht auch blöd, daß beim AMD Referenzmodell die gesamte Backplate ohne Lüftungslöcher auskommt? Bei neueren Designs sind die PCBs schon so kurz, daß der Lüfter ganz rechts die Abwärme ohne großen Widerstand nach oben drücken kann.
Bringt halt bei der Lamellenausrichtung nichts da Löcher zu machen. Da würde höchstens etwas Luft aus dem case durch gehen, aber keine Kühlluft aus dem Heatsink. Ist so wohl verwindungssteifer und ich mag AMDs Entscheidung die Barcodes und Sticker mit technischen Daten nicht auf die Kartenrückseite zu kleben wo sie in jedem case sehr sichtbar sind, sondern diese dezent auf die Slotblende zu lasern.
BlacKi
2022-12-10, 14:47:28
moores law hat angeblich benchmarkwerte zugespielt bekommen (mehrere quellen) und hat die eigenen nv benchmarks gegenübergestellt. etwas vorsicht ist angebracht, das übliche grain of salt halt.
https://youtu.be/bEDtThJg1Kc?t=984
Prinzenrolle
2022-12-10, 15:21:04
Das bestätigt ja mehr oder weniger die bisherigen Erwartungen.
7900XTX Raster minimal über der 4080, 7900XT minimal drunter.
fizzo
2022-12-10, 15:58:32
Nach den Benchmarks dürfte auch klar sein, dass die 4080 nicht von der 7900XTX geschlagen wird, auch nicht oldschool Raster.
Aha, ok. Laut dem Video gibt es auch Spiele wo die 4090 geschlagen wird...von einer XT.
Linmoum
2022-12-10, 16:11:14
In FHD und WQHD. Was da wohl der Grund ist? Ich denke, das muss erst ausgiebig erforscht werden, weil man es noch nicht weiß.
dargo
2022-12-10, 17:00:50
https://pics.computerbase.de/1/0/6/0/2/2-36fe72258d54a3bc/20-1080.d1e69838.jpg
Dieser Vergleich ist einfach zu geil. ;D
reaperrr
2022-12-10, 17:10:19
Calling it:
Gerüchte zur miesen Takt/Spannungs-Kurve von N31 stimmen und Taktraten unter Last werden bei beiden 7900ern teils erschreckend niedrig sein und sind der Hauptgrund für die mittelprächtige Performance.
Anders sind diese Ergebnisse selbst bei nur ~15-17% mehr IPC je CU kaum zu erklären.
Bin jetzt echt gespannt auf N32. Wenn es stimmt, dass der die Taktprobleme nicht hat, sollte der N32-Vollausbau locker mindestens nah an die 7900XT rankommen, denn:
- 6800 ohne großartig OC taktet unter Last nur ~1950 MHz
- 3090 Ti in 1440p ~37% schneller als eine stock Radeon 6800
- N32 hat 60 CUs verteilt auf 3 SE, genau wie 6800
- durchschnittliche IPC von N32 sollte wenigstens ~15% höher sein als bei der 6800
=> +15% IPC und ~+30% Takt (angenommen: 2,6 GHz Shader und 2,8 GHz Frontend) unter Last sollten in rund 45-50% höherer Leistung als eine 6800 resultieren, solange der IF$ und die Speicherbandbreite nicht bremsen (was ich nicht sehe, da RDNA3 bessere DCC hat und N32 schnelleren Speicher als eine 6950XT bei gleicher Interface-Breite).
Also selbst wenn N32 die 3 GHz auch nicht schafft und "nur" o.g. 2,6 GHz Shader- und 2,8 GHz FrontEnd-Takt, sollte N32XTX ~10% über einer 3090Ti landen, was laut Computerbase in 1440p nur ~10% hinter einer 4080 und damit vermutlich sehr nah an einer 7900XT wäre.
Schafft N32 noch 200-300 MHz mehr, wird's noch interessanter.
In FHD und WQHD. Was da wohl der Grund ist? Ich denke, das muss erst ausgiebig erforscht werden, weil man es noch nicht weiß.
Ist das nicht ziemlich offensichtlich?
Dass die 4090 gerade unterhalb von 4K und insb. in FHD teils ziemlich heftig CPU-limitiert ist, ist doch eigentlich bekannt.
Generell scheinen Ampere/Ada treiberseitig teils deutlich höhere CPU-Anforderungen zu haben als RDNA.
Die 4090 müsste von den Specs her normal überall mindestens um die 50% vor einer 4080 landen, schafft bei CB aber selbst in 4K nur 34% und in WQHD gerade mal lächerliche 17% Vorsprung, das sagt doch schon alles und macht es auch absolut glaubwürdig, dass RDNA3 in Spielen mit hohen CPU-Anforderungen dann halt mal vorn liegt, weil die 4090 nicht mal ansatzweise ausgelastet werden kann.
ChaosTM
2022-12-10, 17:12:09
Die Größe der FE ist noch ok. 3 Schlitze geht gerade noch. Der 2. PCIe Slot ist noch verfügbar für high bandwidth hungrige Karten.
Das wahre Verbrechen sind die Boardpartner Karten mit 3,5+ Slots und 3+ cm mehr Länge.
Die AIBs von AMD werden ähnlich riesig leider.
Die 4080 FE läuft nebenbei um 15 Grad kühler als die Phantom mit 3,65 Slots und 4cm mehr Länge - was führen die alle auf?
reaperrr
2022-12-10, 17:14:26
Dieser Vergleich ist einfach zu geil. ;D
Jep, und speziell bei der 4080 für die Performance und den Verbrauch auch einfach lächerlich, wenn man bedenkt wieviele Leute sich wahrscheinlich ein neues Gehäuse und/oder Mainboard anschaffen müssten, nur um eine 300W-Karte einbauen zu können.
Die Größe der FE ist noch ok. 3 Schlitze geht gerade noch. Der 2. PCIe Slot ist noch verfügbar für high bandwidth hungrige Karten.
Das wahre Verbrechen sind die Boardpartner Karten mit 3,5+ Slots und 3+ cm mehr Länge.
Die AIBs von AMD werden ähnlich riesig leider.
Das stimmt natürlich bzw. macht es leider noch kränker.
Das Schlimme ist, wer eine der schnellen neuen Karten will hat dann kaum eine andere Wahl und die AIBs kommen damit durch, weil die Alternativen fehlen.
Iscaran
2022-12-10, 17:15:49
Braucht man für die 4090 und 4080 eigentlich einen Waffenschein?
Hält das Gewicht überhaupt der Slothalter, ich mein das sind ja nur 2 so winzige Schräubchen, wenn man da 10kg dranschnallt?
Nicht dass es wieder beschwerden gibt, dass irgendwas nicht Spezifikationsgerecht umgesetzt würde bei nVidia....(Stichwort schmelzende Stecker)
Linmoum
2022-12-10, 17:16:36
Ist das nicht ziemlich offensichtlich?Natürlich, das war auch mehr Sarkasmus auf den Beitrag, dass ja auch eine XT mal vor der 4090 liegen würde. Die Gründe dafür sind halt offensichtlich. Eigentlich.
Wir hatten das zuletzt ja beispielsweise erst in Batman, wo eine 6600XT schneller mit RT (!) war als eine 4090.
Egal ob Nvidia oder AMD, es bringt nichts, Karten, die nochmal ein gutes Stück schneller als eine 3090(Ti) sind, in Auflösungen unterhalb von UHD zu benchen und daraus irgendetwas ableiten zu wollen. Das ist einfach nur sinnlos.
BlacKi
2022-12-10, 18:10:45
Dass die 4090 gerade unterhalb von 4K und insb. in FHD teils ziemlich heftig CPU-limitiert ist, ist doch eigentlich bekannt.
mit hohem anteil an dx12 im parcour, das mit amd karten im cpu limit deutlich höhere fps ausspuckt. da es auch hier und da in 4k cpu limit anliegt, könnten auch titel mit dx12 in 4k schneller sein. das ist in einigen titeln auch schon bei der 6900xt in fhd und 2k der fall und mit der 7900xtx dann umso mehr, vl auch in 4k.
https://abload.de/thumb/screenshot2022-12-10akxi6u.png (https://abload.de/image.php?img=screenshot2022-12-10akxi6u.png)
Lehdro
2022-12-10, 19:13:51
Egal ob Nvidia oder AMD, es bringt nichts, Karten, die nochmal ein gutes Stück schneller als eine 3090(Ti) sind, in Auflösungen unterhalb von UHD zu benchen und daraus irgendetwas ableiten zu wollen. Das ist einfach nur sinnlos.
Das kommt ja wohl massiv auf das getestete Spiel sowie die FPS an. Und wenn NV da Probleme hat die Rohleistung auch in FPS umzusetzen, dann ist das halt so. Kein Faktor das eben nicht benchen zu sollen - besonders wenn man von FPS Werten unterhalb von (mal grob in den Raum gestellt) 240 FPS in shooterartigen Spielen reden. Genauso wenn AMD bei RT halt hinterherhumpelt, das soll bitte auch getestet werden. Von daher begrüße ich auch die Initiative CPUs mit NV und AMD zu testen - mittlerweile ist da deutlich mehr zu sehen als früher.
Das soll natürlich nicht dazu aufrufen, da irgendwas abzuleiten (was du auch anmerkst), außerhalb der Faktoren CPU- und Auflösungsskalierung (die aber sehr wohl wichtig sind), aber der faktische Vorteil bleibt doch erhalten: Mehr FPS. Je nach Rohleistung kann das gerne mal über die üblichen Auflösungsgrenzen hinaus skalieren, wenn zum Beispiel das Rohleistungslevel erneut erhöht wird (was zwangsläufig passieren wird) kann dieser Faktor dann durchaus auch in 4k auftreten. Dann braucht NV dann 5k + RT um die Rohleistung auszuschöpfen - da fällt dann der Praxisnutzen durchaus fraglich aus.
Dasselbe Problem hat doch derzeit Intel mit Arc, wo trotz Rohleistung oft massiv etwas auf der Strecke bleibt. Da nützt mir höhere RT Leistung auch nur bedingt, wenn ich uralte Games nur mit schockierenden Frametimes spielen kann. Ebenso bringt mir eine RTX 4090 nichts wenn ich in 4k und 1440p dieselben FPS habe, diese aber eben nicht zum Beispiel 240 FPS in 1440p auf meinem 240 Hz WQHD Monitor haben könnte, mit einer fiktiven AMD Karte aber 240 fps in 1440p hätte, aber in 4k halt weniger.
Prinzenrolle
2022-12-10, 20:02:36
Es gibt auch Benchmarks in denen Nvidia-Karten in niedrigen Auflösungen deutlich schneller sind, gerade nach dem Directx12 Treiberupdate.
-=Popeye=-
2022-12-10, 20:35:06
Gigabyte announces custom Radeon RX 7900 XTX and RX 7900 XT graphics cards, clocks up to 2680 MHz (https://videocardz.com/press-release/gigabyte-announces-custom-radeon-rx-7900-xtx-and-rx-7900-xt-graphics-cards-clocks-up-to-2680-mhz)
Wenn man dies hier liest kann man ungefähr auf die Taktraten der Ref. Karten schliessen.
BlacKi
2022-12-10, 20:41:24
Gigabyte announces custom Radeon RX 7900 XTX and RX 7900 XT graphics cards, clocks up to 2680 MHz (https://videocardz.com/press-release/gigabyte-announces-custom-radeon-rx-7900-xtx-and-rx-7900-xt-graphics-cards-clocks-up-to-2680-mhz)
Wenn man dies hier liest kann man ungefähr auf die Taktraten der Ref. Karten schliessen.pass auf, das dargo dich nicht auch nochmal belehrt, dass die taktraten schon längst bekannt sind:biggrin:
-=Popeye=-
2022-12-10, 20:51:11
Also für mich sieht es so aus das sich RDNA3 taktmäßig genauso verhält wie RDNA2.
edit: ich denke mit einem möglichen MPT Support könnte man mit N31 auch wie schon mit N21 an der 3GHz Grenze kratzen.
Tangletingle
2022-12-10, 20:55:30
Ich übernehme das Mal: Taktraten der Ref sind schon längst absehbar.
robbitop
2022-12-10, 21:08:48
Naja „deutlich“ in 4K is übertrieben.
GerryB
2022-12-10, 21:35:14
https://www.techpowerup.com/301992/first-alleged-amd-radeon-rx-7900-series-benchmarks-leaked
Linmoum
2022-12-10, 21:49:57
Seit wann fangen selbst Seiten mit Reputation an solche Youtube fake Videos (bzw. ""Benchmarks"" daraus) zu verlinken? Das wird echt immer schlimmer, vor allem, da die ja selbst Karten zum testen haben und wissen, dass das völliger Quatsch ist.
Von offensichtlichem Blödsinn wie 80°C bei einer 4080 (die haben selbst 8x Modelle von der getestet und nicht ein einziges hat die 70°C gerissen...) mal ganz zu schweigen.
Die wollen echt alle nur noch Klicks.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.