PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 [34] 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Lyka
2022-12-10, 21:53:46
jepp, das wird langsam zu Bild-Niveau. "Wir wissen nicht, ob sie echt sind, aber aus Gründen der totalen Notwendigkeit posten wir Links und Bilder und ihr müsst entscheiden, ob ihr ihnen glaubt." :facepalm:

Aber wenn Leute nichtmal 48 (minus) Stunden warten können und sich lieber mit Pseudo-Fakten beschäftigen, tja, dann habe ich nicht wirklich Verständnis für Diskussionen.

DSD512
2022-12-10, 21:57:43
https://www.techpowerup.com/301992/first-alleged-amd-radeon-rx-7900-series-benchmarks-leaked#comments

Hardware Bug? Driver Problems? Alles zusammen.
Schon wieder Treibergrütze ... Mehhh.
Da haben sie wieder ein Haufen Arbeit vor sich.

Virtual
2022-12-10, 22:12:25
https://www.techpowerup.com/301992/first-alleged-amd-radeon-rx-7900-series-benchmarks-leaked#comments

Hardware Bug? Driver Problems? Alles zusammen.
Schon wieder Treibergrütze ... Mehhh.
Da haben sie wieder ein Haufen Arbeit vor sich.
Genauso authentisch wie der Youtube-Schrott darüber.

BlacKi
2022-12-10, 22:41:11
Genauso authentisch wie der Youtube-Schrott darüber.+1
Naja „deutlich“ in 4K is übertrieben.
bis zu 30% ist schon deutlich. aber eben nur im cpu limit.

amdfanuwe
2022-12-11, 00:15:46
Hardware Bug? Driver Problems? Alles zusammen.

Und wenn schon. Gibt heutzutage wohl kaum noch ein Produkt ohne Bugs.
Wenn nach den Ingenieuren geht wirds eh nie fertig.
Irgendwo ist da immer ein Kompromiss zu treffen.
Inwiefern AMDs Ingenieure, Marketing, Kostenstelle, Management mit dem Produkt glücklich sind, werden wir nie erfahren.

Also was solls, in ein paar Stunden sehen wir, was AMD auf den Tisch legt und können dann selbst entscheiden, ob der geforderte Preis dafür akzeptabel ist.

GerryB
2022-12-11, 02:46:06
Vllt. war ja merkwürdigerweise SAM/rBar=off oder hat net richtig gefunzt!?

Das in RDR2 die 4080 so gewaltige Microruckler hat, .... wäre noch deutlich ungünstiger.
Warum die XT untenrum ein mue besser als die XTX war, who knows.

Vllt. sollte man für die 24/7-Praxis auf 5% percentile oder so gehen.
(und gerne auch obenrum die 95% zeigen, ... ist schon so im CFX-tool drin)

btw.
Praktisch würde man als User bei 100Fps auch mal AntiLag ausprobieren.
Sollte zwar 1fps kosten aber smoother sein.

prinz_valium_2
2022-12-11, 02:47:54
https://www.techpowerup.com/301992/first-alleged-amd-radeon-rx-7900-series-benchmarks-leaked
Wie zu erwarten. All over the place.
Gerade auch was die Unterschiede zu den AVG und lows angeht.

BlacKi
2022-12-11, 03:05:37
Vllt. war ja merkwürdigerweise SAM/rBar=off oder hat net richtig gefunzt!?

Das in RDR2 die 4080 so gewaltige Microruckler hat, .... wäre noch deutlich ungünstiger.
Warum die XT untenrum ein mue besser als die XTX war, who knows.

Vllt. sollte man für die 24/7-Praxis auf 5% percentile oder so gehen.
(und gerne auch obenrum die 95% zeigen, ... ist schon so im CFX-tool drin)

btw.
Praktisch würde man als User bei 100Fps auch mal AntiLag ausprobieren.
Sollte zwar 1fps kosten aber smoother sein.nicht auf die fakes reinfallen...

Gott1337
2022-12-11, 03:34:30
denke auch das es fakes sind und wenn nicht, dann werden die Treiber noch einiges verbessern.

Linmoum
2022-12-11, 03:52:44
Wie offensichtlich sollen einem Fakes eigentlich noch ins Gesicht springen?

Keine Anzeige von Taktraten. Nur Zufall.
Eine 4080 mit 80°C. Alles klar.
Die XTX wird ausgelastet, die XT aber nicht. Logisch.
Die CPU Temperaturen sind auch völlig in sich schlüssig. Nicht.

Ich kann es ja verstehen, wenn irgendwelche MediaMarkt-Kevins auf sowas reinfallen. Aber Leute, die sich regelmäßig mit Hardware beschäftigen? Kommt schon, ehrlich jetzt... Diese ganzen bescheuerten YT-Fakes sollten dort bleiben, wo sie herkommen und gar nicht erst beachtet werden. Schlimm genug, dass eine Seite wie TPU sowas als Artikel verwurstet, weil man Klickgeil ist.

Und das auch noch zwei Tage, bevor die Fakten in Form von Reviews sowieso auf den Tisch kommen.

horn 12
2022-12-11, 09:25:05
https://videocardz.com/newz/custom-xfx-radeon-rx-7900-xtx-card-has-been-listed-for-1099-by-amazon-xt-variant-for-979

Customs für ca. 100 Dollar bis Weniger erhältlich.

rumpeLson
2022-12-11, 10:46:35
Für 100 Dollar würde ich eine nehmen.

basix
2022-12-11, 11:35:38
Braucht man für die 4090 und 4080 eigentlich einen Waffenschein?
Hält das Gewicht überhaupt der Slothalter, ich mein das sind ja nur 2 so winzige Schräubchen, wenn man da 10kg dranschnallt?

Bei eigentlich allen Karten wird eine Stütze mitgeliefert. Und zudem sind die Karten recht robust und steif gebaut und mechanisch fix mit der Slotblende gekoppelt. Da können die zwei Schrauben wenn man sie fest anzieht schon viel Gewicht tragen. Selbst ohne Auflage ist das Ding relativ gerade im PCIe-Slot. Einbau ist etwas frickelig, wenn man die Slotblendenschrauben ohne grössere Belastung auf dem PCIe-Slot festziehen will. Nichtdestotrotz sollte man die Karte abstützen. Vor allem, wenn man den PC mal bewegen sollte (Erschütterungen etc.)

Andererseits werden sich auch die N31 Modell bei ~2kg bewegen. Das mimmt sich also nicht mehr viel.

BlacKi
2022-12-11, 11:44:49
ich bin mir sicher, das war ein sarkastisch gemeinter post.

dargo
2022-12-11, 12:05:33
https://videocardz.com/newz/custom-xfx-radeon-rx-7900-xtx-card-has-been-listed-for-1099-by-amazon-xt-variant-for-979

Customs für ca. 100 Dollar bis Weniger erhältlich.
Lol... eine MSI Gaming RTX 4080 73% teurer als eine XFX MERC310 RX 7900XT. X-D

Prinzenrolle
2022-12-11, 12:14:13
Also kostet eine Custom 7900XTX 1099 Dollar, das sind ja nur noch hundert Dollar weniger als die bessere 4080. 💩
Das Mantra AMD wäre günstiger kann man sich dann auch endgültig in die Haare schmieren.

mr coffee
2022-12-11, 12:23:39
Naja, besser ist so eine Sache, je nachdem worauf man den Fokus legt. Aber ja, ist eine enge Nummer.

dargo
2022-12-11, 12:29:16
Also kostet eine Custom 7900XTX 1099 Dollar, das sind ja nur noch hundert Dollar weniger als die bessere 4080. 💩

Tomaten auf den Augen? Die günstigste Custom 4080 im Link liegt bei 1480$ von Gigabyte gefolgt von 1490$ von PNY.

w0mbat
2022-12-11, 12:49:27
Also kostet eine Custom 7900XTX 1099 Dollar, das sind ja nur noch hundert Dollar weniger als die bessere 4080. ��
Das Mantra AMD wäre günstiger kann man sich dann auch endgültig in die Haare schmieren.
Ich denke, die 7900 XTX wird ein gutes Stück schneller als eine 4080.

[MK2]Mythos
2022-12-11, 12:58:00
Prinzenrolle ist ein offensichtlicher nv Troll. Einfach ignorieren, gerade kurz vor einem AMD Launch.

BlacKi
2022-12-11, 13:23:12
es ist schwachsinn die preise dort jetzt schon zu vergleichen. ich denke, dass das einfach der uvp preis ist. bei der 4080 sind das keine uvp preise.

wo sich die preise ab dem 13.dez einordnen kann man noch nicht wissen. das sie dort bleiben halte ich für unwahrscheinlich.

Prinzenrolle
2022-12-11, 14:11:43
Mythos;13185947']Prinzenrolle ist ein offensichtlicher nv Troll. Einfach ignorieren, gerade kurz vor einem AMD Launch.

Darf man jetzt nicht mehr die UVP Preise vergleichen?

Was kann ich dafür, wenn XFX für seine billig Customs 1099 Dollar verlangt? Das sind bei uns ~ 1300 Euro.

Ne 4080 bekommt man momentan ab 1319 Euro. Nicht Mal ne schlechte Custom.
Am Ende zählt der Ladenpreis, keine UVP.

Spoiler:
In Witcher 3 mit Ultra Settings ist ne 4080 35% vor der 7900XTX.

dargo
2022-12-11, 14:23:49
Was kann ich dafür, wenn XFX für seine billig Customs 1099 Dollar verlangt?
Alter... du hast überhaupt keinen blassen Schimmer von XFX und das merkt man auch. :facepalm:

BlacKi
2022-12-11, 14:43:21
er übertreibt etwas, ein kleines bisschen XD
4wfM0558irc

Lyka
2022-12-11, 14:44:47
meine Empfehlung ist ja, jegliche Fake-Reviewer direkt zu bannen. Und wenn man sie nicht bannen kann, dann zumindest von jeglichen künftigen Reviews ausblenden für die nächsten Jahrzehnte.

Redneck
2022-12-11, 15:01:42
Spoiler:
In Witcher 3 mit Ultra Settings ist ne 4080 35% vor der 7900XTX.

Basierend auf welchem Fake Video oder hast Du das aus deinem Morgen Urin herausgelesen?

x5
2022-12-11, 15:02:36
Erst mal abwarten ob der AMD-Shop überhaupt Stückzahlen ausspuckt oder ob es so wird wie bei der letzten Generation.

Redneck
2022-12-11, 15:16:58
Erst mal abwarten ob der AMD-Shop überhaupt Stückzahlen ausspuckt oder ob es so wird wie bei der letzten Generation.

Wenn die Leistung nicht stimmt, ist mir die Verfügbarkeit egal und selbst wenn die erste Fuhre verkauft sein sollte dürfte keine Panikstimmung aufkommen.

mironicus
2022-12-11, 15:33:43
Ein kleiner Händler verrät etwas über die Verfügbarkeit und Preise der kommenden RX7900-Karten.

rERcN5y1o0A

Sehr geringe Verfügbarkeit, insbesondere auch für gewerbliche PC-Anbieter. Ende Dezember wird eine zweite Charge erwartet.
AMD bestimmt selbst welche Händler wieviel Karten bekommen, das war früher offenbar nicht so.
Die Custom-XTX Modelle werden wohl über 1400 Euro kosten, also teurer als die günstigsten RTX 4080-Karten.

UVP der XTX Referenz soll bei 1200 Euro liegen, wegen der knappen Verfügbarkeit rechnet er aber mit Verkaufspreisen von 1300 Euro+.

Nebenbei: Die Einkaufspreise der RTX 4090 ermöglichen jedem Händler pro Karte locker Gewinne im dreistelligen Euro-Bereich einfahren zu können.

ChaosTM
2022-12-11, 15:37:49
Kurze Zusammenfassung wär nett.

lass mich raten. Verfügbarkeit schwach, Preise hoch?

Exxtreme
2022-12-11, 16:10:15
Ja, so ähnlich. Verfügbarkeit ist nicht so toll (angeblich eine niedrige 4-stellige Anzahl) und die großen Händler werden bevorzugt. Aber es soll noch im Dezember eine zweite Ladung kommen.

Achill
2022-12-11, 16:39:39
Ein kleiner Händler verrät etwas über die Verfügbarkeit und Preise der kommenden RX7900-Karten.

https://youtu.be/rERcN5y1o0A

Sehr geringe Verfügbarkeit, insbesondere auch für gewerbliche PC-Anbieter. Ende Dezember wird eine zweite Charge erwartet.
AMD bestimmt selbst welche Händler wieviel Karten bekommen, das war früher offenbar nicht so.
Die Custom-XTX Modelle werden wohl über 1400 Euro kosten, also teurer als die günstigsten RTX 4080-Karten.

UVP der XTX Referenz soll bei 1200 Euro liegen, wegen der knappen Verfügbarkeit rechnet er aber mit Verkaufspreisen von 1300 Euro+.

Nebenbei: Die Einkaufspreise der RTX 4090 ermöglichen jedem Händler pro Karte locker Gewinne im dreistelligen Euro-Bereich einfahren zu können.

WTH??? Das hat doch hier nichts im Thread zu suchen und btw. evtl. über seine Motivation spekuliert warum in seinen Video auf einmal eine 4080 für +1300€ OK ist. Ich tippe darauf "Krotus Computer" sitzt auf 4080er Karten und hat keine Karten von AMD bekommen ..

Neurosphere
2022-12-11, 18:28:34
Youtube ist meist der Abfall von Twitter. Wirklich neues wird man da nichts finden.

Virtual
2022-12-11, 18:33:52
"Krotus Computer" verkauft nebst Zubehör nur zweckbezogen vorkonfigurierte bzw. auch individuell konfigurierbare Komplettsysteme.
Deren Webauftritt bietet keine Möglichkeit, Grafikkarten einzeln zu erwerben.
Der Händler ist spürbar frustriert, weil er keine Karten zum Launch zugeteilt bekam, somit könne er auch keine Komplettsystemen zum Launch anbieten.

Gemäß seiner Aussage kopiert AMD nun das typische Verhalten NVidias zum Launch. Welche Händler am Launch teilhaben dürfen, wird im Voraus bestimmt.

Ansonsten faselt er nur höchst spekulativ rum. Er hat Quellen, die er nicht nennen möchte, die ihm aber erzählen ... blablabla. ... und zu guter Letzt bewirbt er noch die 4080er als doch eigentlich gar nicht so teuer.

Der Beitrag ist, wie so viele andere kurz vor dem Launch, völlig überflüssig!

Gott1337
2022-12-11, 18:37:41
"Krotus Computer" verkauft nebst Zubehör nur zweckbezogen vorkonfigurierte bzw. auch individuell konfigurierbare Komplettsysteme.
Deren Webauftritt bietet keine Möglichkeit, Grafikkarten einzeln zu erwerben.
Der Händler ist spürbar frustriert, weil er keine Karten zum Launch zugeteilt bekam, somit könne er auch keine Komplettsystemen zum Launch anbieten.

Gemäß seiner Aussage kopiert AMD nun das typische Verhalten NVidias zum Launch. Welche Händler am Launch teilhaben dürfen, wird im Voraus bestimmt.

Ansonsten faselt er nur höchst spekulativ rum. Er hat Quellen, die er nicht nennen möchte, die ihm aber erzählen ... blablabla. ... und zu guter Letzt bewirbt er noch die 4080er als doch eigentlich gar nicht so teuer.

Der Beitrag ist, wie so viele andere kurz vor dem Launch, völlig überflüssig!
ist überhaupt nicht überflüssig, wir wissen jetzt zumindest das vielleicht 1000 Karten verkauft werden, der rest wird in Komplett-PCs wandern. dein Kommentar war überflüssig.

RoNsOn Xs
2022-12-11, 19:11:20
ist überhaupt nicht überflüssig, wir wissen jetzt zumindest das vielleicht 1000 Karten verkauft werden, der rest wird in Komplett-PCs wandern. dein Kommentar war überflüssig.
Wir wissen, dass wir nichts wissen und man diese 1000 Karten nicht auf die bare Münze nehmen darf. Dein Beitrag war überflüssig.

Neurosphere
2022-12-11, 19:29:40
ist überhaupt nicht überflüssig, wir wissen jetzt zumindest das vielleicht 1000 Karten verkauft werden, der rest wird in Komplett-PCs wandern. dein Kommentar war überflüssig.

Die generelle Story ist alt und deswegen auch überflüssig. Woher will der Händler auch Zahlen haben wenn er keine Karten bekommt? Das ist das typische "Gebt mir ein paar klicks für altes Zeug!" auf Youtube.

Das Original stammt von Igor und ist schon ein paar Tage älter:

https://www.igorslab.de/startschwierigkeiten-bei-amds-radeon-rx-7900xtx-und-7900xt-boardpartner-scheinbar-mit-problemen-und-verzoegerungen/

Hier sinds ca. 3000 Karten zum launch für DE.

dargo
2022-12-11, 19:31:25
Ein kleiner Händler verrät etwas über die Verfügbarkeit und Preise der kommenden RX7900-Karten.

https://youtu.be/rERcN5y1o0A

Alter Schwede... das Video kann man sich kaum reinziehen. Wenn ich dem Typen zuhöre fällt mir nur eins ein. Junge... komm endlich auf den Punkt anstatt über 20 Minuten rumzusülzen! Diese Youtuber von heute sind echt. :facepalm:

OgrEGT
2022-12-11, 19:58:33
Presenting PowerColor RED DEVIL 7900 series
https://www.powercolor.com/new?id=1670550406

OgrEGT
2022-12-11, 20:01:38
Schon heftig... alle Customs bisher vom Kühler Größenwahn befallen..
Selbst wenn ich mir eine kaufen wollte passt wahrscheinlich nur die MBA...

Linmoum
2022-12-11, 20:03:24
Wird ja auch in Richtung 400W aufwärts bei den meisten Customs gehen. Natürlich erschlagen die Hersteller das mit Material, will ja keiner als einziger eine laute Karte verkaufen, wenn der Rest es genauso wie bei Nvidia macht.

Berniyh
2022-12-11, 20:17:13
Schon heftig... alle Customs bisher vom Kühler Größenwahn befallen..
Selbst wenn ich mir eine kaufen wollte passt wahrscheinlich nur die MBA...
Ich frag mich eher, ob manche Leute echt stundenlang pro Tag ihre GPU anschauen. :confused:
Also ich seh meine einmal im Jahr, wenn überhaupt.
Austauschbare Backplate, was ein Quark. :freak:

BlacKi
2022-12-11, 20:17:16
ich denke eher, das man mehr marge mit high end kühlern macht, als mit den butter und brot karten. ich denke es wird wie beim rdna2 release, deutliche aufpreise für die customs.

DrFreaK666
2022-12-11, 20:55:25
Ich frag mich eher, ob manche Leute echt stundenlang pro Tag ihre GPU anschauen. :confused:
Also ich seh meine einmal im Jahr, wenn überhaupt.
Austauschbare Backplate, was ein Quark. :freak:

Das ist vielleicht bei Mittelklasse-Karten Quark. Ich verstehe es aber auch nicht, bin aber nicht die Zielgruppe

CompuJoe
2022-12-11, 21:36:19
Habe mir ne Ref. der zweiten Lieferung bei uns im Laden gesichert, mit Glück noch vor Weihnachten.
Das geflacker bei 3 Monitoren mit unterschiedlicher Hz (240, 144, 75) geht mir auf die Eier, bekommt nvidia nicht gefixt. Genau wie das Problem wenn ich Zocke und auf einen anderen Bildschirm nen Twitchstream laufen habe rennt der nur wenn ich die FPS soweit begrenze das die GPU nicht ausgelastet wird, sonst Diashow. Hatte ich zwischenzeitlich mit er 6800 non XT nicht gehabt.

Gott1337
2022-12-11, 21:40:08
Habe mir ne Ref. der zweiten Lieferung bei uns im Laden gesichert, mit Glück noch vor Weihnachten.
Das geflacker bei 3 Monitoren mit unterschiedlicher Hz (240, 144, 75) geht mir auf die Eier, bekommt nvidia nicht gefixt.
geht bei mir ohne Probleme, sind aber 60, 120 und 144 Hz bei mir.

CompuJoe
2022-12-11, 21:44:18
geht bei mir ohne Probleme, sind aber 60, 120 und 144 Hz bei mir.

Habe ich seit ich den Odyssey G7 mit 240Hz habe, da flackert immer wenn ein Video läuft auf allen Bildschirmen kurz das Video auf was gerade läuft, Abhilfe bringt nur das deaktivieren der Hardwarebeschleunigung im Browser, aber dann ist alles träge.

Prinzenrolle
2022-12-12, 06:01:54
Ansonsten faselt er nur höchst spekulativ rum. Er hat Quellen, die er nicht nennen möchte, die ihm aber erzählen ... blablabla. ...


In der Regel sind Händler innerhalb Deutschlands per WhatsApp vernetzt und tauschen sich aus, größere, kleinere usw...

Aber schon witzig, wenn die News nicht passen, wird der Überbringer kritisiert.
Es gibt nicht mehr als ein paar tausend Karten für Deutschland bis Mitte Januar.

Papierlaunch ick hör dir trapsen.

Neurosphere
2022-12-12, 07:38:57
In der Regel sind Händler innerhalb Deutschlands per WhatsApp vernetzt und tauschen sich aus, größere, kleinere usw...

Aber schon witzig, wenn die News nicht passen, wird der Überbringer kritisiert.
Es gibt nicht mehr als ein paar tausend Karten für Deutschland bis Mitte Januar.

Papierlaunch ick hör dir trapsen.

https://wccftech.com/amd-shipping-200000-rdna-3-navi-31-gpus-for-radeon-rx-7900-xtx-rx-7900-xt-in-q4-2022/

Abwarten


Edith: Sorry, bin zu doof am Handy einen vernünftigen Link einzufügen

SamLombardo
2022-12-12, 08:05:56
Wie war das, reviews gibt's heute, oder?

rumpeLson
2022-12-12, 08:23:49
Wie war das, reviews gibt's heute, oder?
Ja die Gerüchte sprechen von heute 15 Uhr. Bin echt gespannt wie die Karten abschneiden.

SamLombardo
2022-12-12, 08:30:25
Ja die Gerüchte sprechen von heute 15 Uhr. Bin echt gespannt wie die Karten abschneiden.
Ah, danke für die Info. Also heute 15 Uhr mal gucken.

Metzler
2022-12-12, 08:41:55
Auf Youtube findet man Vergleichsbenchmark Videos zwischen einer angeblichen 7900xtx und einer 4090 sowie 4080:

https://www.youtube.com/watch?v=Fh4SeKSsmXI

https://www.youtube.com/watch?v=K4XLJaNhdBc

Leider wenig Kontextinformationen (Testsetup, Einstellungen, etc.).

dildo4u
2022-12-12, 08:43:57
Einfach die paar Stunden warten und keine Fakes verlinken.

Iscaran
2022-12-12, 08:44:03
Sehr geringe Verfügbarkeit, insbesondere auch für gewerbliche PC-Anbieter. Ende Dezember wird eine zweite Charge erwartet.


Jaja - nur "wenige" Karten in Zulauf. Scheinbar vergessen die Leute aber auch, dass es nur realistisch ist wenn AMD nicht annähernd die selbe Stückzahl wie nVidia auslieft.

Ich verweise da gern auf die Zahlen von Leonidas und meinen Kommentar dazu (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13186452#post13186452)


Bei einer Marktsituation von 10/90 sind 200.000 AMD Karten übrigens in etwa gleichbedeutend mit 1.800.000 nVidia Karten.

Tatsächlich scheint die Liefersituation wohl eher so 1:1 zu sein (AMD 200k 7900er vs nVidia 130k 4090er und 30k 4080).

Wer hat hier also eher Lieferprobleme? Oder glaubt hier irgendwer, dass über Nacht all die Grünen Fanboys, die sowieso NUR nach Farbe kaufen mutieren und plötzlich eine Rot-Grün-Schwäche entwickeln?

AMD könnte schon von einer "Revolution" sprechen wenn sich der Marktanteil von 10% auf 20% verdoppelt.
Manche Leute haben einfach Null Sinn für Zahlen und Realismus.

Hott3X
2022-12-12, 08:53:55
Ich bin mal auf die Tests gespannt. Werde aber eh bis Januar warten, bis die ersten ungeduldigen abgefrühstückt sind und die Verfügbarkeit und der Preis sich gesetzt haben. Zudem noch die Test der 4070TI abwarten. Für mich kommen eh nur eine 7900XT oder die 4070TI in Frage.

dargo
2022-12-12, 09:10:21
Ich bin gespannt ob die 200k stimmen. In dem Fall dürften sich die Händler zumindest theoretisch nicht übermäßig die Taschen voll machen. So ein kleiner "Deppenaufschlag" ist ja normal am Anfang.

Ich bin mal auf die Tests gespannt. Werde aber eh bis Januar warten, bis die ersten ungeduldigen abgefrühstückt sind und die Verfügbarkeit und der Preis sich gesetzt haben. Zudem noch die Test der 4070TI abwarten. Für mich kommen eh nur eine 7900XT oder die 4070TI in Frage.
Für mich kommt eigentlich auch nur die 7900XT in Frage wegen dem Verbrauch. Selbst das ist mir eigentlich zu viel, ich peile wieder ca. 250-260W an. Und von der 7900XTX so weit runter wird schon schwieriger ohne Performance zu verlieren trotz UV. Erst recht bei Customs die nochmal was drauflegen. Zudem möchte ich noch Tests diverser Customs sowie Referenz abwarten um einen besseren Überblick zu bekommen. Ich bin keine Fliege die sich auf den ersten Scheißhaufen schmeißt. :D Kühlung hat bei mir die höchste Priorität, erst danach kommt Performance. Wenn die 7900XTX aber bei den Straßenpreisen tatsächlich nur ~100€ mehr kostet wird die Entscheidung schwierig. Naja... erstmal in Ruhe Tests und Preisentwicklung abwarten. :) Nüchtern betrachtet weiß ich noch gar nicht wofür ich eine neue Graka brauche? :freak: Kommt ja eh kaum was an für mich interessanten Spielen raus. ;D

nordic_pegasus
2022-12-12, 09:37:08
https://wccftech.com/amd-shipping-200000-rdna-3-navi-31-gpus-for-radeon-rx-7900-xtx-rx-7900-xt-in-q4-2022/

Abwarten


wann endet für AMD das Q4? Firmen haben doch häufig eine kreative Auslegung des Kalenders.

Die 200.000 bis Ende Q4 und 30.000 am Launch-Tag weltweit müssen ja nicht im Wiederspruch mit den kolportierten 3.000 Einheiten für D/A/CH stehen. Das Gerücht war doch, dass für Europa / Mittlerer Osten / Afrika ca. 10.000 Karten verfügbar sind an Day1, davon dann 3.000 für D/A/CH. Dann blieben noch 20.000 für USA, Kanada, Asien und den Rest. Klingt doch gar nicht so unplausibel.

amdfanuwe
2022-12-12, 09:53:09
wann endet für AMD das Q4?
Letzter Samstag eines Kalender Quartals.
Also 31. Dezember

Disco_STFU
2022-12-12, 10:18:16
Wo hat man denn die besten Chancen auf eine Referenz 7900XTX? :eek::freak:

Rancor
2022-12-12, 10:25:27
Es ist so oder so keine Karte interessant, weil die Dinger einfach 400€ zu teuer sind :P

nordic_pegasus
2022-12-12, 10:27:41
zwingt Dich ja niemand zu kaufen ;-)

DrFreaK666
2022-12-12, 10:33:42
Es ist so oder so keine Karte intressant, weil die Dinger einfach 400€ zu teuer sind :P

So wie alle Karten momentan

Thomas Gräf
2022-12-12, 10:57:02
Wo hat man denn die besten Chancen auf eine Referenz 7900XTX? :eek::freak:

Auf eBay, so gegen Ende der Woche. ;)

Virtual
2022-12-12, 11:09:59
wann endet für AMD das Q4? Firmen haben doch häufig eine kreative Auslegung des Kalenders.

Die 200.000 bis Ende Q4 und 30.000 am Launch-Tag weltweit müssen ja nicht im Wiederspruch mit den kolportierten 3.000 Einheiten für D/A/CH stehen. Das Gerücht war doch, dass für Europa / Mittlerer Osten / Afrika ca. 10.000 Karten verfügbar sind an Day1, davon dann 3.000 für D/A/CH. Dann blieben noch 20.000 für USA, Kanada, Asien und den Rest. Klingt doch gar nicht so unplausibel.
Wenn du die angeblich ausgelieferten 180000(+) Chips der 4090/4080 als Maßstab für die Verfügbarkeit von kaufbaren Karten in Q4 nimmst, dazu noch die neue Preisklasse des HighEnd als aktuell wenig attraktiv einkalkulierst, dann sollte bei ca. 200000 NV31 (fast?) jeder Kaufwillige seine 7900XT(X) Karte bekommen. Es ist ebenso überflüssig die Verfügbarkeit der Karten vor dem Launch Mitte Dezember als (nicht?) ausreichend für Q4 zu beurteilen, wie auch die relative Leistung der 7900XT(X) vor den Reviews heute Nachmittag.

[MK2]Mythos
2022-12-12, 11:52:07
In der Regel sind Händler innerhalb Deutschlands per WhatsApp vernetzt und tauschen sich aus, größere, kleinere usw...

Aber schon witzig, wenn die News nicht passen, wird der Überbringer kritisiert.
Es gibt nicht mehr als ein paar tausend Karten für Deutschland bis Mitte Januar.

Papierlaunch ick hör dir trapsen.
Was für News? Es gibt keine News, es gibt nur Hampelmänner auf Youtube und Fanboys wie dich, die hier jeden vermeintlich negativen Strohhalm greifen um rumstänkern zu können. Tests abwarten, Marktstart abwarten, dann klugscheißen.

DrFreaK666
2022-12-12, 12:12:18
"Jemand auf YT, Twitter, Facebook usw. hat gesagt..." sind für manche schon News.

Linmoum
2022-12-12, 12:18:30
Ist doch vollkommen egal, wo etwas gesagt wird. Relevant ist die Person dahinter und wie glaubwürdig diese ist. Keine Ahnung, ob das für diesen kleinen Händler hier gilt. Kann ich nicht beurteilen.

Aber ob das nun auf youtube, twitter oder sonstwo seine Ursprung hat, ist doch erst mal unerheblich.

Zossel
2022-12-12, 12:19:22
Während alle hier auf das Christkind warten, hier mal die Grafikkarten Knaller von früher: (damals waren die auch schon recht groß)

https://www.youtube.com/watch?v=xNsK_F4JlG4

DrFreaK666
2022-12-12, 12:39:42
Ist doch vollkommen egal, wo etwas gesagt wird. Relevant ist die Person dahinter und wie glaubwürdig diese ist. Keine Ahnung, ob das für diesen kleinen Händler hier gilt. Kann ich nicht beurteilen.

Aber ob das nun auf youtube, twitter oder sonstwo seine Ursprung hat, ist doch erst mal unerheblich.

"Jemand auf XYZ" ist für manchen glaubwürdig genug. Hab mich auch extra auf Twitter angemeldet um schnellstmöglich die neuesten Radeon-"Infos" zu erhalten. Was am Ende dabei herauskam ist bekannt (2x RZ-Performance, >2x RT-Performance jedenfalls nicht)

Linmoum
2022-12-12, 12:42:34
Bekannt ist aber nicht, ob das von vornherein utopisch war oder insb. V/F bei N31 tatsächlich nicht dort ist, wo man es haben wollte und ggf. einfach schlicht 20-30% Takt fehlen. Das wird man ggf. noch sehen, ob da etwas dran ist.

OpenVMSwartoll
2022-12-12, 12:46:07
Ich hoffe, Raff sitzt nach seinem Marathon rum, trinkt Kaffee, isst Stollen und denkt sich: "Wenn Ihr wüsstet, was ich weiß..."

Virtual
2022-12-12, 12:47:39
Ist doch vollkommen egal, wo etwas gesagt wird. Relevant ist die Person dahinter und wie glaubwürdig diese ist. Keine Ahnung, ob das für diesen kleinen Händler hier gilt. Kann ich nicht beurteilen.

Aber ob das nun auf youtube, twitter oder sonstwo seine Ursprung hat, ist doch erst mal unerheblich.
Wenige Wochen bis kurz vor dem Launch einer neuen Generation ist die Aufmerksamkeit bis mithin Gier nach wünschenswerten Informationen am größten. Logischerweise steigt die Zahl der "Leaker" mit erfundenen Informationen an, denn nun ist die beste Zeit, um damit monetär oder populär erfolgreich zu sein. Bis auf die offiziellen Quellen kann man seriös niemandem Glaubwürdigkeit zusprechen und je fantasievoller die Leaks erscheinen, desto mehr dürfte es ein Dummschwätzer mit beliebigen Eigeninteresse an Falschinformationen sein.

Wie willst du die Glaubwürdigkeit einer inoffiziellen Quelle "seriös" einschätzen?

davidzo
2022-12-12, 13:14:00
Während alle hier auf das Christkind warten, hier mal die Grafikkarten Knaller von früher: (damals waren die auch schon recht groß)

https://www.youtube.com/watch?v=xNsK_F4JlG4

Ty, sehr schöner Nostalgielink! :biggrin:

Da fällt mir noch der hier ein, ein sehr früher und dann doch relativ präziser RTX4090 Leak:
0frNP0qzxQc

Linmoum
2022-12-12, 14:21:22
Die Radeon RX 7900 XTX überzeugt im mit hoher Rasterleistung. In 4K-Auflösung kann sie die Nvidia Geforce RTX 4080 knapp hinter sich lassen und kostet dabei sogar weniger. Mit Blick auf Raytracing kann es AMDs neues Flaggschiff allerdings nicht mit dem Kontrahenten aufnehmen. Mit FSR 3 soll im kommenden Jahr aber zumindest ein Herausforderer für DLSS 3 an den Start gehen.

Da hat die Gamestar wohl versehentlich schon die Preview zum Artikel eingestellt. :D

Troyan
2022-12-12, 14:30:17
"Knapp" hieße, dass die 4090 fast 30% schneller wäre...

ChaosTM
2022-12-12, 14:33:17
Alles wie erwartet.
Jetzt muss man sich die Frage stellen.: 50% mehr Speicher oder bessere RT Performance.

Linmoum
2022-12-12, 14:36:29
Die Speicherfrage ist im Prinzip genauso irrelevant wie schon vor zwei Jahren auf der anderen Seite bei 3090 vs. 6900XT. 16GiB reichen problemlos und sind zukunftssicher. Mehr ist immer schön, aber nicht notwendig.

DrFreaK666
2022-12-12, 14:37:15
"knapp" hieße weniger als viele erwartet haben. Was verwendet die GS als Unterbau?

Exxtreme
2022-12-12, 14:38:20
Alles wie erwartet.
Jetzt muss man sich die Frage stellen.: 50% mehr Speicher oder bessere RT Performance.

Der Preis kommt auch noch dazu. Die RTX 4080 ist deutlich teurer.

Rancor
2022-12-12, 14:38:27
Ich sehe die 20GB jetzt auch nicht als Vorteil. Die Frage lautet ob die Karte nur wegen noch fehlendem FSR3 keine Chance in RT hat oder generell nicht.

Disco_STFU
2022-12-12, 14:40:38
Da hat die Gamestar wohl versehentlich schon die Preview zum Artikel eingestellt. :D

Fänd ich jetzt ehrlichgesagt etwas enttäuschend...

/Hab mit so 10-15% vor einer 4080 gerechnet...

Der_Korken
2022-12-12, 14:41:15
Ich sehe die 20GB jetzt auch nicht als Vorteil. Die Frage lautet ob die Karte nur wegen noch fehlendem FSR3 keine Chance in RT hat oder generell nicht.

In 19 Minuten wissen wir es :D

Ich tippe aber, dass die 7900XTX auch abseits von FSR/DLSS in RT deutlich langsamer als die 4080 sein wird. Alleine schon weges des Wordings, dass die Rasterizer-Leistung sehr gut ist und man dort knapp schneller ist. Das wäre wohl kaum der Fall, wenn man 4080@DLSS3 vs 7900XTX@FSR2 bencht.

Edit: Je nach Spielemix schätze ich die 4080 in RT@4K ca. 30% schneller ein, um es mal etwas zu konkretisieren. Damit würde die 7900 proportional zur 6900 zulegen.

Linmoum
2022-12-12, 14:41:28
Der Preis kommt auch noch dazu. Die RTX 4080 ist deutlich teurer.Würde mich überraschen, wenn die Preise hierzulande bzw. generell in Europa großartig auseinanderliegen.

Vielleicht in den USA, aber auch da kommt es dann eher auf die Customs an. Die wird es in deutlich größeren Mengen als Referenzkarten geben.

Exxtreme
2022-12-12, 14:48:16
Würde mich überraschen, wenn die Preise hierzulande bzw. generell in Europa großartig auseinanderliegen.

Vielleicht in den USA, aber auch da kommt es dann eher auf die Customs an. Die wird es in deutlich größeren Mengen als Referenzkarten geben.

Ich rechne trotzdem damit, dass es da ~200 € Unterschied geben wird. Und für 200 € kann man woanders was besseres kaufen wie eine schnellere CPU oder schnelleren RAM etc.

Prinzenrolle
2022-12-12, 14:49:12
Da hat die Gamestar wohl versehentlich schon die Preview zum Artikel eingestellt. :D

Kommt also genauso wie erwartet, insgesamt kann man die RTX 4080 nicht schlagen.:biggrin:
Soviel zu AMD´s Preisofferte und dem ganzen Preisgesülze, die 4080 wäre viel zu teuer.
Eher sollte AMD mal mit dem Preis runtergehen. Wer High End kauft, dürfte sich stark für RT interessieren.

DrFreaK666
2022-12-12, 14:51:22
Aus einem Text (Gamestar!) kann man noch gar nichts schließen

DrFreaK666
2022-12-12, 14:56:54
https://videocardz.com/144834/amd-radeon-rx-7900-xtx-xt-review-roundup

edit: sind keine Links. Aber es wird mehr als nur Gamestar geben

Gamestar ist gar nicht gelistet :D

Rolsch
2022-12-12, 15:03:43
zu spät

Dural
2022-12-12, 15:05:46
haha :freak::freak::freak:

und wer hatte mal wieder recht? ;)

Neurosphere
2022-12-12, 15:06:26
Puh...

Vielleicht wäre ein evtl. nötiger Respin doch besser gewesen.

Dural
2022-12-12, 15:09:40
Da hilft auch kein Respin mehr... ;)

Süss fand ich ja die Monate lange andauernde "AMD ist in Raster vorne Prognosen" als AMD bekannt gab wie das Ding aufgebaut ist war mir sofort klar das wird auch hier nichts.

Metzler
2022-12-12, 15:38:26
Hm wieso die negativen Kommentare? Mir scheint das ziemlich genau so wie erwartet zu sein: RT Performance nicht gut, Rasterizing absolut in Ordnung, Preis deutlich besser als bei NVidia... Ich hätte mir noch etwas mehr bei der Leistungsaufnahme gewünscht, aber ok.

ChaosTM
2022-12-12, 15:41:14
Die Speicherfrage ist im Prinzip genauso irrelevant wie schon vor zwei Jahren auf der anderen Seite bei 3090 vs. 6900XT. 16GiB reichen problemlos und sind zukunftssicher. Mehr ist immer schön, aber nicht notwendig.

Im FS2020 werden in VR schon jetzt bis zu 15GB alloziert. So sicher wäre ich mir da nicht, aber ich werde sowieso auf das Dickshuff upgraden..

mr coffee
2022-12-12, 15:43:26
Der MultiMonitor-Verbrauch ist halt echt übel und mir leider relativ wichtig …

MSABK
2022-12-12, 15:45:54
Der MultiMonitor-Verbrauch ist halt echt übel und mir leider relativ wichtig …

Echt? Dachte der Trend geht Richtung breite Monitore.

mr coffee
2022-12-12, 15:51:06
Ja kann sein, trotzdem habe ich mehrere … und 100 Watt zu 20 Watt (siehe Techpowerup) ist halt ordentlich.

reaperrr
2022-12-12, 15:58:46
Da hilft auch kein Respin mehr... ;)

Süss fand ich ja die Monate lange andauernde "AMD ist in Raster vorne Prognosen" als AMD bekannt gab wie das Ding aufgebaut ist war mir sofort klar das wird auch hier nichts.
Es konnten sich halt die meisten (inkl. mir) nicht vorstellen, dass AMD so wenig CUs verbaut, wenn sie nicht entweder die IPC und/oder den Takt massiv erhöhen können.
Dass dann weder das eine noch das andere so richtig geklappt hat und man augenscheinlich viele zusätzliche Transistoren für wenig Ertrag investiert hat ... tja, enttäuschend.

Da muss bei AMD neben eventuellen N31-exklusiven Bugs (wird man dann zum N32-Launch sehen, was dran war) und einem eventuell noch etwas unfertigen RDNA3-Shader-Compiler aber schon bei der Konzeption was gewaltig schiefgelaufen sein.

Jetzt mal ehrlich, angesichts verbesserter DCC und schnellerem Speicher (offenbar wären ja auch 21 GHz kein Problem gewesen, wenn man nach den OC-Berichten geht) kann mir keiner erzählen, dass 384bit für die Rohleistung eine gute Idee waren. Entweder schmaleres SI, um am IF$/SI/Speicher Energie und Kosten zu sparen die man dann in höheren Chiptakt und niedrigere Preise investieren kann, oder breiteres GCD-Design (5 WGP je SA für 120 CUs, oder 8 SA für 128), um die 384bit auch selbst bei Taktproblemen definitiv zu rechtfertigen.

Da hat AMD augenscheinlich beim Design am falschen Ende gespart, unabhängig davon, ob sie mit einem Respin noch ~15% mehr Leistung rausholen können.
Für mich sieht N31 leider hart nach N22 aus (zu viel Cache, zu breites SI und damit zu viel Fläche für die Rohleistung).

Damit ist auch klar, dass N32 Taktraten von ~3,2-3,4 GHz unter Spielelast erreichen muss, wenn das keine ähnliche Enttäuschung geben soll, und das wird wahrscheinlich selbst ohne Bugs nicht einfach.
Bin gespannt...

dargo
2022-12-12, 16:21:51
haha :freak::freak::freak:

und wer hatte mal wieder recht? ;)
Wird dir dein dummschwätzen nicht langsam peinlich? Oder soll ich dich nochmal an deine Prognosen zu RDNA2 erinnern RX6900XT = RTX 3070? :rolleyes:

Κριός
2022-12-12, 16:23:30
Unrecht hat er ja nicht. Für wen ist die Karte gemacht? Alleine das fehlende RTX wird alle die das Geld für die Karte haben auf Nvidia wechseln lassen.

Berniyh
2022-12-12, 16:24:18
Echt? Dachte der Trend geht Richtung breite Monitore.
Gleiches Problem.
Wobei ich mir da schon auch vorstellen könnte, dass es noch Treiberprobleme gibt und sich das in Zukunft bessert.
Ein Teil davon wird aber vermutlich schon durch die Interconnects verursacht und designtechnisch zu verorten sein.
Unrecht hat er ja nicht. Für wen ist die Karte gemacht? Alleine das fehlende RTX wird alle die das Geld für die Karte haben auf Nvidia wechseln lassen.
Solche Minderheitenprobleme sind nicht für jeden relevant.

DrFreaK666
2022-12-12, 16:26:12
Unrecht hat er ja nicht. Für wen ist die Karte gemacht? Alleine das fehlende RTX wird alle die das Geld für die Karte haben auf Nvidia wechseln lassen.

Sollen die RTX an den Namen klatschen und sich dann von NV verklagen lassen?
RT ist da auf ca. 3090 Niveau

Κριός
2022-12-12, 16:28:40
Solche Minderheitenprobleme sind nicht für jeden relevant.

Wer 1000,- für eine GPU investiert der will auch alle möglichen features. Hat ein Grund das AMD im Vergleich keine Grafikkarten verkaufen kann. ;-)

DrFreaK666
2022-12-12, 16:31:44
... Hat ein Grund das AMD im Vergleich keine Grafikkarten verkaufen kann. ;-)

Weil manche Menschen einfach keine Ahnung haben!

Κριός
2022-12-12, 16:35:03
Weil manche Menschen einfach keine Ahnung haben!

Oder sie sehen etwas was sie haben möchten und holen sich das. Kannst natürlich sagen das sie keine Ahnung haben. Aber letztendlich sind so ziemlich alle von Nvidia (abgesehen von den Preisen) zufrieden. Freie Marktwirtschaft. Die Leute kaufen weiter wenn sie zufrieden sind.

Wollte kein Streit vom Zaun treten. Lasst doch lieber über die Benches sprechen.

Berniyh
2022-12-12, 16:35:12
Wer 1000,- für eine GPU investiert der will auch alle möglichen features. Hat ein Grund das AMD im Vergleich keine Grafikkarten verkaufen kann. ;-)
Aha, und welche GPU kauft "der" dann?
Laut den Nvidia Fanboys ist doch für RTX alles unter einer 4090 nicht zu gebrauchen? Und selbst ne 4080 bekommst du nicht für 1000€.

Mir ging es aber auch eher um das Feature. Mir geht das nämlich inzwischen tierische auf den Zeiger. Jede Diskussion um GPUs dreht sich nach 5min wieder um dieses unsägliche Thema.
Dabei ist das noch nicht mal ein Feature, sondern eine Vergewaltigung von GPUs. Der ineffizienteste Ansatz um Beleuchtung zu berechnen (ja, und Spiegelungen, aber das ist eine Teilmenge von Beleuchtung …) und dann hauptsache Power und noch mehr Power draufkloppen, damit es irgendwie funktioniert.
Nur um dann festzustellen, dass es immer noch nicht wirklich klappt und man noch mehr mehr mehr mehr Ressourcen braucht.
Ich wünschte wirklich die würden endlich mal zur Besinnung kommen und nicht versuchen jährlich wieder durch die Wand zu laufen … :rolleyes:

Aber wie auch immer, meinetwegen ist das eben ein Feature. Kann man dann bitte trotzdem nicht jede Diskussion wieder nur um dieses Thema drehen lassen?
Denn realistisch betrachtet verwendet nur ein Bruchteil der Spiele eben dieses Feature, der größte Teil spielt sich abseits davon ab und das wird sich in den nächsten 2 Jahren – die ja relevant für diese Generation sind – auch nicht so krass ändern.

HOT
2022-12-12, 16:35:48
Hm wieso die negativen Kommentare? Mir scheint das ziemlich genau so wie erwartet zu sein: RT Performance nicht gut, Rasterizing absolut in Ordnung, Preis deutlich besser als bei NVidia... Ich hätte mir noch etwas mehr bei der Leistungsaufnahme gewünscht, aber ok.

Ach er erfreut sich nur an seiner Gehässigkeit ggü. AMD. Ist halt typisch ;). Muss es auch geben.
Das Ding ist halt wirklich broken, und das Naming ist ne Frechheit, genau wie der Preis. Das ist einfach mal nicht zu leugnen.

gbm31
2022-12-12, 17:43:31
Ja kann sein, trotzdem habe ich mehrere … und 100 Watt zu 20 Watt (siehe Techpowerup) ist halt ordentlich.

Auch eine VR Brille ist ein zusätzliches Display. Von Monitoren mit hoher Auflösung und hohen Bildwiederholfrequenzen ganz zu schweigen, da reicht dann einer um allein als Graka mehr als das doppelte zu verbrauchen wie mein kompletter HTPC...

Daredevil
2022-12-12, 17:53:35
Witzig, RDNA3 sollte der Stromsparende White Knight sein für die Gamer Gemeinde und in Wirklichkeit sind sie einfach nur schlecht in der Disziplin.
Idle Verbrauch unnötig hoch, Youtube Verbrauch unnötig hoch und selber die dicke ADA bleibt beim FPS Limit weit vorne. Nvidia ist dort, so dumm es auch klingt, in der tat die "grüne" Alternative für Ökos.

Trotzdem bin ich über die RT Leistung überrascht, dort scheint AMD doch mehr als gedacht getan zu haben, das finde ich prinzipiell gut. AMD muss aber unbedingt mehr ins Ökosystem investieren, es darf nicht so hohe Schwankungen zwischen den Spielen geben und dieser Stromverbrauch darf auch einfach nicht sein. Sonst ist AMD bad gar kein Knight mehr, wenn selbst das Statussymbol "Na immerhin verbraucht die Kiste nicht 450w" wegfällt, wenn die Lüfter bei Youtube angehen.

Super Karten um Nvidia in Schach zu halten!

Troyan
2022-12-12, 17:58:12
Der Abstand ist doch größer geworden als kleiner. Die 4090 entspricht mehr einer 3080TI und ist jetzt im Schnitt 75% schneller bei Raytracing....

Bryce
2022-12-12, 17:59:57
Die Leistungsaufnahme ist dann doch eher enttäuschend. Für Leute die bereits bei 40+ Cent/kWh sind, dürfte der Mehrverbrauch in den nächsten 2 Jahren durchaus den 4080 > 7900XTX Preispuffer schwinden lassen.

Ich hatte die XTX vor allem auch in Sachen Speichergröße und Renderleistung im Blick, denn wer auf der GPU rendern möchte, braucht abseits von Out of Core, Speicher in Massen, also das was ADA nicht hatte. Die Renderleistung mit HIP hat noch immer keine bemerkenswerten Sprünge gemacht. Die XTX gewinnt laut Blender OpenData ca. 1000 Punkte in Blender 3.4 unter HIP, was sie irgendwo auf das Niveau einer 3070ti stellt.

KarlKastor
2022-12-12, 18:06:13
Hm wieso die negativen Kommentare? Mir scheint das ziemlich genau so wie erwartet zu sein:
Wo sind denn die 54% mehr Effizienz und 1.7x Performance gegenüber der 6950XT?

Daredevil
2022-12-12, 18:17:12
Hm wieso die negativen Kommentare? Mir scheint das ziemlich genau so wie erwartet zu sein: RT Performance nicht gut, Rasterizing absolut in Ordnung, Preis deutlich besser als bei NVidia... Ich hätte mir noch etwas mehr bei der Leistungsaufnahme gewünscht, aber ok.
Die grundsätzliche Erwartung war, dass AMD in "irgendeiner" Disziplin deutlich besser als Nvidia ist, damit man den geringeren Preis eine höhere Rechtfertigung zuschreiben kann. Das wäre auch in der Tat schön gewesen, aber daran scheitert AMD in jeder Kategorie.
Raster Leistung ist unter Erwartung.
Effizienz ist unter Erwartung.
RT Leistung ist unter Erwartung. ( Höher als bei vielen hier aber sicherlich )
Verbrauch im Idle/YT ist massiv unter den Erwartungen.
Das AMD sein Brand als "We are for the Gamers" stärkt, geht hier komplett vor die Wand.

RDNA3 ist in der Form eine schlechte ADA für einen geringeren Preis, mehr nicht.
Wenn du oben im Regal die Barilla Nudeln findest, sind die von Gut und Günstig unten im Korb. Dort liegt AMD.
Das ist nicht schlecht, wirft aber kein gutes Licht auf den Brand und stärkt sicherlich nicht die Fangemeinde, weil AMD sich stetig als das repräsentieren möchten, was sie technisch nicht in der Lage sind zu verkörpern. ( Im GPU Bereich ).


Da steht dann der AMD Clown auf der Bühne und sagt "Hahaha, ihr müsst für uns kein neues NT upgraden, unsere Karten saufen nicht so viel!", fallen aber eklatant in solchen Basic Sachen wie "YT Verbrauch" durch und wenn mal nur Teillast anliegt, fliegt ADA als "SuV fahrendes Diesel Monster" mit der Effizienz davon.
Das sind völlig falsch kommunizierte Werte, die falsche Erwartungen gesetzt haben.
Die Karte säuft 6-7x soviel wie ein komplettes MacBook Pro inkl. MiniLED Display beim anschauen von Videos.
YOUTUBE VERBRAUCH, WIR HABEN 2022! :D

Berniyh
2022-12-12, 18:29:35
Idle Verbrauch unnötig hoch, Youtube Verbrauch unnötig hoch
Je mehr ich darüber nachdenke, ich denke das ist der Preis des Chiplet Designs. Muss man mal abwarten wie sich das entwickelt. Bei Zen hat man es ja auch in den Griff bekommen.

BlacKi
2022-12-12, 18:34:27
Je mehr ich darüber nachdenke, ich denke das ist der Preis des Chiplet Designs. Muss man mal abwarten wie sich das entwickelt. Bei Zen hat man es ja auch in den Griff bekommen.wie ist das gemeint? den chiplet mehrverbrauch hat man nicht in den griff bekommen. der idle cpu verbrauch liegt ca 10x höher.

Der_Korken
2022-12-12, 18:37:03
Je mehr ich darüber nachdenke, ich denke das ist der Preis des Chiplet Designs. Muss man mal abwarten wie sich das entwickelt. Bei Zen hat man es ja auch in den Griff bekommen.

Nicht wirklich, der Idle-Verbrauch der Chiplet-Modelle ist bis heute mies. Teillast auch, aber das liegt eher daran, dass AMD selbst das 5nm-Silizium noch bis 1,5V hochjagd.

Nightspider
2022-12-12, 18:56:13
Habs mal in den Review Thread verschoben. (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13187087#post13187087)

RDNA3 ist bisher wirklich sehr enttäuschend.

Bin gespannt ob Navi32 ohne Hardwarebugs erscheint, sofern es diese gibt, und dann deutlich besser dasteht.

Wenn N32 @ Max nur wenig hinter N31 liegt, dann könnte AMD bei guten Gewinnen und gutem Preis trotzdem viel verkaufen.

N31 braucht für die gebotene Leistung nicht so viel Bandbreite und VRAM. N32 wird wohl deutlich attraktiver werden.

Falls AMD Ende 2023 noch ein größeres GCD mit bugfreier und minimal optimierter RDNA3 µArch herausbringen würde, könnten sie in der Gaming-Community massiv Boden gewinnen.

MSABK
2022-12-12, 19:11:16
Ich persönlich denke auch, dass das am Chiplet Design liegt. Mal sehen wie es bei anderen RX7xxx GPUs wird. Das muss doch AMD intern gesehen haben, sonst kann ich mir es nicht anders erklären als mit Chiplet.

Wenn der Nachfolger auch sowas hat, dann ist Chiplet im GPU bereich tot. Oder man bringt Technologien um im Desktop immer die iGPU zu verwenden, wenn vorhanden.

nordic_pegasus
2022-12-12, 19:23:48
ich habe meine Wakü-Block für die Referenz-Karte bei EK storniert. Neben dem Stromverbrauch in Idle/Teillast haben sich meine Befürchtungen zum Thema Spulenrasseln der Referenz-Karten anscheinend bewahrheitet. Igor und GN meckern deutlich über die Nebengeräusche. Andere sehen kein großes Problem darin, andere bewerten es gar nicht. Leider entspricht der Audio-Mitschnitt von Igor exakt der Geräusch-Kulisse, die ich von der 6900XT noch kenne. Das Glücksspiel mache ich nicht nochmal mit. Ich bin damals in der Karte von Cyberpunk fast verrückt geworden von dem Gezirpe.

Darum bei mir erstmal zurück auf Anfang. Entweder kann ich irgendwo zu einen realistischen Preis die Asrock Aqua 7900XTX kaufen, ansonsten warte ich darauf, welche Wakü-Blöcke auf den Markt kommen bzw. ob PowerColor eine LiquidDevil nachschiebt.

VooDoo7mx
2022-12-12, 19:36:11
An Hand des geleakten Gamestar Previews möchte ich nochmal ganz klar sagen, dass sowohl die 7900XT(X) auch noch absolute High End Grafikkarten sind die massig Performance bieten.

Das AMD jedoch mit der 4080 schon ordentlich zu kämpfen hat und das auch bei schlechterer Enegieeffizienz, ist doch irgendwie enttäuschend. Die 4080 hat ja nicht mal den vollen AD103. Eine 4080Ti mit den vollen Speichertakt

Die 4090 ist wohl rein von der Performance ja nochmal eine Gen weiter als die 7900XTX bei Raytracing wohl 2 Gens. :ugly:
Und auch die 4090 ist ja noch ein stark beschnittener Chip mit 10% deaktivierten Einheiten und ordentlich deaktivierten Cache. Eine 4090Ti mit (fast) vollem AD102 wäre wohl mehr als doppelt so schnell Raytracing wie die 7900XTX...

HOT
2022-12-12, 19:37:11
Ich persönlich denke auch, dass das am Chiplet Design liegt. Mal sehen wie es bei anderen RX7xxx GPUs wird. Das muss doch AMD intern gesehen haben, sonst kann ich mir es nicht anders erklären als mit Chiplet.

Wenn der Nachfolger auch sowas hat, dann ist Chiplet im GPU bereich tot. Oder man bringt Technologien um im Desktop immer die iGPU zu verwenden, wenn vorhanden.
tut es nicht, das ist Blödsinn. Es konnte niemand ein Problem mit der Speicherbandbreite feststellen und nur dort wirken ja die Chiplets. Ist also total unlogisch das auf die Chiplets zu schieben. Und die 5W mehr, die die Connections brauchen fallen bei dem Ding nicht ins Gewicht.

MSABK
2022-12-12, 19:39:57
An Hand des geleakten Gamestar Previews möchte ich nochmal ganz klar sagen, dass sowohl die 7900XT(X) auch noch absolute High End Grafikkarten sind die massig Performance bieten.

Das AMD jedoch mit der 4080 schon ordentlich zu kämpfen hat und das auch bei schlechterer Enegieeffizienz, ist doch irgendwie enttäuschend. Die 4080 hat ja nicht mal den vollen AD103. Eine 4080Ti mit den vollen Speichertakt

Die 4090 ist wohl rein von der Performance ja nochmal eine Gen weiter als die 7900XTX bei Raytracing wohl 2 Gens. :ugly:
Und auch die 4090 ist ja noch ein stark beschnittener Chip mit 10% deaktivierten Einheiten und ordentlich deaktivierten Cache. Eine 4090Ti mit (fast) vollem AD102 wäre wohl mehr als doppelt so schnell Raytracing wie die 7900XTX...

Nur geht AMD den 90er von Nvidia aus dem Weg, deswegen ist es quasi egal ob die 90er doppelt so schnell sind. Kosten ja auch doppelt so viel mindestens. Mit RDNA2 hatte man sich noch getraut gegen 90er anzutreten. Jetzt nicht mehr, ist ja auch ok. $1000 Bereich ist interessanter.

HOT
2022-12-12, 19:43:37
Nur geht AMD den 90er von Nvidia aus dem Weg, deswegen ist es quasi egal ob die 90er doppelt so schnell sind. Kosten ja auch doppelt so viel mindestens. Mit RDNA2 hatte man sich noch getraut gegen 90er anzutreten. Jetzt nicht mehr, ist ja auch ok. $1000 Bereich ist interessanter.
Das hätten sie nicht getan, wenns geklappt hätte. Die sind nicht zur Entwicklung angetreten mit "hach dann werden wir mal absichtlich 2.er", das ist einfach Unsinn.

Neurosphere
2022-12-12, 19:59:49
https://twitter.com/All_The_Watts/status/1602328567190372354

N33 share similar hardware bugs N31.

Bugs found late to fix.

N32 & Phoenix mostly fix.

RDNA3+ true full fix.

MSABK
2022-12-12, 20:02:20
https://twitter.com/All_The_Watts/status/1602328567190372354

Dann hätten die das verschieben sollen, wäre auch nicht so schlimm in der aktuellen Situation mit Rezession usw.

Dino-Fossil
2022-12-12, 20:04:15
Je mehr ich darüber nachdenke, ich denke das ist der Preis des Chiplet Designs. Muss man mal abwarten wie sich das entwickelt. Bei Zen hat man es ja auch in den Griff bekommen.

AMD hat eine gewisse Geschichte mit zu hoher Leistungsaufnahme/zu hohem Speichertakt im Multimonitorbetrieb, teils aufgrund von Treiberbugs.
So ganz in den Griff scheinen sie es leider nicht zu bekommen.

Jedenfalls könnte die Ursache auch nach wie vor darin liegen.
Denke ähnliches könnte auch der Grund für den hohen Videoverbrauch sein. Ich meine - die haben ja durchaus Erfahrung mit sparsamen Video-Einheiten in den Mobile-APUs.

Gott1337
2022-12-12, 20:16:09
Habe ich seit ich den Odyssey G7 mit 240Hz habe, da flackert immer wenn ein Video läuft auf allen Bildschirmen kurz das Video auf was gerade läuft, Abhilfe bringt nur das deaktivieren der Hardwarebeschleunigung im Browser, aber dann ist alles träge.
kann an den 240Hz liegen oder an Samsung generell, die Hardwarebeschleunigung ändert eigentlich nix für die GPU, denn es klappt ja auch bei Anwendungen ohne Browser nehm ich mal an. Egal back to topic aber kacke ist es natürlich dennoch.

Neurosphere
2022-12-12, 20:18:35
Dann hätten die das verschieben sollen, wäre auch nicht so schlimm in der aktuellen Situation mit Rezession usw.

Stimme ich zu. Wobei man auch sagen muss, da hängen ja auch Verträge mit Zulieferern und Abnehmern hinter. Vermutlich ist verschieben nicht so einfach. Wäre interessant was NV das 4080 Debakel gekostet hat.

Situation ist trotzdem schwierig. N31 performt für den Preis ja nicht schlecht. Ein N31+ mit 25-30% Mehrperformance würde ich trotzdem lieber nehmen.

Was man so hört deutet darauf hin das man den Chip nicht vernünftig Auslasten kann, wodurch gut 10-20% flöten gehen. Dazu noch die wohl nicht erreichte Taktrate. Ich würde den hohen ldleverbrauch erstmal noch auf die Treiber schieben.

Ravenhearth
2022-12-12, 20:21:12
https://twitter.com/All_The_Watts/status/1602328567190372354
Wenn das stimmt, sollte man die Erwartungen an N33 auch deutlich runterschrauben. Der wird vielleicht 20% schneller als N23.

horn 12
2022-12-12, 20:22:31
@Neurosphere
Nun, was nützt es wenn man die ca. 3,2 Ghz erreichen würde, die Karte dann aber nochmals mehr Strom saufen würde und die Lüfter der Custom Karten mit 3 bis 4 Slots dies bewältigen würden.
Dann hatte die AMD Referenzkarte überhaupt nicht mehr den Hauch einer Chance noch halbwegs erträglich zu bleiben!

Mit N31+ 25 bis 30% Mehrperformance hätte man die 4090 auch in der Tasche.
Wenn jener Refresh Frühsommer 23 kommen sollte, müsste man wirklich abwarten.
Denke es wird aber eher Spätsommer bis gar HERBST 2023 bis jener spruchreif ist.

Lyka
2022-12-12, 20:24:28
da frage ich mich aber, was die AIBs da zaubern wollen, um das ganze erträglicher zu machen :O (oder ggf machen sie es auch nicht, nur schneller mit mehr Stromkonsum)

Nightspider
2022-12-12, 20:29:48
Der Verbrauch von N31+ könnte anders mit dem Takt skalieren als bei N31.

Die N31 Kurve könnte sozusagen einen Overhead (Versatz) haben im Vergleich zu einem fehlerfreien Chip.

Die GTX 580 war 15-20% schneller als die GTX 480 und hat gleichzeitig rund 5% weniger Watt verballert, trotz 10% mehr Takt. Die Effizienz von dem Respin war also ~20-25% besser.

(GF110 war doch ein Respin oder?)

Berniyh
2022-12-12, 20:47:39
Dann hätten die das verschieben sollen, wäre auch nicht so schlimm in der aktuellen Situation mit Rezession usw.
Weißt du was das hier für einen Shitstorm gegeben hätte?

zudem: warum nicht in den Markt bringen? Passt halt den Preis entsprechend an, Profit wird man trotzdem machen.
Ich sehe das ganze nicht soooo wild. Man weiß ja was man bekommt, also wo ist das Problem?

Berniyh
2022-12-12, 20:53:05
AMD hat eine gewisse Geschichte mit zu hoher Leistungsaufnahme/zu hohem Speichertakt im Multimonitorbetrieb, teils aufgrund von Treiberbugs.
So ganz in den Griff scheinen sie es leider nicht zu bekommen.
Ich finde RDNA2 macht sich da schon recht gut. Hab hier ne 6600 im Desktop, das ganze System (inkl. Zen 3 CPU) zieht im Idle gerade mal so 50W (extern gemessen, inkl. 1 M.2 und 2 SATA SSDs). Das finde ich völlig in Ordnung.
Klar, ne APU ist deutlich drunter, aber das ist zu erwarten.

Laut Test von Computerbase sind hier die Nvidia GPUs im Multimonitor auch nicht besser:
https://www.computerbase.de/2021-10/amd-radeon-rx-6600-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop

MSABK
2022-12-12, 20:53:41
Weißt du was das hier für einen Shitstorm gegeben hätte?

zudem: warum nicht in den Markt bringen? Passt halt den Preis entsprechend an, Profit wird man trotzdem machen.
Ich sehe das ganze nicht soooo wild. Man weiß ja was man bekommt, also wo ist das Problem?

Das Thema Gaming sehe ich nicht so negativ ehrlich gesagt, in aktuellen Titeln performt die Karte schon gut und kommt oft an die 4090 ran ohne RT. Aber alles andere wo RDNA2 relativ ausgereift war geht wieder zwei Schritte zurück.

Grabhopser
2022-12-12, 21:02:22
Tja, das ist schon eher mäßig. :uponder:

Grob 35% auf eine RX6900XT in 4K mit ähnlicher Leistungsaufnahme. Dazu die vielen unschönen Nebenschauplätze…
Dafür dann ein Follnode-step mit doppelt so vielen Transistoren?
Einen echten Hardware Bug bezweifle ich mal, diese Story haben wir schon viel zu oft gehört….

Redet das Marketing bei AMD eig. auch mal mit den Entwicklern? Finde es immer erstaunlich wie so etwas passieren kann.

robbitop
2022-12-12, 21:41:31
Was positiver als gedacht war (ich beziehe mich auf das DF review): rdna3 ist in RT doch ein gutes Stück besser als RDNA2. Bis zu Faktor 2 (Dying Light) und damit deulich mehr Speedup als in Raster. Aber dennoch zu wenig gegen Nvidia. An FF HW führt da einfach kein Weg vorbei. Aber immerhin sind die Änderungen in den CUs wirksam.

Ich kann mir immer mehr vorstellen, dass andere Taktraten geplant waren und N31 deutlich überzeugender gewesen wäre. Mal schauen wie N32 taktet und ob es wirklich einen rdna3+ respin von N31 geben wird.

Exxtreme
2022-12-12, 21:52:12
Wobei ich stark davon ausgehe, dass spätere Treiber da noch viel mehr rausholen werden.

Aber der Verbrauch im Multimonitor-Setup ist ein absoluter Gamebreaker für mich.

robbitop
2022-12-12, 21:56:13
Wobei ich stark davon ausgehe, dass spätere Treiber da noch viel mehr rausholen werden.

Aber der Verbrauch im Multimonitor-Setup ist ein absoluter Gamebreaker für mich.
Ja denke ich auch. Fine wine dank vermutlichen Fortschritten im Shadercompiler für bessere Ausnutzung des dual-issues.

Ravenhearth
2022-12-12, 22:13:31
Ich kann mir immer mehr vorstelle, dass andere Taktraten geplant waren und N31 deutlich überzeugender gewesen wäre. Mal schauen wie N32 taktet und ob es wirklich einen rdna3+ respin von N31 geben wird.
RDNA3+ in Strix Point scheint noch etwas mehr zu sein als nur ein Respin oder "RDNA3 done right". Laut Kepler_L2 handelt es sich dabei um GFX11.5 mit etwas anderen ALUs.

Raff
2022-12-12, 22:14:43
Wobei ich stark davon ausgehe, dass spätere Treiber da noch viel mehr rausholen werden.

Aber der Verbrauch im Multimonitor-Setup ist ein absoluter Gamebreaker für mich.

Der "Gag" ist, dass es nicht mal zwei Monitore braucht, damit die Leistungsaufnahme explodiert - ein einzelnes 4K144-Display reicht (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13187210&postcount=191).

MfG
Raff

Linmoum
2022-12-12, 22:16:37
Nach den Benchmarks heute frage ich mich ja, wie/wo man N32 platzieren will. Das Ding wird im Vollausbau vielleicht 5-10% schneller als eine 6800XT sein, wenn der Takt nicht plötzlich explodiert. Bei $649 MSRP, den die 6800XT hat(te), ist das irgendwie alles meh.

BlacKi
2022-12-12, 22:18:03
Spoiler:
In Witcher 3 mit Ultra Settings ist ne 4080 35% vor der 7900XTX.


auflösung:
https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/the-witcher-3-3840-2160.pnghttps://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/28.html

Nightspider
2022-12-12, 22:20:27
Selbst 10% mehr Takt hätten N31 schon viel besser gestanden ggü. der überteuerten Konkurrenz.

Man muss sich halt einige Fragen stellen:

-haben die spekulierten Hardwarebugs nicht nur Takt, sondern auch IPC gekostet?
-mussten sich die Programmierer die letzten Monate damit beschäftigen die Hardware trotz spekulierter Fehler zum Laufen zu bringen, anstatt die Treiber auf mehr Performance zu optimieren?
-wäre das P/L-Verhältnis mit theoretisch fehlerfreier µArch deutlich besser geworden? (VRAM und Bandbreite sind völlig überdimensioniert für N21+20%-35%)
-verzögert sich N32 durch die bekannten spekulierten Fehler?

*fixed for Exxtreme

Linmoum
2022-12-12, 22:20:34
Die Werte sind spätestens sowieso übermorgen schon alt und langweilig. :D

Nightspider
2022-12-12, 22:21:47
Der "Gag" ist, dass es nicht mal zwei Monitore braucht, damit die Leistungsaufnahme explodiert - ein einzelnes 4K144-Display reicht (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13187210&postcount=191).

MfG
Raff

Soll das nun mit einem neuen Treiber gefixt werden laut AMD?

Wie sieht es mit 3440*1440 @ 175 Hz aus?

Raff
2022-12-12, 22:23:20
auflösung:
https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/the-witcher-3-3840-2160.pnghttps://www.techpowerup.com/review/amd-radeon-rx-7900-xtx/28.html

Hier mit "ordentlicher" Grafik (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/3/) (HD Reworked 12 + PCGH Rebalanced-Config) @ Worstcase-Szene:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81829&stc=1&d=1670880186

Navi 31 legt hier ordentlich zu. Ein gutes Omen für das Next-Gen-Update? Nicht unbedingt, wenn man sich Cyberpunk 2077 ansieht, aber Geralt könnte irgendwo in der Mitte liegen ...

MfG
Raff

Nightspider
2022-12-12, 22:24:44
Nach den Benchmarks heute frage ich mich ja, wie/wo man N32 platzieren will. Das Ding wird im Vollausbau vielleicht 5-10% schneller als eine 6800XT sein, wenn der Takt nicht plötzlich explodiert. Bei $649 MSRP, den die 6800XT hat(te), ist das irgendwie alles meh.

Vielleicht verschwindet N31 auch wieder schnell vom Markt, falls eine bugfreie, schnelle N32 Karte mit besseren P/L-V. und gleicher Gewinnspanne auf den Markt kommt.

Ansonsten könnte AMD halt wirklich N21 weiter produzieren. N21 für 750 Euro wirft bestimmt genauso viel Gewinn ab. :ugly:

N21 hat ja 16GB billigen 16gbps Speicher. :ujump2:

Exxtreme
2022-12-12, 22:24:53
-haben die Hardwarebugs nicht nur Takt, sondern auch IPC gekostet?

Das mit den Hardwarebugs sind nur Behauptungen irgendwelcher Twitter-Accounts.

Nightspider
2022-12-12, 22:29:35
Das ist uns bekannt, danke.

Habs für dich extra korrigiert. =)

Raff
2022-12-12, 22:37:13
Soll das nun mit einem neuen Treiber gefixt werden laut AMD?

Wie sieht es mit 3440*1440 @ 175 Hz aus?

Das gegenüber PCGH abgegebene Statement (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/5/) (unten) "[...] We're looking into further optimizing the product going forward." klingt so, als nähme man sich der Sache an. Aber ohne große Prio - mal sehen, ob der große Gegenwind der potenziellen Käufer etwas beschleunigt. Es ist jedenfalls bekannt und wurde reproduziert. AMD hat schon bei älteren GPUs immer wieder (recht halbärschige) Fixes für ähnliche Probleme veröffentlicht, aber schnell ging das nie. UWQHD @ 175 Hz kann ich morgen mal checken. :) Dürfte aber ähnlich mies sein wie 4K144.

MfG
Raff

DrFreaK666
2022-12-12, 22:48:16
Das mit den Hardwarebugs sind nur Behauptungen irgendwelcher Twitter-Accounts.

Wäre besser wenn es Bugs gäbe

Seth
2022-12-13, 00:12:04
Würde nicht darauf hoffen, dass der Verbrauch im Multimonitor noch besser wird.
Der hohe Verbrauch/Speichertakt bei meiner 6900XT mit 1440p@144Hz und 1200p@60Hz ist, trotz etlicher Treiber die dass angeblich behoben haben wollen, seit Release vorhanden.

Ravenhearth
2022-12-13, 00:16:10
Nach den Benchmarks heute frage ich mich ja, wie/wo man N32 platzieren will. Das Ding wird im Vollausbau vielleicht 5-10% schneller als eine 6800XT sein, wenn der Takt nicht plötzlich explodiert. Bei $649 MSRP, den die 6800XT hat(te), ist das irgendwie alles meh.
N32 soll von dem Problem nicht betroffen sein, d.h. im best case landet die 7800 XT auf Höhe der 7900 XT :freak: Dann müssen sie den Respin von N31 eigentlich zeitgleich bringen.

Das mit den Hardwarebugs sind nur Behauptungen irgendwelcher Twitter-Accounts.
Offiziell wird AMD das auch kaum zugeben. Aber dass die realen Taktraten so weit unter dem augenscheinlichen Target liegen, ist auch ein Indiz.

Linmoum
2022-12-13, 00:16:31
Aber der Verbrauch deiner 6900XT ist trotz des hohen Speichertakts längst nicht so exorbitant hoch wie bei RDNA3. Der ist nicht dafür verantwortlich, dass der Verbrauch hier förmlich explodiert fürs quasi Nichtstun.

[MK2]Mythos
2022-12-13, 00:16:35
Würde nicht darauf hoffen, dass der Verbrauch im Multimonitor noch besser wird.
Der hohe Verbrauch/Speichertakt bei meiner 6900XT mit 1440p@144Hz und 1200p@60Hz ist, trotz etlicher Treiber die dass angeblich behoben haben wollen, seit Release vorhanden.
Meine 6900XT zieht mit drei Monitoren inkl 4K Display 40w beim youtuben und ~10w beim browsen. Das geht also definitiv besser als bei RDNA3 aktuell.
Für mich ist der hohe idle Verbrauch auch der massivste Dealbreaker.

Langlay
2022-12-13, 00:56:07
Mythos;13187391']Meine 6900XT zieht mit drei Monitoren inkl 4K Display 40w beim youtuben und ~10w beim browsen. Das geht also definitiv besser als bei RDNA3 aktuell.
Für mich ist der hohe idle Verbrauch auch der massivste Dealbreaker.

So in dem Bereich ist meine 6900XT auch, mit 2 Monitoren 1440p144 und 1080p60.

Und ja Idle/Videoverbrauch von Navi31 ist für mich auch ein Dealbreaker.

Naja ich werde erstmal noch abwarten, das nächste Spiel auf das ich heiss bin ich Starfield, das dauert bis dahin ja noch was mal sehen wie die Lage dann ist.

Berniyh
2022-12-13, 00:58:35
tut es nicht, das ist Blödsinn. Es konnte niemand ein Problem mit der Speicherbandbreite feststellen und nur dort wirken ja die Chiplets. Ist also total unlogisch das auf die Chiplets zu schieben. Und die 5W mehr, die die Connections brauchen fallen bei dem Ding nicht ins Gewicht.
Abwarten. Bisher war es nämlich genau das und da man ja gerade an der Speicheranbindung rumgeschraubt hat (also eigentlich das komplette Design geändert hat) liegt es doch sehr nahe, dass genau da auch das Problem liegt.
Ob/wie sich das dann in solchen Tests wie der Speicherbandbreite äußert muss man mal abwarten.
Der "Gag" ist, dass es nicht mal zwei Monitore braucht, damit die Leistungsaufnahme explodiert - ein einzelnes 4K144-Display reicht (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13187210&postcount=191).
Natürlich, es geht ja schließlich um die Gesamtpixelzahl.
2x FullHD wird sicher auch weniger brauchen als 1x4k.

Und bei einem 4k144Hz Display wird es auch einen großen Unterschied machen, ob man das Display mit 60 Hz oder 144 Hz ansteuert.
Daher empfehle ich den Leuten auch immer im normalen Desktopbetrieb das mit 60 Hz laufen zu lassen und nur für Games dann auf 144 Hz zu wechseln.
Die 144 Hz fressen ordentlich Leistung, sowohl an der GPU als auch (noch stärker) am Display.

aufkrawall
2022-12-13, 01:13:33
Daher empfehle ich den Leuten auch immer im normalen Desktopbetrieb das mit 60 Hz laufen zu lassen und nur für Games dann auf 144 Hz zu wechseln.

Steinzeitlich ruckelig, und mehrere Refresh Rates zur Auswahl sind unter Windows ein Graus.

Ex3cut3r
2022-12-13, 02:36:27
Und bei einem 4k144Hz Display wird es auch einen großen Unterschied machen, ob man das Display mit 60 Hz oder 144 Hz ansteuert.
Daher empfehle ich den Leuten auch immer im normalen Desktopbetrieb das mit 60 Hz laufen zu lassen und nur für Games dann auf 144 Hz zu wechseln.
Die 144 Hz fressen ordentlich Leistung, sowohl an der GPU als auch (noch stärker) am Display.

War hier mit GeForce (3080 Ti) noch nie ein Problem, trotz 4K, 144HZ, VRR, 10-Bit Full RGB.

Und darauf wurde ich selbst im Windows (wo man übrigens die meiste Zeit ist, bei mir zumindest) nicht auf die flüssigen 144HZ verzichten wollen.

https://abload.de/thumb/image.psdyyd0o.jpg (https://abload.de/image.php?img=image.psdyyd0o.jpg)

reaperrr
2022-12-13, 03:40:35
Nach den Benchmarks heute frage ich mich ja, wie/wo man N32 platzieren will. Das Ding wird im Vollausbau vielleicht 5-10% schneller als eine 6800XT sein, wenn der Takt nicht plötzlich explodiert. Bei $649 MSRP, den die 6800XT hat(te), ist das irgendwie alles meh.
Na, man muss jetzt auch nicht übertreiben mit der Schwarzmalerei.

Wenn schon die 7900XT durchschnittlich ~2560 MHz in 300W schafft, sollte der viel schlankere N32 mit weniger MCDs in vmtl. 250W und wenigstens leichten Taktverbesserungen locker ~300-400 MHz mehr schaffen und oft an 3 GHz kratzen.
Das wären dann mindestens 30% mehr Takt als eine 6800, die sonst sehr, sehr ähnliche Specs hat.
Dazu noch ~10% mehr IPC ggü. RDNA2 und ich lande eher im Bereich 6800XT + 20%, was leicht über einer 6950XT wäre und reichen sollte, um die 4070 Ti in Sachen Perf/$ unter Druck zu setzen und die 4070-non-Ti mindestens knapp (evtl. auch deutlicher) zu schlagen.

RDNA3 ist nicht toll, aber N32 dürfte allein schon aufgrund seiner Specs unproblematischer zu platzieren sein als N31.
Wenn an den Gerüchten, dass N32 weniger Takt-/Effizienz-Probleme als N31 hat auch nur annähernd was dran ist, gilt das natürlich erst recht.

Berniyh
2022-12-13, 08:29:05
Steinzeitlich ruckelig, und mehrere Refresh Rates zur Auswahl sind unter Windows ein Graus.
Windows ruckelt mit 60 Hz? Also bitte, jetzt wird es aber albern. Weiß ja nicht, was du da treibst …
War hier mit GeForce (3080 Ti) noch nie ein Problem, trotz 4K, 144HZ, VRR, 10-Bit Full RGB.
Der größere Batzen ist meistens auch der Monitor. Das können schnell mal 20-60W sein, je nach Modell evtl. sogar mehr.

dargo
2022-12-13, 09:11:47
Windows ruckelt mit 60 Hz? Also bitte, jetzt wird es aber albern. Weiß ja nicht, was du da treibst …

Mit nur 60Hz fühlt sich die Maus am Desktop unheimlich träge an. Unter 120Hz möchte ich am Desktop nicht mehr arbeiten wollen. Deshalb steht der schon ewig @144Hz, mehr kann der aktuelle Bildschirm nicht.

Raff
2022-12-13, 09:25:21
Ich lasse meine RTX 3090 Ti auf dem Desktop mit 4K98 (also 98 Hz) laufen, denn das senkt die Leistungsaufnahme der Karte um 3-4 Watt und ist aus Sicht der "Schwuppdizität" vollkommen ausreichend. Sicher gilt "mehr ist mehr", aber nach einer Minute Gewöhnung passt das schon - während 60 Hz eigentlich immer ruckelig sind.

MfG
Raff

Sardaukar.nsn
2022-12-13, 09:34:13
Kennt man ja inzwischen auch vom Smartphone oder Tablet. Einen Unterschied zwischen swipen, scrollen mit 60 oder 90 bzw. 120hz ist schon deutlich merkbar.

Prinzenrolle
2022-12-13, 09:57:17
Die 7900XTX wird die 4080 in Raster 100%ig schlagen. Bei der 7900XT wird es evtl. knapp. Ansonsten: Wir können in 2 Tagen nochmals schauen, inwiefern deine Aussage Bestand hat ;)

Mythos;13185947']Prinzenrolle ist ein offensichtlicher nv Troll. Einfach ignorieren, gerade kurz vor einem AMD Launch.


Ist ja hervorragend gealtert.:freak:
Hab abgesehen von den eigenen Werten (vor Launch) , 20 Tests überflogen, auch polnische.
Macht im Mittel 1 bis 2% bei AVG für die 7900XTX, bei Percentilen eher drunter.
Indie Titel Katastrophe, aber wenigstens stimmt der Formfaktor, also kann man auch n billigeres Gehäuse nehmen...
Billig Gehäuse für ne billig Karte.

MSABK
2022-12-13, 11:07:41
Ich sehe AMD aktuell nicht auf einem guten Weg. Zen4 ist mir als Plattform deutlich zu teuer und out of the box bissi unrund was Effizienz betrifft und RDNA3 ist auch sehr unrund. Ich hoffe die sehen das und fangen sich, nicht, dass es da jetzt nur noch bergab geht und wir wieder die alten Zeiten haben.

DrFreaK666
2022-12-13, 11:21:54
Ist ja hervorragend gealtert.:freak:...

Was wurde eigentlich aus deiner "RTX4080 in TW3 30% schneller als 7900XTX"?
Ist ja hervorragend gealtert :ugly:

Ich sehe AMD aktuell nicht auf einem guten Weg. Zen4 ist mir als Plattform deutlich zu teuer und out of the box bissi unrund was Effizienz betrifft und RDNA3 ist auch sehr unrund. Ich hoffe die sehen das und fangen sich, nicht, dass es da jetzt nur noch bergab geht und wir wieder die alten Zeiten haben.

Im Vergleich zu früher hat AMD mehr Geschäftsbereiche

Korvaun
2022-12-13, 11:56:26
Ich sehe AMD aktuell nicht auf einem guten Weg. Zen4 ist mir als Plattform deutlich zu teuer und out of the box bissi unrund was Effizienz betrifft und RDNA3 ist auch sehr unrund. Ich hoffe die sehen das und fangen sich, nicht, dass es da jetzt nur noch bergab geht und wir wieder die alten Zeiten haben.

Jo, geht mir auch so, fühlt sich alles nicht ganz ausgereift an. Ich denke das grosse Problem ist für AMD das praktisch das komplette Portfolio jährlich erneuert werden muss (und sei es nur rebranding mit etwas mehr Takt etc.). Es fühlt sich an als ob AMD auf 110% Auslastung arbeitet und es halt dann einfach nicht reicht am Ende.

dargo
2022-12-13, 12:22:29
Ich sehe AMD aktuell nicht auf einem guten Weg. Zen4 ist mir als Plattform deutlich zu teuer und out of the box bissi unrund was Effizienz betrifft und RDNA3 ist auch sehr unrund.
Sobald der X3D bei Zen4 erscheint sieht die Welt wieder anders aus. Die AM5 Plattform wird dadurch für viele deutlich interessanter.

MSABK
2022-12-13, 12:23:08
Jo, geht mir auch so, fühlt sich alles nicht ganz ausgereift an. Ich denke das grosse Problem ist für AMD das praktisch das komplette Portfolio jährlich erneuert werden muss (und sei es nur rebranding mit etwas mehr Takt etc.). Es fühlt sich an als ob AMD auf 110% Auslastung arbeitet und es halt dann einfach nicht reicht am Ende.

Amd muss sich eingestehen, dass sie nicht Nvidia oder Intel sind was Kapazitäten betrifft. Vlt haben sie sich einfach überhoben.

Exxtreme
2022-12-13, 12:34:38
Amd muss sich eingestehen, dass sie nicht Nvidia oder Intel sind was Kapazitäten betrifft. Vlt haben sie sich einfach überhoben.

Ich habe eher das Gefühl, dass AMD schon viel mehr könnte wenn sie richtig wollten. Aber irgendwie ist bei denen viel Milch im Benzintank. Sie scheitern immer an so kleinen Zahnrädchen im Getriebe, die bei denen komischerweise niemand auf dem Schirm hat.

Prinzenrolle
2022-12-13, 12:36:39
Was wurde eigentlich aus deiner "RTX4080 in TW3 30% schneller als 7900XTX"?
Ist ja hervorragend gealtert :ugly:

Sind die Tests schon raus?:freak:
Mir dünkt die Spiegelungen und globale Beleuchtung kostet unverhältnismäßig viel auf RDNA 3...

amdfanuwe
2022-12-13, 12:43:06
Jetzt wartet doch mal ab bis sich alles mal wieder normalisiert.
Oder schon Corona mit Ausfällen wegen Krankheit und die Kapazitätsproblemen vergessen?
AM5 wird auch mit den non-X und X3D Modellen interessanter werden, Mainboard und RAM Preise sich anpassen.
Ja, GPU fühlt sich an als wären alle nicht besonders Glücklich damit. Shit happens.
Was solls. AMD hat erstmal ein Produkt mit dem sie etwas verdienen können und etwas mehr Leistung als die vorhergehende Generation bringt es für den Kunden auch.

Also mal abwarten, ob das zur Gewohnheit wird oder ob wir bei der nächsten Generation wieder Beifall klatschen. Wird ja keiner gezwungen eine 7900 zu kaufen.

Taigatrommel
2022-12-13, 13:02:48
Sobald der X3D bei Zen4 erscheint sieht die Welt wieder anders aus. Die AM5 Plattform wird dadurch für viele deutlich interessanter.
Nicht nur das, ich denke, es werden einige Leute explizit auf die X3D Varianten gewartet haben. Da AMD diese ja bereits vor dem Launch für Frühjahr 2023 in Aussicht stellte, werden da sicher einige Leute die Füße stillgehalten haben, vor allem nach den guten Ergebnissen des 5800X3D. Dies war übrigens auch für mich ein entscheidender Grund, im Gegensatz zum Start von AM4, nicht sofort auf AM5 umzusteigen.

Um zum eigentlichen Thema zurückzukommen: So richtig begeistert bin ich von der 7900XTX nicht, da empfand ich RDNA2 vor zwei Jahren interessanter. Ich werde dennoch mal schauen, wie es nachher zum Launch aussieht, vermutlich wird man als Otto Normalkäufer ohne Bots und Skripts ohnehin leer ausgehen. Vorhin war ich noch am Überlegen, nach Berlin direkt zum Käsekönig zu fahren und vor Ort zu kaufen, soll ja beim 4090 Launch recht entspannt gewesen sein. Doch das schaffe ich zeitlich nicht wirklich.

BavarianRealist
2022-12-13, 13:13:46
Vor allem vor dem Hintergrund, dass RDNA3 in 5nm die alten RDNA2 in 7nm im Takt und Effizienz kaum überbieten kann, enttäuscht. Nimmt man gar die RDNA2 in 6nm dürfte Navi31 hier geradezu schlecht dastehen...und das mit den teuren 5nm!

RDNA3 in 6nm sollte wenigstens etwas besser als RDNA2 in 6nm da stehen....und dann könnte das so enden, dass die 6nm-RDNA3 die bessere - und vermutlich ausgewogenere - Implementation werden könnte. Hoffentlich, denn 6nm Wafer sind nun reichlich und günstig zu haben zudem braucht AMD für seine customized Produkte 6nm (5nm dürfte da noch lange keine Rolle spielen).

dargo
2022-12-13, 13:24:22
Nicht nur das, ich denke, es werden einige Leute explizit auf die X3D Varianten gewartet haben. Da AMD diese ja bereits vor dem Launch für Frühjahr 2023 in Aussicht stellte, werden da sicher einige Leute die Füße stillgehalten haben, vor allem nach den guten Ergebnissen des 5800X3D. Dies war übrigens auch für mich ein entscheidender Grund, im Gegensatz zum Start von AM4, nicht sofort auf AM5 umzusteigen.

Kann ich nachvollziehen... der angekündigte X3D bei Zen4 hält mich davon ab den 5800X3D zu kaufen. :freak:

Ex3cut3r
2022-12-13, 13:39:44
Wusste gar nicht, wofür ich die Leistung eines X3D Zen 4 oder Zen 4 "Raw" aktuell bräuchte -> wäre nur pure Dekadenz bzw. Geldverschwendung (bei mir)

Nightspider
2022-12-13, 13:50:51
Auf RDNA2 lag sicherlich auch länger der Fokus, wegen der Verwendung in den Konsolen, da musste alles fehlerfrei sein.

Jetzt stampfte AMD noch CDNA2 und demnächst CDNA3 mit gravierenden Änderungen aus dem Boden.

Als Die Pandemie das erste Jahr lief, war die RDNA2 quasi schon fertig. Die 3 Jahre Pandemie wirkten sich da eher bei RDNA3 aus. Zumal der Fokus bei AMD primär noch auf CPU Architekturen liegt.

Durch die neuen Packaging-Methoden entstehen viele neue Möglichkeiten, da ist es kein Wunder, das bei all diesen Veränderungen AMD fast 3 mal so viele offene Stellenangebote hat, wie Nvidia und sogar ein paar mehr als Intel.

https://pbs.twimg.com/media/FZWSI-3XkAAmvr7?format=jpg&name=900x900

Nightspider
2022-12-13, 13:55:09
Wusste gar nicht, wofür ich die Leistung eines X3D Zen 4 oder Zen 4 "Raw" aktuell bräuchte -> wäre nur pure Dekadenz bzw. Geldverschwendung (bei mir)

Jetzt wo der Sprung bei den GPUs kleiner ausfällt als erwartet, bin ich mir aktuell auch nicht sicher ob ich auf Zen4D switchen werde oder gleich bis Zen5 warte.

Es werden sicherlich kracher kommen, die viel CPU Leistung brauchen wie Avatar: Frontiers of Pandora (https://youtu.be/Axmg1E4HrVE).

robbitop
2022-12-13, 14:08:31
Naja Zen 4 ist schon sehr sehr schnell. Ja RTL ist etwas schneller aber ADL ließ man hinter sich. Die uArch ist gelungen. Das Problem ist wohl eher die deutlich teurere Plattform. Mainboards und RAM sind doppelt so teuer wie AM4/ddr4. Und auch Intels Absatz sinkt. Die weltweite Situation (Inflation/Krieg) hilft nicht gerade.
Niedrigere TDP SKUs sind auch auf dem Weg mit non X. Und dann der X3D. Epyc verkauft sich wie geschnitten Brot. AMD ist technisch völlig in Ordnung bei den CPUs. Bei den GPUs hingegen scheint man sich zwar seit RDNA1 zu verbessern aber gegenüber Nvidia kommt man bis dato auf keinen grünen Zweig. RDNA3 ist IMO zu wenig, zu spät. Mit RDNA4 überdenkt man hoffentlich die Position in Bezug auf FF HW für RT, fixt das Taktproblem (sofern es eins gab) und skaliert die top sku etwas weiter (dafür muss aber Perf/W passen).
Man stelle sich vor, N31 hätte 3,3 GHz geplant und abgeliefert bei gleicher TDP (ggf war das ja der Plan). Dann stünde man schon doch deutlich anders da. Solche slipups kann man sich heute nicht mehr erlauben. NVs letzter Slipup war IMO GF100.
Das Potenzial ist da. Und man sollte die SW Seite auch weiter hoch skalieren damit AMD auch Initiativen auf die Beine stellen, die Kunden binden weil der Wettbewerber diese nicht hat.

Ggf hilft NV der AI basierte Layouting Prozess genug Zeit rauszuholen, damit man sich zur Not 1x respin mehr gönnen kann pro 24 Monate und damit sicherstellen kann, dass alles passt. Das sind dann auch 3 monate mehr für das Treiberteam.

Platos
2022-12-13, 14:08:47
Jetzt wo der Sprung bei den GPUs kleiner ausfällt als erwartet, bin ich mir aktuell auch nicht sicher ob ich auf Zen4D switchen werde oder gleich bis Zen5 warte.

Es werden sicherlich kracher kommen, die viel CPU Leistung brauchen wie Avatar: Frontiers of Pandora (https://youtu.be/Axmg1E4HrVE).

Da fände ich ein Remake des ersten Teils (oder gleich ein komplett neues Spiel darauf basierend) eig. ne nette Idee. Der 2. Teil des Film kommt ja schliesslich 11 Jahre später. Habe damals den ersten glaube ich auf der PS3 gespielt. Habe das damals sogar in 3D gezockt :D Die Grafik natürlich ein Horror aus heutiger Sicht, aber egal :D
Heute ist das ja leider tot.

DrFreaK666
2022-12-13, 14:13:05
Sind die Tests schon raus?:freak:
Mir dünkt die Spiegelungen und globale Beleuchtung kostet unverhältnismäßig viel auf RDNA 3...

Muss zugeben, dass du wahrscheinlich Recht haben wirst. Hab mich von einem Test von Vanilla TW3 blenden lassen

Platos
2022-12-13, 14:14:30
Bei den GPUs hingegen scheint man sich zwar seit RDNA1 zu verbessern aber gegenüber Nvidia kommt man bis dato auf keinen grünen Zweig. RDNA3 ist IMO zu wenig, zu spät. Mit RDNA4 überdenkt man hoffentlich die Position in Bezug auf FF HW für RT, fixt das Taktproblem (sofern es eins gab) und skaliert die top sku etwas weiter (dafür muss aber Perf/W passen).
Man stelle sich vor, N31 hätte 3,3 GHz geplant und abgeliefert bei gleicher TDP (ggf war das ja der Plan). Dann stünde man schon doch deutlich anders da. Solche slipups kann man sich heute nicht mehr erlauben. NVs letzter Slipup war IMO GF100.
Das Potenzial ist da. Und man sollte die SW Seite auch weiter hoch skalieren damit AMD auch Initiativen auf die Beine stellen, die Kunden binden weil der Wettbewerber diese nicht hat.

Ggf hilft NV der AI basierte Layouting Prozess genug Zeit rauszuholen, damit man sich zur Not 1x respin mehr gönnen kann pro 24 Monate und damit sicherstellen kann, dass alles passt. Das sind dann auch 3 monate mehr für das Treiberteam.

Eigentlich zählt doch primär das P/L und gerade jetzt, ist das doch eig. fast die einzige relevante Grösse, die nach den jetzigen Preisen noch interessant sind. Ja, effizienter Default-Zustand ist nett, aber schlussendlich kann man sowohl bei AMD als auch nvidia mit RDNA 2/3 und Ampere/Lovelace ziemlich effizient machen, wenn man denn selbst Hand anlegt.

Den Preis kann man aber nicht mit dem Afterburner tweaken :freak:

Edit: Ausser vlt. Idle und Teillastverbrauch, die sind sehr schwierig zu "tweaken". Bei nvidia geht das gut mit dem nvidia Inspector. Bei AMD kenne ich da nichts. Aber der Stromverbrauch unter hoher Last ist für Leute hier im Forum eig. fast irrelevant (abgesehen von hohen Spikes, die Netzteile killen/abstürzen lassen).

Nightspider
2022-12-13, 14:22:42
Man stelle sich vor, N31 hätte 3,3 GHz geplant und abgeliefert bei gleicher TDP (ggf war das ja der Plan). Dann stünde man schon doch deutlich anders da.


Jepp, das wären dann durch die Bank weg ziemlich konstant 30% mehr Leistung als die aktuelle 7900XTX bieten kann. Damit würde man öfter vor der 4090 liegen und sie hätte sich auch für 100-200 Euro mehr noch super verkauft.


Ggf hilft NV der AI basierte Layouting Prozess genug Zeit rauszuholen, damit man sich zur Not 1x respin mehr gönnen kann pro 24 Monate und damit sicherstellen kann, dass alles passt. Das sind dann auch 3 monate mehr für das Treiberteam.

Es ist schon bisschen übel, wie Nvidia den GPU Markt dominiert. Das ist wie bei Tablets wo es fast nur Apple gibt und daneben ein paar Galaxy Tab S'.
Nvidia als Schwergewicht war ja schon die letzten Jahre zeitlich vorraus. Mit neuen Tools bei NV und Problemen bei AMD kann es fast nur schief gehen. Ich hoffe AMD konzentriert mehr Kräfte auf zukünftige GPUs und das sie auch aus der R&D für CDNA Produkte Verbesserungen für RDNA4 abzweigen können.


Heute ist das ja leider tot.

Das Avatar Franchise überollt gerade die Kino-Szene und begeistert scheinbar genauso wie der 1. Teil.

Platos
2022-12-13, 14:29:05
Nur nicht Spoilern, ich geh den nämlich auch schauen!

Aber ich meinte 3D im Homebereich ist heute leider Tot.

Ja ich weiss, es gibt heute VR, ist aber was anderes mit ner fetten Brille vs. einer, die so leicht ist, wie ne Lesebrille.

MSABK
2022-12-13, 15:01:12
Meine einzige Hoffnung ist, dass sie ähnlich wie von RDNA1 auf RDNA2 einen Sprung machen werden. Glaube schlimmer kann es nicht werden. Wenn die XT mal bei 700€ oder weniger angekommen ist, kaufe ich sie evtl.

Exxtreme
2022-12-13, 15:34:58
https://i.ibb.co/DY6pSP5/image.png

3,2 GHz durchschnittlicher Takt. :)

Diese Folie hat also doch gestimmt:
https://videocardz.com/newz/alleged-amd-navi-31-gpu-block-diagram-leaks-out

Ach ja, wer war das nochmal, der behauptet hat, der Chip hätte einen schweren Hardwarebug und mehr als 2,9 GHz seien unmöglich? Das war Kepler_2, oder?

Nightspider
2022-12-13, 15:38:10
Naja sie säuft dabei aber auch gut Strom und der Chip wird stark selektiert sein.

Zu kaufen gibts die ja auch noch nicht soweit ich sehe.

MSABK
2022-12-13, 15:42:03
Woher stammen diese Ergebnisse?

Nightspider
2022-12-13, 15:43:16
https://www.techpowerup.com/review/asus-radeon-rx-7900-xtx-tuf-oc/39.html

Die 3,2Ghz schlagen direkt durch
https://tpucdn.com/review/asus-radeon-rx-7900-xtx-tuf-oc/images/oc-cyberpunk.png

[MK2]Mythos
2022-12-13, 15:58:33
https://www.techpowerup.com/review/asus-radeon-rx-7900-xtx-tuf-oc/39.html

Die 3,2Ghz schlagen direkt durch
https://tpucdn.com/review/asus-radeon-rx-7900-xtx-tuf-oc/images/oc-cyberpunk.png
15% schneller als Standard, Mal sehen zu welchen Kosten, im wahrsten Sinne.

Troyan
2022-12-13, 15:59:50
$100 mehr und 100W mehr Stromaufnahme.

dargo
2022-12-13, 16:07:56
Naja sie säuft dabei aber auch gut Strom und der Chip wird stark selektiert sein.

Es geht um das RDNA3 Design, ein N32 wird sicherlich nicht mehr so viel saufen. ;)

Nightspider
2022-12-13, 16:13:28
N32 ohne Bugs könnte die Volksgrafikkarte werden. ^^

Lehdro
2022-12-13, 16:35:22
Spricht wohl dafür dass das der Leak richtig war, nur vom Leaker sehr falsch formuliert war. Die 3 GHz+ sind utopisch bei 355W stabil zu kriegen - korrekt, nur ist das eine harte Barriere nur im Bezug auf die Leistungsaufnahme. Wenn ich die Karte aber mit Leistung zuschmeiße, dann packt sie das. Riecht echt nach GF100 - der lies auch OC von 700 MHz auf 900 MHz zu, wenn man das Power- und Kühlungstechnisch verantworten wollte. Hoffen wir das so etwas wie ein GF110 kommt, also N31+ gefixt vom Leistungsaufnahmeverhalten her. Ansonsten ist N31 aber echt katastrophal...

HOT
2022-12-13, 16:40:37
MMn ist das Designziel eigentlich 450W gewesen. NV wär ja lt. Gerüchten bei 600W rausgekommen. Man sieht ja auch an den Tests, dass der Chip eigentlich immer Oberkante Unterlippe am Strom hängt, der will einfach viel mehr haben. Dann bekommst die 3GHz auch problemlos hin, das erklärt dann auch die Folie mit dem 3GHz+.
NV kam aber mit einem Effizienzmonster um die Ecke und man wollte offenbar nicht die Fehler vergangener Zeiten wiederholen und hat sich gesagt, 2. ist auch gut genug. Die Preise sind ja wirtschaftlich gut für AMD. Man beging aber dafür Marketingfehler. Anstatt die Preis etwas niedriger anzusetzen - 100$ hätten gereicht - und das Ding 7800/XT zu nennen, suggeriert man Premium und liefert kein Premium. Das war sehr dämlich aus meiner Sicht und der Markt wird die Preise eh im nächsten Jahr mit Gewalt auf das korrekte Niveau runterprügeln.

Der Chip verhält sich stellenweise aber arg seltsam, vielleicht sind da auch andere Hardwarebugs noch vorhanden, die nicht so einfach zu umgehen sind. Das würde mMn auch diese Vorabgerüchte erklären. Mal sehen, wann N32 kommt und wie der aussieht, dann kann man das besser beurteilen.

Ich finde diesmal die Referenzkarte aber echt schlecht. Das Ding ist zu laut und zu stark auf Kante gebaut vom Strom her, diesmal doch lieber Customs, die alles über die 8 Pins versorgen. Auch der Kühler wird bei den Customs fast immer besser sein. Da bekommen wir dann unsere 450W-Karten, die die Leistung nach oben ziehen werden offenbar. Konstatieren muss man allerdings, dass die Adas sicherlich 10-15% effizienter sind dieses Mal, wärend das bei bei Ampere umgekehrt war.

DrFreaK666
2022-12-13, 16:44:28
... Anstatt die Preis etwas niedriger anzusetzen - 100$ hätten gereicht - und das Ding 7800/XT zu nennen...

Dann gäbe es aber Geschrei weil ein 800-Modell so viel schluckt!

HOT
2022-12-13, 16:50:34
Dann gäbe es aber Geschrei weil ein 800-Modell so viel schluckt!
Die 800er hätte man auch mit 16GB bringen können, hätte auch von der Bandbreite her sicher gereicht. Aber einen Tod muss man sterben, RDNA3 ist eben ineffizeinter als Ada.

Lehdro
2022-12-13, 16:52:07
Der Chip verhält sich stellenweise aber arg seltsam, vielleicht sind da auch andere Hardwarebugs noch vorhanden, die nicht so einfach zu umgehen sind.
Ich denke mal AMD ist mit dem Dual Issue FP32 (Treiber/Shadercompiler) mehr als beschäftigt gewesen - wenn das funktioniert, wie in einigen Titeln, rennt die Karte halt im Vergleich wie verrückt. Wenn das nicht läuft, landet man halt bei +15-20%, oder wie bei der 7900XT, leider auch mal unterhalb einer 6950XT. Das ist die eigentliche Peinlichkeit, die reinste Wundertüte von der Leistungsausbeute her. Und da sprechen wir halt nur von den üblichen Reviewtiteln - ich möchte nicht wissen wie das Abseits der AAA-Titel aussieht...

HOT
2022-12-13, 16:55:18
Ich denke mal AMD ist mit dem Dual Issue FP32 (Treiber/Shadercompiler) mehr als beschäftigt gewesen - wenn das funktioniert, wie in einigen Titeln, rennt die Karte halt im Vergleich wie verrückt. Wenn das nicht läuft, landet man halt bei +15-20%, oder wie bei der 7900XT, leider auch mal unterhalb einer 6950XT. Das ist die eigentliche Peinlichkeit, die reinste Wundertüte von der Leistungsausbeute her. Und da sprechen wir halt nur von den üblichen Reviewtiteln - ich möchte nicht wissen wie das Abseits der AAA-Titel aussieht...
Also Peinlichkeit ist was anderes :freak:. Ist halt ne Designentscheidung, die sich erst mit der Zeit auszahlen wird - sei es per manueller Treiberoptimierung für einzelne Spiele oder, dass neuere Spiele auf RDNA3 von sich aus Rücksicht nehmen werden. Und mal ehrlich, Titel, die abseits der AAA kommen brauchen die Leistung auch super selten.
Dass die Karte teilweise langsamer als 69x0 ist ist aber mit Sicherheit Treibermist, das gibt sich mit der Zeit. Das würd ich gar nicht ernst nehmen. Wenn das in nem halben Jahr immer noch ein Problem sein sollte, ist das Ding schlichtweg kaputt, dann muss ne neue Rev her, das ist mit dem Dual Issue nicht zu erklären, die hat ja auch Single-Issue mehr Rechenleistung oder zumindest nicht weniger.

Lehdro
2022-12-13, 17:01:41
Also Peinlichkeit ist was anderes :freak:.
Das eine >1000€ Karte von einer 800€ Karte der letzten Generation öfters mal eingeholt wird, die noch dazu vom selben Hersteller ist, kann man nur als peinlich beschreiben. Da gehts dann nicht einmal nur um das P/L Gefälle, sondern schon um das eigentliche Leistungsgefüge - der Fortschritt ist da einfach zu klein. Ein N21 in 6nm könnte das wahrscheinlich besser und vorallem billiger. Im Moment wirkt das ein bisschen wie Bulldozer gegen Phenom II.

Ist halt ne Designentscheidung, die sich erst mit der Zeit auszahlen wird.
Ja, Finewine im Optimalfall. Aber damit würde ich nie kalkulieren wollen, siehe Vega.

Und mal ehrlich, Titel, die abseits der AAA kommen brauchen die Leistung auch nicht.
Ist halt Bullshit. Schau dir zum Beispiel mal Darktide an, läuft auf einer eigenen Engine und frisst selbst die 4090 zum Frühstück - auch ohne RT.

Edit: Sehe du hast die letzte Aussage entschärft, das dann bitte ignorieren :)

Gott1337
2022-12-13, 19:37:10
Was wurde eigentlich aus deiner "RTX4080 in TW3 30% schneller als 7900XTX"?
Ist ja hervorragend gealtert :ugly:



Im Vergleich zu früher hat AMD mehr Geschäftsbereiche
das update kommt doch erst oder woher hast du jetzt benchmarks?

iamthebear
2022-12-13, 20:04:11
N32 ohne Bugs könnte die Volksgrafikkarte werden. ^^

Also wenn du mich fragst sind die "Bugs" lediglich eine Erfindung so mancher Leaker, die jetzt verzweifelt nach einer Ausrede suchen warum ihre Vorhersagen alle nicht eingetroffen sind.

Navi31 hat offensichtlich kein Taktproblem. Ich habe schon Screenshots bis 3.5GHz gesehen allerdings nur mit Compute Workloads.
Das einzige Problem ist die Verlustleistung und die wird auch Navi32 nicht so einfach lösen können. Mit nur 1.6x weniger WGPs wird das vermutlich nicht so tragisch sein. Die Navi32 AIB Karten werden wohl auch um die 300W ziehen, was ca. 480W von Navi31 entspricht. Damit bringt man den Takt dann schon hoch und word leistungsmäßig so ca. auf 6900 XT Niveau landen allerdings mit 350mm² statt 520mm² Gesamtfläche.

Linmoum
2022-12-13, 20:11:06
Also wenn du mich fragst sind die "Bugs" lediglich eine Erfindung so mancher Leaker, die jetzt verzweifelt nach einer Ausrede suchen warum ihre Vorhersagen alle nicht eingetroffen sind.

Navi31 hat offensichtlich kein Taktproblem.

Kleiner Widerspruch, nicht wahr? ;)

Der monatelang in der Gerüchteküche umhergeisternde Takt stimmte also doch und damit auch die "Vorhersage" der Leaker.

Dass TPU zwar OC macht, aber nichts zum Verbrauch schreibt, ist auch wieder völlig sinnlos und sollte selbstverständlich sein. Würde mich nicht wundern, wenn das dann Richtung 500W geht.

Dass hier aber augenscheinlich doch problemlos 3GHz++ möglich sind, zeigt IMO, dass

a) man anfangs intern ggf. mit 450W+ geplant hat (3090Ti, Gerüchte bei Nvidia über 600W), sich aber noch rechtzeitig dazu entschieden hat, den Verbrauch zumindest beim Referenzdesign doch nicht explodieren zu lassen oder
b) die V/F-Curve entgegen ursprünglicher Annahmen... suboptimal ist.

BlacKi
2022-12-13, 20:43:31
https://www.techpowerup.com/review/asus-radeon-rx-7900-xtx-tuf-oc/39.html

Die 3,2Ghz schlagen direkt durch
https://tpucdn.com/review/asus-radeon-rx-7900-xtx-tuf-oc/images/oc-cyberpunk.png


welche 3,2ghz?


https://youtu.be/TsRbqEvOVag?t=11421

die karte boostet im RT benchmark 2,4ghz bei 390w, bei 0,82v. falls die 3,2ghz wirklich irgendwann anliegen sollten, dann will ich den stromverbrauch nicht wissen.

dargo
2022-12-13, 20:52:05
Trollst du wieder rum oder siehst du die 3,2Ghz echt nicht in deinem zitierten Link. :facepalm:

BlacKi
2022-12-13, 20:55:33
und wann liegen sie an? bei 240p in half life 1? vermutlich nur kurz nach dem apply drücken, ansonsten nie.

unter realer last sind das 2400-2600mhz je nach auslastung

Exxtreme
2022-12-13, 21:04:49
und wann liegen sie an? bei 240p in half life 1? vermutlich nur kurz nach dem apply drücken, ansonsten nie.

unter realer last sind das 2400-2600mhz je nach auslastung

"Avg" ist eine Abkürzung für "average". Und das bedeutet "durchschnittlich". :)

BlacKi
2022-12-13, 21:11:43
ihr hättet auch dazuschreiben können, das OC/UV brutal verbuggt ist, und der typ in meinem link keine ahnung hatte.

danke für nichts.

DrFreaK666
2022-12-13, 21:21:13
das update kommt doch erst oder woher hast du jetzt benchmarks?

hab ich schon oben erklärt dass ich falsch lag

robbitop
2022-12-13, 21:31:52
https://i.ibb.co/DY6pSP5/image.png

3,2 GHz durchschnittlicher Takt. :)

Diese Folie hat also doch gestimmt:
https://videocardz.com/newz/alleged-amd-navi-31-gpu-block-diagram-leaks-out

Ach ja, wer war das nochmal, der behauptet hat, der Chip hätte einen schweren Hardwarebug und mehr als 2,9 GHz seien unmöglich? Das war Kepler_2, oder?

Die Frage ist ob die Karte nicht an der Bandbreite verhungert. Die MCDs sind sicherlich nicht aus Spaß stackbar. Das brauchte man dann mit den jetzigen Taktraten wohl nicht mehr.

Dazu kommt, dass wahrscheinlich gemeint war, dass der Takt mit einer sehr viel besseren f/V Kurve drin wäre mit passendem Design.

—————————
Was das dual-issue angeht: ich frage mich ob es am Ende nicht der bessere Weg gewesen wäre, die FPUs analog Ampere wirklich zu verdoppeln. So extrem viel hat das iirc auch nicht gekostet. Limitiert ist es auch aufgrund der limitierten scheduler ports aber immerhin ist man nicht auf ILP Extraktion angewiesen. Solange die Schedulerresources ausreichend sind können unabhängig pro SM 4x 32 wide instructions ausgeführt werden. Die 32 sind zwar 2x 16 wide fpus aber iirc muss es die gleiche Instruktion sein. Also kann man pro SM 4x verschiedene Instruktionen pro Takt absetzen.

Tangletingle
2022-12-13, 21:52:28
Troll dich.
Verzeih ihm er hat ein Kleinkind und er schaut halt nur noch Bilderbücher an. Ich kenn das.

Ne Mal ernsthaft. Overclocking steht da fett als Überschrift drüber und unten gibt's ne Tabelle mit den Werten.

Exxtreme
2022-12-13, 21:59:30
—————————
Was das dual-issue angeht: ich frage mich ob es am Ende nicht der bessere Weg gewesen wäre, die FPUs analog Ampere wirklich zu verdoppeln. So extrem viel hat das iirc auch nicht gekostet. Limitiert ist es auch aufgrund der limitierten scheduler ports aber immerhin ist man nicht auf ILP Extraktion angewiesen. Solange die Schedulerresources ausreichend sind können unabhängig pro SM 4x 32 wide instructions ausgeführt werden. Die 32 sind zwar 2x 16 wide fpus aber iirc muss es die gleiche Instruktion sein. Also kann man pro SM 4x verschiedene Instruktionen pro Takt absetzen.

Die Frage ist wiederum was die Grafikkarte mit echten doppelten Einheiten saufen würde. Es ist halt so, dass wenn Scheduler nicht hinterher kommt, dass dann die Einheiten zwar öfter Däumchen drehen, dafür aber gleichzeitig auch keinen Strom brauchen. Kann also sein, dass sie die Grafikkarte niedriger takten müssten und das hätte den theoretischen Vorteil teilweise wieder aufgefressen.

w0mbat
2022-12-13, 22:23:18
Haben wir eigentlich die-shots der MCDs, wo man die TSV-Kontakte sehen kann?

Mortalvision
2022-12-13, 22:31:00
Wann soll der Nachfolger für dieses halbgare rote Hähnchen kommen?

dildo4u
2022-12-13, 22:32:25
Wie immer Refrech 2023 echte neue GPUs 24.

Mortalvision
2022-12-13, 22:37:55
Nun, dann muss die 6800XT halt ihre Dienste noch bisserl länger tun. Für meine Bedürfnisse reicht sie in 4k. 2024 wird vermutlich auch von Spieleseite viel mehr RT erfordern. Zieht AMD dann nicht genug nach, können sie den Markt nvidia (und ggf. Intel) überlassen. Bei so einem teuren Produkt so viele Design flaws reinzupressen geht halt nur einmal gut (siehe Speicherbug der 970 4 (=3,5+0,5) GB.

Sumpfmolch
2022-12-13, 23:21:08
Verzeih ihm er hat ein Kleinkind und er schaut halt nur noch Bilderbücher an. Ich kenn das.

Ne Mal ernsthaft. Overclocking steht da fett als Überschrift drüber und unten gibt's ne Tabelle mit den Werten.

Die Tabelle gibt für 8,02% mehr Takt einen Performancegewinn von 11,06% an?!

dargo
2022-12-14, 07:07:05
ihr hättet auch dazuschreiben können, das OC/UV brutal verbuggt ist, und der typ in meinem link keine ahnung hatte.

danke für nichts.
Im Moment ist eher in deinem Kopf was verbugt. :rolleyes:

Hättest du den Test gelesen wüsstest du was Sache ist anstatt hier ständig rumzuspamen. Der Tester hat nichts weiter gemacht als zu versuchen das Maximum aus der GPU rauszuholen indem er UV mit OC kombiniert hat, sprich max. Takt anheben und Spannungskurve verändern. Zusätzlich hat er im Treiber die max. +15% beim PT gewählt damit u.U. das Powerlimit nicht limitiert. +15% bedeuten bei der TUF um die 460W max. Ob die auch tatsächlich ausgeschöpft wurden steht da nicht.

Die Tabelle gibt für 8,02% mehr Takt einen Performancegewinn von 11,06% an?!
Ich weiß jetzt zwar nicht auf was genau sich deine Prozentwerte beziehen, mich macht diese Tabelle aber dennoch stutzig.

https://abload.de/img/ocmedyi.jpg

Fps lügen eigentlich nie. Aber, dass 9% mehr GPU-Takt zu 14% mehr Performance führen ist unmöglich (TUF OC + UV vs. Referenz OC + UV). Die 50Mhz Unterschied beim Speicher sind da irrelevant, das sollte keine nennenswerte Rolle spielen. Er schreibt aber auch folgendes.
Overclocking the Radeon RX 7900 XTX is complicated. Just like on RDNA2, you can no longer dial in a specific clock frequency, but you're operating with min/max sliders to set a range. While on the AMD reference cards, changing the GPU clock does nothing for performance, or it results in a loss of performance or crashes the card when set too high, on this 3x 8-pin custom design things are slightly different.

Klingt so als ob AMD bei der Referenz ne Art Sperre eingebaut hat damit die Karte womöglich nicht zu viel Strom zieht wegen "nur" zwei 8Pin-Stecker.

Auch das hier sollte man beachten.
Due to the increased power limit, the GPU frequency sliders can actually help. Just like on the reference card, for maximum OC performance you should increase power limit to max (+15%), then find your stable memory clock. Memory overclocking works well, but you have to monitor performance. Once memory becomes unstable, there will be no visual corruption, but performance goes down.

user77
2022-12-14, 07:32:52
Fps lügen eigentlich nie. Aber, dass 9% mehr GPU-Takt zu 14% mehr Performance führen ist unmöglich (TUF OC + UV vs. Referenz OC + UV). Die 50Mhz Unterschied beim Speicher sind da irrelevant, das sollte keine nennenswerte Rolle spielen. er schreibt aber auch folgendes.


hat RDNA3 nicht 2 Taktdomains? Welche wird hier ausgelesen?

dargo
2022-12-14, 07:41:02
Hat er, 1x Shader Takt und 1x Front-End Takt. Welcher davon jetzt ausgelesen wird weiß ich noch nicht.

btw.
Ob jeder RDNA3 wissen wir noch nicht, vorerst nur N31.

robbitop
2022-12-14, 08:29:28
Die Frage ist wiederum was die Grafikkarte mit echten doppelten Einheiten saufen würde. Es ist halt so, dass wenn Scheduler nicht hinterher kommt, dass dann die Einheiten zwar öfter Däumchen drehen, dafür aber gleichzeitig auch keinen Strom brauchen. Kann also sein, dass sie die Grafikkarte niedriger takten müssten und das hätte den theoretischen Vorteil teilweise wieder aufgefressen.
Ich würde sagen, wenn FPUs arbeiten, sind sie die Energie auch wert. Frequenz ist proportional zur dritten Potenz zur Leistungsaufnahme. Transistoren schalten zu lassen un Ergebnisse zu erzielen ist deutlich effizienter.

Im Moment ist es unklar, ob N31 so ist wie geplant. Wäre die f/V Kurve so viel besser dass bei gleicher TDP 20-25% mehr Takt möglich wären, wäre die Narrative was Perf/W angeht eine völlig andere.
Wir wissen es natürlich nicht und es spielt auch kaum eine Rolle außer die Neugier zu befriedigen.

N31 sieht halt merkwürdig aus in Bezug auf Perf/W - das kann fast gar nicht so geplant gewesen sein. Das und die stackbaren MCDs.
Mal sehen was N32 zeigt als Indikation auf RDNA3+.
Letzterer ist in der Praxis, wenn er kommt, wahrscheinlich auch dann einfach zu spät.
N31 hätte einfach sitzen müssen jetzt wo die 4080 so überteuert ist. Dann hätte man eine gute Chance gehabt was für die Reputation zu tun.

Loeschzwerg
2022-12-14, 09:16:28
hat RDNA3 nicht 2 Taktdomains? Welche wird hier ausgelesen?

Zitat aus dem CB Test:
An Tools (externe und im eigenen Treiber) gibt AMD dabei nur den Front-End-Takt weiter, der Shader-Takt lässt sich zumindest aktuell nicht auslesen. Wie gewohnt ist die Anzeige ein Durchschnittswert innerhalb eines gewissen Zeitrahmens.

Iscaran
2022-12-14, 09:25:03
N31 sieht halt merkwürdig aus in Bezug auf Perf/W - das kann fast gar nicht so geplant gewesen sein. Das und die stackbaren MCDs.


In der Tat - allein schon, weil AMD das lang angekündigte Performance/Watt ziel nicht erreicht, nicht mal annähernd (+50%P/W) und das obwohl allein durch de Prozesssprung +30% P/W drin sind.

Ich gehe jede wette ein, dass wir im nächsten Sommer einen Refresh sehen mit "RDNA 3" done right.

So wie bei nVidia ja auch der Sprung von "Thermi" zur absolut effizienten 500er Reihe gelang.

Weiss man eigentlich wieviel Leistungs man bei Techpowerup gebraucht hat für den massiven Overclock?
AFAIK geben sie ja nur die Verbrauchswerte bei "Default" Custom clocks an.

Dural
2022-12-14, 09:54:55
Ich gehe jede wette ein, dass wir im nächsten Sommer einen Refresh sehen mit "RDNA 3" done right.

So wie bei nVidia ja auch der Sprung von "Thermi" zur absolut effizienten 500er Reihe gelang.


Die Wette gehe ich ein! :D

reaperrr
2022-12-14, 09:58:26
In der Tat - allein schon, weil AMD das lang angekündigte Performance/Watt ziel nicht erreicht, nicht mal annähernd (+50%P/W) und das obwohl allein durch de Prozesssprung +30% P/W drin sind.
Die Angaben für N5 hat TSMC nachträglich etwas runtergeschraubt bzw. würde ich mich nicht drauf verlassen.
Es heißt ja auch immer entweder X% Ersparnis @ ISO Takt/Transistoren, oder Y% Performance-Verbesserung @ ISO Power, und je weiter man über ISO-Power geht, desto weiter geht der Prozess-seitige Vorteil verloren.
Außerdem dürfte das teilweise durch die N6-MCDs und die Datenübertragung zwischen den Chiplets aufgefressen werden.

Ich denke, die XTX ist wohl etwas weiter über dem SweetSpot betrieben als eine 6900XT, während der 79XT wiederum die CUs fehlen, um ne höhere Perf in 300W zu erreichen.


Aber klar, im Durchschnitt waren AMD's Perf/W-Angaben klar übertrieben.


Ich gehe jede wette ein, dass wir im nächsten Sommer einen Refresh sehen mit "RDNA 3" done right.
Da gehe ich auch stark von aus.

Bondrewd aus dem B3D ist ja nicht irgendwer und ist in seinem Messaging zu dem Thema ziemlich klar und eindeutig.

N32 hat die Taktprobleme nicht bzw. wurde die Ursache für den noch rechtzeitig entdeckt und behoben und käme der 79XT deshalb zu nah, während den Stückzahlen nach zu urteilen die Ausbeute an 79XTX-fähigen GCDs nicht so top ist, und für N31 außerdem ein Respin kommt.

Dural
2022-12-14, 10:07:36
N31 scheint sogar ziemlich gut optimiert zu sein, sonst würde er die 3GHz+ gar nicht erreichen.

Einzig der Verbrauch explodiert gerade zu, und das liegt an der Physik/Prozess und an der Architektur. AMD selber sagt das die N31 Chiplets GPU gegenüber einem Mono Die 10% mehr verbrauchen. Es ist die klassische Fehlentwicklung, AMD müsste eigentlich die Reisleine ziehen und wieder auf Mono Die setzten. Es macht im Consumer Gaming Markt einfach Null Sinn.

Genau das gleiche sieht man auch bei Ada aber nicht so krass, da wird gar nichts kommen.

Gipsel
2022-12-14, 10:23:39
Fps lügen eigentlich nie. Aber, dass 9% mehr GPU-Takt zu 14% mehr Performance führen ist unmöglich (TUF OC + UV vs. Referenz OC + UV). Die 50Mhz Unterschied beim Speicher sind da irrelevant, das sollte keine nennenswerte Rolle spielen.Wenn man eine Karte an die Kante übertaktet, wird sie mit steigendem Takt zuerst nicht mehr schneller und dann sogar wieder langsamer (weil intern die Sachen noch eine kurze Weile per Clock-Stretching und sowas wieder hingebogen werden, damit es nicht crasht). Kann also sein, daß das Referenzmodell schlicht schon 20MHz oder so über das Performancemaximum gezogen wurde (oder das UV wegen dem begrenztem Powerbudget der Referenz zu aggressiv war).
Gibt ja nicht umsonst den Tipp, nicht nur die Stabilität, sondern auch die Performance zu testen, um sicherzustellen, daß man nicht genau in dem Bereich arbeitet.
Edit: Sehe gerade, daß Du am Ende den entsprechenden Hinweis sogar zitierst. Und ja, daß könnte bei der Referenz schon ein Problem gewesen sein.

HOT
2022-12-14, 10:28:19
Dural
Unsinn, im Consumermarkt zählen vor allem niedrige Kosten, AMD exakt die richtige Entscheidung getroffen.

ChaosTM
2022-12-14, 10:30:41
Das denke ich auch. Zumindest bei den Fertigungskosten sollten sie eine klaren Vorteil haben.

dildo4u
2022-12-14, 10:47:16
Ich erwarte auch Dumping Preise von AMD wenn die Nachfrage abfällt, Nvidia ist nicht mal mit der Mülligen Samsung Fertigung richtig billig geworden die 3080 war selbst die letzten Monate bei 800€.

ChaosTM
2022-12-14, 11:01:09
Dumping Preise macht AMD nicht mehr. Aber ein, zwei Hunderter gehts sicher noch runter.

dildo4u
2022-12-14, 11:12:38
Ich tippe das Beide so viel bei TSMC bestellt haben damit der Launch größer als 2020 wird, ganz normales vorgehen wenn die letzten Jahre so gut waren.
Würde mich wundern wenn es nicht Tonnen 7900XT geben wird die lange nicht durchverkauft werden vergleichbar mit der 6900XT beide sind/waren sehr unattraktiv.

https://videocardz.com/newz/amd-radeon-rx-6900xt-gets-even-cheaper-now-available-for-669-e699

aceCrasher
2022-12-14, 12:18:47
Ich tippe das Beide so viel bei TSMC bestellt haben damit der Launch größer als 2020 wird, ganz normales vorgehen wenn die letzten Jahre so gut waren.
Würde mich wundern wenn es nicht Tonnen 7900XT geben wird die lange nicht durchverkauft werden vergleichbar mit der 6900XT beide sind/waren sehr unattraktiv.

https://videocardz.com/newz/amd-radeon-rx-6900xt-gets-even-cheaper-now-available-for-669-e699
Glaube nicht dass es Tonnen an 7900XT geben wird. TSMC N5 ist ein >2 Jahre alter Prozess, da wird bei einem 300mm² Chip nicht so viel Abfall anfallen. Die MCDs dürften extrem billig sein. Ein PCB braucht die 7900XT trotzdem. Für AMD ist es viel attraktiver mehr XTX zu produzieren und abzusetzen - sieht man ganz klar an den Preisen. Falls es ein hohes Angebot an XT Karten gibt, dann nur weil sie preislich unattraktiv ist gegenüber der XTX, nicht weil besonders viele produziert werden.

][immy
2022-12-14, 14:44:49
Dural
Unsinn, im Consumermarkt zählen vor allem niedrige Kosten, AMD exakt die richtige Entscheidung getroffen.
Ich glaube nicht, das das Design jetzt schon kosten einspart. Aktuell ist es ja quasi noch "experiment". Könnte mir gut vorstellen das das ganze aktuell noch mehr kostet (also ein monolithischer Chip) aber mit der Zeit und Erfahrung die kosten stark sinken werden.
Vielleicht wollte man auch deshalb diesmal erst mal mit den hochpreisigen Produkten anfangen.

Langlay
2022-12-14, 15:10:24
[immy;13188958']Ich glaube nicht, das das Design jetzt schon kosten einspart. Aktuell ist es ja quasi noch "experiment". Könnte mir gut vorstellen das das ganze aktuell noch mehr kostet (also ein monolithischer Chip) aber mit der Zeit und Erfahrung die kosten stark sinken werden.
Vielleicht wollte man auch deshalb diesmal erst mal mit den hochpreisigen Produkten anfangen.

Eigentlich sollte man jetzt mindestens gleich teurer sein wie Monolithisch oder das Chitletdesign hat andere positive Einflüsse die das Gesamtprodukt stärker machen.

Wenn das nur ein Testballon wäre, wäre nur Navi31 ein Chipletdesign. Weil der grösste Chip mit der meisten Marge da kann man sich 1-2 Extras leichter leisten ohne die Marge kaputt zu machen. Navi32 wäre dann allerdings Monolithisch weil wenn du mit Chiplets im obersten Segment keine Kohle verdienst wird es darunter dann richtig düster.

Complicated
2022-12-14, 16:00:06
Wenn das nur ein Testballon wäre, wäre nur Navi31 ein Chipletdesign. Ausser es ist ein Skalierungstest der MCDs/Caches. Dann ist es genau so sinnvoll wie es gerade gemacht wird. Dass der GCD dabei nicht perfekt gelungen ist, könnte nicht das entscheidende Kriterium sein.

Unrockstar
2022-12-14, 16:02:21
Naja Zen 4 ist schon sehr sehr schnell. Ja RTL ist etwas schneller aber ADL ließ man hinter sich. Die uArch ist gelungen. Das Problem ist wohl eher die deutlich teurere Plattform. Mainboards und RAM sind doppelt so teuer wie AM4/ddr4. Und auch Intels Absatz sinkt. Die weltweite Situation (Inflation/Krieg) hilft nicht gerade.
Niedrigere TDP SKUs sind auch auf dem Weg mit non X. Und dann der X3D. Epyc verkauft sich wie geschnitten Brot. AMD ist technisch völlig in Ordnung bei den CPUs. Bei den GPUs hingegen scheint man sich zwar seit RDNA1 zu verbessern aber gegenüber Nvidia kommt man bis dato auf keinen grünen Zweig. RDNA3 ist IMO zu wenig, zu spät. Mit RDNA4 überdenkt man hoffentlich die Position in Bezug auf FF HW für RT, fixt das Taktproblem (sofern es eins gab) und skaliert die top sku etwas weiter (dafür muss aber Perf/W passen).
Man stelle sich vor, N31 hätte 3,3 GHz geplant und abgeliefert bei gleicher TDP (ggf war das ja der Plan). Dann stünde man schon doch deutlich anders da. Solche slipups kann man sich heute nicht mehr erlauben. NVs letzter Slipup war IMO GF100.
Das Potenzial ist da. Und man sollte die SW Seite auch weiter hoch skalieren damit AMD auch Initiativen auf die Beine stellen, die Kunden binden weil der Wettbewerber diese nicht hat.

Ggf hilft NV der AI basierte Layouting Prozess genug Zeit rauszuholen, damit man sich zur Not 1x respin mehr gönnen kann pro 24 Monate und damit sicherstellen kann, dass alles passt. Das sind dann auch 3 monate mehr für das Treiberteam.

Ich sehe das D5 Thema RTL auch entspannt. Der Einzige Vorteil ist eben, dass RTL auf DDR4 läuft. Intel hatte in der Vergangenheit aber auch schon mal Speicherstandards beendet und keiner hat gejammert. Aber als Marktführer muss man eben nur so hoch springen, wie nötig.

Aber davon mal ab, der LTT Test zeigt eindrucksvoll, welches Potenzial in der Navi31 steckt. Ich bin sehr gespannt, ob man Compilerseitig die Dual issue Shader bespielen kann und wie gut zukünftige GraficEngines damit umgehen. Problem für AMD ist halt, dass man zur Zeit der Magerjahre, die guten Treiberentwickler gehen lassen musste. Nvidia hatte halt fast 10 Jahre Zeit das TWMTPB Programm aufzubauen. Ich finde spannend, dass der NAvi 31 kurzzeitig auf 3,1Ghz geht, diese aber nicht halten kann, bzw bei kleinster Last zusammenbricht (das dürfte eig nicht dem 355W TPB geschuldet sein). Es gab ja ebenso Gerüchte, dass die Shaderengines von AMD nur knapp 0,95 von ADA sind. Was mich bis heute verwundert zurücklässt, dass AMD keine 61TFlops liefern konnte und man Effektiv eher bei 38TFlops ist, wenn die Dual Issue nicht zünden. Hätte man die 7900XT für 849 angeboten, würde ich auch nicht meckern. Aber so kannste ja fast zur 6950XT greifen, da diese sogar dann effizienter ist, solange Dual Issue nicht ausgelastet wird.
Das klingt halt nach Massiven Treiberproblemen, das Auslastungsproblem hat AMD wohl nicht wirklich.

davidzo
2022-12-14, 16:07:12
Nicht das AMD eine Wahl hätte. Man wird wohl kaum soviel mehr 5nm Kapazitäten gebucht haben als das monolitisch noch eine Option wäre. Aktuell kann man im Datacenter sicher jedes bisschen 5nm Silicon verkaufen das aus der Produktion kommt.

Ich denke dass die Chipletstrategie vor allem von Vorteil ist wenn man eh vor hat stacked SRAM zu benutzen. Das ist dann ggf. günstiger als eine monolitische Lösung. Ein 5nm Monolith mit 192mb Cache wäre auch nah an AD102 bzw. am Reticle Limit und damit vermutlich teurer als die gestackte Lösung.

Ich kann mir kaum vorstellen dass AMD diese Fertigung in erster Linie für den einfachen ungestackten navi31 ausgewählt hat hat, bzw. dieser wirklich Kostenvorteile gegenüber einem monolithischen Chip wie AD103 hat. Die Auswahl des Chipletverfahrens wird schon Hand in Hand gehen mit einer stacked SRAM-Strategie für das Highend. Sieht eher so aus als wenn der Plan nicht ganz aufgegangen ist.

Unrockstar
2022-12-14, 16:21:36
@Davidzo:
Ich vermute mal, dass auch bei Samsung mit GAA dann Kapazitäten gebucht werden.. Und ja die N5 Kapazitäten für AMD sind nicht die üppigsten. Und ich vermute ebenso, dass die Marge dennoch ausreichend ist, tippe aber auf 899€ für die 7900XT im Q1/2023..

Prinzenrolle
2022-12-14, 17:14:21
Was wurde eigentlich aus deiner "RTX4080 in TW3 30% schneller als 7900XTX"?
Ist ja hervorragend gealtert :ugly:

https://www.computerbase.de/2022-12/the-witcher-3-next-gen-update-benchmarks/#abschnitt_benchmarks_mit_preset_rt_ultra
Ich sagte 35%.

Okay 38%, nicht 35% in Ultra HD, mea culpa.:freak:
Verwenden hier auch keinen 12900K, sondern einen übertakteten 5950X.

Langlay
2022-12-14, 17:43:05
Ausser es ist ein Skalierungstest der MCDs/Caches. Dann ist es genau so sinnvoll wie es gerade gemacht wird. Dass der GCD dabei nicht perfekt gelungen ist, könnte nicht das entscheidende Kriterium sein.

Das kann ich auch mit Navi31 allein machen. Ich kann ja als Hersteller zu Testzwecken auch einen Navi31 mit unterschiedlichen Anzahl an CU und /oder MCD aktivieren/bauen. Dafür binde ich mir nicht 2 Chipdesigns ans Bein die ich dann auch noch irgendwie verkaufen müss.

w0mbat
2022-12-14, 17:47:37
N31 bzw. das GCD ist angeblich A0 stepping, was gegen einen HW bug sprechen würde.

Langlay
2022-12-14, 17:53:39
N31 bzw. das GCD ist angeblich A0 stepping, was gegen einen HW bug sprechen würde.

Wieso spricht das dagegen? Ich würde vermuten das A0 als 1. Stepping die Chance für einen ungefixten HW Bug auf jedenfall vorhanden ist.

Oder gehst du davon aus das mit dem A0 Stepping alles i.o sonst hätten wir ein A1 oder B0 Stepping?


Wenn der Bug nicht mit einem "einfachen" Metalrespin gefixt ist (also A1 Stepping) sondern man eine richtige Revison braucht (B0 Stepping) kann das durchaus sein das der Rework einfach von der Zeit noch ein paar Monde braucht.

w0mbat
2022-12-14, 17:56:37
Genau, das war mein Gedankengang. Es ist eher selten, dass wir A0 silicon sehen, wenn es da Probleme gäbe, hätte man auf jeden Fall Zeit für weitere steppings gehabt.

Aber du hast natürlich auch einen Punk.

davidzo
2022-12-14, 18:21:05
Was man nicht vergessen darf ist dass der Die-to-Die interconnect auch einiges an Energie kostet. Vielleicht liegt hier auch der Hund begraben, denn die Taktbarkeit des N5 Dies scheint ja doch gut an die 3Ghz zu gehen.
Vielleicht ist es eher das Packaging und dessen Energieverbrauch, welche nicht so wie berechnet oder erhofft performen. Es könnte auch die Energieversorgung im neuartigen organic interposer, dessen capacitance etc. sein welche die Skalierung hemmen bzw. zu ineffizient machen.

Ein guter Anhaltspunkt dass da was im Argen liegt sind ja auch die hohen Idle- und Multimonitor-Verbräuche. Das war sicher nicht so geplant. Gerade weil N32 auch Top-dog für mobile wird muss man da unbedingt noch nachbessern.

Neurosphere
2022-12-14, 18:47:20
Genau, das war mein Gedankengang. Es ist eher selten, dass wir A0 silicon sehen, wenn es da Probleme gäbe, hätte man auf jeden Fall Zeit für weitere steppings gehabt.

Aber du hast natürlich auch einen Punk.

Ein richtiger Respin dauert aber deutlich länger als ein überarbeitetes Stepping.

Vermutlich kann man ohne diesen das Problem aber nicht beheben. Erstmal kommt R&D um das ganze zu verbessern und dann wird der Chip entsprechend angepasst. Wenn man direkt damit begonnen hätte als erste Samples da waren wärs wohl Q1, nun dürfte es eher mitte nächsten Jahres zum Refresh soweit sein.

Q1 passt ja auch recht gut zu N32.

HOT
2022-12-14, 19:42:17
davidzo und Konsorten
Ihr liegt da falsch. Das komplette Produktportfolio von AMD basiert auf N5. Die werden viel Kapazitäten haben.
AMD hat die Kapazitäten gebucht, als Mining noch im Gange war. Ich seh das auch so, dass die die CPU-Produktion notgedrungen etwas gedrosselt haben (Marktsituation und RPL) um die Preise hoch zu halten und alles Übrige in GPUs wandert. Die werden die GPUs nicht dumpen, aber die Preise werden die wieder runterholen damit, das ist ziemlich offensichtlich. CPUs dürfen nicht zu billig werden und ergibt keinen Sinn, Lager vollzuproduzieren, aber bei GPUs kann man ruhig ne Preiskategorie runtergehen, was den Markt hier sicherlich beleben wird, da dann auch Leute kaufen, die schon gekauft haben, wenn die Leistung viel mehr ist.
Und man schadet NV, was für AMD auch nicht ganz unwichtig ist. Dass die Radeons dann nur noch 10-20% Marge machen wird AMD halbwegs egal sein. Hauptgeschäftsfeld bleibt Ryzen, Server, Konsole. Bei NV mit 80% Marktanteil sieht das anders aus.

Complicated
2022-12-14, 19:42:20
Das kann ich auch mit Navi31 allein machen. Und womit vergleichst Du den einzigen seiner Art dann? Deine Unterstellung ist eben einfach sehr platt an der Stelle - AMD plant Jahre im voraus sinnlose Dinge und das Schritt für Schritt weiterentwickeln des ganzen Chiplet-Packages und den Interconnects passiert dann auf dem Papier mit den perfekten Ergebnissen die man sich wünscht. Schön wäre es ja.