PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

why_me
2022-11-05, 22:29:46
Laut Bondrewd liegt es wohl an zu vielen Designänderungen zu RDNA2 die gemacht wurden und irgendwo kam es nachher zu einem Flaschenhals. Er vergleicht es mit der R520.

AMD hat das ganze aber wohl schon identifiziert. Wäre also möglich das ein Refresh kommt der dann die 3 Ghz auch erreicht. Würde aber nichts an der RT Situation ändern.

Außerdem muss das ganze natürlich auch stimmen und sich nicht nur aus den erzeigten Hoffnungen der Leaker ableiten.

Aber müsste man solche Flaschenhälse nicht schon vorher identifizieren? Die Chips werden doch heutzutage komplett simmuliert.

Der_Korken
2022-11-05, 22:32:09
Man hat zudem ein paar potentiell sehr nützliche und überfällige Features (AI, Video Engine, DP2.1).


Die Verbesserungen in der Video-Engine sind tatsächlich sehr nice und in der ganzen Diskussion etwas untergegangen.


Bleibt mMn am ehesten die Sache mit der potentiellen Taktbarkeit, die aber Mangels Karten und Tests eigentlich noch nicht ganz klar ist, sowie die sicherlich diskutierbare Design-Entscheidung, RT weiterhin eher stiefmütterlich zu behandeln.

Klar ist aber, dass generell mehr erwartet wurde und nun bei vielen die Enttäuschung groß ist. Da müssen nun offensichtlich Erklärungen her und ein Design-Bug erscheint wohl vielen logischer, als dass die Karte im Großen und Ganzen einfach so geplant war.

RDNA3 ist definitiv keine Katastrophe. Man ist hier aber vielleicht ein wenig verwöhnt von der execution performance, die die AMD-Devs in den letzten Jahren hingelegt haben. Zen 2, Zen 3 und RDNA 2 waren sehr gute Generationen, Zen 1 und RDNA 1 solide und Zen 4 irgendwas dazwischen. Für mich sieht es aber schon so aus, als wäre ursprünglich mehr geplant gewesen. Man hat mit den krummen 355W und den -200Mhz auf den Shadern gefühlt noch auf den letzten Metern das Produkt gerade gebogen, damit es sich gut verkaufen lässt. Der Effizienz-Vergleich wurde bei 300W gemacht. Warum? Sind die 355W zu hoch geprügelt und deswegen nicht mehr +50% Perf/W? Ist der Takt deswegen so niedrig, weil der Grundverbrauch der Arch zu hoch ist? Glaube ich nicht, denn wenn das Teil gut mit mehr Verbrauch skalieren würde, hätte AMD auch ein 400W-Modell gebracht, einfach um es teurer gegen Nvidia platzieren zu können. Dazu passt für mich das Gerücht, dass der OC-Headroom quasi null ist. Die 2,3Ghz Gameclock auf Shader-Seite sind bereits das Ende der Fahnenstange. Nicht geplant, sondern weil irgendwas schief gegangen ist.

DrFreaK666
2022-11-05, 22:49:16
Die 7900XT ist defintiv eher eine 7800XT. Von der Leistung her gesehen ist sie allem Anschein nach eher der Nachfolger einer 6800XT, preislich aber weiter oben...

So ein Quatsch. Die 6700XT ist 35% schneller als die 5700XT und da hat niemand gesagt dass der Name falsch ist. 50%-70% Steigerung sind jetzt plötzlich ungenügend

Dino-Fossil
2022-11-05, 22:50:02
Was ist eigentlich von Bondrewd zu halten?
Soweit ich mich erinnere, hat er ein paar passende Dinge zu RDNA2 geschrieben, aber letztlich kommen von ihm vor allem vage Munkeleien in Form von onelinern und Halbsätzen, die meist nicht unbedingt allzuviel Gehalt haben.

Badesalz
2022-11-05, 22:59:50
Also Platz für eine 7850XT und eine 7950XTX ist ja noch da ;) Nur irgendwie nicht gleich allgemein.

Eine 7850XT mit 2.9Ghz, wäre die noch was langsamer als die 7900XTX? (kopfkratz) :D

Neurosphere
2022-11-05, 23:02:00
Aber müsste man solche Flaschenhälse nicht schon vorher identifizieren? Die Chips werden doch heutzutage komplett simmuliert.

Würde ich auch vermuten, weiß aber aus meinem beruflichen Altag das Simulation und Realität trotzdem weit voneinander entfern liegen können.

Aus den Simulationen resultieren vermutlich aber auch die Gerüchte/Leaks mit den 75 TFlops.

Linmoum
2022-11-05, 23:03:10
Im Endeffekt wird man es ja spätestens nächsten Monat sehen. Wenn die Karten trotz 500W nicht über 2.6-2.7GHz zu bekommen sind, dann lief da irgendwas schief. Oder AMDs Marketing war dann einfach komplett überzogener und gelogener bs. Was ich aber nicht glaube. Wenn die Architektur selbst auf >3GHz ausgelegt ist, dann ist das auch völlig latte, ob wir hier nun N31 haben oder N33.

-=Popeye=-
2022-11-05, 23:49:00
Das die 4090 ein Biest ist ist jedem hier klar, das AMD mit N31 ein kompletten Reinfall bringen wird kann ich mir nicht vorstellen.

iamthebear
2022-11-05, 23:50:00
1.) Bei RDNA3 ist gar nichts falsch gelaufen. Die Karten wurden nur komplett overhyped und spätestens als Angstronomics die Info zu den 300mm² GCDs veröffentlicht hat war klar, dass da keine 2.7x Raster Performance mit 4x RT raus kommen werden.
Zum Vergleich: Der GCD Teil von N21 war ca. 400mm². AMD hat also echt gute Arbeit geleistet mit den Density des GCD auch was den IO Bereich angeht.
Was etwas aus dem Ruder gelaufen ist das ist die MCD Größe mit gesamt 225mm² aber ich schätze einmal das ist der Preis für die Chiplet Kommunikation. Wenn man 5TB/s Daten von einem Chip zum anderen schaffen will dann kostet das eben etwas Fläche.

2.) Das mit dem "designed for 3GHz" wurde glaube ich etwas aus dem Kontext gerissen.

Als Vergleich:
6900 XT hatte 2GHz Game Frequency
6500 XT hatte 2.815GHz Boost Clock, real bis zu 2.9GHz

7900 XTX hat 2.3GHz Game Frequency und 2.5GHz für das Frontend also 15% bzw. 25% mehr.
Da sollten 3GHz an sich kein Problem sein aber eben nicht mit 96 CUs mit 350W.

3.) Dass es AMD schwer haben wird die Performancekrone zu holen wenn Nvidia wieder auf einen aktuellen TSMC Node setzt war klar.
Klar AMD hätte jetzt einen 600mm² Monolithen als GCD nehmen können kombiniert mit 512MB IF$ so wie ursprünglich vermutet und das dann um 2-3K verkaufen. Nur mal ehrlich: Was hätte das gebracht außer Jensens Ego etwas anzukratzen? Der Markt gerlangt nach bezahlbaren Karten mit akzeptabler Performance mit denen man halbwegs vernünftig zocken kann ohne RT und andere Spielereien.
Einzig die fehlende DLSS Unterstützung schmerzt etwas aber wenn Spiele FSR 2.0 durchgehend unterstützen ist das auch kein Drama

Exxtreme
2022-11-05, 23:52:06
Was ist eigentlich von Bondrewd zu halten?
Soweit ich mich erinnere, hat er ein paar passende Dinge zu RDNA2 geschrieben, aber letztlich kommen von ihm vor allem vage Munkeleien in Form von onelinern und Halbsätzen, die meist nicht unbedingt allzuviel Gehalt haben.

Kein einziger Leaker wusste was den zwei Taktdomänen. Und wenn schon sowas nicht bekannt ist, inwieweit werden denn dann Bugs bekannt sein? Und schon witzig, dass sie mit den Hardwarebugs erst nach der offiziellen Vorstellung daherkommen. Ergo, ich gebe absolut nichts drauf.

Raff
2022-11-06, 00:37:27
Gerade im Unity-Benchthread: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13160002&postcount=14

Brutale Ergebnisse. Eine RX 69x0 XT @ 2,85 GHz erreicht in UHD mit maximaler Qualität etwa die Leistiung einer RTX 3090 Ti @ 1,8 GHz. Und eine RTX 4090 @ 3,07 GHz vernichtet eine RTX 3090 Ti @ 2,1 GHz mit 81 Prozent Vorsprung. Diese Abstände muss man sich mal auf der Zunge zergehen lassen. Und jetzt rechnet euch aus, was Navi 31 hier erreicht. Ich hoffe wirklich, dass das nicht alles ist.

MfG
Raff

DrFreaK666
2022-11-06, 00:46:06
Was erreicht denn die 4080?

nairune
2022-11-06, 00:50:06
Auf "high" sieht es schon ganz anders aus, also irgendein Setting zieht da einfach alles auseinander. Bestimmt total aussagekräftig :freak:

prinz_valium_2
2022-11-06, 00:55:26
2.) Das mit dem "designed for 3GHz" wurde glaube ich etwas aus dem Kontext gerissen.

Als Vergleich:
6900 XT hatte 2GHz Game Frequency
6500 XT hatte 2.815GHz Boost Clock, real bis zu 2.9GHz

7900 XTX hat 2.3GHz Game Frequency und 2.5GHz für das Frontend also 15% bzw. 25% mehr.
Da sollten 3GHz an sich kein Problem sein aber eben nicht mit 96 CUs mit 350W.

Wäre ich absolut zufrieden mit.

Raff
2022-11-06, 00:56:09
Was erreicht denn die 4080?

Frag das in 10 Tagen nochmal. ;)

Auf "high" sieht es schon ganz anders aus, also irgendein Setting zieht da einfach alles auseinander. Bestimmt total aussagekräftig :freak:

Ich bin nicht sicher, ob in 4K High auf einer 4090 nicht schon die CPU mitreinfunkt (lässt sich leicht testen, hat aber noch niemand). Aber klar, mit reduzierter Raytracing-Komplexität wird Navi besser - siehe u. a. Mexodus EE, da sieht es mit "Normal" auch deutlich besser aus als mit "Ultra" ggü. Ampere.

Das bisher beste bekannte Ergebnis aus der AMD-Präsentation ist Dying Light 2, welches eine 7900 XTX um rund 85 Prozent vor einer 6950 XT sieht. Das lässt hoffen, dass anspruchsvolles RT taktnormiert Richtung Faktor 2 geht.

MfG
Raff

Badesalz
2022-11-06, 01:59:41
Aber klar, mit reduzierter Raytracing-Komplexität wird Navi besser - siehe u. a. Mexodus EE, da sieht es mit "Normal" auch deutlich besser aus als mit "Ultra" ggü. Ampere.Du schwurbelst schon genauso wie so ein 0815 Forist.

NEIN. Auf High "sieht es schon anders aus" als auf Ultra. Nicht erst auf Normal (vs. Ultra) :| "High" hat Unity und "High" hat auch MExoEE. Es gibt nicht nur Normal und Ultra.

Das "Ultra" bei MExoEE gehört bei deren Vorschlägen zu dem Setup den sie "RT Extreme" nennen. RDNA3 hat nichts mit extremen RT-Einstellungen zu tun. Und Leute die keine 2000€-2600€ Graka bezahlen möchten oder können, haben das auch nicht. In welchem Kontext also erzählst du das Ende 2022 in einem "999$" Graka Thread?

Hör auf mitzuheulen. Kannst das sowieso nicht besser als Linmoum :wink:

Diese Psychosetups für RT sind keine "anspruchsvolle", sondern sinnlose. Sinnloses verballern von GPU-Rechenzeit. Sie kosten am allermeisten Leistung und sind gegenüber High oft nur auf Screenshots sichtbar.
Statt also PR-Shows für DLSS zu veranstalten, mach mal lieber einen Test, ob sie beim Spielen welche zwischen Normal, High und Ultra RT-Settings wahrnehmen können. Und wie sie die ggf. jeweils beurteilen.
Oder lass es lieber! Nachtigall, ich dir trapsen...

PS:
Was ist denn nur mit deinem früheren Drang zum investigativen Journalismus passiert? :ulol:

BlacKi
2022-11-06, 02:17:46
i smell butthurt.

anyone?

Badesalz
2022-11-06, 02:23:49
Das verfliegt gleich. Das waren nur Raffs Anziehsachen :up:

Dein lieblings Buchautor ist Kafka oder? Ich bin mir da fast sicher, wenn ich sehe, wie oft du das Typische der Werke nachzustellen versuchst...

Mancko
2022-11-06, 02:50:03
Irgendwie so meh......
RT Leistung ist nach all den Jahren schon mehr als ernüchternd. Größtes Problem ist aber mal wieder der Hype Train im Vorfeld. Der ist soweit vom bisher bekannten davon geeilt, dass der Launch vermutlich am Ende nicht so prickelnd wird. Nvidia hat zudem die 4090 auch noch mit Handbremse laufen. Ich bin mal gespannt wie die 4070 und dann 4060 so abliefert. Enthusiast ist auf jeden Fall für AMD nicht erreichbar. Halt ich nach der Vorstellung für ausgeschlossen. Das bedeutet natürlich weiterhin einen Marketing Nachteil.

Fusion_Power
2022-11-06, 03:37:32
Bezüglich "RDNA3" interessiert mich eigentlich hauptsächlich, was AMD damit im iGPU/Mobile Bereich anstellt. RDNA2 war ja schon ein großer Fortschritt bei den integrierten Grafiklösungen, das macht derzeit so einigen Notebooks und (teuren) Handhelds Beine. RDNA3 wird da sicher nochmal ne Schippe drauf legen. Für das was ich noch zocke sollte dann ne iGPU locker reichen. Freut einen dann sicher auch bei der Stromrechnung. ;)

Disco_STFU
2022-11-06, 03:49:40
Warum müssen so viele 4090-Besitzer ihre Karte ausgerechnet in diesem Faden abfeiern? Geht das nicht auch Faden der 4090?


Woran erkennst du einen 4090 Besitzer?

Er sagt es dir! 🤣

Leonidas
2022-11-06, 04:46:51
Quelle: https://twitter.com/XpeaGPU/status/1589071686493958145
RX 7900 XTX AIB cards with 3x8-PIN reaches 2.8GHz at 450W. Less than 5% perf uplift by this OC on synthetic benchmark (TSE)
For now, cannot go above 2.9GHz, whatever the voltage, whatever the power, whatever the binned die, because of "instabilities"


Quelle: https://twitter.com/XpeaGPU/status/1589075249337085952
Bad news:
Navi31 needs a respin to fix the issue preventing to reach the 3GHz target at reasonable power level. Hardware team failed this design.
Good news:
The problem has been identified and corrected for Navi32

Neurosphere
2022-11-06, 05:28:00
1.) Bei RDNA3 ist gar nichts falsch gelaufen. Die Karten wurden nur komplett overhyped und spätestens als Angstronomics die Info zu den 300mm² GCDs veröffentlicht hat war klar, dass da keine 2.7x Raster Performance mit 4x RT raus kommen werden.
Zum Vergleich: Der GCD Teil von N21 war ca. 400mm². AMD hat also echt gute Arbeit geleistet mit den Density des GCD auch was den IO Bereich angeht.
Was etwas aus dem Ruder gelaufen ist das ist die MCD Größe mit gesamt 225mm² aber ich schätze einmal das ist der Preis für die Chiplet Kommunikation. Wenn man 5TB/s Daten von einem Chip zum anderen schaffen will dann kostet das eben etwas Fläche.

2.) Das mit dem "designed for 3GHz" wurde glaube ich etwas aus dem Kontext gerissen.

Als Vergleich:
6900 XT hatte 2GHz Game Frequency
6500 XT hatte 2.815GHz Boost Clock, real bis zu 2.9GHz

7900 XTX hat 2.3GHz Game Frequency und 2.5GHz für das Frontend also 15% bzw. 25% mehr.
Da sollten 3GHz an sich kein Problem sein aber eben nicht mit 96 CUs mit 350W.

3.) Dass es AMD schwer haben wird die Performancekrone zu holen wenn Nvidia wieder auf einen aktuellen TSMC Node setzt war klar.
Klar AMD hätte jetzt einen 600mm² Monolithen als GCD nehmen können kombiniert mit 512MB IF$ so wie ursprünglich vermutet und das dann um 2-3K verkaufen. Nur mal ehrlich: Was hätte das gebracht außer Jensens Ego etwas anzukratzen? Der Markt gerlangt nach bezahlbaren Karten mit akzeptabler Performance mit denen man halbwegs vernünftig zocken kann ohne RT und andere Spielereien.
Einzig die fehlende DLSS Unterstützung schmerzt etwas aber wenn Spiele FSR 2.0 durchgehend unterstützen ist das auch kein Drama

Selbst wenn Hardwareseitig alles richtig lief, lief marketingtechnisch alles falsch.

Wenn man feststellt das der Hypetrain los geht und auf allen Portalen und dann auch den HW Seiten die Leute durchdrehen, muss man Gegensteuern. Sei es durch gezielte *Leaks* oder wirklich offizielle Aussagen zur Performance. So wie es jetzt ist sind viele enttäuscht, obwohl die Produkte für sich genommen wirklich gut zu werden scheinen.

Neurosphere
2022-11-06, 05:31:33
Quelle: https://twitter.com/XpeaGPU/status/1589071686493958145



Quelle: https://twitter.com/XpeaGPU/status/1589075249337085952

Die Infos könnten aber auch nur weitergetragen worden sein. Das mit den 2,9 GHz ist neu aber das mit dem Design-Fehler könnte auch einfach die Aussage aus dem Beyond3D Forum sein. Wenn es stimmt, abwarten wie AMD das managen will. Man kann ja nicht schon kommendes Jahr mit dem N32 schon einen N31 Refresh bringen.

DrFreaK666
2022-11-06, 05:59:57
Selbst wenn Hardwareseitig alles richtig lief, lief marketingtechnisch alles falsch.

Wenn man feststellt das der Hypetrain los geht und auf allen Portalen und dann auch den HW Seiten die Leute durchdrehen, muss man Gegensteuern. Sei es durch gezielte *Leaks* oder wirklich offizielle Aussagen zur Performance. So wie es jetzt ist sind viele enttäuscht, obwohl die Produkte für sich genommen wirklich gut zu werden scheinen.

Man muss halt auch mal realistisch bleiben. Wer 2022 noch jeden Mist glaubt, den jemand twittert, ist selbst schuld.

dildo4u
2022-11-06, 06:04:03
Kein Plan warum man sich an 3Ghz aufhängt offensichtlich skaliert das nicht wie bei Nvidia, denke mal trotz der ganzen Caches ist die Speicher Speed Entwicklung einfach zu langsam um mit den fetten Chips mitzuhalten.

dargo
2022-11-06, 07:15:26
Was etwas aus dem Ruder gelaufen ist das ist die MCD Größe mit gesamt 225mm² aber ich schätze einmal das ist der Preis für die Chiplet Kommunikation.
Da ist gar nichts aus dem Ruder gelaufen. Die Größe ist perfekt auf die GCD Länge abgestimmt. Das war von Anfang an so geplant.

Dass es AMD schwer haben wird die Performancekrone zu holen wenn Nvidia wieder auf einen aktuellen TSMC Node setzt war klar.
Klar AMD hätte jetzt einen 600mm² Monolithen als GCD nehmen können kombiniert mit 512MB IF$ so wie ursprünglich vermutet und das dann um 2-3K verkaufen.
Wieso gleich wieder zum monolitischen Design zurück? Imo hätten schon locker 350mm² beim GCD gereicht um die 4090 bei Raster im Schnitt zu erreichen, 400mm² um die 4090 locker zu schlagen. Sofern natürlich das Design hier noch eine gute Skalierung der Performance nach oben mit noch mehr CUs zulässt.

robbitop
2022-11-06, 07:41:42
Wirklich interessant wird es wenn sie gcds skalieren können.

BiG OnE
2022-11-06, 07:58:09
@Dargo
Dann frag mal Lisa, warum sie nur den 300mm² Chip genommen haben.

TheGood
2022-11-06, 08:08:58
Ich verstehe die Argumentation nicht.
Als was denn sonst? Nach oben wäre dann für 7950XT und 7950XTX noch Luft.
Nach unten gibt es noch den Rest vom Portfolio, der kommen soll und sonst auch komplett umbenannt werden müsste. Die Karte ist ja nicht super langsam, sondern nur langsamer als sie mit mehr Takt sein könnte. Das P/L ist immer noch besser als bei der Konkurrenz.


Also warum sollte man dieses Produkt mit dem Fehler nicht als 7900XTX und 7900XT launchen?

.

jupp ist doch schon lange geklärt und wir haben ja einen performanceboost von 50% - 70% was für eine Generation ein sehr guter Wert ist.

Monsta
2022-11-06, 08:26:28
@Dargo
Dann frag mal Lisa, warum sie nur den 300mm² Chip genommen haben.

Amd sieht wohl für sich keinen Markt in dem Preissegment.

DrFreaK666
2022-11-06, 08:31:12
AMD wollte keine 450W Karte

dargo
2022-11-06, 08:36:13
@Dargo
Dann frag mal Lisa, warum sie nur den 300mm² Chip genommen haben.
Ganz einfach... damit die Kosten nicht explodieren. Und natürlich wäre der Verbrauch dann auch einiges höher. was ich überhaupt nicht begrüße.

Wirklich interessant wird es wenn sie gcds skalieren können.
Das wird nicht viel bringen außer vielleicht Kostensenkung. Wir haben ein ganz anderes Problem... der Verbrauch. Imho wird bei zukünftigen Generationen eine noch stärkere Perf/W Steigerung wichtiger sein als jetzt schon. Damit die nächste Gen eben nicht bei 600W landet. Das wird eine ganz schöne Herausforderung sein.

Iscaran
2022-11-06, 08:44:36
Ich glaube du hast dich im Preis versehen, die 7900XT kostet $899 und 4/3 davon sind 1198.67, ziemlich der RTX 4080 Preis.

Du meinst wohl eher 1469€
https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4080/

Scheint als ob AMD hier tatsächlich aggressiv den anvisierten Preispunkt nVidias kontert.
Die 7900 XT und 7900 XTX sind MASSIV billiger als die angekündigten 4080 16 GB.

In Raster wird die 4080 sofern nVidia die Specs nicht noch ändert massiv versenken und RT ist man minimal schlechter (wenn man die XTX nimmt).

Complicated
2022-11-06, 09:02:06
Diese Aufschlüsselung finde ich interessant im Hinblick auf die immer wiederkehrende Kostendiskussion zu den Yields mit Chiplets/monolithischen Chips und den gegenüberstehenden Packaging Kosten, normiert auf AD104 (4080 12 GB die gecanceled wurde):
https://www.semianalysis.com/p/ada-lovelace-gpus-shows-how-desperate

https://substackcdn.com/image/fetch/w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2Fbf202911-e5ce-4590-9261-f7dd1b136e72_1113x537.png
We calculated the die costs to account for parametric yields with a high percentage of die harvesting. We also used N6 and N5 wafer costs, which we obtained from a large TSMC customer. We assumed that AMD and Nvidia pay similar prices due to their volume (Nvidia has had to prepay for more than $1B for these wafers (https://s22.q4cdn.com/364334381/files/doc_financials/2023/Q223/Q2FY23-CFO-Commentary-FINAL-with-update-for-web-post-include-tables.pdf) while AMD has not made significant prepayments to TSMC as a favored customer). Packaging and memory BOM was also calculated by speaking to sources within the industry.

Ersichtlich wird, dass der Kostenanteil beim Packaging relativ gering ist im Gesamtverhältnis, so dass +100% Packaging und +20% Speicherkosten mit den selben Kosten für das Silizium (GCD 200mm² +4 MCDs je 37 mm²) lediglich zu 10% Anstieg der Gesamtkosten führt. (N32 vs. AD104 300 mm² monolith)

Für N31 steigern sich die Kosten des Siliziums durch den 100mm² größeren GCD und 2 zusätzliche MCD um 70%. Das Packaging wird zwar auch komplexer und auch doppelt so teuer, macht dann aber schlußendlich einen geringen Unterschied bei den Gesamtkosten.

Nvidia kann hier also auch problemlos die 4080/AD103 (380mm²) auch unter $1.000,- in das Rennen schicken.

Das kann sich natürlich nun stark verschieben für Nvidia, abhängig davon, wie schnell die Lager leer werden. Da Nvidia mit dem Wechsel zu TSMC 1 Mrd. für N4 Wafer in Vorkasse gehen musste, und 3 Monate Aufschub erhalten hat. AMD muss das nicht, als einer der 3 favored Customers und hat es da etwas leichter Kosten für Wafer zu schieben oder auch umzuverteilen auf CPUs/CDNA.

x5
2022-11-06, 09:31:09
Wenn die 7900XTX mit der 4090 auf Augenhöhe wäre würde der Preis eh keine Rolle spielen.Da würden die Leute kaufen was ihnen besser gefällt.

Aber erstmal richtige Tests abwarten.Dann halt im Vergleich mit der 4080..

just4FunTA
2022-11-06, 09:43:14
wann kann man mit benchmarks rechnen? zum launch, oder kriegen wir vielleicht noch was früher? Würde gerne mal umfassende Benchmarks 7900xt/xtx vs 4080 sehen.

Sumpfmolch
2022-11-06, 09:57:18
Du meinst wohl eher 1469€
https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4080/


Na vielleicht verkauft Nvidia dann ja wenigstens eine 4060 für unter 1000€. :uponder:

horn 12
2022-11-06, 10:00:03
https://www.youtube.com/watch?v=Qyjdjq1RSH4

7900XTX ist oftmals fast, oder gleichauf mit 4090
Würde mich nicht wundern wenn AMD tiefstapelt, auch bei der Präsi und dann abliefert um NV eins auszuwischen!

Bei der Präsentation, was ist da die Zahl "1" gewesen 01 Dezember Test und 13-ten im AMD Shop
Kann dies sein?

Dural
2022-11-06, 10:09:44
Die Tabelle stimmt nicht, zudem man damals noch davon ausging das die chiplets in 5nm sind und der grosse Die in 6nm.

Die Kosten werden sehr nahe am ad102 liegen und der ad103 klar güstiger. Da der ad102 auf der 4090 massiv beschnitten ist behaupte ich sogar das die GPU auf der 7900xtx gleich viel kostet.

basix
2022-11-06, 10:11:56
Die Tabelle stimmt nicht, zudem man damals noch davon ausging das die chiplets in 5nm sind und der grosse Die in 6nm.

Die Kosten werden sehr nahe am ad102 liegen und der ad103 klar güstiger. Da der ad102 auf der 4090 massiv beschnitten ist behaupte ich sogar das die GPU auf der 7900xtx gleich viel kostet.

Bitte lies den Artikel und poste erst danach. Und dass das GCD in 5nm kommt und die MCDs in 6nm wurde schon seit 1 Jahr so genannt.

Und eine GPU kostet nicht weniger in der Herstellung, wenn sie beschnitten wird...das stimmt nur, wenn man es mit einer theoretischen GPU mit Null Salvageing Optionen vergleichen würde (ergo geringere Yields). Oh Wunder, alle GPUs der letzten 25 Jahre werden beschnitten und es gibt einen Salvage auch bei N31 ;)

Complicated
2022-11-06, 10:21:23
@Dural
Du stellst Deine Phantasien auf Basis falscher Annahmen gegen den Artikel - Interessante Diskussionsgrundlage. Fragt sich nur wofür und ob das hier in den Thread gehört.

dildo4u
2022-11-06, 10:24:30
Auch kein Plan was Dural meint Jensen selbst hat zugegeben das TSMC massiv mehr Kohle will daher ist AMD Compute Die so groß wie die 4070.
Nicht umsonst wollten sie erst 900$ dafür nehmen was zur 7900XT passt was ein Zufall.

Complicated
2022-11-06, 10:48:46
Interessant ist hierbei auch ein Blick in die nähere Zukunft eines Prozesses, der ja üblicherweise die Yieldrate mit der Zeit verbessert. Da profitieren kleinere Chiplets früher und nachhaltiger bei den Kosten. Das Packaging kann fast als Konstante betrachten. Mehr Speicher profitiert dann auch von fallenden Preisen im Verhältnis stärker. Entscheidend ist aber auch vor allem, bei wem die Kosten anfallen - dem Chiplieferanten oder dem AIB.

Hier könnten bei den Kühlrekonstruktionen noch größere Unterschiede für das Endprodukt anfallen. Die Kosten für die 1,3 Mrd. Abschreibung für Inventar im letzten Quartal für Nvidia, stehen AMDs Inventar Abschreibung von 160 Mio. gegenüber, inkls. Rücklagen.

Nvidia befindet sich im Prinzip mitten in einem "Squeezout" zwischen Inventarhöhe bei den AIBs und Abnahmekosten für Wafer bei TSMC - da wird sich zeigen was es kostet schlußendlich. 100.000 4090 Chips abzunehmen durch die AIBs, wie berichtet wurde, hat Nvidia viel gekostet.

Doch diese GPUs sind noch nicht bei den Endkunden über die Ladentheke gegangen und trotzdem kaum lieferbar - wer weiss wie die RMA-Quote aussieht wenn das Teil erst einmal versucht wird zu Hause zu verbauen. Ich lese ja auch hier im Forum von der beliebten Praxis, bei dem Kaufpreis 3 Modelle zu bestellen und 2 wieder zurück zu schicken.

Ich glaube das ist derzeit ein viel größerer Faktor bei Nvidias Preisgestaltung als die Diekosten. Und AMD vergrößert den Druck mit dem Angebot unter $ 1.000,-.

Cyberfries
2022-11-06, 10:50:11
Beide Seiten haben Recht - N31 ist AMDs konkurrenzfähigster Fehlschlag.

Dass die eigenen Ziele weit verfehlt wurden ist mMn offensichtlich. Man hat an zu vielen Stellen geklotzt statt gekleckert,
z.B. der Speicher ist für einen reinen AD103-Konkurrenten völlig überdimensioniert, die These haut nicht hin.
Ich denke es ist klar, dass AMD die Rasterkrone wollte.
Warum es nicht klappt? Keine Ahnung, aber ich denke nicht, dass sich das mit einem einfachen Respin korrigieren lässt.
Ginge es nur um drei Monate wäre N31 verschoben worden, man verpasst ohnehin schon das Weihnachtsgeschäft.

Ich würde sagen eine N31 B-Version sehen wir (leider) nicht mehr bevor N41 erscheint, bei den Kosten lohnt sich das nicht.
Und ich bezweifle auch, dass N32 wirklich besser funktioniert. Ansonsten hätte man wie gesagt N31 verschoben.
Traurig.

Andererseits steht die 7900 im Markt wirklich gut da, Preis und Leistung grätschen unbequem in nVidias Angebotslücke.
Damit können Kunden voll zufrieden sein, auch wenn AMD es wohl kaum ist.

-----

OT:
Diese persönlichen Angriffe gegen Leute anderer Meinung sind wirklich peinlich.
Und sich dann einem anständigen Diskurs verschließen. Manche Leute hier sollten sich für das geschriebene wirklich schämen.

horn 12
2022-11-06, 10:59:23
Man ist teils (Wenige Male) auf Augenhöhe mit 4090
und dann 20 und auch mal 30% dahinter, Na und ?
Für um einen Tausender Billiger nimmt der Großteil der vernünftigen Käufer dies in Kauf,- und RayTracing dürfte knapp (-25%) unter einer 4080 rauskommen.

Habe selbst die 6800XT Referenz mit dem Alienware3423DW und weiss selbst noch nicht ob aufrüste, aber kribbeln tud´s wirklich.
Mal die Tests am 01 Dezember abwarten.

PJ
2022-11-06, 11:00:16
Das Packaging wird zwar auch komplexer und auch doppelt so teuer, macht dann aber schlußendlich einen geringen Unterschied bei den Gesamtkosten
Don't you think it's quite a big jump for the packaging cost from N32 to N31? (2.0 to 3.7)

Habe selbst die 6800XT Referenz mit dem Alienware3423DW
How does it feel after tft lcd's?

Linmoum
2022-11-06, 11:03:29
Quelle: https://twitter.com/XpeaGPU/status/1589071686493958145



Quelle: https://twitter.com/XpeaGPU/status/1589075249337085952Dann müsste entweder der reale Takt schon deutlich über dem liegen, was AMD offiziell angibt oder aber mehr Takt skaliert einfach schlecht.

Ich hoffe, es kommt doch anders. Aber alle offizielle Aussagen bzw. Angaben auf Folien, demgegenüber dennoch ein erheblich (zu) niedriger Takt, der extrem späte Launch, der entgegen früherer Aussagen quasi keine Relevanz für Q4 haben wird (und man das wichtige Geschäft Ende November völlig verpasst...). Es fügt sich leider alles einfach zu einem Bild zusammen, dass man anders geplant hat.

nordic_pegasus
2022-11-06, 11:05:02
Quelle: https://twitter.com/XpeaGPU/status/1589071686493958145

Quelle: https://twitter.com/XpeaGPU/status/1589075249337085952

wenn ein Übertakten auf 2.8GHz nur magere 5% Performance bringen bei mutmaßlich ordentlich mehr Verlustleistung, was soll dann ein Respin mit 3GHz nutzen? Ist Navi31 kaputt im Sinne von die angepeilten Taktraten sind nicht möglich oder im Sinne von die Skalierung klappt nicht wie geplant?

Wenn Navi32 wiederum gefixt wäre in dieser Beziehung, würde doch ein Navi32 @ 3GHz+ (vielleicht sogar die erhofften 3.5GHz) die 7900XTX ziemlich kanibalisieren.

Ich denke nicht, dass wir abseits eines üblichen Refresh in einem Jahr (also 7950XTX) vor RDNA4 deutliche Leistungssteigerungen sehen werden. Und leider entwickelt sich AMD wegen der RT-Performance zum Bremsklotz. Wenn die 7900XTX in 4k mit RT nicht sonderlich brauchbar ist, wird wohl gleiches für Navi32/33 in 1440p und 1080p gelten.

Oder wir sehen doch noch das Einhorn mit Namen "Dual Navi32" ;-)

basix
2022-11-06, 11:06:07
WTF? Ist dir die RT-Fähigkeit von PS5 und XBox Series X/S echt entgangen? :freak: Oder meinst du eher die Vorgänger?

Ich höre immer nur UE5, UE5. Dabei verwenden viele Studios ihre eigenen Engines.

Du kannst es so sehen: Wenn RT auf der Konsole läuft, wird es auch am PC anständig laufen. Egal welche Engine. Auf Nvidia etwa schneller, aber das ist nicht der Punkt.

Metro Exodus ist eine zweite Engine, welche mit RT only daherkommt und du kannst dir sicher sein, dass andere Engines nachziehen werden, sobald man PS4 und Co fallen lässt. Dazu muss man kein Prophet sein.

N31 ist AMDs konkurrenzfähigster Fehlschlag.
Interessante Formulierung :D

N31 wird über den Preis konkurrenzfähig gemacht. Ist völlig OK.

Cubitus
2022-11-06, 11:12:29
Wenn ich mir jetzt alles so anschaue wird man mit der 7900 wohl kein ordentliches UV hinbekommen. Wenn die Leistung jetzt schon so spitz auf Knopf gewählt ist, werden die 350 Watt nicht zu unterbieten sein.

Eine 4090 kann sehr sparsam sein eine 4080 wohl dann auch;)

Complicated
2022-11-06, 11:16:37
Ich würde sagen eine N31 B-Version sehen wir (leider) nicht mehr bevor N41 erscheint, bei den Kosten lohnt sich das nicht.
Und ich bezweifle auch, dass N32 wirklich besser funktioniert. Ansonsten hätte man wie gesagt N31 verschoben.
Traurig.
Ich habe hier folgende Theorie, die vielleicht ein Dilema für N31 bedeutet, und einen Respin zu teuer macht, bei N32 möglicherweise aber noch abgefangen werden könnte.

Wenn die Ursache für möglicherweise nicht erreichte Taktraten, das nutzen der HD-Libraries, sprich die Simulation mehr Takt versprach als real dann mit dem Chip erreichbar ist, dann würde eine solche Anpassung bei N32 mit etwas Verschiebung möglich sein. Anstatt 200mm² könnten 220mm² (als Beispiel) als GCD entsprechend noch umgesetzt werden, nach den ersten Erkenntnissen bei N31 GCD. Für N31 hätte es aber eine Verschiebung nach 2023 bedeutet, was man nicht wollte.

Die Frage wäre hier ob man sich damit auch einen Respin noch kostenmäßig offen halten konnte für N31 oder ob es mit den Zusatzkosten für das Entwickeln eines größeren Packages für einen größeren GCD nicht mehr lohnt. Ein größerer Chip würde IMHO nicht mehr auf das aktuelle Package passen, den Fotos nach. Die Chipkosten selber würde alleine durch das anwachsen des Chiplets ebenfalls nochmals teurer.

Troyan
2022-11-06, 11:17:24
Beide Seiten haben Recht - N31 ist AMDs konkurrenzfähigster Fehlschlag.


Na, RDNA1 und RDNA2 waren besser. nVidia hat haufenweise Transistoren für Dinge verwendet, die AMD einfach nicht hat. Entferne die Transistoren und nVidia stünde von der Chipgröße noch besser da. Dann würde nämlich AMD mit einen 522mm^2 Chip gegen einen ~300mm^2 antreten und dabei minimal besser im Rasterizing darstehen.

RDNA3 ist nach AMDs eigenen Zahlen ein Flop. Sieht natürlich in einem Oligopol mit zwei Teilnehmer nicht so schlecht aus...

Linmoum
2022-11-06, 11:19:07
UV sollte immer gut gehen, da AMD traditionell bei der Spannung gerne zu viel draufgibt.

Mit 355W wollte man augenscheinlich das Maximum herauspressen, was mit 2x8pin möglich ist. Wahrscheinlich verliert die Karte nicht viel Leistung bei 300W.

unl34shed
2022-11-06, 11:20:13
Don't you think it's quite a big jump for the packaging cost from N32 to N31? (2.0 to 3.7)

Not really, its probabyl 5$ vs 10$ or so

robbitop
2022-11-06, 11:20:39
Das wird nicht viel bringen außer vielleicht Kostensenkung. Wir haben ein ganz anderes Problem... der Verbrauch. Imho wird bei zukünftigen Generationen eine noch stärkere Perf/W Steigerung wichtiger sein als jetzt schon. Damit die nächste Gen eben nicht bei 600W landet. Das wird eine ganz schöne Herausforderung sein.
Ggf könnte man damit einen SKU Stack von unten nach oben mit einem GCD machen. Weniger Kosten in Entwicklung und Fertigung. Ggf bekommt man als Kunde was zurück - oder mehr Innovation.

Außerdem könnte man dann einfach noch einen oben drauf setzen für die ganz Verrückten. 600W aber dafür ein Monster - für die die es wollen.

basix
2022-11-06, 11:22:08
Wenn ich Preise der neuen GPUs sehe, scheinen mir die GPU Preise das grössere Problem als hoher Verbrauch zu sein. FrüherTM war High End 500-650$. Heute sind wir beim 2...3x angelangt. Ob 300W oder 400W sind mier hier noch egal, da man die Karten einfach mit ein bisschen Hand anlegen wieder auf 300W runter bekommt.

Edit:
Kostensenkungen und entsprechend auch geringere Preise für Konsumenten würde uns deutlich mehr helfen ;) 2000 Euro teure Grafikkarten nutzen fast niemandem was. Und auch die Klientel, die sich so teure Grafikkarten leistet, wäre über günstigere GPUs nicht unglücklich ;)

Complicated
2022-11-06, 11:30:07
Don't you think it's quite a big jump for the packaging cost from N32 to N31? (2.0 to 3.7) Could happen quickly, if you count in increased complexity by 2 more MCD and a bigger package.
Additionally the basic costs relate to the quantity - there should be a big difference between N31 and N32, alone by the pricetag they are selling at.

Troyan
2022-11-06, 11:35:04
Wenn ich Preise der neuen GPUs sehe, scheinen mir die GPU Preise das grössere Problem als hoher Verbrauch zu sein. FrüherTM war High End 500-650$. Heute sind wir beim 2...3x angelangt. Ob 300W oder 400W sind mier hier noch egal, da man die Karten einfach mit ein bisschen Hand anlegen wieder auf 300W runter bekommt.

Edit:
Kostensenkungen und entsprechend auch geringere Preise für Konsumenten würde uns deutlich mehr helfen ;) 2000 Euro teure Grafikkarten nutzen fast niemandem was. Und auch die Klientel, die sich so teure Grafikkarten leistet, wäre über günstigere GPUs nicht unglücklich ;)

Preise steigen alleine durch die allgemeine Inflation. Die Diskussion hatten wir ja schon im Lovelace-Thread. Dazu kommt das Problem, dass Moores Law nicht mehr funktioniert, wodurch es keine realen Kosteneinsparungen durch neue Fertiungsprozesse mehr gibt.

Brute-Force, wie es AMD mit Navi betreibt, funktioniert dann nicht mehr. Einfach alles mit ComputeUnits erschlagen wollen, die dann auch noch massiv aufgebläht werden müssen, ist in der heutigen Zeit kostentechnisch ineffizient.

DLSS Performance zeigt, wie gut Upscaling aus 1/4 der realen Auflösungen mit "TensorCores" und DL funktionieren kann.

Complicated
2022-11-06, 11:42:15
Irgendwie hat Upscaling als Argument hier kaum Gewicht - was soll es denn für eine Gegenüberstellung als "Brut-Force" gegenüber wir rendern mit niedrigerer Auflösung aussagen?
Schlußendlich ist der Vergleich zunächst einmal ohne solche Tricks wie upscaling oder Zwischenbilder zu machen.
Im Anschluß kann man sich gerne darüber Unterhalten welche Bild-Enhancer die beiden besser oder schlechter zum Einsatz bringen. Solange Details verschwinden und völlig andere Texturen produziert werden, die sogar das Gameplay eines Games verändern (https://www.youtube.com/watch?v=eBldBRkr1TQ) braucht man diese Features überhaupt nicht zu berücksichtigen. Die baseline ist einfach nicht da und ist dementsprechend noch als experimentell zu sehen.

robbitop
2022-11-06, 11:45:24
Ich wette, dass NV richtig fettige Margen nimmt und da noch ordentlich Raum für Preissenkungen sind. Aber ohne echten Wettbewerb muss man das nicht tun. NVs Margen sind seit Kepler (Abseits der Abschreibungen von Invemtory beim Abebben der Mininghypes) immer weiter gestiegen. Da ist ordentlich Speck den man abschmelzen könnte wenn es denn einen starken Wettbewerb gäbe. Am besten mit so vielen wie möglichen Marktteilnehmern.

2000 € für die 4090 und dann noch fast 1500€ für den halben Chip (anstatt halber Chip ist halber Preis und grundsätzlich wird P/L weiter unten im Productstack ja besser). Da wird man ordentlich verdienen. Zum Kotzen wenn man neue GPUs kaufen will und so abgezockt wird. Eine gute 80er für unter 1000 eur wäre was anderes.

Sumpfmolch
2022-11-06, 11:49:31
Das wird man sehen müssen, ob sich Nvidia die 1500€ für eine 4080 erlauben kann. Muss man die Benchmarks und realen Verkaufszahlen gegen die 7900xtx abwarten.

just4FunTA
2022-11-06, 11:50:59
@complicated

was portal angeht, das ist halt ein remaster mit rtx die änderungen können einen gefallen oder auch nicht.. muss nichts mit dlss oder rtx zu tun haben. Crysis hat ja auch aus irgend einen grund einen anderen look im remaster verpasst gekriegt über den sich viele aufregen und der eine gewöhnung braucht.

Complicated
2022-11-06, 11:51:32
Die Marge letztes Quartal wurde mit 43% ausgewiesen, nachdem die ARM-Übernahmekosten und die Inventarabschreibungen mit jeweils ca. -1,3 Mrd. in den Büchern stehen. Ich glaube es wird Nvidia nochmals Marge kosten im nächsten Quartal, mit den Abnahmeverpflichtungen bei TSMC und weiteren Inventarabschreibung, bevor es möglicherweise Mitte 2023 wieder besser werden kann. Ich glaube gerade das wird AMD in den nächsten 6 Monaten machen: Preisdruck genau dann wenn man es am wenigsten benötigt. AMD hat 5,6 Mrd. an Cash auf der hohen Kante. Nvidia muss möglicherweise genau in der Phase wo die Zinsen steigen noch mehr Geld aufnehmen um über diese Hürden zu kommen - es wird spannend wie sich das in 3 Monaten in den Büchern zeigen wird und wer mit seiner Strategie in einem fallenden Markt Margen oder Marktanteile generieren kann.

@just4FunTA
Du fügst ja nur ein weiteres Beispiel hinzu - es ändert ja nichts daran, wie groß der Eingriff durch diese Technologie ist (Nennen wir es mal "Übergriffig") und dass diese nicht erwünscht ist. Warum sollten sich sonst andere auch bei Crysis aufregen? Und es gibt ja noch deutlich mehr Beispiele mit Spiderman etc.
Das eine ist wenn der Entwickler es selber verkackt - nur wenn der alles richtig macht und einfach die Technologie alles verzerrt ist das eben nicht in Ordnung. Nvidia hat Portal 2 selber als Showcase "portiert" - wie sollen andere ein besseres Ergebnis erzielen?

basix
2022-11-06, 11:55:26
Preise steigen alleine durch die allgemeine Inflation. Die Diskussion hatten wir ja schon im Lovelace-Thread. Dazu kommt das Problem, dass Moores Law nicht mehr funktioniert, wodurch es keine realen Kosteneinsparungen durch neue Fertiungsprozesse mehr gibt.

Deine Argumentation liest sich à la "wir können da nichts machen und ergeben uns halt unserem jämmerlichen Schicksal". Sorry, das ist einfach Unfug und ein schlechtes Mindset. Ich will eine Verbesserung erzielen und mich nicht mit Verschlechterungen anfreunden. Chiplets sind ja gerade dazu gedacht, die Kosten tief halten zu können, obwohl Prozesse und Moore's Law nicht mehr gleich mitspielen wie früher.


Brute-Force, wie es AMD mit Navi betreibt, funktioniert dann nicht mehr. Einfach alles mit ComputeUnits erschlagen wollen, die dann auch noch massiv aufgebläht werden müssen, ist in der heutigen Zeit kostentechnisch ineffizient.
Ich sehe bei Navi gerade nichts, was nach Brute Force aussieht. Verdoppelte FP32 pro CU? Damit kam Ampere zuerst und du hast das als geniale Effizienz hingestellt. Grosse Caches, die die Recheneinheiten fetter gemacht haben? Schau dir mal Turing vs. Pascal an. Um es kurz zu sagen: Dein AMD Bashing stinkt.

Nvidia hat genau einen einzigen relevanten Effizienzvorsprung: Den der RT-Beschleunigung. That's it.


DLSS Performance zeigt, wie gut Upscaling aus 1/4 der realen Auflösungen mit "TensorCores" und DL funktionieren kann.
Du hast definitiv recht, dass natives Rendering zukünftig immer mehr verschwinden wird. Nur funktioniert dieses Spiel für alle Vendors. Hat hinsichtlich Vendor-Vergleich und Kosten für den Chip keinen wesentlichen Effekt. Solange ein Chipp 500-600mm2 gross ist, kostet er auch entsprechend viel. Kannst du die selbe Performacne mit einem 300mm2 Chip + DLSS erreichen, ja dann sinken die Preise. Die Rechnung geht aber nur auf, wenn alle Spiele mit temporalem Supersampling daherkommen. Das ist aber nicht der Fall.

amdfanuwe
2022-11-06, 11:56:12
Could happen quickly, if you count in increased complexity by 2 more MCD and a bigger package.
Additionally the basic costs relate to the quantity - there should be a big difference between N31 and N32, alone by the pricetag they are selling at.
Ich denke eher, dass die Packaging Kosten auch die gesamten Kosten für eine Karte enthalten, also komplexeres Board, teurerer Kühler, komplexere Power Anbindung etc.
Also nicht nur das Packaging für den Chip.

Interessant finde ich eigentlich, dass die Gesamtkosten nahezu mit den RAM Kosten skalieren.

Badesalz
2022-11-06, 11:58:18
wenn ein Übertakten auf 2.8GHz nur magere 5% Performance bringen bei mutmaßlich ordentlich mehr Verlustleistung, was soll dann ein Respin mit 3GHz nutzen? Ist Navi31 kaputt im Sinne von die angepeilten Taktraten sind nicht möglich oder im Sinne von die Skalierung klappt nicht wie geplant?Wie skaliert die 4090 denn? Man braucht in etwa +6% mehr Takt um auf +2% FPS zu kommen.

Ich glaub auch noch nicht an einen Respin.

@robbitop
Das stimmt mit Sicherheit bei 4090 (Margen) was da aber sonst so läuft... Das trägt ja auch nicht grad zu Gesichtswahrung, wenn die Preise schon raus sind und man ein (nur ein?) Modell dann plötzlich um 15% runtersetzt, nur weil AMD RDNA3 versemmelt haben soll :D

Neurosphere
2022-11-06, 11:59:30
wenn ein Übertakten auf 2.8GHz nur magere 5% Performance bringen bei mutmaßlich ordentlich mehr Verlustleistung, was soll dann ein Respin mit 3GHz nutzen? Ist Navi31 kaputt im Sinne von die angepeilten Taktraten sind nicht möglich oder im Sinne von die Skalierung klappt nicht wie geplant?

Wenn Navi32 wiederum gefixt wäre in dieser Beziehung, würde doch ein Navi32 @ 3GHz+ (vielleicht sogar die erhofften 3.5GHz) die 7900XTX ziemlich kanibalisieren.


Nach dem was man so liest neigt der Chip zu instabilität. Es wäre also möglich das überproportional viel Leistung benötigt wird um den Chip/Takt stabil zu bekommen. Evtl. waren die 355 Watt für über 3 Ghz geplant, werden nun aber schon deutlich darunter benötigt.

Sollte N32 anders sein und man bekommt das zügig auch für N31 in den Griff, kann es wirklich sein das eine 7950 recht schnell kommt.

Dual N32 ist halt ein Thema das wir nicht beantworten können weil wir nicht wissen ob dual GCD nun funktioniert oder nicht. Die Leistung wäre wirklich verdammt hoch und dort könnte man auch 450 Watt rechtfertigen. Einzig bei RT hilf das nicht wirklich, man läge wohl immernoch deutlich unter der 4090.

Der_Korken
2022-11-06, 12:01:29
wenn ein Übertakten auf 2.8GHz nur magere 5% Performance bringen bei mutmaßlich ordentlich mehr Verlustleistung, was soll dann ein Respin mit 3GHz nutzen? Ist Navi31 kaputt im Sinne von die angepeilten Taktraten sind nicht möglich oder im Sinne von die Skalierung klappt nicht wie geplant?

Wenn Navi32 wiederum gefixt wäre in dieser Beziehung, würde doch ein Navi32 @ 3GHz+ (vielleicht sogar die erhofften 3.5GHz) die 7900XTX ziemlich kanibalisieren.

2,3/2,5Ghz sind der offizielle Game Clock von AMD. Real kann der Takt nochmal etwas drüber liegen. Zumindest war das bei RDNA2 afaik so. Von realen 2,45/2,65Ghz (angenommen) wäre der Sprung auf reale 2,8Ghz (Frage ist ob das die Shader oder das Frontend sind) eben entsprechend klein.

Und ja, wenn N32 erheblich höher taktet als N31 könnte die 7800XT durchaus an der 7900XT kratzen. Aber wo wäre das Problem? Dann lässt man die 7900er Karten halt auslaufen und bedient den oberen Markt nicht. Besser N32 als Margen-Kracher, als teure N31 mit massig Speicher zu schlechten Preisen verkaufen zu müssen.

Wenn ich mir jetzt alles so anschaue wird man mit der 7900 wohl kein ordentliches UV hinbekommen. Wenn die Leistung jetzt schon so spitz auf Knopf gewählt ist, werden die 350 Watt nicht zu unterbieten sein.


Ich würde eher vermuten, dass die letzten Watt schon arg wenig bringen bei der 7900. Gerade dann, wenn ein Produkt nicht die erwartete Leistung bringt, würde man schnell über den Verbrauch noch ein paar Prozent rauspressen, damit die Leistung halbwegs passt. Es würde mich nicht mal wundern, wenn die 7900XTX ursprünglich mal für <350W angesetzt war.

Ich habe hier folgende Theorie, die vielleicht ein Dilema für N31 bedeutet, und einen Respin zu teuer macht, bei N32 möglicherweise aber noch abgefangen werden könnte.

Wenn die Ursache für möglicherweise nicht erreichte Taktraten, das nutzen der HD-Libraries, sprich die Simulation mehr Takt versprach als real dann mit dem Chip erreichbar ist, dann würde eine solche Anpassung bei N32 mit etwas Verschiebung möglich sein. Anstatt 200mm² könnten 220mm² (als Beispiel) als GCD entsprechend noch umgesetzt werden, nach den ersten Erkenntnissen bei N31 GCD. Für N31 hätte es aber eine Verschiebung nach 2023 bedeutet, was man nicht wollte.

Angeblich soll N33 mit 6nm in das selbe Problem gelaufen sein. Ich kenn mich jetzt mit den Fertigungsprozessen und Libs nicht aus, aber es muss kein 5nm-spezifisches Problem sein.

UV sollte immer gut gehen, da AMD traditionell bei der Spannung gerne zu viel draufgibt.

Mit 355W wollte man augenscheinlich das Maximum herauspressen, was mit 2x8pin möglich ist. Wahrscheinlich verliert die Karte nicht viel Leistung bei 300W.

This.


Quelle: https://twitter.com/XpeaGPU/status/1589075249337085952

Das wäre eine gute Nachricht. Es war eh etwas komisch, dass N32 so viel später kommen soll als der große und kleine Chip.

Complicated
2022-11-06, 12:01:45
Ich denke eher, dass die Packaging Kosten auch die gesamten Kosten für eine Karte enthalten, also komplexeres Board, teurerer Kühler, komplexere Power Anbindung etc.
Also nicht nur das Packaging für den Chip.

Kühler sind hier nicht berücksichtigt - Die Kosten stehen für das Endprodukt das an die AIBs geht+RAM.
Alles andere das Du aufzählst ist ja mit "increased complexity" von mir gemeint.
Man vergleiche auch dazu die steigenden Packagingkosten der monolitischen AD103->AD102, also ohne zusätzliche Chiplets wird es um einen ähnlichen Faktor teurer, genau wegen der von Dir genannten Punkte.

basix
2022-11-06, 12:03:34
AMD hat 5,6 Mrd. an Cash auf der hohen Kante. Nvidia muss möglicherweise genau in der Phase wo die Zinsen steigen noch mehr Geld aufnehmen um über diese Hürden zu kommen - es wird spannend wie sich das in 3 Monaten in den Büchern zeigen wird und wer mit seiner Strategie in einem fallenden Markt Margen oder Marktanteile generieren kann.

Interessant erwähnst du Zinsen. AMD hat in Q1/Q2 2022 ~2.5 Mrd. zusätzliche Schulden angehäuft. Ich nehme an via Kredite. Irgendwie scheint mir es so, dass AMD hier versucht hat, noch günstig an Geld zu kommen bevor die Zinsen allzu stark gestiegen sind. Wie es bei Nvidia im Vergleich dazu aussieht, weiss ich aber nicht.

Und ja, wenn N32 erheblich höher taktet als N31 könnte die 7800XT durchaus an der 7900XT kratzen. Aber wo wäre das Problem? Dann lässt man die 7900er Karten halt auslaufen und bedient den oberen Markt nicht. Besser N32 als Margen-Kracher, als teure N31 mit massig Speicher zu schlechten Preisen verkaufen zu müssen.
Glaube ich nicht, dass N32 ganz so weit raufkommt. N31 hat ~2x effektive Bandbreite, 2x Shader Engines und 1.4x CUs (7900XT).

Eine 7800XT mit 0.9x 7900XT Performance würde AMD aber gut tun (und die 7900XT vermutlich wie die 6800 nur in geringen Stückzahlen zu kaufen sein).



Angeblich soll N33 mit 6nm in das selbe Problem gelaufen sein. Ich kenn mich jetzt mit den Fertigungsprozessen und Libs nicht aus, aber es muss kein 5nm-spezifisches Problem sein.

Das wäre eine gute Nachricht. Es war eh etwas komisch, dass N32 so viel später kommen soll als der große und kleine Chip.
Ich hoffe, dass nur N31 davon betroffen ist. Wenn N32 den Fix schon drin hat, ist es ja gut und würde auch die These unterstreichen, dass Phoenix das Problem auch gelöst hat (ebenfalls 5nm). N33 wird hier ein wenig eine Wundertüte sein, hoffe aber ebenfalls, dass das Ding das Problem behoben hat.

Allerdings: Das Problem könnte auch gar nicht real sein und es ist nur BlaBla auf Twitter und Co.

BlacKi
2022-11-06, 12:06:37
Wenn ich Preise der neuen GPUs sehe, scheinen mir die GPU Preise das grössere Problem als hoher Verbrauch zu sein. FrüherTM war High End 500-650$. Heute sind wir beim 2...3x angelangt. Ob 300W oder 400W sind mier hier noch egal, da man die Karten einfach mit ein bisschen Hand anlegen wieder auf 300W runter bekommt.

Edit:
Kostensenkungen und entsprechend auch geringere Preise für Konsumenten würde uns deutlich mehr helfen ;) 2000 Euro teure Grafikkarten nutzen fast niemandem was. Und auch die Klientel, die sich so teure Grafikkarten leistet, wäre über günstigere GPUs nicht unglücklich ;)


ich sehe da aber noch hoffnung, die waferkosten sind z.z. sehr hoch. aber die sind schon am fallen und damit wird sich die lage verbessern.



als refresh glaube ich schon an eine preisanpassung.

Complicated
2022-11-06, 12:07:48
Angeblich soll N33 mit 6nm in das selbe Problem gelaufen sein. Ich kenn mich jetzt mit den Fertigungsprozessen und Libs nicht aus, aber es muss kein 5nm-spezifisches Problem sein.
Genau das spricht ja für die HDlibs als Ursache - N31 als Chiplet und N33 als Monolith sollen ja ca. zeitgleich ihr Tapeout gehabt haben und N32 später in der Pipeline gewesen sein. Vielleicht bekommt N33 einen Respin, da N6 günstiger ist und die Diegröße flexibler ist mit weniger Abhängigkeit als ein Chiplet. Hier zeigt sich vielleicht auch eine Schwäche bei Fehlerbehebung, wenn die Chiplets nicht mit genügen Größenpuffer für einen Respin geplant werden um noch auf ein geplantes Package zu passen. Fehlertoleranz wegoptimiert für Kosten sozusagen.

robbitop
2022-11-06, 12:08:40
Das wird man sehen müssen, ob sich Nvidia die 1500€ für eine 4080 erlauben kann. Muss man die Benchmarks und realen Verkaufszahlen gegen die 7900xtx abwarten.
Die fahren die künstliche Verknappungstaktik. Und entsprechend bleiben die Preise über UVP. Schau dir mal deren shop an. Alle Karten (auch Ampere - obwohl Inventory voll ist und die Chipshortage bei GPUs vorbei ist!) ausverkauft. Ja ne is klar… :rolleyes:

Linmoum
2022-11-06, 12:13:10
Wie skaliert die 4090 denn? Man braucht in etwa +6% mehr Takt um auf +2% FPS zu kommen.https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13159997&postcount=13

Mit +18.5% Takt steigen die avg. fps um +13.3%. Das ist eine ganz normale Skalierung, einen 1:1 Leistungszuwachs gibt es auch mit mehr Takt ja sowieso nicht.

Wenn N31 durch GPU-OC nur 3-5% an Performance zulegt, dann sollte das für einen realen Taktzuwachs von vielleicht 6-8% sprechen (ergo N31 taktet schon deutlich höher als offiziell angegeben). Oder aber mehr Takt skaliert bei N31 einfach schlecht, das wäre die alternative Möglichkeit.

In ein paar Wochen ist man schlauer, ob das nur blabla ist oder doch mehr dahintersteckt.

Badesalz
2022-11-06, 12:14:51
Nach dem was man so liest neigt der Chip zu instabilität.Das kenn ich. Das hatte ich mit meinem 2500k auf 4.8Ghz auch.

Ich denke eher, dass die Packaging Kosten auch die gesamten Kosten für eine Karte enthalten, Das wäre mir so ehrlich gesagt nicht eingefallen. Ich dachte immer die Gesamtkosten enthalten auch die Packagingkosten.
So grob schätze ich auch, daß die Gesamtkosten für eine Karte auch die PCB-Kosten enthalten.
:|

Badesalz
2022-11-06, 12:16:34
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13159997&postcount=13

Mit +18.5% Takt steigen die avg. fps um +13.3%. Das ist eine ganz normale SkalierungOu... Sorry. Bin auf den Kollegen hier reingefallen
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13159773#post13159773

Complicated
2022-11-06, 12:19:24
Interessant erwähnst du Zinsen. AMD hat in Q1/Q2 2022 ~2.5 Mrd. zusätzliche Schulden angehäuft. Ich nehme an via Kredite.
1,5 Mrd. davon sind der Xilinx Übernahme zuzuordnen (Folie 17):
https://d1io3yog0oux5.cloudfront.net/_b6e7ad14f0b774ed92fc2960e6430887/amd/db/778/6887/file/AMD+Q3%2722+Earnings+Slides_.pdf

Q3’22 Debt includes $1.5 billion in aggregate principal of Xilinx’s 2.95% Notes and 2.375% Notes, recorded at fair value as of the Xilinx Acquisition Date
1 Mrd. Schulden korrespondieren mit den ca. 850 Mio Aktienrückkäufen in dem Quartal. Also noch günstig zugeschlagen, wie Du schon schreibst. Fällig werden davon 1,75 Mrd. erst nach 2030.

Badesalz
2022-11-06, 12:21:29
Irgendwie scheint mir es so, dass AMD hier versucht hat, noch günstig an Geld zu kommen bevor die Zinsen allzu stark gestiegen sind. Wie es bei Nvidia im Vergleich dazu aussieht, weiss ich aber nicht.
Das letzte an Zahlen was ich zu NV hatte war der s.g. Kapitalmarktwert (?) und der ging Nov.21 bis Nov.22 von 900Mrd. auf 282Mrd. runter. Meine ich. Das hab ich aber auch nicht so ganz verstanden warum das so sein sollte :confused:

ChaosTM
2022-11-06, 12:23:14
Die 7900XT lacht mich schon an. Spiel momentan sowieso fast nur den FS2020 und Forza Horizon. Und es ist kein neues NT nötig.
Bei RT ist mir hauptsächlich die Beleuchtung wichtig. Spiegelorgien müssen (noch) nicht unbedingt sein und da haperts sowieso noch an der Strahlenanzahl. Entweder grieseln oder blurren.
Mal schaun was die Benchmarks so sagen.

Zossel
2022-11-06, 12:24:52
DLSS Performance zeigt, wie gut Upscaling aus 1/4 der realen Auflösungen mit "TensorCores" und DL funktionieren kann.

Es gibt doch Matrixmultiplikation in den neuen GPUs.

Troyan
2022-11-06, 12:25:08
Deine Argumentation liest sich à la "wir können da nichts machen und ergeben uns halt unserem jämmerlichen Schicksal". Sorry, das ist einfach Unfug und ein schlechtes Mindset. Ich will eine Verbesserung erzielen und mich nicht mit Verschlechterungen anfreunden. Chiplets sind ja gerade dazu gedacht, die Kosten tief halten zu können, obwohl Prozesse und Moore's Law nicht mehr gleich mitspielen wie früher.

Chiplets funktionieren nicht mit den aktuellen Grafik-APIs und wie die Grafik-Pipeline definiert ist. Du musst also erstmal einen kompletten Bruch herbeiführen.


Ich sehe bei Navi gerade nichts, was nach Brute Force aussieht. Verdoppelte FP32 pro CU? Damit kam Ampere zuerst und du hast das als geniale Effizienz hingestellt. Grosse Caches, die die Recheneinheiten fetter gemacht haben? Schau dir mal Turing vs. Pascal an. Um es kurz zu sagen: Dein AMD Bashing stinkt.

ILP ist ewig alt und hatte nVidia vor 10 Jahren schon probiert mit GF114 und Kepler. nVidia hat kein ILP seit Volta, sondern die Dispatcher können jeden Datenpfad individuell füttern.
Die RTX3070 ist beim Rasterizing zwischen 30% bis 40% schneller als eine RTX2080. Dabei hat nVidia nur 30% mehr Transistoren für Ampere gegenüber Turing aufgewendet. Perf/Fläche hat sich um 1,9x gesteigert.

Navi31 ist ineffizient, benötigt zuviele Transistoren für die Mehrleistung gegenüber Navi21.


Du hast definitiv recht, dass natives Rendering zukünftig immer mehr verschwinden wird. Nur funktioniert dieses Spiel für alle Vendors. Hat hinsichtlich Vendor-Vergleich und Kosten für den Chip keinen wesentlichen Effekt. Solange ein Chipp 500-600mm2 gross ist, kostet er auch entsprechend viel. Kannst du die selbe Performacne mit einem 300mm2 Chip + DLSS erreichen, ja dann sinken die Preise. Die Rechnung geht aber nur auf, wenn alle Spiele mit temporalem Supersampling daherkommen. Das ist aber nicht der Fall.

Alle neueren Spiele unterstützen Upscaling. Spieleentwickler haben kaum Aufwand es zu implementieren. Das ist kein Argument mehr gegen Upscaling.

Neurosphere
2022-11-06, 12:27:11
1,5 Mrd. davon sind der Xilinx Übernahme zuzuordnen (Folie 17):
https://d1io3yog0oux5.cloudfront.net/_b6e7ad14f0b774ed92fc2960e6430887/amd/db/778/6887/file/AMD+Q3%2722+Earnings+Slides_.pdf


1 Mrd. Schulden korrespondieren mit den ca. 850 Mio Aktienrückkäufen in dem Quartal. Also noch günstig zugeschlagen, wie Du schon schreibst. Fällig werden davon 1,75 Mrd. erst nach 2030.



Richtig wichtig ist eigentlich das hier:

https://abload.de/img/amdrndgzdi6.jpg

Quelle:

https://www.macrotrends.net/stocks/charts/AMD/amd/research-development-expenses

Zossel
2022-11-06, 12:27:21
Ich wette, dass NV richtig fettige Margen nimmt und da noch ordentlich Raum für Preissenkungen sind. Aber ohne echten Wettbewerb muss man das nicht tun. NVs Margen sind seit Kepler (Abseits der Abschreibungen von Invemtory beim Abebben der Mininghypes) immer weiter gestiegen. Da ist ordentlich Speck den man abschmelzen könnte wenn es denn einen starken Wettbewerb gäbe. Am besten mit so vielen wie möglichen Marktteilnehmern.

Würdest du in einem Markt agieren wollen wo sich die Käufer, wie hier seitenlang zelebriert, permanent wie im Kindergarten aufführen?

Meridian12
2022-11-06, 12:27:37
Ich glaube (Amen :D), dass wir bei den ersten Benshcmarks von der NVIDIA Fraktion mit RT,RT im Dauermodus beschallt werden, weil der Raster Unterschied viel zu gering ist für 1000 Euro Preisdifferenz 4090 zu 7900XTX.

Und da die 4080 ja noch nicht wirklich getestet werden konnte,wird halt die ganze Zeit so getan,als ob die 4090 der Gegner der 7900XTX wäre.

Linmoum
2022-11-06, 12:29:09
Die 4080 launcht schon am 16.11., die 7900XT(X) erst am 13.12. (Reviews angeblich am 12.12.).

Wieso sollte da noch nicht genug Zeit zum testen gewesen sein? :confused:

amdfanuwe
2022-11-06, 12:29:41
Interessant erwähnst du Zinsen. AMD hat in Q1/Q2 2022 ~2.5 Mrd. zusätzliche Schulden angehäuft. Ich nehme an via Kredite. Irgendwie scheint mir es so, dass AMD hier versucht hat, noch günstig an Geld zu kommen bevor die Zinsen allzu stark gestiegen sind.
Über langlaufende festverzinsliche Schuldverschreibungen, Kredite wären etwas anderes.

Zossel
2022-11-06, 12:30:11
Deine Argumentation liest sich à la "wir können da nichts machen und ergeben uns halt unserem jämmerlichen Schicksal". Sorry, das ist einfach Unfug und ein schlechtes Mindset. Ich will eine Verbesserung erzielen und mich nicht mit Verschlechterungen anfreunden. Chiplets sind ja gerade dazu gedacht, die Kosten tief halten zu können, obwohl Prozesse und Moore's Law nicht mehr gleich mitspielen wie früher.

Physik interessiert sich nicht dafür was du willst.

ChaosTM
2022-11-06, 12:31:58
Die 4080 launcht schon am 16.11., die 7900XT(X) erst am 13.12. (Reviews angeblich am 12.12.).

Wieso sollte da noch nicht genug Zeit zum testen gewesen sein? :confused:


Diese 2 Reviews warte ich auf alle Fälle ab und Zeit sollte in der Tat genug sein. :)

Zossel
2022-11-06, 12:32:01
Nach dem was man so liest neigt der Chip zu instabilität.

Papier ist geduldig.

Badesalz
2022-11-06, 12:34:24
Würdest du in einem Markt agieren wollen wo sich die Käufer, wie hier seitenlang zelebriert, permanent wie im Kindergarten aufführen?Da das ja mit Voodoo2 und TNT(2) begann halte ich das eher für das ganz normale Fahrwasser für die.

Zossel
2022-11-06, 12:37:30
Da das ja mit Voodoo2 und TNT(2) begann halte ich das eher für das ganz normale Fahrwasser für die.

Sind ja auch weniger Hersteller seitdem geworden.

basix
2022-11-06, 12:39:01
Chiplets funktionieren nicht mit den aktuellen Grafik-APIs und wie die Grafik-Pipeline definiert ist. Du musst also erstmal einen kompletten Bruch herbeiführen.

Und nach entsprechenden technischen Lösungen zu suchen ist deshalb kein Thema?

Physik interessiert sich nicht dafür was du willst.
Physik ist hier gar nicht das Thema. Man kann die Physik nicht besiegen, aber mit intelligenten Umsetzungen innerhalb der physikalischen und ökonomischen Grenzen mehr erreichen. Chiplets haben da zwei ganz andere Aspekte:

Ökonomie
Technische Umsetzung der Skalierung über mehrere Chiplets

Einzig der Energiebedarf der Chiplet-to-Chiplet Kommunikation ist ein Faktor, wo Physik eine grössere Rolle spielt. Aber auch hier: Intelligente Lösungen würden das Ziel haben, den Kommunikationsbedarf möglichst gering zu halten. Oder wie Eingangs erwähnt: Innerhalb der gesetzten Grenzen mehr erreichen ;)

why_me
2022-11-06, 12:41:24
Chiplets funktionieren nicht mit den aktuellen Grafik-APIs und wie die Grafik-Pipeline definiert ist. Du musst also erstmal einen kompletten Bruch herbeiführen.

Willst du dazu noch etwas mehr schreiben? Das würde mich wirklich interessieren, warum das nicht funktionieren soll und was da deiner Meinung nach genau die Probleme sein sollen.

Badesalz
2022-11-06, 12:41:52
Hab ich das falsch gepeilt, daß RT50 Chiplet sein soll? Werden Khronos und MS das schaffen bis dahin die Grafik-APIs umzubauen?

amdfanuwe
2022-11-06, 12:42:35
Das wäre mir so ehrlich gesagt nicht eingefallen. Ich dachte immer die Gesamtkosten enthalten auch die Packagingkosten.
So grob schätze ich auch, daß die Gesamtkosten für eine Karte auch die PCB-Kosten enthalten.
:|
Hatte ich mich unglücklich ausgedrückt:
Gesamtkosten = CPU Chip + RAM + Rest(Packaging)

basix
2022-11-06, 12:43:10
Hab ich das falsch gepeilt, daß RT50 Chiplet sein soll? Werden Khronos und MS das schaffen bis dahin die Grafik-APIs umzubauen?

Wer sagt, dass die APIs umgebaut werden müssen? Solange die GPU sich nach aussen wie eine monolithisch GPU verhält, ist das den APIs egal.

Gibt etliche Patente von AMD, die genau die Skalierung über mehrere Chiplets zum Ziel haben. Nach aussen sieht es aber wie 1x GPU aus.

Tesseract
2022-11-06, 12:51:00
natürlich kann man ein chiplet-design mit den aktuellen APIs umsetzen.

Daredevil
2022-11-06, 12:59:48
Chiplets funktionieren nicht mit den aktuellen Grafik-APIs und wie die Grafik-Pipeline definiert ist. Du musst also erstmal einen kompletten Bruch herbeiführen.

Apple klebt zwei M1 Max in ihrer ersten Generation aneinander und der Chip verhält sich wie einer. Dann wird das AMD bestimmt auch hinbekommen, da bin ich mir sicher. :)

Complicated
2022-11-06, 13:01:20
Zumal Nvidias Ausblick im August für die kommenden Quartalszahlen ein Umsatz von 5,9 Mrd. war.
AMD prognostiziert das für das letzte Quartal 2022 einen stabilem Umsatz bei 5,5 Mrd.

Am 16.11. werden wir sehen ob sich da noch etwas verschoben hat die letzten 3 Monate, für Nvidia - Ansonsten erwarte ich bei den derzeitigen Aussichten, dass AMD und Nvidia innerhalb der nächsten beiden Quartale Sozusagen das Crossover zu sehen sein wird, wo AMD im Quartal mehr Umsatz macht als Nvidia. Dafür sorgen die CPU-Server Umsätze und die neue Cashcow mit Xilinx im embedded Segment.

Was hier noch gravierende Auswirkungen für beide haben kann ist die China-Situation. Ab 2H/2023 kann Nvidia keine AI Chips mehr nach China liefern, sollten die sich nicht einigen auf Regierungsebene. AMD würde sein neuer Deal im Automotive vermutlich weniger Probleme machen, da eher weniger Highend-Technologie in V2000 und V3000 stecken, die nun an ECARX gehen, aber wer weiss schon was der US-Regierung noch einfällt: https://m.futurecar.com/5543/Chipmaker-AMD-to-Collaborate-with-ECARX-on-a-Digital-Cockpit-In-Vehicle-Computing-Platform-for-Next-Gen-EVs
Das ist eine komplette Plattform die zugeliefert wird für Elektrofahrzeuge, an diverse Hersteller (12 Marken). Nicht nur ein Deal mit einem. Das jährliche Wachstum wird hier auf 56% geschätzt.
https://ir.ecarxgroup.com/static-files/e8f7af61-4c9c-4c24-ae00-fe27d0a3bcd0

][immy
2022-11-06, 13:03:41
Apple klebt zwei M1 Max in ihrer ersten Generation aneinander und der Chip verhält sich wie einer. Dann wird das AMD bestimmt auch hinbekommen, da bin ich mir sicher. :)
Natürlich klappt das, wenn die Interfaces dazwischen breit und schnell genug sind.
SLI scheitert eigentlich nur an der Kommunikation zwischen den Chips (+2 unterschiedliche Speicher). Von der reinen Software ist das eigentlich kein Problem.

Badesalz
2022-11-06, 13:06:38
Apple klebt zwei M1 Max in ihrer ersten Generation aneinander und der Chip verhält sich wie einer. Dann wird das AMD bestimmt auch hinbekommen, da bin ich mir sicher. :)Fairerweise sollte man aber sagen, daß sie dazu auch "Metal" gebaut haben. Was da entsprechend dafür designt ist wird ja nicht kommuniziert.

@basix
War als "wenn denn" gedacht. Daß Troyan in einer guten viralen PR-Schwurbler Quali (als Gegensatz zu Dural...) fortlaufend Umstände herbeifantasiert bei welchen NV besonders gut und AMD besonders schlecht aussieht brauchst du mir nicht erklären :wink:
Irgendwie stimmt mich das aber positiv =)

Troyan
2022-11-06, 13:09:29
Apple klebt zwei M1 Max in ihrer ersten Generation aneinander und der Chip verhält sich wie einer. Dann wird das AMD bestimmt auch hinbekommen, da bin ich mir sicher. :)

Natürlich. Aber vergess nicht, AMD hat jetzt schon 96 ComputeUnits. Je breiter GPUs werden, umso ineffzienter sind sie auszulasten. Dazu kommt der Leistungsverlust durch die Synchronisierung beider Chiplets.

why_me
2022-11-06, 13:12:06
Natürlich. Aber vergess nicht, AMD hat jetzt schon 96 ComputeUnits. Je breiter GPUs werden, umso ineffzienter sind sie auszulasten. Dazu kommt der Leistungsverlust durch die Synchronisierung beider Chiplets.

Wer sagt denn, dass es bei 96CUs pro Chiplet bleiben wird?

Daredevil
2022-11-06, 13:16:02
Natürlich. Aber vergess nicht, AMD hat jetzt schon 96 ComputeUnits. Je breiter GPUs werden, umso ineffzienter sind sie auszulasten. Dazu kommt der Leistungsverlust durch die Synchronisierung beider Chiplets.
Deswegen ja auch Chiplets. :)
https://www.profolus.com/topics/apple-ultrafusion-technology-explained-what-and-how/
For the specific CoWoS-S technology integrated into the M1 Max and used to create the M1 Ultra to form the foundation of the UltraFusion technology of Apple, note that companies such as Advanced Micro Devices, Nvidia, and Fujitsu have been using the same technology to design and build high-performance processors for high-performance computing.


Es ist doch imho glasklar, das AMD genau diesen Weg gehen wird.
Mit mehreren GCDs ist alles viel besser skalierbar, nach unten als auch nach oben hin.

AMD hat ja schon mal erfolgreich zwei GPUs verbunden ohne Crossfire oder ähnlichem, wobei das ja noch etwas mehr "geteilt" war. :D
https://www.hartware.de/wp-content/uploads/2019/06/AMD-Radeon-Pro-Vega-II-Duo-Platine.jpg

Badesalz
2022-11-06, 13:22:05
Wer sagt denn, dass es bei 96CUs pro Chiplet bleiben wird?Ist ja nicht alles identisch bei den beiden, aber NV kommt mit den 128 SMs in welchen 16384 Cudacores stecken anscheinend noch klar...

Teilweise ist da aber wohl bisschen was dran, wenn man nachschaut inwiefern das bei Rasterleistung effizient ist gegenüber den 96 CUs von AMD und was NV für Takt und was für TBP dafür fährt.

iamthebear
2022-11-06, 13:33:48
Apple klebt zwei M1 Max in ihrer ersten Generation aneinander und der Chip verhält sich wie einer. Dann wird das AMD bestimmt auch hinbekommen, da bin ich mir sicher. :)

Machen kann man viel. Die Frage ist nur, ob es sinnvoll ist.
Schau dir an wo der M1 Ultra performancemäßig ist mit 2x400mm² N4 und wo Nvidia mit einem künstlich beschnittenen 600mm² Die ist. Miese Treiber und niedriger Energieverbrauch schön und gut aber da liegen 3x dazwischen.

Einmal abgesehen davon:
Was soll das bringen. Die 300mm² GCD landen schon auf 1200 Euro und das ist bereits beim Großteil der Käufer weit über der Schmerzgrenze.
Das Reticle Limit ist bei über 800mm². Da hat man noch mehr als genug Luft.

Eine Notwendigkeit ergibt sich erst ab High NA EUV, wo das Reticle Limit auf ca. 400mm² sinkt. Allerdings kommt das afaik bei TSMC erst nach 2nm zum Einsatz. Bis dahin vergeht noch viel Zeit und ich glaube kaum, dass mehr als 400mm² da bezahlbar wären.

Badesalz
2022-11-06, 13:39:46
Einmal abgesehen davon:
Was soll das bringen. Die 300mm² GCD landen schon auf 1200 Euro und das ist bereits beim Großteil der Käufer weit über der Schmerzgrenze.Nimmt man für die Betrachtung nicht erst die Margen statt den Endkundenpreisen? Mal davon ab, daß dies aktuell wieviel preiswerter ist bei klar vergleichbarer Rasterleistung als das monolithische Gegenteil?

Zossel
2022-11-06, 13:47:38
Hab ich das falsch gepeilt, daß RT50 Chiplet sein soll? Werden Khronos und MS das schaffen bis dahin die Grafik-APIs umzubauen?

https://www.google.de/search?q=dx12+mgpu

Zossel
2022-11-06, 13:48:30
Apple klebt zwei M1 Max in ihrer ersten Generation aneinander und der Chip verhält sich wie einer. Dann wird das AMD bestimmt auch hinbekommen, da bin ich mir sicher. :)

Taugt das zum zocken oder nur für compute?

Badesalz
2022-11-06, 13:50:17
Willst du dazu noch etwas mehr schreiben? Nein. Will er wohl nicht. Keine Tipps an AMD in den Foren :rolleyes:

https://www.google.de/search?q=dx12+mgpuAh so (??) Das ist schon 2020 alles gelaufen? Ja dann :D

DeadMeat
2022-11-06, 13:54:15
Taugt das zum zocken oder nur für compute?

Zumindest hat der Chip mit den meisten GPU Cores auch die höchste Spieleleistung, Benchmarks zeigen auch eine funktionierende skalierung von 16cores auf 32.

why_me
2022-11-06, 14:20:34
Nein. Will er wohl nicht. Keine Tipps an AMD in den Foren :rolleyes:

So geht es leider schon seit Tagen jetzt bei ihm. Stellt irgendwelche haltlosen Behauptungen hier im thread auf. Auf Nachfrage kommt nichts... Meiner Meinung nach ist das einfach nur trolling und sollte mal langsam konsequenzen haben.

Daredevil
2022-11-06, 14:25:50
Taugt das zum zocken oder nur für compute?
Native Spiele profitieren sehr gut von der Verdoppelung des SoCs, Emu x86 Spiele werden stark CPU limitiert.

https://www.youtube.com/watch?v=8YjMIjLLIwA
https://abload.de/img/bildschirmfoto2022-11gzimm.png
Insofern würde ich sagen, dass das Konzept durchaus aufgeht.


Schau dir an wo der M1 Ultra performancemäßig ist mit 2x400mm² N4 und wo Nvidia mit einem künstlich beschnittenen 600mm² Die ist. Miese Treiber und niedriger Energieverbrauch schön und gut aber da liegen 3x dazwischen.
Der M1 Ultra ist in 5nm gebaut und der Vergleich hinkt natürlich, da die 400mm² der komplette SoC sind und nicht nur der GPU Anteil.
Deswegen hat die Kiste auch 114 Mrd Transistoren, weil da alles andere noch drin ist. Das ist ja technisch eine völlig andere Liga.
Da die Technik von TSMC kommt, schaut es doch gut aus für den GPU Markt. ^^

robbitop
2022-11-06, 14:48:27
M1 Ultra arbeitet in 3D Anwendungen transparent als eine GPU und skaliert auch. Es funktioniert also grundsätzlich. Die GPU uArch und die Treiber und das OS sind natürlich nicht auf Gaming optimiert also gibt es schnellere GPUs aber das Funktionsprinzip mehrere GPUs zu verbinden und sie wie eine arbeiten zu lassen funktioniert.

Unrockstar
2022-11-06, 14:54:47
Frag mal AMD und deren Behauptung, dass Bulldozer 8 Kerne hat. Das Klageverfahren deswegen war erst 2019 nach Einigung beendet worden. ;)

Ist halt am Ende genauso Blödsinn. Eine Außergerichtliche Einigung macht man, um jahrelange Verfahren zu verhindern... Wer aber bei der Kerndefinition auf dem Intel Zug ist, hat halt Pech.. War damals Lächerlich und ist es heute noch.. Es macht dich nicht Seriöser mein lieber.

der 3DC Index hat 57,1% einer 4090 in 4K für die 6950XT ermittelt.. Mal 1,5-1,6 (je nachdem wie offen AMD mit den zahlen war) heisst am Ende 85-92% einer 4090... Da könnte dann selbst die 7900XT verdammt dicht an die 4080/16 kommen.
Nimm diese Fakten hin, oder lass es

Durch Urban Myths wirds aber nicht besser! Bulli hat am Ende alles was einen CPU Kern Definiert.. Dass man bestimmte Instruktionseinheiten nicht doppelt hat, liegt nur daran, dass die Anwälte die Intel Kern Theorie verfolgten.

Ganz einfach... damit die Kosten nicht explodieren. Und natürlich wäre der Verbrauch dann auch einiges höher. was ich überhaupt nicht begrüße.


Korrekt.. Am Ende sehen 2 8Pin auch besser aus als 3 8Pin, auch Platztechnisch.
Und ich sehe schon wie die Leute gezetert hätten, wenn AMD ganze 3 8Pin Steckbuchsen gewagt hätte.

ChaosTM
2022-11-06, 15:02:32
Ist halt am Ende genauso Blödsinn. Eine Außergerichtliche Einigung macht man, um jahrelange Verfahren zu verhindern... Wer aber bei der Kerndefinition auf dem Intel Zug ist, hat halt Pech.. War damals Lächerlich und ist es heute noch.. Es macht dich nicht Seriöser mein lieber.

der 3DC Index hat 57,1% einer 4090 in 4K für die 6950XT ermittelt.. Mal 1,5-1,6 (je nachdem wie offen AMD mit den zahlen war) heisst am Ende 85-92% einer 4090... Da könnte dann selbst die 7900XT verdammt dicht an die 4080/16 kommen.
Nimm diese Fakten hin, oder lass es

Durch Urban Myths wirds aber nicht besser! Bulli hat am Ende alles was einen CPU Kern Definiert.. Dass man bestimmte Instruktionseinheiten nicht doppelt hat, liegt nur daran, dass die Anwälte die Intel Kern Theorie verfolgten.



Korrekt.. Am Ende sehen 2 8Pin auch besser aus als 3 8Pin, auch Platztechnisch.
Und ich sehe schon wie die Leute gezetert hätten, wenn AMD ganze 3 8Pin Steckbuchsen gewagt hätte.


Die 4080er erreicht maximal(!) 75% des Dickschiffs. Die 7900XT sollte das ziemlich locker schaffen. Bei RT liegt man natürlich zurück..

Badesalz
2022-11-06, 15:54:59
So geht es leider schon seit Tagen jetzt bei ihm. Stellt irgendwelche haltlosen Behauptungen hier im thread auf. Auf Nachfrage kommt nichts... Meiner Meinung nach ist das einfach nur trolling und sollte mal langsam konsequenzen haben.Sorry aber das ist überzogene Erwartungshaltung. Die Marketing-Maulwürfe und sonstige Troyanische Pferde sind selbst, wie so meist auch der Rest der Gilde, nicht pauschal die großen Technikspezis. Wahrscheinlich ist er daher auch nicht alleine und nur das Megafon. Und es gibt nicht nur 3DC. Und es ist Sonntag...

Real verspreche ich mir einiges von RDNA3 durch solche Umstände. Früher wurde kurz gelacht und bisschen Hämme drübergekippt. Wenn ich jetzt aber sehe wie solche in allen Foren ausgerollt wurden und wie sie da jedem an den Waden hängen (und das wird nicht nur im deutschsprachigen Raum so sein), dann gibt es wohl doch paar Sorgenfalten in der Küche in SantaClara.

An sich sollte man also die vermeindlichen Demütigungen :rolleyes: als reale Ermutigungen aufnehmen. Und sich auch nicht so stark über all den Lug&Trug aufregen. Für mich ist das alles ein klar positives Zeichen :wink:

DrFreaK666
2022-11-06, 16:50:53
AMD könnte endlich mal Preise in Deutschland preisgeben.

unl34shed
2022-11-06, 16:57:07
rechne mit 1.2k€ und freu dich wenn es weniger ist?!

NC
2022-11-06, 16:59:23
Chiplets für GPUs sind logistisch einfacher zu realisieren als auf CPU, denn auf CPU hat der Hersteller wenig Einfluss wie die Software die Threads und darin die Speicherzugriffe verteilt (weswegen MS bei Windows ein wenig helfen muss mit custom Scheduling für die einzelnen Cores).
Bei GPUs wurde das Problem vor langer Zeit gelöst, mußte es auch, damit dutzende CUs/SMs skalieren. Das liegt auch daran, dass alles hinter APIs versteckt ist und die Hersteller 100% Kontrolle haben. Bei Nvidia z.B. ist das Bild in ein Grid von Blöcken aufgeteilt und jedes GPC hat fest zugewiesen welche Blöcke es abarbeitet. Es gibt einen Moment, in dem GPC zu GPC daten verschickt werden, das wäre dann GPC-Chiplet zu GPC-Chiplet, aber ansonsten arbeitet ein GPC für sich alleine. Das kommunizieren ist sehr Gepuffert, damit es keine Stalls gibt, die Latenz ist weniger wichtig als auf CPUs.

arcanum
2022-11-06, 17:02:47
im amd shop sieht man den preis anhand der 6900xt - aktuell 1204,22 €. AMD rechnet nämlich tagesaktuell, ausgehend von der UVP, den kurs um und schlägt die MwSt drauf und zwar für alle produkte.

Unrockstar
2022-11-06, 17:04:34
Die 4080er erreicht maximal(!) 75% des Dickschiffs. Die 7900XT sollte das ziemlich locker schaffen. Bei RT liegt man natürlich zurück..

Ich weiß.. Sollte die Tendenz am Ende eher in Richtung 1,6 gehen, dann wirds eh witzig... Aber ich glaube noch nicht dran, dass die XT wirklich gut verfügbar wird.

Tesseract
2022-11-06, 17:10:21
Durch Urban Myths wirds aber nicht besser! Bulli hat am Ende alles was einen CPU Kern Definiert.. Dass man bestimmte Instruktionseinheiten nicht doppelt hat, liegt nur daran, dass die Anwälte die Intel Kern Theorie verfolgten.

nein, hat er nicht. ein "kern" kann unabhängig fetch-decode-execute-writeback weil das die minimale funktionalität ist um beliebigen code auf beliebigen daten ausführen zu können. diese definition erfüllt nur der cluster, die "kerne" hingegen an mehreren stellen nicht.

Badesalz
2022-11-06, 17:41:59
Sorry für Spam aber:
Preise preisgeben. Hat echt was :smile:

Grendizer
2022-11-06, 17:49:23
Sorry für Spam aber:
Preise preisgeben. Hat echt was :smile:

Dollar:Euro ist aktuell 1:1


Also die 999 *1,19 und ein wenig runden und wir haben die Preise. Erwartet hier irgendjemand was anderes ?

DrFreaK666
2022-11-06, 17:56:27
Ich erwarte auch 1099€/1199€, hätte es aber gerne offiziell

Linmoum
2022-11-06, 17:58:58
Gibt's wie immer mit den Reviews, also am 12.12.

Thomas Gräf
2022-11-06, 17:59:21
im amd shop sieht man den preis anhand der 6900xt - aktuell 1204,22 €. AMD rechnet nämlich tagesaktuell, ausgehend von der UVP, den kurs um und schlägt die MwSt drauf und zwar für alle produkte.

Kommt mit dem hin was so als Durchschnitt auf GZ zu finden ist.
Wenn man davon ausgeht das die 7900xtx ein tausender billiger wird als die 4090, dann werden wohl 1400-1500euro fällig.
Wer weiß was die Customs noch draufschlagen...

Badesalz
2022-11-06, 18:09:52
Ich erwarte auch 1099€/1199€, hätte es aber gerne offiziellMüssen eigentlich die Vietnamesen & Co. auch soviel Latzen?

edit:
MEIN FEHLER. Jedenfalls was Vietnam angeht. Die verkaufen ja nicht nach Stückzahl
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Grafikkarten-Verkauf-kiloweise-Ungewoehnliche-Aktion-1406320/

gbm31
2022-11-06, 18:10:22
Dollar:Euro ist aktuell 1:1


Also die 999 *1,19 und ein wenig runden und wir haben die Preise. Erwartet hier irgendjemand was anderes ?

Klar: Die roten $-Preise ohne MwSt damit das zu erwartende RT-Niveau nicht zu sehr weh tut und die grünen möglichst noch einen EU-Aufschlag, damit die gekaufte 4090 noch besser da steht.


Ich werd Reviews abwarten was sich bei meinen Sims tut und dann entscheiden ob ich diese Generation mit der 6900 aussitze oder doch auf die 7900XT gehe.

Mehr als 1000€ gebe ich für eine Grafikkarte nicht aus. Dann stirbt halt irgendwann das Hobby. Mit meinem Yoga und meinem HTPC gehts auch mit 720p und AMDs APUs, dem Alter sei Dank. :-)

reaperrr
2022-11-06, 18:15:05
Die 4080er erreicht maximal(!) 75% des Dickschiffs. Die 7900XT sollte das ziemlich locker schaffen. Bei RT liegt man natürlich zurück..
Ich gehe davon aus, dass AMD die Gerüchte verfolgt und anhand Nvidias eigener Präsentationen und der 4090 auch eigene Simulationen zur voraussichtlichen 4080-16G Perf erstellt hat und die Specs der XT so gewählt hat, dass man zumindest in Sachen Raster-Perf im Durchschnitt um mindestens 5-10% gewinnt, um zusammen mit dem niedrigeren Preis das klar attraktivere Gesamtpaket außerhalb von RT zu haben.

Ich erwarte auch 1099€/1199€, hätte es aber gerne offiziell
Ich wäre für die XT nicht ganz so pessimistisch und würde mit 1079 € MSRP rechnen.

dargo
2022-11-06, 18:56:18
im amd shop sieht man den preis anhand der 6900xt - aktuell 1204,22 €. AMD rechnet nämlich tagesaktuell, ausgehend von der UVP, den kurs um und schlägt die MwSt drauf und zwar für alle produkte.
What? Die RX 6900XT hat aktuell eine UVP von 699$. Dann wären 1204,22€ verdammt viel Aufschlag. :freak:

Edit:
Übrigens... die Umrechnung von Dollar auf Euro geht nicht einfach auf mit 1:1 + 19% MwSt. Das sieht man aktuell sehr schön bei RDNA2. Und dann sind Customs, die eh nochmal eine höhere UVP haben/hatten. Dennoch gehe ich natürlich von mehr als 1000€ für N31 Full aus da am Anfang einfach die Nachfrage groß ist was den Preis nach oben treibt. Die Händler wollen am Anfang auch immer extra absahnen.

OpenVMSwartoll
2022-11-06, 19:08:15
What? Die RX 6900XT hat aktuell eine UVP von 699$. Dann wären 1204,22€ verdammt viel Aufschlag. :freak:

Grafikkarten sind dort eh alle vergriffen, evtl. macht man sich deshalb nicht die Mühe, die UVPs umzusetzen.

Linmoum
2022-11-06, 19:16:17
Seit wann hat die 6900XT eine offiziell niedrigere UVP? Oder ist das wieder diese Missinterpretation von AMDs Newegg-Folie, wo danach jeder am schreien war, dass AMD die UVPs gesenkt hätte (was nicht der Fall war)?

Wenn die UVP niedriger wäre, würde AMD das auch so im Shop anpassen. Haben sie bei den CPUs auch gemacht (wovon übrigens auch nicht alle gerade verfügbar sind).

OpenVMSwartoll
2022-11-06, 19:27:13
Oh, hast recht, die UVP wurde wohl nicht offiziell gesenkt. Hatte nen Artikel auf dem AMD Blog im Hinterkopf. Dort nahm man aber Bezug auf Newegg.

Platos
2022-11-06, 19:52:03
Die 6900XT hat seit Launch eine UVP von 999$

https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6900-xt

Zossel
2022-11-06, 20:06:37
Oh, hast recht, die UVP wurde wohl nicht offiziell gesenkt.

Warum?

Exxtreme
2022-11-06, 20:59:37
_PRXJZHWqMI

Interessantes Video. :)

bloodflash
2022-11-06, 21:38:38
https://youtu.be/_PRXJZHWqMI

Interessantes Video. :)

Ist eine Zusammenfassung in zwei bis drei Sätzen zuviel verlangt?

Thomas Gräf
2022-11-06, 21:53:32
Nunja er spricht über einem Phyrrusssieg von NV mit 4090.

Exxtreme
2022-11-06, 21:54:47
Ist eine Zusammenfassung in zwei bis drei Sätzen zuviel verlangt?

Ist zu viel Content um das kurz zusammenzufassen. :)

Paar Punkte:

* Er sieht RDNA3 auf einem guten Weg weil diese Architektur für den Preis schlicht mehr bietet als Lovelace.

* Er bemängelt die zu erwartende RT-Performance, die bestenfalls auf Ampere-Niveau liegen wird.

* Nvidia wird wohl große Schwierigkeiten bekommen einen Nachfolger für Lovelace halbwegs günstig herzustellen wenn sie beim monolithischen Design bleiben. Mit 3 Nanometer-GPUs wird man dann Apple-Preise zahlen müssen. Und sie werden auch womöglich mit Apple konkurrieren müssen um Produktionskapazitäten.

* Es gehen viele RTX 4090 wieder zurück an die Händler weil Leute, die aufrüsten wollen, die Grafikkarte nicht ins Gehäuse bekommen. Das Problem wird AMD nicht haben.

* RDNA4 wird ca. 50% schneller sein als RDNA3.

* RDNA4 soll Ende 2023, Anfang 2024 kommen. Könnte sich aber noch mehr verspäten.

* RDNA3 hat noch viel Luft nach oben weil sie es höher takten können und den Cache verdoppeln können. So könnte ein Refresh Ende 2023 aussehen.

* Die RTX 4080 wird wesentlich schwieriger zu bekommen sein als die RTX 4090 wenn man nicht sofort zugreift. Weil sie immer noch Ampere abverkaufen wollen und eine künstliche Knappheit erzeugen.

Da ist noch mehr. X-D

Janos
2022-11-06, 22:03:31
was haltet ihr von der Überlegung das AMD uns 2023 noch mit einer ca. 500mm² GCD Version beglückt?
Der jetzige Navi31 scheint mir eher ein Testballon zu sein, neuer Prozess und Chiplets, also erst einmal auf Sicherheit spielen und dann mit den gewonnene Erkenntnissen die dicke Berta auspacken?

Lisa soll mal wieder die Lederjacke auspacken, damit die King Kong gegen Godzilla Fraktion ihren Clash of the Titans bekommt :biggrin:

Thomas Gräf
2022-11-06, 22:04:16
* Es gehen viele RTX 4090 wieder zurück an die Händler weil Leute, die aufrüsten wollen, die Grafikkarte nicht ins Gehäuse bekommen. Das Problem wird AMD nicht haben.

Wie war das...
"Ich kann mir alles in den PC reinbasteln was ich will, aber das Gehäuse muss so bleiben...meine Frau darf da nichts merken" :biggrin:

Daredevil
2022-11-06, 22:13:21
was haltet ihr von der Überlegung das AMD uns 2023 noch mit einer ca. 500mm² GCD Version beglückt?
Der jetzige Navi31 scheint mir eher ein Testballon zu sein, neuer Prozess und Chiplets, also erst einmal auf Sicherheit spielen und dann mit den gewonnene Erkenntnissen die dicke Berta auspacken?

Lisa soll mal wieder die Lederjacke auspacken, damit die King Kong gegen Godzilla Fraktion ihren Clash of the Titans bekommt :biggrin:
Ist sicher für jeden im Rahmen der Vorstellungsfähigkeit, wenn AMD noch nen "BigNavi" nachschiebt. Ich denke aber, dass wir dazu dann mehr Spoiler von AMD bekommen würden, damit die Leute, genauso wie sie jetzt gewartet haben, nicht zu Nvidia greifen.
Sowas wäre besser vermarktbar, als das man es einfach verschweigt.

Viel klüger wäre aber imho, das man die Nische ab 999$ einfach frei lässt, weil irrelevant und sich auf kostengünstige MCM Grafikkarten fokussiert, weil so erst tatsächlich auch im 1500$+ Highend "leicht" Konkurrenz entstehen kann, indem man mehrere GCN zusammen klebt. So wie sie es auch mit Intel und Zen gemacht haben, da brauchte es auch erst 3-4 Generationen, um richtig Konkurrenzfähig zu sein, abseits des Preises. Hier wird es sicher nicht solange dauern.
Vielleicht zeigt AMD mit ihren Pro Karten ja, was mit RDNA3 möglich wäre als Top Modell, wenn aber auch hier kein GPU Monster kommt, sehe ich da schwarz.

Exxtreme
2022-11-06, 22:14:01
was haltet ihr von der Überlegung das AMD uns 2023 noch mit einer ca. 500mm² GCD Version beglückt?
Der jetzige Navi31 scheint mir eher ein Testballon zu sein, neuer Prozess und Chiplets, also erst einmal auf Sicherheit spielen und dann mit den gewonnene Erkenntnissen die dicke Berta auspacken?


Glaub nicht, dass die so eine Änderung bringen. Wie im Video schon gesagt, eher mehr Cache und höherer Takt bei höherem Stromverbrauch.

Thomas Gräf
2022-11-06, 22:14:48
was haltet ihr von der Überlegung das AMD uns 2023 noch mit einer ca. 500mm² GCD Version beglückt?
Der jetzige Navi31 scheint mir eher ein Testballon zu sein, neuer Prozess und Chiplets, also erst einmal auf Sicherheit spielen und dann mit den gewonnene Erkenntnissen die dicke Berta auspacken?

Lisa soll mal wieder die Lederjacke auspacken, damit die King Kong gegen Godzilla Fraktion ihren Clash of the Titans bekommt :biggrin:

Testballon ja sicherlich. “Wir irren uns empor” läuft da gerade bei RTG.:smile:

Janos
2022-11-06, 22:19:10
ein 500mm² GCD scheint mir der geringste Aufwand mit dem jetzigen Prozess zu skalieren, mehrere GCDs sind halt nicht so einfach zu realisieren wie bei einer CPU.

"Testballon ja sicherlich. “Wir irren uns empor” läuft da gerade bei RTG. "

machen wir das nicht alle so? :rolleyes:

davidzo
2022-11-07, 00:10:53
was haltet ihr von der Überlegung das AMD uns 2023 noch mit einer ca. 500mm² GCD Version beglückt?
Der jetzige Navi31 scheint mir eher ein Testballon zu sein, neuer Prozess und Chiplets, also erst einmal auf Sicherheit spielen und dann mit den gewonnene Erkenntnissen die dicke Berta auspacken?

Lisa soll mal wieder die Lederjacke auspacken, damit die King Kong gegen Godzilla Fraktion ihren Clash of the Titans bekommt :biggrin:

Eigentlich reicht ein neues Stepping mit den vorgesehenen 3Ghz gameclock plus die 192mb IF-Cache.
30% mehr Rohleistung die dank Takt perfekt skaliert und durch den massiven cache auch nicht unter Bandbreitenlimits leiden sollte. Das wäre warscheinlich genug um die 4090 in Raster zu überholen.

Die enttäuschenden Taktraten erklären auch wieso man vorerst von der stacked Cache-version Abstand genommen hat: Zu teuer für eine 900$ Karte die nur mit GA103 konkurriert.
Da rund 30% der ursprünglich geplanten Rohleistung fehlen reicht halt auch schon die MCD Version ohne stacked Cache.
Die 7900XTX und XT sehen mir aus wie resteverwendung eines Steppings das zu früh in Massenproduktion ging, sozusagen ein Salvage der ursprünglichen navi31 Idee.

Ich würde AMD aber nicht abschreiben, denn der stacked cache soll ja laut gerüchten doch schon in Massenproduktion gegangen sein. Entweder man sammelt also schon golden samples vom GCD für diese Version, oder man hat schon ein neues Stepping in der mache das überzeugend mehr Rohleistung bringt dass sich der Cache leistungsmäßig auszahlt und die Karte zu einem ausreichenden Aufpreis in den markt gebracht werden kann.

reaperrr
2022-11-07, 00:26:04
ein 500mm² GCD scheint mir der geringste Aufwand mit dem jetzigen Prozess zu skalieren, mehrere GCDs sind halt nicht so einfach zu realisieren wie bei einer CPU.
Vielleicht nicht so einfach wie bei einer CPU, aber nicht notwendigerweise so schwer, dass man jedes mal sagen muss "nächstes Mal vielleicht".

Eine potentielle Lösung wurde ja schon aufgezeigt, nämlich, dass man den monolithischen GDC aufsplitten könnte, ein Chiplet praktisch das Frontend enthält und dann beidseitig je ein reines Shader-Chiplet platziert wird.

Zumindest hinsichtlich Defektrate und Takt-Binning könnte man dadurch noch einiges rausholen, ohne dafür einen neueren Prozess zu brauchen, und v.a. die Ausbeute evtl. so weit verbessern, dass 1x100mm² (Frontend-Chiplet) + 2x200mm² (Shader-Chiplets) am Ende günstiger herzustellen ist als ein monolithisches 500mm²-GCD und beim Top-Modell auch noch höhere Taktraten erlaubt.
Die Hauptfrage ist, wieviel zusätzliche Fläche und Energie die Kommunikation der Shader-Chiplets mit dem Frontend-Die kosten würde und ob dadurch ein Leistungsverlust durch etwas höhere Latenzen entstehen würde.

Jedenfalls ein interessantes Gedankenspiel, zumal es Gerüchte gibt, dass ein Navi3x in Entwicklung ist, der 16384 SP hat und aus 9 Chiplets besteht, 2 mehr als N31, was zufällig zu obiger Konstellation (1x Frontend-Chiplet, 2x 8192SP-Chiplet) + 6 MCDs passen würde (N31-SI, aber evtl. mit 192 MB IF$ und höherem Speichertakt?).

horn 12
2022-11-07, 02:51:57
7900 XTX sollte bei uns in Italien dann wohl 1245 Euro im AMD Shop kosten
Soviel "vergriffen" kostet die 6900XT

Hoffe das AMD diesesmal wirklich Stückzahlen raushaut um viele noch vor Weihnachten zu beschenken!
Träumen darf man ja hoffentlich noch...

dargo
2022-11-07, 07:04:38
* RDNA4 soll Ende 2023, Anfang 2024 kommen. Könnte sich aber noch mehr verspäten.

Das kann ich mir beim besten Willen nicht vorstellen und halte es für Dummfug. Eine neue Gen braucht schon seit langer Zeit um die zwei Jahre.

* RDNA3 hat noch viel Luft nach oben weil sie es höher takten können und den Cache verdoppeln können. So könnte ein Refresh Ende 2023 aussehen.
Finde den Fehler. :D

Ende 2023 kommt ein Refresh von RDNA3 und gleichzeitig RDNA4. :freak:

Neurosphere
2022-11-07, 07:58:18
RDNA 4 wird Ende 2024 sein.

Wenn es wirklich einen Fehler und Navi31 gibt den man mit einem Respin beseitigen kann werden wir ein Update wohl eher deutlich früher nächstes Jahr sehen.

Badesalz
2022-11-07, 08:13:12
Ich weiß nicht... Wer kauft das dann heute, wenn er mitbekommt, es gibt BALD v2? Das wird ganz normal als Refresh zelebriert und das nicht schon übermorgen. Man wird die XTX Käufer nicht sauer machen wollen.
Erstmal wird man eh schauen wie sich das alles verkauft.

Thunderburne
2022-11-07, 08:16:15
7900 XTX sollte bei uns in Italien dann wohl 1245 Euro im AMD Shop kosten
Soviel "vergriffen" kostet die 6900XT

Hoffe das AMD diesesmal wirklich Stückzahlen raushaut um viele noch vor Weihnachten zu beschenken!
Träumen darf man ja hoffentlich noch...
Ja die Scalper beschenken!
Wenn ich sehe wie schwer es ist eine 4090 zu einem Fairen Preis zu bekommen wird einem schlecht!

Das die Karten in großen Stückzahlen kommen wäre ich mir auch nicht so sicher der Launch ist echt spät angesetzt.

nordic_pegasus
2022-11-07, 08:19:49
wenn ich mir die letzten Beiträge hier so durchlese, kommt also binnen der nächsten Monate ein N31 Refresh welcher dann das 3GHz+ Design-Ziel schafft, danach ein Dual-GCD und dann noch Ende 2023 direkt N41... Damit würde doch AMD sämtliche Käufer einer RDNA3 "Vanilla" GPU richtig verprellen.

Es wird Ende 2023 einen Refresh geben mit vielleicht 10-15% mehr Leistung bei 20% mehr Leistungsaufnahme und dann Ende 2024 kommt Navi41, sofern hier nicht irgendwas schief läuft. So läuft es doch in jeder Generation seit Jahren ab.

Genau hier liegt ja das Hund begraben, der Rückstand von AMD bei RT wird frühestens Ende 2024 aufgeholt werden können, sofern Nvidia nicht nochmal ein Pfund vorlegt im Herbst 2024, welches dann weiter unerreichbar bleibt.

Was mir mittlerweile übel aufstößt ist die Aussage von Frank Azor, dass die 7900XTX gegen die 4080 antritt. Warum hat die Karte dann eine "9" und sogar das XTX Suffix vergeben? Bei RDNA1 wurde ja auch nur eine 7 für den TopDog vergeben (5700XT). Bei RDNA2 war die 6900XT ein 3090 Konkurrenz, die 6950XT sogar ein 3090Ti Gegenspieler. Jetzt sind auf einmal die Namen egal und die 9er Karte schlägt sich nur mit der 4080. Obwohl Speicherinterface und Ausbau klar auf die 4090 abzielen.

Thunderburne
2022-11-07, 08:27:56
Schaft die Karte die 3GHZ nicht oder würde sie nur einfach Zuviel saufen ?

robbitop
2022-11-07, 08:30:16
wenn ich mir die letzten Beiträge hier so durchlese, kommt also binnen der nächsten Monate ein N31 Refresh welcher dann das 3GHz+ Design-Ziel schafft, danach ein Dual-GCD und dann noch Ende 2023 direkt N41... Damit würde doch AMD sämtliche Käufer einer RDNA3 "Vanilla" GPU richtig verprellen.

Es wird Ende 2023 einen Refresh geben mit vielleicht 10-15% mehr Leistung bei 20% mehr Leistungsaufnahme und dann Ende 2024 kommt Navi41, sofern hier nicht irgendwas schief läuft. So läuft es doch in jeder Generation seit Jahren ab.

Genau hier liegt ja das Hund begraben, der Rückstand von AMD bei RT wird frühestens Ende 2024 aufgeholt werden können, sofern Nvidia nicht nochmal ein Pfund vorlegt im Herbst 2024, welches dann weiter unerreichbar bleibt.

Was mir mittlerweile übel aufstößt ist die Aussage von Frank Azor, dass die 7900XTX gegen die 4080 antritt. Warum hat die Karte dann eine "9" und sogar das XTX Suffix vergeben? Bei RDNA1 wurde ja auch nur eine 7 für den TopDog vergeben (5700XT). Bei RDNA2 war die 6900XT ein 3090 Konkurrenz, die 6950XT sogar ein 3090Ti Gegenspieler. Jetzt sind auf einmal die Namen egal und die 9er Karte schlägt sich nur mit der 4080. Obwohl Speicherinterface und Ausbau klar auf die 4090 abzielen.

Sehr gutes Posting. Ich denke, das trifft die gesamte Situation sehr sehr gut.

HOT
2022-11-07, 08:34:13
Ich hätt auch besser gefunden, wenn die Karten 7900XT und 7800XT gebrandet worden wären, wie letzte Generation. Das hätte auch preislich besser gepasst. Warum die jetzt unbedingt beide 7900XT heißen müssen erschloss sich mir von Anfang an nicht und habe ich auch bis zuletzt nicht geglaubt.

NC
2022-11-07, 08:38:47
Was mir mittlerweile übel aufstößt ist die Aussage von Frank Azor, dass die 7900XTX gegen die 4080 antritt. Warum hat die Karte dann eine "9" und sogar das XTX Suffix vergeben? Um zu zeigen, dass das schon der top dog ist. Wenn die Karte noch Platz nach oben gelassen hätte, wäre recht klar, dass da noch was kommt und die Leute würden warten.

Die Namen identifizieren die Reihenfolge in den eigenen Reihen. Der Preis dann die Positionierung zur Konkurenz

Exxtreme
2022-11-07, 08:42:45
Ja, die Benahmung finde ich auch sehr unglücklich. Hat RTX 4080 12 GB-Vibes. Das ist ein anderer Chip und sollte deshalb eine andere Nummer bekommen.

Edgecrusher86
2022-11-07, 08:45:28
Schaft die Karte die 3GHZ nicht oder würde sie nur einfach Zuviel saufen ?

Gute Frage - 2,9 GHz sollte ja laut Leaker bei 450W gehen. Es kann natürlich sein, dass man dann schnell bei 500W(+) wäre für 3 GHz(+).

Hm, ich finde ja die XT zu nah an der XTX preislich platziert für grob 20% Differenz - aber das hat AMD wohl mit Absicht gemacht, damit die meisten gleich zur Dicken greifen. Ich an AMDs stelle hätte aber 1199 MSRP dann verlangt und 999 für die XT - wird eh gekauft.
Das kann man auch verlangen bei 20/24GB sowie GA102 Leistung bei Hardcore RT und 4K(+).

Neurosphere
2022-11-07, 08:47:00
wenn ich mir die letzten Beiträge hier so durchlese, kommt also binnen der nächsten Monate ein N31 Refresh welcher dann das 3GHz+ Design-Ziel schafft, danach ein Dual-GCD und dann noch Ende 2023 direkt N41... Damit würde doch AMD sämtliche Käufer einer RDNA3 "Vanilla" GPU richtig verprellen.

Warum? Es kommt halt eine schnellere Karte. Es gibt nirgendwo Infos das das das schnellste ist was AMD anbieten wird.


Es wird Ende 2023 einen Refresh geben mit vielleicht 10-15% mehr Leistung bei 20% mehr Leistungsaufnahme und dann Ende 2024 kommt Navi41, sofern hier nicht irgendwas schief läuft. So läuft es doch in jeder Generation seit Jahren ab.

Kommt halt drauf an welchen Weg AMD gehen möchte. ist man damit zufrieden wie man nun mit RDNA3 im Markt positioniert ist oder nicht. Aber RNDA4 ist 2024 und nicht früher, da bin ich bei dir.


Genau hier liegt ja das Hund begraben, der Rückstand von AMD bei RT wird frühestens Ende 2024 aufgeholt werden können, sofern Nvidia nicht nochmal ein Pfund vorlegt im Herbst 2024, welches dann weiter unerreichbar bleibt


Ich glaube nicht daß man einfach so aufschließen kann ohne wirklich erstmal Richtung viel hilft viel zu gehen und die Effizienz links liegen zu lassen.


Was mir mittlerweile übel aufstößt ist die Aussage von Frank Azor, dass die 7900XTX gegen die 4080 antritt. Warum hat die Karte dann eine "9" und sogar das XTX Suffix vergeben? Bei RDNA1 wurde ja auch nur eine 7 für den TopDog vergeben (5700XT). Bei RDNA2 war die 6900XT ein 3090 Konkurrenz, die 6950XT sogar ein 3090Ti Gegenspieler. Jetzt sind auf einmal die Namen egal und die 9er Karte schlägt sich nur mit der 4080. Obwohl Speicherinterface und Ausbau klar auf die 4090 abzielen.

Das ist halt Marketing. Du wirst nie hören das das eigene Produkt irgendwie nicht die Erwartungen erfüllt von offiziellen stellen. Alles deutet darauf hin daß mehr geplant war, das war's aber auch.

dargo
2022-11-07, 08:55:54
Schaft die Karte die 3GHZ nicht oder würde sie nur einfach Zuviel saufen ?
Wer soll das denn jetzt schon wissen wenn noch keine Karten im Umlauf sind? Meine Güte...


Ich glaube nicht daß man einfach so aufschließen kann ohne wirklich erstmal Richtung viel hilft viel zu gehen und die Effizienz links liegen zu lassen.

Du meinst so wie bei Tessellation AMD nicht aufschließen konnte? Heute spricht keiner mehr drüber. Wird bei RT sicherlich nicht 2024 passieren, es ist noch ein langer Weg bis RT keinen nennenswerten Impact mehr produziert. Erstmal muss performantes RT im Mainstream ankommen.

mironicus
2022-11-07, 09:08:20
Hat AMD seine Boardpartner etwa hintergangen mit den ursprünglichen Taktvorgaben von über 3 GHz? Denn mit dem hohen Takt hätten sie die 4090 schlagen können.

Wenn man bedenkt was AMD so aus 7nm herausgeholt hat, dann wiederholt sich hier möglicherweise das gleiche beim neuen Prozess.

Es erscheint mir auch so ähnlich bei Zen 4. Was AMD da aus den 5 nm-Prozess herausholt ist nicht so gänzlich überzeugend, das geht noch viel effizienter.

Neurosphere
2022-11-07, 09:09:57
Du meinst so wie bei Tessellation AMD nicht aufschließen konnte? Heute spricht keiner mehr drüber. Wird bei RT sicherlich nicht 2024 passieren, es ist noch ein langer Weg bis RT keinen nennenswerten Impact mehr produziert. Erstmal muss performantes RT im Mainstream ankommen.

Wie geschrieben, ich glaube. Solange man da nicht auf dedizierte Einheiten geht sondern bei der jetzigen Lösung bleibt wirds schwierig gegen NV. Das heißt nicht daß das Prinzip das AMD verfolgt nur Nachteile bietet, aber aufschließen wird halt schwierig.

Mal eine Frage dazu an die Cracks hier wenn wir eh schon bei komplexeren Chiplets sind, könnte man die Einheiten für RT in ein eigenes Chiplet auslagern oder macht das keinen Sinn?

aceCrasher
2022-11-07, 09:19:26
Du meinst so wie bei Tessellation AMD nicht aufschließen konnte? Heute spricht keiner mehr drüber. Wird bei RT sicherlich nicht 2024 passieren, es ist noch ein langer Weg bis RT keinen nennenswerten Impact mehr produziert. Erstmal muss performantes RT im Mainstream ankommen.

Bei Tesselation war es aber halt der Unterschied zwischen Tess 64x und Tess 16x max per Treiber. Bei RT ist es eher der Unterschied zwischen RT Reflections an oder aus.

Leonidas
2022-11-07, 09:19:28
Ich erwarte auch 1099€/1199€, hätte es aber gerne offiziell

Das "offiziell" nützt bei AMD wenig. Denn im AMD-Shop gibt es immer nur tages-aktuell umgerechnete US-Preise. Wenn morgen also der Dollar/Euro woanders hin galoppiert, dann ändern sich automatisch die Preise im AMD-Shop. Egal was die offizielle UVP sagt.

dargo
2022-11-07, 09:20:28
Mal eine Frage dazu an die Cracks hier wenn wir eh schon bei komplexeren Chiplets sind, könnte man die Einheiten für RT in ein eigenes Chiplet auslagern oder macht das keinen Sinn?
Das Thema wurde schon genug durchgekaut. Es gibt gute Gründe warum die RT-Einheiten in die SM bzw. CUs wandern.

dargo
2022-11-07, 09:24:17
Bei Tesselation war es aber halt der Unterschied zwischen Tess 64x und Tess 16x max per Treiber. Bei RT ist es eher der Unterschied zwischen RT Reflections an oder aus.
Blödsinn... die Resident Evil Remakes haben RT-Reflektionen und laufen selbst ohne FSR auf RDNA2 performant. Bei Metro EE geht auch max. RT auf RDNA2, hier wird aber schon FSR 2.x benötigt. Jedenfalls wenn man hohe fps gewohnt ist (mit hoch meine ich den Bereich um die 80-100fps). Es kommt wie immer auf die Implementierung drauf an.

PS: ich beziehe mich immer auf 1440p Gaming.

robbitop
2022-11-07, 09:34:39
Ich würde jedenfalls nicht davon ausgehen, dass AMD einen N31B macht, der plötzlich deutlich höher taktet und die Situation ändert.
Es wird interessant zu sehen sein, wie N32 und N33 takten als Indiz dafür ob das Gerücht des Hardwarebugs, der hohe Taktraten nicht zulässt stimmt.

Ich bin da skeptisch.
1. ist N31 sicherlich schon eine ganze Weile in AMDs Laboren. Und dennoch kam das Gerücht erst zum Launch und die typischen Leaker (auch die mit gutem Ruf) wussten nichts davon bis zum Launch.
2. die Bezeichnung 7900 XT und XTX lassen nicht viel Luft nach oben

Ich tippe eher darauf, dass AD102 AMD überrascht hat. Eine uArch ist 3-5 Jahre in Entwicklung. Zum Designstart war AMD in 2018/19 offenbar noch nicht klar, wie groß der Einfluss von AI und RT sein wird.
Sie agierten zumindest bis dato relativ reaktiv anstatt die Initiative zu ergreifen. Das kann intern in Zwischenzeit anders sein (das ist als Endverbraucher zu hoffen!). Denn nur so kann man nicht überrascht werden.

Andererseits ist N31 gar nicht als Crazy High End ausgelegt. Wenn sie es gewollt hätten, hätten sie das GCD doppelt so groß machen können. Man wird es vermutlich nie erfahren was die Beweggründe waren.
Die uArch finde ich grundsätzlich interessant (die neuen CUs) - aber das RT HW Level entspricht nicht mehr dem Zeitgeist.

Jedenfalls kann die 7900 eine interessante Alternative für Käufer sein, denen das Zweitbeste reicht und ein gutes P/L Verhältnis zu schätzen wissen. Die 4080 wird wohl bei knapp unter 1500 EUR liegen. Die 7900XTX wird da sicherlich 300 EUR billiger sein von der UVP. Und ggf. gehen die Straßenpreise sogar weiter runter. Dann wird es doppelt interessant. GA102 RT Performance und schon richtig ordentliche Rasterperformance.
IMO kommt es sehr sehr auf den Straßenpreis an. Wenn P/L stimmt - warum nicht? (wäre in meinem Fall seit langer langer Zeit mal wieder eine Radeon - meine letzte war R600 und davor R580 und seit dem Geforce)

dargo
2022-11-07, 09:41:12
Die 4080 wird wohl bei knapp unter 1500 EUR liegen.
Da bist du aber sehr optimistisch eingestellt. :tongue: Viele Customs werden deutlich drüber liegen. Allerdings werden Customs bei N31 auch nicht von höheren Preisen verschont bleiben.

BlacKi
2022-11-07, 09:41:18
RDNA 4 wird Ende 2024 sein.

Wenn es wirklich einen Fehler und Navi31 gibt den man mit einem Respin beseitigen kann werden wir ein Update wohl eher deutlich früher nächstes Jahr sehen.wie lange dauert ein respin?

Neurosphere
2022-11-07, 09:41:44
Man darf dabei auch nicht außer acht lassen das die beiden Karten für sich genommen zu dem Preispunkt tolle Produkte sind. Nur die hoch angesetzt Erwartungen aufgrund der Leaks wurden halt nicht erfüllt.

Namen sind erstmal Schall und Rauch. Wir wissen halt nicht ob AMD nun zufrieden mit der Situation ist oder nicht. Eine Karte schneller als die 4090 wäre ein Prestigeprodukt, richtig Geld wird aber mit den kleineren Karten verdient.

Ich kann mir auch nicht vorstellen das man absolut nichts vom anderen mitbekommt wenn man beim gleichen Zulieferer fertigen lässt.

Complicated
2022-11-07, 09:47:24
Was mir mittlerweile übel aufstößt ist die Aussage von Frank Azor, dass die 7900XTX gegen die 4080 antritt. Warum hat die Karte dann eine "9" und sogar das XTX Suffix vergeben? Bei RDNA1 wurde ja auch nur eine 7 für den TopDog vergeben (5700XT). Bei RDNA2 war die 6900XT ein 3090 Konkurrenz, die 6950XT sogar ein 3090Ti Gegenspieler. Jetzt sind auf einmal die Namen egal und die 9er Karte schlägt sich nur mit der 4080. Obwohl Speicherinterface und Ausbau klar auf die 4090 abzielen.AMD dachte sich wohl, wenn Nvidia eine GPU, die vom Setting, Umfang und Preis her eine Titan ist, einfach 4090 nennt, bleiben wir mit xx90 in der Preisregion, wo die hingehört. Eine 4070 auf 4080 Preispunkt zu plazieren kam auch nicht gut an.

Ich finde die 4080 müsste 4090 heissen. Dann würde alles auch preislich passen.
wie lange dauert ein respin?
ca. 3 Monate

BlacKi
2022-11-07, 10:01:29
ca. 3 Monateab welchem zeitpunkt? wann haben die festgestellt, das ein respin nötig sein wird? müssen die erstmal den schrott loswerden der schon produziert wurde?

Exxtreme
2022-11-07, 10:05:21
ab welchem zeitpunkt? wann haben die festgestellt, das ein respin nötig sein wird? müssen die erstmal den schrott loswerden der schon produziert wurde?

Dass angeblich eine Art Hardwarefehler vorliegt ist nicht anderes als eine Behauptung irgendwelcher Leute auf Twitter und aus 2 Internetforen. ;D Ich würde da echt nichts draufgeben. Zumal es auffällig ist, dass sie erst damit gekommen sind nachdem die Technik offiziell vorgestellt wurde. ;D Das wäre kaum zu glauben, dass die Leaker ein NDA unterschrieben haben und sich mit solchen Infos bis zur Vorstellung zurückgehalten hätten. ;D

Dural
2022-11-07, 10:15:06
Es wird immer besser, jetzt also noch Hardware Design Fehler da er den von AMD versprochen Takt nicht erreicht.

Nach über 20 Jahren Erfahrung mit PC Hardware hört sich das für mich doch ziemlich nach einer Ausrede an ;) das ding bringt einfach nicht mehr.

Die Grafikkarten Hersteller sind wegen ihren 600Watt Karten jetzt halt auf AMD sauer. Verständlich.

Das vielleicht auch der Grund wie so NV 450Watt+ für die 4090 gewählt haben, die haben die Info von der 600Watt AMD Partner Karte doch sehr frühzeitig schon erfahren.

Die OC Ergebnisse sind derzeit wohl kaum relevant, gibt es überhaupt Software wo man die Karten auch richtig takten kann?! Uncore + Core Takt usw. eventuell auch der Grund wie so die Leistung kaum steigt. Ich fand die 200Mhz takt unterschied schon von Anfang an extrem merkwürdig, und AMD spricht bei 200MHz weniger von satten 25% Strom unterschied. Mir scheint so als die Shader massive Takt Probleme haben, der Takt unterschied nur eine Notlösung ist.

Dino-Fossil
2022-11-07, 10:20:37
Jetzt sind auf einmal die Namen egal und die 9er Karte schlägt sich nur mit der 4080. Obwohl Speicherinterface und Ausbau klar auf die 4090 abzielen.
Namen sind Schall und Rauch, v.a. bei AMD, die doch seit Jahren keine wirklich konsistente Namensschemata (zwischen den Generationen) machen.
Oder vielleicht kommen noch so viele RDNA3-Karten (bzw 7000er), dass man die 7800er und darunter schon für andere Karten reserivert hat? :uconf2:


Es wird interessant zu sehen sein, wie N32 und N33 takten als Indiz dafür ob das Gerücht des Hardwarebugs, der hohe Taktraten nicht zulässt stimmt.

Ich bin da skeptisch.
1. ist N31 sicherlich schon eine ganze Weile in AMDs Laboren. Und dennoch kam das Gerücht erst zum Launch und die typischen Leaker (auch die mit gutem Ruf) wussten nichts davon bis zum Launch.
2. die Bezeichnung 7900 XT und XTX lassen nicht viel Luft nach oben

Ich tippe eher darauf, dass AD102 AMD überrascht hat. Eine uArch ist 3-5 Jahre in Entwicklung. Zum Designstart war AMD in 2018/19 offenbar noch nicht klar, wie groß der Einfluss von AI und RT sein wird.

Das denke ich auch. Ich glaube nicht so recht, dass N31 viel mehr leisten sollte, als das, was wir nun sehen (aber hey, vielleicht irre ich mich).
Der relativ großzügig bemessene Speicher kann auch dem Umstand geschuldet sein, dass man auch hier mehr liefern wollte, als die 6950 geboten hat, Bandbreite könnte bei RDNA3 wieder etwas wichtiger sein, als bei RDNA2. Und wenn es nicht mehr nötig gewesen wäre, weil die GPU deutlich langsamer rauskam, als gedacht, hätte man dann nicht relativ einfach noch je ein MCD abspecken könnnen, um die Karte nochmals etwas günstiger zu machen?

Bei den potentiellen Taktraten von N32 und kleiner muss man aber auch bedenken, dass schon bei RDNA2 die kleineren Chips teils deutlich höher getaktet haben. Was müsste man dann hier sehen, wenn die These zutrifft, Richtung 3,2GHz+?

Immerhin hat AMD aber nun auch AI-Kerne verbaut, das haben sie also nicht völlig verpennt. Wenngleich da noch nicht wirklich viel bekannt ist, oder?

Dural
2022-11-07, 10:25:17
Klar hat AMD mit deutlich mehr gerechnet, wenn die was von 3Ghz herumgezählt haben, haben die automatisch auch mit deutlich mehr Leistung gerechnet.

Mit 3 GHz hätte das ding 73 Tflops und nicht wie jetzt 56 TFlops.

robbitop
2022-11-07, 10:26:15
Ich kann mir vorstellen, dass 3 GHz grundsätzlich mit RDNA3 möglich ist aber ggf nicht mit N31 mit seinen 96 CUs und seiner hohen Packdichte. Wenn man sich Navi 2x anschaut sieht man dort auch ein großes Spektrum an Takt. Der große N21 liegt eher am unteren Ende mit 2,2 GHz und der kleine N24 am oberen Ende mit 2,8 GHz (das ist ein Spektrum von >25%!!). Ähnlich kann ich mir das für RDNA3 auch vorstellen.

Die Slide ist über RDNA3 nicht über N31 notwendigerweise im Speziellen.

Dural
2022-11-07, 10:34:24
Schon möglich das die irgendwie möglich sind.

Aber wenn sie von 2,5Ghz zu 2,8Ghz schon ganze 100Watt mehr brauchen, wird so ein Chip bei 3Ghz weit über den 550Watt liegen.

Eine offene 4090 ohne PT usw. zieht bei 3GHz über 700Watt (!!!) :freak:

Die kleinen Prozesse wie 5nm sind super, werden aber oben hin zum Stromfresser.

Troyan
2022-11-07, 10:35:31
Nö, 3GHz sind bei 550W bis 600W drin. Aber der Chip hat auch mehr Transistoren als Navi31.

Linmoum
2022-11-07, 10:36:42
Naja, wenn AMD von der Architektur spricht, dann gilt das auch für N31. Sagt ja hier keiner, dass das mit den 355W möglich sein muss. Aber wenn das auch mit deutlich mehr Verbrauch nicht geht und alle Nutzer klar an >3GHz scheitern, dann wirkt das schon eigenartig.

Und mit >3GHz wäre die zuvor spekulierte Leistung ja auch durchaus zutreffend gewesen. 2.3GHz sind ein gutes Stück davon entfernt.

Iscaran
2022-11-07, 10:37:42
Hmmm, im hinblick auf die neuen News und diese vermeintliche AIB-Folie von videocardz:
https://www.3dcenter.org/news/news-des-56-november-2022

These:
Was ist wenn die Angaben dort gemacht wurden basierend auf Erfahrungen die man mit N33 im Labor HATTE?

Aber N33 unterscheidet sich ja auch im Aufbau von N31/N32 (zumindest laut Gerüchten, wie z.B. Angstronomics).

Dann hat man N31 ins Labor bekommen und war überrascht, dass es nicht mal annähernd so hoch geht wie bei N33.

=> Ursache liegt evtl. in den Differenzen N31<=>N33? => Das könnte bedeuten, dass man das durchaus mit einem zeitnahen Respin hinbekommt?

Vielleicht ist deshalb auch der Verbrauch (etwas) höher als gedacht?

Dann könnte AMD natürlich einen Respin N31 bringen mit sagen wir mal den gerüchteweise Verorteten >3GHz UND auch nicht mehr als ~355 W.

=> Das wäre dann eben die 7950 XTX (Erinnerung an die X1950 werden wach ;-))

Mit ~25% Mehrtakt könnten da nochmal ~20% Performance gehen in RT UND Raster!
Mit einem Respin + Marktstart rechne ich dann aber frühestens mit ENDE Q1/2023 (April/Mai?)

So oder so ist das N31 "Taktdesaster" merkwürdig.
Wann gab es das eigentlich schon in der Vergangenheit, dass die neue Generation effektiv LANGSAMER Taktet als die vorherigen?

Dural
2022-11-07, 10:39:34
Nö, 3GHz sind bei 550W bis 600W drin. Aber der Chip hat auch mehr Transistoren als Navi31.

Ich habe gesagt eine offene 4090, sprich mit ModBios und ohne jegliche Einschränkung. Da verballern die 4090 Brutal viel Strom.

Hochmoderne und ausgeklügelte Einschränkungen über PT, Takt und Strom usw. ist heute einfach extrem wichtig.

amdfanuwe
2022-11-07, 10:40:41
Ich tippe eher darauf, dass AD102 AMD überrascht hat. Eine uArch ist 3-5 Jahre in Entwicklung. Zum Designstart war AMD in 2018/19 offenbar noch nicht klar, wie groß der Einfluss von AI und RT sein wird.
Seh ich auch so.
Jetzt steht man halt da und muss das Produkt wie Sauerbier anpreisen. Ist halt nicht einfach, wenn die Konkurrenz was besseres liefert und alle es wissen.
Ob 999$ Designziel waren oder notgedrungen kurz vor Vorstellung angepasst wurde, wer weis.

Jedenfalls ist die Katze jetzt aus dem Sack, Tests werden zeigen was sie wirklich kann und dann kann jeder für sich überlegen, ob es für einen Interessant ist oder nicht.

Ich hoffe jedenfalls, dass AMD nicht Nvidias weg geht und bei verbaubaren und bezahlbaren Karten bis 350W bleibt.

Oder gibt es als nächstes die Beistell GPU mit 1000W+ für 5000$, eigenem Gehäuse + Netzteil und Anbindung über Glasfaser? Damit die Barthaare einen richtigen Schattenwurf haben?

Dural
2022-11-07, 10:47:29
Naja überrascht, das einzige was bei Ade wirklich überrascht ist die extrem gute Taktbarkeit von ca. 50% gegenüber Ampere.

Aber da reden wir auch von Samsung 8nm (10nm) gegen TSMC 4nm (5nm)

Exxtreme
2022-11-07, 10:54:16
So oder so ist das N31 "Taktdesaster" merkwürdig.
Wann gab es das eigentlich schon in der Vergangenheit, dass die neue Generation effektiv LANGSAMER Taktet als die vorherigen?

Kommt darauf an auf was man optimiert. Wenn AMD auf <1000$ und zwei Stromstecker optimiert hat dann kann das passieren. Mal sehen was die Karten anderer Hersteller so bringen werden. Eventuell höherer Takt und keine zwei Taktdomänen bei höheren Verbrauch, drei Stromsteckern und höheren Preis.

Iscaran
2022-11-07, 10:55:09
Oder gibt es als nächstes die Beistell GPU mit 1000W+ für 5000$, eigenem Gehäuse + Netzteil und Anbindung über Glasfaser? Damit die Barthaare einen richtigen Schattenwurf haben?
Nein die Zukunft sind Netzteil mit GPU-Slot und Monitoranschluss.
Der Rest wird dann in die Tastatur "outgesourced" und passive gekühlt und per USB-mit Strom betrieben.

"Thats the way gaming is being meant"

Konsole "neu" erfunden. Für 5.000€

BavarianRealist
2022-11-07, 11:02:58
Wenn die Story stimmen sollte mit dem "design flaw" und daher der Max-Takt damit rund 20% verlieren sollte (also z.B. 2,7Ghz statt vielleicht max. 3,2Ghz), dann wird es meiner Vermutung nach einen Re-Spin von Navi31 geben, wird aber wohl etwa 6 Monate dauern. +20% ohne sonstige Neuentwicklung wäre ein großer Sprung, der sich auf jeden Fall auch noch 6 Monate später lohnen dürfte.

Oder aber: es gibt keinen design-flaw und AMD will tief stapeln und könnte daher vielleicht den AIB für die Entwicklung erst mal nur gezielt schlecht-taktende Navi31 raus gegeben haben...lassen wir uns überraschen.

HOT
2022-11-07, 11:03:35
Leute, der ist nicht defekt. Vielleicht gibts nen Respin um etwas mehr Takt zu erreichen, das muss sich dann aber schon lohnen. Ich denke viel mehr, dass die das alles so bei Design ist. Die Packdichte wird einfach höher sein als bei den kleineren GPUs, daher kann es durchaus sein, dass N32 mehr Takt bieten wird. Das heißt aber nicht, dass N31 "kaputt" ist.

Dino-Fossil
2022-11-07, 11:12:28
Jetzt steht man halt da und muss das Produkt wie Sauerbier anpreisen. Ist halt nicht einfach, wenn die Konkurrenz was besseres liefert und alle es wissen.

Definiere "besser".
Absolut schneller? Mit der 4090 sicherlich, aber die ist auch in allen Punkten ein in absurde Höhen getriebenes Produkt. Teuer, hoher Verbrauch, massive Ausmaße. Manche denken sich da sicher "aber leider geil" und greifen zu, aber für viele andere ist dass völlig uninteressant.

Die 7900 XT(X) ist hingegen in dem angepeilten Preisbereich absolut konkurrenzfähig, sogar mehr als das, wenn der Rückstand in der RT-Performance (mMn der einzige halbwegs nachvollziehbare Pferdefuß bei RDNA2/3) verschmerzbar ist.
Für weniger Geld bekommt man aller voraussicht nach mehr RZ-Performance und mehr Speicher, bei in dieser Klasse (inzwischen leider) "normalem" Verbrauch.
Verglichen mit z.B. Vega damals ist RDNA3 mMn ein super Produkt.

robbitop
2022-11-07, 11:14:41
Naja überrascht, das einzige was bei Ade wirklich überrascht ist die extrem gute Taktbarkeit von ca. 50% gegenüber Ampere.

Aber da reden wir auch von Samsung 8nm (10nm) gegen TSMC 4nm (5nm)
Naja Ada hat wirklich alle Register gezogen. Bleeding edge Prozess, großer Core, großer Cache, Level 4 RT Hardware.
Das war 2018/19 als RDNA3 designstart war sicherlich alles nicht absehbar. Zu dem Zeitpunkt war gerade mal Turing releast - die Zukunft von RT und AI für Gaming GPUs war noch unklar. Zu dem Zeitpunkt (ich hoffe, es ist bei aktuell in design befindlichen Projekten anders) war man noch sehr reaktiv aufgestellt.

Mittlerweile hat man zumindest wieder mehr Mittel. Ich hoffe, dass RDNA4 abseits der Chiplets mehr eigene Initiativen mitbringt und weniger reaktives "me too".

robbitop
2022-11-07, 11:19:42
Wenn die Story stimmen sollte mit dem "design flaw" und daher der Max-Takt damit rund 20% verlieren sollte (also z.B. 2,7Ghz statt vielleicht max. 3,2Ghz), dann wird es meiner Vermutung nach einen Re-Spin von Navi31 geben, wird aber wohl etwa 6 Monate dauern. +20% ohne sonstige Neuentwicklung wäre ein großer Sprung, der sich auf jeden Fall auch noch 6 Monate später lohnen dürfte.

Oder aber: es gibt keinen design-flaw und AMD will tief stapeln und könnte daher vielleicht den AIB für die Entwicklung erst mal nur gezielt schlecht-taktende Navi31 raus gegeben haben...lassen wir uns überraschen.
N31 ist sicher seit vielen Monaten in AMD's Labors. Man bekommt ja schon erste einzelne Chips lang bevor die Serienproduktion hundert tausende davon ausspuckt. Würde mich nicht wundern, wenn AMD lauffähiges Silizium seit Q1 in den Labors hat. Wenn das Ding wirklich einen solchen Bug hätte, wüsste man das schon seit langem. (und deshalb ist es nicht plausibel, dass die Rumors kurz nach dem Launch damit anfingen - ich tippe darauf, dass das Ausreden der Leaker für ihre Fehlinformation war. Mich würde nicht wundern, wenn ganz bewußt Fehlinformationen gestreut werden. So wie mit den Dual GCDs.) Würde man wirklich einen Respin wollen, wäre der schon lange unterwegs und es gäbe in wenigen Monaten neues Silizium.
Dann hätte man aber das Produkt nicht 7900 XTX genannt.

IMO ist es wahrscheinlicher, dass das mit dem Bug einfach FUD ist. Der Takt ist ein Resultat der Packdichte und des Betriebspunktes. Man wollte kein TDP Monster für ein paar Prozent mehr rausdrücken.
Kleinere Navi 3x GPUs könnten ggf höher takten.

Kommt ggf. ein höher taktendes Modell? Ggf. mit VCache? Klar ggf. als Refresh in ~1 Jahr. So wie üblich gibt es midlife immer einen Refresh. So wie bei der 6950XT. Extrem viel würde ich da jetzt aber nicht erwarten. Die üblichen 10-15% aber nicht, dass der Chip jetzt auf einem ganz anderen Level taktet.

HOT
2022-11-07, 11:20:10
Naja Ada hat wirklich alle Register gezogen. Bleeding edge Prozess, großer Core, großer Cache, Level 4 RT Hardware.
Das war 2018/19 als RDNA3 designstart war sicherlich alles nicht absehbar. Zu dem Zeitpunkt war gerade mal Turing releast - die Zukunft von RT und AI für Gaming GPUs war noch unklar. Zu dem Zeitpunkt (ich hoffe, es ist bei aktuell in design befindlichen Projekten anders) war man noch sehr reaktiv aufgestellt.

Mittlerweile hat man zumindest wieder mehr Mittel. Ich hoffe, dass RDNA4 abseits der Chiplets mehr eigene Initiativen mitbringt und weniger reaktives "me too".
Absolut :up:
So ist das. AMD designt die GPUs so, wie sie das anhand der Entwicklung der Spielebranche, auch anhand deren eigener Konsolentechnologie, vorhersehen. Entsprechend sieht Navi3 eben auch aus und Navi4 wird auch so aussehen. Neue Technologie ist erst 2026/27 zu erwarten, wenn diese Konsolen-Generation dann obsolet ist.
NV hat diese Einsicht nicht gehabt und brauchte schlichtweg einen Joker, um dem was entgegenzusetzen. Tensorcores haben im Gaming überhaupt nicht gezündet (für DLSS würde viel weniger AI-Leistung reichen), aber RT durchaus.

robbitop
2022-11-07, 11:26:47
Hm also ich hoffe ehrlich gesagt nicht, dass Navi 4 immer noch mit RT Level 2 auftritt. Das wäre nicht mehr reaktiv - das wäre ignorant. Das kann AMD sich nicht leisten.

NV orientiert sich nicht nur an den Spielen sondern macht eben viele Initiativen (die ihnen nutzen, sich zu differenzieren und natürlich auch als customer retention Mechanismen wirken). DLSS, G-Sync, RTX Voice, RTX, Shadowplay, Reflex, CUDA usw. Und dank ihrer Marktmacht können sie auch relativ gut Dinge in Spielen umsetzen lassen. Eine Schande, dass es nicht open source ist. Aber aus ihrer Sicht nutzt es ihnen. So gestalten sie statt hinterher zu laufen und stärken ihre Marke.

Da muss AMD auch mehr in diese Richtung. Und ich hoffe, dass das ab RDNA4 mehr und mehr passieren wird. Natürlich so viel wie möglich in Open Source. (solange die Marktmacht so ist wie sie ist, ist Open Source auch das einzige wirkungsvolle Mittel, was sie nutzen können)

Ravenhearth
2022-11-07, 11:26:48
N31 ist sicher seit vielen Monaten in AMD's Labors. Man bekommt ja schon erste einzelne Chips lang bevor die Serienproduktion hundert tausende davon ausspuckt. Würde mich nicht wundern, wenn AMD lauffähiges Silizium seit Q1 in den Labors hat. Wenn das Ding wirklich einen solchen Bug hätte, wüsste man das schon seit langem. (und deshalb ist es nicht plausibel, dass die Rumors kurz nach dem Launch damit anfingen - ich tippe darauf, dass das Ausreden der Leaker für ihre Fehlinformation war. Mich würde nicht wundern, wenn ganz bewußt Fehlinformationen gestreut werden. So wie mit den Dual GCDs.) Würde man wirklich einen Respin wollen, wäre der schon lange unterwegs und es gäbe in wenigen Monaten neues Silizium.
Dann hätte man aber das Produkt nicht 7900 XTX genannt.
Vielleicht ist das aber auch der Grund, warum die Karte 7900 heißt und nicht wie zuerst berichtet 7950, weil man sich den Namen für den Respin aufhebt.

Im Moment können wir nicht mehr machen, als im Dunkeln zu stochern. Ob ein Hardware-Bug tatsächlich existiert, werden wir nach Release sehen. Wenn die Karten dann partout nicht höher als 2,9 GHz gehen, ist an den Berichten wohl etwas dran.

HOT
2022-11-07, 11:28:00
Hm also ich hoffe ehrlich gesagt nicht, dass Navi 4 immer noch mit RT Level 2 auftritt. Das wäre nicht mehr reaktiv - das wäre ignorant. Das kann AMD sich nicht leisten.

NV orientiert sich nicht nur an den Spielen sondern macht eben viele Initiativen (die ihnen nutzen, sich zu differenzieren und natürlich auch als customer retention Mechanismen wirken). DLSS, G-Sync, RTX Voice, RTX, Shadowplay, Reflex usw. Und dank ihrer Marktmacht können sie auch relativ gut Dinge in Spielen umsetzen lassen. Eine Schande, dass es nicht open source ist. Aber aus ihrer Sicht nutzt es ihnen. So gestalten sie statt hinterher zu laufen und stärken ihre Marke.

Da muss AMD auch mehr in diese Richtung. Und ich hoffe, dass das ab RDNA4 mehr und mehr passieren wird. Natürlich so viel wie möglich in Open Source. (solange die Marktmacht so ist wie sie ist, ist Open Source auch das einzige wirkungsvolle Mittel, was sie nutzen können)
Das hab ich auch nicht gemeint und auch nicht gesagt. Die Entwicklung geht natürlich weiter. Aber ich schätze mal nicht, dass AMD den Ehrgeiz hat, NV im RT zu überholen - und ich bezweifle, dass das nötig sein wird bei den neuen Engines, denn die werden ja absehbar das Konsolen-RT standardisieren und das auf den PC mitbringen.

robbitop
2022-11-07, 11:30:44
Vielleicht ist das aber auch der Grund, warum die Karte 7900 heißt und nicht wie zuerst berichtet 7950, weil man sich den Namen für den Respin aufhebt.
Die 50 ist immer nur der Refresh. Und es würde auch keinen großen Sprung suggerieren. Die Story wäre eine völlig andere, wenn sie die Karte 7800 genannt hätten.

Im Moment können wir nicht mehr machen, als im Dunkeln zu stochern. Ob ein Hardware-Bug tatsächlich existiert, werden wir nach Release sehen. Wenn die Karten dann partout nicht höher als 2,9 GHz gehen, ist an den Berichten wohl etwas dran.
Naja man kann immerhin nach plausiblen Indizien schauen, wie ich es gemacht habe.
Außerdem ist das Nichterreichen von 3 GHz kein Beweis für irgendetwas. AMD hat nirgends gesagt, dass N31 3 GHz schaffen soll. Die uArch als solches kann es - wenn bestimmte Randbedingungen gegeben sind. Also ein anderes Mitglied der N3x Familie ggf. Für N31 hat man sich offenbar für Packdichte entschieden und weniger für Takt.
IMO auch sehr unwahrscheinlich, dass man da per OC einfach 500 MHz oben drauf hauen kann und AMD so viel Luft nach oben läßt. Ich würde mir da keine Hoffnung machen. Aber dennoch ist das kein Beweis für einen HW Bug. Nicht mal ein Indiz.

Voodoo6000
2022-11-07, 11:37:25
ich tippe darauf, dass das Ausreden der Leaker für ihre Fehlinformation war.
Sehe ich auch so, die Leaker(kopite7kimi, Greymon55, Moore's Law Is Dead etc.) lagen in den letzten Monaten mit vielen Leaks völlig daneben und jetzt müssen halt die ausreden her.


Ich frage mich wirklich was einige von RDNA 3 erwartet haben, abseits von RT liegt RDNA 3 genau da wo man es schon vor Jahren erwarten konnte.(Bei den Typischen ~50% mehr Performance pro Generation).

Exxtreme
2022-11-07, 11:40:15
Wenn die Karten dann partout nicht höher als 2,9 GHz gehen, ist an den Berichten wohl etwas dran.

Nicht unbedingt. Das ist allenfalls ein sehr wages Indiz. Die Folie mit den 3 GHz sagt nicht aus, dass ausnahmslos jeder Navi3-Chip die 3 GHz erreicht.

Das mit dem Hardware-Bug sieht für mich so aus, als ob ein paar Möchtegerninsider ihre "Reputation" retten wollen. Sie lagen mit ihren "Leaks" ja praktisch überall daneben. Oder aber, diese Information ist FUD eines anderen Herstellers, der die Leute davon abhalten soll eine vermeintlich fehlerhafte Grafikkarte zu kaufen.

Linmoum
2022-11-07, 11:46:44
Dann ist das aber auch wieder maximal unglückliches "Marketing" von AMD, wenn man auf einer Folie, die das Blockdiagramm von N31 zeigt, mit >3GHz wirbt, das dann aber überhaupt nicht für diesen Chip gelten soll, sondern nur für kleinere.

Aber vielleicht wird das ja unabhängig davon noch geklärt und der ein oder andere Reviewer fragt diesbezüglich bei AMD mal nach. Steht ja offiziell alles noch unter NDA.

dargo
2022-11-07, 11:57:28
Worüber ihr euch hier wieder den Kopf zerbrechen tut ist echt sagenhaft ohne auch nur eine Karte in Aktion gesehen zu haben. :crazy: Das wird noch ein anstrengender Monat hier. :D

robbitop
2022-11-07, 12:00:24
Dann ist das aber auch wieder maximal unglückliches "Marketing" von AMD, wenn man auf einer Folie, die das Blockdiagramm von N31 zeigt, mit >3GHz wirbt, das dann aber überhaupt nicht für diesen Chip gelten soll, sondern nur für kleinere.

Aber vielleicht wird das ja unabhängig davon noch geklärt und der ein oder andere Reviewer fragt diesbezüglich bei AMD mal nach. Steht ja offiziell alles noch unter NDA.
War das denn eine offizielle Folie oder nur eine interne? Ich hab die nicht beim Launch im Deck gesehen.

Linmoum
2022-11-07, 12:06:17
Deswegen ja NDA. Sieht für mich wie eine aus, die die Presse immer bekommt, wenn es dann einen ausführlichen Deep-Dive zur uarch gibt. Das folgt ja meist noch mal gesondert bzw. spätestens im Launch-Review.

Complicated
2022-11-07, 12:09:20
So oder so ist das N31 "Taktdesaster" merkwürdig.
Wann gab es das eigentlich schon in der Vergangenheit, dass die neue Generation effektiv LANGSAMER Taktet als die vorherigen?
Mal sehen was die Karten anderer Hersteller so bringen werden. Eventuell höherer Takt und keine zwei Taktdomänen bei höheren Verbrauch, drei Stromsteckern und höheren Preis.
Ich glaube die Trennung der Taktdomain ist hier wegen der Skalierungs-Option auf mehr GDCs erfolgt mit dieser Architektur. Man schaut es sich erstmal mit einem GDC an.

War das denn eine offizielle Folie oder nur eine interne? Ich hab die nicht beim Launch im Deck gesehen.
Ich halte das aus verschiedenen Gründen für Fake. Ich habe das hier auch mal aufgezählt: https://forum.planet3dnow.de/index.php?threads/amd-rdna3-chiplet-navi-navi-3x.445322/post-5418862
Auch folgende Bezeichnungen sind eher Forensprache als offizielle AMD-Sprache:



Up to 2xALU rates plus BF16 Support (Wo ist das "Double Issue"?) - denn es müssen ja die selben Instruktionen vorliegen um gemeinsam verarbeitet zu werden. AMD würde niemals einfach pauschal doppelte Rate da hin schreiben.
Industry Defining Chiplet Architecture - das finde ich ein merkwürdiges Wording als Überschrift. AMD nutzt da Formulierungen anders: https://ir.amd.com/news-events/pres...ls-worlds-most-advanced-gaming-graphics-cards (https://ir.amd.com/news-events/press-releases/detail/1099/amd-unveils-worlds-most-advanced-gaming-graphics-cards) - The AMD RDNA 3 architecture’s chiplet design combines 5nm and 6nm process nodes.
Random Order Opaque Export - Abgekürzt ROOE? Nun AMD nennt das Feature OREO: Opaque Random Export Order.
"Full DX12 Ultimate" - Dieses vorangestellt "Full" ist eher etwas das Unternehmen nicht nutzen, sondern Foristen. Edit: RDNA2 hatte schon Feature Level DX12_2, ebenso wie die Konsolen IIRC.

Chiplets sind keine Architektur bei AMD, sondern Design. RDNA3 ist die Architektur.
Welches Unternehmen hat je eine solche Taktzielsetzung vorab als Ziel kommuniziert auf Folien - das kommt IMHO alles aus der völlig falsch gelegenen Gerüchteküche.

robbitop
2022-11-07, 12:14:53
Klingt plausibel :up:

][immy
2022-11-07, 12:29:21
Nicht unbedingt. Das ist allenfalls ein sehr wages Indiz. Die Folie mit den 3 GHz sagt nicht aus, dass ausnahmslos jeder Navi3-Chip die 3 GHz erreicht.

Das mit dem Hardware-Bug sieht für mich so aus, als ob ein paar Möchtegerninsider ihre "Reputation" retten wollen. Sie lagen mit ihren "Leaks" ja praktisch überall daneben. Oder aber, diese Information ist FUD eines anderen Herstellers, der die Leute davon abhalten soll eine vermeintlich fehlerhafte Grafikkarte zu kaufen.
Bei RDNA2 war es ja auch so, das nur die kleineren Chips wirklich die sehr hohen Frequenzen hatten. Die Chips waren aber auch entsprechend sehr klein. Die großen Chips hatten auch relativ hohe Taktraten, aber halt nur im Vergleich mit den großen Karten der Vorgänger-Gen.

Iscaran
2022-11-07, 12:31:34
Ich halte das aus verschiedenen Gründen für Fake. Ich habe das hier auch mal aufgezählt: https://forum.planet3dnow.de/index.php?threads/amd-rdna3-chiplet-navi-navi-3x.445322/post-5418862


Hmm - OK das klingt sehr nach Fake, ja. War mir zuvor nicht so aufgefallen da ich die Redewendungen so nicht im Kopf hatte, aber mit deinem Hinweis. Sehr Plausibel.

Platos
2022-11-07, 12:49:10
Was denkt ihr, wo die Perfomance einer 7800XT einzuschätzen ist ? Bzw. was denkt ihr, auf welchem Chip die 7800XT basiert? Navi 32 oder Navi 31? Weil die 7900XT ist ja schon ein starker Salvage von Navi 31, also...

Aber angenommen, die 7800XT würde auf Navi 32 basieren: Angenommen von den 60 CUs von Navi 32 sind 58 aktiviert, dann macht das 7424 FP32-Einheiten. Die 7900XTX hat 12288 und ist laut AMD's eigenen Folien in Raster (Only) in 3 Spielen 1.5x,1.5x & 1,7x schneller, wie die 6950X. Also 1.57x im Schnitt (wobei man sagen muss, dass einer der 3 Spiele anscheinend ein klarer Ausreisser ist).

Das wäre dann eine Perfomance von 577% im 4k Index.

Rechnet man das nun auf eine hypothetische 58CU Navi32 runter, ergäbe das 7424/12288 * 577% = 348% im 4k Index (360% bei einem Vollausbau).

Das wäre dann wiederum nur lächerliche 8% schneller, wie eine 6800XT bzw. 12% bei einem Vollausbau.

Von daher kann es gar nicht sein, dass eine 7800XT auf Navi 32 basiert, das muss dann wohl die 7800 sein. Ausser, der takt ist um mindestens 20% höher, was ich aber bezweifle, wenn man sich mal so anhört, was für eine Taktwall Navi 31 hat. Und diese Geschichte mit der defekten Hardware ist auch nur ein Gerücht (gerade bei AMD lagen die Vorhersagen komplett falsch und jetzt auf einmal gibst gleich eine Erklärung dazu... unglaubwürdig)

Aber was denkt ihr?

dargo
2022-11-07, 13:01:13
Wir denken, dass du zu viel Zeit hast um dir den Kopf um noch nicht veröffentlichte Hardware zu zerbrechen. Ich gehe davon aus 7800XT(X) ist voller N32 Chip und ist als Upgrade für N22 gedacht.

Complicated
2022-11-07, 13:10:18
Das kann Leo aber nicht ernst meinen :O
https://www.3dcenter.org/news/news-des-56-november-2022
Nebenbei bestätigt dies die früheren Leaker-Meldungen, welche mit ihren Taktraten-Prognosen zu Navi 31 augenscheinlich ziemlich danebengelegen haben – dies jedoch offenbar auf Basis von Infos durch AMD höchstselbst, ergo eher "unverschuldet".
Die Leaker lagen richtig mit den falschen Prognosen und deshalb AMD hat einen defekten Chip - das ist die Logik?

gruntzmaker
2022-11-07, 13:11:18
Was denkt ihr, wo die Perfomance einer 7800XT einzuschätzen ist ? Bzw. was denkt ihr, auf welchem Chip die 7800XT basiert? Navi 32 oder Navi 31? Weil die 7900XT ist ja schon ein starker Salvage von Navi 31, also...

Aber angenommen, die 7800XT würde auf Navi 32 basieren: Angenommen von den 60 CUs von Navi 32 sind 58 aktiviert, dann macht das 7424 FP32-Einheiten. Die 7900XTX hat 12288 und ist laut AMD's eigenen Folien in Raster (Only) in 3 Spielen 1.5x,1.5x & 1,7x schneller, wie die 6950X. Also 1.57x im Schnitt (wobei man sagen muss, dass einer der 3 Spiele anscheinend ein klarer Ausreisser ist).

Das wäre dann eine Perfomance von 577% im 4k Index.

Rechnet man das nun auf eine hypothetische 58CU Navi32 runter, ergäbe das 7424/12288 * 577% = 348% im 4k Index (360% bei einem Vollausbau).

Das wäre dann wiederum nur lächerliche 8% schneller, wie eine 6800XT bzw. 12% bei einem Vollausbau.

Von daher kann es gar nicht sein, dass eine 7800XT auf Navi 32 basiert, das muss dann wohl die 7800 sein. Ausser, der takt ist um mindestens 20% höher, was ich aber bezweifle, wenn man sich mal so anhört, was für eine Taktwall Navi 31 hat. Und diese Geschichte mit der defekten Hardware ist auch nur ein Gerücht (gerade bei AMD lagen die Vorhersagen komplett falsch und jetzt auf einmal gibst gleich eine Erklärung dazu... unglaubwürdig)

Aber was denkt ihr?

Mit einer RX 6800 XT wird man auch noch in einem Jahr sich dieselben Fragen stellen.

Imho lohnt sich da nur ein Upgrade auf eine 7x50er Karte, wenn überhaupt. Ein Blick auf die Release Liste 2023 sagt mir zumindest, dass so schnell keine Not aufkommen muss.

Und 2024 gibt's bereits wieder etwas Neues.

amdfanuwe
2022-11-07, 13:14:49
Angenommen von den 60 CUs von Navi 32 sind 58 aktiviert,
Es werden keine einzelnen CUs deaktiviert.
Wenn, dann wird pro SE eine WGP deaktiviert oder gleich eine SE.

Also haben wir bei N32 mit 3SE * 10WGP * 2 CU entweder Vollausbau mit 30 WGPs oder Salvage mit 27 oder 24 WGPs.

Ich denke, N32 wird 6800XT mit 16GB und Salvage mit 12GB als 7700XT.

Linmoum
2022-11-07, 13:22:25
Die Leaker lagen richtig mit den falschen Prognosen und deshalb AMD hat einen defekten Chip - das ist die Logik?Mit >=3GHz wären die ganzen Prognosen eigentlich recht zutreffend gewesen.

VCZ gibt übrigens als Quelle für die Folie sich selbst an. Die ganze Presse war bei AMD im Zuge der Präsentation vor Ort, für mich ist das daher eine authentische Folie, die AMD im Pressebriefing gezeigt hat für die späteren Artikel zum Deep-Dive von RDNA3. Daher denke ich, dass VCZ die Folie auch aus der Richtung zugespielt bekommen hat. Passt auch überhaupt nicht zu denen, da Fakes aus eigenen Quellen zu veröffentlichen und ergibt hier auch nicht wirklich Sinn.

Auf penibel genaue oder etwaige anderslautende Formulierungen würde ich bei dem Thema AMD + Folien übrigens nichts geben. ;)

OpenVMSwartoll
2022-11-07, 13:30:24
Das kann Leo aber nicht ernst meinen :O
https://www.3dcenter.org/news/news-des-56-november-2022

Die Leaker lagen richtig mit den falschen Prognosen und deshalb AMD hat einen defekten Chip - das ist die Logik?

Für mich ist die Logik: Sollte dies eine authentische Folie sein, so hätten die Leaker nicht so falsch gelegen.

Manchmal frage ich mich, ob Du weiblich bist. Die Goldwaage hast Du permanent zur Hand. Bitte nicht beleidigt sein.

Exxtreme
2022-11-07, 13:38:05
VCZ gibt übrigens als Quelle für die Folie sich selbst an.

Sicher?

https://videocardz.com/newz/alleged-amd-navi-31-gpu-block-diagram-leaks-out

Ist "Mr. Blonde" ein Mitarbeiter von denen? Zumal wenn das nicht für die Öffentlichkeit bestimmt war, mal sehen ob AMD darüber glücklich sein wird wenn die sowas veröffentlichen. Und die Folie sieht mir arg nach abfotografiert aus.

Linmoum
2022-11-07, 13:52:07
Klar ist die Abfotografiert. Deswegen sag ich ja Pressebriefing. Die Präsentation wird ja inkl. Folien auf großer Leinwand abgehalten wie die Vorstellung der GPUs auch. Das ist kein "Friss oder stirb", wo die Presse ohne Erläuterungen Folien zugeworfen bekommt. ;)

Mit Source VCZ meine ich, dass sie diese direkt zugespielt bekommen haben, also das nichtmal über irgendein China-Forum, Twitter o.ä. lief. Und wie gesagt, da ist whycry eigentlich sehr genau bei sowas und das passt auch nicht zu VCZ.

Und klar sind Hersteller darüber nicht glücklich, aber das ist nun bei weitem auch nicht die erste abfotografierte Folie, die ins Netz gelangt. ;)

Badesalz
2022-11-07, 14:00:56
Die 7900 XT(X) ist hingegen in dem angepeilten Preisbereich absolut konkurrenzfähigWeil man das jetzt zum 101x wiederholt heißt das noch lange nicht, daß die Probanden bereit sind das zu berücksichtigen.

@all
Eine andere Frage ist ja was die Karten kosten würden, wenn es die vermeintliche Taktbremse nicht geben würde... Wenn man wie sonst alle außerhalb der Blase nach absoluten Zahlen (Preis) schaut, sind die Preise ja ok. Bisher. Bis man wirklich weiß wie NV 4080 und 4070 angesetzt hat.

Leute welche sich die GPUs auch mir 3.2Ghz eh nie kaufen würden marodieren jetzt hier rum und fantasieren was von AMDs designs flaws…
Nö Dural. Das ist was anderes als sich dafür zu interessieren, ob Stromstecker irgendwo wegschmelzen :rolleyes:

Platos
2022-11-07, 14:03:11
Wir denken, dass du zu viel Zeit hast um dir den Kopf um noch nicht veröffentlichte Hardware zu zerbrechen.

Ah ja, dann aber bitte nie wieder in Spekulationsforum etwas posten. Hier gehts nämlich immer um unveröffentlichte Dinge ;)

Lehdro
2022-11-07, 14:06:58
Macht das für mich als Endkunden einen Unterschied ob die GPU nach 5% mehr Performance für 7-10% mehr Takt "zumacht" weil der Chip am Ende ist, oder ob dann ein ominöser Chipbug zuschlägt? Nö.
Macht das für mich als Endkunden einen Unterschied ob der Stromstecker potenziell unsicher ist? Ja.

Verstehe die Diskussion darum null, vor allem weil uns noch die Fakten dazu fehlen - wir wissen quasi noch gar nix richtig über den Takt von RDNA3, denn selbst die AMD Werte sind "fishy".

Platos
2022-11-07, 14:16:53
Der Unterschied ist natürlich theoretischer Natur. Falls es stimmt, wäre hald mehr drinn gewesen bzw. würde es erklären, warum die 7900XTX der 4090 nicht das Wasser reichen kann. Für den Endkunden ist das natürlich egal.

Wir sind hier aber im Spekuforum, da darf man vor allem eins: Spekulieren. Ebenfalls muss man in einem Technikforum nicht nur über für Endkunden

w0mbat
2022-11-07, 14:21:09
Diese Gerüchte mit dem "HW-Bug" halte ich für Humbug. RDNA3 mag vielleicht für 3GHz+ ausgelegt sein, aber das bezieht sich immer nur auf die kleineren GPUs, nicht den top-dog.

Ich denke, Navi31 ist genau da, wo AMD es erwartet hat. Der große Fokus liegt auf dem chiplet design, da geht man keine großen architektonischen Risiken ein. Mir hätte 7800 XT & 7800 als Bezeichnung besser gefallen, aber dann würde sich der Preis komisch anfühlen, also bleibt man bei "x900" und der Preis bleibt auch gleich.

Mit 355W TDP liegt die 7900 XTX ziemlich genau am Maximum was mit 2x 8-pin + PCIe geht, da wäre mehr möglich. Ich kann mir schon eine "7950 XTX" im Sommer/Herbst nächstes Jahr vorstellen, die statt 2,5GHz boost dann 3GHz boost hat und die 20% mehr Takt mit 24Gbps GDDR6 kombiniert, was auch genau 20% mehr Speicherebandbreite wären. Da bräucht man nicht mal 1-hi 3D V-Cache auf den MCDs. Das ganze bei ~450W und fertig.

Aber auch so kein Beinbruch, die XTX sollte die 4080 schlagen und die XT liegt vielleicht auch vorne (natürlich nur in Raster).

Dino-Fossil
2022-11-07, 14:23:00
Falls es stimmt, wäre hald mehr drinn gewesen bzw. würde es erklären, warum die 7900XTX der 4090 nicht das Wasser reichen kann. Für den Endkunden ist das natürlich egal.

Daran könnte auch schon der verhältnismäßig konservative Hardwareansatz hauptsächlich verantwortlich sein. Der Chip ist nunmal im Vergleich deutlich kleiner.
Aber klar, hätte AMD es geschafft, mit einem kleineren Chip trotz deutlich geringerer Leistungsaufnahme ein absurdes Hardwaremonster wie die 4090 zu schlagen, wäre das schon sehr beachtlich gewesen (aber vielleicht eben auch eher unrealistisch?).

Wobei sich dann die grünen Fanboys halt erst recht allein auf RT beschränkt hätten um zu rechtfertigen, warum man auf keinen Fall AMD kaufen kann.

Ist doch egal. Wer unbedingt eine Karte aus dem Segment der 4090 will muss halt eine 4090 kaufen und den Mondpreis akzeptieren. Der Rest hat die Wahl zwischen AMD oder nVidia (und irgendwann auch Intel).

Zossel
2022-11-07, 14:35:40
Das mit dem Hardware-Bug sieht für mich so aus, als ob ein paar Möchtegerninsider ihre "Reputation" retten wollen. Sie lagen mit ihren "Leaks" ja praktisch überall daneben. Oder aber, diese Information ist FUD eines anderen Herstellers, der die Leute davon abhalten soll eine vermeintlich fehlerhafte Grafikkarte zu kaufen.

Kennt man die Workarounds im Compiler von NV für die "Fehler" oder deaktivierte Features in den GPUs von NV?

Siehste, eben deswegen Kindergarten.

ChaosTM
2022-11-07, 14:46:37
Daran könnte auch schon der verhältnismäßig konservative Hardwareansatz hauptsächlich verantwortlich sein. Der Chip ist nunmal im Vergleich deutlich kleiner.
Aber klar, hätte AMD es geschafft, mit einem kleineren Chip trotz deutlich geringerer Leistungsaufnahme ein absurdes Hardwaremonster wie die 4090 zu schlagen, wäre das schon sehr beachtlich gewesen (aber vielleicht eben auch eher unrealistisch?).

Wobei sich dann die grünen Fanboys halt erst recht allein auf RT beschränkt hätten um zu rechtfertigen, warum man auf keinen Fall AMD kaufen kann.

Ist doch egal. Wer unbedingt eine Karte aus dem Segment der 4090 will muss halt eine 4090 kaufen und den Mondpreis akzeptieren. Der Rest hat die Wahl zwischen AMD oder nVidia (und irgendwann auch Intel).

Sehe das sehr ähnlich. Man muss sich halt überlegen, ob man wirklich 2,x k + neues NT und zur Not noch Geld für ein neues System ausgeben will, um die Karte voll auszureizen. Für manche ein No-Brainer und das passt natürlich auch. Vor 10 Jahren wärs das auch für mich gewesen, da spielte ich noch deutlich mehr :)



Oder man gibt sich mit weniger zufrieden. Abhängig von den Vorlieben eben eine AMD oder die 408(7)0er. Ob der bis zu 500€ Mehrpreis den RT Vorteil rechtfertigt, muss jeder für sich selbst entscheiden.

Exxtreme
2022-11-07, 14:54:56
Kennt man die Workarounds im Compiler von NV für die "Fehler" oder deaktivierte Features in den GPUs von NV?

Siehste, eben deswegen Kindergarten.

Man kann einiges bei AMD aus den Linux Opensource-Treibern herauslesen. Da sind auch öfter Workarounds für Hardwarebugs drin. Eventuell wird da einiges in den nächsten Wochen auftauchen. Dann wird man mehr wissen. Aber jetzt davon auszugehen, dass die Hardware eine Macke hat bloß weil einige Leute auf Twitter dies behaupten ist schon arg leichtgläubig.

Complicated
2022-11-07, 15:00:20
Für mich ist die Logik: Sollte dies eine authentische Folie sein, so hätten die Leaker nicht so falsch gelegen.

Manchmal frage ich mich, ob Du weiblich bist. Die Goldwaage hast Du permanent zur Hand. Bitte nicht beleidigt sein.
Ich finde die Geschlechtsfrage hier völlig deplaziert.

Die eine Darstellung besagt AMD hat einen defekten Chip geliefert und die Leaker lagen alle richtig.
Die andere besagt, die Leaker sind falschen Informationen, auf Basis der Fake-Folie, erlegen und AMD hat nie behauptet ein 3GHz Design bauen zu wollen.

Wo du eine Goldwaage identifizierst, sehe ich zwei verschiedene Containerhäfen auf unterschiedlichen Kontinenten.


Und was ich völlig absurd finde, ist den Leakern Vorfahrt gegenüber den Aussagen von AMD zu geben.

HOT
2022-11-07, 15:10:03
Das kann Leo aber nicht ernst meinen :O
https://www.3dcenter.org/news/news-des-56-november-2022

Die Leaker lagen richtig mit den falschen Prognosen und deshalb AMD hat einen defekten Chip - das ist die Logik?

Der Meinung war ich ja auch. Es wäre interessant, ob dem tatsächlch AIB-Aussagen zugrunde liegen, ob man das verifizieren kann, jeden falls halbwegs. Wenn das nämlich so ist, dass AMD so kommuniziert hat, dann haben wir nächstes Jahr ne 8k-Generation.

OpenVMSwartoll
2022-11-07, 15:24:14
Ich finde die Geschlechtsfrage hier völlig deplaziert.

Die eine Darstellung besagt AMD hat einen defekten Chip geliefert und die Leaker lagen alle richtig.
Die andere besagt, die Leaker sind falschen Informationen, auf Basis der Fake-Folie, erlegen und AMD hat nie behauptet ein 3GHz Design bauen zu wollen.

Wo du eine Goldwaage identifizierst, sehe ich zwei verschiedene Containerhäfen auf unterschiedlichen Kontinenten.


Und was ich völlig absurd finde, ist den Leakern Vorfahrt gegenüber den Aussagen von AMD zu geben.

Warum muss es ein Entweder-Oder werden?

Nicht alle Leaker lagen dann richtig, aber die erhoffte Realität näher an den Leaks. Was ich bisher an projizierten Partnerkarten gesehen habe, ist zu potent für den Hardwareansatz.

Aber wissen können wir es nicht, nur hat schon jemand darauf hingewiesen, dass die Quelle nicht für Fake-Folien bekannt ist.

Und dass solche Präsentationen bisweilen sprachlich ungenau sein können, ist auch nicht unmöglich.

HOT
2022-11-07, 15:30:02
Die könnte natürlich intern ne andere Sprachgewohnheit haben als die Folien, die vom Marketing "glattgezogen" werden. Wegen Sprachsachen würd ich da nicht auf Fake schließen, das muss man schon auf technischer Seite tun. Wenn sich der interne Aufbau beim Release so bestätigt, ist die Folie kein fake, wenn nicht, dann doch.

Zossel
2022-11-07, 15:38:49
Man kann einiges bei AMD aus den Linux Opensource-Treibern herauslesen. Da sind auch öfter Workarounds für Hardwarebugs drin. Eventuell wird da einiges in den nächsten Wochen auftauchen. Dann wird man mehr wissen. Aber jetzt davon auszugehen, dass die Hardware eine Macke hat bloß weil einige Leute auf Twitter dies behaupten ist schon arg leichtgläubig.

Die ganzen DIY-CPUs von den Unixkisten in den 90'ern hatten auch gerne Workarounds in den Compilern und Kerneln für deren CPUs.

Absolut nichts ungewöhnliches.

prinz_valium_2
2022-11-07, 15:56:18
Egal was es ist, für mich ist es ein Win-win.

Entweder gibt es den Bug und die 7900 kommt noch als respin mit deutlich mehr Leistung, oder es gibt den Bug nicht und die kleiner Karte wird dann deutlich besser Takten und in ihrem Segment besonders stark.

Complicated
2022-11-07, 16:12:28
Aber wissen können wir es nicht, nur hat schon jemand darauf hingewiesen, dass die Quelle nicht für Fake-Folien bekannt ist.

Und dass solche Präsentationen bisweilen sprachlich ungenau sein können, ist auch nicht unmöglich.
Dann würde AMD erstmals von Chiplet-Architektur reden anstatt von Chiplet-Design und RDNA3-Architektur - das erscheint Dir tatsächlich wahrscheinlicher, zuzüglich den anderen abweichenden Benennungen, wie das eigene Feature OREO falsch zu schreiben (ROOE)?

"Full DX12" -Unternehmen nennen auch intern Feature-Level: DX12_1, DX12_2 - und da RDNA2 schon DX12_2 konnte, ist das jetzt für RDNA3 inwieweit ein wichtiges neues Feature?

Die Folie ist mehr Murks als so manch anderes Fake, das schon rum ging. Die Quelle ist überhaupt nicht als seriös bekannt - die hat ein Haufen falscher Leaks gepostet, wenn man AMDs Vorstellung am 03.11. als Masstab nimmt. Mir hat noch keiner sagen können warum der 03.11 und die gezeigten Folien dort weniger wahr sein sollen.

Exxtreme
2022-11-07, 16:13:50
Man sollte da auch noch eine Sache bedenken: selbst wenn es den Bug gibt und es einen gefixten Respin gibt, die "reparierten" Karten werden mehr Saft ziehen wenn man sie höher taktet. Dieser angebliche Bug verhindert offenbar, dass man den Chip höher denn 2,9 GHz bekommt. Am Stromverbrauch an sich ändert sich da nichts. Wird schon interessant zu sehen sein wieviel die Karte bei 2,9 GHz so zieht. Kann also sein, dass man "reparierte" Karten gar nicht haben will wenn diese dann 450 W oder mehr ziehen.

dargo
2022-11-07, 16:17:55
Man sollte da auch noch eine Sache bedenken: selbst wenn es den Bug gibt und es einen gefixten Respin gibt, die "reparierten" Karten werden mehr Saft ziehen wenn man sie höher taktet.
Nicht nur das... die werden auch zu höheren Preisen angeboten werden können.

Mangel76
2022-11-07, 16:28:09
Was für mich nicht zusammenpasst:

Entweder gibt es so einen Bug und er lässt sich nicht kurzfristig fixen - dann ist der lange bekannt, warum also so lange bis zum Launch zögern und das Weihnachtsgeschäft verpassen? Dann hätte man Wochen vorher launchen können, denn ich glaube der Plan war durchaus früher zu sein als 10 Tage vor Weihnachten.

Gibt es den Bug und lässt er sich doch kurzfristig fixen, hat man den Launch vielleicht soweit wie möglich rausgezögert und wir bekommen am 13.12. doch einen gefixten und besseren Chip, aber eventuell in geringen Dosen, weil die Vorproduktion fehlt? Das würde aber bedeuten, dass AMD bei der Präsi extrem tiefgestapelt haben müsste.

Beides klingt für mich unwahrscheinlich. Aber wenn es keinen Bug gibt, verstehe ich diesen Launchtermin noch weniger :confused:. Die einzige Erklärung wäre, dass am 13.12. die bereinigte Version gelauncht wird und es eben das ist, was AMD vorgestellt hat.

Im Prinzip ist daran ja nichts auszusetzen: AMD würde bei 2000€ kaum Karten verkaufen, also konzentriert man sich auf Bereiche, in denen sich Geld verdienen lässt. Andererseits hat man NV soweit getrieben, einen völlig überdimensionierten AD102 zu veröffentlichen, der horrende Kosten hat, Probleme mit der Stromversorgung und damit schlechte Presse verursacht und mit >2000€-Preisen auch in überschaubaren Mengen verkauft wird. Dazu das unausgewogene Portfolio darunter mit den im Verhältnis zu kleinen 103 und 104, was wieder schlechte Presse bringt. Man könnte fast meinen, das war Absicht :biggrin:

Langlay
2022-11-07, 16:39:53
Man sollte da auch noch eine Sache bedenken: selbst wenn es den Bug gibt und es einen gefixten Respin gibt, die "reparierten" Karten werden mehr Saft ziehen wenn man sie höher taktet. Dieser angebliche Bug verhindert offenbar, dass man den Chip höher denn 2,9 GHz bekommt. Am Stromverbrauch an sich ändert sich da nichts. Wird schon interessant zu sehen sein wieviel die Karte bei 2,9 GHz so zieht. Kann also sein, dass man "reparierte" Karten gar nicht haben will wenn diese dann 450 W oder mehr ziehen.

Ich hätte einen hinkendes Gegenbeispiel. Thoroughbred-A vs. Thoroughbred-B.

T-Bred-A ging quasi kaum besser als Palamino, T-Bred-B ging wie die Hölle.

(Wobei ich allerdings auch nicht unbedingt an die Respingeschichte glaube)

robbitop
2022-11-07, 16:43:18
Ja wenn irgendwas den kritischen Pfad vermurkst und man deshalb mehr Spannung für die Frequenz braucht und dann ein design hat, was diesen deutlich verbessert kann es schon sein, dass die gsamte v/f curve und damit ALLE Betriebspunkte(!) besser sind.

OpenVMSwartoll
2022-11-07, 16:54:09
Dann würde AMD erstmals von Chiplet-Architektur reden anstatt von Chiplet-Design und RDNA3-Architektur - das erscheint Dir tatsächlich wahrscheinlicher, zuzüglich den anderen abweichenden Benennungen, wie das eigene Feature OREO falsch zu schreiben (ROOE)?

"Full DX12" -Unternehmen nennen auch intern Feature-Level: DX12_1, DX12_2 - und da RDNA2 schon DX12_2 konnte, ist das jetzt für RDNA3 inwieweit ein wichtiges neues Feature?

Die Folie ist mehr Murks als so manch anderes Fake, das schon rum ging. Die Quelle ist überhaupt nicht als seriös bekannt - die hat ein Haufen falscher Leaks gepostet, wenn man AMDs Vorstellung am 03.11. als Masstab nimmt. Mir hat noch keiner sagen können warum der 03.11 und die gezeigten Folien dort weniger wahr sein sollen.

Ja, sprachliche Ungenauigkeiten halte ich für möglich. Auch, dass OREO dem Marketing besser gefällt, weil "jeder mag Oreos".

Aber wir wissen es beide nicht. Von daher können wir noch stundenlang darüber sinnieren.

Ich halte die ungewollte Taktbarriere durchaus für eine mögliche Erklärung. Dann würde auch der geringere Preisabstand zwischen XT und XTX Sinn ergeben. XTX hätte dann locker 1200$ kosten können.

Aber mal schauen, was die Zukunft bringt.

Virtual
2022-11-07, 16:59:40
Man kann einiges bei AMD aus den Linux Opensource-Treibern herauslesen. Da sind auch öfter Workarounds für Hardwarebugs drin. Eventuell wird da einiges in den nächsten Wochen auftauchen. Dann wird man mehr wissen. Aber jetzt davon auszugehen, dass die Hardware eine Macke hat bloß weil einige Leute auf Twitter dies behaupten ist schon arg leichtgläubig.

Alle GPUs und CPUs haben eine Hersteller-interne Errata-Liste. Ob, was und wie veröffentlicht wird, steht auf einem anderen Blatt, hängt von der Natur des Bugs ab.

Im Fall des "N31 Takt-Bug" wird ein einfaches Prinzip angewandt, das sich schon in der Politik zur Beeinflussung der öffentlichen/privaten Meinung bewährt hat. Die "Leaker" greifen nun auf diesen Ansatz zurück und wenden ihn mit Erfolg an.
Es wird eine vermeintlich naheliegende Erklärung für eine Problematik ge-/erfunden, die ohne "Leaks" überhaupt nicht existieren würde. Dazu wird ein Beweis mit fragwürdiger Authentizität veröffentlicht, um die Behauptungen zu untermauern. Der "Leaker", besser "Influenzer", steuert damit die private und öffentliche Meinung auch beim "N31 Takt-Bug" erstaunlich erfolgreich.

Das Ergebnis: Es springen jene (Foristen) auf den Meinungzug auf, die partout daran glauben wollen, aus welchen Gründen auch immer, völlig unabhängig der realen Existenz des "N31 Takt-Bug".
Andere stellen sich wiederum die Frage der Authentizität der Behauptung, sind aber dennoch mehr oder weniger verunsichert.
Der Rest wundert sich über die Diskussion zu einem Problem, das gar nicht existiert, wenn es die "Leaker"/"Influenzer" nicht geschaffen hätten. In dieser Gruppe bin ich zu finden.

Die Fragen sind nun:
- Weshalb gibt es diese Influenzer aka Leaker? Nur um dem untermotorisierten Gamer sowie allen ungedultigen Fans die unfassbar lange Wartezeit zu verkürzen, um deren nächstes Spielzeug in greifbare Nähe zu rücken?
- Sind Leaker abseits ihrer "Quellen" wirklich "unabhängig"? Wer würde von diesen Influenzern noch profitieren? Leaker sind sicher keine Altruisten.

Zossel
2022-11-07, 17:09:31
Alle GPUs und CPUs haben eine Hersteller-interne Errata-Liste. Ob, was und wie veröffentlicht wird, steht auf einem anderen Blatt, hängt von der Natur des Bugs ab.

Im Fall des "N31 Takt-Bug" wird ein einfaches Prinzip angewandt, das sich schon in der Politik zur Beeinflussung der öffentlichen/privaten Meinung bewährt hat. Die "Leaker" greifen nun auf diesen Ansatz zurück und wenden ihn mit Erfolg an.
Es wird eine vermeintlich naheliegende Erklärung für eine Problematik ge-/erfunden, die ohne "Leaks" überhaupt nicht existieren würde. Dazu wird ein Beweis mit fragwürdiger Authentizität veröffentlicht, um die Behauptungen zu untermauern. Der "Leaker", besser "Influenzer", steuert damit die private und öffentliche Meinung auch beim "N31 Takt-Bug" erstaunlich erfolgreich.

Das Ergebnis: Es springen jene (Foristen) auf den Meinungzug auf, die partout daran glauben wollen, aus welchen Gründen auch immer, völlig unabhängig der realen Existenz des "N31 Takt-Bug".
Andere stellen sich wiederum die Frage der Authentizität der Behauptung, sind aber dennoch mehr oder weniger verunsichert.
Der Rest wundert sich über die Diskussion zu einem Problem, das gar nicht existiert, wenn es die "Leaker"/"Influenzer" nicht geschaffen hätten. In dieser Gruppe bin ich zu finden.

Die Fragen sind nun:
- Weshalb gibt es diese Influenzer aka Leaker? Nur um dem untermotorisierten Gamer sowie allen ungedultigen Fans die unfassbar lange Wartezeit zu verkürzen, um deren nächstes Spielzeug in greifbare Nähe zu rücken?
- Sind Leaker abseits ihrer "Quellen" wirklich "unabhängig"? Wer würde von diesen Influenzern noch profitieren? Leaker sind sicher keine Altruisten.

Das ist das selbe Prinzip nach dem die Yellow Press (Bild der Frau, Instagram, Gala, etc.) funktioniert.

Dino-Fossil
2022-11-07, 17:21:03
Jedenfalls scheinen es viele glauben zu wollen, dass es so ist...

Aber wie schon angemerkt - wenn es einen Bug gäbe, wäre das AMD nicht erst seit letzter Woche bekannt und dann hätte AMD kaum den Board-Partnern angekündigt, dass sie mit N31 spielerisch über 3GHz kommen werden.

Das die kleineren Chips womöglich höher takten, dürfte auch nicht ungewöhnlich sein (siehe RDNA2), dass wäre also keine echte Bestätigung, wird aber dann vermutlich von vielen so gesehen werden.

Letztlich können wir das noch endlos so fortführen, ohne Tests zu den Karten können wir aber eh nichts belastbares sagen. In diesem Sinne @dargo: viel Spaß hier in den nächsten Wochen. :ugly:

Dural
2022-11-07, 17:40:51
Dass es ein Takt Problem gibt ist ja mehr als offensichtlich, egal was irgendwelche Leaker vor oder danach gesagt haben. Oder glaubt ihr ernsthaft das AMD gesagt hat: uns reichen 2,3GHz Core Zieltakt und alles ist bestens?!?

Wie ich schon zuvor vermutet habe: Der unterschiedliche Core/Uncore Takt und der geringe Unterschied von nur 200MHz mit erheblichen Verbrauchs unterschiede (laut AMD!!!) zeigen mehr als eindeutig dass da was nicht stimmt.

Adam D.
2022-11-07, 17:43:54
Letztlich können wir das noch endlos so fortführen, ohne Tests zu den Karten können wir aber eh nichts belastbares sagen. In diesem Sinne @dargo: viel Spaß hier in den nächsten Wochen. :ugly:
Nein, Dural weiß das schon gesichert, weil es doch offensichtlich ist! Wir haben schon sehr viel Handfestes gesehen, Treiber sind final, Tests wurden durchgeführt, deshalb muss es doch so sein - AMD kaputt, NV der strahlende Gewinner, alle sind glücklich! Ist doch offensichtlich!

dargo
2022-11-07, 17:48:40
Letztlich können wir das noch endlos so fortführen, ohne Tests zu den Karten können wir aber eh nichts belastbares sagen. In diesem Sinne @dargo: viel Spaß hier in den nächsten Wochen. :ugly:
Siehst du schon an unseren Dural-Experten. Der hat bis heute offensichtlich immer noch nicht gerafft wie die 61 TFLOPs zustande kommen und beißt sich am 2,3Ghz Game Clock fest. *kopfschüttel*

Dural
2022-11-07, 17:50:10
Noch einmal: AMD sagt es ja selber!
Wenn man bei humanen 2,3GHz für 9% mehr Takt 25% mehr Verbrauch angibt ist es mehr als offensichtlich.

Und nein ich habe von Anfang an einen Bug ausgeschlossen, für mich ist es der Chip der einfach so himmeltraurig skaliert. Auch ein respin wird das Problem zumindest nicht ganz lösen.

dargo
2022-11-07, 17:53:05
Noch einmal: AMD sagt es ja selber!

Junge... informiere dich doch mal was Game Clock ist!!!

Ich hatte dir schon mal diese Seite verlinkt.
https://www.amd.com/en/products/specifications/compare/graphics/11836,10526

Eine RX 6900XT hat einen Game Clock von 2015Mhz. Die RX 6900XT die Computerbase getestet hat läuft mit 2200-2300Mhz im Schnitt.
https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/2/#abschnitt_taktraten_unter_last

Der höchste Boost lag bei 2440Mhz in CoD und bei max. 2500Mhz in weniger fordernden Games. Wahrscheinlich FH5 oder Ähnliches.

Badesalz
2022-11-07, 17:55:29
Dass es ein Takt Problem gibt ist ja mehr als offensichtlich, egal was irgendwelche Leaker vor oder danach gesagt haben. Oder glaubt ihr ernsthaft das AMD gesagt hat: uns reichen 2,3GHz Core Zieltakt und alles ist bestens?!?Den Abstand zwischen Raster und RT betrifft das alles ja nicht. Und wenn man sich die Rasterleistung anschaut, bei den Watts, was gibt es da wegen "glaubt ihr ernsthaft" zu erzählen? Sollte das Ding doppelt so schnell werden wie die 4090 oder wie meinst du das?