PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

OgrEGT
2022-06-13, 21:08:16
Davon kann sich aber niemand was kaufen. Sowas kann dann von +30% bis +100% alles bedeuten.

AMD hat es in der Vergangenheit auf dem FAD auch schon getan, insofern sehe ich das Problem jetzt nicht, einen solchen Ausblick zu geben.

Kein Problem. Es ging nur darum ob AMD hier bewusst tief stapelt mit den +50%... ich glaube wie gesagt nicht dass das tiefgestaplet ist (edit: zumindest nicht all zu sehr) (da man dies mMn durch Vermeiden von Zahlen besser gekonnt hätte)...

OgrEGT
2022-06-13, 21:22:31
So ne 7800xt (N32) mit 300W für +60% über ner 6900xt ... mit verbessertem RT (und dann hoffentlich mehr FSR 2.0 Unterstützung) ... wär gar nicht so verkehrt :cool:

Zossel
2022-06-13, 21:40:46
Netzteilhersteller machen Empfehlungen, die ja in allen Lebenslagen funktionieren müssen und möglichst all ihre Produkte umfassen.

Wird man die zukünftigen Boliden noch sinnvoll kühlen können oder werden die in "normalen" Gehäusen nur noch gedrosselt laufen weil man die Abwärme nicht mehr los wird?

iamthebear
2022-06-13, 22:09:32
Computerbase hat einen Test mit 450W gemacht und die Luft wird hier schon echt dünn:
https://www.computerbase.de/2022-05/next-gen-grafikkarten-gehaeuse-kuehlung/

Mit dem richtigen Gehäuse kein Problem aber bei einem normalen Durchschnittsgehäuse sehe ich schwarz.
Das blöde ist: Die GPU wird nicht throttlen aber alles andere wird dahin glühen wie VRMs, CPU, SSD etc.

Grundsätzlich wäre ich ja bereit mir nach über 10 Jahren wieder einmal ein neues Gehäuse und Netzteil zu gönnen und mittlerweile darf das auch ruhig etwas kosten.
Aber leider sind die Optionen echt bescheiden wenn man noch einige Festplatten im System hat.

Und wenn ich das alles zusammenrechne:
.) Neues Gehäuse 200 Euro
.) Netzteil: 150 Euro
.) Klimaanlage, damit die warme Luft auch aus dem Zimmer raus kommt: 400 Euro
.) Dann noch am Fenster herumbauen, da die Klimaanlage ja auch nach außen blasen muss
.) Laufende Stromkosten: Bei 2-3h Gaming am Tag: Nochmal 300 Euro über die nächsten 5 Jahre

Da stelle ich mir die Frage ob sich das Ganze wirklich lohnt und ob es nicht ein Klasse darunter auch tut.

Das nächste Problem sind GPU Kühler mit mehr als 3 Slots. Dadurch fällt mein 2. PCIe x16 Slot weg. Den brauche ich aber für meinen RAID Controller. Ja ich weiß man kann auch ein Riser Kabel nehmen aber mit so etwas will ich eigentlich nicht herumpfuschen.

BlacKi
2022-06-13, 22:24:52
sein humor, einfach epic:biggrin:

Nightspider
2022-06-14, 07:27:51
Ich hätte nichts dagegen wenn diese Bolliden alle mit intergierter Wasserkühlung kommen.

Ab einer gewissen Wattzahl gleichen sich die Kosten von einem ultrafettem Luftkühler denen einer kleinen komptakten Wakü an. Und diese befördert die Abwärme auch direkt aus dem Case.

Exxtreme
2022-06-14, 12:12:16
Wenn die Grafikkarten wirklich 450W fressen dann kauft die kleineren Versionen davon. Ja, nicht absolut High-End. Aber die Wahl hat man trotzdem.

Wobei ich nicht glaube, dass die 450W-Teile bringen werden. Ohne WaKü bekommen die größere Probleme mit der Kühlung. Zudem wird man wohl eher 1000W Netzteile brauchen.

Linmoum
2022-06-14, 12:25:53
3090Ti geht doch auch (relativ gesehen) problemlos mit 450W. Erfordert halt Materialaufwand, sofern man nicht auf AiO gehen will.

Silent-Wunder kann man halt nicht erwarten bei dem Verbrauch. Aber von nichts kommt nichts. Wobei ich ab 3090Ti-Verbrauchsregion sowieso grundsätzlich der Meinung bin, dass Luft da nichts mehr zu suchen hat. Bringt weniger als Wasser und ist lauter.

dildo4u
2022-06-14, 12:31:39
Wenn die Grafikkarten wirklich 450W fressen dann kauft die kleineren Versionen davon. Ja, nicht absolut High-End. Aber die Wahl hat man trotzdem.

Wobei ich nicht glaube, dass die 450W-Teile bringen werden. Ohne WaKü bekommen die größere Probleme mit der Kühlung. Zudem wird man wohl eher 1000W Netzteile brauchen.
Die Gerüchte sind 100% mher Leisung und laut AMD ist die Effizenz 50% besser würde mich wundern wenn AMD 1000€ GPU deutlich unter 400 Watt landet.
Was sogar ok wäre da sie Theoretisch drei mal so schnell wie eine 2020 Konsole ist aber "nur" 2x Strom braucht.

Nightspider
2022-06-14, 16:01:46
Glaube da liegt dann eher Faktor 5 zwischen einer PS5 und Navi31.

Bei Raytracing Faktor ~7 geschätzt.

iamthebear
2022-06-14, 21:57:32
Laut dem letzten Red Gaming Tech Video:
.) Navi33 ist 6nm und wird +50% Energieeffizienz haben
.) Navi31/2 sind 5nm und werden +60/70% Energieeffizienz haben

Auch wurde eine GCD Größe von nur 380-400mm² für Navi31. Das ist wohlgemerkt für die Single GCD Variante, wo ja der ganze IO Teil dann auch noch mit dabei ist. Falls das stimmt, dann ist AMD hier ein kleines Wunder geglückt was die Performance/Fläche angeht. Ich bin hier allerdings noch etwas skeptisch.

Linmoum
2022-06-14, 22:09:38
Die ~400mm² hat er ja auch schon, seit er das mit dem Single GCD erstmals genannt hat, in den Raum gestellt.

Ich bleibe aber dabei, dass AMD für RDNA3 auf der Roadmap nicht "5nm" angibt, wenn dann doch SKUs in 6nm kommen. Gerade vor dem Hintergrund, dass sie das auf einem FAD offiziell präsentiert haben.

Mit +60-70% Perf/Watt könnte man natürlich ein gutes Stück unter 400W bleiben bei immer noch doppelter Performance ggü. N21. Auch, wenn ich persönlich aktuell schon 60% für zu gut halten und erst einmal von 50-55% ausgehen würde.

Sunrise
2022-06-14, 22:12:40
Laut dem letzten Red Gaming Tech Video:
.) Navi33 ist 6nm und wird +50% Energieeffizienz haben
.) Navi31/2 sind 5nm und werden +60/70% Energieeffizienz haben

Auch wurde eine GCD Größe von nur 380-400mm² für Navi31. Das ist wohlgemerkt für die Single GCD Variante, wo ja der ganze IO Teil dann auch noch mit dabei ist. Falls das stimmt, dann ist AMD hier ein kleines Wunder geglückt was die Performance/Fläche angeht. Ich bin hier allerdings noch etwas skeptisch.
Wenn man davon ausgeht, dass AMD bei identischer Node zwischen RDNA1 und RDNA2 mit +50% angegeben wurde, dann sollte es kein so großes Wunder im AMD-Sinne sein, wenn man auf 5nm eine verbesserte Architektur entwirft und diese nativ für einen enhanced 5nm entwickelt. 5nm ist super stabil inzwischen und sollte auch dementsprechend optimiert worden sein.

Zwischen Navi33 und Navi31 stehen dann 10-20% mehr Energieeffizienz, halte ich für absolut plausibel, auch bzgl. der Unterschiede der beiden Chips an sich.

Die Taktraten werden wahrscheinlich ähnlich aggressiv werden, wie bei Zen4.

Linmoum
2022-06-14, 22:25:29
David Wang hatte ja bei seiner Präsentation schon gesagt, dass der Takt noch mal höher liegen wird. Da könnten sich die >3GHz tatsächlich bewahrheiten.

Ist schon beeindruckend, wenn man bedenkt, dass wir bis Ende 2020 bei um die 2GHz festhingen, AMD dann mal eben 30-40% draufgelegt hat und jetzt mit RDNA3 scheinbar die nächste große Hürde genommen wird.

MSABK
2022-06-14, 23:12:22
Mir fällt irgendwie bissi auf, dass AMD fast schon mit der Agilität wie ein StartUp ein mega Projekt nach dem anderen raushaut.

iamthebear
2022-06-14, 23:39:41
Wenn man davon ausgeht, dass AMD bei identischer Node zwischen RDNA1 und RDNA2 mit +50% angegeben wurde, dann sollte es kein so großes Wunder im AMD-Sinne sein, wenn man auf 5nm eine verbesserte Architektur entwirft und diese nativ für einen enhanced 5nm entwickelt. 5nm ist super stabil inzwischen und sollte auch dementsprechend optimiert worden sein.

So ganz "identisch" war der Node auch nicht. AMD ist von N7 auf N7P gewechselt. Das sind auch 10%.

Dann wurde noch der Infinity Cache eingeführt. Dieser opfert Chipfläche, im Gegenzug kann jedoch die Speicherbandbreite reduziert werden. Eine 6900 XT bräuchte sonst um die 512Bit und dann hat diese auch keine 300W mehr.

Der letzte Unterschied ist dann einfach die Frage wie hoch die Karten gepushed werden. Die 5700 XT wurde damals bis auf 1.2V hoch getrieben. Da sinkt natürlich auch die Energieeffizienz.

Die Frage ist:
Was hat AMD bei RDNA3 gemacht, dass Navi33 mit 6nm (also auch fast gkeichem Node):
.) 200W statt 300W verbraucht
.) Mit 128Bit SI auskommt ohne den IF$ zu vergrößern
.) Den Takt um ca. 25% zu erhöhen
.) Die FP32 Anzahl/Fläche grob geschätzt um ca. 50% zu steigern (Node Density schon raus gerechnet)

Irgendwie habe ich da meine Zweifel. Das klingt einfach zu gut.
Und es ist natürlich schwieriger ein akzeptables Design mit RDNA2 noch weiter zu verbessern als ein vollkommen vermurkstes Design wie Vega.

Zwischen Navi33 und Navi31 stehen dann 10-20% mehr Energieeffizienz, halte ich für absolut plausibel, auch bzgl. der Unterschiede der beiden Chips an sich.

Das halte ich auch für plausibel. Der Node Shrink von 6 auf 5nm sollte zwar um die 30% bringen aber ich würde davon ausgehen, dass Navi33 etwas weiter hochgetaktet wurde (siehe 6700 XT vs. 6900 XT). Abgesehen davon: Das SI in den MCDs ist ja weiterhin 6nm.

Die Taktraten werden wahrscheinlich ähnlich aggressiv werden, wie bei Zen4.

Wenn Red Gaming Tech Recht hat, dann liegt Navi33 deutlich über 3GHz, schon eher in die Richtung 3.3-3.4GHz.
Und so viel niedriger kann es eigentlich gar nicht sein wenn 4K FP32 die 6900XT mit 5K FP32 schlagen sollen.

dargo
2022-06-15, 07:20:30
Laut dem letzten Red Gaming Tech Video:
.) Navi33 ist 6nm und wird +50% Energieeffizienz haben
.) Navi31/2 sind 5nm und werden +60/70% Energieeffizienz haben

Ein kleiner Lichtblick, dass N32 doch noch in die 300W (gerne weniger) passt? :)

OgrEGT
2022-06-15, 07:51:18
Da TSMC bei N5 von +40% geringerer Leistungsaufnahme spricht vs N7 wäre ich auch eher bei den +50% perf/W vlt etwas mehr...

HOT
2022-06-15, 08:01:03
Alle Navi sind N7P und alle CPUs sind in einem angepassten N7 gefertigt, AMD nennt diesen N7e.

N3x sind sicherlich N5P, auch N33, sonst hätte das anders auf der Roadmap gestanden.

Thunder99
2022-06-15, 09:06:38
N33 angepasst als PS5 Pro Chip?

AffenJack
2022-06-15, 09:12:18
Laut dem letzten Red Gaming Tech Video:
.) Navi33 ist 6nm und wird +50% Energieeffizienz haben
.) Navi31/2 sind 5nm und werden +60/70% Energieeffizienz haben

Auch wurde eine GCD Größe von nur 380-400mm² für Navi31. Das ist wohlgemerkt für die Single GCD Variante, wo ja der ganze IO Teil dann auch noch mit dabei ist. Falls das stimmt, dann ist AMD hier ein kleines Wunder geglückt was die Performance/Fläche angeht. Ich bin hier allerdings noch etwas skeptisch.

Halte ich immernoch für unglaubwürdig mit den 6nm und +50% Perf/W bei N33. Eins davon stimmt in meinen Augen nicht.

Nebenbei würde das darauf deuten, dass der Multichipansatz Energie kostet und zu einem schlechteren Perf/W durch die Kommunikation der Chiplets führt. Denn der Sprung von N33 zu N31/32 sollte durch 5nm größer werden, als nur 10-20%.

dargo
2022-06-15, 09:17:33
N33 angepasst als PS5 Pro Chip?
Könnte hinkommen, dass man sich da an N33 orientiert (Taktraten womöglich etwas geringer um die Effizienz zu steigern und eventuell teildeaktiviert um die Ausbeute zu steigern). Die PS4 Pro hatte auch nur 128% mehr TFLOPs als die PS4.
Nebenbei würde das darauf deuten, dass der Multichipansatz Energie kostet und zu einem schlechteren Perf/W durch die Kommunikation der Chiplets führt.
Das könnte ein für AMD akzeptabler Tradeoff sein um die Kosten zu senken.

HOT
2022-06-15, 09:42:24
Die PS5-Pro wird wieder das gleiche Featureset haben wie die originale PS5. Das wird also weiterhin RDNA2 werden.

mboeller
2022-06-15, 09:51:28
Da TSMC bei N5 von +40% geringerer Leistungsaufnahme spricht vs N7 wäre ich auch eher bei den +50% perf/W vlt etwas mehr...

also eigentlich steht da:


N5 technology provides about 20% faster speed than N7 technology or about 40% power reduction


https://www.tsmc.com/english/dedicatedFoundry/technology/logic/l_5nm

Also -40% ... von 100% auf 60% ... also 66,6% effizienter! Bruchrechnen mal wieder :)

1/0,6 = 1,667

Linmoum
2022-06-15, 10:39:59
RGT erwähnt übrigens noch in einem Tweet, dass laut einer seiner Quellen AMD wohl die Fertigungskosten für N31 rund 20-30% höher beziffert als noch für N21.

Ich denke grundsätzlich, dass man für N31 irgendwo in der 3090-Preisregion landen wird. Teuer aber nicht teuer genug, um Enthusiasten abzuschrecken. Vor allem dann nicht, wenn sich die Performance tatsächlich verdoppelt.

dargo
2022-06-15, 10:46:09
RGT erwähnt übrigens noch in einem Tweet, dass laut einer seiner Quellen AMD wohl die Fertigungskosten für N31 rund 20-30% höher beziffert als noch für N21.

Ich denke grundsätzlich, dass man für N31 irgendwo in der 3090-Preisregion landen wird. Teuer aber nicht teuer genug, um Enthusiasten abzuschrecken. Vor allem dann nicht, wenn sich die Performance tatsächlich verdoppelt.
Ok... dann sehen wir sicherlich die 1500€ wenn es bei 16GB bleibt, sonst eher mehr.

Thunder99
2022-06-15, 11:27:29
Die PS5-Pro wird wieder das gleiche Featureset haben wie die originale PS5. Das wird also weiterhin RDNA2 werden.
Hat sie doch, nur mehr Power in RT. Daher kann es schon N33 Derivate werden

Cyberfries
2022-06-15, 12:14:17
Mit RGT also wieder eine Stimme für N33 in N6.
Wäre merkwürdig, RDNA3 im Juni mit N5 anzukündigen um im Oktober das erste Produkt in N6 zu veröffentlichen.
Mit min. einer N5-Karte wäre wenigstens eine Ausrede da. Dass die Effizienzangaben merkwürdig sind wurde auch bereits genannt.

Kann natürlich auch sein, dass die Wahrheit irgendwo in der Mitte liegt. Bei all den mittlerweile widerlegten Gerüchten,
kann man da noch sicher ausschließen, dass nicht auch N33 auf ein Chiplet Konzept mit N5-GCD und N6-MCD setzt?
Ausgehend von N32 mit einem GCD mit 4SE und 4MCD (256bit SI / 256mb $) passt die Halbierung auf ein 2SE-GCD und 2 MCD zu gut.

Die PS5-Pro wird wieder das gleiche Featureset haben wie die originale PS5. Das wird also weiterhin RDNA2 werden.

Wieder mal mit absoluter Sicherheit und Überzeugung einfach eine Behauptung in den Raum gestellt.
Mit welcher Begründung sollte es beim bisherigen RDNA 1.5 bleiben?
Das ist schließlich kein Wechsel wie von der Cell-PS3 zur GCN-PS4, die PS4 Pro übernahm auch Polaris-Features.

Linmoum
2022-06-15, 12:29:21
Dass N33 weniger effizient wird kann schon durchaus sein. Dasselbe hat man bei der 6700XT schon gesehen, weil AMD den Chip hat höher takten lassen als N21.

Insofern finde ich das per se erst einmal nicht unglaubwürdig, dass die Perf/Watt-Steigerung bei N31/N32 größer ausfällt.

r3ptil3
2022-06-15, 13:47:35
Wird also das bestätigt was bereits vor über einem halben Jahr durch realitätsnähere Leaks vermutet wurde:

- Navi 33 Ende 2022
- in tiefen und mittleren Auflösungen gleich bzw. minimal schneller als eine RX 6900, dabei aber wesentlich effizienter (Total Power: 190-230W)
- in höheren Auflösungen dann gleichauf bzw. tendenziell schwächer als eine RX 6900
- Namensgebung: RX 7700 XT

Wenn der Preis stimmt (400-450$), scheint das eine ziemlich gute Karte zu werden.

HOT
2022-06-15, 13:49:49
[...]

Wieder mal mit absoluter Sicherheit und Überzeugung einfach eine Behauptung in den Raum gestellt.
Mit welcher Begründung sollte es beim bisherigen RDNA 1.5 bleiben?
Das ist schließlich kein Wechsel wie von der Cell-PS3 zur GCN-PS4, die PS4 Pro übernahm auch Polaris-Features.

Mit ABSOLUTER SICHERHEIT YEAH Du hast es nicht kapiert das ist GESETZ :freak:;D:cool:

robbitop
2022-06-15, 13:52:01
Wir haben mit den Pro Konsolen der letzten Generation bereits gesehen, dass neuere Featuresets in Hardware möglich waren und dass es Mechanismen gibt, damit bisherige Software lauffähig bleibt.

davidzo
2022-06-15, 13:52:43
Laut dem letzten Red Gaming Tech Video:
.) Navi33 ist 6nm und wird +50% Energieeffizienz haben
.) Navi31/2 sind 5nm und werden +60/70% Energieeffizienz haben


Bei AMD stehen 5nm und >50% auf einer Folie direkt nebeneinander. Das hätte man anders dargestellt wenn man damit 6nm und 50% meint bzw. 5nm und 70% meint.


N3x sind sicherlich N5P, auch N33, sonst hätte das anders auf der Roadmap gestanden.

N6 für N33 st eigentlich confirmed, eine AMD Engineer Jobbeschreibung ist eine ziemlich sichere Quelle.

Ebenso der wird der Base-Die für N31/32 wohl ebenso wie der Raphael i/o DIE in N6 gefertigt, was AMD anscheinend nicht davon abgehalten hat nur "5nm" auf die Folie zu schreiben über RNDA3. In diesem Fall schreiben sie eben nur den leading Node dort hin.

HOT
2022-06-15, 13:53:44
Hat sie doch, nur mehr Power in RT. Daher kann es schon N33 Derivate werden

Ein N33-Derivat sicher nicht. Ein SoC mit RDNA2 Featureset und deutlich mehr Leistung (auch und vor allem RT), ganz bestimmt.

davidzo
An N6 ist überhaupt nichts confirmed bei N33, das hat mal irgendein Mitarbeiter oder sowas vor Urzeiten behauptet. Es ergibt einfach keinen Sinn, das in N6 zu machen, das wird er Topchip für Mobile und hier MUSS AMD einen Fuss in die Tür bekommen. Und ich bin fest davon überzeugt, wenn 1/3 der RDNA3-Produkte nur 6nm ist, dann hätte das mit sehr großer Sicherheit auf der Folie gestanden, allein schon um irgendwelche juristischen Angriffspunkten von Aktionären vorzubeugen. Das war immerhin ein analyst day.

Linmoum
2022-06-15, 13:59:53
Bei AMD stehen 5nm und >50% auf einer Folie direkt nebeneinander. Das hätte man anders dargestellt wenn man damit 6nm und 50% meint bzw. 5nm und 70% meint.Deswegen meint man ja ziemlich sicher auch nur N5, wie man es auch auf der Roadmap unmissverständlich dargestellt hat.

N6 für N33 st eigentlich confirmed, eine AMD Engineer Jobbeschreibung ist eine ziemlich sichere Quelle.Da ist nichts confirmed. Confirmed sind unmissverständliche Angaben auf einer Roadmap und nicht der LinkedIn-Eintrag eines Mitarbeiters.

Dort stand auch für CDNA3/Mi300 als Node "6nm". Wie wir wissen, ist das falsch und AMD hat dort auf dem FAD (ebenfalls) 5nm bestätigt.

vinacis_vivids
2022-06-15, 14:15:52
6nm und eine N33 Taktrate von 3,3-3,4Ghz und 170W Verbrauch passt nicht ganz zusammen. Dafür ist 6nm nicht gut genug. Es sind immer noch recht dicke 4096SPs. Also wenn die Taktrate so hoch wird, schätze ich 5nm als wahrscheinlicher ein.

Derzeit ist N6 (N24) auf 2,8-3,0 Ghz limitiert.

OgrEGT
2022-06-15, 19:11:31
also eigentlich steht da:



https://www.tsmc.com/english/dedicatedFoundry/technology/logic/l_5nm

Also -40% ... von 100% auf 60% ... also 66,6% effizienter! Bruchrechnen mal wieder :)

1/0,6 = 1,667

Ja Du hast Recht, Danke!

Das ist dann aber wohl ein Optimum, wenn es TSMC so angibt.

iamthebear
2022-06-16, 01:03:51
An N6 ist überhaupt nichts confirmed bei N33, das hat mal irgendein Mitarbeiter oder sowas vor Urzeiten behauptet. Es ergibt einfach keinen Sinn, das in N6 zu machen, das wird er Topchip für Mobile und hier MUSS AMD einen Fuss in die Tür bekommen. Und ich bin fest davon überzeugt, wenn 1/3 der RDNA3-Produkte nur 6nm ist, dann hätte das mit sehr großer Sicherheit auf der Folie gestanden, allein schon um irgendwelche juristischen Angriffspunkten von Aktionären vorzubeugen. Das war immerhin ein analyst day.

Die 6nm waren schon vor dem Post bekannt. Das wurde damals nur als endgültige Bestätigung angesehen.
Später hat MLID (der komplett unabhängige Quellen hat und sich normalerweise wenig beeinflussen lässt) auch von 6nm gesprochen und als "very high confident" markiert.
Das würde sich dann auch mit diversen anderen Daten wie den 360-460mm² Doe Size spießen wenn es in 5nm wäre.

Dass solche Aktionen bei einem Investorenevent nicht besonders schlau sind, der Meinung bin ich auch. Auf der anderen Seite bezeichnet AMD Zen4 auch durchgehend als "5nm" obwohl nur der Compute Die 5nm hat.

6nm und eine N33 Taktrate von 3,3-3,4Ghz und 170W Verbrauch passt nicht ganz zusammen. Dafür ist 6nm nicht gut genug. Es sind immer noch recht dicke 4096SPs. Also wenn die Taktrate so hoch wird, schätze ich 5nm als wahrscheinlicher ein.

Derzeit ist N6 (N24) auf 2,8-3,0 Ghz limitiert.

Ein RDNA2 Die nicht aber wir wissen nicht welche Änderungen an der Architektur es geben wird.

Ja Du hast Recht, Danke!

Das ist dann aber wohl ein Optimum, wenn es TSMC so angibt.

Ich würde so Amgaben immer mit Vorsicht genießen da meistens nicht bekannt ist wo der Vergleichspunkt ist.
Intel hat hier z.B. bei Intel 4 vs. 7 den Vergleichspunkt bei 0.65V angesetzt. Das muss sich (vor allem bei der Taktrate) auf den Taktbereich übertragen lassen indem GPUs normalerweise laufen.

Abgesehen davon: Die Angaben beziehen sich bei TSMC auf N7 vs. N5. RDNA2 hatte schon N7P.

OgrEGT
2022-06-16, 09:31:29
Die 6nm waren schon vor dem Post bekannt. Das wurde damals nur als endgültige Bestätigung angesehen.
Später hat MLID (der komplett unabhängige Quellen hat und sich normalerweise wenig beeinflussen lässt) auch von 6nm gesprochen und als "very high confident" markiert.
Das würde sich dann auch mit diversen anderen Daten wie den 360-460mm² Doe Size spießen wenn es in 5nm wäre.

Dass solche Aktionen bei einem Investorenevent nicht besonders schlau sind, der Meinung bin ich auch. Auf der anderen Seite bezeichnet AMD Zen4 auch durchgehend als "5nm" obwohl nur der Compute Die 5nm hat.



Ein RDNA2 Die nicht aber wir wissen nicht welche Änderungen an der Architektur es geben wird.



Ich würde so Amgaben immer mit Vorsicht genießen da meistens nicht bekannt ist wo der Vergleichspunkt ist.
Intel hat hier z.B. bei Intel 4 vs. 7 den Vergleichspunkt bei 0.65V angesetzt. Das muss sich (vor allem bei der Taktrate) auf den Taktbereich übertragen lassen indem GPUs normalerweise laufen.

Abgesehen davon: Die Angaben beziehen sich bei TSMC auf N7 vs. N5. RDNA2 hatte schon N7P.

Laut Golem hat N7P eine bis zu 7% niedrigere Leistungsaufnahme als N7...

https://www.google.com/url?q=https://www.golem.de/news/n7-mit-euv-tsmc-startet-fertigung-von-apples-a13-chip-1905-141186.html&sa=U&ved=2ahUKEwiLjur3rrH4AhVeQvEDHa99D-8QFnoECAEQAg&usg=AOvVaw2FYtqVWZSEzsIFWt4AmTV6

Somit wäre die theoretische Reduktion von N7P vs N5 nochmal geringer also nur 33% und somit nur noch 49% effizienter... passt so besser zur Aussage von AMD auf dem FAD... wie gesagt ich bin auch der Meinung dass die +50% besseres perf/W nicht sehr viel höher sein werden als 50%...
Und um den Kreis wieder zu schließen wird die prognistizierte Leistung von 3DC eine entsprechende Leistungsaufnahme erfordern (siehe weiter oben im Thread) bzw dadurch begrenzt werden...

So wie AMD es dargestellt hat ist in den +50% perf/W alles schon eingepreist... da gibt es wohl keine weitere magic sauce...

https://pics.computerbase.de/1/0/3/8/0/5-98fecb1d38135f6e/article-1260x709.1b48bbb7.jpg

Lehdro
2022-06-16, 13:22:54
Auf der anderen Seite bezeichnet AMD Zen4 auch durchgehend als "5nm" obwohl nur der Compute Die 5nm hat.
Was aber legitim ist, da nur dort "Zen 4" vorhanden ist. Zen 4 ist die Kernarchitektur, nicht das Produkt. Und die Kerne sind nun einmal nur im Compute Die.

Linmoum
2022-06-16, 13:29:45
Eben. Analog zu "Zen4" (Chiplet, 5nm) haben wir auf der anderen Seite "RDNA3" (GCD, 5nm).

N33 basiert entweder auf einem monolithischen Die (N5) oder ebenfalls aus einem GCD (N5). Da AMD bei RDNA3 allgemein von "Chiplet Architecture" spricht, dürfte letzteres wahrscheinlich sein. Wie man es dreht und wendet, N33 ist nicht N6, wie bisher angenommen.

KarlKastor
2022-06-16, 15:25:26
@OgrEGT
Und Zen4 ist N5 und nicht N5P?

OgrEGT
2022-06-16, 15:52:49
@OgrEGT
Und Zen4 ist N5 und nicht N5P?
Weiß ich nicht... ist das schon bekannt?

iamthebear
2022-06-16, 16:22:31
Es ist ein Custom Node also schwer zu sagen wie sich der einordnen lässt.

basix
2022-06-17, 10:06:04
Zen 4 ist N5HPC

OgrEGT
2022-06-17, 12:45:52
Weiß man denn welcher 5nm Prozess für RDNA3 zum Einsatz kommt? Von Zen4 kann man da mMn nicht darauf schließen...

mboeller
2022-06-17, 14:04:45
von hier: https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/page-67#post-2255983

DUAL VECTOR ARITHMETIC LOGIC UNIT (https://www.freepatentsonline.com/y2022/0188076.html) Patent

könnte das RT verbessern? RT lastet, soweit ich das sagen kann die ALUs nur unzureichend aus. Wenn jetzt jede Vektor-ALU 2 statt nur 1 RT-Instruktion pro Zyklus abarbeiten kann wäre das doch hilfreich, oder?

AffenJack
2022-06-17, 14:13:16
Ist das Problem nicht eher, dass AMD nur Ray Intersection beschleunigt, während Nvidia und Intel auch BVH traversal beschleunigen?

Daher hat das damit doch nix zutun?

mksn7
2022-06-17, 14:16:18
Ehrlich gesagt hab ich aus den Bilder nicht genau verstanden was das tut, ich bin mir aber trotzdem recht sicher dass die Antwort nein ist. Ich erkenne nichts raytracing spezifisches. Die RT interscetion instructions dürften eher über mehrere cycles laufen, oder? Da müsste man ja bequem noch was anderes issuen können neben her.

Worauf basiert die Annahme dass RT die ALUS wenig auslastet? (Keine Kritik, ich bin nur neugierig)

mboeller
2022-06-17, 15:02:49
Worauf basiert die Annahme dass RT die ALUS wenig auslastet? (Keine Kritik, ich bin nur neugierig)

die diffusen Lichtstrahlen bei RT sind nicht kohärent und damit kann man soweit ich weiß die breiten ALUs bei GPUs (ähnlich wie bei Micro-Polygonen) nicht auslasten.

Gipsel
2022-06-17, 15:22:57
könnte das RT verbessern? RT lastet, soweit ich das sagen kann die ALUs nur unzureichend aus. Wenn jetzt jede Vektor-ALU 2 statt nur 1 RT-Instruktion pro Zyklus abarbeiten kann wäre das doch hilfreich, oder?Die "RT-Instruktionen" werden quasi von den TMUs abgearbeitet (da sitzt die RT-Einheit). Der Rest der CU macht nur die unterstützenden Operationen und den Kontrollfluß. Die ALU-Ressourcen auszubauen bringt also exakt gar nichts für RT.

Edit:

von hier: https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/page-67#post-2255983

DUAL VECTOR ARITHMETIC LOGIC UNIT (https://www.freepatentsonline.com/y2022/0188076.html) PatentDas ist übrigens praktisch auch ein Patent zum Register File Cache (und wie man so mit gleichbleibender Register-Bandbreite dann zwei SIMDs füttern kann).

Edit2:
Nach der Beschreibung im Patent benötigt es Dual Issue oder bei Single Issue 64 Elemente breite Wavefronts (ist ja bei RDNA immer noch eine Option) um die vALUs voll auszulasten.

Gratzner
2022-06-17, 15:29:40
Weiß man denn welcher 5nm Prozess für RDNA3 zum Einsatz kommt? Von Zen4 kann man da mMn nicht darauf schließen...
Doch, kann man. Seit Vega hat AMD begonnen, Verbesserungen von ZEN auch in den Grafikarchitekturen einzubauen. Bei Vega bspw. custom SRAM-Zellen und die Infinity Fabric. AMD wird sicherlich weiterhin für die GPUs und CPUs nur vollständig Designkompatible Prozesse nehmen, um diesen Austausch fortführen zu können.

Ist das Problem nicht eher, dass AMD nur Ray Intersection beschleunigt, während Nvidia und Intel auch BVH traversal beschleunigen?

Auch AMD RDNA2 beschleunigt BVH traversal (die 'Ray Accelerator' bei AMD können sowohl Schnittpunktest mit Dreiecken als auch mit bounding Volumes). Trotzdem ist die BVH traversal Beschleunigung von Ampere besser. RT besteht aus mehr als aus ray-triangle und ray-box Tests, bspw. komplexer Datenfluss, welcher (so wie ich das verstehe) Ampere wesentlich besser kann

AffenJack
2022-06-17, 15:49:40
Auch AMD RDNA2 beschleunigt BVH traversal (die 'Ray Accelerator' bei AMD können sowohl Schnittpunktest mit Dreiecken als auch mit bounding Volumes). Trotzdem ist die BVH traversal Beschleunigung von Ampere besser. RT besteht aus mehr als aus ray-triangle und ray-box Tests, bspw. komplexer Datenfluss, welcher (so wie ich das verstehe) Ampere wesentlich besser kann

Nein, bvh traversal wird von den Shadern ausgeführt bei AMD. Das wird nicht durch hardware beschleunigt, wie bei Nvidia.

Deswegen ist es aber auch sehr wahrscheinlich, dass RDNA3 deutlich besser in RT wird. Mit Hardwarebeschleunigung für BVH Traversal sollte man schon deutlich näher dran sein würde ich annehmen.

Gratzner
2022-06-17, 16:00:21
Doch, das Berechnen der ray/box intersection werden, so wie ich das verstehe, von den Ray Accelerators ausgeführt und nicht von den Shadern, die Instruction hierfür lauten:
IMAGE_BVH_INTERSECT_RAY
IMAGE_BVH64_INTERSECT_RAY

Edit: Oh ok, wenn natürlich die Schnittpunktstest mit dem BVH nicht zum BVH traversal zählt, dann hat AMD natürlich keine Hardwarebeschleunigung hierfür

Gipsel
2022-06-17, 16:03:11
Intersection != Tree Traversal

OgrEGT
2022-06-17, 16:06:59
Doch, kann man. Seit Vega hat AMD begonnen, Verbesserungen von ZEN auch in den Grafikarchitekturen einzubauen. Bei Vega bspw. custom SRAM-Zellen und die Infinity Fabric. AMD wird sicherlich weiterhin für die GPUs und CPUs nur vollständig Designkompatible Prozesse nehmen, um diesen Austausch fortführen zu können.

(...)


Aha, Danke das wusste ich nicht.

Wie dem auch sei, die +50% perf/W beinhalten alle Änderungen einschließlich dem 5nm Prozess (welcher auch immer genutzt wird).

- 5nm process
- advanced chiplet packaging
- rearchitected compute units
- optimized graphics pipeline
- next gen IF$


Was könnte darüberhinaus zu einer weiteren perf/W Steigerung führen, außer ggf. den Betriebspunkt zu verbessern, indem die Leistungsaufnahme begrenzt wird, was aber dann auch aller Wahrscheinlichkeit nach in einer geringeren Performance resultieren würde?

AffenJack
2022-06-17, 16:10:25
Doch, das Berechnen der ray/box intersection werden, so wie ich das verstehe, von den Ray Accelerators ausgeführt und nicht von den Shadern, die Instruction hierfür lauten:
IMAGE_BVH_INTERSECT_RAY
IMAGE_BVH64_INTERSECT_RAY

Wie Gipsel auch schreibt, das ist Ray Intersection und nicht BVH Traversal. BVH Traversal läuft auf den Shadern.

Intersection != Tree Traversal

@Gipsel
Denkst du BVH Traversal ist einfach zu implementieren und würde deutlich mehr Geschwindigkeit bei AMD bringen oder denkst du, dass es da noch andere Fallstricke in Sachen RT gibt? Kannst du da evtl ne grobe Einschätzung liefern?

mboeller
2022-06-17, 17:21:00
Die "RT-Instruktionen" werden quasi von den TMUs abgearbeitet (da sitzt die RT-Einheit). Der Rest der CU macht nur die unterstützenden Operationen und den Kontrollfluß. Die ALU-Ressourcen auszubauen bringt also exakt gar nichts für RT.



Danke ... schade

gedi
2022-06-17, 17:55:08
Ich vermute mal

RX 7600 = N33 - 6800 non XT mit 1.5x RT Performance
RX 7700 = N32 - 6900XTXH x 1.5 und RT >2.3x
RX 7800 = N31 - 6900XTXH x 2.1 und RT >2.9x
RX 7900 = N30 - 6900XTXH x 2.9 und RT > 3.7x

unl34shed
2022-06-17, 18:20:42
Wie Gipsel auch schreibt, das ist Ray Intersection und nicht BVH Traversal. BVH Traversal läuft auf den Shadern.

BHV Traversal ist doch eigentlich auch nur eine verkettete Liste, die je nach Resultat des Ray Intersectiontests einen neuen Datensatz lädt, von Anfangs Ray-Box intersection bis am Ende dann Ray-Triangle Intersection abgeglichen werden.

Sollten also eigentlich "nur" simple if else abfragen und ein load auf den CUs sein.

OgrEGT
2022-06-17, 18:56:26
Ich vermute mal

RX 7600 = N33 - 6800 non XT mit 1.5x RT Performance
RX 7700 = N32 - 6900XTXH x 1.5 und RT >2.3x
RX 7800 = N31 - 6900XTXH x 2.1 und RT >2.9x
RX 7900 = N30 - 6900XTXH x 2.9 und RT > 3.7x

Und das Ganze bei welcher Leistungsaufnahme?

Was ist N30?

Neurosphere
2022-06-17, 19:49:47
Und das Ganze bei welcher Leistungsaufnahme?

Was ist N30?

Greymon55 hat bei Twitter aufgebracht das es einen Chip oder zumindest ein Konzept geben soll das über 16384SP verfügt. Hatte Leo am 15. auf der Hauptseite.

reaperrr
2022-06-17, 20:11:53
Was könnte darüberhinaus zu einer weiteren perf/W Steigerung führen, außer ggf. den Betriebspunkt zu verbessern, indem die Leistungsaufnahme begrenzt wird, was aber dann auch aller Wahrscheinlichkeit nach in einer geringeren Performance resultieren würde?
Wahrscheinlich nichts, weil man so ziemlich jede Detailverbesserung der Perf/W grundsätzlich mindestens einer dieser 5 Kategorien zuordnen kann.

RDNA3 hat z.B. erstmals vollständige DCC die komplette Pipeline hindurch. Dadurch spart man sowohl das dekomprimieren für die Pipelinestages, die vorher nur mit dekomprimierten Daten umgehen konnten, als auch wahrscheinlich nochmal etwas Bandbreite. Das zählt aber unter 'optimized graphics pipeline'.

Die Yieldrate von N5 soll super sein, so dass man selbst beim relativ großen N31-GCD wahrscheinlich etwas aggressiver binnen kann, als noch bei N21. Das ist aber halb Prozess, halb Chiplet-Packaging usw.

Da RDNA3 ziemlich hoch takten soll, denke ich, dass man die Pipeline weiter verlängert hat (war bei RDNA2 auch schon eine der Maßnahmen, die zwar marginal IPC gekostet hat, aber mit für die deutlich höheren Taktraten bzw. höhere Effizienz bei gleichem Takt verantwortlich war). Aber auch das ist dann wieder Architektur/Pipeline-Optimierung.

Hinter einigen der 5 von AMD genannten Kategorien stecken halt zig Einzelmaßnahmen.

OgrEGT
2022-06-17, 22:07:20
Wahrscheinlich nichts, weil man so ziemlich jede Detailverbesserung der Perf/W grundsätzlich mindestens einer dieser 5 Kategorien zuordnen kann.

RDNA3 hat z.B. erstmals vollständige DCC die komplette Pipeline hindurch. Dadurch spart man sowohl das dekomprimieren für die Pipelinestages, die vorher nur mit dekomprimierten Daten umgehen konnten, als auch wahrscheinlich nochmal etwas Bandbreite. Das zählt aber unter 'optimized graphics pipeline'.

Die Yieldrate von N5 soll super sein, so dass man selbst beim relativ großen N31-GCD wahrscheinlich etwas aggressiver binnen kann, als noch bei N21. Das ist aber halb Prozess, halb Chiplet-Packaging usw.

Da RDNA3 ziemlich hoch takten soll, denke ich, dass man die Pipeline weiter verlängert hat (war bei RDNA2 auch schon eine der Maßnahmen, die zwar marginal IPC gekostet hat, aber mit für die deutlich höheren Taktraten bzw. höhere Effizienz bei gleichem Takt verantwortlich war). Aber auch das ist dann wieder Architektur/Pipeline-Optimierung.

Hinter einigen der 5 von AMD genannten Kategorien stecken halt zig Einzelmaßnahmen.

Glaub ich auch. Womit viel mehr als +50% nicht drin sein werden. Mit +55% und auf 300W (N32) bzw. 375W (N31) begrenzt:

Karte / perf index 4k / Leistungsaufnahme / perf/W (Igor)
6900xt / 112% / 360W / 0,31
6800xt / 100% / 319W / 0,31
6800 / 87% / 229W / 0,38
6700xt / 67% / 226W / 0,30
6600xt / 46% / 153W /0,30
----------------------------------------
Karte / perf/W (Basis 6800) / perf index 4k (1,7 - 2,0x 6600xt - 3DC) / Leistungsaufnahme
7700xt (N33) / 0,57 (+50%) / 78% - 92% / 138 - 162W
7700xt (N33) / 0,59 (+55%) / 78% - 92% / 133 - 157W
7700xt (N33) / 0,57 (+50%) / 127% / 225W
7700xt (N33) / 0,59 (+55%) / 132% / 225W

Karte / perf/W (Basis 6800) / perf index 4k (2,4 - 3,0x 6700xt - 3DC) / Leistungsaufnahme
7800xt (N32) / 0,57 (+50%) / 162% - 202% / 284 - 354W
7800xt (N32) / 0,59 (+55%) / 162% - 202% / 277 - 346W
7800xt (N32) / 0,57 (+50%) / 170% / 300W
7800xt (N32) / 0,59 (+55%) / 175% / 300W

Karte / perf/W (Basis 6800) / perf index 4k (2,0 - 2,5x 6900xt - 3DC) / Leistungsaufnahme
7900xt (N31) / 0,57 (+50%) / 224% - 280% / 390 - 490W
7900xt (N31) / 0,59 (+55%) / 224% - 280% / 383 - 479W
7900xt (N31) / 0,57 (+50%) / 212% / 375W
7900xt (N31) / 0,59 (+55%) / 219% / 375W

Edit mit 7700xt

Linmoum
2022-06-17, 22:30:12
Es können genauso gut auch +60%, +70% oder +80% sein. AMD kann die ">50%" schlicht auch als Basis genommen haben. Nur weil da nicht 70% stehen, heißt es nicht gleich, dass es nicht möglich ist.

Man weiß jetzt schon, dass die ">15% ST" bei Zen4 extrem konservativ sind, da

a) der Takt um mindestens 14,3% (es werden 5.6GHz aufwärts, laut AMD selbst ">5.5GHz" Takt) und
b) die IPC um 8-10% steigen wird.

(Mindestens) +14,3% Takt und +8-10% IPC resultieren nicht nur in +15% ST Performance. Dafür brauch ich kein Mathematiker sein oder den Launch abwarten um zu wissen, dass das schlicht Quatsch ist. Und damit wiederum auch zu wissen, dass diese ">15%"-Angabe nicht das Maximum darstellt.

IMO sind das alles eher Angaben, die das Minimum darstellen, was die "schlechteste" Zen4-SKU bzw. RDNA3-SKU schaffen wird - und nach oben hin geht halt mehr.

Es ist aber natürlich nicht verkehrt, wenn man nicht zu viel erwartet. Dann wird man auch nicht enttäuscht.

OgrEGT
2022-06-17, 22:42:12
Mir ist gerade aufgefallen, dass N31, N32, N33 Vielfache von 2 SE sind... Wäre es möglich die GCDs "am Band" also in 1x2 SEs (N33), 2x2 SEs (N32), 3x2 SEs (N31) und ggf 4x2 SEs (N30?) Streifen vom Wafer zu schneiden?

Entsprechend mehrere große bzw. ein maximal großer Interposer mit entsprechend IF$ welcher mit dem entsprechenden GCD Streifen und mit entsprechender Anzahl an MCDs bestückt wird?

https://cdn.videocardz.com/1/2022/05/AMD-Navi-31-GPU.jpg

OgrEGT
2022-06-17, 22:43:58
Es können genauso gut auch +60%, +70% oder +80% sein. AMD kann die ">50%" schlicht auch als Basis genommen haben. Nur weil da nicht 70% stehen, heißt es nicht gleich, dass es nicht möglich ist.

Man weiß jetzt schon, dass die ">15% ST" bei Zen4 extrem konservativ sind, da

a) der Takt um mindestens 14,3% (es werden 5.6GHz aufwärts, laut AMD selbst ">5.5GHz" Takt) und
b) die IPC um 8-10% steigen wird.

(Mindestens) +14,3% Takt und +8-10% IPC resultieren nicht nur in +15% ST Performance. Dafür brauch ich kein Mathematiker sein oder den Launch abwarten um zu wissen, dass das schlicht Quatsch ist. Und damit wiederum auch zu wissen, dass diese ">15%"-Angabe nicht das Maximum darstellt.

IMO sind das alles eher Angaben, die das Minimum darstellen, was die "schlechteste" Zen4-SKU bzw. RDNA3-SKU schaffen wird - und nach oben hin geht halt mehr.

Es ist aber natürlich nicht verkehrt, wenn man nicht zu viel erwartet. Dann wird man auch nicht enttäuscht.

Wie gesagt, wenn die +50% perf/W mit allen architektonisch möglichen Veränderungen erreicht wurden, dann wäre die Frage wo die zusätzlichern +20-30% herkommen sollten?

Ich finde die Schätzung nicht zu pessimistisch, ich bin immerhin von der bei RDNA2 besten perf/W Karte ausgegangen (6800)... Ich würde eher davon ausgehen, dass noch höhere Leistung auch noch mehr Leistungsaufnahme erfordert (also die perf/W immer näher am Grenzbereich tendenziell schlechter wird), was bei den diversen OC Modellen sicherlich gemacht werden wird. Mal sehen wie hoch die gehen wollen... auch bis 450W? :eek:... muss man halt entsprechende Kühlung verwenden.

Wenn die perf/W darüber hinaus noch stärker gesteigert werden konnte, dann wird uns das alle freuen :cool:

bbott
2022-06-17, 23:11:00
Ich bin auch davon ausgegangen das RDNA 3 auch ~50% P/W verbessert, bei gleicher Fertigung, analog zu RDNA 2! Zumal AMD doch davon ausgehen muss, dass AMDs RNDA 2 bisher mittels besserer Fertigung eine ähnlich Effizient erreicht wie NV und RDNA 3 diesen Vorteil verliert. Daher hoffe ich das AMDs +50% Angabe sehr konservativ ist, anderenfalls läuft man NV wieder hinterher. Wenn man wieder Marktanteile gewinnen möchte muss AMD im Gaming rundum überzeugen.
Aber eins ist sicher, es bleibt spannend!

dargo
2022-06-18, 07:30:03
Wie gesagt, wenn die +50% perf/W mit allen architektonisch möglichen Veränderungen erreicht wurden, dann wäre die Frage wo die zusätzlichern +20-30% herkommen sollten?

Wahl vom Betriebspunkt, abhängig davon wo die Konkurrenz landet? Dadurch werden eventuell nicht gleich zusätzliche +30% erreicht, aber +10-15% halte ich durchaus für realistisch.

AffenJack
2022-06-18, 08:00:23
Ich bin auch davon ausgegangen das RDNA 3 auch ~50% P/W verbessert, bei gleicher Fertigung, analog zu RDNA 2! Zumal AMD doch davon ausgehen muss, dass AMDs RNDA 2 bisher mittels besserer Fertigung eine ähnlich Effizient erreicht wie NV und RDNA 3 diesen Vorteil verliert. Daher hoffe ich das AMDs +50% Angabe sehr konservativ ist, anderenfalls läuft man NV wieder hinterher. Wenn man wieder Marktanteile gewinnen möchte muss AMD im Gaming rundum überzeugen.
Aber eins ist sicher, es bleibt spannend!

Interessant, wovon man heutzutage so ausgeht-
Wie oft kamen +50% Perf/W ohne Herstellungsverbesserungen jemals vor?
Nur bei RDNA2 und Maxwell (Maxwell bin ich mir gerade nicht mal sicher). Beide haben fundamentale Änderungen (IF Cache und Tiling) gebracht, die Strom gespart haben. Sonst waren wir Prozess + Architekturänderung eher bei +50 - +70% Perf/W.

+50% Perf/W in 6nm ist für mich eher wieder ein Traumschloß, wie die +25% IPC bei Zen4. Die gab es auch nie vorher, aber hat die Leute trotzdem nicht an Behauptungen gehindert.

Mehr als +30% Perf/W wird es bei einem 6nm Produkt nur geben, wenn der Betriebspunkt anders gewählt wird, so dass man im Perf/W Optimum landet. Aber bestimmt nicht 2 GPUs in guten Betriebspunkten. Das heißt nicht, dass man in 5nm mit Packaging nicht evtl bei +60 oder 70% landen kann, aber da haben wir wieder einen neuen Prozess und Fertigungsverfahren, die wir nicht einschätzen können.

Cyberfries
2022-06-18, 08:25:45
Wäre es möglich die GCDs "am Band" also in 1x2 SEs (N33), 2x2 SEs (N32), 3x2 SEs (N31) ... Streifen vom Wafer zu schneiden?

Nein. Gibt auch Chipteile die nur je einmal vorhanden sind wie Command Processor oder PCI-Schnittstellen, Media...
Natürlich baut man einen Chip immer irgendwo symmetrisch auf, siehe N22 und N21, aber einfach in die passende Länge stanzen is nich.

Karte / perf index 4k / Leistungsaufnahme / perf/W (Igor)
6900xt / 112% / 360W / 0,31
6800xt / 100% / 319W / 0,31

360w für die 6900xt ist seltsam, im Test auf Igorslab (https://www.igorslab.de/greift-amd-nach-der-krone-radeon-rx-6900-xt-16-gb-im-test-mit-benchmarks-und-einer-technikanalyse/13/) werden 303,5w genannt, Leo ermittelt in seinem Verbrauchsüberblick (https://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-1112-grafikkarten) als Schnitt aus 11 Tests 303w.
Deine Werte stammen wahrscheinlich aus dem 6x50 Test, sind aber für 6900xt und 6800xt zu hoch. Gibts da eine Erklärung für?

Greymon55 hat bei Twitter aufgebracht das es einen Chip oder zumindest ein Konzept geben soll das über 16384SP verfügt.

Hat das nicht auch RGT genannt? Als Variante mit 2xN32 - so schnell kommt die Gerüchteküche über den Verlust der 2xGCD nicht hinweg.
Eher unwahrscheinlich. Oder will Apple doch nochmal einen AMD Mac Pro? Da gibts aktuell auch eine W6800x Duo...

OgrEGT
2022-06-18, 08:50:50
Nein. Gibt auch Chipteile die nur je einmal vorhanden sind wie Command Processor oder PCI-Schnittstellen, Media...
Natürlich baut man einen Chip immer irgendwo symmetrisch auf, siehe N22 und N21, aber einfach in die passende Länge stanzen is nich.



360w für die 6900xt ist seltsam, im Test auf Igorslab (https://www.igorslab.de/greift-amd-nach-der-krone-radeon-rx-6900-xt-16-gb-im-test-mit-benchmarks-und-einer-technikanalyse/13/) werden 303,5w genannt, Leo ermittelt in seinem Verbrauchsüberblick (https://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-1112-grafikkarten) als Schnitt aus 11 Tests 303w.
Deine Werte stammen wahrscheinlich aus dem 6x50 Test, sind aber für 6900xt und 6800xt zu hoch. Gibts da eine Erklärung für?



Hat das nicht auch RGT genannt? Als Variante mit 2xN32 - so schnell kommt die Gerüchteküche über den Verlust der 2xGCD nicht hinweg.
Eher unwahrscheinlich. Oder will Apple doch nochmal einen AMD Mac Pro? Da gibts aktuell auch eine W6800x Duo...
Liegt ggf daran dass Igor mit seinem Testaufbau die reale Leistungsaufnahme misst?
Die diversen Tools lesen ggf nur die Leistungsaufnahme aus die ohne bspw. Wandlerverluste in GPU und VRAM fließen?

Monsta
2022-06-18, 12:03:48
Liegt ggf daran dass Igor mit seinem Testaufbau die reale Leistungsaufnahme misst?
Die diversen Tools lesen ggf nur die Leistungsaufnahme aus die ohne bspw. Wandlerverluste in GPU und VRAM fließen?

Und warum schreibst Du dann 360Watt mit Quellenangabe Igor, er hat aber "nur" 303 Watt gemessen?

Oder verlink doch einfach den Test. Ich finde das sollte bei einer Diskussion standard sein.

https://www.igorslab.de/greift-amd-nach-der-krone-radeon-rx-6900-xt-16-gb-im-test-mit-benchmarks-und-einer-technikanalyse/13/

OgrEGT
2022-06-18, 17:38:47
Und warum schreibst Du dann 360Watt mit Quellenangabe Igor, er hat aber "nur" 303 Watt gemessen?

Oder verlink doch einfach den Test. Ich finde das sollte bei einer Diskussion standard sein.

https://www.igorslab.de/greift-amd-nach-der-krone-radeon-rx-6900-xt-16-gb-im-test-mit-benchmarks-und-einer-technikanalyse/13/

Zum guten Stil gehört sich erst mal selbst im Thread zu informieren bevor man andere anblafft... die Links habe ich alle weiter vorne gepostet...

mironicus
2022-06-18, 17:46:08
Wenn die Variante mit 2xN32 tatsächlich kommt dann ist der NVidia-Konter mit bis zu 800 Watt TDP wohl erklärbar, wobei sich AMD vielleicht den Luxus erlauben kann die Referenz-Version mit vielleicht gerade mal 450 Watt TDP auszustatten (mit guter Effizienz), während die Board-Partner OC-Versionen für maximale Leistung (600 Watt) bringen könnten.

OgrEGT
2022-06-18, 17:49:56
Hier gerne nochmal:
https://www.igorslab.de/radeon-rx-6950xt-rx-6750xt-und-rx-6650xt-im-test-mit-der-energetischen-brechstange-zum-klassensieg/7/

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79657&stc=1&d=1655567344

Ich glaub der Grund für die Abweichung beider Artikel ist dass in dem von mir als Referenz verwendeten Test Igor die Summe aus CPU und GPU angegeben hat... war ich so von ihm bei einem GPU Test eigentlich nicht gewohnt... das erklärt es dann aber...

Ne das kann es nicht sein... die CPU+GPU Diagramme sind nochmal extra...

askibo
2022-06-18, 17:56:09
war falsch

Linmoum
2022-06-18, 17:56:25
Das sind die Werte eines Custom-Designs von MSI, steht sogar im Review drin. Das hat nix mit Referenz zu tun. Wie auch, ohne manuellen Eingriff via MPT kriegst du die gar nicht so hoch, da sich das PT ansonsten nur um +15% hochziehen lässt.

Drei Karten auf einmal in gewohntem Umfang zu testen ist natürlich eine Mammutaufgabe – vor allem dann, wenn sie auch noch drei verschiedenen Leistungsklassen angehören. Ich habe deshalb einfach für alle Karten auch die drei üblichen Auflösungen genutzt und auch alles noch einmal frisch zusammen gebenchmarkt. Da AMD diesmal für den Launch auf Boardpartner-Karten setzt, habe ich natürlich sowohl für die entsprechenden AMD- als auch die NVIDIA-Karten auf MSIs Gaming-X- bzw. SUPRIM-X-Reihe zurückgegriffen, um vor allem beim Vergleich zwischen Alt und Neu einen fairen Vergleich rein mit Boardpartnerkarten eines Herstellers zu garantieren.

OgrEGT
2022-06-18, 20:43:34
Das sind die Werte eines Custom-Designs von MSI, steht sogar im Review drin. Das hat nix mit Referenz zu tun. Wie auch, ohne manuellen Eingriff via MPT kriegst du die gar nicht so hoch, da sich das PT ansonsten nur um +15% hochziehen lässt.

Jupp :) Habe bei Igor gefragt und er meinte, dass aber auch Monate zwischen den Artikeln gelegen haben und das andere Spiele, andere Treiber als auch eine schnellere CPU zum Einsatz kam...

Eigentlich müsste man nun das Ganze nochmal mit den Referenzkarten berechnen... wobei bei der 6800, welche ich als Referenzwert für perf/W verwendet habe kein großer Unterschied in der Leistungsaufnahme zwischen beiden Artikeln besteht (ca. 5W) und somit sich auch perf/W damit nicht wirklich ändert...

Etwas schon...

https://www.igorslab.de/greift-amd-nach-der-krone-radeon-rx-6900-xt-16-gb-im-test-mit-benchmarks-und-einer-technikanalyse/13/
Karte / perf index 4k / Leistungsaufnahme / perf/W (Igor)
6900xt / 108% / 304W / 0,35
6800xt / 100% / 299W / 0,33
6800 / 88% / 225W / 0,39
----------------------------------------
Karte / perf/W (Basis 6800) / perf index 4k (2,0 - 2,5x 6900xt - 3DC) / Leistungsaufnahme
7900xt (N31) / 0,58 (+50%) / 215% - 269% / 368 - 460W
7900xt (N31) / 0,60 (+55%) / 215% - 269% / 356 - 445W
7900xt (N31) / 0,58 (+50%) / 219% / 375W
7900xt (N31) / 0,60 (+55%) / 227% / 375W

Gipsel
2022-06-20, 11:56:18
Interessant, wovon man heutzutage so ausgeht-
Wie oft kamen +50% Perf/W ohne Herstellungsverbesserungen jemals vor?
Nur bei RDNA2 und Maxwell (Maxwell bin ich mir gerade nicht mal sicher).Hmm, RV770 vs. RV670? :lol:

Der_Korken
2022-06-20, 13:10:39
Hmm, RV770 vs. RV670? :lol:

Afaik hat RV770 gut 50% mehr verbraucht und war nur gut doppelt so schnell. Also "nur" +33%. Ist aber schwer zu sagen, weil damals fast immer nur Systemverbrauch an der Steckdose gemessen wurde, was für die Vergleichbarkeit natürlich totaler Müll ist (vor allem wenn Spiele benutzt wurden, die auch die CPU belasten und das umso mehr, je schneller die Graka ist).

mboeller
2022-06-20, 13:44:01
Afaik hat RV770 gut 50% mehr verbraucht und war nur gut doppelt so schnell. Also "nur" +33%. Ist aber schwer zu sagen, weil damals fast immer nur Systemverbrauch an der Steckdose gemessen wurde, was für die Vergleichbarkeit natürlich totaler Müll ist (vor allem wenn Spiele benutzt wurden, die auch die CPU belasten und das umso mehr, je schneller die Graka ist).

Verbrauch +36%
https://www.computerbase.de/2008-07/test-radeon-hd-4870-cf-vs-geforce-gtx-260-sli/26/

bei hohen Auflösungen +100% Leistung

Kommt also an die +50% ran.

Der_Korken
2022-06-20, 13:56:26
Verbrauch +36%
https://www.computerbase.de/2008-07/test-radeon-hd-4870-cf-vs-geforce-gtx-260-sli/26/

bei hohen Auflösungen +100% Leistung

Kommt also an die +50% ran.

Lies bitte meinen Beitrag nochmal und guck dir dann die Diagramme und die Beschreibung an :D

mboeller
2022-06-20, 14:06:46
Lies bitte meinen Beitrag nochmal und guck dir dann die Diagramme und die Beschreibung an :D

hab ich :D

ergo +36% Verbrauch; +100% Leistung... macht +47% Perf./Watt Verbesserung

vinacis_vivids
2022-06-20, 14:11:01
Und das bei gleichem 55nm Prozess. Spricht die uArch wurde krass verbessert. Bei RDNA2 zu RDNA3 sind die 50% Perf/Watt bei einem Node-Sprung von 7nm zu 5nm. Gut der Leistungssprung wird deutlich größer sein als +100%.

Der_Korken
2022-06-20, 14:13:26
hab ich :D

ergo +36% Verbrauch; +100% Leistung... macht +47% Perf./Watt Verbesserung

Ja aber +36% auf das ganze System. Wenn die CPU in beiden Benches gleich viel verbraucht hat, hat die Graka deutlich mehr als 36% zugelegt (vor allem weil Grakas damals nicht so krass mehr verbraucht haben als CPUs). Falls die CPU mehr verbraucht hat, dann kann es irgendein Zuwachs gewesen sein. Ich erinnere mich grob an 80W für RV670 und 130W für RV770 von einer Seite, die das an der Graka selber gemessen hat. Die Quelle finde ich aber bestimmt nicht mehr...

Gipsel
2022-06-20, 14:21:41
Afaik hat RV770 gut 50% mehr verbraucht und war nur gut doppelt so schnell. Also "nur" +33%.Ich könnte jetzt natürlich HD3870 (voller RV670, 106W) gegen HD4850 (voller RV770, 110W) anführen (beides offizielle TDP, hatten beide auch nur einen 6pin-Stecker). :wink:
Aber hast schon recht, das Topmodell HD4870 zog bei entsprechender Last über 150W (offiziell war die TDP wohl 151W, die eine Messung die ich sah, sagte 160W im Maximum), was so grob den von Dir genannten ~50% Mehrverbrauch entspricht.
Edit: Da Du 130W nennst, das kann in einem bestimmten Test durchaus so gewesen sein. Damals zogen die Karten ja je nach Tests noch deutlich unterschiedlich, weil es damals noch quasi keine Powerlimitierung wie heute gab (bei AMD/ATI, nV mußte das mit Fermi eine Generation früher angehen). Wenn also jemand mit Furmark (oder auch anderen Dingen) anrückte, ging der Verbrauch deutlich hoch (weswegen dann zuerst Treiberlimitierungen für bestimmte Anwendungen eingeführt wurden und dann ab der HD6000er-Serie Powertune als Vorläufer der heute üblichen Boostmechanismen/Powerlimits).

mboeller
2022-06-20, 14:35:41
Ja aber +36% auf das ganze System. Wenn die CPU in beiden Benches gleich viel verbraucht hat, hat die Graka deutlich mehr als 36% zugelegt (vor allem weil Grakas damals nicht so krass mehr verbraucht haben als CPUs). Falls die CPU mehr verbraucht hat, dann kann es irgendein Zuwachs gewesen sein. Ich erinnere mich grob an 80W für RV670 und 130W für RV770 von einer Seite, die das an der Graka selber gemessen hat. Die Quelle finde ich aber bestimmt nicht mehr...

RV4870 idle: 197w; Last 333w -> +136w
RV3870 idle: 136w; Last 245w -> +109w

136/109 = +25%

aus dem CB Diagramm

Gipsel
2022-06-20, 14:39:35
Der Kram ist so alt, darüber muß man sich nicht unbedingt jetzt noch streiten. ;)

Der_Korken
2022-06-20, 15:40:37
RV4870 idle: 197w; Last 333w -> +136w
RV3870 idle: 136w; Last 245w -> +109w

136/109 = +25%

aus dem CB Diagramm

OK, Differenz sagt schon mehr aus, aber die 4870 hat mal eben satte 60W mehr im idle trotz gleichem Testsystem. Vom Idle-Verbrauch der 4850 aus gerechnet (GDDR5 hatte damals bei AMD einen komischen Bug und taktete im idle nicht runter) wären als 176W vs 109W.

Letztendlich will ich hier aber auch keine Haare spalten. Eigentlich wollte ich mit dem ersten Post nur sagen, wie außergewöhnlich +50% Perf/W im gleichen Prozess waren und sind. Da täuscht manchmal ein wenig die Erinnerung, weil damals noch nicht so streng auf den Verbrauch geachtet wurde, sondern eher auf das Leistungsplus.

Dovregubben
2022-06-20, 15:57:01
Gut der Leistungssprung wird deutlich größer sein als +100%.
https://i.imgflip.com/6k9qr8.jpg

BlacKi
2022-06-24, 11:02:10
Der Kram ist so alt, darüber muß man sich nicht unbedingt jetzt noch streiten. ;)


daüberr aber vl, warum amd nun auf den neuen 600w stecker setzen wird;)


400w+ incomming. https://videocardz.com/newz/amd-confirms-radeon-7000-rdna3-will-have-increased-power-consumption

Linmoum
2022-06-24, 11:38:18
Auf den 12VHPWR wird jeder Hersteller zukünftig setzen, weil es einfach nur logisch und sinnvoll ist, einen universellen Anschluss auf allen Karten zu haben.

Dass AMD nicht bei 300W bleiben wird, ist jetzt auch keine große Erkenntnis. Aber ich bleibe dabei, dass wir am Ende 375W-400W sehen werden. Damit kriegt man bei >50% Perf/Watt auch problemlos doppelte Performance hin. Die Schluckspechte kann NV dann wieder bauen mit +5% Performance für 489W mehr (ok, überspitzt, aber Intention ist dieselbe).

Cyberfries
2022-06-24, 11:51:00
“Performance is king, but even if our designs are more power-efficient,
that doesn’t mean you don’t push power levels up if the competition is doing the same thing.

It’s just that they’ll have to push them a lot higher than we will.”

Das ist ne deutliche Aussage.
Man geht offensichtlich davon aus mit wesentlich niedrigerer Leistungsaufnahme auszukommen.

Dass der 12pin-Stecker kommt ist klar.
Mit PCIe + 2x 8pin sind 366w die Obergrenze, das reicht schon für viele Customs nicht mehr aus.
N31 wird das wohl kaum einhalten, optimistischere Stimmen gehen immerhin von mindestens 375w aus.

fondness
2022-06-24, 12:20:48
Zitat:

“Performance is king, but even if our designs are more power-efficient,
that doesn’t mean you don’t push power levels up if the competition is doing the same thing.

It’s just that they’ll have to push them a lot higher than we will.”

Woher stammt das Zitat? Das ist ja eine sehr deutliche Aussage wenn von offizieller Stelle.

Linmoum
2022-06-24, 12:27:15
Aus dem VCZ-Link von Blacki. Interview mit Naffziger von AMD. Die Aussage ist in der der Tat deutlich. Sowohl, dass man beim Verbrauch höher gehen wird (was logisch ist, wenn man allein deutlichere Leistungssteigerungen ohne explodierende Kosten haben will) als auch, dass man trotzdem (scheinbar) nicht die Brechstange rausholen wird. Passt aber auch beides zu AMDs Strategie bzgl. Perf/Watt. Und letzteres schließt höheren Verbrauch ja nicht aus, dafür impliziert es aber eine in Relation deutlich höhere Leistungssteigerung. ;)

prinz_valium_2
2022-06-24, 12:47:23
Bin mal gespannt, ob es zum ersten mal eine AMD GPU für mich gibt.
Kommt nur noch auf den Preis an.

nVidia passt mir beim geringen Ram nicht, bei der zu hohen Leistungsaufnahme und auch bei Preis/Performance könnten sie das erste mal deutlich hinter AMD liegen.


Treiber sind auch kein nVidia Grund mehr, mit Konsolen, die seit 2 Generationen nun auf AMD Lösungen basieren.
Spannende Generation.
Aber die Prese müssen stimmen. Was gutes im 350€ Bereich

BlacKi
2022-06-24, 13:11:47
rdna3 ist nicht rdna3. die rx6800 ist schließlich auch wesentlich effizienter als die anderen modelle. das die +50% effizienz auf alle modelle zutreffen wird, davon würde ich nicht ausgehen.

dargo
2022-06-24, 13:19:44
Effizienzvergleiche beziehen sich immer auf die volle SKU, alles andere wäre hirnverbrannt.

Linmoum
2022-06-24, 13:22:24
RDNA2 und die damaligen Aussicht auf die Perf/Watt-Steigerung hat AMD explizit mit "up to" angegeben. Diesmal machen sie es pauschal für RDNA3 mit ">".

Also doch, IMO umfasst das auch sämtliche darauf basierende Produkte.

BlacKi
2022-06-24, 13:27:20
projected. alles kann, nix muss.

die folie ist doch jetzt schon nicht komplett richtig. ich meine, n33 kommt nicht in 5nm? also steht sowieso alles unter eine fragezeichen?

Linmoum
2022-06-24, 13:31:00
Projected ist dasselbe wie subject to change auf Roadmaps.

Ich sehe keinen Grund, warum man das so angeben sollte, wenn man bereits weiß, dass es RDNA3-SKUs mit "nur" +40% geben sollte.

ChaosTM
2022-06-24, 13:36:03
Hm, wenn man da ein bisschen herum rechnet könnte man mit ~250 Watt ca. 3090er Leistung erreichen. So was in der Art erhoffe ich mir von einem der beiden Hersteller. 300 dürfen es zur Not auch noch sein, dann sollte es aber schon Richtung ti gehen.

prinz_valium_2
2022-06-24, 14:24:05
RDNA2 und die damaligen Aussicht auf die Perf/Watt-Steigerung hat AMD explizit mit "up to" angegeben. Diesmal machen sie es pauschal für RDNA3 mit ">".

Also doch, IMO umfasst das auch sämtliche darauf basierende Produkte.

Erwarte ich auch so.
Klar kann man es nie genau wissen, bevor das Produkt nicht vorgestellt und getestet wurde, aber diesmal bin ich ausnahmsweise sehr optimistisch.

War ich bei einer AMG GPU so noch nie.
Aber das ganze Geld und die Erfahrung aus dem CPU Bereich muss irgendwann auch mal im GPU Bereich Früchte tragen.

dargo
2022-06-24, 14:37:56
Hm, wenn man da ein bisschen herum rechnet könnte man mit ~250 Watt ca. 3090er Leistung erreichen.
Das wäre imo schon fast enttäuschend. Die 3090 ist doch nichts Besonderes. Bei CB ist eine Custom 3090 in 1440p lächerliche 1% vor der 6900XT Referenz. In 4k sind es dann 8%.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_aktuelle_grafikkartenbenchmarks

Und die custom 3090 säuft garantiert mehr als die 350W einer 3090 Referenz. Also 3090 Performance erwarte ich eher bei 200-220W.

Edit:
386W bei RTX 3090 Strix OC.
https://www.computerbase.de/2020-11/asus-geforce-rtx-3090-test/2/#abschnitt_messung_der_leistungsaufnahme

DrFreaK666
2022-06-24, 14:51:38
sagen wir mal RT-Performance bei 250W. Das wäre nice

ChaosTM
2022-06-24, 14:59:49
Die RTRT Performance muss natürlich mitwachsen und sollte auf NV level liegen, sonst kaufe ich nicht, obwohl RT noch nicht DEN Stellenwert für mich hat derzeit.
Das sollte/kann sich aber mit hoffentlich stark steigender Leistung in dem Bereich ändern.

Ich hoffe da irgendwie stark auf den 3. Witcher. K.a. warum..

r3ptil3
2022-06-24, 15:59:52
“The demand for gaming and compute performance is, if anything, just accelerating, and at the same time, the underlying process technology is slowing down pretty dramatically — and the improvement rate. So the power levels are just going to keep going up. Now, we’ve got a multi-year roadmap of very significant efficiency improvements to offset that curve, but the trend is there.” […]

“Performance is king, but even if our designs are more power-efficient, that doesn’t mean you don’t push power levels up if the competition is doing the same thing. It’s just that they’ll have to push them a lot higher than we will.”

— Sam Naffziger, AMD’s Senior Vice President


https://www.tomshardware.com/features/gpu-chiplet-era-interview-amd-sam-naffziger

Linmoum
2022-06-24, 16:02:26
Guten Morgen! :D

r3ptil3
2022-06-24, 16:04:05
Ah... übersehen.

Schnitzl
2022-06-24, 20:40:27
Schade, AMD hat sich von nVidia an der Nase herum führen lassen.
Oder sie sind gerissener als ich denke ^^
Hoffe auf Zweiteres...

Unicous
2022-06-24, 20:57:24
Was für ein weirdes, kontextloses Statement.:confused:

Schnitzl
2022-06-24, 21:04:07
bezog sich hierauf: that doesn’t mean you don’t push power levels up if the competition is doing the same thing

Aber da ich sowieso nicht weiss, wer was und warum Leaked und wer wem glaubt bzw. auf den Leim geht hast du vermutlich Recht.
Ich weiss das ich nichts weiss.

Trotzdem hoffe ich immer noch dass AMD nicht mitgeht beim Watt-Wettrüsten

DrFreaK666
2022-06-24, 21:13:56
Ich könnte mir schon vorstellen dass AMD später eine 7970 ins Rennen schickt, die es mit der 4900Ti aufnehmen will

Linmoum
2022-06-24, 21:25:58
Sie können auch einfach direkt eine solche SKU bringen, hat sie bei N21 auch nicht dran gehindert. Davon ab ist AMD nicht dafür bekannt, den Vollausbau zurückzuhalten. Wird bei N31 auch sicherlich nicht nötig sein dank des Chiplet-Approaches und der kleineren Dies. Die Yields werden bei kolportieren <=400mm² sehr gut sein.

Trotzdem hoffe ich immer noch dass AMD nicht mitgeht beim Watt-WettrüstenAbsolute Performance > Effizienz >>> absoluter Verbrauch.

AMDs Fokus liegt klar auf zweiterem. Was heißt, dass die Performance deutlich stärker steigt als in Relation dazu der Verbrauch. Absoluter Verbrauch ist ein Nischen-Fetisch (klingt spitzfindig und übertrieben, ist es aber insbesondere im Enthusiasten-Segment), Performance hingegen nicht. Deswegen steigt auch der Verbrauch, in Relation zur Performance aber deutlich geringer.

Unicous
2022-06-24, 21:50:21
Ich hoffe inständig, dass AMD ein von Gerüchten, Leakern und den Medien heraufbeschworenes "Watt-Rennen" nicht mitmacht und die Brechstange im Schrank lässt. Wirklich niemand braucht eine 600W, 800W oder gar 900 Watt Heizung in seiner Wohnung/Haus auch wenn das vielleicht im Winter eine Möglichkeit sein könnte Gas zu sparen.:freak:

Ich fürchte, dass sich diese Situation bei den nächsten Generationen noch verschlimmert wenn man immer mehr Rasterleistung herauspumpt ohne Rücksicht auf... Verluste. Da muss auf Dauer eine Lösung gefunden werden, das lässt Intels 15 GHz-Alptraum wiederaufleben.

Außerdem gibt es eine Kaskade an Auswirkungen durch die gestiegenen Anforderungen. Mainboard, Netzteil, Kühlung nicht zu vergessen die Stromrechnung. Ich will auch gar nicht wissen was passiert wenn bzw. falls sich Crypto wieder erholt, das ist noch ein weiteres Horrorszenario.

@Linmoum

Das ist eine Strategie die AMD momentan (einigermaßen erfolgreich) verfolgt, das heißt nicht, dass sie ewig diesen Weg weitergehen. AMD hat es zeitweise einen feuchten Kehricht geschert wie effizient ihre Produkte waren, sowohl bei den CPUs als auch bei den GPUs. Mit Navi und zum Teil schon Vega hat sich das geändert, bedeutet aber nicht, dass sie nicht eine SKU herausbringen, die 500 Watt verbrät um 10% mehr Leistung herauszuholen. Und wenn man ehrlich ist könnte man die 6950 XT also solch eine SKU bezeichnen.;)

vinacis_vivids
2022-06-24, 22:41:27
Wenn Nvidia ein 800W Referenz-Board bauen lässt, muss AMD für 750W bauen lassen. Das sind nochmal extreme Zunahme der Bauteile für die Stromsteuerung.
Um den Vorsprung beim GPU-CLK zu halten müsste AMD auf 3.5Ghz takten können. NV scheint ja hervorragend zu sein was die Taktrate von 2.8Ghz spekuliert wird.

3.5Ghz sind fast Zen1 Level bei den CPU's. Das bringt vermutlich die Leistungskrone beim Raster. Bei Ray-Tracing schwer abzuschätzen wie die CUs umgebaut wurden. Auch der Einbau von fp8:fp32 zu 4:1 möglich.

Bei 12288SP und 3.5Ghz kommen 86 Tflops fp32 und 172 Tflops fp16 raus. Der Takt wird bei der CU-Breite extrem wichtig als Leistungsmultiplikator.

Ich glaube eher nicht an so einen hohen Takt beim ersten 5nm release von AMD, sondern eher 3.0-3,3Ghz Vernunftsgrenze.
Beschränkung auf 525W würde reichen.
Die 3.5Ghz sind vermutlich erst bei 750W machbar, also völlig außerhalb der optimalen Watt-Takt-Kurve. Aber wenn die Lederjacke 800W ankündigt vor seinem Ofen, muss AMD vorbereitet sein.

aceCrasher
2022-06-24, 23:06:37
Ich könnte mir schon vorstellen dass AMD später eine 7970 ins Rennen schickt, die es mit der 4900Ti aufnehmen will

Dieses mal dann die "7970 3GHz Edition"? ;D

DrFreaK666
2022-06-25, 06:57:54
Ich hoffe inständig, dass AMD ein von Gerüchten, Leakern und den Medien heraufbeschworenes "Watt-Rennen" nicht mitmacht und die Brechstange im Schrank lässt. Wirklich niemand braucht eine 600W, 800W oder gar 900 Watt Heizung in seiner Wohnung/Haus...

Es zwingt dich doch niemand so eine Karte zu kaufen

Unicous
2022-06-25, 07:06:59
:facepalm:


Wie ich solche Sätze liebe. Wie unreflektiert kann man eigentlich sein um solch eine banale Äußerung zu tätigen. Anstatt auf den gesamten Post einzugehen zitierst du einen Satz um einen Kothaufen davor zu setzen. :rolleyes:

Kein Satz zu den Argumenten die ich artikuliert habe, keine Gegenrede, nein... ein stumpfes "Dann geh doch woanders hin" muss für die hiesige Debattenkultur ausreichen.

DrFreaK666
2022-06-25, 07:50:49
Wie ich solche Sätze liebe...

Schön, dass du das liebst :)

robbitop
2022-06-25, 09:40:31
Ich sehe es persönlich so, dass man sich für sein Powerbudget die entsprechende SKU aussucht. Wenn die top dogs zu viel tdp haben, dann nimmt man eine darunter. Es ist davon auszugehen, dass Perf/W steigt. Aber offenbar steigt die Perf dieses Mal deutlich mehr als sonst also steigt auch die Leistungsaufnahme des top dogs. Was solls wenn man den üblichen Speung will bei gleicher tdp tut es wahrscheinlich ein Modell darunter.
Es ist einfach wie eine zusätzliche Option on top zu sehen IMO.
Für den Fall, dass die TDP durch einen extrem ungünstigen Betriebspunkt zustandekommt, kann man das ja auch selbst für sich einstellen. Es gibt ja alle Optionen.

Stumpf top skus zu verteufeln weil man ja immer die top sku gekauft hat und nur x budget für tdp hat finde ich ist ein sehr statischer Blickwinkel.
Wenn hypothetischerweise der IHV die top sku weglassen würde und die zweit sku den üblichen Sprung hinlegen würde, wären die Kritiker wahrscheinlich zufrieden. Dann sollte man es doch lieber als Option sehen.

Gäbe es eine SKU die 5x so schnell ist wie GA102 und dank besserer perf/W nicht das 5 fache sondern nur das 2,5-3 fache verbraucht wäre das effizienter aber trotzdem würde es kritisiert werden aufgrund der absoluten TDP.
Ich würde die SKU trotzdem haben wollen weil 5x perf! Betriebspunkt etwas optimieren und enthusiasten Kühlung vorhanden.

Dank breitem sku stack gibt es doch was für alle. Ich persönlich teile die statische Kritik von top skus nicht solange die perf/W relativ zum Vorgänger passt.

Mangel76
2022-06-25, 09:52:55
Ich sehe es persönlich so, dass man sich für sein Powerbudget die entsprechende SKU aussucht. Wenn die top dogs zu viel tdp haben, dann nimmt man eine darunter. Es ist davon auszugehen, dass Perf/W steigt. Aber offenbar steigt die Perf dieses Mal deutlich mehr als sonst also steigt auch die Leistungsaufnahme des top dogs. Was solls wenn man den üblichen Speung will bei gleicher tdp tut es wahrscheinlich ein Modell darunter.
Es ist einfach wie eine zusätzliche Option on top zu sehen IMO.
Für den Fall, dass die TDP durch einen extrem ungünstigen Betriebspunkt zustandekommt, kann man das ja auch selbst für sich einstellen. Es gibt ja alle Optionen.

Stumpf top skus zu verteufeln weil man ja immer die top sku gekauft hat und nur x budget für tdp hat finde ich ist ein sehr statischer Blickwinkel.

Dem kann ich nicht zustimmen. Das gilt nur, wenn oben eine zusätzliche Option dazukommt. Stattdessen rutscht aber das gesamte Sortiment im Verbrauch weiter, ohne dass unten etwas neues den leeren Platz füllt. Wenn man deiner Argumentation folgt ist man irgendwann beim kleinsten angelangt und dann gehen die Optionen aus. Es geht hier bei weitem nicht nur um das Topmodell, wenn die 4070 schon mit 300W erwartet wird. Und wenn man eine 3060 mit 12GB hat, wird eine 4050 mit 8?GB kaum als Option in Betracht kommen.

Schnitzl
2022-06-25, 10:01:53
Dem kann ich nicht zustimmen. Das gilt nur, wenn oben eine zusätzliche Option dazukommt. Stattdessen rutscht aber das gesamte Sortiment im Verbrauch weiter, ohne dass unten etwas neues den leeren Platz füllt. Wenn man deiner Argumentation folgt ist man irgendwann beim kleinsten angelangt und dann gehen die Optionen aus. Es geht hier bei weitem nicht nur um das Topmodell, wenn die 4070 schon mit 300W erwartet wird. Und wenn man eine 3060 mit 12GB hat, wird eine 4050 mit 8?GB kaum als Option in Betracht kommen.
THIS!!!
jetzt: 6700XT ~200W
bald: 7700 ~200W
danach: 8600XT ~200W
dann: 9600 ~200W
Irgendwann hat die Basiskarte schon 200W, was für ein Irrsinn.
Meine erste Grafikkarte hatte noch nicht mal nen Kühlkörper!

Linmoum
2022-06-25, 10:05:25
Namen sind Schall und Rauch. Wenn man wirklich 6900XT/3090-Performance bei ~200W bekommt, beschwert sich doch absolut niemand... Wobei, wenn ich das hier alles so lese. ;D

dargo
2022-06-25, 10:08:28
Namen sind Schall und Rauch. Wenn man wirklich 6900XT/3090-Performance bei ~200W bekommt, beschwert sich doch absolut niemand... Wobei, wenn ich das hier alles so lese. ;D
Das ist für einen Neueinsteiger und/oder einen Spieler der jetzt eine deutlich langsamere Karte hat sicherlich dann ein interessantes Angebot. Wer jetzt aber eine 6800XT/6900XT oder 3080(TI)/3090 hat für den ist das nur gähn... keiner kauft sich eine gleichschnelle bzw. kaum schnellere Karte nur weil sie sparsamer ist.

boxleitnerb
2022-06-25, 10:18:13
Namen sind Schall und Rauch. Wenn man wirklich 6900XT/3090-Performance bei ~200W bekommt, beschwert sich doch absolut niemand... Wobei, wenn ich das hier alles so lese. ;D

Sag mal ist es so schwierig, das zu verstehen, was wir hier meinen? Es ist egal wie die Produkte heißen und was man bekommt, wenn der absolute Verbrauch über die gesamte Palette steigt. Nur die wenigsten Kunden dürften selbst Hand anlegen. Das bedeutet dann potentiell Instabilität oder eben etwas Aufwand. Die Enthusiasten und Versierten bekommen das hin bzw. es ist ihnen zuzumuten, aber doch nicht 99% der Kunden insgesamt.

Schnitzl
2022-06-25, 10:20:34
Namen sind Schall und Rauch. Wenn man wirklich 6900XT/3090-Performance bei ~200W bekommt, beschwert sich doch absolut niemand... Wobei, wenn ich das hier alles so lese. ;D
6900XT Performance für 200W ... träum weiter
siehe hier:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4060-angeblich-mit-hoeherem-stromverbrauch-als-geforce-rtx-3070
Siehe Tabelle, seit Pascal/Turing dreht nVidia komplett durch...

ChaosTM
2022-06-25, 10:27:38
Alles bis 300W max kann ich noch schlucken (und mein NT auch, obwohl das nicht das Problem wäre)

Aus marketing-technischer Sicht verstehe ich den Wahnsinn, aber das Spiel kann man nicht ewig weiter spielen. Deshalb bin ich auch ein großer Fan von mobiler Hardware oder SOCs. Da geht der Unsinn einfach (noch) nicht.

Berniyh
2022-06-25, 10:36:15
Namen sind Schall und Rauch. Wenn man wirklich 6900XT/3090-Performance bei ~200W bekommt, beschwert sich doch absolut niemand... Wobei, wenn ich das hier alles so lese. ;D
Nur … bekommt man das wirklich?

Da die kleineren Karten ja oft in der Speicheranbindung (und auch im Cache) beschnitten sind gilt die Aussage von dir oft halt auch nur bei niedrigeren Auflösungen, nicht aber bei 4k.
Und gerade 4k ist doch da wo man mehr Leistung besser brauchen kann.

Ich hätte nichts dagegen eine 7700XT zu kaufen, aber wenn die dann bei 4k nix taugt, was will ich damit?

robbitop
2022-06-25, 10:37:29
Dem kann ich nicht zustimmen. Das gilt nur, wenn oben eine zusätzliche Option dazukommt. Stattdessen rutscht aber das gesamte Sortiment im Verbrauch weiter, ohne dass unten etwas neues den leeren Platz füllt. Wenn man deiner Argumentation folgt ist man irgendwann beim kleinsten angelangt und dann gehen die Optionen aus. Es geht hier bei weitem nicht nur um das Topmodell, wenn die 4070 schon mit 300W erwartet wird. Und wenn man eine 3060 mit 12GB hat, wird eine 4050 mit 8?GB kaum als Option in Betracht kommen.
Naja erstmal müsste es soweit kommen, dass man nach unten keine Optionen mehr hat. Mein Eindruck ist, dass soch da viel im Kopf abspielt. Psychologie. Das Model X was ich schon immer hatte muss in TDP Y sein. Wenn man von einer 200 W Ampere Karte auf eine 200 W Lovelacekarte wechselt und sie um die Perf/W Steigerung schneller ist, wo ist das Problem.

Mein Eindruck ist, dass einfach nur angenommen wird, dass die Effizienz nicht steigen wird. Trotz shrink und neuer uArch. Das wird mit ziemlicher Sicherheit aber bei Lovelace und RDNA3 der Fall sein. Sonst wäre das ein riesen Fail. Und dann wäre die Aufregung für mich verständlicher zumindest.

Ich würde sagen: abwarten. Ggf gibt es auch extrem geprügelte SKUs - aber es wird auch sicherlich welche geben die nicht geprügelt sind (Betriebspunkt). Dann wird man je nach tdp Budget mit extremst hoher Wahrscheinlichkeit das übliche Performance upgrade bekommen. „Nichts ist so heiß wie es gekocht wird.“ ;)

robbitop
2022-06-25, 10:43:03
Sag mal ist es so schwierig, das zu verstehen, was wir hier meinen? Es ist egal wie die Produkte heißen und was man bekommt, wenn der absolute Verbrauch über die gesamte Palette steigt. Nur die wenigsten Kunden dürften selbst Hand anlegen. Das bedeutet dann potentiell Instabilität oder eben etwas Aufwand. Die Enthusiasten und Versierten bekommen das hin bzw. es ist ihnen zuzumuten, aber doch nicht 99% der Kunden insgesamt.

So lange perf/W steigt ist der absolute Verbrauch zweitrangig solange es ein Produkt im jeweilgen TDP Budget gibt. Wenn man ein statisches Budget von vor 20 Jahren anlegt wäre das wahrscheinlich um die 100 W. Dafür gibt es auch Produkte - nur halt recht weit unten. Hätte man aber statisch die 100 W für den Topdog limitiert von damals bis heute wäre der heutige 100 W topdog auch nicht besser als ein heutiges modernes 100 W SKU Produkt. Denn uArchs werden pro SM/CU auf perf/W getrimmt. Alles andere ist nur skalierung der Anzahl der Ausführungseinheiten/Memorycontroern/Cache etc und des Betriebspunkts. Ich vermute aber es gäbe keine Kritik wenn es maximal 100 W SKUs gäbe und die halt dafür langsamer wären (1-2 gens zurück würde man liegen) weil man sich eben an performance/featurelevel gewöhnt.

Es ist vieles relativ und man muss um eine objektive Perspektive einnehmen können zu wollen einen neutralen Referenzpunkt wählen.

Nur … bekommt man das wirklich?

Da die kleineren Karten ja oft in der Speicheranbindung (und auch im Cache) beschnitten sind gilt die Aussage von dir oft halt auch nur bei niedrigeren Auflösungen, nicht aber bei 4k.
Und gerade 4k ist doch da wo man mehr Leistung besser brauchen kann.

Ich hätte nichts dagegen eine 7700XT zu kaufen, aber wenn die dann bei 4k nix taugt, was will ich damit?

Ich habe mir das vor 2 Jahren mal angeschaut und zumindest bis runter zu der 50er Reihe war bandbreite/tflop eigentlich nicht schlechter als weiter oben.

4K wäre mit hypothetischen 100 W topdog skus (in einem paralleluniversum wo dass der cap für gpus wäre) keine sinnvolle Option. Oder die Spiele wären vom feature level deutlich unhübscher.

Wenn man sich mal die Auflösungsentwicklung (und die der üblichen framerate) anschaut (und berücksichtigt dass Auflösung in 2 Dimensionen wächst) haben wir in den letzten 2 Jahrzehnten alles gleichzeitig bekommen:
- übliche Framerate ging hoch (heutige erwartung: 30 fps low end/ 60 fps mainstream / 120+ Hz high end) - grob Faktor 2
- Auflösung ging extrem hoch - fast Faktor 10 an Pixel
- BQ ging hoch

Ein guter Teil dieser irren (aber als selbstverständlich angesehenen) Steigerungen kam auch aus der Steigerung der TDP [die durch die Innovation im Wärmeabfuhrdesign der Komponenten getragen wurde. PCs sind sogar leiser als vor 20 Jahren obwohl sie viel mehr verbrauchen].

Mangel76
2022-06-25, 10:59:18
Naja erstmal müsste es soweit kommen, dass man nach unten keine Optionen mehr hat. Mein Eindruck ist, dass soch da viel im Kopf abspielt. Psychologie. Das Model X was ich schon immer hatte muss in TDP Y sein. Wenn man von einer 200 W Ampere Karte auf eine 200 W Lovelacekarte wechselt und sie um die Perf/W Steigerung schneller ist, wo ist das Problem.

Natürlich spielt die Psychologie da auch eine entscheidende Rolle. Und natürlich wird es Effizienzverbesserungen geben. Und ja, auch bei 200W wird es Möglichkeiten geben. Aber was ist mit Leuten, die bei 150W oder 120W sind? Und was ist mit anderen Abstrichen die man machen muss, wenn man eine Etage tiefer geht? VRAM? Qualität von Bauteilen und Kühlern?

Ich sehe hier ein Muster, was es in vielen Bereichen gibt. Nehmen wir die allseits beliebten Autovergleiche. Die Motoren wurden immer effizienter. Was hat man draus gemacht? Statt Verbrauch und Emissionen zu senken wurden die Autos immer größer und schwerer und es tat sich nichts am Gesamtausstoß, obwohl allen klar war, dass etwas passieren muss. Wir bereiten uns gerade auf eine Energiekrise vor bzw. stecken schon mitten drin und hier werden Mehrverbräuche gefeiert als tolle Entwicklung. Tut mir leid, aber ich kann das nicht mehr verstehen.

Auch dabei spielt die Psychologie eine entscheidende Rolle: das Schönreden gesellschaftlicher Fehlentwicklungen, die für einige Personen Vorteile bringen, für die Gesamtheit aber leider katastrophale Folgen haben wird. Und ja, auch die sicher folgende Relativierung, dass es sich hier ja nur um ein Randphänomen handelt, gehört genau in dieses psychologische Muster.

robbitop
2022-06-25, 11:03:54
Lies bitte den post danach. Der behandelt viele der Annahmen von kleineren skus.

Für mich ist ein Großteil (wie du ja nicht abstreitest) Psychologie. Aber kein „fetter werden“ ohne Mehrwert zu bringen (Autoanalogie passt gar nicht).
Und Psychologie sollte bei Kaufentscheidungen irrelevant sein da nicht rational. Und die besten Entscheidungen (außerhalb menschlichen Beziehungen) werden auf rein rationaler Basis gemacht. ;)

Linmoum
2022-06-25, 11:21:43
6900XT Performance für 200W ... träum weiter
siehe hier:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4060-angeblich-mit-hoeherem-stromverbrauch-als-geforce-rtx-3070
Siehe Tabelle, seit Pascal/Turing dreht nVidia komplett durch...Es gibt nicht nur Nvidia.

Du kannst ja mal deine Mathekenntnisse bemühen, wo man bei >50% Perf/Watt mit 6900XT-Performance landen würde.

medi
2022-06-25, 11:30:19
... keiner kauft sich eine gleichschnelle bzw. kaum schnellere Karte nur weil sie sparsamer ist.
Weil Strom halt billig ist. 4h x 365 x 300W x 35cent sind halt gerade mal 153€ Stromkosten im Jahr, oder auch 13€ im Monat. Sparst du 100W ein, bringt dir das ne Ersparnis von 4€ im Monat. Was sind schon 4€?
Der einzige Grund auf den Verbrauch zu achten ist die Wärmeabgabe, die in Sommer zur Belastung werden kann.

Cyberfries
2022-06-25, 11:44:40
Sparst du 100W ein, bringt dir das ne Ersparnis von 4€ im Monat. Was sind schon 4€?

Nach zwei Jahren ist das schon der Unterschied zwischen nem Ryzen 5800x und nem 5900x.
Bei vermutlich in Zukunft deutlich ansteigenden Strompreisen...

Der einzige Grund auf den Verbrauch zu achten ist die Wärmeabgabe, die in Sommer zur Belastung werden kann.

Und eventuell Lautstärke. Und eventuell zusätzliche Umstiegskosten durch Netzteil, Gehäuse, Lüfter...
Und eventuell Schäden/erhöhte Abnutzung an benachbarten Komponenten.

Es ist egal wie die Produkte heißen und was man bekommt, wenn der absolute Verbrauch über die gesamte Palette steigt.

Jupp ist ein Problem. Im aktuellen nVidia-Portfolio findet sich noch eine (!) Karte die die 150w-Grenze nicht reißt.
Zu befürchten ist, dass sich mit der kommenden Generation kein Produkt mehr in dem Bereich findet.
Und wenn man dann Prognosen zu 1000-2000w hört ... zum Glück gibts APUs.

basix
2022-06-25, 11:50:44
Naja erstmal müsste es soweit kommen, dass man nach unten keine Optionen mehr hat. Mein Eindruck ist, dass soch da viel im Kopf abspielt. Psychologie. Das Model X was ich schon immer hatte muss in TDP Y sein. Wenn man von einer 200 W Ampere Karte auf eine 200 W Lovelacekarte wechselt und sie um die Perf/W Steigerung schneller ist, wo ist das Problem.

Mein Eindruck ist, dass einfach nur angenommen wird, dass die Effizienz nicht steigen wird. Trotz shrink und neuer uArch. Das wird mit ziemlicher Sicherheit aber bei Lovelace und RDNA3 der Fall sein. Sonst wäre das ein riesen Fail. Und dann wäre die Aufregung für mich verständlicher zumindest.

Ich würde sagen: abwarten. Ggf gibt es auch extrem geprügelte SKUs - aber es wird auch sicherlich welche geben die nicht geprügelt sind (Betriebspunkt). Dann wird man je nach tdp Budget mit extremst hoher Wahrscheinlichkeit das übliche Performance upgrade bekommen. „Nichts ist so heiß wie es gekocht wird.“ ;)

Dann schau mal Pascal -> Ampere an:
- GTX 1050 = 60W
- RTX 3050 = 130W
===================
- GTX 1070 = 150W
- RTX 3070 = 220W
===================
- GTX 1080 Ti = 250W
- RTX 3090 = 350W (die 3090 Ti mit 450W lasse ich hier mal bewusst aussen vor)

--> Die besagten Optionen "unten rum" verschwinden. Oben wie im mittleren Bereich geht es weiter rauf, der gesamte Produkt-Stack rutscht bezüglich Verbrauch nach oben.
--> Bei AMD sieht es ähnlich aus, wenn auch noch nicht ganz so extrem

Klar, die Karten sind effizienter. Das wären sie bei geringerer TDP aber noch mehr. Selbstbegrenzung der TDP wäre nur mit mit minimalster Einbusse (wenn überhaupt) der "Lebensqualität" verbunden.

Off Topic:
Unsere Nachfolgegenerationen werden an dem "ich will mehr haben" keine Freude haben. Wie auch wir bereits keine Freude daran haben, was die Generationen vor uns bereits an Ressourcen verbraucht und zerstört haben. Beispiel sind Korallenriffe. Vor 30-40 Jahren sah das noch genial aus, heute einfach grau, da abgestorben. Ich hatte das mal mit meinem Vater diskutiert: Sie hätten ja entsprechend auch den Wohlstand erschaffen, von dem wir heute profitieren. Prinzipiell ja. Doch zu welchem Preis? Und unsere Vorgängergeneration war zudem in einer einzigartigen Zeit unterwegs, mit sagenhaftem technologischem und industriellem Fortschritt, alle Ressourcen waren genug vorhanden (oder man hat drauf geschissen) und das meiste der Umwelt noch intakt (Ausnahme ist das Ausrotten vieler Tierarten, welches bereits im 19. Jahrhundert stattgefunden hat). Wie viele schöne Orte sind heute gar nicht mehr schön, da zugepflastert oder verschmutzt?

Deswegen: Beschränkt man sich (leicht!) selber oder man nutzt etwas einfach länger, desto besser wird es uns langfristig gehen. Reduce, reuse, recycle sollte endlich mal in den Köpfen aller angekommen sein. Und zwar genau in dieser Reihenfolge. Oftmals noch intaktes Zeugs einfach wegzuwerfen ist ebenfalls ein Verhalten, welches erst über die letzten 50 Jahren entwickelt wurde. Vorher hat man Zeugs oftmals noch repariert oder anderweitig genutzt.

Höhere TDPs von Grafikkarten sind hier sicher nur ein sehr kleiner Teil des gesamten Übels. Ein Tropfen auf dem heissen Stein. Auf der anderen Seite kann man sich hier aber sehr leicht mit wie oben beschrieben nur geringsten Einbussen der Qualität einschränken. Deswegen ist dieser High-TDP Irrsinn genau das: Ein Irrsinn.

dargo
2022-06-25, 11:59:24
Weil Strom halt billig ist. 4h x 365 x 300W x 35cent sind halt gerade mal 153€ Stromkosten im Jahr, oder auch 13€ im Monat. Sparst du 100W ein, bringt dir das ne Ersparnis von 4€ im Monat. Was sind schon 4€?

Bei meinem Profil werden das nicht mal 1€ im Monat, ich spiele zu selten. Aber wer spielt bitte jeden Tag 4 Stunden lang? Ist das nicht schon etwas krank? :freak: Stelle ich mir jedenfalls schwierig vor, da kommst du ja sonst zu nix. Ok... wer keinen Schlaf braucht. :tongue:


--> Bei AMD sieht es ähnlich aus, wenn auch noch nicht ganz so extrem

Nein... dort sieht es anders aus. Schau dir die Produkte unten rum an. Die langsamste dGPU der aktuellen Gen fängt bei 53W an. ;)

medi
2022-06-25, 12:03:13
Höhere TDPs von Grafikkarten sind hier sicher nur ein sehr kleiner Teil des gesamten Übels. Ein Tropfen auf dem heissen Stein. Auf der anderen Seite kann man sich hier aber sehr leicht mit wie oben beschrieben nur geringsten Einbussen der Qualität einschränken. Deswegen ist dieser High-TDP Irrsinn genau das: Ein Irrsinn.
Bin ich prinizipiell bei dir. Vor allem warum braucht man so fette Grafikkarten? Weil man 144hz in 4k befeuern will.
Ich mach das Spiel nicht mit. 30/60Hz und 2560x1080 ist meine Anforderung und ich werde nen Teufel tun mir ne 4k Möhre vor die Nase zu stellen. Da reicht auch ne kleine Graka dann.
Meine mobile 3070 schwankt zw. 60 und 100W. Damit kann ich leben.

ChaosTM
2022-06-25, 12:03:56
4 Stunden waren in meiner "Blütezeit" des Gamings gar nix, aber damals haben Rechner nur eine Bruchteil von heute verbraucht. :)

dargo
2022-06-25, 12:09:11
Bin ich prinizipiell bei dir. Vor allem warum braucht man so fette Grafikkarten? Weil man 144hz in 4k befeuern will.

RAYTRACING!!! 111elf ;)

basix
2022-06-25, 12:25:19
Nein... dort sieht es anders aus. Schau dir die Produkte unten rum an. Die langsamste dGPU der aktuellen Gen fängt bei 53W an. ;)

Das ist noch ein positives Beispiel, ist aber ein rechter Krüppel ;) Nicht wegen der TDP sondern anderweitigen Merkmalen.

Die nächsthöhere Karte in Form der 6500 XT ist bereits bei >100W.

Mangel76
2022-06-25, 12:37:29
Lies bitte den post danach. Der behandelt viele der Annahmen von kleineren skus.

Für mich ist ein Großteil (wie du ja nicht abstreitest) Psychologie. Aber kein „fetter werden“ ohne Mehrwert zu bringen (Autoanalogie passt gar nicht).
Und Psychologie sollte bei Kaufentscheidungen irrelevant sein da nicht rational. Und die besten Entscheidungen (außerhalb menschlichen Beziehungen) werden auf rein rationaler Basis gemacht. ;)

Nun stell dich mal nicht so naiv. Lies die anderen Posts, da unten (TDP) ist nicht mehr viel los, wo der Großteil der Spieler kauft.

Und Psychologie sollte keine Rolle spielen bei Kaufentscheidungen? In welcher Welt lebst du denn? Das ist pure Psychologie, weil der Mensch nunmal kein Homo Oeconomicus ist, auch wenn die Wissenschaft es lange so dargestellt hat. Für rationale Entscheidungen gilt es nicht nur den Preis und die Leistung zu beurteilen. Die Vernachlässigung externer Kosten von Entscheidungen hat uns in die Situation gebracht, in der wir jetzt sind. Rationalität ist ungleich FPS pro Dollar!!!

ChaosTM
2022-06-25, 12:40:58
FPS/Watt/Leistung pro $ Verdienst/Vermögen
Wers hat, dem ist es wurscht.

add.: deshalb stehen wir auch am Abgrund, aber das ist ein ganz andere Geschichte ;)

robbitop
2022-06-25, 12:49:38
Dann schau mal Pascal -> Ampere an:
- GTX 1050 = 60W
- RTX 3050 = 130W
===================
- GTX 1070 = 150W
- RTX 3070 = 220W
===================
- GTX 1080 Ti = 250W
- RTX 3090 = 350W (die 3090 Ti mit 450W lasse ich hier mal bewusst aussen vor)

--> Die besagten Optionen "unten rum" verschwinden. Oben wie im mittleren Bereich geht es weiter rauf, der gesamte Produkt-Stack rutscht bezüglich Verbrauch nach oben.
--> Bei AMD sieht es ähnlich aus, wenn auch noch nicht ganz so extrem

Klar, die Karten sind effizienter. Das wären sie bei geringerer TDP aber noch mehr. Selbstbegrenzung der TDP wäre nur mit mit minimalster Einbusse (wenn überhaupt) der "Lebensqualität" verbunden.


Daran sieht man ja dass Nachfolgegens überhaupt nicht vergleichbar sind.
Die 3050 ist eine ganz andere Klasse als die 1050. Die haben nur die "50" gemein. Der Kern ist trotz shrink über doppelt so groß. Die 3050 verbraucht mehr aber ist viel schneller als sie mehr verbraucht.
Unterhalb der 3050 gibt es aktuell keine SKU das stimmt. Zumindest nicht bei NV. Bei AMD gäbe es eine 6500XT (die auch ihre bekannten Schwächen hat) und 6400.

Für die höheren Beispiele 1080ti und 1070 gibt es entsprechende Ampere SKUs mit gleichem TDP Budget, die aber schneller sind. Und genau das ist ja der Punkt.

Ja wer an der untersten Range was sucht, der hatte bei Ampere keine Wahl als die TDP zu erhöhen. Das stimmt. Aber in der mittleren und oberen Range -> kein Problem - es gibt Upgrademöglichkeiten von Pascal/Turing auf Ampere für gleiche TDP für mehr Performance.

Nun stell dich mal nicht so naiv. Lies die anderen Posts, da unten (TDP) ist nicht mehr viel los, wo der Großteil der Spieler kauft.

Das stimmt zum Teil tatsächlich. Da gebe ich dir recht.

Die am meisten genutzten GPUs sind die 1060 ti und 2060 (dafür gäbe es für vergleichbare TDP mit der 3050 und der Radeon 6600 ein upgrade), die 1650 + 1050ti (kein upgrade bei gleicher TDP möglich). Also für 2 von 4 der meist genutzten relativ niedrigen SKUs gibt es das upgrade für die anderen 2 nicht.

Aber ich vermute hier im Forum (weil sich ja hier die Diskussion gerade aufhält) ist das nicht repräsentativ. Die Leute, die im 3DCenter aufhalten sind eher in einer Filterblase die sich wahrscheinlich weiter oben bewegt. In der Mitte bis zum Topend. Und genau dort gibt es es TDP normierte Upgrades.

Und Psychologie sollte keine Rolle spielen bei Kaufentscheidungen? In welcher Welt lebst du denn? Das ist pure Psychologie, weil der Mensch nunmal kein Homo Oeconomicus ist, auch wenn die Wissenschaft es lange so dargestellt hat. Für rationale Entscheidungen gilt es nicht nur den Preis und die Leistung zu beurteilen. Die Vernachlässigung externer Kosten von Entscheidungen hat uns in die Situation gebracht, in der wir jetzt sind. Rationalität ist ungleich FPS pro Dollar!!!
Ich sage, dass die beste Kaufentscheidung auf der Summe der Vor- und Nachteile mit rationalen Fakten basiert. Dass es viele Abweichungen davon in der Praxis gibt, ist klar. Aber damit nimmt die Güte der Entscheidung eben ab. Ist ja jedem selbst überlassen. Ich persönlich finde, dass rationale Gründe wesentlich legitimeren Anlass zur Kritik bilden als emotionale. ;)

HOT
2022-06-25, 12:50:29
Es ist nur so, dass bei steigender Leistungsaufnahme die Karten auch unangenehmer werden. Die Stromrechnung dürfte dem Löwenanteil der Gamer eh egal sein, wenn sie jetzt nicht den letzten EUR umdrehen müssen. Aber so jemand kauft ja keine 400W-Karte.
Aber: Eine 400W-Karte verursacht Probleme beim evtl. vorhandenen Netzteil und zieht mal eben 100-150€ Folgekosten nach sich - die meisten Gehäuse sind nicht für 400W+ ausgelegt und es wird laut, was wiederum Folgekosten nach sich zieht, Leute mit Dachgeschosswohnungen werden sie sehr genau überlegen, ob sie sich ne 400W-Karte einbauen - es ist eigentlich nicht die Leistungsnahme aufgrund des ökologischen Problems relevant, das dürfte die meisten kaum tangieren, aber die handfesten Nachteile, dürften die meisten Leute definitiv im Blick haben.

ChaosTM
Du kannst schlichtweg nicht erwarten, dass andere Leute dafür ein Bewusstsein entwickeln. Das muss sich von selbst gesellschaftlich entwickeln und das kann nicht erzwungen werden, das braucht schlichtweg Zeit, das ist das Problem.

dargo
2022-06-25, 12:54:01
Das ist noch ein positives Beispiel, ist aber ein rechter Krüppel ;) Nicht wegen der TDP sondern anderweitigen Merkmalen.

Die nächsthöhere Karte in Form der 6500 XT ist bereits bei >100W.
Ja... das ist richtig. AMD hat sich beim Design von N24 keinen Gefallen getan. Das Ding hätte einfach mit 20 CUs designt werden müssen. Am besten auch noch ein 96Bit SI mit dann 6GB Speicher. Und ohne den bescheuerten Beschneidungen bei PCIe. Das wäre ein wesentlich runderes Endprodukt. Die Performancelücke zwischen N23 und N24 ist einfach viel zu groß. Die >100W der RX 6500XT resultieren auch wieder nur aus der Frequenz-Brechstange, ich sag nur ~2,9Ghz. :ucrazy:

ChaosTM
2022-06-25, 12:58:16
Das ist mir schon klar und das will ich auch nicht mehr.
Meine nächste Karte wird wahrscheinlich auch höchst unintelligent. Ich hab es eh schon aufgegeben, irgend jemand überzeugen zu wollen/können. Das funktioniert nicht. Wir sind (mich eingeschlossen) zu blöd.

Der Abgrund ist halt einfach da.. :D

robbitop
2022-06-25, 13:00:01
FPS/Watt/Leistung pro $ Verdienst/Vermögen
Wers hat, dem ist es wurscht.


Performancedelta / EUR ist eine Metrik, die sich IMO tatsächlich verschlechtert hat IMO. IMO gibt es hier nach wie vor rationale Gründe das zu kritisieren. (auch wenn es dafür Gründe in den steigenden Aufwendungen für RnD gibt - andererseits steigen aber auch die Gewinnmargen von TSMC, AMD und NV :D)

HOT
2022-06-25, 13:00:03
Das ist mir schon klar und das will ich auch nicht mehr.
Meine nächste Karte wird wahrscheinlich auch höchst unintelligent. Ich hab es eh schon aufgegeben, irgend jemand überzeugen zu wollen/können. Das funktioniert nicht. Wir sind (mich eingeschlossen) zu blöd.

Der Abgrund ist halt einfach da.. :D
Ich bin evtl. genau so unvernünftig, mal gucken. Ob der Abgrund da ist oder nicht ist egal, wir müssen damit leben, was wir in den Weg gestellt bekommen und damit bestmöglich klarkommen. Das war aber schon immer so ;). Wichtig wär halt nur: kunstruktiv, nicht destruktiv; Kooperation, nicht Spaltung; Entwicklung nicht Rückschritte.

Performancedelta / EUR ist eine Metrik, die sich IMO tatsächlich verschlechtert hat IMO. IMO gibt es hier nach wie vor rationale Gründe das zu kritisieren. (auch wenn es dafür Gründe in den steigenden Aufwendungen für RnD gibt - andererseits steigen aber auch die Gewinnmargen von TSMC, AMD und NV :D)

Jo hat sie auch. Der Kosten explodieren schon länger. Psacal konnte das aufgrund kleiner Dies gut auffangen und NV gigantische Gewinne rein durch Gaming bescheren, aber alles was neuer ist wird immer teurer werden.

dargo
2022-06-25, 13:07:30
Daran sieht man ja dass Nachfolgegens überhaupt nicht vergleichbar sind.
Die 3050 ist eine ganz andere Klasse als die 1050. Die haben nur die "50" gemein.
Hä? Was ist das denn für ein Quatsch bitte? Eine GTX 1050 war damals schnell genug für 1080p wie heute eine RTX 3050 für heutige Spiele in 1080p ist. Oder wie kommst du auf diesen Trichter jetzt?

Der Kern ist trotz shrink über doppelt so groß. Die 3050 verbraucht mehr aber ist viel schneller als sie mehr verbraucht.

Pff... die RTX 3050 ist nur so groß weil Nvidia zu dämlich war einen GA107 aufzulegen. Zudem Samsung Prozess und Platzverschwendung für RT-Cores sowie Tensor Cores. ;)

Linmoum
2022-06-25, 13:14:47
Ja... das ist richtig. AMD hat sich beim Design von N24 keinen Gefallen getan. Das Ding hätte einfach mit 20 CUs designt werden müssen. Am besten auch noch ein 96Bit SI mit dann 6GB Speicher. Und ohne den bescheuerten Beschneidungen bei PCIe. Das wäre ein wesentlich runderes Endprodukt. Die Performancelücke zwischen N23 und N24 ist einfach viel zu groß. Die >100W der RX 6500XT resultieren auch wieder nur aus der Frequenz-Brechstange, ich sag nur ~2,9Ghz. :ucrazy:Deine Vorschläge bedeuten

a) aufwendigeres PCB
b) aufwendigere Kühllösungen durch die OEMs (geht nicht um AiBs und Desktop)
c) größerer Die
d) höhere Fertigungskosten

Ja, das wäre alles für den primär angedachten Usecase (Mobile-Chip als dGPU-Partner für Rembrandt) ganz schlau gewesen. :freak:

dargo
2022-06-25, 13:16:11
Deine Vorschläge bedeuten

a) aufwendigeres PCB
b) aufwendigere Kühllösungen durch die OEMs (geht nicht um AiBs und Desktop)

Die beiden Punkte sind Unsinn... dank kleinerer Frequenzen würde das Ding nichts mehr verbrauchen und wäre dennoch schneller. Lasse mal einen N24 mit max. 2,6Ghz laufen und staune.

HOT
2022-06-25, 13:19:47
N24 ist ein Unfall. Ein zweckentfremdeter reiner Mobilchip im Desktop.

dargo
2022-06-25, 13:26:27
N24 ist ein Unfall. Ein zweckentfremdeter reiner Mobilchip im Desktop.
Richtig... das kommt dabei rum wenn man Produkte für einen anderen Zweck im Desktop "missbraucht".

amdfanuwe
2022-06-25, 13:28:12
Und was hat das alles mit
RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6nm, 2022)
zu tun?

robbitop
2022-06-25, 13:40:46
Hä? Was ist das denn für ein Quatsch bitte? Eine GTX 1050 war damals schnell genug für 1080p wie heute eine RTX 3050 für heutige Spiele in 1080p ist. Oder wie kommst du auf diesen Trichter jetzt?


Pff... die RTX 3050 ist nur so groß weil Nvidia zu dämlich war einen GA107 aufzulegen. Zudem Samsung Prozess und Platzverschwendung für RT-Cores sowie Tensor Cores. ;)
Wenn man beide vergleichen will muss man konstatieren dass die perf/W und die absolute perf überproportional gestiegen ist.
Die Entscheidung zu TC und RT hat sicherlich keinen Faktor 2 Einfluss und zahlt sicher weiterhin aus. DLSS beingt bq normiert massig Performance und die 3050 ist sogar in RT Fällen nutzbar. Insbesondere in Kombination mit dlss. Ich würde sagen es hat sich ausgezahlt.

Ein weiterer Beweis, dass es eine andere Klasse ist, ist die Anzahl der Units relativ zum Vollausbau des 102 Chps.
1050ti sind gerade mal 20% der Units verglichen mit dem vollen GP102. Die 3050 hingegen liegt bei ~25% vom vollen GA102. 25% Steigerung. Das ist ganz eindeutig eine andere Klasse. Bis auf die 50 haben die beiden nichts gemeinsam.

Mangel76
2022-06-25, 14:31:19
Ich sage, dass die beste Kaufentscheidung auf der Summe der Vor- und Nachteile mit rationalen Fakten basiert. Dass es viele Abweichungen davon in der Praxis gibt, ist klar. Aber damit nimmt die Güte der Entscheidung eben ab. Ist ja jedem selbst überlassen. Ich persönlich finde, dass rationale Gründe wesentlich legitimeren Anlass zur Kritik bilden als emotionale. ;)

Was sind die Aspekte, die in einer rationalen Entscheidung berücksichtigt werden müssen? Kosten für Anschaffung und Betrieb sowie die erreichte Leistung sicher. Und sonst? Externe Kosten wie CO2-Ausstoß von Produktion, Transport und verbrauchtem Strom? Vielleicht auch strategische Aspekte, etwa beim kleineren Anbieter zu kaufen, um damit spätere Wahlmöglichkeiten zu unterstützen? Da gibt es noch viele Aspekte, die rein über die Produkteigenschaften hinaus gehen, die in einer wirklich rationalen Entscheidung berücksichtigt werden sollten.

Nochmal zur Sortimentsverschiebung: das Problem dabei ist, dass auch die Spielehersteller sich auf die Leistungsentwicklung einstellen. Klar kannst du eine Etage tiefer kaufen. Aber eine 1440p-Mittelklassekarte musst du dann durch eine Karte ersetzen, die heute nur noch eine 1080p-Karte ist. Auch wenn sich die Leistung und die Effizienz verbessert haben, die Anforderungen an die Karten haben sich doch auch weiter entwickelt. Selbst wenn heutige Einsteigerkarten die Leistung früherer Flaggschiffe haben bei geringerem Verbrauch, macht sie das heute nicht zu einer 4k-Karte (Achtung: überspitzt ausgedrückt, bitte nicht wörtlich nehmen).

Um wieder zum Thema RDNA3 zu kommen: ich glaube nicht, dass sich AMD diesem Trend gänzlich entziehen kann. Ich hoffe aber, dass sie es nicht übertreiben und "vernünftige" Angebote machen. Sonst bleibe ich bei meiner sehr effizienten RX6800.

medi
2022-06-25, 14:33:24
Bei meinem Profil werden das nicht mal 1€ im Monat, ich spiele zu selten. Aber wer spielt bitte jeden Tag 4 Stunden lang? Ist das nicht schon etwas krank? :freak: Stelle ich mir jedenfalls schwierig vor, da kommst du ja sonst zu nix. Ok... wer keinen Schlaf braucht.
Sorry hab angenommen ihr zockt hier mehr. Früher hatte ich durchaus 4h täglich im Schnitt. Heutzutage mit Familie vllt. 1-2h täglich je nach Jahreszeit und Bock.
Ich denke aber das die just-gamer Zielgruppe für diese High-End Karten eher 4+h täglich zockt.

prinz_valium_2
2022-06-25, 14:36:16
Daran sieht man ja dass Nachfolgegens überhaupt nicht vergleichbar sind.
Die 3050 ist eine ganz andere Klasse als die 1050. Die haben nur die "50" gemein. Der Kern ist trotz shrink über doppelt so groß. Die 3050 verbraucht mehr aber ist viel schneller als sie mehr verbraucht.
Unterhalb der 3050 gibt es aktuell keine SKU das stimmt. Zumindest nicht bei NV. Bei AMD gäbe es eine 6500XT (die auch ihre bekannten Schwächen hat) und 6400.


Und genau das ist zumindest mein Problem.
Nach 6 Jahren gibt es dann eine RTX 3050, mit minimal weniger verbrauch und etwas mehr Leistung als eine 1070 für mehr Geld, dank Mining und Knappheit. Immerhin die UVP ist geringer.

Das wird uns dann als toller Fortschritt verkauft, wenn es damals eben ganz andere Steigerungen in ALLE Richtungen gab.

robbitop
2022-06-25, 14:39:59
Ja Preis ist definitiv etwas was sehr schlecht war diese Gen. Sicherlich auch durch die Pandemie geprägt.

dargo
2022-06-25, 14:48:14
Wenn man beide vergleichen will muss man konstatieren dass die perf/W und die absolute perf überproportional gestiegen ist.

Und was möchtest du mir damit jetzt sagen? Natürlich muss die absolute Performance von Gen zu Gen steigen. Schließlich steigen über Jahre auch die Anforderungen von Games. Oder wie stellst du dir das vor?


Ein weiterer Beweis, dass es eine andere Klasse ist, ist die Anzahl der Units relativ zum Topdog.
1050ti sind gerade mal 20% der Units verglichen mit dem vollen GP102. Die 3050 hingegen liegt bei ~30% von GA102. 50% Steigerung. Das ist ganz eindeutig eine andere Klasse. Bis auf die 50 haben die beiden nichts gemeinsam.
Haha... netter Versuch. Würde Ampere nicht so viel saufen hätte Nvidia den Topdog auch breiter auftstellen können, den Rest kannst du dir denken. ;)

Cyberfries
2022-06-25, 14:55:27
Die Leute, die im 3DCenter aufhalten sind eher in einer Filterblase die sich wahrscheinlich weiter oben bewegt. .... Und genau dort gibt es es TDP normierte Upgrades.

Gratulation, Ist-Situation erfasst. In ein paar Stunden fällt dann vielleicht auch auf, weshalb das ein Problem ist.

1050ti sind gerade mal 20% der Units verglichen mit dem vollen GP102. Die 3050 hingegen liegt bei ~30% von GA102. 50% Steigerung.

20 von 84 sind 23,8%

Die 3050 verbraucht mehr aber ist viel schneller als sie mehr verbraucht.

Eine neue Grafikkarten-Generation ist effizienter als die alte? Das gabs ja noch nie!

Das Ding hätte einfach mit 20 CUs designt werden müssen. Am besten auch noch ein 96Bit SI mit dann 6GB Speicher.

Dass N24 ein wenig leistungsschwach ist wäre verschmerzbar, wären Kodier/Dekodier-Fähigkeiten und 8xPCIe dabei.
Die 6400 hat immerhin 1650-Leistung bei halber Real-Leistungsaufnahme, das ist anständig und hat auch heute noch einen Platz.

Und was hat das alles mit
RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6nm, 2022)
zu tun?

Guter Einwand. Die Diskussion zur Leistungsaufnahme nützt wenig,
gabs in dem Faden hier oder nebenan bei Ada Lovelace schon ausreichend oft.

robbitop
2022-06-25, 15:28:45
Und was möchtest du mir damit jetzt sagen? Natürlich muss die absolute Performance von Gen zu Gen steigen. Schließlich steigen über Jahre auch die Anforderungen von Games. Oder wie stellst du dir das vor?


Haha... netter Versuch. Würde Ampere nicht so viel saufen hätte Nvidia den Topdog auch breiter auftstellen können, den Rest kannst du dir denken. ;)

Ampere legte den üblichen Sprung in Units und Performance hin. Ich sehe da nichts außergewöhnliches was meine ursprüngliche Argumentation außer Kraft setzt. Turing war im Vergleich dessen eher unterdurchschnittlich. Ich sehe keine solide Argumentation auf deiner Seite ehrlich gesagt außer lapidarer Thesen und Allgemeinplätzen und „hätte hätte“. Entweder gibst du dir Mühe und bringst Substanz (Zahlen, Daten, Fakten, Belege) oder die Diskussion ist Zeitverschwendung.

Die 3050 ist 2,5 mal so schnell wie die 1050ti. So einen fetten Sprung gab es bei den anderen SKUs nicht. Wie gesagt das ist eine ganz andere Kategorie.
TDP ist nur Faktor 1,7. Daraus folgt knapp 50% energieeffzienter.

Benchmarks:
https://youtu.be/kXGnLjwbOBY

BlacKi
2022-06-25, 15:35:57
Und genau das ist zumindest mein Problem.
Nach 6 Jahren gibt es dann eine RTX 3050, mit minimal weniger verbrauch und etwas mehr Leistung als eine 1070 für mehr Geld, dank Mining und Knappheit. Immerhin die UVP ist geringer.

Das wird uns dann als toller Fortschritt verkauft, wenn es damals eben ganz andere Steigerungen in ALLE Richtungen gab.
ich verstehe dein problem ehrlichgesagt nicht. die fortschritte gabs, waren aber geringer, dafür aber gabs dlss. das gleich verdammt viel aus. ich würde die 3050 jederzeit eine 1070/1080 vorziehen und natürlich auch eine 3060 gegenüber einer 1080ti.


das die preise noch am arsch sind, ja trotz cryptocrash, gerade im low- bis mainstream segment, kann man den herstellern nicht wirklich vorwerfen.


eigentlich sieht es schlimmer aus, als es normalerweise aussehen sollte.



mal davon abgesehen, wird dafür die nächste generation praktisch alles wieder ausbügeln.

robbitop
2022-06-25, 15:36:55
Eine neue Grafikkarten-Generation ist effizienter als die alte? Das gabs ja noch nie!

Du hast den Kontext der Diskussion offenbar nicht verfolgt. Es ging darum, dass tdp normierte upgrades mit Mehrleistung möglich sind. Dessem Basis ist dass Perf/W steigt - was eigentlich ein Axiom sein müsste.

dargo
2022-06-25, 15:51:44
Ampere legte den üblichen Sprung in Units und Performance hin. Ich sehe da nichts außergewöhnliches was meine ursprüngliche Argumentation außer Kraft setzt. Turing war im Vergleich dessen eher unterdurchschnittlich. Ich sehe keine solide Argumentation auf deiner Seite ehrlich gesagt außer lapidarer Thesen und Allgemeinplätzen. Entweder gibst du dir Mühe und bringst Substanz (Zahlen, Daten, Fakten, Belege) oder die Diskussion ist Zeitverschwendung.
Diese Diskussion ist auch Zeitverschwendung weil du dir alles schön rechnest. Wo ist der Performancesprung von Ampere vs. Turing üblich? Was ist überhaupt üblich? Eine 3090 und 2080TI trennen lächerliche 45% in 4k.
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/2/#abschnitt_benchmarks_in_3840__2160

Eine 2080TI und 1080TI trennten noch lächerlichere 35%.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/

Bei 1080TI vs. 980TI waren es immerhin +75%.
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_ultrahdbenchmarks_in_3840__2160_4k

Und wenn ich mir die Verbrauchswerte dabei ansehe dann weiß ich nicht ob ich lachen oder heulen soll.

980TI = 294W Gesamtsystem
1080TI = 299W Gesamtsystem
2080TI = 277W nur Karte
3090 = 351W nur Karte

Zwischen Pascal und Kepler gab es den größten Performanceschub bei dem geringsten Mehrverbrauch.


Die 3050 ist 2,5 mal so schnell wie die 1050ti. So einen fetten Sprung gab es bei den anderen SKUs nicht. Wie gesagt das ist eine ganz andere Kategorie.
TDP ist nur Faktor 1,7. Daraus folgt knapp 50% energieeffzienter.

Benchmarks:
https://youtu.be/kXGnLjwbOBY
Glaube ich nicht. Bei nur 4GB könnte schon der Vram bei Pascal limitieren. Zudem wissen wir alle, dass Pascal so seine kleinen Problemchen mit D3D12 hatte. Bei sowas müsste man beide GPUs mit reinen D3D11 Games füttern. Und selbst wenn es so wäre... nach über 5 Jahren hat sich die Performance verdoppelt bzw. etwas mehr als verdoppelt. Wow... bin nicht so begeistert wie du. Zumal der Verbrauch auch deutlich gestiegen ist. Die GTX 1050TI verbrauchte lächerliche 75W. Eine 3050 liegt bei 129W laut CB.

robbitop
2022-06-25, 15:58:09
Es ging dir um die 3050 vs 1050 ti. Lenke nicht ab. Die 3050 ist Faktor 2,5! schneller. Bei nur Faktor 1,7 TDP. Also 50% energieeffzienter.

Dass Performancesprünge rückläufig sind ist leider so. Aber Turing ist wie du selbst zeigst beim Top Dog ein kleinerer Sprung als Ampere. Pascal war ganz gut - ist mit 2016 aber 6 Jahre später auch so langsam nicht mehr (leider) der Maßstab.

Angeblich bringen RDNA3 und Lovelace top dogs einen unüblich großen Speung. Gerüchte sagen Faktor 2. Und da Perf/W nur schwerlich um Faktor 2 steigen kann, steigt eben die TDP.

dargo
2022-06-25, 16:13:36
Dass Performancesprünge rückläufig sind ist leider so. Aber Turing ist wie du selbst zeigst beim Top Dog ein kleinerer Sprung als Ampere.

Das ist auch nichts weiter als Schönrederei. Ampere hat nur etwas mehr zugelegt weil die Leistungsaufnahme um weitere 74W angehoben wurde. Ich habe leider nicht mehr die genaue Zahl von der 1080TI alleine, CB hatte damals leider das Gesamtsystem gemessen.

Edit:
Laut Golem sind es 254W.
https://www.golem.de/news/geforce-gtx-1080-ti-im-test-der-neue-ti-tan-1703-126531-2.html#:~:text=Die%20maximale%20Leistungsaufnahme%20der%20Geforce,%2D%20und%206% 2Dpoligen%20Stromanschl%C3%BCsse.

Dann hat NV bei Turing vs Pascal die Leistungsaufnahme um 23W erhöht, bei Ampere vs. Turing um 74W.

prinz_valium_2
2022-06-25, 16:25:36
ich verstehe dein problem ehrlichgesagt nicht. die fortschritte gabs, waren aber geringer, dafür aber gabs dlss. das gleich verdammt viel aus. ich würde die 3050 jederzeit eine 1070/1080 vorziehen und natürlich auch eine 3060 gegenüber einer 1080ti.


DLSS ist Software mit speziellen Hardware Einheiten dafür.
Dafür kann ich dann auch auf eine Generation Hardware warten, die sowohl ordentlich bei Performance, Effizienz, Leistungsteigerung, Preis-/Leistung und Verbrauch ist, sowie DLSS an Board hat.
Nur weil eine Karte DLSS hat, nehme ich nicht zu kleine Fortschritte in den für mich wichtigen Metrics hin. Vor allem nicht, wenn der Preis vorne und hinten nicht passt. Sowohl Marktpreise als auch Hersteller Preise.

Die 1070 war ein Hammer upgrade zu meiner 470 damals. In JEDEM Bereich.
Und genau das selbe erwarte ich jetzt wieder. Sonst gibt es keinen Grund zu kaufen.
Ich will ein gutes Produkt für einen guten Preis.
Zur not geht auch noch ein gutes Produkt zu einem schlechten Preis, oder ein schlechtes Produkt zu einem guten Preis. Aber ein schlechtes Produkt zu einem schlechten Preis? Warum sollte ein rational denkender Mensch sowas jemals tun, wenn es nicht zum zum Überleben zwingend notwendig ist.

Naja ich habe die Hoffnung, dass AMD da etwas dank Chiplet Technology, Infinity Cache und günstigerem Ram, reißen kann. Raytracing und "DLSS" sollte ja auch deutlich aufgebohrt werden.
Und dann haben wir ein Produkt, was für mich gut ist.

robbitop
2022-06-25, 16:36:54
Das ist auch nichts weiter als Schönrederei. Ampere hat nur etwas mehr zugelegt weil die Leistungsaufnahme um weitere 74W angehoben wurde. Ich habe leider nicht mehr die genaue Zahl von der 1080TI alleine, CB hatte damals leider das Gesamtsystem gemessen.

Edit:
Laut Golem sind es 254W.
https://www.golem.de/news/geforce-gtx-1080-ti-im-test-der-neue-ti-tan-1703-126531-2.html#:~:text=Die%20maximale%20Leistungsaufnahme%20der%20Geforce,%2D%20und%206% 2Dpoligen%20Stromanschl%C3%BCsse.

Dann hat NV bei Turing vs Pascal die Leistungsaufnahme um 23W erhöht, bei Ampere vs. Turing um 74W.
Naja das hat aber auch andere Gründe:

Turing vs Pascal
1. kein echter Shrink. 12 nm ist nur ein sehr leicht optimierter 16 nm Prozess
2. RT und TC cores haben das Transistorbudget belastet und entsprechend war nicht so viel Transistorbudget für eine besonders hohe Steigerung der Ausführungseinheiten da

Ampere (vs Turing) hingegen hat einen Shrink bekommen und hat die Einheitenanzahlen deutlich erhöht.

DLSS ist Software mit speziellen Hardware Einheiten dafür.
Dafür kann ich dann auch auf eine Generation Hardware warten, die sowohl ordentlich bei Performance, Effizienz, Leistungsteigerung, Preis-/Leistung und Verbrauch ist, sowie DLSS an Board hat.
Nur weil eine Karte DLSS hat, nehme ich nicht zu kleine Fortschritte in den für mich wichtigen Metrics hin. Vor allem nicht, wenn der Preis vorne und hinten nicht passt. Sowohl Marktpreise als auch Hersteller Preise.

Die 1070 war ein Hammer upgrade zu meiner 470 damals. In JEDEM Bereich.
Und genau das selbe erwarte ich jetzt wieder. Sonst gibt es keinen Grund zu kaufen.
Ich will ein gutes Produkt für einen guten Preis.
Zur not geht auch noch ein gutes Produkt zu einem schlechten Preis, oder ein schlechtes Produkt zu einem guten Preis. Aber ein schlechtes Produkt zu einem schlechten Preis? Warum sollte ein rational denkender Mensch sowas jemals tun, wenn es nicht zum zum Überleben zwingend notwendig ist.

Naja ich habe die Hoffnung, dass AMD da etwas dank Chiplet Technology, Infinity Cache und günstigerem Ram, reißen kann. Raytracing und "DLSS" sollte ja auch deutlich aufgebohrt werden.
Und dann haben wir ein Produkt, was für mich gut ist.
Wenn man mehrere Generationen überspringt ist das Hammer upgrade eigentlich kaum zu verfehlen. ;)
Von Pascal auf Lovelace also die 1070 auf eine 4070 (oder ein Radeon Äquivalent also eine 7700XT(?)) wird schon ein fettes Upgrade.
Ich sitzt auch noch auf Pascal und Haswell. Dank Babyzwillingen ist neue HW für mich sinnlos. Meine Hoffnung ist, dass 2023/24 die beiden groß genug geworden sind, dass wieder gezockt werden kann. Und dann gibt es auch ein Hammer Upgrade.

Diese Upgrades über mehrere Generationen machen am meisten Frohsinn IMO. Weil was gibt es heute normalerweise schon von Generation zu Generation. Lauwarme Upgrades IMO.

Ex3cut3r
2022-06-25, 16:50:36
Diese Upgrades über mehrere Generationen machen am meisten Frohsinn IMO. Weil was gibt es heute normalerweise schon von Generation zu Generation. Lauwarme Upgrades IMO.
Stimme ich zu, aber. Von einer 1070 auf eine 2080 war schon ein geiler Sprung (+70%, RT, DLSS) von einer 2080 auf eine 3080 Ti war ebenfalls richtig richtig geil (+70-80%)

Schwierig wird es dann halt immer, wenn man den alten Top Dog besessen hat, dann macht ein Upgrade immer weniger Sinn. 2080 Ti auf 3080/3090 z.B. (50-60%)

robbitop
2022-06-25, 16:52:47
So ging es mir mit meiner 1080ti als Turing rauskam. +35%? :|
Als die 3090 rauskam wollte ich eine haben (weil grob 2x so schnell wie die 1080ti) aber da kam die scheiß Pandemie und nichts war sinnvoll kaufbar. Und jetzt: alles wird günstiger, neue HW kommt raus und man könnte richtig geil upgraden und zocken. Budget ist überhaupt kein Problem. Aber -> Blagen :D

Ex3cut3r
2022-06-25, 16:57:03
Im Normalfall kriegt man auch immer noch eine "schöne" Summe für die "alte Karte" Wenn man jedenfalls diesen 2 Jahres Rhythmus beibehält. Umso länger man wartet, umso weniger gibt es für die alte Karte. Im Endeffekt natürlich alles First World Problems.

medi
2022-06-25, 19:13:55
... Meine Hoffnung ist, dass 2023/24 die beiden groß genug geworden sind, dass wieder gezockt werden kann. Und dann gibt es auch ein Hammer Upgrade.

🤣
Also ich konnte am Meisten zocken als der Bub ein Baby war. Je älter er wurde desto weniger hat er geschlafen desto mehr brauchte er Aufmerksamkeit.
Jetzt issa 9 und langsam kann ich wieder bissl mehr zocken also ich drück dir mal die Daumen 😆

Nazar
2022-06-26, 04:40:47
In diesem Thread soll über RDNA3 diskutiert werden.
Auf den letzten paar Seiten war das im aller besten Fall eine reine Nebensächlichkeit.
Es geht !!hauptsächlich!! nur noch um nVidia, deren Technologie, deren GPU Verbrauch und vermuteten Leistungssteigerungen.
Und jetzt sind wir beim Familienleben angekommen.
Das alles hat absolut !!nichts!! hier zu suchen.

Tyrann
2022-06-26, 08:47:54
Nazar hat da ganz recht

Bitte zurück zum Thema: RDNA3

prinz_valium_2
2022-06-26, 10:46:59
Gibt halt leider wenig Gerüchte zu RDNA3 um da viel diskutieren zu können :(

Berniyh
2022-06-26, 11:07:56
Gibt halt leider wenig Gerüchte zu RDNA3 um da viel diskutieren zu können :(
Dann lässt man den Thread halt mal ruhen. ;)

Neurosphere
2022-06-26, 13:01:55
Immerhin ein bisschen was:

https://abload.de/img/navi3004j5q.jpg

Ich hab keine Ahnung wie flexible AMD beim zusammenwürfeln der Chips ist, aber unmöglich wäre das erstmal nicht. Klingt aber trotzdem nach Leistungskrone die man erreichen möchte wenn man plant es mit einem ebenfalls hypotetischem Max-Watt Titan Chip aufzunehmen.

Mangel76
2022-06-26, 13:18:46
Ich könnte mir vorstellen, dass man zweigleisig gefahren ist. Einmal die Version mit 2 GCDs und zur Absicherung eine Version mit einem GCD. Dann hat man vielleicht befürchtet, dass z.B. der Treiber für die 2er Variante nicht rechtzeitig fertig wird (weil komplexer) und ist auf die schneller verfügbare 1er Variante gegangen. Die 2er Variante könnte dann noch bei Bedarf nachgeschoben werden oder dient als Test für RDNA4.

mboeller
2022-06-26, 13:28:25
Immerhin ein bisschen was:

https://abload.de/img/navi3004j5q.jpg

Ich hab keine Ahnung wie flexible AMD beim zusammenwürfeln der Chips ist, aber unmöglich wäre das erstmal nicht. Klingt aber trotzdem nach Leistungskrone die man erreichen möchte wenn man plant es mit einem ebenfalls hypotetischem Max-Watt Titan Chip aufzunehmen.

16384SP... 4x 4096

spricht wieder für die 1x I/O + 3x GCD + 3x MCD Variante für N31

die neue Version wäre dann "einfach" eine 9-Chiplet Version. Hängt halt davon ab, wie flexibel der I/O-chip ist

Neurosphere
2022-06-26, 13:48:50
16384SP... 4x 4096

spricht wieder für die 1x I/O + 3x GCD + 3x MCD Variante für N31

die neue Version wäre dann "einfach" eine 9-Chiplet Version. Hängt halt davon ab, wie flexibel der I/O-chip ist

Im Moment steht eher die Lösung mit 2x Navi32 (8192 CU) im Raum als etwas das größer als Navi 31 ist, also eher ein Navi30.

Sollte Navi 32 doch aus 2 Chiplests bestehen, wie damals angenommen, hättest du natürlich recht.

Linmoum
2022-06-26, 13:52:56
Sollte es für Spiele keine Nachteile mit >1 GCD-Lösungen geben, kann AMD im Prinzip alles von der Konkurrenz komfortabel und deutlich kontern, sofern sie wollen. Nachteil sind dann natürlich höhere Kosten, wenn man das aber entsprechend am Markt platzieren kann, dann wird auch das weniger ein Problem sein.

Ich würde aktuell aber trotzdem vorerst von einer single GCD-Variante ausgehen.

Berniyh
2022-06-26, 13:56:34
Im Moment steht eher die Lösung mit 2x Navi32 (8192 CU) im Raum als etwas das größer als Navi 31 ist, also eher ein Navi30.
Wenn der im orginalen Lineup nicht drin war, dann dürfte das Teil eher Navi34 heißen. ;)

dargo
2022-06-27, 06:36:30
Frage... stehen die lächerlichen 8GB Vram bei N33 schon fest (bei dieser Leistungsklasse wäre das ein absolutes Fail) dank 128Bit SI oder übersehe ich was? Dieses technische Limit erinnert mich irgendwie an Fiji. :freak:

Edit:
Oder sollen bald 4GB GDDR6 Chips kommen? Muss ich verpasst haben.

OgrEGT
2022-06-27, 08:38:30
Wäre 2x2GB pro 32bit mit Clamshell also doppelseitiger Bestückung möglich?
Wäre aber wohl zu teuer...

basix
2022-06-27, 08:52:11
Wäre 2x2GB pro 32bit mit Clamshell also doppelseitiger Bestückung möglich?
Wäre aber wohl zu teuer...

Klar wäre das möglich, siehe z.B. Quadro RTX 8000 oder RTX 3090. Ist aber wie du sagst teurer.

Bei 128bit stelle ich mir eher die Frage, ob man Clamshell auch mit single sided Bestückung hinkriegen könnte?

dargo
2022-06-27, 09:12:38
Wäre 2x2GB pro 32bit mit Clamshell also doppelseitiger Bestückung möglich?
Wäre aber wohl zu teuer...
Ok... technisch machbar wäre es also. Was heißt zu teuer? Reden wir hier von 50-100$ mehr oder wo bewegen wir uns da? Ich gehe jedenfalls nicht davon aus, dass AMD N33 bei nur 499$ positionieren wird wenn das Ding ~N21 Performance liefert.


Bei 128bit stelle ich mir eher die Frage, ob man Clamshell auch mit single sided Bestückung hinkriegen könnte?
Wie stellst du dir das vor?

Cyberfries
2022-06-27, 09:34:32
Was heißt zu teuer?

Komplexeres PCB, zusätzliche Speichersteine, Kühllösung für die Rückseite... letzteres allein könnte schon ein Ausschlusskriterium
für die Hersteller sein, keiner will mögliche Beschwerden aufgrund schlechter Belüftung in Billigsystemen.
Irgendwo wurden mal pro GDDR6-Modul 20$ genannt, keine Ahnung ob das aktuell noch passt oder überhaupt jemals richtig war.

Bei 128bit stelle ich mir eher die Frage, ob man Clamshell auch mit single sided Bestückung hinkriegen könnte?

Die Idee ist gut, das könnte die Lösung des Problems sein. Anstelle 4x GDDR6 auf der Vorderseite und weiteren 4x auf der Rückseite,
einfach alles auf die Vorderseite. Der Platz um die GPU für 8x Speichersteine ist da, Verdrahtung sollte machbar sein.

dargo
2022-06-27, 10:43:18
Komplexeres PCB, zusätzliche Speichersteine, Kühllösung für die Rückseite... letzteres allein könnte schon ein Ausschlusskriterium
für die Hersteller sein, keiner will mögliche Beschwerden aufgrund schlechter Belüftung in Billigsystemen.

Naja... also ich erwarte N33 nicht in Billigsystemen. Mit diesem Argument dürfte Nvidia gar nicht erst Ada releasen. :ulol:


Die Idee ist gut, das könnte die Lösung des Problems sein. Anstelle 4x GDDR6 auf der Vorderseite und weiteren 4x auf der Rückseite,
einfach alles auf die Vorderseite. Der Platz um die GPU für 8x Speichersteine ist da, Verdrahtung sollte machbar sein.
Wie will man sowas auf einer Seite verdrahten? Hat sowas überhaupt schon jemand gemacht wenn das so einfach sein soll? Da gehts auch um Signalqualität etc.

unl34shed
2022-06-27, 10:54:09
Die Frage ist halt, ob >8GB wirklich Abseits von Marketing Sinn ergibt, denn selbst mit 24Gbps GDDR6 RAM kann man die vollen 8GB bei 48FPS nutzen, mit 16GB wäre der nutzen bei 24FPS.

Zum Vergleich: RDNA 2 Karten konnten den vollen Speicher noch bis ~32FPS nutzen, was entweder 8GB @16Gbps entspricht oder 12GB @24Gbps (wäre bei der Karte ideal, scheitert allerdings an fehlenden 3GB Chips)

Naja... also ich erwarte N33 nicht in Billigsystemen.


N33 ist technisch gesehen der Nachfolger der 6600XT und das ist eine 400-500$ Karte.
Ja Namen sind Schall und Rauch, aber wenn es die 7600XT werden soll, wäre eine deutlich teurere Karte überraschend.

davidzo
2022-06-27, 10:59:29
Naja, AMD würde nicht absichtlich einen Chip für 128bit designen mit einem riesen cache nur um damit ähnlich komplexe Platinen wie mit 192bit zu bauen. Dann wäre man gleich auf 192bit gegangen.

Andererseits finde ich 16WGPs nicht zu viel für 8GB an 128bit.
Es ist eher die Performanceprognose die mich wundert. N33 klingt doch voll nach einem N23 Ersatz. N23 hatte auch 16WGPs und 128bit.
Wenn N33 Leistung eher nur in Richtung der RX6800 mit 60CUs gehen würde, dann würde das alles Sinn ergeben mit nur 8GB.
Mehr als N22 bis N21XL wäre auch sehr unüblich für einen Generationensprung, wenn man jetzt mal den ganzen Hype und das Fanboigelaber auslendet.

In der Regel wandert die Leistungs pro Generationensprung doch um eine bis zwei Klassen nach oben:
- 2080ti = RTX3070
- 1070 = zwischen 1660 und 2060
- RX5500 = RX580


Aber der DRAM Markt ist jetzt wieder am Fallen, insofern wäre jetzt viel eher die Zeit für größere Speicherausstattungen als noch zum Navi2x Launch.

dargo
2022-06-27, 11:05:00
N33 ist technisch gesehen der Nachfolger der 6600XT und das ist eine 400-500$ Karte.
Ja Namen sind Schall und Rauch, aber wenn es die 7600XT werden soll, wäre eine deutlich teurere Karte überraschend.
Ich dachte N33 = RX 7700XT. :confused: Es spielt auch überhaupt keine Rolle wie technisch N33 gesehen wird. Es zählt nur was er leistet. Und wenn das Teil bei N21 rauskommt kannst du mir verraten warum AMD das für 400-500$ verscherbeln sollte? Wir haben eine Inflation und der neue Fertigungsprozess ist wesentlich teurer.

@davidzo
Sind die ganzen Spekus jetzt wieder für die Katz? Ich nahm bisher an, dass N33 bei N21XT rauskommt. Jetzt kommst du mit nur N22 bis N21XL daher. Letzteres kann schon gar nicht wegen den spekulierten 180-230W für N33 passen. Das wäre doch kein Fortschritt.

Dino-Fossil
2022-06-27, 11:16:48
Ich dachte N33 = RX 7700XT. :confused: Es spielt auch überhaupt keine Rolle wie technisch N33 gesehen wird. Es zählt nur was er leistet.

Naja, jein. Du hast natürlich recht, dass die allgemein gestiegenen Kosten uns sicherlich keine sinkenden Preise bescheren dürften, aber Leistung ist eben nicht der alleine bestimmende Faktor für Preise von Hardware.
Der Aufbau des Portfolios ist ein weiterer und zu teuer darf der Einstieg da auch nicht werden (meiner Meinung nach sind die Preise schon mit RDNA2 kaum zu rechtfertigen). Kann natürlich sein, dass die "kleineren" Karten komplett über RDNA2 refresh-Karten gelöst werden.
Zumal wir die Gewinnmarge von AMD/nVidia ja auch nicht kennen, also wie viel Spielraum eigentlich existiert.

maximus_hertus
2022-06-27, 11:16:52
Und wenn das Teil bei N21 rauskommt kannst du mir verraten warum AMD das für 400-500$ verscherbeln sollte?

Weil N21 nun schon ab 649 Euro angeboten wird und die Preise jede Woche weiter fallen.
Die UVP ging ab 579 los.

Und Inflation ist ja schön und gut, aber a) wird der Grafikkartenmarkt nun überschwemmt mit KArten und b) ist die NAchfrage schlciht nicht mehr so groß. Und die LEute haben weniger Kohle für Luxussachen, eben durch Inflation und Co. Dazu ist man eben nicht mehr so viel zu Hause und kann wieder "draußen" Sachen machen.

Und nVidia ist ja auch nicht untätig.

Alles zusammengefasst erwarte ich N33 bei 499-549 USD UVP. PErformance irgendwo im Bereich 6800 - 6800XT, bei RT ggf 6900XT. 8GB, 128 Bit (dürften ja gesetzt sein).

Die 6750XT dürfte dann in den Bereich 400-450 USD fallen. Die 6650XT auf 330-360 und die 6600 Vanilla auf 250-280.

Navi 32 geht dann für 700 - 900 USD an den Start und 1000+ USD dann N31.

Fertig ist das Lineup.

unl34shed
2022-06-27, 11:22:27
Es zählt nur was er leistet. Und wenn das Teil bei N21 rauskommt kannst du mir verraten warum AMD das für 400-500$ verscherbeln sollte? Wir haben eine Inflation und der neue Fertigungsprozess ist wesentlich teurer.

Weil es noch nie so war, dass man die Nachfolgerkarte mit dem Preis an der Leistung des Vorgängers festgemacht hat.

Es wird immer das komplette Lineup eingereist und das in einem Preisbereich, wo man von ausgeht das die Kunden es auch kaufen werden. Ich gehe zwar davon aus, dass das obere Limit auf Grund der Inflation erhöht wird, aber nur auf 1500$.

Diese Diskussion gibt es aber aus irgendeinem Grund zu jeder neuen Generation... meiner Meinung nach werden die Kosten pro Chip einfach total überschätzt.

basix
2022-06-27, 11:30:46
Naja, AMD würde nicht absichtlich einen Chip für 128bit designen mit einem riesen cache nur um damit ähnlich komplexe Platinen wie mit 192bit zu bauen. Dann wäre man gleich auf 192bit gegangen.

Andererseits finde ich 16WGPs nicht zu viel für 8GB an 128bit.
Es ist eher die Performanceprognose die mich wundert. N33 klingt doch voll nach einem N22 Ersatz. N22 hatte auch 20WGPs und 128bit.
Wenn N33 Leistung eher nur in Richtung der RX6800 mit 60CUs gehen würde, dann würde das alles Sinn ergeben mit nur 8GB.
Mehr als N22 bis N21XL wäre auch sehr unüblich für einen Generationensprung, wenn man jetzt mal den ganzen Hype und das Fanboigelaber auslendet.

16WGPs von RDNA3 mit hohem Takt sind hinsichtlich Rohleistung halt auf N21 Niveau. Daher die entsprechende Performance-Prognose.

Und N22 hatte definitiv nicht 128bit, sondern 192bit ;) N23 hat 16WGPs und 128bit, deswegen ist N33 mMn eher ein direkter N23 Nachfolger mit nun halt doppelt so fetten WGPs. Und wie viel schneller ist eine 6900XT vs. 6600XT? Ziemlich genau 2x ;)
Wie viel mehr effektive Bandbreite hat N33 vs. N23? Ziemlich genau 2x, da laut Gerüchten 4x Infinity Cache, 128MB vs. 32MB. (Note: Ich tendiere immer noch zu 64MByte und dafür 20Gbps GDDR6)

Nur 6800XL Performance macht mMn ebenfalls keinen Sinn. Eine 6750XT ist nur etwa -15% langsamer. Klar, RDNA3 legt bei Raytracing mehr obendrauf. Wäre dennoch ein komisches Lineup.

8GByte machen nur als 1080p Karte Sinn. Nur sehe ich das bei N33 nicht. ~6900XT Performance und höhere RT-Leistung und dann nur 1080p? Ne. 1440p wären deutlich der bessere Platz. Und dazu braucht es entweder 12GByte (24GBit GDDR6 Chips) oder im Falle von 8GByte ein deutlich verbessertes Speichermanagement oder "virtuell" vergrösserten Speicher (zusätzliche Kompression, HBCC, whatever)

HOT
2022-06-27, 11:32:11
Die Frage ist halt, ob >8GB wirklich Abseits von Marketing Sinn ergibt, denn selbst mit 24Gbps GDDR6 RAM kann man die vollen 8GB bei 48FPS nutzen, mit 16GB wäre der nutzen bei 24FPS.

Zum Vergleich: RDNA 2 Karten konnten den vollen Speicher noch bis ~32FPS nutzen, was entweder 8GB @16Gbps entspricht oder 12GB @24Gbps (wäre bei der Karte ideal, scheitert allerdings an fehlenden 3GB Chips)



N33 ist technisch gesehen der Nachfolger der 6600XT und das ist eine 400-500$ Karte.
Ja Namen sind Schall und Rauch, aber wenn es die 7600XT werden soll, wäre eine deutlich teurere Karte überraschend.

Wenn N33 N21XT-Leistung bringt wird AMD die für 500€, nicht aber unter 450€ anbieten. 8GB ist schlichtweg keine Option. Genau das Marketing verhindert eine solche Lösung, denn die NVs hätten mehr Speicher in der Leistungsklasse. AMD würde genau gar nichts davon absetzen. Und N21XT-Leistung klingt für mich absolut plausibel. Weniger Recheneinheiten, etwas mehr IPC, deutlich mehr Takt. 24GT/s sind für das Produkt übrigens kompletter Quatsch. Das wird 18-20GT/s haben, mehr nicht.

Ich wette, das sieht so aus:
16 WGPs
128MB IF$
128Bit GDDR6 20GT/s doppelseitig bestückt
sehr kleines PCB mit Backplate
220W für XT
3GHz Boost
N5, vielleicht 240mm² etwa

N21 Rasterleistung, 2x N21-RT-Leistung, langsamer als N21XTX in UHD, etwas schneller in FHD und WQHD.

basix
2022-06-27, 11:40:17
Wie will man sowas auf einer Seite verdrahten? Hat sowas überhaupt schon jemand gemacht wenn das so einfach sein soll? Da gehts auch um Signalqualität etc.

Genau deswegen die Frage, ob das geht ;) Gesehen habe ich es zumindest noch nie. Und solche Stunts wie bei der XBox mit unterschiedlich grossen Speichermodulen erwarte ich auch nicht, wäre aber eine (hässliche) Alternative.

16GByte für N33 sind mMn aber Overkill. Die Karte ist nicht als 4K Karte konzipiert. 12GByte wären der Sweet Spot für 1440p und hinsichtlich Zukunftstauglichkeit. Oder eben "virtuell" vergrösserter Speicher à la Vegas HBCC. Nun aber Done Right ;) Genau sie wie bei RDNA3 nun auch NGG Done Right sein soll.

HOT
2022-06-27, 11:49:00
12GB bei der 3060 war auch "Overkill". Der Grund ist derselbe.

basix
2022-06-27, 11:56:43
Zu Clamshell:
Single Sided sollte zumindest hinsichtlich Datenleitungen kein Problem sein. Hier werden die Speichermodule einfach nur mit der halbierten Interface-Breite angebunden (x8 anstatt x16). GDDR6 hat hier einen entsprechenden Modus. Address & Command müssen aber von zwei Chips geteilt werden. Und das ist bei Double Sided einfacher (einfach ein Via durchs PCB).

Dennoch: 16GByte sind Overkill für N33. Die 3060 hatte ein anderes Problem: 6GByte wären zu wenig gewesen. Ruckler und Streaming Issues wären an der Tagesordnung gewesen. Einziger Ausweg: 12GByte. 9GByte mit 24Gbit Chips wären auch hier die sinnvollere Lösung gewesen, war aber nicht verfügbar.

HOT
2022-06-27, 11:59:02
Gleicher Grund: 8GB sind zuwenig. Ist absolut identischer Grund für die 16GB bei dem Produkt wie bei der 3060. Man sollte dabei nicht unerwähnt lassen, dass sich N33 eine Leistungskategorie über der 3060 befindet.

Ghost1nTh3GPU
2022-06-27, 12:02:25
Vielleicht kann der InfinityCache 2.0 hier eine ungleichmäßig Bestückung pro Kanal entsprechend puffern, sodass man hier flexibler wird. Die Bandbreite hinter dem Cache wird mit N3x im Verhältnis zur GPU-Leistung grundsätzlich nochmals geringer.

basix
2022-06-27, 12:04:34
Vielleicht kann der InfinityCache 2.0 hier eine ungleichmäßig Bestückung pro Kanal entsprechend puffern, sodass man hier flexibler wird. Die Bandbreite hinter dem Cache wird mit N3x im Verhältnis zur GPU-Leistung nochmal geringer.

Interessante Idee. Aus Sicht der Applikation wird eigentlich nur die Bandbreite ab Infinity Cache "gesehen". Der Rest wird vom Treiber und der Chip-Firmware gehandled. Wieso nicht :) Das Caching und Prefetching wird dadurch aber sicher nicht einfacher.

dargo
2022-06-27, 12:05:36
Naja, jein. Du hast natürlich recht, dass die allgemein gestiegenen Kosten uns sicherlich keine sinkenden Preise bescheren dürften, aber Leistung ist eben nicht der alleine bestimmende Faktor für Preise von Hardware.
Der Aufbau des Portfolios ist ein weiterer und zu teuer darf der Einstieg da auch nicht werden (meiner Meinung nach sind die Preise schon mit RDNA2 kaum zu rechtfertigen). Kann natürlich sein, dass die "kleineren" Karten komplett über RDNA2 refresh-Karten gelöst werden.
Zumal wir die Gewinnmarge von AMD/nVidia ja auch nicht kennen, also wie viel Spielraum eigentlich existiert.
Wie kommst du jetzt darauf N33 wäre der Einstieg? :confused:

Weil N21 nun schon ab 649 Euro angeboten wird und die Preise jede Woche weiter fallen.
Die UVP ging ab 579 los.

Och Gottchen... mit N21 ist natürlich der Vollausbau gemeint. Wir reden hier von einer RX 6900XT. Die RX 6950XT lasse ich jetzt hier raus, völlig sinnlose Brechstange.


16GByte für N33 sind mMn aber Overkill. Die Karte ist nicht als 4K Karte konzipiert. 12GByte wären der Sweet Spot für 1440p und hinsichtlich Zukunftstauglichkeit.
Ist doch völlig latte ob Overkill oder nicht. Den Speicherausbau bestimmt alleine das SI. Bei 128Bit gibt es nur zwei Optionen 8GB oder 16GB. Ersteres wäre ein Rohrkrepierer. Stelle mir gerade eine RX 6900XT mit 8GB vor. :lol:

12GB bei der 3060 war auch "Overkill". Der Grund ist derselbe.
Richtig... NV hat sich hier nicht getraut die Karte mit nur 6GB zu bringen, ergo blieben nur 12GB zur Auswahl sofern man nicht am SI dreht. Vom Prinzip her hätte die 3060 auch mit 10GB an 160Bit SI rauskommen können.

HOT
2022-06-27, 12:06:27
Es wird keine Sparmaßnahme geben, es sei denn, man hat da den heiligen Gral gefunden, was zwar sein kann, aber extrem unwahrscheinlich ist. Rechnen würd ich damit nicht. N33 ist, sofern er wirklich 128Bit hat, mit 16GB gesetzt, alles andere ergibt einfach keinen Sinn.

N33 ist der AD104-Konkurrent. AD104 hat 12GB, also kann sich AMD schlichtweg nicht leisten, hier weniger zu haben. Einer Geforce verzeiht der Markt sowas eher, siehe 3070. Das ist aber bei den AMD marketingtechnisch unmöglich.

Linmoum
2022-06-27, 12:10:11
Ich bezweifle stark, dass N32 und N31 durchgehend mehr als 16 GiB Speicher bekommen.

Alles ab N33 grundsätzlich mit mindestens 16 GiB auszustatten, ergibt keinen Sinn und ist auch völliger overkill.

basix
2022-06-27, 12:16:31
Es wird keine Sparmaßnahme geben, es sei denn, man hat da den heiligen Gral gefunden, was zwar sein kann, aber extrem unwahrscheinlich ist. Rechnen würd ich damit nicht. N33 ist, sofern er wirklich 128Bit hat, mit 16GB gesetzt, alles andere ergibt einfach keinen Sinn.

N33 ist der AD104-Konkurrent. AD104 hat 12GB, also kann sich AMD schlichtweg nicht leisten, hier weniger zu haben. Einer Geforce verzeiht der Markt sowas eher, siehe 3070. Das ist aber bei den AMD marketingtechnisch unmöglich.

Naja, eine Mischbestückung wäre ja ziemlich sinnvoll, wenn es keine anderweitigen Probleme damit gibt. Speicher kostet viel Geld, insbesondere heute. Wenn ich das nach Kosten rangieren will:

8GByte ohne Massnahmen. mMn unbrauchbar >1080p und Konkurrenznachteile vs. Lovelace
8GByte mit virtuell grösserem Speicher (Kompression, HBCC, whatever). Leichte Kostenerhöhung, da etwas mehr Logik im Chip verbaut werden muss. mMn sehr attraktiv, technologisch und marketingtechnisch aber sicher eine Herausforderung
12GByte Mischbestückung, Infinity Cache als Ausgleichpuffer. Mittlere Kostenerhöhung, primär durch die höhere Speichermenge. Gesunder Mittelweg
16GByte im Clamshell Modus. Hohe zusätzliche Kosten, da doppelter Speicher.


Du kannst dreimal raten, was ich als Firma anstreben würde. Mit höher Wahrscheinlichkeit nämlich nicht die letzte, ausser ich kann einen entsprechenden Mehrpreis verlangen (was fraglich ist) oder die zusätzliche Komplexität der Lösungen 2.) oder 3.) sind nicht tragbar.

Langfristig sehe ich 2.) als die attraktivste Lösung an, da geringste Kosten. Falls das technisch nicht sinnvoll machbar ist, wäre 3.) eine sinnvolle Alternative und wie bereits angetönt, erreicht man damit eine gewisse Flexibilität. Vor allem, weil man durch den Infinity Cache nun so schmale Interfaces bekommt, wäre solch eine Mischbestückung durchaus attraktiv und sinnvoll.

Ist doch völlig latte ob Overkill oder nicht. Den Speicherausbau bestimmt alleine das SI. Bei 128Bit gibt es nur zwei Optionen 8GB oder 16GB. Ersteres wäre ein Rohrkrepierer. Stelle mir gerade eine RX 6900XT mit 8GB vor. :lol:

Dein Geldbeutel wird dir nach den 16GByte noch sagen, ob ein "Latte" dann noch drin liegt oder nicht ;)

Ich habe oben entsprechende Optionen aufgelistet. 16GByte sehe ich hier nur als letzten Ausweg, als Brute Force. Da gibt es bei AMD sicher Leute mit intelligenteren Ansätzen ;) Ich bin bei einem Punkt aber bei dir: 8GByte ohne anderweitige Verbesserungen wäre ein Rohrkrepierer.

dargo
2022-06-27, 12:21:34
Dein Geldbeutel wird dir nach den 16GByte noch sagen, ob ein "Latte" dann noch drin liegt oder nicht ;)
Mach dir da keine Sorgen um meinen Geldbeutel, der ist gut gefüllt. :P

basix
2022-06-27, 12:25:52
Deiner vielleicht schon. Bei anderen ist das nicht der Fall ;)

Und auch AMD ist daran interessiert, möglichst viel Marge auf den Produkten zu haben. Ergo möglichst wenig VRAM zu verbauen.

Der_Korken
2022-06-27, 12:40:02
Die 128bit bei N33 sehen nach bisherigen Infos nach einem Kackstuhl aus. 8GB sind zu wenig, 16GB schon wieder etwas viel, d.h. es ginge eigentlich auch wengier und man ist zu dicht am nächsten Chip dran. Ähnliche Situation wie bei N24. 192bit und weniger IF$ wären vielleicht besser gewesen, weil man dann auf 12GB hätte gehen können.

mr coffee
2022-06-27, 13:00:37
Hängt doch alles am Preispunkt. 8 GB wird noch für ne Menge Leute attraktiv sein, für uns halt nicht …

dargo
2022-06-27, 13:03:25
Nochmal... mit nur 8GB wird N33 ne Lachnummer, ich freue mich schon auf den Shitstorm.


Und auch AMD ist daran interessiert, möglichst viel Marge auf den Produkten zu haben. Ergo möglichst wenig VRAM zu verbauen.
Ach komm... wenn AMD so sparsam ist warum haben die die RX 6800 nicht einfach mit 12GB an 192Bit rausgebracht? :rolleyes:

HOT
2022-06-27, 13:05:55
Deiner vielleicht schon. Bei anderen ist das nicht der Fall ;)

Und auch AMD ist daran interessiert, möglichst viel Marge auf den Produkten zu haben. Ergo möglichst wenig VRAM zu verbauen.
Nein, das ist nicht effektiv. Nur auf den ersten Blick vielleicht, aber es ist ne Marketingkatastrophe mit Ansage, das wird nicht passieren.

Platos
2022-06-27, 13:11:42
AMD hat auch diese Generation viele Speicherkrüppel raus gebracht. Die Zeiten, dass AMD (grundsätzlich) viel Speicher anbietet, ist schon laaaange vorbei. Einzelne Modelle gibts noch, die mehr bieten. Das gibts ja mittlerweile aber auch bei nvidia. Also nix besonderes mehr.

Ergo ist AMD und viel Speicher schon lange ein Geist der Zeit.

mboeller
2022-06-27, 13:13:53
8GByte ohne Massnahmen. mMn unbrauchbar >1080p und Konkurrenznachteile vs. Lovelace
8GByte mit virtuell grösserem Speicher (Kompression, HBCC, whatever). Leichte Kostenerhöhung, da etwas mehr Logik im Chip verbaut werden muss. mMn sehr attraktiv, technologisch und marketingtechnisch aber sicher eine Herausforderung
12GByte Mischbestückung, Infinity Cache als Ausgleichpuffer. Mittlere Kostenerhöhung, primär durch die höhere Speichermenge. Gesunder Mittelweg
16GByte im Clamshell Modus. Hohe zusätzliche Kosten, da doppelter Speicher.



IMHO:
2 + 4

2 = Notebook
4 = Desktop

16GB 16gbps GDDR6 im Desktop. Da alle Buffer, Texturen, Vertex bei RDNA3 anscheinend während der ganzen Bearbeitung komprimiert sind/bleiben (und damit auch im RAM) sollte der langsame GDDR6 locker reichen.

HOT
2022-06-27, 13:14:59
AMD hat auch diese Generation viele Speicherkrüppel raus gebracht. Die Zeiten, dass AMD (grundsätzlich) viel Speicher anbietet, ist schon laaaange vorbei. Einzelne Modelle gibts noch, die mehr bieten. Das gibts ja mittlerweile aber auch bei nvidia. Also nix besonderes mehr.

Ergo ist AMD und viel Speicher schon lange ein Geist der Zeit.

Aha? Jetzt bin ich mal gespannt ;). Beispiele bitte. Der N24-Unfall 6500XT zählt nicht.

Dino-Fossil
2022-06-27, 13:22:57
Wie kommst du jetzt darauf N33 wäre der Einstieg?

Einstieg ins RDNA3-Portfolio. Oder ist schon was zu kleineren RDNA3 Chips bekannt?
Wie gesagt, refresh-Chips für die Karten darunter wären möglich, aber insgesamt wäre es doch zumindest ungewöhnlich, würde die neue Generation mit immerhin kolportierten 3 RDNA3 Chips nur den oberen Performance-Bereich abgrasen und dann mehrere(?) refresh-Lösungen mitbringen um darunter was anzubieten.
Natürlich kann AMD das so machen, aber gänzlich abwegig finde ich den Gedanken nicht, dass der kleinste von 3 Chips eher im Midrange-Segment landet und dazu entsprechende Preise hat. Wie die Performance wirklich ausschaut bleibt ja noch abzuwarten, würde mich nicht zu sehr hypen lassen.

dargo
2022-06-27, 13:25:36
Einstieg ins RDNA3-Portfolio. Oder ist schon was zu kleineren RDNA3 Chips bekannt?

Ich würde vermuten die kommen erst später im Laufe des Jahres 2023. Falls nicht bleibt nur die Option weiter RDNA2 unten rum laufen zu lassen.

Platos
2022-06-27, 13:30:41
Aha? Jetzt bin ich mal gespannt ;). Beispiele bitte. Der N24-Unfall 6500XT zählt nicht.


6600XT z.B: Teurer wie 3060, minimal schneller, 1/3 weniger Speicher...
Oder 6600. Gleich teuer, etwa gleiche Perfomance, 1/3 weniger Speicher...

6650XT selbes Spiel noch schlimmer.

Und natürlich zählt auch der 6500XT Krüppel.

dargo
2022-06-27, 13:36:18
6600XT z.B: Teurer wie 3060, minimal schneller, 1/3 weniger Speicher...
Oder 6600. Gleich teuer, etwa gleiche Perfomance, 1/3 weniger Speicher...

Soll das jetzt witzig sein? :freak: Wie oft denn noch?

Ich kann dir genauso das Gegenteil liefern. RX 6800 vs. RTX 3070(TI). :rolleyes:

Platos
2022-06-27, 13:40:27
Soll das jetzt witzig sein? :freak: Wie oft denn noch?

Ich kann dir genauso das Gegenteil liefern. RX 6800 vs. RTX 3070(TI). :rolleyes:

Ging um AMD, nicht um nvidia. Aber hat wohl der AMD-Beissreflex zugeschlagen...

Es ging darum, dass AMD achon lange nicht mehr grundsätzlich viel Speicher liefert und es unwahrscheinlich ist, eine Karte so weit unten im Portfolio mit 16GB auszustatten. Ob nvidia schlechte Speicheraustattungen hat, spielt keine Rolle für die Tatsache, dass AMD schon lange nicht mehr grundsätzlich viel Speicher bringt.

HOT
2022-06-27, 13:58:25
6600XT z.B: Teurer wie 3060, minimal schneller, 1/3 weniger Speicher...
Oder 6600. Gleich teuer, etwa gleiche Perfomance, 1/3 weniger Speicher...

6650XT selbes Spiel noch schlimmer.

Und natürlich zählt auch der 6500XT Krüppel.
Ah, N33 mit 8GB geht und 3070 auch, aber 6600XT, die wirklich Mainstream ist und wirklich grade so Leistung für FHD biete ist jetzt ein Speicherkrüppel? Das ist lächerlich. Und die 6500XT zählt nicht. Das Ding liegt zurecht wie Blei im Laden, der Speicher ist da fast egal, so schlecht wie das Teil ist. Ist halt ein reines Mobilprodukt.

Ging um AMD, nicht um nvidia. Aber hat wohl der AMD-Beissreflex zugeschlagen...

Es ging darum, dass AMD achon lange nicht mehr grundsätzlich viel Speicher liefert und es unwahrscheinlich ist, eine Karte so weit unten im Portfolio mit 16GB auszustatten. Ob nvidia schlechte Speicheraustattungen hat, spielt keine Rolle für die Tatsache, dass AMD schon lange nicht mehr grundsätzlich viel Speicher bringt.

3060Ti und 3070 -> 8GB
67x0XT -> 12GB
6800 -> 16GB

3080 -> 10GB
3080Ti -> 12GB
>=6800XT -> 16GB

Beweisführung abgeschlossen.

basix
2022-06-27, 14:04:35
Ach komm... wenn AMD so sparsam ist warum haben die die RX 6800 nicht einfach mit 12GB an 192Bit rausgebracht? :rolleyes:

Weil es die 6700XT schon mit 12GByte gab und die 6800XL eher eine Limited Edition war. Ist eine Frage der Portfoliogestaltung.

6600XT z.B: Teurer wie 3060, minimal schneller, 1/3 weniger Speicher...
Oder 6600. Gleich teuer, etwa gleiche Perfomance, 1/3 weniger Speicher...

6650XT selbes Spiel noch schlimmer.

Die 3060 hat eher zu viel Speicher, wenn die 3070 nur 8GB hat ;) Und sieh dir die anderen Ampere Karten an: Die 3060 ist eine Anomalie im Portfolio, nichts anderes. Bei allen anderen Karten wurde gegeizt (3090 mal aussen vor gelassen).

Die 6600er sind mit 8GByte eigentlich genau richtig bestückt. Als günstige 1080p Karte mit knapp 1440p in Schlagweite klappt das eigentlich. Die 3060 wäre mit 9GByte optimal gewesen. Gibts aber halt nicht.

Und die 329$ MSRP der 3060 sind zwar auf dem Papier schön, in der harten Realität zahlst du selbst heute bei sich normalisiertenden Preislagen noch etwa +100$ mehr. Und das sind die besten Preise, nicht der Durchschnittspreis.

Der_Korken
2022-06-27, 14:05:23
6600XT z.B: Teurer wie 3060, minimal schneller, 1/3 weniger Speicher...
Oder 6600. Gleich teuer, etwa gleiche Perfomance, 1/3 weniger Speicher...


Ja wow, als Referenz nimmst du dann die eine Nvidia-Karte, die ein totaler Ausreißer nach oben ist, was Speicher pro Rechenleistung angeht :rolleyes:

Gegen 3060Ti bis 3080Ti sehen alle AMD-Karten gut aus bei der Speichermenge. Den Speicherkrüppelschuh muss sich da eher Nvidia mit der 3070 Ti und 3080 anziehen.

basix
2022-06-27, 14:08:57
Eigentlich ist alles von 3060 Ti bis 3080 Ti knapp bemessen hinsichtlich Speichermenge. 3050 mit 8GByte sind OK. 3060 mit 12GB sind gut (mehr als nötig) und die 24GB der 3090 sind eh mehr als genug.

Auch die 12GB der 3080 Ti sind etwas grenzwertig. Heute klappt das noch gut, aber in 1-2 Jahren werden die 12GByte vermutlich knapp oder man muss auf 1440p wechseln.

Das RDNA2 Portfolio ist in dieser Hinsicht deutlich stimmiger. Einzig die vergleichsweise schwache RT-Performance wird zukünftig ein bisschen zum Hemmschuh werden, wenn man mit RT spielen will. Das ist aber ein anderes Thema und wird mit RDNA3 vermutlich stark verbessert worden sein.

Rincewind
2022-06-27, 14:10:30
euer Kleinkrieg ist echt anstrengend. Eigentlich könnte ich hier die letzten beiden Seiten komplett als Spam löschen.

fondness
2022-06-27, 14:14:33
Noch ein Tweet von Greymon55:

The 31 is not the flagship of 3X, the fastest one will debut in 2023.
Since RGT had said a 2GCD product before, I mistakenly thought it was the flagship. But it is certain that the specifications of the flagship are still to be determined.

https://twitter.com/greymon55/status/1541330170074009600

dargo
2022-06-27, 14:27:01
Ging um AMD, nicht um nvidia. Aber hat wohl der AMD-Beissreflex zugeschlagen...

Es ging darum, dass AMD achon lange nicht mehr grundsätzlich viel Speicher liefert und es unwahrscheinlich ist, eine Karte so weit unten im Portfolio mit 16GB auszustatten. Ob nvidia schlechte Speicheraustattungen hat, spielt keine Rolle für die Tatsache, dass AMD schon lange nicht mehr grundsätzlich viel Speicher bringt.
Was ist das denn wieder für ein Bullshit hier? Schon Fiji mit 4GB vergessen?

Weil es die 6700XT schon mit 12GByte gab und die 6800XL eher eine Limited Edition war. Ist eine Frage der Portfoliogestaltung.

Wieder so ein bullshit Argument... die RX 6800XL wäre auch mit 12GB schneller als die RX 6700XT.

Noch ein Tweet von Greymon55:



https://twitter.com/greymon55/status/1541330170074009600
Hmm... ok, in dem Fall sind eventuell die ganzen Gerüchte um den N33 (Performance ca. N21XT bei 180-230W) für die Mülltonne wenn jetzt noch ein N30 dazu kommt.

DrFreaK666
2022-06-27, 15:29:46
Gerüchte sind nicht für die Tonne, da es nur Gerüchte sind.
Wie oft war er sich denn schon "certain"?

Cyberfries
2022-06-27, 16:18:57
"Navi 30" ist, wie so vieles anderes, eine Erfindung von greymon55.
Ziemlich verdächtig, dass sobald nVidia laut Gerüchten stärker ausfällt, von einem magischen AMD-Super-Chip gesprochen wird...

Da wird also laut Leakern das ganze Konzept umgeworfen von 2xGCD auf 1x weil man der eigenen Stärke sicher ist.
Aber nur so zum Spaß läuft parallel weiter die volle Entwicklungsarbeit am 2xGCD-Konzept, ist N32 weiter 2xGCD-tauglich,
wird Die-Fläche freigehalten für Crosslinks, usw ... nur für einen hypothetischen Fall, dessen Eintreffen nicht erwartet wird?

Das klingt auf mich wenig wahrscheinlich. Und Kepler_L2 (https://nitter.net/Kepler_L2/status/1537017591373471744#m):
It doesnt exist
verneint diese Gerüchte klar, ebenso wie davideneco (https://nitter.net/davideneco25320/status/1541333935900221442#m): The Flagship is 31. They are no new GPU planned

HOT
2022-06-27, 16:26:30
Hm ich bin mittlerweile versucht alles zu negieren, was da über AMD kam. Wir wissen nicht, wieviele Chips es gibt, wie wissen nicht wie die aussehen, auch N33 und solche Sachen würde ich sagen waren glatte Fehlinformation meiner Ansicht nach. Die Chips werden völlig anders aussehen als wir das jetzt denken fürchte ich.

Glaubhafte Infos:
Es gibt mindestens 3 Chips, wahrscheinlich sind es aber 4 oder 5. Wie wissen, dass irgendwas im September oder Oktober letzten Jahres Tapeout hatte, wir wissen aber nicht was. Wir wissen, dass diese Generation N5 wird, da AMD klar 5nm geschrieben hat. Wenn das N4 wäre, hätte man das denke ich so kommuniziert. Wenn was (bis auf leistungsirrelevante Komponenten vielleicht) N6 wäre, hätte man das so kommuniziert. Wir wissen nicht, wieviele WGPs, wir wissen nicht, wie die WGPs genau aussehen, wie wissen nur, dass das technische Update krasser sein soll als von Vega zu RDNA, was sehr heftig ist, das war ja wie Kepler zu Maxwell, es steht technisch also was großes an. Wir wissen, dass AMD schon 2020 kommunziert hat, dass RDNA3 Konzentration auf RT hat, also wird sich da auch Großes tun. Als nächsten Punkt wissen wir, dass der IF$ auf eine neue Stufe gehoben wird, wir wissen das aber nicht einzuordnen, nur wird sich hier auch was tun.
Ich denke, man sollte sich auf diese Infos beschränken. NV ist deutlich durchlässiger was Leaks angeht, aber AMD macht hier nach wie vor eine exzellenten Job, Leaks zu verhindern und streuen mMn sogar selbst Desinformation um Leaker aufzudecken.

Also:
- N5
- komplett neue Architektur (GCN+ -> RDNA/2 -> Navi3-Architektur)
- Konzentration auf RT
- neuer IF$
- Chiplets in irgendeiner Form
- mehr W pro Produktklasse (wieviel ist Unbekannt, aber von den Aussagen her kann man schließen, dass es nicht soviel sein wird wie bei Ada)
- mindestens 3 Produkte
- neuer Videoprozessor (aus der Präsentation), DP2.0

Alles andere würd ich komplett vergessen.

Thunderburne
2022-06-27, 16:28:18
https://wccftech.com/amd-rdna-3-gpu-radeon-rx-7000-enhanced-raytracing-capbilities-higher-clocks-av1-dp-2-0-support/

3GHZ Wäre nice + deutlich mehr Raytracing Leistung wäre echt Top!

Linmoum
2022-06-27, 16:28:35
Greymon und kopite hören vor allem in letzter Zeit immer alles mögliche, aber sind nicht in der Lage, das richtig zu filtern bzw. einzuordnen.

Da wird alles rausposaunt, egal wie wild das auch ist.

basix
2022-06-27, 16:34:32
Hm ich bin mittlerweile versucht alles zu negieren, was da über AMD kam. Wir wissen nicht, wieviele Chips es gibt, wie wissen nicht wie die aussehen, auch N33 und solche Sachen würde ich sagen waren glatte Fehlinformation meiner Ansicht nach. Die Chips werden völlig anders aussehen als wir das jetzt denken fürchte ich.

Glaubhafte Infos:
Es gibt mindestens 3 Chips, wahrscheinlich sind es aber 4 oder 5. Wie wissen, dass irgendwas im September oder Oktober letzten Jahres Tapeout hatte, wir wissen aber nicht was. Wir wissen, dass diese Generation N5 wird, da AMD klar 5nm geschrieben hat. Wenn das N4 wäre, hätte man das denke ich so kommuniziert. Wenn was (bis auf leistungsirrelevante Komponenten vielleicht) N6 wäre, hätte man das so kommuniziert. Wir wissen nicht, wieviele WGPs, wir wissen nicht, wie die WGPs genau aussehen, wie wissen nur, dass das technische Update krasser sein soll als von Vega zu RDNA, was sehr heftig ist, das war ja wie Kepler zu Maxwell, es steht technisch also was großes an. Wir wissen, dass AMD schon 2020 kommunziert hat, dass RDNA3 Konzentration auf RT hat, also wird sich da auch Großes tun. Als nächsten Punkt wissen wir, dass der IF$ auf eine neue Stufe gehoben wird, wir wissen das aber nicht einzuordnen, nur wird sich hier auch was tun.
Ich denke, man sollte sich auf diese Infos beschränken. NV ist deutlich durchlässiger was Leaks angeht, aber AMD macht hier nach wie vor eine exzellenten Job, Leaks zu verhindern und streuen mMn sogar selbst Desinformation um Leaker aufzudecken.

Also:
- N5
- komplett neue Architektur (GCN+ -> RDNA/2 -> Navi3-Architektur)
- Konzentration auf RT
- neuer IF$
- Chiplets in irgendeiner Form
- mehr W pro Produktklasse (wieviel ist Unbekannt, aber von den Aussagen her kann man schließen, dass es nicht soviel sein wird wie bei Ada)
- mindestens 3 Produkte

Danke.

Etwas mehr Erdung bei den Spekus lohnt sich glaube ich. Über RDNA3 ist einfach nichts wirklich handfestes bekannt, ausser das von letzten FAD sowie ein paar Treiber-Einträge zu vergrösserten WGPs, NGG, Color Compression etc.

HOT
2022-06-27, 16:40:28
Ich denke wirklich, dass wir es hier mit glatter Fehlinformation zu tun haben, die absichtlich ausgebracht wurde. Man kann echt nur das glauben, was Folien und Treiber aussagen.

Neurosphere
2022-06-27, 16:43:04
"Navi 30" ist, wie so vieles anderes, eine Erfindung von greymon55.
Ziemlich verdächtig, dass sobald nVidia laut Gerüchten stärker ausfällt, von einem magischen AMD-Super-Chip gesprochen wird...

Da wird also laut Leakern das ganze Konzept umgeworfen von 2xGCD auf 1x weil man der eigenen Stärke sicher ist.
Aber nur so zum Spaß läuft parallel weiter die volle Entwicklungsarbeit am 2xGCD-Konzept, ist N32 weiter 2xGCD-tauglich,
wird Die-Fläche freigehalten für Crosslinks, usw ... nur für einen hypothetischen Fall, dessen Eintreffen nicht erwartet wird?

Das klingt auf mich wenig wahrscheinlich. Und Kepler_L2 (https://nitter.net/Kepler_L2/status/1537017591373471744#m):

verneint diese Gerüchte klar, ebenso wie davideneco (https://nitter.net/davideneco25320/status/1541333935900221442#m):

Ja, am Ende sieht es wieder danach aus als wüsten wir eigentlich nix. Irgendwo wird ein Stückchen Wahrheit drin sein, aber welcher der vielen "Leaks" nun brauchbar ist kann man halt nicht beurteilen.
Generell würde ich vermuten das es für AMD und NV eher von Vorteil ist, sofern man nicht wesentlich später als der andere am Markt ist, positiv zu überraschen als nach den ganzen Infos die durch die Newsseiten gehen zu enttäuschen weil man eben nicht 2x oder 3x so schnell wie die alten Gen ist.

Ich denke wirklich, dass wir es hier mit glatter Fehlinformation zu tun haben, die absichtlich ausgebracht wurde. Man kann echt nur das glauben, was Folien und Treiber aussagen.

Die 16k CUs stehen aber im Treiber.... und sind trotzdem nicht viel Wert.

robbitop
2022-06-27, 16:43:55
Da wird also laut Leakern das ganze Konzept umgeworfen von 2xGCD auf 1x weil man der eigenen Stärke sicher ist.
Aber nur so zum Spaß läuft parallel weiter die volle Entwicklungsarbeit am 2xGCD-Konzept, ist N32 weiter 2xGCD-tauglich,
wird Die-Fläche freigehalten für Crosslinks, usw ... nur für einen hypothetischen Fall, dessen Eintreffen nicht erwartet wird?

Das klingt auf mich wenig wahrscheinlich. Und Kepler_L2 (https://nitter.net/Kepler_L2/status/1537017591373471744#m):

verneint diese Gerüchte klar, ebenso wie davideneco (https://nitter.net/davideneco25320/status/1541333935900221442#m):
Ich finde dein Post klingt plausibel und überzeugend :up:

HOT
2022-06-27, 16:45:25
[...]


Die 16k CUs stehen aber im Treiber.... und sind trotzdem nicht viel Wert.

Ok, irgendein Produkt mit 16WGP confirmed.

Ach ja, die 50% mehr Perf/W vergessen.

Gott1337
2022-06-27, 17:01:27
Ok, irgendein Produkt mit 16WGP confirmed.

Ach ja, die 50% mehr Perf/W vergessen.
und damit kann man auch ausrechnen das der Topdog maximal 100% schneller wird als N21

denn wie wir wissen wird AMD nicht auf 450 Watt hoch gehen, aber gehen wir einfach mal von 450watt aus. 50% durch effizienz und 50% durch höheren verbrauch (300 -> 450 watt) also wird N31 wohl eher bei 75-80% Mehrleistung raus kommen

basix
2022-06-27, 17:05:35
>50% Perf/W ;)

Und wie du auf 80% kommst, erschliesst sich mir nicht. 1.5x Energieffizienz bei gleichzeitig 1.5x Power Draw: 1.5*1.5 = 2.25x

Linmoum
2022-06-27, 17:09:33
Müssen wir hier jetzt wieder mit Mathe-Grundkurs anfangen? :D

dargo
2022-06-27, 17:14:59
>50% Perf/W ;)

Bei den >50% Perf/W ist noch völlig offen was sich genau dahinter verbirgt. Es könnten auch 60% oder im besten Fall 70% sein. Wenn ich die Konkurrenz nervös machen wöllte würde ich auch erstmal tiefer stapeln und den Konkurrenten mit ">" verunsichern. ;)


Und wie du auf 80% kommst, erschliesst sich mir nicht. 1.5x Energieffizienz bei gleichzeitig 1.5x Power Draw: 1.5*1.5 = 2.25x
btw.
Diese Rechnung ist imho sehr wackelig da die Performance nicht linear zur Leistungsaufnahme ansteigt. Insbesondere an der Frequenz-Kotzgrenze kommt kaum mehr was bei rum außer Abwärme. :D

Gott1337
2022-06-27, 17:19:44
>50% Perf/W ;)

Und wie du auf 80% kommst, erschliesst sich mir nicht. 1.5x Energieffizienz bei gleichzeitig 1.5x Power Draw: 1.5*1.5 = 2.25x
boing, da haste recht. aber ich komme auf 1.8 (80% Mehrleistung) weil AMD selbst gesagt hat das sie die TDP nicht so stark anheben werden, also eher nur um 20%. Das heißt 1.5*1.2

Platos
2022-06-27, 17:21:04
Was ist das denn wieder für ein Bullshit hier? Schon Fiji mit 4GB vergessen?

Nein, das unterstreicht ja umsomehr, was ich sage: AMD bietet schon lange nicht mehr grundsätzlich viel ( oder am meisten) Speicher.

basix
2022-06-27, 17:25:50
btw.
Diese Rechnung ist imho sehr wackelig da die Performance nicht linear zur Leistungsaufnahme ansteigt. Insbesondere an der Frequenz-Kotzgrenze kommt kaum mehr was bei rum außer Abwärme. :D

Ja, ist immer die Frage was der Ausgangspunkt ist. Ich würde in der Tendenz zum Referenzdesign des Top Dogs neigen, womit meine Rechnungsweise dann Gültigkeit hätte. Aber wer weiss. Ampere soll ja auch 1.9x effizienter als Turing sein ;)

dargo
2022-06-27, 17:27:11
Aber wer weiss. Ampere soll ja auch 1.9x effizienter als Turing sein ;)
Unter welchen Drogeneinfluss hat das einer errechnet? ;D

basix
2022-06-27, 17:34:58
Keine Ahnung, frag Nvidia:
https://www.notebookcheck.com/fileadmin/Notebooks/NVIDIA/Ampere/ampere_perf_w.jpg

Zu RT @ RDNA3 gab es noch eine interessante Aussage von David Wang:
https://wccftech.com/amd-rdna-3-gpu-radeon-rx-7000-enhanced-raytracing-capbilities-higher-clocks-av1-dp-2-0-support/
And to bring more photorealistic effects into the domain of realtime gaming, we are developing hybrid approaches that takes the performance of the rasterization combined with the visual fidelity of raytracing, to deliver the best realtime immersive experiences without comprising performance.

Das erinnert mich irgendwie an die Hybrid-RT Samples aus dem FidelityFX Katalog:
https://gpuopen.com/learn/samples-library/