PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42 43 44 45 46 47 48

TheGood
2023-05-12, 18:26:27
die 6700 XT sind auch jetzt echt im ABverkauf. Von Januar bis ende märz 399 und erst seit april sinkt sie nochmals. WAs wollen die leute kaufen, wenn nichts mehr vom restbestand da ist ;)

350 Euro ist als UVP OK, da AMD meistens ja doch schnell die preise nach unten gehen und sie nicht halten können. Dann kann sie in einem halben jahr für 300 und weniger verkauft werden. Es braucht ja auch noch deutlich luft nach unten...

Linmoum
2023-05-12, 18:43:01
250€ wären eigentlich schon zu viel. Aber gut, das Spiel spielen ja sowohl AMD als auch Nvidia. Da nimmt sich keiner was. Problem für AMD ist bei so einer Karte dann halt nur, dass sie nicht einmal beim Speicher einen Vorteil gegenüber Nvidia haben werden und somit die Karte noch unattraktiver als ohnehin schon wird.

DozerDave
2023-05-12, 18:56:59
Stimme den Aussagen hier zu:
https://youtu.be/PjkwJi6aWvg?t=562

Und die halten schon 300USD für überteuert.

Fusion_Power
2023-05-12, 20:35:34
Schnieke geworden das ROG Ally.

J0W9fwQ2HfE

Fehlen jetzt nur noch die neuen Notebooks mit der Zen4/RDNA3 APU. ^^"

horn 12
2023-05-13, 08:57:30
Der Preis ist aber hoch mit 600 - 700 Euro

dildo4u
2023-05-13, 09:18:56
Das ist normal es wird vermutlich auch keine billigen Zen 4 Notebooks geben daher gibt es ja Refrech 7735hs etc.

https://www.notebookcheck.com/AMD-Ryzen-7-7735HS-Prozessor-Benchmarks-und-Specs.681408.0.html

Fusion_Power
2023-05-13, 15:31:56
Der Preis ist aber hoch mit 600 - 700 Euro
In Europa ehr 800€ (https://www.amazon.de/dp/B0C3W69P5S). Obligatorischer Fantasiepreisaufschlag. :freak:
Ich sags mal so, wenn ich einen 15" oder 16" Laptop zu dem Preis mit der APU gäbe, würde ich zugreifen. Die vielen China-x86-Handhelds mit vergleichbarer, älterer APU kosten meist locker über 1000€, insofern ist der Preis des ROG Ally (Z1 Extreme) schon gut. Es soll auch eine preiswertere Version geben mir kleinerer RDNA3 iGPU, statt 12XUs dann nur noch 4XUs, vermutlich 100€ billiger als das Spitzenmodell.

Linmoum
2023-05-17, 23:58:11
Sollte die 4060Ti mit 8GiB für $399 kommen, bin ich gespannt, wo/wie AMD die 7600 nächste Woche platziert. Gleichstand beim Speicher, je nach Gerücht auch höherer Verbrauch, kein DLSS und (noch) kein FG-Pendant. Aus reiner Performancesicht wird man gegen die Ti auch keine Chance haben.

Diese zuletzt auch umhergeisternden $349 wären damit kompletter Schwachsinn. Ich würde ja soweit gehen und sagen, dass AMD das womöglich tatsächlich angepeilt hatte. Da der Launch beider GPUs quasi zeitgleich passiert, würde es mich nicht überraschen, wenn man in einer Last-Minute-Aktion den Preis noch senkt. Nvidia soll ja einen Tag früher launchen, da hat man die Möglichkeit.

Unabhängig davon, warum N32 noch immer nicht marktreif ist, ist das aber schon sportlich, dass man damit den Preisbereich unterhalb von $899 und oberhalb von $300 (?) komplett abdecken will. Das ergibt für mich aus Portfolio-Sicht nicht viel Sinn und wirkt auch nicht wie ursprünglich geplant. Klar, man braucht nicht alle $100 eine extra SKU, aber die (preisliche) Lücke ist dann doch deutlich größer als nur das.

BlacKi
2023-05-18, 00:23:52
Der Preis ist aber hoch mit 600 - 700 Euro relativ zum günstigsten steam deck gesehen, ja. zum teuersten? nein. mal davon abgesehen dass das steam deck keinen gewinn machen muss.

reaperrr
2023-05-18, 03:19:13
Unabhängig davon, warum N32 noch immer nicht marktreif ist, ist das aber schon sportlich, dass man damit den Preisbereich unterhalb von $899 und oberhalb von $300 (?) komplett abdecken will. Das ergibt für mich aus Portfolio-Sicht nicht viel Sinn und wirkt auch nicht wie ursprünglich geplant. Klar, man braucht nicht alle $100 eine extra SKU, aber die (preisliche) Lücke ist dann doch deutlich größer als nur das.
Also den MSRP der 7900 XT scheint AMD zumindest inoffiziell immerhin bereits auf 799$/819€ gesenkt zu haben.

Außerdem sollte N32 als Salvage mit nur 192bit (3 MCDs) auch nicht viel teurer als N22 zu produzieren sein.

7700 XTX (N32 full) - 599-629$ (leicht über 4070-Leistung + mehr Speicher)
7700 XT (N32 54-CU - 549-569$ (leicht langsamer als 4070, aber mehr Speicher und günstiger)
7600 XT (N32-48 / 192 bit) - 449$ (mehr Speicher und etwas schneller als 4060 Ti)

Grundsätzlich ist die Lücke zwischen N33 und N32 gewollt, weil man ursprünglich eigentlich aus dem Preisbereich unter 500$ weitgehend raus wollte bzw. diesen nur noch mit Karten bedienen wollte, die deutlich billiger zu produzieren sind als N22, um mehr Marge zu erzielen und endlich mit GPUs kontinuierlich Geld zu machen.

Da hat jetzt halt der allgemeine Nachfrageeinbruch einen Strich durch die Rechnung gemacht.

TheGood
2023-05-18, 08:00:04
Sollte die 4060Ti mit 8GiB für $399 kommen, bin ich gespannt, wo/wie AMD die 7600 nächste Woche platziert. Gleichstand beim Speicher, je nach Gerücht auch höherer Verbrauch, kein DLSS und (noch) kein FG-Pendant. Aus reiner Performancesicht wird man gegen die Ti auch keine Chance haben.

Diese zuletzt auch umhergeisternden $349 wären damit kompletter Schwachsinn. Ich würde ja soweit gehen und sagen, dass AMD das womöglich tatsächlich angepeilt hatte. Da der Launch beider GPUs quasi zeitgleich passiert, würde es mich nicht überraschen, wenn man in einer Last-Minute-Aktion den Preis noch senkt. Nvidia soll ja einen Tag früher launchen, da hat man die Möglichkeit.

Unabhängig davon, warum N32 noch immer nicht marktreif ist, ist das aber schon sportlich, dass man damit den Preisbereich unterhalb von $899 und oberhalb von $300 (?) komplett abdecken will. Das ergibt für mich aus Portfolio-Sicht nicht viel Sinn und wirkt auch nicht wie ursprünglich geplant. Klar, man braucht nicht alle $100 eine extra SKU, aber die (preisliche) Lücke ist dann doch deutlich größer als nur das.

Also ich habe nur 299 $ und 349€ herumgeistern sehen.
Ersteres oder etwas günstiger scheint sich jetzt wohl zu bestätigen. Da kann ja dann jeder entscheiden was er macht. Günstig ist das aber tatsächlich nicht.

Aber für beide KArten gilt, da muss ich mich auch korrigieren, mit 8 GB VRAM ist ein deutscher UVP von über 300 € schlicht überteuert. Da brauch ich über die Performance erst gar nicht zu diskutieren. Dann noch 100 Dollar Aufpreis verlangen für die 16 GB Variante ist genauso frech.
Da kauft man sich viel leichter im Abverkauf ne 12GB+ Karte. Zumindest wer in weniger als zwei jahren nicht schon wieder neu kaufen will.

dildo4u
2023-05-18, 08:35:56
Sollte die 4060Ti mit 8GiB für $399 kommen, bin ich gespannt, wo/wie AMD die 7600 nächste Woche platziert. Gleichstand beim Speicher, je nach Gerücht auch höherer Verbrauch, kein DLSS und (noch) kein FG-Pendant. Aus reiner Performancesicht wird man gegen die Ti auch keine Chance haben.

Diese zuletzt auch umhergeisternden $349 wären damit kompletter Schwachsinn. Ich würde ja soweit gehen und sagen, dass AMD das womöglich tatsächlich angepeilt hatte. Da der Launch beider GPUs quasi zeitgleich passiert, würde es mich nicht überraschen, wenn man in einer Last-Minute-Aktion den Preis noch senkt. Nvidia soll ja einen Tag früher launchen, da hat man die Möglichkeit.

Unabhängig davon, warum N32 noch immer nicht marktreif ist, ist das aber schon sportlich, dass man damit den Preisbereich unterhalb von $899 und oberhalb von $300 (?) komplett abdecken will. Das ergibt für mich aus Portfolio-Sicht nicht viel Sinn und wirkt auch nicht wie ursprünglich geplant. Klar, man braucht nicht alle $100 eine extra SKU, aber die (preisliche) Lücke ist dann doch deutlich größer als nur das.
Die 7600 ist billiger zu produzieren als alle neuen und alten Karten, das sie nicht für 250$ kommt häng natürlich damit zusammen das AMD offenbar tonnen Low End Chips produziert hat.
Was komplett Sinn macht da sie in dem dem Bereich viele Kunden mit RX580 haben die Aufrüsten wollen.

Die größte Auswahl an Verfügbaren AMD Modellen sind 6700XT/6650XT.

https://geizhals.de/?cat=gra16_512&xf=132_8192&asuch=&bpmin=&bpmax=&v=l&hloc=at&hloc=de&plz=&dist=&mail=&sort=eintr&bl1_id=30

dildo4u
2023-05-20, 09:15:08
Weitere Preis Spekulationen AMD hat 299$ für 4060 nicht erwartet.
Das war wohl der Plan 4060 um 30$ zu unterbieten.

https://youtu.be/XUQHiDLRpP4?t=4957

DrFreaK666
2023-05-20, 09:26:29
Naja, die 8GB Karten finden wir alle ja eher uninteressant. Interessant wird sein ob und wie AMD auf die 4060 Ti reagiert.
Zwischen der 7600 und 7900 klafft jedenfalls eine riesige Lücke

dildo4u
2023-05-20, 09:32:16
Die alten Karten sind irgendwann abverkauft dann wirst du minimal 400€ für 12GB ausgeben müssen auch bei AMD.
Aus dem Grund alleine wird sich die 4060 durchsetzen AMD war erfolgreich wenn sie Nvidia massiv unterboten hatten z.b mit der RX 580.

DrFreaK666
2023-05-20, 09:40:48
375€ für 12GB gibst jetzt schon bei AMD aus. Da sind 400€ nur etwas mehr, bei hoffentlich mehr Leistung.
Es ist ao kacke, dass man von den anderen Karten noch überhaupt nichts weiß.
Nvidia hat doch so gut wie alle Karten auf dem Tisch. Sie werden das Portfolio erst später noch mit Super Karten erweitern

HOT
2023-05-20, 10:25:08
Die alten Karten sind irgendwann abverkauft dann wirst du minimal 400€ für 12GB ausgeben müssen auch bei AMD.
Aus dem Grund alleine wird sich die 4060 durchsetzen AMD war erfolgreich wenn sie Nvidia massiv unterboten hatten z.b mit der RX 580.
Die 7600 heißt 7600, weil alle Karten darüber mehr VRAM haben werden.

Linmoum
2023-05-20, 10:29:37
Weitere Preis Spekulationen AMD hat 299$ für 4060 nicht erwartet.
Das war wohl der Plan 4060 um 30$ zu unterbieten.

https://youtu.be/XUQHiDLRpP4?t=4957Kann ich mir gut vorstellen, dass die das nicht erwartet haben. Auch, was so eine frühe Ankündigung durch Nvidia angeht. Die wussten ganz genau, warum sie den Preis für eine GPU, die erst im Juli erscheint, jetzt schon bekanntgeben.

Dass AMD als Reaktion auf die NV-Preise den Preis noch mal nach unten korrigiert, ist auch weiterhin meine Vermutung. Sprich, sie wollten ursprünglich mehr nehmen, können sie jetzt aber logischerweise nicht mehr (also können schon, Juli ist jetzt aber auch nicht mehr weit weg und dann warten die Leute lieber).

Ich bin gespannt, ob sie tatsächlich über $249 gehen, denn selbst das wäre (jetzt) eigentlich schon zu viel. Die reine Die-Size von AD107 und N33 scheint ja fast identisch zu sein, durch N6 wird AMD aber einen großen Kostenvorteil haben. Aus der Sicht sollten sie die 4060 auch preislich deutlich unterbieten. Alles zu nah dran wäre auch in diesem Fall reine Gier.

dildo4u
2023-05-20, 10:38:32
Kommt vermutlich drauf an wie viele sie Produziert haben 250 machen kein Sinn wenn sie durchverkauft sind bevor die 4060 kommt.
Ich sehe eher 299 jetzt und eine Preissenkung Ende Juli.

Raff
2023-05-20, 10:40:18
Euro oder Dollar? ;) 299 USD ergibt hier nun mal keine 299 Euro (was IMHO gut zu einer 8G-Karte passt), dafür ist unsere Währung gerade zu schwach.

MfG
Raff

basix
2023-05-20, 10:42:54
Ich bin gespannt, ob sie tatsächlich über $249 gehen, denn selbst das wäre (jetzt) eigentlich schon zu viel. Die reine Die-Size von AD107 und N33 scheint ja fast identisch zu sein, durch N6 wird AMD aber einen großen Kostenvorteil haben. Aus der Sicht sollten sie die 4060 auch preislich deutlich unterbieten. Alles zu nah dran wäre auch in diesem Fall reine Gier.


AD107 ist 146mm2 gross und N33 204mm2. Das sind 1.40x Unterschied. Klar ist N4 teurer aber unter dem Strich sind beide wohl nicht sehr weit voneinander entfernt hinsichtlich Herstellungskosten. Beide 8GByte GDDR6 und Nvidia hat das momentan bessere Featureset (DLSS3, RT) und geringeren Stromverbrauch. Für 299$ wird das schwerig für AMD. 279$ passen eher. An 249$ glaube ich erstmal nicht, sehe ich als Untergrenze an, wo AMD realisieren könnte.

AMDs eigene Kostendarstellung:
http://www.nextplatform.com/wp-content/uploads/2019/08/amd-su-die-costs.png

robbitop
2023-05-20, 10:43:55
Theoretisch sind 299€ nach heutigem Kurs 275€.Mit Umsatzsteuer dann 327€. Aber wir alle wissen dass da noch oben drauf geschlagen wird in der Praxis.

dildo4u
2023-05-20, 10:45:33
AMD Preise scheinen in den USA besser geringe Nachfrage?
Eine 3060 kostet hier wie dort ca 350€/$.
Daher erwarte ich hier keine Wunder zu viele AMD Fans.

robbitop
2023-05-20, 10:45:45
AD107 ist 146mm2 gross und N33 204mm2. Das sind 1.40x Unterschied. Klar ist N4 teurer aber unter dem Strich sind beide wohl nicht sehr weit voneinander entfernt hinsichtlich Herstellungskosten. Beide 8GByte GDDR6 und Nvidia hat das momentan bessere Featureset (DLSS3, RT) und geringeren Stromverbrauch. Für 299$ wird das schwerig für AMD. 279$ passen eher.

AMDs eigene Kostendarstellung:
http://www.nextplatform.com/wp-content/uploads/2019/08/amd-su-die-costs.png
Das sind dann cents pro mm2? Also gerade mal 12,50 usd für einen 250 mm2 die in 5 nm? Also wären die Fertigungskosten bei TSMC nur peanuts verglichen mit dem Komplettkartenpreis.

Linmoum
2023-05-20, 10:48:11
Jo stimmt, die ~190mm2 waren AD106 und nicht 107. Für $279 kauft doch aber niemand eine 7600 bei dem Preispunkt der 4060. Das sind nicht mal 10% Unterschied für vermutlich identische Raster-Performance, schlechteres Feature-Set und eine schlechtere Effizienz (und wohl ein gutes Stück höherer Verbrauch bei der 7600).

Hätte die 7600 jetzt dafür 12GiB, okay. Aber die hat auch nur 8GiB und damit fällt der AMD-typische Vorteil weg. IMO können sie schlicht nicht mehr als $249 (und das ist schon eigentlich zu viel) verlangen, weil nichts für die Karte sprechen wird, was sie als Alleinstellungsmerkmal hervorhebt - außer möglicherweise halt der Preis.

basix
2023-05-20, 11:01:42
Das sind dann cents pro mm2? Also gerade mal 12,50 usd für einen 250 mm2 die in 5 nm? Also wären die Fertigungskosten bei TSMC nur peanuts verglichen mit dem Komplettkartenpreis.

"Normalized Cost" ;) Niemand mit Verstand bei AMD würde die effektiven Preise dort hin schreiben.

dildo4u
2023-05-20, 11:02:11
Du brauchst 8 GB Karten für OEM System ich bezweifle das Komplett System Käufer super Informiert sind.
1650 gingen z.b gut weg selbst mit den 4GB die Karte ist nicht so alt.

HOT
2023-05-20, 11:42:38
Die Preise werden sowieso schnell fallen, weil das keiner kaufen wird. Jetzt sich über die Preise aufzuregen ist wie immer nonsens. Wenn NV auf den hohen Preis der 16GB-Variante besteht, wird auch die sich nicht verkaufen - das Marktumfeld hat sich zuungunsten der Hersteller gedreht. Letztendlich bleibt niemandem was anderes übrig, als sich dem Markt anzupassen und das heißt alle müssen VRAM bieten (ist mittlerweile PR-Relevant das Thema) und die Preise global senken und auf Margen zu verzichten, denn man verdient halt kein Geld mit Produkten, die man nicht verkauft.

dildo4u
2023-05-20, 11:53:42
Das sind alles Chips die man in Notebooks abschieben kann was natürlich gewollt ist.
Nicht vergessen 3060 Mobile hat 6GB was bald Low statt Medium Details bedeuten kann.

HOT
2023-05-20, 12:08:47
Mit MTL und Strix Point ist Notebook-Grafik in dem Segment schlichtweg am absterben. Die MX sind ja schon am Ende, wenn AMD und Intel noch mehr Grafik bieten (Strix Halo), braucht keiner mehr diese GPUs, vor allem mit begrenzten Speichergrößen. Letztendlich wird dedizierte Notebook-Grafik sich auf HX-Systeme beschränken.
Mit Strix Halo wird AMD keine dedizierten GPUs mehr im Notebookbereich in dem Segment mehr anbieten, falls sie das dann überhaupt noch tun.

dildo4u
2023-05-20, 12:22:05
Mit MTL und Strix Point ist Notebook-Grafik in dem Segment schlichtweg tot. Letztendlich wird dedizierte Notebook-Grafik sich auf HX-Systeme beschränken.

Komplett andere Preisklasse du kannst Strix Point nicht mit Zen 4 Kombinieren um Kosten zu sparen.
Als Beispiel du kannst Heute 4060 mit einem alten Intel kaufen und hast vernünftige Performance.

https://www.newegg.com/p/N82E16834233559?Description=gigabyte+g5&cm_re=gigabyte_g5-_-34-233-559-_-Product&quicklink=true

HOT
2023-05-20, 12:26:48
Komplett andere Preisklasse du kannst Strix Point nicht mit Zen 4 Kombinieren um Kosten zu sparen.
Als Beispiel du kannst Heute 4060 mit einem alten Intel kaufen und hast vernünftige Performance.

https://www.newegg.com/p/N82E16834233559?Description=gigabyte+g5&cm_re=gigabyte_g5-_-34-233-559-_-Product&quicklink=true

Ändert nichts an der Tatsache, dass N33 der letzte Mobilchip für AMD ist im Mainstreamsegment. Geforce wird sich auch nicht länger halten, weil ARL-P, wenn es dediziert wird, eh mit BM gepaart wird. Aber ich bin mir sicher, dass auch Intel an einem Apple Mx-Competitor arbeitet, dieses Segment strirbt also so oder so. Man kann beschränkt ausweichen, beispielsweise ins Profisegment, was NV ja auch teils mit verrückten Rabattaktionen tut, aber die Märkte sind für diese Hersteller eh abgegrast. Was NV ins Notebook bringen kann, wird eh schon einklakuliert sein, das kann man nicht mehr hin ausweichen.

NV hat die Lagerhäuser voller Ada-Chips, die werden früher oder später irgendwo hin müssen. Man kann da mit etlichen Versuchen den Preisverfall strecken, aber ich denke auch, dass der wirtschaftliche Verfall im Westen sich nicht verhindern lässt und hier auf NV der perfekte Sturm zukommt.
Noch so eine Aktion, die Preise zu retten, wäre ein Refresh, also ein echter 5k-Refresh, in dem man die Chips eine Stufe herunter rutschen lässt, die Preise jedoch nicht, diese Aktion werden wir mMn im Herbst sehen. Aber es wird letztendlich auch nicht helfen, die Margen werden fallen - von jetzt 50-100% auf 10-20%.

TheGood
2023-05-20, 16:37:41
Kann ich mir gut vorstellen, dass die das nicht erwartet haben. Auch, was so eine frühe Ankündigung durch Nvidia angeht. Die wussten ganz genau, warum sie den Preis für eine GPU, die erst im Juli erscheint, jetzt schon bekanntgeben.

Dass AMD als Reaktion auf die NV-Preise den Preis noch mal nach unten korrigiert, ist auch weiterhin meine Vermutung. Sprich, sie wollten ursprünglich mehr nehmen, können sie jetzt aber logischerweise nicht mehr (also können schon, Juli ist jetzt aber auch nicht mehr weit weg und dann warten die Leute lieber).

Ich bin gespannt, ob sie tatsächlich über $249 gehen, denn selbst das wäre (jetzt) eigentlich schon zu viel. Die reine Die-Size von AD107 und N33 scheint ja fast identisch zu sein, durch N6 wird AMD aber einen großen Kostenvorteil haben. Aus der Sicht sollten sie die 4060 auch preislich deutlich unterbieten. Alles zu nah dran wäre auch in diesem Fall reine Gier.

Sorry was ist denn das wieder für ein grüner Ritter unser Held Geschwafel? Man man, da kann man nur noch den Kopf schütteln.
Einfach mal die News von heute LEsen, dann weisste was SAche ist bei NVidia. Danach warten wir AMD ab und da wirds nicht besser aussehen.
Wenn wir dann alle tests haben sehen wir was preislich OK (aktuell nichts) ist und was nicht.

Die Frage ist doch eher, warum gibt NVidia die Preise hier jetzt schon bekannt. Damit die Diskussion durch ist wenn die Tests kommen und die Redakteure es dann nicht mehr erwöhnen. Bei Raff (der Rest der Redaktion bemängelt das immerhin deutlich) hat das ja schon gut geklappt, nach seinem Kommentar vor 2 Tagen bzgl. ab 500 Euro ist ok für die 4060TI 16 GB...

Flucht nach vorne nennt man sowas. Bisher hat es zum großen Teil noch nicht gefruchtet... ausser bei den Hardcore Fans und grünrednern :D

DrFreaK666
2023-05-20, 17:51:27
Für 400€ wäre die Karte in Ordnung. In etwa so teuer wie die 3060Ti heute, etwas schneller und doppelt so viel VRAM. Aber der Performance-Sprung ist ehrlich gesagt auch eher: naja

Denniss
2023-05-20, 23:24:19
4N, nicht N4. Die nvidias werden nicht in 4nm hergestellt sondern in einem modifizierten N5 namens 4N

KarlKastor
2023-05-21, 07:07:04
Der nächste der genau weiß wie der Prozess aussieht obwohl es rein gar keine Informationen darüber gibt.

Complicated
2023-05-21, 08:28:24
https://www.techgoing.com/nvidia-clarifies-the-tsmc-4n-used-by-the-rtx-40-gpu-is-a-5nm-process/
According to Hong Kong media HKEPC, Nvidia clarified today that the RTX 40 GPU uses TSMC’s 4N 5nm process, not the 4nm process, due to a large number of media writing errors.

DrFreaK666
2023-05-21, 08:46:59
Das ist eigentlich schon seit Längerem bekannt

robbitop
2023-05-21, 09:10:02
Gibt immer noch genug Leute die das abstreiten. Ohne Grund wird Nv die nm Anzahl nicht verschweigen und dann auch noch der Dreher zwischen Zahl und Buchstabe. Das verwirrt sogar Leute die sich damit befassen.
IIRC ist die Packdichte auch nicht besser als im N31 GCD der mit 5nm von TSMC gebaut wurde.

HOT
2023-05-21, 09:26:21
Na ja, nach der Bestätigung wäre es absurd das weiterhin abzustreiten. 4N ist genau das gleiche, was AMD macht, nur mit Marketing. Das ist einfach ein customisierter N5.

Complicated
2023-05-21, 09:33:15
Ohne Grund wird Nv die nm Anzahl nicht verschweigen und dann auch noch der Dreher zwischen Zahl und Buchstabe. Wenn Nvidia klar stellt, dass 4N ein Custom-5nm Prozeß ist, dann weiß ich nicht wie man das als "Verschweigen" bezeichnen kann. Steht doch exakt in dem einen zitierten Satz aus Oktober 2022. Der Dreher ist cleveres Marketing und funktioniert wie gewünscht.

robbitop
2023-05-21, 09:43:22
Bis zu dem Punkt wurde es aber verschwiegen und auf der Webseite steht auch nirgends etwas. Man geht zumindest damit nicht wirklich transparent um und lässt die Leute glauben es sei 4 nm weil man es 4N nennt.

Complicated
2023-05-21, 09:56:34
Ich verstehe die Diskussion nicht. Die Klarstellung ist über 6 Monate her und es ist Marketing. Wie kann das hier im Forum noch eine Transparenz-Thema sein? Weil Leute es glauben wollen?

dildo4u
2023-05-21, 10:54:56
Referenz 7600


https://videocardz.com/newz/amd-radeon-rx-7600-reference-card-pictured-shorter-than-21cm

robbitop
2023-05-21, 11:04:54
Ich verstehe die Diskussion nicht. Die Klarstellung ist über 6 Monate her und es ist Marketing. Wie kann das hier im Forum noch eine Transparenz-Thema sein? Weil Leute es glauben wollen?

Weil man mit 4N ganz bewusst impliziert einen kleineren Node zu nutzen als man nutzt. Ich finde es jedenfalls mehr als grenzwertig für Marketing. Selbst hier im Forum, welches eine Blase mit Menschen ist, die sich stark mit dem Thema befassen, glaubt die Mehrheit, dass Ada auf 4 nm basiert. Kannst du ja gern anders sehen. Von mir aus agree to disagree / end if discussion. Man muss ja nicht immer einer Meinung sein.

Complicated
2023-05-21, 11:28:23
1. Wen interessiert es ausserhalb dieser Blase?
2. Was ist da anders als bei Intel 7, Intel 4, A20, etc..oder auch den Bezeichnungen von TSMC oder Samsung. Die sind alle nicht vergleichbar und ständig wird es selbst hier im Forum gemacht.
3. Bin ich nicht anderer Meinung, denke jedoch es ist keine Diskussion wert. Gerne Agree->ELMO ;)

DrFreaK666
2023-05-21, 11:48:12
Ich bin sehr auf Reviews gespannt nächste Woche

Iscaran
2023-05-21, 11:58:10
Da sieht man mal wieder was für ein Klasse Marketing nVidia betreibt. Alle wähnen nVidia hier im "Technologischen Vorsprung" weil die ja schon 4 nm haben!....

LOL. Und selbst in den einigermaßen informierten Kreisen ist die Info das 4N != 4 nanometer heisst kaum durchgedrungen.

nVidia hat derweil eine "weisse Weste", weil "media writing errors". Einfach nur perfekte Blender.

Iscaran
2023-05-21, 12:00:48
Referenz 7600
https://videocardz.com/newz/amd-radeon-rx-7600-reference-card-pictured-shorter-than-21cm

WENN das so stimmt mit den Taktraten dann dürfte die 7600 so im Performancebereich der 6700 rauskommen. Bin mal gespannt. Das dann für 250-300€ wäre ziemlich OK, in meinen Augen.

basix
2023-05-21, 12:09:12
Ca. +10% auf RDNA2 hat man bei N31 gemessen. Mal schauen, ob das auch bei N33 so ist, dort sind die L1-Caches sowie Register kleiner als beim grossen Bruder.

Bei ~150W wäre das eigentlich keine so schlechte Leistung, verglichen mit der 6600XT:

+15% Performance (etwas mehr bei RT)
-5% TDP
-15% Die Size
+20% Transistoren

Troyan
2023-05-21, 12:12:26
https://videocardz.com/newz/amd-radeon-rx-7600-and-nvidia-geforce-rtx-4060-ti-3dmark-performance-leaks-out

Hier ist Timespy. Kaum besser. Aber ist verständlich, da ILP komplett veraltet ist.

Linmoum
2023-05-21, 12:17:15
Zuletzt geisterten iirc eher 170W-180W für die 7600 umher, damit würde ich wohl auch eher rechnen. Eigentlich hätte das IMO eine Karte mit 1x6-pin werden sollen/müssen, aber der Zug ist abgefahren.

davidzo
2023-05-21, 12:19:27
Da sieht man mal wieder was für ein Klasse Marketing nVidia betreibt. Alle wähnen nVidia hier im "Technologischen Vorsprung" weil die ja schon 4 nm haben!....

LOL. Und selbst in den einigermaßen informierten Kreisen ist die Info das 4N != 4 nanometer heisst kaum durchgedrungen.

nVidia hat derweil eine "weisse Weste", weil "media writing errors". Einfach nur perfekte Blender.

TSMC N4 bedeutet aber nicht dass irgendwas an dem Prozess wirklich 4 Nanometer ist. Das ist ebenfalls nur einMarketingbegriff, genau wie Intel4.

Die Leute beschreiben das was sie sehen. Und ich glaube dass 4N da eine kleinere Rolle für die Wahrnehmung spielt als der immense Effizienzvorteil den nvidia in dieser Generation gegenüber AMD erziehlt. Außerdem stärkerer RT Leistung. Beides wird als fortschrittlich wahrgenommen, weil es neu ist. Starke Rasterizer Leistung ist nunmal nichts neues, Zuwächse bei der Rasterizer Leistung gibt es mit jeder GPU Generation. Kein wunder also dass Lovelace als technologisch modernere Architektur wahrgenommen wird.

dildo4u
2023-05-21, 12:23:25
https://videocardz.com/newz/amd-radeon-rx-7600-and-nvidia-geforce-rtx-4060-ti-3dmark-performance-leaks-out

Hier ist Timespy. Kaum besser. Aber ist verständlich, da ILP komplett veraltet ist.
Ist das nicht was man von der 4060 erwarten kann ansonsten haut der Abstand zu 4060 Ti nicht hin sie wäre absurd überteuert.

basix
2023-05-21, 12:24:33
Zuletzt geisterten iirc eher 170W-180W für die 7600 umher, damit würde ich wohl auch eher rechnen. Eigentlich hätte das IMO eine Karte mit 1x6-pin werden sollen/müssen, aber der Zug ist abgefahren.

180W wären 6650XT Niveau, welcher ausserhalb des Sweet Spots betrieben wird. Wäre schade. Für 6p müssten es 120...140W sein. 1x 8p ist da mMn kein Beinbruch.

Troyan
2023-05-21, 12:24:42
Ist das nicht was man von der 4060 erwarten kann ansonsten haut der Abstand zu 4060 Ti nicht hin sie wäre absurd überteuert.

Ja, selbe Leistung zur 4060. Notebook-4060 liegt bei 10.500 Punkten mit 110W.

KarlKastor
2023-05-21, 12:43:13
https://www.techgoing.com/nvidia-clarifies-the-tsmc-4n-used-by-the-rtx-40-gpu-is-a-5nm-process/
Immer wird der gleiche Käse gepostet. Ich habe erst letzte Woche auf diesen Unsinn geantwortet. HKEPC hat sich korrigiert und danach das Gegenteil behauptet, dass es 4nm wäre.
https://twitter.com/hkepcmedia/status/1574216220588789760

KarlKastor
2023-05-21, 12:44:59
IIRC ist die Packdichte auch nicht besser als im N31 GCD der mit 5nm von TSMC gebaut wurde.
Dann zeige das bitte mal. Es kommen immer nur Behauptungen.

dildo4u
2023-05-21, 12:54:51
Zuletzt geisterten iirc eher 170W-180W für die 7600 umher, damit würde ich wohl auch eher rechnen. Eigentlich hätte das IMO eine Karte mit 1x6-pin werden sollen/müssen, aber der Zug ist abgefahren.
6600 (132 TDP) kamen auch mit 1X8 Pin vermutlich wird von den mehr Produziert und es wäre nicht Billiger 6 Pin zu verbauen.
Die 7600 kann vermutlich einfach Navi 23 Boards übernehmen was Kosten reduzieren sollte.

robbitop
2023-05-21, 13:47:00
Dann zeige das bitte mal. Es kommen immer nur Behauptungen.

https://youtu.be/D34qurEo_0E
152 MTr/mm2 bei N31 GCD vs 121 MTr/mm2 AD103 bzw 125MTr/mm2 AD102

Also sogar höhere 21% Transistordensity bei N31 GCD.

Troyan
2023-05-21, 13:53:48
Macht echt Sinn eine TEIL-GPU mit einer GANZEN-GPU zu vergleichen.

Denniss
2023-05-21, 14:10:19
Es kommt bei den verbauten Strombuchsen auch darauf an wie die Stromversorgung ausgelegt ist.
Viele moderneren Karten beziehen nur noch recht wenig aus dem PCIe-Steckplatz und saugen fast alles über die 12V-Leitung vom separaten stromanschluß.

dargo
2023-05-21, 14:13:56
Ca. +10% auf RDNA2 hat man bei N31 gemessen. Mal schauen, ob das auch bei N33 so ist, dort sind die L1-Caches sowie Register kleiner als beim grossen Bruder.

Bei ~150W wäre das eigentlich keine so schlechte Leistung, verglichen mit der 6600XT:

+15% Performance (etwas mehr bei RT)
-5% TDP
-15% Die Size
+20% Transistoren

Also ich finde sowas absolut *gähn* nach zwei Jahren und einem Fullnode Sprung. Eigentlich schon peinlich.

Complicated
2023-05-21, 14:22:00
https://www.techpowerup.com/gpu-specs/nvidia-ad102.g1005
Foundry
TSMC
Process Type
4N FinFET
Process Size
5 nm

Der Tweet war wohl ein Scherz, oder?
https://www.tomshardware.com/news/tsmc-to-boost-4nm-and-5nm-output-by-25-percent
TSMC's N5 (5nm-class) family of manufacturing processes includes vanilla N5, performance-enhanced N5P, N4, N4P, N4X, and Nvidia-specific 4N.

Lurtz
2023-05-21, 14:38:08
Im DF-Podcast meinte Richard Leadbetter zu einer möglichen Switch 2, dass AMD bei RDNA3 (für die Konsolen?) vollständige Abwärtskompatibilität zu RDNA2 in Hardware gegossen hätte. Was genau bedeutet das technisch?

Der_Korken
2023-05-21, 14:38:11
Also ich finde sowas absolut *gähn* nach zwei Jahren und einem Fullnode Sprung. Eigentlich schon peinlich.

N33 ist 6nm.

mczak
2023-05-21, 14:42:23
Also ich finde sowas absolut *gähn* nach zwei Jahren und einem Fullnode Sprung. Eigentlich schon peinlich.
N33 ist N6 - der soll von der elektrischen Performance kaum besser sein als N7, bloss etwas dichter gepackt. Daher konnte man da nicht allzuviel erwarten.

dargo
2023-05-21, 15:23:42
N33 ist 6nm.
Dann nimm den Fullnode weg, ändert an der Peinlichkeit auch nichts nach zwei Jahren. Das was ich da bei N33 aktuell sehe ist mehr ein Refresh von RDNA2 als eine komplett neue GPU-Gen.

basix
2023-05-21, 15:29:33
Also ich finde sowas absolut *gähn* nach zwei Jahren und einem Fullnode Sprung. Eigentlich schon peinlich.

Rein aus Iso-Technologie Sicht ist der Sprung eben nicht peinlich ;) Besser geht immer, aber schlecht ist er auch nicht.

Hinsichtlich dem was der Kunde bekommt: Ja, da ist der Sprung gering. Immerhin sollte P/L einiges ansteigen (auf Basis MSRP)

dildo4u
2023-05-21, 15:39:50
6600 werden gerade für 200€ verkauft wenn das die 7600 schafft war es die richtige Entscheidung mit den 6nm, Nvidia wird vermutlich nur eine deutlich langsamere 4050 dort haben.

basix
2023-05-21, 15:44:21
200 Euro? Ich wäre mit 250 Euro sehr zufrieden. Vermutlich wird es aber mehr werden.

dildo4u
2023-05-21, 15:46:55
Natürlich nicht zum Launch wenn es die kleinste RDNA3 Karte bleibt wird sie irgendwann droppen.

KarlKastor
2023-05-21, 15:51:53
https://youtu.be/D34qurEo_0E
152 MTr/mm2 bei N31 GCD vs 121 MTr/mm2 AD103 bzw 125MTr/mm2 AD102

Also sogar höhere 21% Transistordensity bei N31 GCD.
Ist das dein ernst? Das kann ich auch selber ausrechnen.
Beim N31 fehlt ne Menge SRAM und PHY. Aber macht ja nichts. Wir wissen ja, das das alles gleich skaliert.

@complicated
Was genau soll uns das sagen?

davidzo
2023-05-21, 16:29:39
Ist das dein ernst? Das kann ich auch selber ausrechnen.
Beim N31 fehlt ne Menge SRAM und PHY. Aber macht ja nichts. Wir wissen ja, das das alles gleich skaliert.

@complicated
Was genau soll uns das sagen?

Die Chips liegen einfach genau im Ballpark für TSMC N5.

Es gibt ja echte N4 Chips als Vergleich und die sind meist etwas denser.

Selbst eine APU wie Phoenix, die zu mehr als der Hälfte aus Cache, SI und PCIe i/o etc- besteht, also sicherlich schlechter skalieren müsste als eine fette GPU, schafft 140mtr/mm2. Ich glaube also nicht dass nvidia wirklich ein derivat von N4P verwendet. Das passt nicht von der density und vom Zeitraum gleich vier Chips damit vorzustellen während AMD und Apple mit mehr cutting edge Erfahrung und kürzerem Draht zu TSMC jeweils kaum einen Chip in N4P aus der Tür gekriegt haben.

Apple schafft bei Mobilchips mit ebenfalls sehr viel Sram (L2 Cache, LLC/ scratchpad memory)schon mit N5P 130-140mm2, Der A16 in N4P dürfte noch etwas dichter gepackt sein.

Es sind aber eh nur 6% laut TSMC. Ich weiß auch gar nicht wieso wir uns hier so über nvidia aufregen, N4P ist in erster Linie eine Kostenreduktion, so wie N6 zu N7P. Also billiger, weniger Masken, weniger belichtungszeit zeit pro wafer.

Raff
2023-05-21, 16:35:55
Referenz 7600

https://videocardz.com/newz/amd-radeon-rx-7600-reference-card-pictured-shorter-than-21cm

Was ist das eigentlich für eine Unsitte, Dinge nicht nur zu leaken und damit alles an Spannung im Vorfeld zu töten, sondern dann auch noch Wasserzeichen draufzupacken? :ugly:

MfG
Raff

iamthebear
2023-05-21, 17:06:14
Ist das dein ernst? Das kann ich auch selber ausrechnen.
Beim N31 fehlt ne Menge SRAM und PHY. Aber macht ja nichts. Wir wissen ja, das das alles gleich skaliert.

Auch wenn SRAM bei N5 schlechter skaliert als Logik so ist die Transistordichte aber immer noch um ein Vielfaches höher als bei Logik.

Wenn wir hier einmal die Daten von TSMC vergleichen (jeweils die HD Version):
SRAM Zelle: 0.021µm². Bei 6 Transistoren/Zelle sind das 285MTrans/mm²
Logik: 170MTrans/mm²

Was die analogen Teile angeht so hast du zwar Recht, diese gibt es im IO Teil des GCD aber auch. Das ganze Chipletzeugs wird sicher auch einiges an zusätzlichem Platz verbrauchen.

iamthebear
2023-05-21, 17:21:20
Ich glaube also nicht dass nvidia wirklich ein derivat von N4P verwendet

Da muss man nicht viel glauben:
N4P steht bei TSMC für 2023 auf der Roadmap gemeinsam mit N3 und N4X
4N kam mit Hopper Anfang 2022 auf den Markt

dargo
2023-05-21, 17:36:54
Weiß eigentlich jemand warum die RX 7600 N33 XL heißt? Klingt sehr unüblich für eine volle SKU. Sonst war immer ein XT im Namen.

HOT
2023-05-21, 18:08:58
Weiß eigentlich jemand warum die RX 7600 N33 XL heißt? Klingt sehr unüblich für eine volle SKU. Sonst war immer ein XT im Namen.
Na jo, das würde ja dafür sprechen, dass wir tatsächlich noch ne 7600XT mit viel mehr W und mehr Takt sehen werden (und wahrscheinlich 16GB). Erinnert an die R7 270(X).

dargo
2023-05-21, 18:45:40
Na jo, das würde ja dafür sprechen, dass wir tatsächlich noch ne 7600XT mit viel mehr W und mehr Takt sehen werden (und wahrscheinlich 16GB). Erinnert an die R7 270(X).
Dann hat ein voller N33 40 CUs? Bisher gingen ja alle von max. 32 CUs für N33 aus.

HOT
2023-05-21, 18:57:34
Pitcairn hatte auch als 270 und 270X volle CUs.

KarlKastor
2023-05-21, 19:25:24
Die Chips liegen einfach genau im Ballpark für TSMC N5.

Es gibt ja echte N4 Chips als Vergleich und die sind meist etwas denser.
Welcher Chip soll das sein? Jetzt vergleichen wir CPU mit GPU. Wird immer besser.

Selbst eine APU wie Phoenix, die zu mehr als der Hälfte aus Cache, SI und PCIe i/o etc- besteht, also sicherlich schlechter skalieren müsste als eine fette GPU, schafft 140mtr/mm2.
Rembrandt hat eine 26% höhere Dichte als Navi 24. Beides N6.

Ich glaube also nicht dass nvidia wirklich ein derivat von N4P verwendet.
Wo kommt denn auf einmal N4P ins Spiel?

Auch wenn SRAM bei N5 schlechter skaliert als Logik so ist die Transistordichte aber immer noch um ein Vielfaches höher als bei Logik.
Ja eben. Es ist Apfel-Birne.
Ich behaupte ja gar nicht 4N basiert auf N4. Wir wissen es einfach nicht. Es stört mich, dass das immer als Fakt dargestellt wird. Mit immer den gleichen Argumenten, die längst wiederlegt sind oder eben völlig an den Haaren herbei gezogen sind.

Complicated
2023-05-21, 19:39:24
Ich behaupte ja gar nicht 4N basiert auf N4. Wir wissen es einfach nicht.
Hör jetzt auf - WIR wissen 4N ist ein custom 5nm Prozess. Punkt. DU willst es nur nicht akzeptieren. Phantomdiskussion.

robbitop
2023-05-21, 19:59:01
Ist das dein ernst? Das kann ich auch selber ausrechnen.
Beim N31 fehlt ne Menge SRAM und PHY. Aber macht ja nichts. Wir wissen ja, das das alles gleich skaliert.


Andere RDNA3 Konfigurationen gibt es nunmal nicht. Ein Zauberstab fehlt mir leider oder was hast du erwartet?

TheGood
2023-05-21, 20:14:24
Referenz 7600


https://videocardz.com/newz/amd-radeon-rx-7600-reference-card-pictured-shorter-than-21cm


Hm ist die 7600 nun ein Update zur 6600 oder zur 6600XT ? Den Hardwaredaten zufolge ist es die 6600 XT. Die Mehrperformance ist ja auch fast zu vernachlässigen....

Könnte da eine 7600 XT noch deutlich bei der Taktrate zulegen, ausser zu spekulativen 16 GB Speicher?? oder hat sie am Ende das gleiche Durstproblem wie der NAVI 33

amdfanuwe
2023-05-21, 21:05:05
Könnte da eine 7600 XT noch deutlich bei der Taktrate zulegen, ausser zu spekulativen 16 GB Speicher?? oder hat sie am Ende das gleiche Durstproblem wie der NAVI 33
Da es ein N33 ist dürfte er das gleiche Durstproblem haben.
Ich könnte mir schon vorstellen, dass AMD erst mal die besseren N33 zurückhält und sammelt solange sie die "schlechteren" in der 7600 teuer verkaufen können.
Wenn die 66x0(XT) abverkauft sind und die 7600 im Preis runter geht könnte dann die 76x0XT mit etwas mehr Takt kommen.

][immy
2023-05-21, 21:46:39
Nun, das sieht wirklich mager aus. Aber nach der 7900er war wohl auch hier kein großer Schritt zu erwarten, sonst würde man den großen Konkurrenz von unten her machen, zumindest dann bei den 7700er und 7800ern.
Passt aber dann auch ganz gut zu dem was Nvidia da vor hat. Bloß keinen großen Sprung in den unteren Bereichen.

HOT
2023-05-21, 22:07:21
Ist halt ein Mobilchip und für entsprechende Taktraten ausgelegt. Ich hab mir ja schon lange gedacht, dass das Ding kein 3GHz-Wunder wirkt.
Betreibt man den jedoch mit hinreichend niedrigen Takten, dürfte der Chip ein Effizienzwunder sein ;). Wieviel W die Karte hat, wissen wir ja noch nicht.

Lurtz
2023-05-21, 22:22:31
Im DF-Podcast meinte Richard Leadbetter zu einer möglichen Switch 2, dass AMD bei RDNA3 (für die Konsolen?) vollständige Abwärtskompatibilität zu RDNA2 in Hardware gegossen hätte. Was genau bedeutet das technisch?
Weiß das jemand? Oder ist das Digital Foundry-FUD?

mczak
2023-05-21, 22:55:48
Hm ist die 7600 nun ein Update zur 6600 oder zur 6600XT ? Den Hardwaredaten zufolge ist es die 6600 XT. Die Mehrperformance ist ja auch fast zu vernachlässigen....

Technisch gesehen ist es klar ein Nachfolger der 6600 XT (voll aktiver N23 / N33 Chip, fragt sich bloss noch was da AMD als TBP gewählt hat). Vom Marktsegment her scheint es aber eher ein Nachfolger der 6600 zu sein - darauf deutet ja auch die Bezeichnung hin, und ein offizieller Launch-Preis von 300$ wäre noch unterhalb des Launch-Preises der 6600 (wird aber natürlich zumindest vorerst mehr kosten als zur Zeit die 6600).
Fragt sich auch noch ob es auch teildeaktivierte N33 (als Desktop-Karte) zu kaufen geben wird? Die müssten dann ja sowas wie 7500 XT als Namen haben (selbst wenn da AMD dem "Vorbild" Nvidia folgt und die bloss 6GB haben sollten wäre das natürlich ein massives Upgrade gegenüber den 6500 XT wenn die tatsächlich im selben Marktsegment angesiedelt sind).

reaperrr
2023-05-21, 22:58:33
[immy;13310658']Nun, das sieht wirklich mager aus.
Dafür, dass der Chip in N6 ist und somit einen viel geringeren (genauer, so gut wie keinen) Prozessvorteil ggü. N23 hat, als das bei AD106/107 der Fall ist, sieht das eher noch erstaunlich gut aus, finde ich.

KarlKastor
2023-05-22, 01:55:06
Hör jetzt auf - WIR wissen 4N ist ein custom 5nm Prozess. Punkt. DU willst es nur nicht akzeptieren. Phantomdiskussion.
Er gehört zur 5nm Klasse, wie alles von N5 bis N4X. Ansonsten wissen wie gar nichts.
Es wird hier aber behauptet er wurde auf N5 basieren und nicht auf N4.
Du postest dann Quellen die sich längst korrigiert haben und meinst alle sollen das akzeptieren?

Andere RDNA3 Konfigurationen gibt es nunmal nicht. Ein Zauberstab fehlt mir leider oder was hast du erwartet?
Ich hätte etwas erwartet was dein Argument untermauert. Wenn deine These auf diesem Vergleich basiert, dann kann man die wohl zu den Akten legen.

dargo
2023-05-22, 06:12:04
Pitcairn hatte auch als 270 und 270X volle CUs.
Du gehst also davon aus, dass etwas später noch ein N33 mit höheren Frequenzen + mehr PT, aber weiterhin mit 32 CUs als 7600XT erscheint?

Hm ist die 7600 nun ein Update zur 6600 oder zur 6600XT ? Den Hardwaredaten zufolge ist es die 6600 XT. Die Mehrperformance ist ja auch fast zu vernachlässigen....

Nachfolger der 6600XT wäre eine Vollkatastrophe. Nachfolger von 6600 non XT wäre zwar nach zwei Jahren immer noch mit +~34% Performance recht mager, aber immerhin schon besser. Problem dabei ist nur... 6600 non XT wird aktuell in den USA für 199$ verkauft.

Ist halt ein Mobilchip und für entsprechende Taktraten ausgelegt. Ich hab mir ja schon lange gedacht, dass das Ding kein 3GHz-Wunder wirkt.

Niemand weiß bisher wie hoch der Boosttakt von RX 7600 je App ist. Eine RX 7900XTX boostet offiziell laut AMD mit bis zu 2,5Ghz, trotzdem habe ich auch schon über 2,7Ghz bis 2,9Ghz gesehen. Je nach Shaderlast halt. Die AIBs werden sicherlich auch hier wieder höhere Boosttaktraten fahren bei mehr PT.

Complicated
2023-05-22, 06:24:22
Er gehört zur 5nm Klasse, wie alles von N5 bis N4X. Ansonsten wissen wie gar nichts.
Es wird hier aber behauptet er wurde auf N5 basieren und nicht auf N4.
Du postest dann Quellen die sich längst korrigiert haben und meinst alle sollen das akzeptieren?

3 Quellen die das selbe sagen: Kein 4nm. Egal welche Kürzel du benutzt. Das kann man als gesichert annehmen, solange du keine Quelle mit 4nm ausgraben kannst. Ohne ist eine Diskussion sinnlos.

robbitop
2023-05-22, 08:27:43
Ich hätte etwas erwartet was dein Argument untermauert. Wenn deine These auf diesem Vergleich basiert, dann kann man die wohl zu den Akten legen.
Sehe ich anders. Der Cache nimmt bei obigen Chips ja nur einen relativ kleinen Bereich ein und auch das GCD hat einiges an Interfacelogik die kaum skaliert. Und SRAM skaliert ja nicht gar nicht sondern ungefähr halb so viel eie Logik. Es ist immerhin ein Datenpunkt. Und nicht alles muss für einen groben ball park komplett vergleichbar sein.

Und anstatt immer nur andere Belege zu kritisieren kannst du ja zur Abwechslung selbst mal welche suchen die deine Position belegen. Meckern ist immer schön einfach.

KarlKastor
2023-05-22, 09:14:42
3 Quellen die das selbe sagen: Kein 4nm. Egal welche Kürzel du benutzt. Das kann man als gesichert annehmen, solange du keine Quelle mit 4nm ausgraben kannst. Ohne ist eine Diskussion sinnlos.
Du hast keine Argumente genannt. Deine erste Quelle HKEPC sagt 4 nm. Die anderen sind genauso ohne Argumente. Du verlinkst ne Seite wo 5nm steht ohne eine Begründung.
Da sind auch Tausende Seiten im Netz die N4 schreiben. Ist auch völlig belanglos.

Und anstatt immer nur andere Belege zu kritisieren kannst du ja zur Abwechslung selbst mal welche suchen die deine Position belegen. Meckern ist immer schön einfach.

Meine Position ist, dass es keine Informationen dazu gibt. Ich belege das indem ich diese angeführten "nicht-Argumente" wiederlege. Wie stellst du dir denn einen Beleg vor der Klarheit bringt, dass wir es nicht wissen?

Das hat auch nichts mit meckern zu tun, das sind begründete Argumente.
Du willst mit einer Density über verschiedene Chips auf die Fertigung schließen die eh nur nominal 5% Unterschied hat.
Wenn man sonst keine Argumente hat muss man eben konstatieren, dass wir es einfach nicht sagen können.

HOT
2023-05-22, 09:16:18
Don QiKastor.

Iscaran
2023-05-22, 10:28:31
So wie ich das verstehe hat TSMC nur "5 nm" als NODE definiert. Mit den Prozessvarianten N5, N5P, N4 und N4P
https://fuse.wikichip.org/news/6439/tsmc-extends-its-5nm-family-with-a-new-enhanced-performance-n4p-node/
https://en.wikichip.org/wiki/5_nm_lithography_process

Es gibt sowieso kein "4 nm" Node - wenn dann "3 nm".

Die "" stehen bewusst da, weil auch die Node-Angaben mittlerweil nichts mehr mit Fertigungsgrößen zu tun haben.

davidzo
2023-05-22, 10:47:00
Wo kommt denn auf einmal N4P ins Spiel?

Es gibt praktisch nur N4P für PC. Apple nutzt N4P, AMD nutzt N4P. Für N4X ist es zu früh und N4 plain hat wohl niemand genutzt wenn N5P besser performt.
Und es ist in erster Linie schnellere Durchlaufzeit und Kostenreduktion die mit N4P einher gehen gegenüber N5P. Die 6% mehr Density kannst du dir in die Haare schmieren wir haben Unterschiede von 30% bei vergleichbaren Chips in N5 gesehen (H100 vs AD102).

N4P ist genau wie 4N ein Prozess aus der 5nm Familie. Mehr muss man nicht wissen, denn jeder Kunde entscheidet selber welche neuen Libraries er lizensiert, oder lieber wieder verwendet und was für seinen Einsatzzweck am besten ist. Insofern ist der Kampf um die Deutungshoheit hier sowieso irrelevant. Dass nvidias marketing maximal dreist ist, wissen wir eh schon, dafür braucht es keinen erneuten Beweis.




Btw, ich sehe N33 auch eher als N24 Nachfolger. Der Chip ist kleiner als N23 und N6 ist ein kostengünstiger Prozess als N7 damals war.
TSMC schreibt selbst dass es neben 18% Density improvements "additional cost saving benefits" für die Kunden gibt bei N6. Das ist im moment wohl der billigste Prozess pro Transistor und performance den TSMC anzubieten hat.

Wenn man dann bedenkt dass GA107 mit 146mm2 in 4N auf 16-17Mrd Transistoren kommen müsste wenn man die density von anderen Lovelace chips nimmt, dann wird das ein viel teurerer chip als N33. 30% mehr Transistoren und selbst mit full-fat 24SMs wird es schwierig werden das Leistungsniveau von full N33 zu übertreffen.
Wenn die Gerüchte stimmen dass N5 pro Transistor auch teurer ist als N6, dann könnte GA107 mal eben 50% mehr kosten als N33. AMD kann also jeden Preiskampf annehmen, auch indem man die 7500XT deutlich unterhalb der 4060 anbietet wo nvidia derzeit nur eine 3 Jahre alte 1650 zu bieten hat.

Du gehst also davon aus, dass etwas später noch ein N33 mit höheren Frequenzen + mehr PT, aber weiterhin mit 32 CUs als 7600XT erscheint?

Muss nicht unbedingt sein dass im Desktop noch was mit schnelleren N33 Chips kommt. Im Mobilbereich kommen die "besseren" N33 XT DIEs bereits zum Einsatz. Könnte also ein binning nach supply voltage und leakage sein.


Nachfolger der 6600XT wäre eine Vollkatastrophe. Nachfolger von 6600 non XT wäre zwar nach zwei Jahren immer noch mit +~34% Performance recht mager, aber immerhin schon besser. Problem dabei ist nur... 6600 non XT wird aktuell in den USA für 199$ verkauft.

Das ist leider das neue Normal an das wir uns wohl gewöhnen müssen. Das goldene Zeitalter der GPUs ist einfach vorbei. Generationenzuwächse von 50% in der gleichen Preisklasse waren früher normal. Heute bekommen wir eher Sidegrades: kleineres SI mit etwas mehr Cache, kleinere Chips mit etwas mehr Effizienz und z.T. sogar weniger VRAM, dafür leicht mehr Rohleistung und RT Leistung.

Troyan
2023-05-22, 10:51:19
Der Preis spielt doch keine Rolle. nVidia verkauft AD107 in Notebooks, Workstation, DL und Gaming-Markt. Dazu ist 4060 das viel bessere Produkt zum selben Preis, wodurch AMD günstiger verkaufen muss.

Navi33 ist 37% größer und es gibt weniger Chips pro Wafer. Am Ende spart AMD vielleicht 50% der Mehrkosten von 5nm, muss aber auch für die Hälfte verkaufen.

nVidia hat den Vorteil der Effizienz durch 5nm, aber solange ein Produkt in einem älteren Prozess konkurrenzfähig herstellbar ist, macht ein Die-Shrink kaum Sinn.

dargo
2023-05-22, 11:07:51
Muss nicht unbedingt sein dass im Desktop noch was mit schnelleren N33 Chips kommt. Im Mobilbereich kommen die "besseren" N33 XT DIEs bereits zum Einsatz. Könnte also ein binning nach supply voltage und leakage sein.

Ah ok, wusste ich nicht. So ergibt das wieder Sinn.

davidzo
2023-05-22, 11:14:22
Navi33 ist 37% größer und es gibt weniger Chips pro Wafer. Am Ende spart AMD vielleicht 50% der Mehrkosten von 5nm, muss aber auch für die Hälfte verkaufen.

Du hast nicht richtig gelesen: Die Cost per Transistor geht bei N5 hoch, nicht nur die Cost pro mm2. Und ausgehend von 110-120Mtr/mm2 dürfte AD107 ca. 16-17Mrd Transistoren haben bei einem 146mm2 DIE. Der Chip ist also deutlich komplexer als ein 13Mrd N33 der noch dazu in N6 einiges billiger pro Transistor ist.
AMD greif wie üblich von unten an. N33 ist vom Herstellungspreis eher ein RTX 3050 Konkurrent, der aber in der fullfat Version auch kein Problem mit Ga107 / 4060 hat.

HOT
2023-05-22, 11:20:05
Schon bekannt? Leistungsindikation der 7600.
https://www.tomshardware.com/news/rtx-4060-ti-beats-rx-7600-in-early-generic-benchmarks
Auf 4060 non-Ti bzw. RX6650XT-Niveau. Bin gespannt auf die Leistungsaufnahme.

Troyan
2023-05-22, 11:27:00
Du hast nicht richtig gelesen: Die Cost per Transistor geht bei N5 hoch, nicht nur die Cost pro mm2. Und ausgehend von 110-120Mtr/mm2 dürfte AD107 ca. 16-17Mrd Transistoren haben bei einem 146mm2 DIE. Der Chip ist also deutlich komplexer als ein 13Mrd N33 der noch dazu in N6 einiges billiger pro Transistor ist.
AMD greif wie üblich von unten an. N33 ist vom Herstellungspreis eher ein RTX 3050 Konkurrent, der aber in der fullfat Version auch kein Problem mit Ga107 / 4060 hat.

Die Chipkosten werden über Waferpreise und nicht Transistorenanzahl bestimmt. Die Kosten pro Transistor entstehen im Designprozess.
Dem Wafer ist die Anzahl der Transistoren egal. Der Prozess ist automatisiert. Kosten verursacht die Fertigung von Chips.
Im Gegensatz zu nVidia muss AMD zwei Design umsetzen. Das ist organisatorisch komplexer, teurer und ineffizienter. Jedoch macht es für Firmen sinn, nicht die erhöhten Design- und Fertigungskosten von 5nm aufbringen zu wollen.

Navi33 wird ein Flop werden, da man nicht konkurrenzfähig ist. Also muss man die Karten ab Juli deutlich unter 4060 verkaufen. Notebooks sind sowieso tot.

dargo
2023-05-22, 11:30:05
Schon bekannt? Leistungsindikation der 7600.
https://www.tomshardware.com/news/rtx-4060-ti-beats-rx-7600-in-early-generic-benchmarks
Auf 4060 non-Ti bzw. RX6650XT-Niveau. Bin gespannt auf die Leistungsaufnahme.
Blättere mal paar Seiten zurück.

davidzo
2023-05-22, 11:31:17
Lol der Troyan ledert mal wieder was das zeug hält.:popcorn:

Notebooks sind also tot :freak: ;D
https://www.statista.com/statistics/1003576/gaming-pc-shipments-worldwide-by-category/

dildo4u
2023-05-22, 11:34:17
Der Preis spielt doch keine Rolle. nVidia verkauft AD107 in Notebooks, Workstation, DL und Gaming-Markt. Dazu ist 4060 das viel bessere Produkt zum selben Preis, wodurch AMD günstiger verkaufen muss.

Navi33 ist 37% größer und es gibt weniger Chips pro Wafer. Am Ende spart AMD vielleicht 50% der Mehrkosten von 5nm, muss aber auch für die Hälfte verkaufen.

nVidia hat den Vorteil der Effizienz durch 5nm, aber solange ein Produkt in einem älteren Prozess konkurrenzfähig herstellbar ist, macht ein Die-Shrink kaum Sinn.

Wie bemerkt wurde AMD hat im letzten Quartals Bericht nicht wirklich Marge verloren selbst wenn sie 6600 für 200€ verkaufen und die 7600 ist kleiner.
Früher was es Problematisch da sie nur die RX580 hatten die Konkurrenzfähig war Heute skaliert RDNA3 bis 1000€.

HOT
2023-05-22, 11:34:27
N33 ist N6, also ein günstiger Prozess. Und er hat nicht mehr als 200mm². Biliger wirds nicht für ne GPU.

Linmoum
2023-05-22, 11:45:57
Und trotzdem wird man deutlich über $200, vermutlich sogar eher Richtung $300 verlangen. ;)

dargo
2023-05-22, 11:47:10
N33 ist N6, also ein günstiger Prozess. Und er hat nicht mehr als 200mm². Biliger wirds nicht für ne GPU.
Na... Navi24 ist 107mm² klein, geht also billiger. ;) Aber bevor AMD sowas wieder mit nur 4GB anbietet kann man so eine SKU gleich sein lassen.

basix
2023-05-22, 12:17:35
Du hast nicht richtig gelesen: Die Cost per Transistor geht bei N5 hoch, nicht nur die Cost pro mm2.

Das ist doch Blödsinn. Laut AMD ist N5 ~1.3x so teuer wie N7 bei selber Fläche. Kosten pro Transistor sind bei Kostenvergleichen völlig irrelevant und auch wenn man es berücksichtigen würde: Kosten/Transistor wären garantiert tiefer als bei N6.

Unter dem Strich wird 146mm2 in 4N etwa gleich teuer sein wie die 204mm2 in N6. Das sind 1.4x Unterschied in der Fläche und bei 4N hat man einen Yield-Vorteil aufgrund der kleineren Fläche. Die 1.3x Kostenunterschied bei Iso-Fläche (aus AMDs Vergleich) vs. ~1.3...1.4x Unterschied da kleinerer Chip heben sich mehr oder minder komplett auf.

Am Ende sollten die 4060 8GB und die 7600 8GB eine sehr ähnliche BOM aufweisen. Oder denkst du, dass Nvidia bei den 300$ für die 4060 einen Kampfpreis umsetzt? Ne, die 4060 ist sehr günstig in der Herstellung.

robbitop
2023-05-22, 12:18:50
Meine Position ist, dass es keine Informationen dazu gibt. Ich belege das indem ich diese angeführten "nicht-Argumente" wiederlege. Wie stellst du dir denn einen Beleg vor der Klarheit bringt, dass wir es nicht wissen?

Das hat auch nichts mit meckern zu tun, das sind begründete Argumente.
Du willst mit einer Density über verschiedene Chips auf die Fertigung schließen die eh nur nominal 5% Unterschied hat.
Wenn man sonst keine Argumente hat muss man eben konstatieren, dass wir es einfach nicht sagen können.
Sich schön zurücklehnen, nichts tun und kritisieren. Schön einfach. Muss man nichts dafür tun und nichts dafür können. Gute Strategie, guter Diskussionsstil :up:

robbitop
2023-05-22, 12:23:31
Du hast nicht richtig gelesen: Die Cost per Transistor geht bei N5 hoch, nicht nur die Cost pro mm2.
TSMC kann es sich als Quasi-Monopolist für leading edge Prozesse leider erlauben. Die fahren auch richtig schön dicke Margen mittlerweile. Wird Zeit, dass Samsung und Intel Foundry angreifen und es endlich mal wieder Wettbewerb gibt.

HOT
2023-05-22, 12:34:33
Das ist doch Blödsinn. Laut AMD ist N5 ~1.3x so teuer wie N7 bei selber Fläche. Kosten pro Transistor sind bei Kostenvergleichen völlig irrelevant und auch wenn man es berücksichtigen würde: Kosten/Transistor wären garantiert tiefer als bei N6.

Unter dem Strich wird 146mm2 in 4N etwa gleich teuer sein wie die 204mm2 in N6. Das sind 1.4x Unterschied in der Fläche und bei 4N hat man einen Yield-Vorteil aufgrund der kleineren Fläche. Die 1.3x Kostenunterschied bei Iso-Fläche (aus AMDs Vergleich) vs. ~1.3...1.4x Unterschied da kleinerer Chip heben sich mehr oder minder komplett auf.

Am Ende sollten die 4060 8GB und die 7600 8GB eine sehr ähnliche BOM aufweisen. Oder denkst du, dass Nvidia bei den 300$ für die 4060 einen Kampfpreis umsetzt? Ne, die 4060 ist sehr günstig in der Herstellung.

Bitte die Verträge bedenken. NV hat hier deutlich schlechtere Konditionen. Die mussten sich da mit Milliarden einkaufen, um die N5-Kapazitäten zu bekommen.

https://www.techspot.com/news/93490-nvidia-reportedly-spent-10-billion-chunk-tsmc-5nm.html

Das muss mit einkalkuliert werden. NV ist von extrem billig pro Chip bei Samsung zu extrem teuer pro Chip bei TSMC umgestiegen. Deswegen machen die ja den ganzen Zinnober mit den Preisen. Die rutschen ab einem gewissen Punkt sehr schnell in die Miesen und brauchen für ihre Aktionäre mindestens 50% Marge. AMD macht hier den Trittbrettfahrer und sahnt dabei dick ab, ohne die schlechte Presse abzukassieren, die sie eigentlich verdient hätten. Die Zahlen im Gaming bei AMD sahen sehr gut aus, bei NV wars ein Desaster, genau deswegen.

davidzo
2023-05-22, 12:39:31
Das ist doch Blödsinn. Laut AMD ist N5 ~1.3x so teuer wie N7 bei selber Fläche.
Äpfel mit birnen. AMD bezieht sich warscheinlich auf N7 zum damaligen Launchzeitpunkt, also 2019 bzw. sogar 2018 (vega20). Das ist ein Multiple patterning DUV prozess der sich bei den Kosten nun wirklich nicht mehr mit N6 in 2023 vergleichen lässt.
Ich habe da außerdem Tabellen von 9K/wafer für N7 vs 17K/wafer für N5 im Kopf. Und das ist noch ohne die vielfach höheren Masken- und Masken repair/cleaning kosten. Und N6 soll ja in erster Linie billiger sein als N7. Wenn der Aufpreis lediglich 30% wäre, bei 87% mehr Density würde kein Mensch mehr N6 Chips planen.

Wenn ein 13Mrd Chip im alten stormfressenden und schlechter taktenden N6 Prozess genau soviel kostet wie ein 16-17mrd Chip in cutting Edge N5, dann sitzen bei AMD außerordentlich schlechte Erbensenzähler. Ohne den Kostenvorteil würde niemand mehr auf N6 setzen. Auch Intel setzt bei GPUs und den größeren DIEs ihrer Chiplet CPUs bewusst auf N6, da hier der Cost per Transistor sweetspot liegt.

dildo4u
2023-05-22, 12:44:30
Es ist sehr wahrscheinlich das 6nm billiger wird wenn die Auslastung sinkt in 2022 gab es keine Rabatte aber jetzt Sollte es Welche geben.
3nm hat sich verzögert die Masse an High-End Chips für (Mobile,HPC,GPU) wird dieses Jahr in 4/5N gefertigt was die Preise oben hält.

HOT
2023-05-22, 12:55:18
Es ist sehr wahrscheinlich das 6nm billiger wird wenn die Auslastung sinkt in 2022 gab es keine Rabatte aber jetzt Sollte es Welche geben.
3nm hat sich verzögert die Masse an High-End Chips für (Mobile,HPC,GPU) wird dieses Jahr in 4/5N gefertigt was die Preise oben hält.

Allerdings nur für NV, weil AMD ein Exklusivpartner ist. Die Preise werden hier schon seit längerer Zeit festgezurrt sein.

Troyan
2023-05-22, 13:04:11
Lol der Troyan ledert mal wieder was das zeug hält.:popcorn:

Notebooks sind also tot :freak: ;D
https://www.statista.com/statistics/1003576/gaming-pc-shipments-worldwide-by-category/

Cool Story, bro.

Hier Geizhals:
3 Listungen für Navi33: https://geizhals.de/?cat=nb&xf=11295_02+04+14+-+RX+7600S

68 Listungen für AD107 als 4060: https://geizhals.de/?cat=nb&xf=11295_03+05+17+-+RTX+4060

Absoluter Erfolg auf AMD Seite. :freak:

DrFreaK666
2023-05-22, 13:07:36
Cool Story, bro.

Hier Geizhals:
3 Listungen für Navi33: https://geizhals.de/?cat=nb&xf=11295_02+04+14+-+RX+7600S

68 Listungen für AD107 als 4060: https://geizhals.de/?cat=nb&xf=11295_03+05+17+-+RTX+4060

Absoluter Erfolg auf AMD Seite. :freak:

Das ist also der Beweis, dass Notebooks tot sind!?

Troyan
2023-05-22, 13:14:46
Habe ich geschrieben, dass Notebooks tot sind? Nein? Richtig.

Ich habe geschrieben, dass AMD für Notebooks tot ist. Und wie man sieht: Bis auf Asus als Leichenfledderer ist da nicht viel. Und das macht auch eine Analyse der Kosten irrelevant, weil nVidia im Notebookmarkt den Chip mit deutlich besserer Marge verkauft.

Fun Fact: Fast die Hälfte aller Gaming-GPUs gehen bei nVidia in den Notebookmarkt.

DrFreaK666
2023-05-22, 13:17:14
So hast du es nicht geschrieben
...Navi33 wird ein Flop werden, da man nicht konkurrenzfähig ist. Also muss man die Karten ab Juli deutlich unter 4060 verkaufen. Notebooks sind sowieso tot.

HOT
2023-05-22, 13:18:54
AMD GPUs im Notebook haben nie gelebt. Allerdings sind so viele Listungen auch irreführend. Wenn man die ganzen Varianten rausnimmt sind es doch recht wenige im Vergleich zu den Vorgenerationen.

Brillus
2023-05-22, 17:39:05
Die Chipkosten werden über Waferpreise und nicht Transistorenanzahl bestimmt.

Soweit stimme ich dir noch zu nur ist der Waferpreis bei unterschiedlichen Prozessen anders und da reden wir nicht um paar Prozente. Da hatte ich schon Listen gesehen da waren es Faktor 2-3 ok jetzt bisschen weiter entfernte Prozesse. Aber wenn es heißt Preis pro Transistor kleiner heißt es der Preisunterschied muss größer sein als unterschied in der Dichte.

iamthebear
2023-05-22, 19:30:25
Die im Netz herumschwirrenden Zahlen sind Schwachsinn. In den meisten Fällen gehen diese auf eine Tabelle eines Analysten zurück, die komplett aus dem Kontext heraus zitiert wurde. Hier wurden die Preise pro Wafer anhand der Investitionskosten geschätzt. Nur ist der Anteil der Investitionskosten für EUV höher, dafür aber laufende Kosten geringer weil man weniger Masken braucht.

Man kann den 5nm Wafer Preis in etwa hinschätzen indem man den von TSMC gemeldeten 5nm Umsatz durch die Anzahl der produzierten Wafer (laut Digitimes seit Mitte 2022 150K, davor 120K). 2021 und Anfang 2022 waren wir hier bei 10K, mittlerweile um die 11-12K.

Die 10K Wafer waren Anfang 2021 auch in etwa bei 10K. Aktuell kann ich es nicht genau sagen, da ich keine aktuellen Daten zu den Produktionszahlen habe.

Daniel Nenni (der Semiwiki Gründer bzw. in engem Kontakt mit der gesamten Branche) hat in einem der letzten MLID Pidcasts gemeint er weiß die Preise, darf wegen NDA zwar nichts sagen aber sie liegen generell viel unter dem was im Netz zirkuliert.

Das sind aber alles Preise, die vor 2 Jahren ausverhandelt wurden und jetzt bei Lieferung gezahlt werden.
Wenn man heute einen 5nm Rahmenvertrag für 2025/26 abschließen will wo vermutlich die halben Fabs leer stehen dann sieht es wahrscheinlich ganz anders aus.

Mir kommt vor, dass ein Großteil der aktuellen Mondpreise immer noch basierend auf den Einkaufspreisen von vor 2 Jahren basiert weil niemand die Fehlinvestitionen abschreiben will.

dildo4u
2023-05-23, 04:48:01
7600 165 TDP und restliche Specs.


https://abload.de/img/amd-radeon-rx-7600-spwzfnf.jpg


https://videocardz.com/newz/amd-radeon-rx-7600-final-specifications-leaked-165w-tdp-2625-mhz-boost-clock

Linmoum
2023-05-23, 08:54:43
165W für vermutlich grob 4060-Performance sind schon ziemlich unsexy, zumal selbst die eigene 6650XT auch nur 10W mehr verbraucht (und die 6600XT liegt sogar nur bei ~150W). Meh.

disap.ed
2023-05-23, 09:38:52
In der Tat ziemlich enttäuschend, die RDNA3-Generation ist leider eine verlorene ;(
Wenn der Preis deutlich unter 300€ liegt, kann man das noch durchgehen lassen, ansonsten sehe ich keinen einzigen Grund, sich nicht gleich eine 6700 oder 4060 zu holen

DrFreaK666
2023-05-23, 09:40:20
Auch bei Nvidia muss man letztendlich Preise abwarten. Von der 4060 gibt es keine FE mit Preisgarantie

Linmoum
2023-05-23, 09:45:23
Es gibt eine Preisgarantie bei Nvidia, jeder AiB muss mindestens ein Custom-Design zur UVP anbieten.

Aber auch unabhängig von Nvidia sieht die 7600 im Vergleich mit der eigenen 6600XT/6650XT einfach völlig meh aus. Die hat ja womöglich nicht mal einen spürbaren Effizienzvorteil. Klar, ist natürlich nur N6, aber für den Kunden natürlich trotzdem wenig berauschend.

DrFreaK666
2023-05-23, 09:47:02
Ja, die Karte wird hier kaum Freunde finden. Die 4060 und 4060Ti 8GB aber sicherlich auch nicht

vinacis_vivids
2023-05-23, 11:07:53
1. Ich frage mich wie die Formel zur Berechnung der effektiven Bandbreite ist? Der boost an Bandbreite erscheint etwas gering.

2. Die verbaute Rechenleistung entfaltet sich wohl erst mit FSR 3.0, insbesondere fp16? Demnach ist N33XL in einigen Fällen doppelt so schnell wie N23KXT.

3. Die 32CUs (2048SP) sind wohl eine Salvage Version. Kommt da noch eine Full-N33XT mit 36CUs (2304SP?) und 16GB. Das sieht stark nach Polaris-Konfiguration aus.

4. Partner AIB dürfte noch höher takten an die 3,0Ghz was einen krassen boost gibt und mit AD106 konkurriert.

Mal schauen was es wird.

HOT
2023-05-23, 11:42:34
65 Mio vs. 46 Mio Transistoren/mm².
Da lag die Priorität offensichtlich. Das Ding ist billig, es ging um nichts anderes.

Linmoum
2023-05-23, 11:52:22
Dann gibt's ja keinen Grund dafür, warum N33 oberhalb von $200 landen sollte. Kleiner als N23, noch in N6 gefertigt, ersterer ist bereits für ~$200 erhältlich. Da zählt das Argument neuer (und teurerer) Fertigung im Vergleich zum Vorgänger mal nicht. ;)

Billiger wird's aber nur für AMD und der Preis für die Kunden hoch.

Exxtreme
2023-05-23, 11:55:18
Mal schauen was der Markt so hergibt. Denn der reagiert nicht unbedingt so wie es sich viele Produktmanager so vorstellen.

vinacis_vivids
2023-05-23, 12:24:32
AMD macht den FSR 3.0 move um die meisten fps rauszuholen bei den schlecht prorammierten Spielen (wie CP2077).
UE5 nutzt fp16 intensiv, daher sehe ich gute Chancen ,dass die N33-Karten ein Preis-Leistung Knaller werden ,ähnlich Polaris-gen.
300-400€ schmerzen weniger als 800€ oder 1200€.

Complicated
2023-05-23, 12:37:16
Billiger wird's aber nur für AMD und der Preis für die Kunden hoch.
Ich glaube AMD wird solange die Margen mit nehmen, bis Nvidia ebenfalls auf das Chiplet-Design für Consumer GPUs wechselt. In dieser Phase kann AMD dann einen Kampf um Marktanteile an erfolgreichsten führen mit Preisreduktionen. Aufgrund der dann etablierten und in größeren Stückzahlen vorhandenen Chiplets/SKUs.

mczak
2023-05-23, 13:40:49
165W für vermutlich grob 4060-Performance sind schon ziemlich unsexy, zumal selbst die eigene 6650XT auch nur 10W mehr verbraucht (und die 6600XT liegt sogar nur bei ~150W). Meh.
Die 6600XT hatte eine offizielle TBP von 160W (und die 6650XT 180W).
Die 165W der RX 7600 sind aber schon etwas viel, da hat man im Vergleich zu Nvidia deutlich das Nachsehen, was bei der letzten Generation noch umgekehrt war, und auch im Gegensatz zum Vorgänger sind da die Fortschritte bloss minimal (wobei eben beides auch prozessbedingt ist).
Interessanterweise erreicht man bei dieser TBP zumindest auf dem Papier noch nicht mal die Taktraten der 6600XT - gut der Boost Takt ist 1% höher der Game Takt aber 4.5% tiefer. (So als Vermutung könnte das daran liegen dass wenn die verdoppelten ALUs auch tatsächlich mal ausgenutzt werden der Chip dann eben bei gleichem Takt auch mehr verbraucht als N23, zudem ist ja auch der Speicher schneller.)

Langlay
2023-05-23, 13:47:33
Yap und vor einem Jahr haben die AMD Jubelperser noch gehofft Navi33 zersägt Navi21 und jetzt hat Navi33 Probleme sich von Navi23 abzusetzen. Aber gut das fasst RDNA3 eigentlich auch ganz gut zusammen. Das einzige das grösser war als die Hoffnung war die Enttäuschung.

Linmoum
2023-05-23, 13:52:23
Das große Problem scheint halt zu sein, dass man unverhältnismäßig viel Leistungsaufnahme für höhere Taktraten braucht. Dass die Dinger an sich spielend leicht über 3GHz (und sogar in Richtung 3.5GHz+) gehen, weiß man ja mittlerweile schon. Aber eben nur dann, wenn die Leistungsaufnahme explodiert.

IMO war das ursprünglich anders geplant bzw. hat man das so nicht erwartet. Da liegt dann natürlich sehr viel Performance brach.

robbitop
2023-05-23, 13:54:27
Yap und vor einem Jahr haben die AMD Jubelperser noch gehofft Navi33 zersägt Navi21 und jetzt hat Navi33 Probleme sich von Navi23 abzusetzen. Aber gut das fasst RDNA3 eigentlich auch ganz gut zusammen. Das einzige das grösser war als die Hoffnung war die Enttäuschung.
RDNA3 ist relativ zu den Sprüngen die seine Vorgänger geliefert haben enttäuschend. Und das sollte jedem Endkunden, egal ob Nvidia oder AMD oder Intelkäufer missfallen. Denn Nvidia hat ein Quasi-Monopol bei dGPUs. Und Monopole sind immer schlecht für alle außer dem Monopolisten. In Bezug auf Preise sieht man das ja bereits. Im Prinzip werden wir immer mehr gemolken um den Reichtum anderer zu finanzieren. Also muss es mehr Wettbewerb geben.

Das große Problem scheint halt zu sein, dass man unverhältnismäßig viel Leistungsaufnahme für höhere Taktraten braucht. Dass die Dinger an sich spielend leicht über 3GHz (und sogar in Richtung 3.5GHz+) gehen, weiß man ja mittlerweile schon. Aber eben nur dann, wenn die Leistungsaufnahme explodiert.

IMO war das ursprünglich anders geplant bzw. hat man das so nicht erwartet. Da liegt dann natürlich sehr viel Performance brach.
Die Vermutung habe ich auch. Aber es scheint nicht so einfach zu fixen zu sein. N32 scheint ja ähnliche Taktraten zu fahren. N33 und Phoenix ebenso. Nichts was ein simpler bug ist. Da scheint was Grundlegegendes nicht aufgegangen zu sein.

Linmoum
2023-05-23, 13:56:51
AMD macht aber auch keine Anstalten, daran irgendwas ändern zu wollen. Da sollte man auch mal ansetzen, statt grundsätzlich immer nur Monopolisten zu verteufeln. Wenn ich mir das bei denen bequem mache und immer nur ein paar Dollar beim Preis runtergehe, dann hat der Markt davon nichts. Mit der Strategie hätten sie auch Intel bei den CPUs niemals so zusetzen können.

robbitop
2023-05-23, 13:59:41
AMD macht aber auch keine Anstalten, daran irgendwas ändern zu wollen. Da sollte man auch mal ansetzen, statt grundsätzlich immer nur Monopolisten zu verteufeln. Wenn ich mir das bei denen bequem mache und immer nur ein paar Dollar beim Preis runtergehe, dann hat der Markt davon nichts. Mit der Strategie hätten sie auch Intel bei den CPUs niemals so zusetzen können.
Oh das ist keine Kritik an Nvidia. Nvidia handelt gemäß des Optimierungskriterium im Kapitalismus. Gewinnmaximierung mit allen Mitteln. Es braucht Wettbewerb um das in den Griff zu bekommen. Und es ist an den Wettbewerbern (AMD und Intel) Gas zu geben. Da bin ich völlig d'accord.

Exxtreme
2023-05-23, 14:02:25
AMD macht aber auch keine Anstalten, daran irgendwas ändern zu wollen. Da sollte man auch mal ansetzen, statt grundsätzlich immer nur Monopolisten zu verteufeln. Wenn ich mir das bei denen bequem mache und immer nur ein paar Dollar beim Preis runtergehe, dann hat der Markt davon nichts. Mit der Strategie hätten sie auch Intel bei den CPUs niemals so zusetzen können.

Korrekt. Andererseits, wenn sie mal was Innovativeres machen dann honoriert das der Käufer nicht. Von daher, AMD hat hier halt dazugelernt und sie verplempern keine Ressourcen, die dann für die Katz sind. Sie kopieren Nvidia und machen ihre eigene Implementierung "open source" damit der Markt gespalten wird. Bzw. die "open source"-Implementierung auf mehr Marktanteile kommt.

So will es die Kundschaft.

Linmoum
2023-05-23, 14:04:02
Deswegen finde ich das auch schade, wenn sie bei N33 (Preis in Relation zur 4060 mal ausgeklammert) bei einem 204mm2 N6-Die Preise von >$250 verlangen sollten. Da hat man auch bei $200 noch Margen, über die man sich garantiert nicht beschweren braucht - und gleichzeitig ein taugliches Produkt für den Massenmarkt, das sicherlich viele Abnehmer finden würde.

Tesseract
2023-05-23, 14:04:39
solange AMD mitläuft und eigene hohe margen dankend mitnimmt kann man wohl kaum von "monopol" sprechen, das geht eher in richtung post-covid/mining-preiskartell.

dildo4u
2023-05-23, 14:27:17
Angebliche 7600 Preise 269$/299€.


https://videocardz.com/newz/amd-radeon-rx-7600-to-launch-with-269-e299-msrp

DrFreaK666
2023-05-23, 14:32:14
Für 299€ hätten die Karten gerade so ihre Daseinsberechtigung. Preislich genau zwischen 6650XT und 6700. Zumindest hier in Deutschland

DozerDave
2023-05-23, 14:32:36
Wow wie unattraktiv.

prinz_valium_2
2023-05-23, 14:42:27
Nicht überteuert wie fast alle anderen Karten der Generation, aber ein Schnäppchen trotzdem nicht.

Linmoum
2023-05-23, 14:49:30
Der Preis. Einfach nur lol.

Das ist pures Abkassieren bis Juli ohne Rücksicht auf Verluste. Schade, AMD. Zumal man schon eine 6650XT (egal ob Euro oder Dollar) für weniger kriegt und die sich wohl kaum spürbar absetzen wird. Verbrauchstechnisch ebenso quasi kein Fortschritt.

HOT
2023-05-23, 14:49:46
Das ist der geleakte Minimum-Preis, den AMD bereit war anzusetzen. Der Range ging von 269$ bis 329$. Man hat sich fürs Minimum entschieden. Der Preis wird natürlich weiter sinken, die 6650XT ist bei unter 280€, da wird das Ding auf jeden Fall auch kurzfristig landen. Tendenz weiter sinkend mittelfristig. AMD hat das glaube ich schon richtig gemacht, das Ding so billig wie möglich zu produzieren.

Linmoum
2023-05-23, 14:53:37
AMD hat das glaube ich schon richtig gemacht, das Ding so billig wie möglich zu produzieren.Ich kann das echt nicht mehr hören. Die verlangen $270 für "so billig wie möglich zu produzieren". Das Ding kommt in N6, N23 kriegt man für $200. Da braucht mir auch keiner mit Abverkaufspreisen kommen in dem Fall, denn N33 ist nicht nur kleiner, sondern nutzt auch kein N5/N4. Es gibt absolut keine Grundlage für diese Preise außer Gier.

Ich sag ja: Man unterbietet die Konkurrenz immer nur ein paar Dollar und gibt sich damit zufrieden. Damit schadet man dem Markt, um die Margen ein Müh höher zu halten.

HOT
2023-05-23, 14:56:02
Die Preise werden doch eh auf ein normales Maß sinken. Sei nicht so empfindlich. Das ist halt auch Markt, das schadet dem Markt nicht.

Troyan
2023-05-23, 14:58:20
Frage mich, wer die Zielgruppe für so ein Produkt ist.
In 1 1/2 Monaten bekommt man eine 115W 4060 für $30 -> Umwelt.
In Deutschland bekommt man für 20€ mehr eine 3060 mit 12GB -> VRAM Besessene.
Bei AMD bekommt man eine 6600XT günstiger -> AMD Leute.

HOT
2023-05-23, 14:59:44
Die Zielgruppe ist ein Grafikkartenkunde. Es kommt halt darauf an, für welchen Preis man welches Produkt bekommt. Aber war mir schon klar, dass da wieder Basics erklärt werden müssen :freak:...

robbitop
2023-05-23, 15:51:05
Korrekt. Andererseits, wenn sie mal was Innovativeres machen dann honoriert das der Käufer nicht. Von daher, AMD hat hier halt dazugelernt und sie verplempern keine Ressourcen, die dann für die Katz sind. Sie kopieren Nvidia und machen ihre eigene Implementierung "open source" damit der Markt gespalten wird. Bzw. die "open source"-Implementierung auf mehr Marktanteile kommt.

So will es die Kundschaft.
Man müsste sich überlegen warum. Aber bei Nvidia wird es honoriert. Es bindet sogar Kunden. Ggf. bringt Nvidia eine höhere Anzahl solcher Initiativen die in Summe und auch z.T. einzeln höhere Impacts haben.
Ggf. hat man es einfach nicht intensiv genug gemacht.

Dino-Fossil
2023-05-23, 15:51:33
Der Preis. Einfach nur lol.

Das ist pures Abkassieren bis Juli ohne Rücksicht auf Verluste. Schade, AMD.

Ich finde die Preise auch zu hoch angesetzt, aber vom Käufer einer 4090 ist das ein wenig ironisch. :freak:

Langlay
2023-05-23, 15:59:42
Ich finde die Preise auch zu hoch angesetzt, aber vom Käufer einer 4090 ist das ein wenig ironisch. :freak:

Die 4090 macht in der aktuellen Marktsituation halt "Sinn" als Kunde.

Die 4090 ist im Vergleich zu den kleineren Karten nicht absurd teuer sondern Mehrpreis und Mehrleistung halten sich ungefähr die Waage. Der absolute Preis ist natürlich hoch, P/L ist aber trotzdem kaum schlechter als bei kleineren Karten. Ist halt das Rundumsorglospaket.

Linmoum
2023-05-23, 16:06:42
Ich finde die Preise auch zu hoch angesetzt, aber vom Käufer einer 4090 ist das ein wenig ironisch. :freak:Keine Ahnung, was diese Quervergleiche immer sollen. AD102 ist >600mm2 riesig und in 4N (N5, whatever) gefertigt. N33 sind rund 200mm2 in N6.

Das sind schon völlig andere Voraussetzungen. Mal davon ab, dass quasi jeder da draußen sagt, dass die einzige Karte beider Hersteller der aktuellen Generationen, die nachvollziehbar bepreist ist, die 4090 ist. Aber irgendwie hält die 4090 wohl immer als Totschlagargument bei sowas her.

Dino-Fossil
2023-05-23, 16:17:41
Klar, redet euch das nur immer schön ein. :tongue:

Langlay
2023-05-23, 16:29:21
Klar, redet euch das nur immer schön ein. :tongue:

Tun wir.

https://i.redd.it/gre61hoofh5a1.png

Ist noch mit den Preisen vom Release.

fondness
2023-05-23, 16:33:32
Man müsste sich überlegen warum. Aber bei Nvidia wird es honoriert. Es bindet sogar Kunden. Ggf. bringt Nvidia eine höhere Anzahl solcher Initiativen die in Summe und auch z.T. einzeln höhere Impacts haben.
Ggf. hat man es einfach nicht intensiv genug gemacht.

Der Zug ist doch längst abgefahren. Wenn AMD etwas extrem innovatives wie zB Mantle bringt, dass mal eben die API Landschaft revolutioniert, dann haben sie nicht genügend Marktanteile um es durchzusetzen. Also müssen sie die open-source-Schiene fahren. Das ist zwar gut für den Markt, bringt aber keine Marktanteile. Wenn NV etwas bringt ist es schon fast ein defacto Standard bei 80% Marktanteil. Da ist es für AMD wesentlich einfacher die proprietären Features von NV nachzubauen und open-source zu machen als selbst Innovationen zu bringen die niemand würdigt. Ganz davon abgesehen, dass NV selbst Sachen die eigentlich von AMD kamen durch absurde Schnellschüsse wie zB Gsync proprietär bringt - und der Kunde das zu würdigen scheint.

Iscaran
2023-05-23, 16:39:11
Tun wir.

11.26$ ist immer noch >> 8.84$.

Wo liegt denn der Konkurrent der 7600 von nVidia? Ist aber egal, weil die AMD Karte ja "sowieso viel zu teuer ist" (Zitat-Ende).

Langlay
2023-05-23, 16:50:11
11.26$ ist immer noch >> 8.84$.


Dafür ist die 7900XTX zugeschnürt wie sonst was und man darf AMD danken das man als unmündiger Nutzer das PT 10% senken kann.
Im Vergleich zur 4080/4090 säuft die 7900XTX ganz gut Strom(das Multimonitorverbrauchsproblem auch mal aussen vorgelassen) und man hat als Nvidianutzer die Wahl zwischen FSR und DLSS.

Und in Sachen Raytracing spielt die 4090 einfach in na ganz anderen Liga als die 7900XTX.

Wenn Navi31 was taugen würde hätte ich jetzt eine. Aber ist halt für mich maximal unsexy die Karte.

robbitop
2023-05-23, 16:59:32
Der Zug ist doch längst abgefahren. Wenn AMD etwas extrem innovatives wie zB Mantle bringt, dass mal eben die API Landschaft revolutioniert, dann haben sie nicht genügend Marktanteile um es durchzusetzen. Also müssen sie die open-source-Schiene fahren. Das ist zwar gut für den Markt, bringt aber keine Marktanteile. Wenn NV etwas bringt ist es schon fast ein defacto Standard bei 80% Marktanteil. Da ist es für AMD wesentlich einfacher die proprietären Features von NV nachzubauen und open-source zu machen als selbst Innovationen zu bringen die niemand würdigt. Ganz davon abgesehen, dass NV selbst Sachen die eigentlich von AMD kamen durch absurde Schnellschüsse wie zB Gsync proprietär bringt - und der Kunde das zu würdigen scheint.
Ich stimme dir da zu. Aber ohne was am Status Quo zu ändern, wird sich der Marktanteil IMO nicht mehr verschieben.
Ich würde sagen man muss mehr abliefern als Nvidia über mehrere Generationen hinweg um das zu ändern. Und das ist natürlich nicht einfach. Aber ein anderer Weg fällt mir nicht ein.

HOT
2023-05-23, 18:11:03
Dafür ist die 7900XTX zugeschnürt wie sonst was und man darf AMD danken das man als unmündiger Nutzer das PT 10% senken kann.
Im Vergleich zur 4080/4090 säuft die 7900XTX ganz gut Strom(das Multimonitorverbrauchsproblem auch mal aussen vorgelassen) und man hat als Nvidianutzer die Wahl zwischen FSR und DLSS.

Und in Sachen Raytracing spielt die 4090 einfach in na ganz anderen Liga als die 7900XTX.

Wenn Navi31 was taugen würde hätte ich jetzt eine. Aber ist halt für mich maximal unsexy die Karte.
Mach die Karte nicht so schlecht, das ist sie nicht. Bleib mal auf dem Teppich. Die 4090 dauernd zu bemühen ist totaler Schwachsinn, anderer Markt. Die 7900XTX ist hat weder die Leistung, noch den Preis, noch die 450W.

Vorteile 7900XTX:
- billiger als 4080
- schneller als 4080
- 24GB und damit gute Reserve für Jahre

Nachteile ggü. ner 4080
- 50W mehr
- DLSS (FSR bräuchte eine Überarbeitung, dann wäre das kein Problem, FG kommt ja auch für Radeon)
- einige % weniger RT-Leistung

Die Dinger haben genau wie die NV-Karten einfach die falschen Namen. Ne 7900XTX müsste 7900XT heißen, die 7900XT müsste 7800XT heißen, dann würde es stimmen.
Bei NV ist es aber schlimmer, hier müsste alles ab ner 4070Ti eine Stelle herunterrutschen, dann würde es stimmen.

basix
2023-05-23, 20:19:11
249...299$ ist etwa das, was man erwarten konnte. Mit 269$ landet man in der Mitte. Da haben wir diese Generation schon schlechtere Deals gesehen ;)

Folgendes drückt es eigentlich perfekt aus:
Nicht überteuert wie fast alle anderen Karten der Generation, aber ein Schnäppchen trotzdem nicht.

MSABK
2023-05-23, 22:28:58
Der Markt ist doch tot, die Karten werden so oder so auf 239€ fallen, also die 7600.

Pirx
2023-05-24, 07:39:04
Das sind aber die RDNA3 Luftpumpen TFLOPs. ;)
Ggf. ist das aber dennoch einen Hinweis auf einen LLC/IF$. Dann wäre das absolut machbar.
Wieso genau sind das eigentlich nochmal Luftpumpen-TFLOPS? Wegen dual-issue, was kaum mal im "real life" ausgenutzt werden kann?

(bspw. https://www.hardwaretimes.com/amd-rdna-3-vopd-instructions-provide-only-a-4-performance-boost-in-ray-traced-scenes-will-improve-over-time/)

dildo4u
2023-05-24, 08:55:24
Wieso genau sind das eigentlich nochmal Luftpumpen-TFLOPS? Wegen dual-issue, was kaum mal im "real life" ausgenutzt werden kann?

(bspw. https://www.hardwaretimes.com/amd-rdna-3-vopd-instructions-provide-only-a-4-performance-boost-in-ray-traced-scenes-will-improve-over-time/)
Wie Nvidia gerade merkt die Konsolen setzen die Specs z.b 12GB Vram, daher gibt es kein Grund extra für RDNA3 Aufwand zu betreiben wenn AMD damit keine Marktanteile hat.
Ich persönlich hoffe inständig das wir keine Konsolen mit RDNA3 sehen weil Performance/Watt Sprung ein Witz ist.

basix
2023-05-24, 09:18:36
Ich persönlich hoffe inständig das wir keine Konsolen mit RDNA3 sehen weil Performance/Watt Sprung ein Witz ist.
Die ganzen PS5 Pro Infos halte ich für FUD, insbesondere wenn mit RDNA3 argumentiert wird. Bei RDNA4 könnte sowas anders aussehen, da insbesondere auch die RT-Performance stark ansteigen soll und hoffentlich auch die Energieeffizienz.

Eine PS5 Pro mit RDNA3 könnte sich ja gar nicht wirklich signifikant von der PS5 Base absetzen, ausser man geht auf 300W für die ganze Konsole.

dildo4u
2023-05-24, 09:34:52
Kein Plan ob ich das falsch einschätze aber 160 Watt alleine für eine 7600 die zumindest in Raster Optik nicht schneller scheint als PS5.
Und wenn man Realistisch ist müssten die Refrech Konsolen in 6nm kommen damit die Kosten nicht explodieren.

robbitop
2023-05-24, 09:39:44
Wieso genau sind das eigentlich nochmal Luftpumpen-TFLOPS? Wegen dual-issue, was kaum mal im "real life" ausgenutzt werden kann?

(bspw. https://www.hardwaretimes.com/amd-rdna-3-vopd-instructions-provide-only-a-4-performance-boost-in-ray-traced-scenes-will-improve-over-time/)
ja genau

Thunder99
2023-05-24, 09:40:31
Die ganzen PS5 Pro Infos halte ich für FUD, insbesondere wenn mit RDNA3 argumentiert wird. Bei RDNA4 könnte sowas anders aussehen, da insbesondere auch die RT-Performance stark ansteigen soll und hoffentlich auch die Energieeffizienz.

Eine PS5 Pro mit RDNA3 könnte sich ja gar nicht wirklich signifikant von der PS5 Base absetzen, ausser man geht auf 300W für die ganze Konsole.
Muss es auch nicht aber wäre der logische Schritt Navi33 Variante in die Pro zu bringen. Ausreichend Mehrperformance zur non Pro und deutlich besser in RT.

dargo
2023-05-24, 10:00:37
Muss es auch nicht aber wäre der logische Schritt Navi33 Variante in die Pro zu bringen. Ausreichend Mehrperformance zur non Pro und deutlich besser in RT.
Wo siehst du bei N33 deutlich mehr Performance vs. PS5? :freak: Für eine PS5 Pro macht alles unter einer RX 7900XT(X) Performance in ~150W überhaupt keinen Sinn. Und davon sind wir noch weit entfernt.

basix
2023-05-24, 10:02:18
Ausreichend Mehrperformance sehe ich nur, wenn man auf den Konsolen mit Dual-Issue oder Matrix-Operationen die FLOPS auch nutzen kann. In allen anderen Fällen sehe ich es ehrlich gesagt nicht.

+10% IPC und nochmal +10...20% bei RT sind mir nicht signifikant genug. N33 hat zudem nur 32 CU vs. 36 CU der PS5. Und das ist bei N33 noch der Vollausbau. IMO unwahrscheinlich, dass etwas wie N33 die Basis für eine Pro-Version sein soll. Oder auch allgemein: RDNA3 sehe ich nicht als Pro-Version Fundament. RDNA4 könnte besser passen. RDNA4 soll nächstes Jahr erscheinen, also könnte auch die Pro-Version darauf aufsetzen. Zusammen mit Zen 5c. Viel sinnvoller ;)

Dino-Fossil
2023-05-24, 10:06:27
Man darf auch nicht vergessen, dass man vermutlich keine größeren Änderungen bzgl. der ISA innerhalb einer Konsolen-Generation vornehmen wird, da man auch die Kompatibilität zu den bestehenden Modellen im Auge behalten muss.

HOT
2023-05-24, 10:20:24
Das wird sicherlich auch nicht so laufen, von daher stimme ich basix zu, diese ganzen Gerüchte sind Unsinn. Wenn es eine PS5 Pro gibt, hat die mehr Leistung, das wars.

vinacis_vivids
2023-05-24, 11:20:39
PS5 Pro Developer Kits sollen jetzt bis Ende 2023 in den Umlauf gehen.
Die Entwickler schauen sich erstmal dual-issue fp32, AI-Cores, FSR 3.0, Hypr-RX ,fp16 ,RT und Matrix-Multiplikation usw. an.
Eventuell gibs auch einen unified Cache.

Das alles ist in Summe doch recht viel Zeug eingebaut.

N33 hat 21,5 Tflops fp32 und 43 Tflops fp16.
Oberon+ ist bei 10,3 Tflops fp32 und 20,6 Tflops fp16.

RDNA3+ uArch in der Konsole wird wohl "leading edge" für die breite Masse werden, da es auch bezahlbar bleibt.

Ich gehe fest davon aus ,dass die Sony-Entwickler mit Erfahrung das meiste aus der Hardware holen können und auch werden.

Erscheinen wird die PS5 Pro erst Ende 2024. Bis dahin fließt viel Wasser den Bach runter.

Ist die Frage ob 6nm oder 4nm/5nm für die APU. Da müsste man mal eine Rechnung machen, was sich lohnt bei hohen Absatzzahlen. Vermutlich 4nm CPU-Cores und 5nm GPU-Cores und 6nm MEM-Slides. Ist ja praktisch alles vorhanden bei AMD.

dargo
2023-05-24, 11:24:36
N33 hat 21,5 Tflops fp32 und 43 Tflops fp16.

Säufst du dir wieder RDNA3 schön mit den hirnverbrannten TFLOPs? :rolleyes:

vinacis_vivids
2023-05-24, 11:45:20
Weißt du warum u.a. dual-issue fp32 so teuer und kompliziert ist?

https://chipsandcheese.com/2023/01/07/microbenchmarking-amds-rdna-3-graphics-architecture/

"AMD can optimize games by replacing known shaders with hand-optimized assembly instead of relying on compiler code generation."

Hand-optimierte assembler codes statt HLSL compiler.

Die Assembler-Profis sind seltener als Diamanten heutzutage.

Exxtreme
2023-05-24, 12:03:53
Hand-optimierte assembler codes statt HLSL compiler.


Assembly und Assembler sind zwei Paar Stiefel. Denn der HLSL compiler macht auch nichts anderes als "assembly" zu generieren. Nur ist dieses "assembly" möglicherweise nicht gut optimiert und deshalb wird es durch handoptimiertes ausgetauscht.

amdfanuwe
2023-05-24, 12:07:18
Da seh ich eher das Problem darin, dass die Compiler noch nicht entsprechend optimiert sind. Handoptimierter Assembler läuft nur auf einer Hardware gut, kann bei der nächsten Generation schon zu Problemen führen.

robbitop
2023-05-24, 12:44:07
Das erinnert mich an den Shadercompiler zu GCN Zeiten. Sony und Microsoft haben aus GCN mehr mit ihren eigenen Shadercompilern herausgeholt als AMD. Id hatte sich das damals in irgendeiner Form zunutze gemacht, in dem man den durch den MS (oder Sony) Compiler erzeugten Code decompilet und dann durch den AMD shadercompiler gejagt haben.
Doom / Wolfenstein haben damals aus GCN dadurch richtig viel rausholen können. Da waren die Karten relativ zu Pascal deutlich besser als in allen anderen Spielen.

AMDs Shadercompiler hat sich aber anscheinend nie von selbst auf dieses Level begeben können. RDNA hingegen hat anscheinend das Thema Granularität von der HW Seite so stark verbessert, dass man mehr Rohleistung pro FLOP herausholen konnte.
RDNA3 erscheint mir da wieder ein Stück weit ein Rückschritt zu sein. Ja eventuell gibt es da noch einiges an Potenzial für den Shadercompiler aber ob AMD das holen kann? Der Track Record sieht nicht so doll aus. Ich hoffe, dass zukünftige uArchs eher wieder den RDNA Weg gehen können.

davidzo
2023-05-24, 13:20:09
Ja, seit GCN hält sich die Mär von neuen AMD Features die mal später per Software enabled werden und große Performancesprünge möglich machen sollten.

High Bandwidth Cache controller
Draw Stream binning rasterizer
Primitive shaders
Rapid packed math
...


Letztendlich hat AMD sowas meist gecancelt, da es mehr Sinn macht die begrenzte Manpower für die Treiber der nächsten Gen zu verwenden als features für eine alte Gen nachzuliefern deren Sales sowieso nichts mehr reißen werden. Das wird wohl auch in Zukunft so bleiben, ich erhoffe mir da bei RDNA3 genau gar nichts an zuwachs.

dildo4u
2023-05-24, 13:28:43
AMD 7600 Benches

https://abload.de/img/amd-radeon-rx-7600-3nheou.jpg


https://videocardz.com/newz/amd-announces-269-radeon-rx-7600-rdna3-graphics-card

Der_Korken
2023-05-24, 13:33:58
AMD 7600 Benches

6600 + 29% = 6650XT + 10%

https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_full_hd

robbitop
2023-05-24, 13:54:33
Verguggt? In dem Link ist die 6650XT nur 3% schneller als die 6600XT.

Raff
2023-05-24, 14:03:24
Die AMD-Angabe ist übrigens erstaunlich akkurat. ;)

MfG
Raff

dildo4u
2023-05-24, 14:04:56
Es gab doch massive Kritik wegen der 7900 Benches danach wurde versprochen keine Hype Zahlen mehr zu veröffentlichen.

robbitop
2023-05-24, 14:24:52
Die AMD-Angabe ist übrigens erstaunlich akkurat. ;)

MfG
Raff
Also in etwa 7600XT Performance. Die kostet aktuell immerhin ab 376 EUR und hat eine TDP von 230W.
Wenn die TDP Angabe mit 160W passt, würde das immerhin eine Perf/W Steigerung von grob 40% bedeuten. Das haben wir nicht mal annähernd mit N31 gesehen.

Exxtreme
2023-05-24, 14:27:19
Um 15:00 Uhr erfahren wir mehr. :) Aber wenn diese Angaben stimmen dann wird die Grafikkarte wohl ein positiveres Echo erfahren. Denn man hat deutliche Steigerungen zum Vorgänger.

dargo
2023-05-24, 14:27:43
AMD 7600 Benches

https://abload.de/img/amd-radeon-rx-7600-3nheou.jpg


https://videocardz.com/newz/amd-announces-269-radeon-rx-7600-rdna3-graphics-card
Heftige Unterschiede von mickrigen +9% bis zu starken +55%. X-D

robbitop
2023-05-24, 14:29:05
Wenn die Taktrate von Videocardz stimmt, dann hat man gerade mal ~1% mehr Takt als die 6600XT. Bei gleicher CU Anzahl: bei gleichem Takt dann so große Performancesprünge? +29%?
Trotz reduzierter Caches und Register ggü N31? (dort kam pro Takt gerade mal knappe +10% heraus)

dildo4u
2023-05-24, 14:34:50
Also in etwa 7600XT Performance. Die kostet aktuell immerhin ab 376 EUR und hat eine TDP von 230W.
Wenn die TDP Angabe mit 160W passt, würde das immerhin eine Perf/W Steigerung von grob 40% bedeuten. Das haben wir nicht mal annähernd mit N31 gesehen.
Die 6700XT ist schneller sie liegt bei 12k Timespy,die 7600 10500.
Die 6700 passt eher 340€ aktuell ich würde den zusätzlichen Vram nehmen.

Linmoum
2023-05-24, 14:35:40
Was AMD angibt und der tatsächliche Takt sind zwei paar Schuhe. Dafür, dass die 7600 bei ~165W liegt, ist das verglichen mit N23 im Vollausbau wenig berauschend. Nur "billig" kann ja bei einer neuen Architektur nicht der Fall sein, da sollte es auch unabhängig vom genutzten Node deutliche Fortschritte geben.

r3ptil3
2023-05-24, 14:38:52
AMD 7600 Benches

https://abload.de/img/amd-radeon-rx-7600-3nheou.jpg


https://videocardz.com/newz/amd-announces-269-radeon-rx-7600-rdna3-graphics-card

Das wäre ja fast RTX 4060 Ti Niveau.
Nach dem Desaster gestern, aber genau das Richtige.

dildo4u
2023-05-24, 14:42:17
Das wäre ja fast RTX 4060 Ti Niveau.
Nach dem Desaster gestern, aber genau das Richtige.

Die ist fast 40% schneller als 6650XT.

https://www.computerbase.de/2023-05/nvidia-geforce-rtx-4060-ti-8gb-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_1920__1080

Raff
2023-05-24, 14:46:55
RX 6600 mal 1,29 ist ziemlich genau RX-6700-Leistung.

MfG
Raff

robbitop
2023-05-24, 14:51:28
Die 6700XT ist schneller sie liegt bei 12k Timespy,die 7600 10500.
Die 6700 passt eher 340€ aktuell ich würde den zusätzlichen Vram nehmen.
376€ billigste 6700XT
https://geizhals.de/?cat=gra16_512&xf=9809_05+12+-+RX+6700+XT

Außerdem: Timespy/3DMark kann man nicht spielen. Der Schnitt der Spielebenchmarks sagt +29%. Das ist so ziemlich exakt wo im CB Rating die 6700XT liegt.

davidzo
2023-05-24, 14:56:18
Verguggt? In dem Link ist die 6650XT nur 3% schneller als die 6600XT.


6600 != 6600XT

AMD vergleicht sich mit dem Salvage Chip. Nominell ist das okay da es schließlich nicht als XT Chip vermarktet wird. Trotzdem ist dass ein fullfat N33 vs N23 salvage Vergleich.

Platos
2023-05-24, 15:01:05
Ja gut, die Karte war damals schon scheisse. 8GB vs 12GB und heute hat sie (wie nvidia) nur 8GB. 30% hört sich ja ok an, wenn das wirklich so ist. Aber die 8Gb sind halt ein Genickbruch, auch in 1080p ist das zu wenig. Und von daher ist das ein weiterer Speicherkrüppel.

Raff
2023-05-24, 15:02:13
376€ billigste 6700XT
https://geizhals.de/?cat=gra16_512&xf=9809_05+12+-+RX+6700+XT

Außerdem: Timespy/3DMark kann man nicht spielen. Der Schnitt der Spielebenchmarks sagt +29%. Das ist so ziemlich exakt wo im CB Rating die 6700XT liegt.

Dann hemmt etwas die Skalierung. There you go: https://www.pcgameshardware.de/Radeon-RX-7600-Grafikkarte-279650/Tests/Release-preis-Benchmark-Specs-Review-1419906/2/

MfG
Raff

robbitop
2023-05-24, 15:17:33
Hm doch etwas underwhelming. Rohleistungsnormiert kommt auch nicht viel mehr raus. 7-8% mehr bei RDNA3.

basix
2023-05-24, 15:38:07
Verguggt? In dem Link ist die 6650XT nur 3% schneller als die 6600XT.

6600 non-XT ;)

robbitop
2023-05-24, 15:42:40
In jedem Fall zeigt N33 wiederholt, dass doch offenbar nicht mehr hinter RDNA3 steht als schon bei N31 gesehen. Für eine neue uArch wirklich enttäuschend. Man hat ja gehofft, dass bei N31 irgendwas klemmt, was bei späteren SKUs behoben ist aber das scheint nicht der Fall zu sein.

Linmoum
2023-05-24, 15:47:29
Umso merkwürdiger, dass man von N32 rein gar nichts hört und AMD sich scheinbar wenig darum kümmert, dass Nvidia in einer riesigen Preisspanne quasi machen kann, was es will.

HOT
2023-05-24, 15:48:20
Da kommt nix mehr und man sollte sich daran gewöhnen, dass auch N32 nicht das leisten wird, was sich hier einige vorstellen. Mehr als 6800XT-Leistung wird bei der 7700XT nicht herumkommen mMn. N32 ist schmal und tief, das war bei vielen AMD-Architekturen nicht unbedingt ne tolle Idee. AMD wird über Preis und Speichermenge gehen. Die werden mMn durchgängig mit 16GB von der 7600XT bis hoch zur 7800XT (70CU N31) gehen mit 15% niedrigeren Preisen als NV.

robbitop
2023-05-24, 15:49:55
Man hat ja ganz brauchbare RDNA2 GPUs in der Pricerange. Insbesondere N21. (6800, 6800XT, 6900XT und 6950XT).

Mann mann mann das läuft ja echt auf Sparflamme bei AMD. Offenbar hat man dem GPU Markt niedrigere Priorität eingeräumt und anderen Sparten den Vorrang gegeben? (Mi300, Ryzen, Epic, die neuen Decoder/Encoder Karten und andere Xillinx Produkte?)

dildo4u
2023-05-24, 15:54:41
Du hast bei den Karten weniger Kostenkontrolle Nvidia weiß z.b selber das 500€+ für die 16GB 4060 TI lächerlich sind aber es ist nicht anders machbar.(128 Bit Bus)
AMD wird mit 7700/7800 auch nix anderes machen als 12 und 16Gb Karten im Preis zu steigern.

Exxtreme
2023-05-24, 15:58:19
Langsam kann man das verstehen warum EVGA keine Lust mehr auf Grafikkarten hat. :freak: Irgendwie fehlt eine neue DirectX-Version, mit der viel bessere neue Effekte möglich sind.

robbitop
2023-05-24, 16:01:12
Im 4060 ti Review von LTT wurde doch gesagt wie viel 8 GB GDDR6 kosten. Das war ein Witz. Soll man doch die Mehrkosten von +8 GB drauflegen +10% Marge und eine 16 GB SKU auflegen.

dildo4u
2023-05-24, 16:12:16
Im 4060 ti Review von LTT wurde doch gesagt wie viel 8 GB GDDR6 kosten. Das war ein Witz. Soll man doch die Mehrkosten von +8 GB drauflegen +10% Marge und eine 16 GB SKU auflegen.
Sind die Treiber den gelockt kann sein das eine 16GB Karte sehr attraktiv für KI Forscher ist, Nvidia musste doch die Treiber öffnen weil AMD billigere Pro Karten hat.

HOT
2023-05-24, 16:17:39
Man hat ja ganz brauchbare RDNA2 GPUs in der Pricerange. Insbesondere N21. (6800, 6800XT, 6900XT und 6950XT).

Mann mann mann das läuft ja echt auf Sparflamme bei AMD. Offenbar hat man dem GPU Markt niedrigere Priorität eingeräumt und anderen Sparten den Vorrang gegeben? (Mi300, Ryzen, Epic, die neuen Decoder/Encoder Karten und andere Xillinx Produkte?)

Das passt alles nicht zusammen. MMn hat AMD unheimlich billig 7nm-Kapazitäten nutzen können, daher ballern die auch alles mit N21 zu (mit Erfolg). Diese Chargen werden aber durch sein und das muss jetzt mit der 7700(XT) aufgefangen werden. Es ging immer nur um Geld bei AMD. Die haben seit N31 nur kalkuliert, da ging es nicht darum, welches Produkt das beste für Gamer ist oder wie das beim Marketing ankommt. Es ging die ganze Zeit nur um Profitmaximierung in der Situation. Wie kann man im Windschatten von NVs rumgefaile bei ver Verkäufen gute GPU-Zahlen machen um die extrem schlechten CPU-Verkäufe aufzufangen. Hat funktioniert, wenn man sich die letzten Zahlen anschaut. Ich glaub wenn man da anfängt zu suchen ist man auf der richtigen Spur und dann versteht man auch die krasse Verschiebung der N32.

MMn passt auch FSR3 dazu. Wenn das stimmt, dass nur RDNA3 FSR3 kann ist FSR3 auch anders als FSR2 und nicht nur Frame Generation. Das ergibt aber keinen Sinn das freizugeben auch unter Nachteilen für die großen RDNA3-Karten, wenn man noch haufenweise RDNA2-Karten unters Volk bringen will. Also ist absehbar, dass FSR3 auch erst zusammen mit N32 überhaupt launchen wird. Denkt von der Geldseite her, nicht aus der Consumersicht. Egal ob man extrem viele N21 herumliegen hatte oder N21 noch mal für Spottpreise nachproduzieren lies, es kommt aufs gleiche heraus. Man musste sich eine Strategie überlegen, NV den Rang abzulaufen und gleichzeitig adäquat Kohle zu machen. Und NV hat denen mit der Preis- und Speicherpolitik einen Scheunentor in der Flanke offengelassen um mit den ollen RDNA2s da voll reinzustoßen.

robbitop
2023-05-24, 16:25:59
Wobei der Marktanteil ja schlimm zurückgegangen ist. Q4 2022 waren es nur noch 9% am dGPU Markt. Nvidia mit 85% Siehe JonPeddie:
https://de.statista.com/statistik/daten/studie/197681/umfrage/marktanteile-am-absatz-von-grafikkarten-weltweit-seit-dem-3-quartal-2010/#:~:text=Die%20Statistik%20bildet%20die%20Marktanteile,stammen%20von%20Jon%20Ped die%20Research.

Lurtz
2023-05-24, 16:29:34
Offenbar hält man die Backdoor Konsolen für ausreichend und schert sich nicht mehr um Marktanteile am PC. Wenn das mal nicht nach hinten losgeht irgendwann.

HOT
2023-05-24, 16:33:17
Wobei der Marktanteil ja schlimm zurückgegangen ist. Q4 2022 waren es nur noch 9% am dGPU Markt. Nvidia mit 85% Siehe JonPeddie:
https://de.statista.com/statistik/daten/studie/197681/umfrage/marktanteile-am-absatz-von-grafikkarten-weltweit-seit-dem-3-quartal-2010/#:~:text=Die%20Statistik%20bildet%20die%20Marktanteile,stammen%20von%20Jon%20Ped die%20Research.

Das sind doch eh Murksstatistiken. Das geht weder aus NVs noch aus AMDs Zahlen hervor. NV hat extrem schlechte Gaming-Verkäufe gehabt, AMDs sind gut, das liegt nicht nur an den Konsolen (natürlich größtenteils). Da kann mit den Statistiken da irgendwas mal nicht hinkommen.

dildo4u
2023-05-24, 16:34:03
Offenbar hält man die Backdoor Konsolen für ausreichend und schert sich nicht mehr um Marktanteile am PC. Wenn das mal nicht nach hinten losgeht irgendwann.
Sony und MS bringen nichts Neues was nicht Abwärts Kompatibel ist das erscheint mir recht Sicher.
Das ist der "Nachteil" der Konsolen du arbeitest dicht an der Hardware was besser Performance aber Nachteile bei der Kompatibilität bringt.

robbitop
2023-05-24, 16:35:35
Das sind doch eh Murksstatistiken. Das geht weder aus NVs noch aus AMDs Zahlen hervor.
JonPeddie ist eigentlich renormiertes Marketresearch. Gab es da jemals einen Fall, wo die doll daneben lagen?

HOT
2023-05-24, 16:36:39
Rennomierter Blödsinn. Schön. Wie gesagt, passt nicht zu den Zahlen. MLID sagt übrigens ähnliches, ich bin da nicht der einzige, der diese Diskrepanz sieht.

Dino-Fossil
2023-05-24, 16:37:09
Schätze RDNA3 ist bei AMD schon abgeschrieben. Vielleicht sähe es anders aus, wenn es mehr Vorsprung ggü RDNA2 gebracht hätte, aber das ist halt nicht passiert. Oder sie sehen den Gaming-PC-Markt eh als Auslaufmodell. Wenn die Preise weiter so absurd steigen findet ernsthaftes Gaming in ein paar Jahren auf Konsolen oder per Streaming statt und PCs beschränken sich auf iGPUs, nutzbar für Indie oder Retro-Sachen.

robbitop
2023-05-24, 16:46:56
Rennomierter Blödsinn. Schön. Wie gesagt, passt nicht zu den Zahlen. MLID sagt übrigens ähnliches, ich bin da nicht der einzige, der diese Diskrepanz sieht.
MLID ist nun wirklich nicht renormiert und ich habe bisher noch keine handfesten Zahlen gesehen, die deine These belegen. Hast du einen Link wo man die Diskrepanz klar sehen kann?

bbott
2023-05-24, 16:56:28
In jedem Fall zeigt N33 wiederholt, dass doch offenbar nicht mehr hinter RDNA3 steht als schon bei N31 gesehen. Für eine neue uArch wirklich enttäuschend. Man hat ja gehofft, dass bei N31 irgendwas klemmt, was bei späteren SKUs behoben ist aber das scheint nicht der Fall zu sein.
Nur meckern... es hieß von Anfang an N31 und N33 sollen einen Bug haben! Nur N32 sollte gefixt werden, was aber auch später wieder in Frage gestellt wurde.
Also vielleicht sehen wir es frühestens mit N32!

Dino-Fossil
2023-05-24, 17:02:32
Nur, wenn es so wäre - wo positioniert AMD dann N32? Die Karte wäre dann entweder (wenigstens fast) im Performance-Bereich von N31, oder wird gedrosselt und hat deutlich mehr Performance beim gleichen Verbrauch wie N33.
Beides erscheint dann im Portfolio irgendwie seltsam.

Complicated
2023-05-24, 17:02:44
Wobei der Marktanteil ja schlimm zurückgegangen ist. Q4 2022 waren es nur noch 9% am dGPU Markt. Nvidia mit 85% Siehe JonPeddie:
https://de.statista.com/statistik/daten/studie/197681/umfrage/marktanteile-am-absatz-von-grafikkarten-weltweit-seit-dem-3-quartal-2010/#:~:text=Die%20Statistik%20bildet%20die%20Marktanteile,stammen%20von%20Jon%20Ped die%20Research.
Das sind doch eh Murksstatistiken. Das geht weder aus NVs noch aus AMDs Zahlen hervor. NV hat extrem schlechte Gaming-Verkäufe gehabt, AMDs sind gut, das liegt nicht nur an den Konsolen (natürlich größtenteils). Da kann mit den Statistiken da irgendwas mal nicht hinkommen.
Da muss man aufpassen und zeitlich unterscheiden.
Jon Peddie zeigt die Zahlen GPU-Chip vom Hersteller in den Channel. Bis da Grafikarten bei Mindfactory verkauft werden vergeht Zeit.

Hinzu kommt, dass die Lagerbestände hoch waren und beide Hersteller da unterschiedlich mit den ODM/AIB umgegangen sind. Hier im Forum wurde noch darüber diskutiert warum AMD die Auslieferungen runter gefahren hat - einige waren da auf dem "Preise hoch halten"-Trip, dabei waren es einfach geringere Bestellungen die gewünscht wurden. Nvidia hatte da andere Strategien mit alt/neu Bundles und Rabatte anstatt weniger bestellen. Bei solchen Situationen wird man erst nach 6 Monaten schlau aus den Zahlen und wie mit den Lagerbeständen umgegangen wurde im Channel und wo die Auffälligkeiten in den Statistiken und Bilanzen zu finden sind.

HOT
2023-05-24, 17:13:36
Da muss man aufpassen und zeitlich unterscheiden.
Jon Peddie zeigt die Zahlen GPU-Chip vom Hersteller in den Chanel. Bis da Grafikarten bei Mindfactory verkauft werden vergeht Zeit.

Hinzu kommt, dass die Lagerbestände hoch waren und beide Hersteller da unterschiedlich mit den ODM/AIB umgegangen sind. Hier im Forum wurde noch darüber diskutiert warum AMD die Auslieferungen runter gefahren hat - einige waren da auf dem "Preise hoch halten"-Trip, dabei waren es einfach geringere Bestellungen die gewünscht wurden. Nvidia hatte da andere Strategien mit alt/neu Bundles und Rabatte anstatt weniger bestellen. Bei solchen Situationen wird man erst nach 6 Monaten schlau aus den Zahlen und wie mit den Lagerbeständen umgegangen wurde im Chanel und wo die Auffälligkeiten in den Statistiken und Bilanzen zu finden sind.

So Statistiken sind immer mit großer Vorsichtig zu genießen, weil deren Datenerhebung doch recht stark vom tatsächlichen Marktgeschehen abweichen kann. Hast du ganz gut erklärt. Es heißt aber channel, mit Parfüm hat das nix zu tun :D.

prinz_valium_2
2023-05-24, 17:41:14
Nur, wenn es so wäre - wo positioniert AMD dann N32? Die Karte wäre dann entweder (wenigstens fast) im Performance-Bereich von N31, oder wird gedrosselt und hat deutlich mehr Performance beim gleichen Verbrauch wie N33.
Beides erscheint dann im Portfolio irgendwie seltsam.

Als XX50 Karten und legt alles neu auf.
Aber es wird eh nicht passieren. N32 wird die selben Probleme haben, oder keine Probleme haben und die sind alle durch die Bank sowieso so wie sie sind

Dino-Fossil
2023-05-24, 17:46:10
Ich hätte, abgesehen von der mittelprächtigen Perf/Watt eigentlich vor allem erwartet, dass sie dual-issue nach ein paar Treiberupdates zu mehr Rumms verhelfen. Wohlgemerkt kein Wundertreiber, aber eben durch die Bank noch etwas mehr Abstand zu RDNA2. Aber offenbar ist das weitestgehend eine Luftnummer.

Complicated
2023-05-24, 17:58:04
Es heißt aber channel, mit Parfüm hat das nix zu tun :D.Gefixed :D vorher mit dem Kollegen aus Frankreich telefoniert ;)

reaperrr
2023-05-24, 18:21:55
Ich hätte, abgesehen von der mittelprächtigen Perf/Watt eigentlich vor allem erwartet, dass sie dual-issue nach ein paar Treiberupdates zu mehr Rumms verhelfen. Wohlgemerkt kein Wundertreiber, aber eben durch die Bank noch etwas mehr Abstand zu RDNA2. Aber offenbar ist das weitestgehend eine Luftnummer.
Dual-issue geht nur bei bestimmtem Code, und da N33 nicht die größeren Register von N31/32 hat, geht das bei N33 noch seltener.

Ich würde es eher so sehen, dass es beeindruckend ist, wieviel mehr Transistoren AMD in ~15% weniger Fläche untergebracht hat, dafür dass N6 so viel dichter als N7 eigentlich gar nicht packt. Dass N33 in Sachen Perf/W-Steigerung der schwächste RDNA3-Chip wird, war allein schon wegen N6 absehbar.

MSABK
2023-05-24, 18:23:09
Wie viele CUs soll die 7600XT haben?

robbitop
2023-05-24, 18:24:21
Nur meckern... es hieß von Anfang an N31 und N33 sollen einen Bug haben! Nur N32 sollte gefixt werden, was aber auch später wieder in Frage gestellt wurde.
Also vielleicht sehen wir es frühestens mit N32!
Erfreulich wäre es ja absolut. Hoffnung hab ixh da aber wenig.
Die Gemeinsamkeiten von N31 und N33 sind relativ klein. Die N33 CUs haben deutliche Änderungen (Cache, Register) und die physische Implementierung ist wegen 6 nm deutlich anders. Dass die den gleichen „bug“ haben sollen ist IMO etwas unwahrscheinlich.

robbitop
2023-05-24, 18:25:36
Da muss man aufpassen und zeitlich unterscheiden.
Jon Peddie zeigt die Zahlen GPU-Chip vom Hersteller in den Channel. Bis da Grafikarten bei Mindfactory verkauft werden vergeht Zeit.

Hinzu kommt, dass die Lagerbestände hoch waren und beide Hersteller da unterschiedlich mit den ODM/AIB umgegangen sind. Hier im Forum wurde noch darüber diskutiert warum AMD die Auslieferungen runter gefahren hat - einige waren da auf dem "Preise hoch halten"-Trip, dabei waren es einfach geringere Bestellungen die gewünscht wurden. Nvidia hatte da andere Strategien mit alt/neu Bundles und Rabatte anstatt weniger bestellen. Bei solchen Situationen wird man erst nach 6 Monaten schlau aus den Zahlen und wie mit den Lagerbeständen umgegangen wurde im Channel und wo die Auffälligkeiten in den Statistiken und Bilanzen zu finden sind.

Danke für die Erklärung aber auch mit Mengen im Channel wird das nicht Sonne und Mond sein.

robbitop
2023-05-24, 18:28:51
Dual-issue geht nur bei bestimmtem Code, und da N33 nicht die größeren Register von N31/32 hat, geht das bei N33 noch seltener.

Ich würde es eher so sehen, dass es beeindruckend ist, wieviel mehr Transistoren AMD in ~15% weniger Fläche untergebracht hat, dafür dass N6 so viel dichter als N7 eigentlich gar nicht packt. Dass N33 in Sachen Perf/W-Steigerung der schwächste RDNA3-Chip wird, war allein schon wegen N6 absehbar.

+1
Und was dazu kommt interessant ist das Spektrum an was AMD an Transistoren pro CU investiert zwischen N33 und N31.

mksn7
2023-05-24, 18:41:19
Dual-issue geht nur bei bestimmtem Code, und da N33 nicht die größeren Register von N31/32 hat, geht das bei N33 noch seltener.

Ich würde es eher so sehen, dass es beeindruckend ist, wieviel mehr Transistoren AMD in ~15% weniger Fläche untergebracht hat, dafür dass N6 so viel dichter als N7 eigentlich gar nicht packt. Dass N33 in Sachen Perf/W-Steigerung der schwächste RDNA3-Chip wird, war allein schon wegen N6 absehbar.

Die Menge an Registern hat keinen Einfluss darauf wie oft dual issue instructions verwendet werden können. Mehr Register erhöhen die occupancy, und damit die Fähigkeit Latenzen zu verstecken.

Ich glaube nicht dass da noch viel zu holen ist durch Treiberoptimierungen. Zum einen durch die Einschränkungen bei der Verwendung (Zahl der Operanden/Registerbandbreite), und zum anderen, was bei NVIDIA's FP32 Verdopplung genauso reinspielt, dass der reine FP32 Durchsatz einfach nur manchmal der limiter ist.

Im wave64-mode muss der compiler gar nichts können, damit dual issue verwendet werden kann, hier sehen wir also schon den maximalen Effekt.

reaperrr
2023-05-24, 18:57:52
Die Gemeinsamkeiten von N31 und N33 sind relativ klein. Die N33 CUs haben deutliche Änderungen (Cache, Register)
Der Pipeline-Aufbau an sich wird der gleiche sein.

und die physische Implementierung ist wegen 6 nm deutlich anders.
Ob die physische Implementierung entscheidender Komponenten wie der SIMDs jetzt in N6 so stark abweicht bezweifle ich. So oder so gibt es m.W. noch keine Vergleichs-Dieshots, insofern ist das von dir nur Spekulation.

Dass die den gleichen „bug“ haben sollen ist IMO etwas unwahrscheinlich.
Es ist bis auf die Einsparungen bei Cache und Registern immer noch RDNA3.

Wenn das Problem im Pipelineaufbau oder der Architektur als solcher steckt und weder N5-spezifisch noch im Cache- oder Register-Layout lag, sind L1-Cache, Register und verwendeter Prozess auch herzlich egal.

Ein Port auf einen anderen Prozess fixt nicht einfach auf magische Weise irgendwelche Architektur-Bugs, vor allem nicht, wenn man zum Zeitpunkt der Implementierung von dem Problem noch nichts ahnte und deshalb gar nicht wusste, dass und was man hätte anders implementieren müssen.

robbitop
2023-05-24, 19:30:05
IIRC sind die CUs viel kleiner bei N33 (Transistoren pro CU). Da werden einige Transistoren in Takt investiert wirden sein bei N31. Das hat doch meistens schon auch mit dem Aufbau der Pipeline zu tun oder?

basix
2023-05-24, 22:10:00
N31 hat 3.4x Transistoren von N33. Und das ist nur das GCD ;)

Ob das aber die Pipeline sein muss? Die grösseren Register kosten sicher fett was. Und dann gibt es noch die berühmten "Massetransistoren" :D

bbott
2023-05-25, 14:27:12
Nur, wenn es so wäre - wo positioniert AMD dann N32? Die Karte wäre dann entweder (wenigstens fast) im Performance-Bereich von N31, oder wird gedrosselt und hat deutlich mehr Performance beim gleichen Verbrauch wie N33.
Beides erscheint dann im Portfolio irgendwie seltsam.
Jupp, dann müsste/sollte man die beiden (später) andern auch fixen und als 7X50er oder 8000er Serie vermarkten. Best Case. Worst Case Bug ist nicht vorhanden, nichf fixbar oder bringt kaum mehr Performance und RDNA3 bleibt wie er ist ☺

amdfanuwe
2023-05-25, 15:45:40
7600 startet bei 299€
6650XT ab 255€ gut verfügbar.
Mich wundert die Menge an 6700XT, ab 377€. Scheint noch einiges an N22 im Lager zu sein.
Ist m.M. nach für ein paar Euro mehr das interessantere Produkt mit 12GB.

Taigatrommel
2023-05-27, 18:18:09
Im neuesten Video von Gamers Nexus gibt es einen Besuch bei Acer, dort wird unter anderem eine nicht näher genannte Radeon Karte als frühen Prototyp gezeigt. Für eine 7600 war die Karte zu groß, für RDNA4 ist es zu früh und eine RDNA2 wird es kaum sein. Aufgrund der drei möglichen 6+2 Pin Anschlüsse, dürfte es sich also um eine 7900 XT(X) handeln.

bbott
2023-05-28, 16:30:02
Im neuesten Video von Gamers Nexus gibt es einen Besuch bei Acer, dort wird unter anderem eine nicht näher genannte Radeon Karte als frühen Prototyp gezeigt. Für eine 7600 war die Karte zu groß, für RDNA4 ist es zu früh und eine RDNA2 wird es kaum sein. Aufgrund der drei möglichen 6+2 Pin Anschlüsse, dürfte es sich also um eine 7900 XT(X) handeln.
Wie kommst du auf 7900? Es fehlt doch noch N32 als 7800(XT)?!

DrFreaK666
2023-05-28, 18:34:35
Wie kommst du auf 7900? Es fehlt doch noch N32 als 7800(XT)?!

Wie viele Acer Karten mit N31 gabs denn schon? ;)

"Acer PREDATOR RTX 4090 and RX 7900 unveiled, the company set to enter the high-end GPU market"
edit: https://videocardz.com/newz/acer-predator-rtx-4090-and-rx-7900-unveiled-the-company-set-to-enter-the-high-end-gpu-market

Taigatrommel
2023-05-28, 19:17:15
Zudem glaube ich nicht, dass man für eine 7800 eine mögliche Konfiguration mit 3x 8-Pin Anschlüssen konstruiert. Das ist ja im Endeffekt bereits für eine 7900 XT zuviel. Von daher gehe ich aus, dass man hier ein Modell mit 7900 XT (2x 8-Pin) und eines mit 7900 XTX (3x 8-Pin) bereitstellen würde. Kühler und PCB kann man ja mehr oder minder beibehalten.

iamthebear
2023-05-28, 20:43:37
+1
Und was dazu kommt interessant ist das Spektrum an was AMD an Transistoren pro CU investiert zwischen N33 und N31.

Was die Transistoranzahl bei RDNA3 angeht ist das sowieso mehr als sonderbar:

1.) N33 vs. N23 hat laut AMD 1.4x so viele Transistoren. Zu erwarten wären 1.1-1.2x gewesen.
OK gut hat AMD wohl bessere Arbeiten geleistet um den Chip etwas kompakter zu designen. Ist ja alles glaubwürdig.

2.) N33 vs. N23 hat dieselben Taktraten und ist im Schnitt ca. 8% schneller.
OK gut macht Sinn: 20% mehr Transistoren für knapp 10% mehr Performance und 10% weniger Energieverbrauch ist alles innerhalb der Erwartungen.

3.) Navi31 vs. Navi21 hat laut AMD die 2.65x fache Transistordichte (auf den GCD Teil bezogen). Das ist weit jenseits von dem, was TSMC für den Logikteil angibt. Wäre das ein Leak 2 Monate vor Launch gewesen hätte ich das als groben Schwachsinn abgestempelt. Aber gut wenn es von AMD kommt wird es schon stimmen.

4.) Das N31 GCD hat 45.7 Mrd. Transistoren. Die MCDs je 2.05 Mrd. also gesamt 58 Mrd.

N33 hat 13.3 Mrd. Zieht man die Transistoren für den IF$ und das SI ab (2 MCDs = 4.1Mrd.) würde man bei 9.2Mrd. landen.

3 N33 hätten also theoretisch 27.6 Mrd. Transitoren, in der Praxis wohl noch etwas weniger, da der IO Teil ja nicht 3 fach vorhanden ist.

Jetzt stelle ich mal die Frage: Has hat AMD bei N31 angestellt, dass dieser um 65% mehr Transistoren benötigt als ein fiktiver N33.

Das hört sich schon extrem seltsam an. Da müsste AMD N33 schon sehr extrem abgespeckt haben. Aber merken wir uns diese 65% einmal.

5.) Computerbase hat damals einen IPC Vergleich zwischen 7900 XT und 6900 XT gemacht (5% mehr CUs der 7900 XT vs. 5% mehr Takt bei der 6900 XT) und kam auf 9% mehr IPC bei N31.

Das ist haargenau dieselbe IPC Differenz wie zwischen N33 und N23. Also viel abgespeckt kann N33 nicht sein.

6.) Verschwörungstheriemodus ein:
Mal angenommen AMD hätte sich bei Transistoranzahl etwas "verzählt" und die +65% (verglichen mit N33) hätte es nie gebeben, wo würden wir da bei der Transistordichte liegen:
2.65x / 1.65x = 1.6x

Was für ein Zufall. Das wäre genau die Transistordichte, die TSMC von N7 auf N5 angibt.

7.) Verschwörungstheorie 2:
Auch bei Nvidia gibt es hier einige Unstimmigkeiten.
AD102 hat eine 25% höhere Transistordichte als H100 obwohl es sich angeblich um denselben Node handelt.
AD103 hat 65% mehr Transistoren als GA102 bei gleicher IPC und SM Anzahl. Der Takt lässt sich größtenteils durch die 2 Node Shrinks erklären bzw. dadurch, dass Ada mit höheren Spannungen gefahren wird.
Der zusätzliche L2 macht laut Die Shots ca. 15% des Die aus.
Da stimmt auch alles nicht wirklich zusammen.

iamthebear
2023-05-28, 20:47:31
Wie kommst du auf 7900? Es fehlt doch noch N32 als 7800(XT)?!

Ja klar als würde AMD erlauben, dass Acer einfach so einem Youtuber ihre N32 Karten präsentieren darf von dem wir seit über einem halben Jahr überhaupt nichts mehr gehört haben.

robbitop
2023-05-28, 20:56:37
Was die Transistoranzahl bei RDNA3 angeht ist das sowieso mehr als sonderbar:

1.) N33 vs. N23 hat laut AMD 1.4x so viele Transistoren. Zu erwarten wären 1.1-1.2x gewesen.
OK gut hat AMD wohl bessere Arbeiten geleistet um den Chip etwas kompakter zu designen. Ist ja alles glaubwürdig.

2.) N33 vs. N23 hat dieselben Taktraten und ist im Schnitt ca. 8% schneller.
OK gut macht Sinn: 20% mehr Transistoren für knapp 10% mehr Performance und 10% weniger Energieverbrauch ist alles innerhalb der Erwartungen.

3.) Navi31 vs. Navi21 hat laut AMD die 2.65x fache Transistordichte (auf den GCD Teil bezogen). Das ist weit jenseits von dem, was TSMC für den Logikteil angibt. Wäre das ein Leak 2 Monate vor Launch gewesen hätte ich das als groben Schwachsinn abgestempelt. Aber gut wenn es von AMD kommt wird es schon stimmen.

4.) Das N31 GCD hat 45.7 Mrd. Transistoren. Die MCDs je 2.05 Mrd. also gesamt 58 Mrd.

N33 hat 13.3 Mrd. Zieht man die Transistoren für den IF$ und das SI ab (2 MCDs = 4.1Mrd.) würde man bei 9.2Mrd. landen.

3 N33 hätten also theoretisch 27.6 Mrd. Transitoren, in der Praxis wohl noch etwas weniger, da der IO Teil ja nicht 3 fach vorhanden ist.

Jetzt stelle ich mal die Frage: Has hat AMD bei N31 angestellt, dass dieser um 65% mehr Transistoren benötigt als ein fiktiver N33.

Das hört sich schon extrem seltsam an. Da müsste AMD N33 schon sehr extrem abgespeckt haben. Aber merken wir uns diese 65% einmal.

5.) Computerbase hat damals einen IPC Vergleich zwischen 7900 XT und 6900 XT gemacht (5% mehr CUs der 7900 XT vs. 5% mehr Takt bei der 6900 XT) und kam auf 9% mehr IPC bei N31.

Das ist haargenau dieselbe IPC Differenz wie zwischen N33 und N23. Also viel abgespeckt kann N33 nicht sein.

6.) Verschwörungstheriemodus ein:
Mal angenommen AMD hätte sich bei Transistoranzahl etwas "verzählt" und die +65% (verglichen mit N33) hätte es nie gebeben, wo würden wir da bei der Transistordichte liegen:
2.65x / 1.65x = 1.6x

Was für ein Zufall. Das wäre genau die Transistordichte, die TSMC von N7 auf N5 angibt.

7.) Verschwörungstheorie 2:
Auch bei Nvidia gibt es hier einige Unstimmigkeiten.
AD102 hat eine 25% höhere Transistordichte als H100 obwohl es sich angeblich um denselben Node handelt.
AD103 hat 65% mehr Transistoren als GA102 bei gleicher IPC und SM Anzahl. Der Takt lässt sich größtenteils durch die 2 Node Shrinks erklären bzw. dadurch, dass Ada mit höheren Spannungen gefahren wird.
Der zusätzliche L2 macht laut Die Shots ca. 15% des Die aus.
Da stimmt auch alles nicht wirklich zusammen.

Zu 3.) AMD hat aber auch fast alles rausgeschmissen was schlecht skaliert mit modernen Fertigungsprozessen. SRAM, Interfaces, Analoger Kram was ja alles bei N21 im Chip war. Aber ob das für die Dichte reicht?

Der_Korken
2023-05-28, 22:26:36
5.) Computerbase hat damals einen IPC Vergleich zwischen 7900 XT und 6900 XT gemacht (5% mehr CUs der 7900 XT vs. 5% mehr Takt bei der 6900 XT) und kam auf 9% mehr IPC bei N31.

Das ist haargenau dieselbe IPC Differenz wie zwischen N33 und N23. Also viel abgespeckt kann N33 nicht sein.

Bei RT liegt der IPC-Sprung bei 17% vs 11%. Außerdem stammt der Vergleich zwischen 7900XT und 6900XT von Dezember, d.h. wenn die Treiber in der Zwischenzeit ein wenig zugelegt haben, würden es in Summe schon ein paar Prozentpunkte mehr sein für N31. Dennoch hast du vollkommen recht: Die Diskrepanz bei der Transistorenzahl wird nicht im Ansatz erklärt.

An der Stelle möchte ich einwerfen, dass auch das Zen-4-CCD knapp 60% mehr Transistoren hat als Zen 3. Für die kleinen Verbesserungen am Core und den verdoppelten L2 kann es allein nicht liegen, sondern muss mit den gesteigerten Taktraten zu tun haben.

Iscaran
2023-05-28, 22:52:16
Cache frisst eine ganze Menge Transistoren oder nicht? Statt nur paar MB hat AMD gerade beim N31 ja ordentlich Cache gepackt. Der N33 kommt dagegen eben mit weit weniger cache (proportional gesehen). => erklärt das den vermeintlichen Transistorenschwund N33 => N31?

Ada hat ja auch deutlich mehr an Caches wie Ampere. => Mehr Transistoren?

Nur so ein Gedanke - bin nicht in der Lage das zu quantifizieren.

Der_Korken
2023-05-28, 23:35:32
50% mehr Register können nicht zu 65% mehr Transistoren des ganzen Chips führen :D. Ansonsten hat RDNA3 light genauso viel Cache pro CU wie RDNA3 heavy, nämlich 1MB/CU. Bei N21 waren es noch 1,6MB pro CU.

Um den Transistorenbedarf der Caches absolut etwas einzuordnen: Ein Zen-2-Chiplet hat 3,8Mrd. Transistoren und insgesamt 36MB L2+L3 Cache an Bord. Mehr als 100 Mio. Transistoren pro MB Cache werden es wohl auch bei den GPUs nicht sein für die großen Caches. L0-Caches und Register sind natürlich teurer, aber auch da sind es "nur" 20MB Registerspace für N21, 8MB für N33 und 36MB für N31.