Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
The_Invisible
2023-09-18, 20:33:05
CB testet bei RT mit reduzierten Details, sicher überlesen ;)
Wennst dir ein Bild machen willst kannst dir gerne den PCGH RT-Parcour oder Nextgen-RT-Parcour ansehen.
Und hört mal auf RT im Jahr 2023 als Sonderling einzustufen, selbst Apple Hardware hat jetzt dedizierte RT Einheiten.
@vinacis_vivids
Dir ist schon bewusst das das reine Raster Performance ist?
@Oranje7
Die Liste ist veraltet und nicht komplett.
Oranje7
2023-09-18, 20:36:00
@Oranje7
Die Liste ist veraltet und nicht komplett.
Letztes Update: 10. März 2023
Letzte Änderung: Listen aktualisiert
ich habe auch zugegebener Maßen im Sommer keine Spiele gekauft. Das ändert also nichts.
So ne Liste wie Dargo für DX12 bzw Vulkan gemacht hatte wäre schon ganz Nett;)
Edit: ja es geht in Richtung RT, aber bislang kein Kaufgrund.
TheGood
2023-09-18, 20:41:34
CB testet bei RT mit reduzierten Details, sicher überlesen ;)
Wennst dir ein Bild machen willst kannst dir gerne den PCGH RT-Parcour oder Nextgen-RT-Parcour ansehen.
Und hört mal auf RT im Jahr 2023 als Sonderling einzustufen, selbst Apple Hardware hat jetzt dedizierte RT Einheiten.
@vinacis_vivids
Dir ist schon bewusst das das reine Raster Performance ist?
@Oranje7
Die Liste ist veraltet und nicht komplett.
Hört endlich auf RT schönzureden, denn nichts anders ist. Für die User ist das Stand heute kein entscheidendes Merkmal. Muss nur mal weider die aktuelle 3DCenter Umfrage ansehen.
OgrEGT
2023-09-18, 20:46:22
CB testet bei RT mit reduzierten Details, sicher überlesen ;)
Wennst dir ein Bild machen willst kannst dir gerne den PCGH RT-Parcour oder Nextgen-RT-Parcour ansehen.
Nicht überlesen... ich sag doch RT@Normal...
Und welches komplett andere Bild ergibt sich nun bei der PCGH?
Ich sehe hier in 4K bis auf CP77 RDNA3 auf Augenhöhe mit 4070ti manchmal 4070 manchmal 4080...
https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/
Tobalt
2023-09-19, 18:00:37
mir geht es gar nicht so sehr um RT im speziellen, sondern um das ganze Thema Rendering. Der Weg geht weg von Brute Force, hin zu Upsampling und diversen Algos auf Low Precision Einheiten. Hier sehe ich AMD mittlerweile ca. 3-5 Jahre über hard- und software hinweg hintendran. Und diese Größenordnung macht auf mich schon den Eindruck eines Verschlafens. In dieser Rubrik scheint selbst Intel nicht soo schlecht aufgestellt.
OgrEGT
2023-09-20, 02:00:39
Wie kommst du auf 3-5 Jahre?
Es ist ja nicht so dass es DLSS3 schon so lange gibt... AMD zieht mit FSR3 mit FMF voraussichtlich noch dieses Jahr nach...
https://www.computerbase.de/2023-08/amd-fsr-3-frame-generation-laeuft-offiziell-ab-rx-5000-und-rtx-2000/
Alles das ist im Gegensatz zum nativen Rendering kompromisbehaftet und selbst heute sind FSR2 und DLSS2 nicht meilenweit von einander entfernt... wie sich FSR3 mit FMF im Gegensatz zu DLSS3 schlagen wird bleibt abzuwarten...
Interessant wird auch der Vergleich DLAA und FSR3 native Mode also nativ ohne Upscaling...
Natives Rendering ist mMn auch nicht so tot wie viele denken... die Rohleistung dafür wird mit Chiplets weiter steigen können...
aufkrawall
2023-09-20, 02:24:17
Würdest du wirklich nicht behaupten, hättest du schon mal DLSS mit Nanite/Lumen/VSM vs. FSR 2/TSR verglichen. Das macht die starke Software-RT-Performance von RDNA einfach mal eben komplett zunichte. Es sieht auf der Radeon bei spielbaren Bildraten einfach nur zum Kotzen im Vergleich aus. Jeder Pixel von Vegetation oder den Schatten flimmert in Remnant oder Aveum mit FSR 2 schon bei der kleinsten Kamerabewegung. Was soll man dazu noch sagen?
Das Ray Reconstruction-Update könnte diesen ohnehin schon riesigen Vorsprung nochmal verzigfachen. Es ist völlig absurd, dass diese massiv schlechtere BQ nicht im Preis berücksichtigt ist.
OgrEGT
2023-09-20, 02:39:45
Die Entwicklung steht nicht still... wie gut FSR oder DLSS implementiert ist hängt von Spiel zu Spiel ab... wie sich die Umsetzung bei UE5 noch entwickelt bleibt auch abzuwarten... du pickst jetzt 2 Spiele raus und sprichst bereits das endgültige Urteil in Superlativen...
aufkrawall
2023-09-20, 02:57:17
Nope, die Vor- und Nachteile der jeweiligen Verfahren sind überall die gleichen. Kannst fest davon ausgehen, dass in Talos 2 genau das Gleiche passieren wird, sofern es es die jeweiligen Verfahren anbietet. Je komplexer, desto kaputter wird FSR 2. Und Nanite + Lumen + VSM ist da vom Schwierigkeitsgrad für AA/Upsampling einfach Next Level...
DrFreaK666
2023-09-20, 03:54:15
Vielleicht wird XeSS ja der Heilsbringer, wenn Intel da Manpower investiert. Mal schauen wie es sich bei AC Mirage schlägt, das schon in wenigen Wochen erscheint
sun-man
2023-09-20, 06:46:05
Sollte FSR3 und Co nicht diesen Monat kommen? DLSS3.5 soll doch angeblich am ??26?? kommen?
dildo4u
2023-09-20, 06:50:01
Ja AMD meinte Forspoken oder Immortals of aveum sind die ersten Games oder es gibt Morgen eine Überraschung in Cyberpunk und es ist in Patch 2.0.
https://abload.de/img/fsr-3-1-pcghm4f5g.jpg
sun-man
2023-09-20, 07:04:07
Alle 3 Games sind draußen und die FSR3 Option ist nicht frei geschaltet? Ich kann meine gestern erhaltene 4070 ja nich zurück geben, die Hellhound ist sympatisch. Bin gespannt, habe noch fast 4 Wochen Zeit :D
dildo4u
2023-09-20, 07:09:16
4070 und 7800XT geben sich doch nix vorallem in der EU fast alle Karten sind bei 600€ da haste du nix falsch gemacht.
The_Invisible
2023-09-20, 07:55:16
Sollte FSR3 und Co nicht diesen Monat kommen? DLSS3.5 soll doch angeblich am ??26?? kommen?
DLSS3.5 kommt schon morgen mit neuem cp2077 patch
sun-man
2023-09-20, 08:28:15
Ach so. OK, ich hatte nur irgendein Datum diesen Monat im Kopf. Ich bin gespannt und will gar nicht Richtung AMD treten. Gegen meine 3060TI wären beide Karten ein volles Upgrade in 1440p.
Laut meiner Shelly braucht die 4070 sogar etwas weniger Strom (also mein Komplettsystem) als mit der KFA2 3060TI. Der Rest ist einfach angenehm. Spiel starten, Ultra einstellen und spielen. Jajaja...ich weiß "Leg mal das und das ein". Ich hab kein Problem damit Schatten oder dergleichen runter zu stellen und etwas wie DLSS zu nutzen. AMD hatte den Starfiledvorteil, was will ich mit nem Overwatchkey...aber gut, 609€ fü rdie Asus Dual war OK.
DrFreaK666
2023-09-20, 12:37:01
Sprach AMD nicht von "early Fall" oder sowas? Einen Monat wurde nur für den HYPR-RX Treiber genannt
dildo4u
2023-09-20, 14:09:26
September laut dem Artikel
https://www.pcworld.com/article/2041810/fsr-3-amds-open-dlss-3-rival-starts-supercharging-games-in-september.html
DrFreaK666
2023-09-20, 14:24:48
Und das sagt AMD: "And what’s more, it’s coming out sooner than you think with the first game updates planned for early fall in Forspoken and Immortals of Aveum by Ascendant Studios and Electronic Arts."
https://community.amd.com/t5/gaming/first-look-at-amd-fidelityfx-super-resolution-3/ba-p/626581
sun-man
2023-09-20, 16:04:41
Und das sagt AMD: "And what’s more, it’s coming out sooner than you think with the first game updates planned for early fall in Forspoken and Immortals of Aveum by Ascendant Studios and Electronic Arts."
https://community.amd.com/t5/gaming/first-look-at-amd-fidelityfx-super-resolution-3/ba-p/626581
Hat mal einer gefragt ob Kalendarisch oder Meterologisch? Ich hab auch irgendwo gelesen "Im September mit diesen beiden Spielen". Dann bleib ich bei der 4070, was solls. Wer nicht will der hat.
OgrEGT
2023-09-21, 07:59:00
Nach aktuellem Stand wird FSR3 auch auf NV GPUs laufen in Spielen mit FSR3 Support. Du kannst mit der 4070 somit direkt vergleichen...
FMF als Teil von FSR3 per Treiber forciert für Spiele ohne FSR3 Implementierung wird nur auf AMD GPUs möglich sein...
vinacis_vivids
2023-09-22, 09:59:20
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13400773&postcount=3049
Achill
2023-09-22, 11:00:16
Das OC der 7970 XTX mit 550W ist einfach zu viel wie m.E. wie auch die +450W der 4090er Modelle ... und wenn man vergleicht, dann sollte im Video die 4090 auch auf 550W angehoben werden und dann auch mit LQ + LM.
--
Edit: Und thematisch ist es doch eher ein Review als Speku und sollte damit in den anderen Thread.
DrFreaK666
2023-10-06, 13:15:32
7600XT kommt womöglich mit 16GB.
Geiler Nvidia-Move :ugly:
https://wccftech.com/amd-might-launch-radeon-rx-7600-xt-graphics-card-with-massive-16-gb-memory/
Exxtreme
2023-10-06, 13:31:20
Zwischen der 7600 und der 7700 XT klafft schon eine große Lücke. Die wird zwar von RDNA2 überdeckt. Aber sie ist da und RDNA2 lässt man auch auslaufen.
dildo4u
2023-10-06, 13:48:01
IMO passt es die 7600 ist OK für 1080 und die 7700xt für 1440p, die 4060TI ist nicht sonderlich attraktiv also kein Grund weitere Modelle zu bringen.
Die 7700 wird später unter 400€ fallen aber nicht so lange noch 6800/6750 im Lager sind.
DrFreaK666
2023-10-06, 14:28:31
Sind ja nur Gerüchte. Vielleicht kommt die Karte auch nicht
dildo4u
2023-10-08, 10:22:07
RDNA3 in Samsung SOC gab Gerüchte für ein Wechsel?
https://www.computerbase.de/2023-10/samsung-exynos-2400-amds-rdna-3-architektur-kommt-ins-smartphone/
Ailuros
2023-10-10, 09:50:21
RDNA3 in Samsung SOC gab Gerüchte für ein Wechsel?
https://www.computerbase.de/2023-10/samsung-exynos-2400-amds-rdna-3-architektur-kommt-ins-smartphone/
Dass Samsung fuer high end SoC GPUs Mali in absehbarer Zukunft wieder benutzt will ich bezweifeln. Fuer die GPU Leistung erwarte ich nach den ersten Geruechten und benchmark-Resultaten mehr oder weniger auf 8 Gen 3 Hoehe. Woher computerbase es genau hat dass Apple GPU Leistung uneinholbar ist, weiss wohl nur der Author. Fuer neue smartphones innerhalb 2024 sehe ich genau das Gegenteil im Vergleich zur A17 PRO GPU. Ok tablets mit M2 SoCs sind sehenswert schneller fuer die GPU als smartphone SoC GPUs, aber von mir aus kann man weiterhin Aepfel mit Birnen vergleichen.
https://www.notebookcheck.net/Qualcomm-Adreno-740-GPU-Benchmarks-and-Specs.669947.0.html
4k Aztec Ruins:
Adreno 740 (8 Gen2) = 29,55 fps
Adreno 730 (8 Gen1) = 19,60 fps
Apple A17 PRO GPU = 21,90 fps
Immortalis G715 MP11 = 24,00 fps
Apple M2 (10c GPU) = 45,62 fps
dildo4u
2023-10-19, 15:48:27
7900m Specs offiziell verfügbar im Alienware M18.
https://abload.de/img/screenshot2023-10-191gfig8.png
https://www.notebookcheck.com/AMD-enthuellt-Radeon-RX-7900M-Flaggschiff-Laptop-GPU-mit-200W-TGP-die-im-Alienware-m18-debuetiert.760802.0.html
dildo4u
2023-11-04, 11:30:03
Erste 7900m Tests kommen.
34pmzhJzzbw
DrFreaK666
2023-12-27, 15:36:37
Regulatory filing hints Radeon RX 7600 XT, RX 7700 and RX 7800 cards might be coming
https://videocardz.com/newz/regulatory-filing-hints-radeon-rx-7600-xt-rx-7700-and-rx-7800-cards-might-be-coming
Bis auf die 7600XT wären die anderen Karten abgespeckt. Wo soll die 7800 zwischen 7800XT und 7700XT bitte Platz haben? 7600XT und/oder 7700 machen noch am meisten Sinn. Zwischen 7600 und 7700XT liegen knapp 200€ Differenz
dildo4u
2023-12-27, 15:45:49
7800 könnte mit 16GB kommen nix anders als 6800 die hat auch erst später Sinn gemacht als der Preis eingebrochen ist.
Die 7700XT ist massiv überteuert und muss irgendwann die 6700XT ersetzen.
7700XT 350 -> 7800 450 -> 7800XT 550.
amdfanuwe
2023-12-27, 16:02:30
Also etwa so ???
7800XT 60CU 2,1GHz Game 2,4GHz Boost
7800 60CU niedrigerer Takt? 2GHz 2,2GHz?
7700XT 54CU 2,2 GHz 2,5 GHz
7700 48CU?
7600XT 40CU?
7600 32CU 2,2GHz 2,6GHz
DrFreaK666
2023-12-27, 16:05:10
Die 7800XT ist laut CB 15% schneller als die 7700XT. Wer braucht dazwischen eine 7800, die 100€ weniger kostet und 7% weniger leistet als die 7800XT?
AMD sicherlich nicht
][immy
2023-12-27, 16:18:21
Die 7800XT ist laut CB 15% schneller als die 7700XT. Wer braucht dazwischen eine 7800, die 100€ weniger kostet und 7% weniger leistet als die 7800XT?
AMD sicherlich nicht
Salvage Chips, ein anderer Grund würde mir nicht einfallen. Ohnehin ist der Abstand nicht besonders groß.
Leonidas
2023-12-27, 16:44:15
7700XT ist ja schon Salvage.
Eigentlich spricht die Perf-Differenz zwischen 7700XT und 7800XT nicht für eine weitere Zwischenlösung. Jene könnte dennoch Sinn machen bzgl. VRAM. Ergo wie 7700XT, nur mit 16 GB.
Aber am Ende gilt sowieso: Die EEC-Eintragung hatte alle möglichen Karten notiert, bis hinunter zur RX460 und hinauf zur 7900XT. Aber keine 7700XT & 7800XT - nur 7700 & 7800. Ergo 50% Chance für Schreibfehler.
][immy
2023-12-27, 18:05:55
7700XT ist ja schon Salvage.
Eigentlich spricht die Perf-Differenz zwischen 7700XT und 7800XT nicht für eine weitere Zwischenlösung. Jene könnte dennoch Sinn machen bzgl. VRAM. Ergo wie 7700XT, nur mit 16 GB.
Aber am Ende gilt sowieso: Die EEC-Eintragung hatte alle möglichen Karten notiert, bis hinunter zur RX460 und hinauf zur 7900XT. Aber keine 7700XT & 7800XT - nur 7700 & 7800. Ergo 50% Chance für Schreibfehler.
Salvage zu höheren Preisen... Aber ja wirklich Sinn bei dem kleinen Abstand macht es nicht.
Höchstens noch für OEMs interessant.7800 verkauft sich vom Namen halt besser als 7700.
amdfanuwe
2023-12-27, 18:42:03
[immy;13460865']Salvage zu höheren Preisen... Aber ja wirklich Sinn bei dem kleinen Abstand macht es nicht.
Für AMD schon. Gewinn Maximierung.
AMD wird Chips haben, die voll funktionsfähig sind aber den Takt oder TDP Anforderungen für eine 7800XT nicht erfüllen.
In einer 7800 kann AMD damit mehr verdienen als diese noch weiter für eine 7700 oder 7600XT einzuschränken.
DrFreaK666
2023-12-28, 11:38:10
Es wird wohl nur eine 7600XT, die schon im Januar kommen könnte
https://videocardz.com/newz/amd-radeon-rx-7600-xt-rumored-launch-on-january-24-only-custom-variants-planned
Scheint also tatsächlich ein n32 mit 2 SEs zu werden, wie ich schon kurz vor 7600 Release spekuliert hatte.
DrFreaK666
2023-12-28, 12:34:16
Wahrscheinlich mit 10GB, damit die 7700XT weiterhin attraktiv bleibt.
Performance dann zwischen 6700XT und 6800? Wäre dann laut CB-Benchparcour auf 4060 Ti-Niveau
Mit 10gb könnte man sogar noch die nicht voll funktionierenden MCDs loswerden.
BlacKi
2023-12-28, 13:35:41
ist 7900m eigentlich nun n31 oder n32? ist die 7800xt ist doch ein full chip mit 60 cu. also verbaut man da echt den großen?
€dit: laufen die mobilen eigentlich mit weniger als 0,7v?
OgrEGT
2023-12-28, 18:08:24
Hat der nicht 70 CUs?
N32 bei der 7800XT hat 60CUs
N31 bei der 7900M hat 72CUs
DrFreaK666
2023-12-30, 01:17:13
Gigabyte leak lists unreleased AMD Radeon RX 7600 XT with 16GB of memory
https://videocardz.com/newz/gigabyte-leak-lists-unreleased-amd-radeon-rx-7600-xt-with-16gb-of-memory
Wenn AMD den NV-Fehler begeht (RX7600 mit doppeltem VRAM, statt abgespeckter N32), dann :rolleyes:
dildo4u
2023-12-30, 06:15:26
Passt doch damit kann man die 6700 ersetzen was ca PS5 Specs entspricht bisher hatte die Karte aber zu wenig Vram.
Wer weiß ob Navi 32 für 300€ überhaupt machbar ist das Packeing verursacht zusätzliche Kosten.
Altehardware
2023-12-30, 07:55:09
16gb mit ner rx7600 beim gleichem chip würde den low end markt gut tun.
Das problem ist aber das damit der preis nicht sinkt etwa so rx7600 16gb mit knapp 11tf für 300$ das wäre tragbar.
Damit dürfte dann erst rx8600 und rx8600xt mit dem n44 28-32cu 3,55ghz dann ab q3 2024 kommen
Diese wird grob + 45% schneller sein (17tf). Bei etwa 350€-400€ mit dann 16gb bei gleichem strombedarf von 180w
Womit sich an der Preisstruktur bis q3 2024 nichts ändern wird
derzeit
rx6600 ab 200€ 8,6tf
rx6650xt ab 240€ 10,2tf
rx7600 ab 260€ 11,0tf
rx6700 ab 280€ 11,0tf
rx6700xt ab 340€ 13,0tf
rx7700xt ab 460€ 18,6tf
nvidia ist in allen teurer
rtx3050 ab 220€ 6,6tf
rtx3060 8gb ab 250€ 9,2tf Bandbreiten limitiert
rtx3060 12gb ab 290€ 9,2tf
rtx4060 ab 300€ 11,5tf Bandbreiten limitiert
rtx4060ti 8gb 390€ 16,5tf Bandbreiten limitiert
rtx4060ti 16gb 460€ 16,5tf Bandbreiten limitiert
derzeit für 1080p erforderlich 10-12gb min 350gb/s
derzeit erforderlich 1440p 12-16gb min 448gb/s
Alle anderen nvidia sku unter 500€ sind eol und überteuert
amd vram muss min um 10% größer sein damit derselbe Inhalt wie in nvidia sku läuft.
je mehr Bandbreite desto weniger muss man warten bis über pcie bus neu nachgeladen wird.
= mehr fps
Das geht soweit bis die chipleistung komplett genutzt werden kann
Derzeitiges Entwicklerziel ist ps5 ab 550€ 10,5tf
1080p nativ 60fps ab 10tf mit min 448gb/s 12gb
1440p checkerboard 60fps bis upscaler 10tf 448gb/s.12gb
Kommend ab q3 2024 ps5 pro ab 550€
1440p nativ 60fps 20tf min 576gb/s 12gb
angaben ohne dxr mit dxr steigt das auf nen Drittel mehr an.
für 1080p ändert sich nix bis zur ps6
dargo
2023-12-30, 08:17:11
https://videocardz.com/newz/gigabyte-leak-lists-unreleased-amd-radeon-rx-7600-xt-with-16gb-of-memory
Wenn AMD den NV-Fehler begeht (RX7600 mit doppeltem VRAM, statt abgespeckter N32), dann :rolleyes:
Hä? 7600XT soll doch auf N32 basieren. Das sieht mir als idealen Konter für die 4060TI 16GB aus für weniger Geld. Wahrscheinlich maximal 400€. Besser wären natürlich 350€, aber daran glaube ich nicht.
dildo4u
2023-12-30, 09:11:28
7700 ist doch frei für eine abgespeckte Navi 32, AMD hat nix @ 400€.
Nur noch ein 6800 Modell alle anderen über 500.
https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&sort=p&bl1_id=30&xf=132_16384%7E9816_02+04+12+-+RX+6800
DrFreaK666
2023-12-30, 10:41:36
Hä? 7600XT soll doch auf N32 basieren. Das sieht mir als idealen Konter für die 4060TI 16GB aus für weniger Geld. Wahrscheinlich maximal 400€. Besser wären natürlich 350€, aber daran glaube ich nicht.
Das sind ja alles nur Gerüchte.
CB schreibt dazu: wenngleich 16 GB über das 128-Bit-Interface der Navi-33-GPU vergleichsweise einfach umsetzbar wären – analog zu Nvidias GeForce RTX 4060 Ti 16 GB
Der_Korken
2023-12-30, 13:07:52
Eine 7600XT mit 16GB auf N33-Basis finde ich extremst nischig. In den wenigen Fällen, wo die GPU schnell genug wäre, aber die 8GB bremsen, wäre man dann zwar schneller, aber in allen anderen Szenarien nicht. Für 30$ Aufpreis gerne, aber für 100$ mehr wie bei Nvidia ist das imho ein Rohrkrepierer. Da lege ich lieber noch was drauf und hole mir eine 7700XT, die direkt mal 50-60% schneller ist und mit 12GB ausreichend bestückt.
Ein zweiter Salvage von N32 mit z.B. 40 CUs und 10GB VRAM würde von den Specs her ausgewogen sein und gut ins Lineup passen. Ich bezweifle aber, dass sich das für AMD lohnt. Der GCD von N32 ist 200mm² klein und ich denke mal die Yields werden ganz gut aussehen, d.h. die allermeisten Chips schaffen die 7700XT-Specs. Ansonsten hätte AMD ja bereits die 7700XT bei 48CUs ansetzen können. Für einen Modell mit 40 CUs bedeutet das, dass AMD für eine ausreichende Stückzahl jede Menge gute Chips verramschen müsste, aus denen man wenigstens noch eine 7700XT hätte machen können. Selbst dieses Modell war mit 450$ schon deutlich zu teuer im Vergleich zu den 500$ einer 7800XT mit der Begründung, dass AMD auch an einer 7700XT was verdienen will. Für eine 7600XT wäre das ja nochmal schlimmer, denn außer den 2GB weniger VRAM auf der Platine sind die Produktionskosten quasi identisch zur 7700XT. Der Unterschied wäre nur, dass man Chips mit mehr Defekten verwursten kann (u.a. auch einen MCD). Davon müssten aber nennenswert viele anfallen, um Stückzahlen zu generieren bzw. man müsste die 7600XT zu teuer einpreisen, um dessen Nachfrage klein genug zu halten. Sehr fraglich das ganze.
DrFreaK666
2024-01-03, 10:56:18
Wie bei der Radeon RX 7600 soll Navi 33 und kein beschnittener Navi 32 zum Einsatz kommen
https://www.computerbase.de/2023-12/radeon-geruechte-amd-bereitet-angeblich-eine-radeon-rx-7600-xt-vor/#update-2024-01-03T08:48
Müll
dildo4u
2024-01-03, 11:06:43
Eine 7600XT mit 16GB auf N33-Basis finde ich extremst nischig. In den wenigen Fällen, wo die GPU schnell genug wäre, aber die 8GB bremsen, wäre man dann zwar schneller, aber in allen anderen Szenarien nicht. Für 30$ Aufpreis gerne, aber für 100$ mehr wie bei Nvidia ist das imho ein Rohrkrepierer. Da lege ich lieber noch was drauf und hole mir eine 7700XT, die direkt mal 50-60% schneller ist und mit 12GB ausreichend bestückt.
AMD ist bei Vram Management schlechter als Nvidia, die 7600X könnte bei direkten PS5 Umsetzungen oft so aussehen.
Man darf nicht vergessen wo die 6600 ist was Preise angeht irgendwann muss Navi 33 massiv billiger werden dort willst du keine 5nm Chips verkaufen.
200€ 7600X und 250€ für XT sind denkbar wenn RDNA2 abverkauft wurde.
https://i.ibb.co/S3mm6xt/Screenshot-2024-01-03-110121.png (https://imgbb.com/)
fotos im netz hochladen (https://de.imgbb.com/)
https://www.computerbase.de/2023-12/nvidia-geforce-amd-radeon-benchmark-test-2024/2/#abschnitt_performancerating_mit_und_ohne_rt_in_1920__1080
basix
2024-01-03, 12:31:48
16 GB für N33 sind schon ein wenig Perlen vor die Säue. Aber bei mildem Preisanstieg die mMn bessere Karte als eine 7600 mit nur 8GB. 8GB sind einfach schon deutlich angezählt. Und man muss primär tie RTX 4060 schlagen, das sollte man schaffen.
Unter dem Strich ist N33 + 16GB viel günstiger als ein N32 mit 12GB. N33 ist so gross wie das N32 GCD. Das in N6 anstatt N4, ohne MCDs und einfacherem Packaging. 1GB GDDR6 kostet momentan 3$ auf dem Spot-Market. Die +4GB resultieren in +12$ (für AMD vermutlich <10$), das ist insgesamt gesehen locker günstiger als eine N32 Lösung. Mit dem Nachteil, dass die Performance halt nicht so prickelnd ist für 2024.
Leonidas
2024-01-03, 12:32:35
7600XT mit N33 auf 16G passt durchaus, wenn der Preis stimmt (kein NV-artiger Aufpreis).
Aber die Lücke zu 7700XT bleibt dann dennoch bestehen.
basix
2024-01-03, 12:34:03
Max. +10% könnte drin liegen mit z.B. 21Gbps anstatt 18Gbps und selektierten Chips mit mehr Takt. Aber ja, die Lücke bleibt relativ gross.
Altehardware
2024-01-03, 13:46:19
Der Grundlegende Fehler in der rdna3 arch verhindert es das mehr hoch getaktet werden kann
quasi wäre ne rx7600xt die nur 16gb hat und keine alu Steigerung kein % mehr perf da.
Es wäre lediglich mehr vram was zwar gut ist aber nix bringt.
Die knapp 11tf der rx7600 sind einfach zu wenig Leistung als das man die 16gb sinnvoll nutzen könnte
Das gilt bis zum release de ps6 (2027) dann wird die gpu zumindest auf ultra low 720p die 16gb nutzen können
Bis dahin wäre die sku herzlich Sinnfrei.
Sinnvoller wäre 40-48cu mit 16gb nahezu ideal.
Aber da es ne rx7700xt gibt mit 54cu und nur 12gb macht das kein Sinn
Womit dann wieder 12gb mit 48cu am ehesten sinn machen würde. nur dann eben als rx7700.
ich tippe wenn dies wirklich ein n33 chip ist auf ne uvp von 280$ hier also um die 309€
Was den preis der rx7600 auf nur noch offiziell 219$/239€ gehen dürfte das spricht dafür das die n23 langsam abverkauft sind.
150Mio Transistoren/mm² in N5P vs. 120Mio Transistoren/mm² in N5P(NV nennt das 4N) sind eben auch trotz fehlender Analogschaltungen bei AMD ein Unterschied. AMD hat gepokert und verloren im Prinzip. Die verfolgten eigentlich bei RDNA3 den gleichen Fokus wie bei den c-Kernen. Große Packdichte, sparsames Transistorbudget, trotzdem hoher Takt funktionierte halt nicht so gut - bei den c-Kernen offensichtlich besser als bei RDNA3.
Übrigens ist N33 mit 65Mio Transisotren/mm² eher durchschnittlich gepackt in N6, also völlig andere Designstrategie als bei de N5-Modellen, daher schafft der auch ähnliche Takte.
Bin gespannt ob Navi4x dann in N4P dann eine größere oder gleiche Packdichte schafft - wenn die sich nicht ändert, hat AMD diese Strategie wieder aufgegeben.
Und ich bin gespannt ob NV wieder Etikettenschwindel betreibt und N4P dann einfach 3N nennt. Aber das fällt ja auch auf, wenn die trotz 3N-Angabe nur mit ca. 150Mio Transistoren/mm² gepackt sind, ist das kein N3x.
Leonidas
2024-01-04, 07:37:00
Sieht leider so aus, als würde sich die 16-GB-Version auf N33-Basis manifestieren:
https://www.3dcenter.org/news/news-des-3-januar-2024
dildo4u
2024-01-04, 07:42:41
3060 verkaufen sich gerade wie geschnitten Bort das ist der perfekte Konter.
Es sieht so aus als ob Leute drauf setzen das ihnen Upscaling die nicht vorhandene Leistung überbrückt.
Lurtz
2024-01-04, 09:33:34
Weiß der durchschnittliche 3060-Käufer überhaupt, was Upscaling ist?
The_Invisible
2024-01-04, 09:37:51
Müssen sie ja nicht wissen wenn es standardmäßig aktiv ist.
E39Driver
2024-01-04, 09:38:08
Finde die 7600XT auf billiger N33 Basis gar nicht so verkehrt. Die normale 7600 ist ja bisher sehr zurückhaltend getaktet. Etwas Reserve sollte also vorhanden sein. Dann noch etwas schnellerer Speicher drauf und die 16GB und man hat in Summe mit wenig Aufwand 10% Mehrleistung raus geholt
Lurtz
2024-01-04, 09:41:01
Müssen sie ja nicht wissen wenn es standardmäßig aktiv ist.
Er schrieb aber, sie würden das Upscaling bewusst mit einplanen bei der Kaufentscheidung. Die wenigsten benchen bisher ja mit.
dildo4u
2024-01-04, 09:41:15
Weiß der durchschnittliche 3060-Käufer überhaupt, was Upscaling ist?
Nutzt Alan Wake 2/Cyberpunk nicht immer Upsampling wenn man es nicht expliziert abschaltet?
Ich vermute das könnte Bald öfter in Presets einfließen.
BlacKi
2024-01-04, 10:09:01
Finde die 7600XT auf billiger N33 Basis gar nicht so verkehrt. Die normale 7600 ist ja bisher sehr zurückhaltend getaktet. Etwas Reserve sollte also vorhanden sein. Dann noch etwas schnellerer Speicher drauf und die 16GB und man hat in Summe mit wenig Aufwand 10% Mehrleistung raus geholteher sind die 175w zu wenig. wenn ich mir die taktraten in last of us ansehe, dann liegen ingame 2,9ghz an bei 170w+
und in den anderen games wird die karte durch das powerlimit auf 2,6-2,7ghz gedrückt.
das pl könnte was bringen, taktraten wird man nicht groß hoch setzen können. ich meine 16gb statt 8gb kosten alleine extra 5w und schnellerer speicher auch noch mal mehr power. also 204mm² n33 mit 250w tdp^^ am besten mit tripple slot kühler^^
dildo4u
2024-01-05, 11:11:44
Paar Betrachtungen zur Vram Problematik.
Ich würde jetzt sagen einfach auf High stellen und gut ist nur Bencht fast keiner so und AMD kommt schlecht weg?
VPABpqfb7xg
DrFreaK666
2024-01-05, 11:44:04
AMD wird es mit der 7600XT richten, wenn sie keine Fantasiepreise dafür wollen.
Ist halt genauso lol wie bei NVidia
dildo4u
2024-01-05, 11:55:21
Hardware Unboxed Podcast 7600XT Tests relativ bald er scheint schon ein NDA zu haben.
https://youtu.be/wee0EKTfQvM?si=mCFyXm7zuE5zsOBZ&t=407
DrFreaK666
2024-01-06, 00:53:38
7600XT angeblich zwischen 299$ und 349$
fzPqNOK355c
dildo4u
2024-01-06, 07:57:03
Er macht auch das Argument das die 7700XT nicht billig genug sein kann und man daher mit 6nm abgespeist wird.
Low End wird weiter ein Trauerspiel sein wenn Intel nicht was aus dem Hut zaubert.
dargo
2024-01-06, 09:30:19
Er macht auch das Argument das die 7700XT nicht billig genug sein kann und man daher mit 6nm abgespeist wird.
Wenn das stimmt ist das schon echt ein Trauerspiel, dass selbst mickrige 200mm², erst recht beim Salvage immer noch zu teuer sind. Ich frage mich echt wie das dann bei 3nm mit den Grafikkarten funktionieren soll?
Low End wird weiter ein Trauerspiel sein wenn Intel nicht was aus dem Hut zaubert.
Was genau soll Intel da aus dem Hut zaubern? Intel kann nicht ewig seine Grafikkarten verschleudern. Das mag kurzfristig bei Arc tragbar sein um einen Fuß im Markt zu fassen, wird aber nicht über viele Jahre so weiter gehen können. Das kann kein Unternehmen ewig tragen.
OgrEGT
2024-01-06, 09:53:36
Wenn das stimmt ist das schon echt ein Trauerspiel, dass selbst mickrige 200mm², erst recht beim Salvage immer noch zu teuer sind. Ich frage mich echt wie das dann bei 3nm mit den Grafikkarten funktionieren soll?
Noch mehr Quersubventionierung... d.h. Enthusiast und Highend noch teurer damit die Preise im Mainstream stabil bleiben...
Oder noch längere Produktzyklen bis die angepeilte Fertigungstechnik billig genug ist...
dildo4u
2024-01-06, 10:00:24
Ich wette der 8700G kostet 350€ der Gewinn ist dort massiv höher als die 7700XT.
Kleinere Die, kein Board, kein Vram etc mach null sind das teure Silicon für GPUs zu nutzen.
robbitop
2024-01-06, 10:10:42
Noch mehr Quersubventionierung... d.h. Enthusiast und Highend noch teurer damit die Preise im Mainstream stabil bleiben...
Oder noch längere Produktzyklen bis die angepeilte Fertigungstechnik billig genug ist...
Das alles braucht es nicht unbedingt für bezahlbare GPUs. Die IHVs verdienen sich daran dumm und dämlich. Da sind mindestens 50% Marge mittlerweile drauf. Es fehlt primär an Wettbewerb. Beide IHVs attakieren sich nicht gerade und sind froh mit den hohen Margen. Es wird alles im AI Bereich (der noch lukrativer ist) verkauft was an Silizium für GPUs nicht gebraucht wird.
Die Kapazitäten der Fertiger muss sich erstmal an den höheren Andrang (wegen AI) anpassen. Das dauert eine Weile. Aber es sind auch eine Menge leading edge Fabriken im Bau. Im Moment gilt Nachfrage > Angebot. Das macht den Preis kaputt. Der Markt wird das schon regeln. Dauert aber wahrscheinlich ne ganze Weile. :-/
OgrEGT
2024-01-06, 10:31:15
Das alles braucht es nicht unbedingt für bezahlbare GPUs. Die IHVs verdienen sich daran dumm und dämlich. Da sind mindestens 50% Marge mittlerweile drauf. Es fehlt primär an Wettbewerb. Beide IHVs attakieren sich nicht gerade und sind froh mit den hohen Margen. Es wird alles im AI Bereich (der noch lukrativer ist) verkauft was an Silizium für GPUs nicht gebraucht wird.
Die Kapazitäten der Fertiger muss sich erstmal an den höheren Andrang (wegen AI) anpassen. Das dauert eine Weile. Aber es sind auch eine Menge leading edge Fabriken im Bau. Im Moment gilt Nachfrage > Angebot. Das macht den Preis kaputt. Der Markt wird das schon regeln. Dauert aber wahrscheinlich ne ganze Weile. :-/
Wettbewerb wäre gut... bin da aber skeptisch bei 2 oder 3 Marktteilnehmern... klappt bei den Erdölkonzernen auch nicht...
BlacKi
2024-01-06, 10:47:57
Wettbewerb wäre gut... bin da aber skeptisch bei 2 oder 3 Marktteilnehmern... klappt bei den Erdölkonzernen auch nicht...
doch, das klappt da recht gut. die preise sind abgesehen von gelegentlichen schwankungen nach oben relativ normal. die haben lediglich 20-30% marge. gelegentlich machen die sogar minus wenn der bedarf zu stark sinkt. es werden sogar künstilich die fördermengen reduziert. nur wenige öl förderer können unter 60$ pro barrel überhaupt noch geld generieren. und aktuell liegt er bei 74-79$.
Wenn das stimmt ist das schon echt ein Trauerspiel, dass selbst mickrige 200mm², erst recht beim Salvage immer noch zu teuer sind. Ich frage mich echt wie das dann bei 3nm mit den Grafikkarten funktionieren soll?
die zeiten sind vorbei, wo ein neuer fertigungsprozess die karten billiger werden lässt. AI hilft da auch nicht wirklich, schadet eher dem gaming sektor.
Linmoum
2024-01-06, 10:50:05
Das alles braucht es nicht unbedingt für bezahlbare GPUs. Die IHVs verdienen sich daran dumm und dämlich. Da sind mindestens 50% Marge mittlerweile drauf. Es fehlt primär an Wettbewerb. Beide IHVs attakieren sich nicht gerade und sind froh mit den hohen Margen. Es wird alles im AI Bereich (der noch lukrativer ist) verkauft was an Silizium für GPUs nicht gebraucht wird.
Die Kapazitäten der Fertiger muss sich erstmal an den höheren Andrang (wegen AI) anpassen. Das dauert eine Weile. Aber es sind auch eine Menge leading edge Fabriken im Bau. Im Moment gilt Nachfrage > Angebot. Das macht den Preis kaputt. Der Markt wird das schon regeln. Dauert aber wahrscheinlich ne ganze Weile. :-/Nunja, Herkelmans Aussage zu N32 und dem Umstand, warum der preisliche Unterschied zwischen Vollausbau und Salvage so gering ist, lässt alles andere als darauf schließen, dass AMD sich dumm und dämlich verdient. Eher ganz im Gegenteil, genauso bei den Margen. Dasselbe kann man genauso auf N31 münzen, das war/ist auch nichts als Upselling.
Einzig Nvidia verdient sich dumm und dämlich. AMD steckt bei GPUs viel Aufwand (Chiplet) rein, was die Fertigungskosten nach oben treibt bzw. nutzt im Vergleich zur Konkurrenz einen deutlich teureren Node (N7 vs. Samsungs 8nm) - und muss seine Grafikkarten trotz solcher Umstände deutlich billiger verramschen, als es die Konkurrenz tut.
Solange kann es von AMD auch keinen Wettbewerb geben. Vor 8 Jahren hätten sie einen N32 wahrscheinlich für $300 in den Markt gedrückt, aber die Polaris-Zeiten sind schon lange vorbei.
robbitop
2024-01-06, 11:15:15
Wettbewerb wäre gut... bin da aber skeptisch bei 2 oder 3 Marktteilnehmern... klappt bei den Erdölkonzernen auch nicht...
Es hat jahrelang ja geklappt mit AMD und NV. Aber da war Angebot > Nachfrage
robbitop
2024-01-06, 11:40:08
Nunja, Herkelmans Aussage zu N32 und dem Umstand, warum der preisliche Unterschied zwischen Vollausbau und Salvage so gering ist, lässt alles andere als darauf schließen, dass AMD sich dumm und dämlich verdient. Eher ganz im Gegenteil, genauso bei den Margen. Dasselbe kann man genauso auf N31 münzen, das war/ist auch nichts als Upselling.
Einzig Nvidia verdient sich dumm und dämlich. AMD steckt bei GPUs viel Aufwand (Chiplet) rein, was die Fertigungskosten nach oben treibt bzw. nutzt im Vergleich zur Konkurrenz einen deutlich teureren Node (N7 vs. Samsungs 8nm) - und muss seine Grafikkarten trotz solcher Umstände deutlich billiger verramschen, als es die Konkurrenz tut.
Solange kann es von AMD auch keinen Wettbewerb geben. Vor 8 Jahren hätten sie einen N32 wahrscheinlich für $300 in den Markt gedrückt, aber die Polaris-Zeiten sind schon lange vorbei.
Naja auf die Aussagen von Marketingleuten würde ich gar nichts geben. Natürlich sagt da keiner dass man sich dumm und dämlich verdient. Leider weist AMD die Bruttomargen nicht granular gebug aus. Aber so viel billiger als NV Äquivalente ist man auch nicht und die gesamte gross margin liegt bei 50%. Da will man sicherlich pro Sparte nicht so weit weg.
dildo4u
2024-01-06, 11:50:56
Sony musste sogar Preise erhöhen ich bin mir ziemlich sicher das wenn die PS5 Pro kommt 600€ gegeben ist, dann geht die Slim vielleicht auf 400€.
Die Material Reduktion bei der Kühlung/Gehäuse hat nicht gereicht um die Chipkosten auszugleichen.
4nm im Low End macht erst sinn wenn High-End auf 3nm umgestellt wurde erst dann ist Kapazität frei also 2025.
Linmoum
2024-01-06, 12:11:29
Naja auf die Aussagen von Marketingleuten würde ich gar nichts geben. Natürlich sagt da keiner dass man sich dumm und dämlich verdient. Leider weist AMD die Bruttomargen nicht granular gebug aus. Aber so viel billiger als NV Äquivalente ist man auch nicht und die gesamte gross margin liegt bei 50%. Da will man sicherlich pro Sparte nicht so weit weg.Die Aussage unterstreicht nur das, was viele im Moment der Ankündigung der Preise bereits schnell geahnt haben.
Und denkst du wirklich, dass das Gesamtkonstrukt von N31 aus GCD und 6xMCD in der Herstellung billiger ist als ein Mono-AD103 mit 379mm2? MSRP waren $1199 bei der 4080 vs. $999 bei der 7900XTX bzw. sogar nur $899 bei der 7900XT.
"So viel billiger ist man auch nicht" ist da aber schon arg untertrieben, gerade dann, wenn man den wahrscheinlichen Fall annimmt, dass AD103 eben auch noch zusätzlich günstiger zu fertigen ist.
Nvidia will keinen Preiskampf und seine Traummargen obenhalten, AMD will genauso wenig einen (siehe das N6-Billigding N33, den man ursprünglich sogar für $300 launchen wollte) und kann sich einen Preiskampf bei einem N32/N31 auch gar nicht erlauben, wenn man eben nicht wieder in alte Polaris/Vega-Zeiten verfallen will.
dildo4u
2024-01-06, 12:19:34
Die Karten haben sich jetzt ohne Crypto über 1 Jahr im Preis gehalten.
Die müssten auf Intel Level fallen um von Polaris Zeiten zu sprechen.
Gerade die 4080 hat es extrem einfach gemacht Tonnen 1000€ GPU zu verkaufen.
Paar unter paar über 1k.
https://geizhals.de/?cat=gra16_512&v=l&hloc=de&sort=p&bl1_id=30&xf=132_16384%7E9809_05+14+-+RX+7900+XTX
horn 12
2024-01-06, 12:50:25
MLID bitte was sagt jener um wieviel die 7900-er Karten im Preis gesenkt werden
und das 2-te Mal nochmals im Sommer/ Spätsommer zum RDNA 4.0 Launch abermals.
AffenJack
2024-01-06, 14:38:24
Es hat jahrelang ja geklappt mit AMD und NV. Aber da war Angebot > Nachfrage
Das waren andere Zeiten, wo jeder Fertigungsprozess massive Kostensenkungen pro Transistor brachte und nicht teilweise teurer wurde, wie jetzt. Intel nimmt nur geringere Margen, da sie als neuer Versuchen Marktanteile zu gewinnen. Aber das wird man auch nicht mehr als 2, max 3 Generationen tun, da man nicht ne Sparte ewig subventionieren will.
Nvidias Margen waren 2015 bei 55% bevor man nennenswertes Servergeschäft hatte. Die Margen sind auf etwa 60% bei GPUs gestiegen, der Rest von Nvidias Margenausbau kommt vom Servergeschäft, wo man 80% oder mehr hat.
Selbst bei den alten Margen wird sich also kaum was tun bei den GPU Preisen. Klar wäre es schön, wenn sich die Margen eher bei 50% bewegen würden, aber am generellen Preistrend ist die Margensteigerung nur ein kleiner Nebeneffekt.
robbitop
2024-01-06, 15:06:25
Naja NV hebt mal eben P/L um >20% an mit der Super Serie. Klar ist da noch ordentlich Speck dran gewesen.
Beispiel Ad103. Ein 5nm class wafer kostet grob 15T USD. Bei 400 qmm kommen da grob 140 dice raus. Die die kostet also bei TSMC grob 100 usd im Einkauf. 8 GB gddr6x kosten grob 25 usd. Also nochmal 50 usd.
Die Narrative dasd GPUs heute vierstellig kosten müssen weil die Prozesskosten so hoch sind ist massiv übertrieben. Ja es war mal günstiger. Also hat der Kern bei tsmc dann in der Vergangenheit ggf nicht 100 usd im Einkauf gekostet sondern 50…70. Das ist nicht der Grund warum das alles so extrem viel teurer geworden ist.
Man hat in der Pandemie gesehen man kann fettige Preise nehmen und sich dumm und dämlich verdienen. Also macht man das.
reaperrr
2024-01-06, 15:13:18
MLID bitte was sagt jener um wieviel die 7900-er Karten im Preis gesenkt werden
und das 2-te Mal nochmals im Sommer/ Spätsommer zum RDNA 4.0 Launch abermals.
Ich hab keine konkreten Zahlen rausgehört.
Aber wenn man mindestens 50€ Aufschlag wegen Wechselkursen annimmt, verkauft AMD seine 7900er eh bereits deutlich unter den offiziellen MSRP.
Die 800€ der 7900 XT entsprechen ca. 749$ MSRP, die 950€ für die XTX etwa 899$ MSRP.
Mehr als 50$/€ braucht und wird AMD die Preise mMn zu NV's Super-Refresh nicht senken, da die 4080S schon zu aktuellen AMD-Preisen 100-150 € mehr kosten wird als die XTX für unwesentlich mehr Raster-Perf, und die 4070TiS mind. 50 $/€ teurer wird als die 79XT.
Was Mitte des Jahres passiert, hängt davon ab, ob
a) MLID Recht behält und N48 fast so schnell wie ne 4080/79XTX wird, dann wird N31 zum Spätsommer/Herbst hin eingestellt und N48 ersetzt die 7900er zu ähnlichen Preisen und Performance, aber mit deutlich besserer Perf/W und RT-Perf, oder
b) ob RGT Recht behält und N48 in Raster nur auf oder leicht über 7900GRE rauskommt und N31 deshalb darüber als 8800 XT(X) refresht wird (dann läuft N31 wohl bis RDNA5).
Ich als Pessimist tippe ja aktuell eher auf b), dann wird es im Sommer/Herbst wohl ungefähr so aussehen:
699-749$ - 8800 XTX oder 8900 XT: umgelabelte 79XTX mit marginal mehr PT und Takt, sowie einigen bis dahin zurückgehaltenen leichten Treiberverbesserungen
599$ - 8800 XT: umgelabelte 79XT mit etwas mehr Takt/PT (ca. 50-100 MHz mehr in Spielen) u. leichten Treiberverbesserungen (s.o.)
499$ - 8700 XT: N48XT (64 CU), 18 GB GDDR7 @ 192bit, Raster-Perf ~ >= 79GRE, RT-Perf ~= 8800 XT (in niedrigeren Auflösungen)
449$ - 8700: N48XL (56 CU), 12 GB G7 @ 192bit oder 15GB @ 160bit, Raster-Perf ~=7800XT
349-379$ - 8600 XT: N44XT, 40 oder 32 CU, 12GB G7 @96bit oder 16GB G6 @128bit, Raster-Perf zw. 6750 XT u. 7700 XT, zw. 77XT u. 78XT in RT
299-329$ - 8600: N44XL, 4 CUs weniger als 8600XT, etwas langsamerer Speicher, niedrige TDP, ca. 6750 XT Raster und 77XT RT
amdfanuwe
2024-01-06, 16:19:47
Die Narrative dasd GPUs heute vierstellig kosten müssen weil die Prozesskosten so hoch sind ist massiv übertrieben.
Es sind ja nicht allein die Prozesskosten gestiegen. Die Entwicklungskosten für immer komplexere Designs, Kosten für komplexere Entwickler Tools, Kosten für Prüfplätze etc.
Da entwickeln sich die Kosten exponentiell und müssen auf die Chips umgelegt werden, deren Anzahl aber stagniert.
robbitop
2024-01-06, 16:29:29
Es sind ja nicht allein die Prozesskosten gestiegen. Die Entwicklungskosten für immer komplexere Designs, Kosten für komplexere Entwickler Tools, Kosten für Prüfplätze etc.
Da entwickeln sich die Kosten exponentiell und müssen auf die Chips umgelegt werden, deren Anzahl aber stagniert.
Und doch sind (so wurde es eben gezeigt) AMDs GPUs deutlich günstiger und die Super bringt 20% mehr P/L.
Also ist da Speck dran.
Und ja alles andere wird auch teurer aber nie und nimmer so sprunghaft wie es zu Ada geschah. Das war ganz klare post Covid Gier und der Fakt dass sie jedes mm2 Silizium für AI extrem lukrativ verkaufen können. Da ist garantiert Nachfrage >> Angebot mit im Spiel.
amdfanuwe
2024-01-06, 16:56:37
Klar, wären ja blöd wenn sie nicht jeden Cent mitnehmen würden den die Kunden bereit sind ihnen in den Rachen zu werfen.
robbitop
2024-01-06, 18:15:23
Entsprechend muss Angebot - Nachfrage wieder zurück balanciert werden. Und das regelt der Markt normalerweise automatisch. Weil ja wenn zu viel Nachfrage vorhanden viel viel Geld zu verdienen ist - entsprechend will man mehr verkaufen (und wenn die vorhandenen Player das nicht wollen kommen andere) und baut Kapazität auf. Allerdings ist der Effekt von AI (was ja auch noch wächst) wahrscheinlich so intensiv, dass das sicherlich sehr lange dauern wird.
Schnitzl
2024-01-06, 19:05:47
(...) sowie einigen bis dahin zurückgehaltenen leichten Treiberverbesserungen
(...)
wo hast du denn das her?
Hört sich für mich an wie "zu schön um wahr zu sein" ;)
ich will die Wörter Wunder und Treiber hier nicht mehr sehn! ;)
(frei nach Bruce Campell)
AffenJack
2024-01-06, 19:49:32
Naja NV hebt mal eben P/L um >20% an mit der Super Serie. Klar ist da noch ordentlich Speck dran gewesen.
Beispiel Ad103. Ein 5nm class wafer kostet grob 15T USD. Bei 400 qmm kommen da grob 140 dice raus. Die die kostet also bei TSMC grob 100 usd im Einkauf. 8 GB gddr6x kosten grob 25 usd. Also nochmal 50 usd.
Die Narrative dasd GPUs heute vierstellig kosten müssen weil die Prozesskosten so hoch sind ist massiv übertrieben. Ja es war mal günstiger. Also hat der Kern bei tsmc dann in der Vergangenheit ggf nicht 100 usd im Einkauf gekostet sondern 50…70. Das ist nicht der Grund warum das alles so extrem viel teurer geworden ist.
Man hat in der Pandemie gesehen man kann fettige Preise nehmen und sich dumm und dämlich verdienen. Also macht man das.
Du hast keine Ahnung, wie sich die Preise für Teile usw innerhalb des Jahres entwickelt haben oder was Nvidia für Teile im Vergleich zu früher zahlt. Man hat für 5nm ne Menge Vorrauszahlungen vorgenommen und Vorverträge geschlossen. Das kann jetzt z.B. bei einigen Sachen deutlich günstiger sein, weil die Preise runtergegangen sind.
Nvidias Margen sind öffentlich. Zwischen 55% Marge früher und 60% Marge heute hast du am Ende für ne 4080 Preise von 1065$ mit 55% Gross Margin und 1199$ bei 60% Gross Margin. Also evtl. hätten wir ne 4080 mal für 999$ schon zum Start kriegen können. Das wäre natürlich viel besser gewesen. Deine Vorstellung von 500$ oder ähnlichem, wie im anderen Thread geschrieben sind aber völlig unrealitisch.
TheGood
2024-01-07, 11:20:20
Du hast keine Ahnung, wie sich die Preise für Teile usw innerhalb des Jahres entwickelt haben oder was Nvidia für Teile im Vergleich zu früher zahlt. Man hat für 5nm ne Menge Vorrauszahlungen vorgenommen und Vorverträge geschlossen. Das kann jetzt z.B. bei einigen Sachen deutlich günstiger sein, weil die Preise runtergegangen sind.
Nvidias Margen sind öffentlich. Zwischen 55% Marge früher und 60% Marge heute hast du am Ende für ne 4080 Preise von 1065$ mit 55% Gross Margin und 1199$ bei 60% Gross Margin. Also evtl. hätten wir ne 4080 mal für 999$ schon zum Start kriegen können. Das wäre natürlich viel besser gewesen. Deine Vorstellung von 500$ oder ähnlichem, wie im anderen Thread geschrieben sind aber völlig unrealitisch.
Jein, das problem an den prozentualen Marge berechnungen sind eben die Prozente ;) Wenn man es absolut berechnet kommt was völlig anders raus und man hätte ähnlich viel verdient wie früher... bei deutlich reduziertem endkundenpreis, das will man aber logischerweise nicht, da schlecht für die eigenen Aktien und den eigenen Geldbeutel....
robbitop
2024-01-07, 11:23:33
Du hast keine Ahnung, wie sich die Preise für Teile usw innerhalb des Jahres entwickelt haben oder was Nvidia für Teile im Vergleich zu früher zahlt. Man hat für 5nm ne Menge Vorrauszahlungen vorgenommen und Vorverträge geschlossen. Das kann jetzt z.B. bei einigen Sachen deutlich günstiger sein, weil die Preise runtergegangen sind.
Nvidias Margen sind öffentlich. Zwischen 55% Marge früher und 60% Marge heute hast du am Ende für ne 4080 Preise von 1065$ mit 55% Gross Margin und 1199$ bei 60% Gross Margin. Also evtl. hätten wir ne 4080 mal für 999$ schon zum Start kriegen können. Das wäre natürlich viel besser gewesen. Deine Vorstellung von 500$ oder ähnlichem, wie im anderen Thread geschrieben sind aber völlig unrealitisch.
Aha und wie kann NV jetzt schlagartig 20% P/L steigern? Und wie kann es sein, dass schlagartig ab Ada SKUs fast doppelt so teuer sind?
Ohne Fakten mit Quellen ist das nur ein sinnloses „ja“, „nein“, „doch“, „oh“. Zeitverschwendung.
Erstmal: Agree to disagree. Ich schaue mal ein bisschen nach BOMs. Wenn ich was finde melde ich mich. Igor hatte vor ein paar Jahren mal eine zu GA102 gehabt. Mal schauen.
Was aber klar ist: die Narrative um Fertigungprozesse sind schuld ist nur ein winziger Teil des Grundes.
BlacKi
2024-01-07, 11:26:22
@thegood
what?
@schnitzl
whaaaaaaaat?
Complicated
2024-01-07, 11:55:23
Was gibt es da zu recherchieren? Alle 3 Monate gibt es Quartalszahlen, wo die Kosten und Einnahmen abgebildet werden. Die Margen bei 45-55 % sind der Maßstab für Investoren, ob ein Unternehmen sinnvoll wirtschaftet. AMD hat einen langen Weg gehabt, um zu Intel und Nvidia aufzuschließen.
Niedrigere Margen zu Gunsten von günstigeren Preisen gilt als Misserfolg. Die hohen Preise haben keinen gravierenden Anstieg der Margen verursacht. Damit ist doch alles geklärt. So lange die Kunden die höheren Preise bezahlen, ist das Unternehmen gesund. Schaut euch Intel an. Die Durststrecken sind lang, wenn man mal den Anschluß verliert und müssen durchgehalten werden. Mit 6% Marge kann das keiner in der Branche kompensieren. Die Risiken sind wohl in keiner Branche höher bei solchen Milliarden Investitionen.
robbitop
2024-01-07, 12:14:01
Die Margen sind aber nicht transparent zur Sparte. Und IMO sind 50% auch extremst fettig. Denen geht es gut wie den Maden im Speck. Gibt genug Unternehmen die mit deutlich weniger gut klar kommen.
gross margin aktuell >70%
https://ycharts.com/companies/NVDA/gross_profit_margin
Deutlich mehr sogar als Apple. Und dort sollte doch bereits Konsens herrschen dass die sich dumm und dämlich verdienen.
Und Nvidia kann sämtliche Fixkosten wie RnD (Marktanteil dGPU ~80%) auf grob 4x so viele GPUs verteilen wie AMD. Und dennoch sind die Grafikkarten deutlich teurer als äquivalente von AMD.
Da kann man nie und nimmer glauben, dass da nicht ordentlich Speck am Knochen ist. Aber solange Nachfrage > Angebot ist gibt es keinen Druck.
AffenJack
2024-01-07, 12:58:01
Aha und wie kann NV jetzt schlagartig 20% P/L steigern? Und wie kann es sein, dass schlagartig ab Ada SKUs fast doppelt so teuer sind?
Ohne Fakten mit Quellen ist das nur ein sinnloses „ja“, „nein“, „doch“, „oh“. Zeitverschwendung.
Erstmal: Agree to disagree. Ich schaue mal ein bisschen nach BOMs. Wenn ich was finde melde ich mich. Igor hatte vor ein paar Jahren mal eine zu GA102 gehabt. Mal schauen.
Was aber klar ist: die Narrative um Fertigungprozesse sind schuld ist nur ein winziger Teil des Grundes.
Nö, es ist der Hauptgrund. Fertigungskosten sind variabel. Eine kleine Senkung der Kosten erzeugt am Ende schon eine massive Kostenveränderung am Ende der Rechnung. Du hast noch AIBs, Distributoren, Händler, Transportkosten etc. Wenn Nvidia 20$ geringere Kosten hat, dann kommen am Ende 100$ weniger raus.
Die Margen sind aber nicht transparent zur Sparte. Und IMO sind 50% auch extremst fettig. Denen geht es gut wie den Maden im Speck. Gibt genug Unternehmen die mit deutlich weniger gut klar kommen.
gross margin aktuell >70%
https://ycharts.com/companies/NVDA/gross_profit_margin
Deutlich mehr sogar als Apple. Und dort sollte doch bereits Konsens herrschen dass die sich dumm und dämlich verdienen.
Und Nvidia kann sämtliche Fixkosten wie RnD (Marktanteil dGPU ~80%) auf grob 4x so viele GPUs verteilen wie AMD. Und dennoch sind die Grafikkarten deutlich teurer als äquivalente von AMD.
Da kann man nie und nimmer glauben, dass da nicht ordentlich Speck am Knochen ist. Aber solange Nachfrage > Angebot ist gibt es keinen Druck.
70% Margen gibt es nur wegen Server. Da sind die Margen deutlich höher. Nach deinem Narrativ müssten Nvidias Margen in den Q1 Zahlen ja deutlich fallen, wenn die 4080s 20% mehr Preis/L haben. Wird aber nicht passieren. An sich waren Nvidias Margen in etwa bei 65% im Durchschnitt. Da Server die Margen hochtreibt, kann man sich ausrechnen, dass GPUs etwa bei 60% sein müssten. Das zeigt, dass die Kostensteigerungen seit 2015 zu 80% auf Kostensteigerung gehen und 20% auf Margenerhöhung.
Nein, 50% sind nicht extrem fett. In der Halbleiterbranche ist ~50% der Wert den dein Unternehmen braucht, um wirklich gesund arbeiten zu können. Alles darunter und du musst sobald ne Wirtschaftskrise kommt massiv F&E und Mitarbeiter einsparen.
Und da du Apple erwähnst, schau dir doch mal Handys heutzutage an. Die sind auch deutlich teurer als vor 10 Jahren. Mainboards etc. ebenso.
Jein, das problem an den prozentualen Marge berechnungen sind eben die Prozente ;) Wenn man es absolut berechnet kommt was völlig anders raus und man hätte ähnlich viel verdient wie früher... bei deutlich reduziertem endkundenpreis, das will man aber logischerweise nicht, da schlecht für die eigenen Aktien und den eigenen Geldbeutel....
Das würde nicht passieren. Große Unternehmen haben ein extrem gutes Wissen darüber, wie sich Preisveränderungen auf Verkaufszahlen auswirken. Das Hauptvariablen sind Mitbewerber und längerfriste Trends/Ereignisse. Man setzt Preise so an, dass man das maximale verdient. Durch Rabatte und die Reaktionen darauf kann man schon ziemlich gut vorhersagen, was dabei rum kommt. Man würde nicht soviel mehr verkaufen, dass man mehr Gewinn macht. Das funktioniert nur in einem theorethischen Markt, wo es unendlich Käuferpotential gibt.
Was gibt es da zu recherchieren? Alle 3 Monate gibt es Quartalszahlen, wo die Kosten und Einnahmen abgebildet werden. Die Margen bei 45-55 % sind der Maßstab für Investoren, ob ein Unternehmen sinnvoll wirtschaftet. AMD hat einen langen Weg gehabt, um zu Intel und Nvidia aufzuschließen.
Niedrigere Margen zu Gunsten von günstigeren Preisen gilt als Misserfolg. Die hohen Preise haben keinen gravierenden Anstieg der Margen verursacht. Damit ist doch alles geklärt. So lange die Kunden die höheren Preise bezahlen, ist das Unternehmen gesund. Schaut euch Intel an. Die Durststrecken sind lang, wenn man mal den Anschluß verliert und müssen durchgehalten werden. Mit 6% Marge kann das keiner in der Branche kompensieren. Die Risiken sind wohl in keiner Branche höher bei solchen Milliarden Investitionen.
Jepp und weil AMD jetzt bei 47% Marge ist konnte man auch den kleinen Dämpfer bei den Verkaufszahlen der Prozessoren gut abfedern und weiter investieren (Die Entlassungen in China sind ne Umfokussierung, aber kein Sparprogramm bei den F&E Ausgaben). Noch vor kurzer Zeit hätte AMD wieder komplett in den Sparmodus übergehen müssen. Dann hätten wir wieder die Situation wie 2010-2015 in paar Jahren, weil AMD kein Geld für konkurenzfähige Entwicklungen gehabt hätte.
Schnitzl
2024-01-07, 13:12:51
@thegood
what?
@schnitzl
whaaaaaaaat?
Ash vs Evil Dead nicht gesehn? ;)
Wie kann ich sonst noch helfen? :biggrin:
Complicated
2024-01-07, 13:21:51
Andere Branchen sind andere Branchen - wer das vergleicht weiss nicht wovon er spricht. Und AMD ging es mit 34% Marge alles andere als gut - ständig wurde der Konkurs angekündigt und der Kurs war kurz vorm Pennystock. das ist noch keine 10 Jahre her.
Hier sind die Peer-Gruppe eben Apple, Qualcomm, ASML, TSMC, TI etc. etc. und keiner von denen gilt als überlebensfähig wenn die Marge unter 40% rutscht. Nvidia ist derzeit in einer besonderen Lage mit KI - das wird in 2 Jahren wieder völlig anders aussehen und die heutigen Gewinne werden dann überlebensnotwendig sein. Intels Verschuldung sieht derzeit auch nicht rosig aus und der Verkauf der Fabs steht hier ebenfalls immer wieder im Raum.
Wenn die Investoren switchen, tun das auch die Banken, Kredite werden teurer und Übernahmen werden immer schwieriger. AMD hat das die letzten 2 Jahre gute Grundlagen gelegt und Xilinx 60% Dauer-Margen übernommen um damit die 50% zu übertreffen.
Einzelne Produktsparten werden verschleiert, da ansonsten jeder die Sparte für überflüssig hält. Da gäbe es schon keine Consumer GPUs mehr - das ist mittlerweile mehr Markenpfelge als Profitorientiert. Dass hier immer noch aus der Perspektive dGPU P/L-Verhältnis argumentiert wird ist wenig sinnvoll. Die Zukunft sieht im Consumermarkt aus wie bei den Konsolen.
robbitop
2024-01-07, 14:08:09
Schaut euch NVs Cash an. Da liegen 17,5 Mrd uninvestiert auf der Bank die dieses Jahr extrem angewachsen sind. Trotz fettiger Investitionen und Aktienrückkäufe.
Again ein AD103 kostet grob 100 usd bei TSMC. Wahrscheinlich für NV etwas weniger.
Nein da sind natürlich keine fetten Reserven.
Complicated
2024-01-07, 15:54:11
Schaut euch NVs Cash an. Da liegen 17,5 Mrd uninvestiert auf der Bank die dieses Jahr extrem angewachsen sind. Trotz fettiger Investitionen und Aktienrückkäufe.
Again ein AD103 kostet grob 100 usd bei TSMC. Wahrscheinlich für NV etwas weniger.
Nein da sind natürlich keine fetten Reserven.
Argument ignoriert?
Nvidia ist derzeit in einer besonderen Lage mit KI - das wird in 2 Jahren wieder völlig anders aussehen und die heutigen Gewinne werden dann überlebensnotwendig sein.
basix
2024-01-07, 15:59:48
"Überlebensnotwendig", klar. Das arme Nvidia ;D
Wer das glaubt, dem ist nicht zu helfen. Fakt ist: Nvidia verdient sehr gut. Auch an den Consumer Karten. Und am ganzen ML/AI Kram verdienen sie sich unanständig dumm & dämlich. Nicht umsonst gibt es behördliche Untersuchungen über "Wucherpreise" für die ML-Accelerators und die entsprechende Infrastruktur rundherum
Complicated
2024-01-07, 16:04:34
Ach, schau dir doch Intel an - die Umsätze dort reichen heute nicht mehr, obwohl die nach wie vor höher als bei AMD sind. Wer wächst muss den Level auch in 2 Jahren halten. Das ist jetzt schon absehbar, dass der KI-Markt nicht mehr 90% Nvidia Hardware nutzen wird. Und was dann?
Du weisst nicht ob es so kommt, musst Wafer bestellen, die du bezahlen musst. Dein nächstes Design floppt und es dauert 4 Jahre um wieder Anschluß zu finden. Intel lebt das seit 3 Jahren. AMD hatte Bulldozer. Womit haben die denn ihr Überleben gesichert?
Welcher CEO in einem 50 Mrd. Unternehmen kann sich denn leisten ein zweites Nokia zu werden?
basix
2024-01-07, 16:23:39
Du weisst schon dass Intel strukturell her gesehen viel grösser als Nvidia und AMD ist?
- 131k vs. 23k (Nvidia) vs. 25k (AMD) Mitarbeiter
- Eigene Fabs
- Deutlich diversifizierteres und breiteres Portfolio
Da muss man einiges mehr Umsatz machen als der kleinere, damit man gesund ist. Und nein, Intel ist nicht kurz vor dem absterben.
Das ist jetzt schon absehbar, dass der KI-Markt nicht mehr 90% Nvidia Hardware nutzen wird. Und was dann?
Was dann? Nvidia verdient "schlimmsten" Fall etwas weniger. Im realistischen Fall immer noch etwa gleich viel oder sogar etwas mehr, weil der Markt sehr stark wächst. Sehr schlimme Aussichten, in der Tat. Da würde ich, wenn ich Jensen wäre, schon die Konkursanmeldung vorbereiten.
Wenn Nvidia so schlecht dasteht, würde AMD noch viel schlechter dastehen (mehr Mitarbeiter, weniger Umsatz, geringere Marge). Aber hey, denen geht es blendend. Machen noch nie so viel Umsatz und Gewinn.
mboeller
2024-01-07, 16:40:19
Schaut euch NVs Cash an. Da liegen 17,5 Mrd uninvestiert auf der Bank die dieses Jahr extrem angewachsen sind.
Welche Firma wollen sie denn aufkaufen? Gibt es dazu Gerüchte?
Complicated
2024-01-07, 16:44:31
Wenn Nvidia so schlecht dasteht, würde AMD noch viel schlechter dastehen (mehr Mitarbeiter, weniger Umsatz, geringere Marge). Aber hey, denen geht es blendend. Machen noch nie so viel Umsatz und Gewinn.Argumentativ bist du weit weg von dem was ich schrieb, was ich dem fehlenden Argument in der Sache zuschreibe.
https://www.heise.de/news/Kastrierte-KI-Chips-Nvidia-den-Chinesen-schmeckt-s-nicht-9589567.html
Nvidias Firmenkunden aus China haben keine große Lust mehr auf die KI-Beschleuniger-Chips des US-Herstellers.
Da würde ich, wenn ich Jensen wäre, schon die Konkursanmeldung vorbereiten.
Oder einfach die Margen hoch halten, was hier einige nicht nachvollziehen können. Naja kann ja nicht jeder einen unternehmerischen Background haben.
robbitop
2024-01-07, 18:03:45
Es bezweifelt doch niemand dass Nvidia das unternehmerisch Richtige tut. Ohne Frage ist Jensen ein versammt guter CEO. Ich wüsste nicht was man aus seiner Sicht besser machen könnte.
Es wird hier bezweifelt (ggf nicht von dir aber vielen anderen) dass die Karten nicht einiges an Speck dran haben, der bei einem echten Wettbewerb (Angebot > Nachfrage) abgeschmolzen wereen könnte, ohne dass bei Nvidia jemand hungern müsste. Und das ist locker der Fall.
IMO ist jetzt aber genug OT.
Complicated
2024-01-07, 18:46:09
Wo ist denn der Wettbewerb unecht? Oder anders formuliert: Was führt denn zu der Annahme, dass derzeit Angebot und Nachfrage nicht für die Preise verantwortlich sind?
Welcher Mechanismus soll denn bei Nvidia zu sinkenden Preis führen in diesem Marktumfeld.
Alleine die Wahl deiner Formulierungen "Speck dran haben" und "hungern müssen" zeigt doch deine fehlerhaften Ansätze in der Denkweise. Als sei "schlanke Preise" eine unternehmerische Zielsetzung.
Der Kunde stimmt an der Kasse ab, mit seinem Geldbeutel - und das macht er jetzt eben auch. Punkt.
AffenJack
2024-01-07, 20:24:57
Schaut euch NVs Cash an. Da liegen 17,5 Mrd uninvestiert auf der Bank die dieses Jahr extrem angewachsen sind. Trotz fettiger Investitionen und Aktienrückkäufe.
Again ein AD103 kostet grob 100 usd bei TSMC. Wahrscheinlich für NV etwas weniger.
Nein da sind natürlich keine fetten Reserven.
Und was hat das mit den Margen zu tun? Natürlich verdient Nvidia sehr gut. Ändert aber nichts daran, dass die Margen im GPU Bereich seit 2015 für einen viel geringeren Anteil der Preissteigerung verantwortlich sind im Vergleich zu den Mehrkosten bei den Produktion. Nvidias massiv gesteigertes Einkommen im GPU-Bereich liegt viel mehr daran, dass sie es geschafft haben den Leuten weiß zu machen, dass man immer teurere GPUs braucht und ein Portfolio hat, welches die größeren GPUs teilweise attraktiver als die kleineren wirken lässt.
Nvidias Zahlen sind wie gesagt komplett öffentlich und werden auch von Behörden wie der SEC geprüft. Jetzt kommst du mit Zahlen, die nur auf Vermutungen basieren und willst ernsthaft Geschäftsberichte damit entkräften? Dann schmeist du Cash als Argument rein, der gar nix mit der Grundlage der Diskussion zutun hatte, dass die Preise sich unabhängig vom Wettbewerb nicht ändern werden, da die Kosten der Hauptgrund sind. Das ist bei AMD nicht anders, ich habe nur Nvidia als Beispiel genommen, weil das bei AMD anhand der Geschäftsberichte deutlich schwerer nachzuvollziehen ist.
Es wird hier bezweifelt (ggf nicht von dir aber vielen anderen) dass die Karten nicht einiges an Speck dran haben, der bei einem echten Wettbewerb (Angebot > Nachfrage) abgeschmolzen wereen könnte, ohne dass bei Nvidia jemand hungern müsste. Und das ist locker der Fall.
IMO ist jetzt aber genug OT.
Was soll denn echter Wettbewerb sein? Du hast x Handyhersteller, trotzdem kosten die Flagschiffe viel mehr als früher? AMD mag keine Kampfmargen mehr haben, aber genauso ist das echter Wettbewerb. Der Kunde hat die Wahl von mittlerweile sogar 3 Herstellern plus alternative Systeme wie Konsolen. Es gab lange nicht mehr soviel Wettbewerb im Grafikmarkt.
Altehardware
2024-01-08, 10:26:22
nvidia margen sind nicht das problem sondern die speicherpreise derzeit werden die zu viel produzierten ampere chips ausgeglichen darum die absurden preise.
Das wird sich bis 2025 komplett egalisieren dann wird es sku geben ab 300$ sie sich für Aufrüster der letzten 2 Jahre um die 300€ lohnen
ich gehe von ne gb206 chip aus mit 4gpc =64sm den es ab 52sm gibt mit dann 380€ startpreis anfangen mit 12gb vram grob 26tf bei grob 180w tbp
Das passiert aber nur wenn amd wirklich konkurriert mit rdna5 und beginnend mit 60cu ab 4,0ghz für maxed 400$
zwar wird nvidia vorher veröffentlichen etwaq1 2025 aber wird demnach auch bei rtx50 ne super serie nachschieben müssen.
Anfang dürfte gb207 mit 32sm und maximalen Takt von 2,8ghz geben etwa 16tf mit nur 12gb vram bei grob 110w tbp
Das dürfte die rtx5060 werden ab 300€
folgend die vorherige sku ,mit gb206 ab 380€ 12gb mit 26tf mit 180w tbp als rtx5060ti
Dann die nächsten sku mit gb206 ab 60sm etwa 30tf 16gb als rtx5070
Dann den gb205 als rtx4080 mit 6gpc (96sm) als sku mit 84sm 16gb grob 42tf ab 280w tbp
dann die nächste sku als rtx4080ti ab 90sm 16gb mit 44tf
Die rtx5090 wird der gb203 mt 142sm 24gb mit 74tf und nur 350w tbp
Derzeit
rtx4060 11,0tf 130w tbp
rtx4060ti 16,5tf 170wtbp
rtx4070 22tf 200w tbp
rtx4070super 26tf 220w tbp
rtx4070ti 30tf 285w tbp
rtx4070ti super 34tf 280w tbp
rtx4080 37tf 350w tbp
rtx4080 super 39tf 375w tbp
rtx4090d 57tf 375w tbp
rtx4090 63tf 450w tbp
Der super refresh wird der Takt erhöht mit dem tbp um etwa 22% demzufolge je sku um 11% mehr Leistung dazu werden die chips neu verteilt
Das kommt erst ende 2025 Anfang 2026 so hin womit die rtx5060 super ab 30tf gibt ab 400€ mit 18gb da ab dann 24gbit chips gibt.
Dafür muss amd mit rdna 5 massiv angreifen mit den mcm gpu ab 440€ 60cu 600€ 120cu und 1200€ 180cu
60cu = 35tf
120cu = 66tf
180cu = 97tf
nvidia hat darauf ne Antwort mit dem gb202 ab 180sm =100tf
spannend wird dann rtx60 Serie ab 2027 und amd rdna6 generation was dann den sprung geben wird auf 4,5-5,0ghz (n2x node)
Die alu indes werden verdoppelt bei amd
nvidia hat keine Wahl als ne neue arch design zu erfinden und somit deutlich geringeren Takt vermutlich 3,2-3,4ghz aber nahezu doppelter alu menge
Sinnvoll für nvidia dann maximal 216sm mit je 192 alu per sm das passt so gerade auf die 420mm² die dann nur noch belichtet werden können.
Derzeit sind es grob 840mm²
Ich sagte nicht umsonst das nvidia ab a18 node in ner Sackgasse sitzt. Sie müssen ein mcm design im consumer markt bauen das aber sehe ich nicht vor dem Nachfolger von rubin.2027 also erst 2029 eher 2030
Der a18 node schafft grob noch gut 10% Takt danach wird es immer enger da die Taktbarkeit nicht mehr ansteigen kann.
a14 was ab 2032 kommen soll dürfte maximal noch 5% bringen.
Das gute ist das tsmc in die höhe geht ab a18 also muss man mehr alu stapeln was den Takt sogar senken kann.
Dafür gibt es aber ne Lösung das die wärme durchgeleitet werden soll. Also ist es möglich das mit gestapelten alu den Takt halten bis leicht erhöht wird.
Also dürfte nvidia mit a18 dann 432sm haben bei nur 3,2ghz (420tf) der Stromverbrauch dürfte dann aber bei 525w sein
Das wäre theoretisch die letzte monolithische sku die von nvidia kommt. also 2029.
Dennoch wird es keine entry gpu mehr geben von amd ab rdna6 beginnend ab 460€ als 9700
Die folgende gen dürfte dann ab x700 ab 480€ Starten
nvidia indes ab 520€ mit der rtx6070 (60tf) und folgend mit gestapelten chips ab 550€ als rtx7070 (120tf)
Der kipppunkt ist 2026 wo die letzten 300-400€ gpu geben wird, das problem wird aber sein das min 200w ziemlich sicher sind bei der 70er klasse ab 500€
Es kann sein das es sku mit 180w tbp geben wird etwa den gr206 chip mit nur 48sm bei 150w tbp nur eben als rtx6070 ab 520€ (46tf)
reihen folge
rtx4070 grob 22,5tf 12gb 580€ 2023
rtx4070 super 26tf 12gb 660€ 2024
rtx5070 30tf 16gb 590€ 2025
rtx5070 super 24gb 550€ 2026
rtx6070 46tf 24gb 520€ 2027
Leonidas
2024-01-08, 10:44:01
Radeon RX 7600 XT 16GB mit 32 CU auf $329
https://videocardz.com/newz/amd-radeon-rx-7600-xt-16gb-launches-january-24-at-329-same-core-count-as-non-xt-model
https://cdn.videocardz.com/1/2024/01/RX7600XT-PRICING-SPECS.jpg
dargo
2024-01-08, 11:26:55
Preis finde ich ok. Und hier kann man wunderbar sehen, dass der Vram gar kein Preistreiber mehr ist. Aber bis zu 190W bei einer poppelligen 7600XT ist schon wirklich krank. Meine Güte ist RDNA3 bei der Effizienz misslungen. ;(
btw.
Der Vergleich mit 6GB Turing ist der Knüller. ;D Da nimmt man extra bei der Konkurrenz eine Karte der definitiv der Vram ausgeht, die Balken wirken gleich besser. :ulol:
BlacKi
2024-01-08, 11:56:42
prozentual gesehen ist das schon viel. 22% mehr. bei der 4060ti 8 vs 16gb ist der aufpreis aktuell niedriger mit +16%.
mal davon abgesehen, das man auch schon vorher wusste das 8gb keine 100$ kosten. es ist eher eine weitere bestätigung.
die powerlimiterhöhung hat die karte aber auch gebraucht. wenigstens gibts zu den 8gb mehr, auch ein paar fps mehr. das ist durchaus bei der 4060ti anders.
aber 190w auf 204mm² ist schon sportlich.
dildo4u
2024-01-08, 12:38:55
Preis finde ich ok. Und hier kann man wunderbar sehen, dass der Vram gar kein Preistreiber mehr ist. Aber bis zu 190W bei einer poppelligen 7600XT ist schon wirklich krank. Meine Güte ist RDNA3 bei der Effizienz misslungen. ;(
Wo ist der Preis ok?6700XT scheint der bessere Deal für 1080p?
maximus_hertus
2024-01-08, 13:21:16
Wo ist der Preis ok?6700XT scheint der bessere Deal für 1080p?
So lange es die 6700 XT noch gibt ;)
Ich weiß auch nciht so recht, wann man eine 7600 XT kaufen sollte? Die 6700er Radeons wird es wohl noch eine Weile geben und diese bieten einfach teils deutlich mehr fürs Geld. Auch bei der Effizienz gibt es keine wirklichen Vorteile.
Die Straßenpreise bei uns dürften sich bei 350-370 Euro einpendeln. Imo irgendwie nicht Fisch, nicht Fleisch. Warten wir mal ab.
dildo4u
2024-01-08, 13:33:57
Macht kein Sinn 6700XT einzustellen durch das hohe TDP der 7600 16GB kann man nicht wirklich am Board sparen.
Vermute der Gewinn ist bei beiden Modellen ähnlich.
vinacis_vivids
2024-01-08, 13:52:39
AMD passt sich nur an die Konkurrenz aka A770 16GB und 4060 16GB an. Evtl. ist das auch gut fürs Chinageschäft. Im Osten kaufen Leute gern mehr Speicher als Verkaufsargument.
robbitop
2024-01-08, 14:03:22
AMD mag keine Kampfmargen mehr haben, aber genauso ist das echter Wettbewerb. Der Kunde hat die Wahl von mittlerweile sogar 3 Herstellern plus alternative Systeme wie Konsolen. Es gab lange nicht mehr soviel Wettbewerb im Grafikmarkt.
Wenn man Margen oben halten kann, ist der Markt nicht genug unter Druck. Die Leute kaufen es zu dem Preis weil es nichts anderes gibt. Da ist also Platz für einen Wettbewerber der mit kleineren Margen verkauft.
Intel macht das in extremer Form mit Alchemist - allerdings nur in einem sehr niedrigen Segment (und dort scheint der Wettbewerb auch zu funktionieren - dank Intel bekommt man was brauchbares für 200 EUR mit gutem P/L). Und in dem Segment sind die Preise zumindest bei RDNA2 noch gut wettbewerbsfähig. Ein Äquivalent im Performance Segment fehlt eben noch. Was für Intel auch erschwerend dazu kommt, ist dass man im GPU Segment noch ein schwieriges Image hat. (obwohl Arc mit neusten Treibern laut Raff ziemlich gut funktioniert)
Echter Wettbewerb ist, wenn Wettbewerber sich unter Druck setzen müssen. Wenn es allen gut geht wie den Maden im Speck ist nicht genug Wettbewerb da. AMD und NV sind nicht mehr so auf GPU Verkäufe angewiesen. Sie können schön die Margen hochziehen und viel Silizium im AI und HPC Sektor verkaufen.
So lange es so hohe Margen auf GPUs (und alles andere gibt) ist auch Platz für mehr Wettbewerber.
vinacis_vivids
2024-01-08, 14:25:24
Nur kommt aus Europa und Deutschland einfach nichts brauchbares an Konkurrenz / Wettbewerb.
basix
2024-01-08, 14:36:11
Argumentativ bist du weit weg von dem was ich schrieb, was ich dem fehlenden Argument in der Sache zuschreibe.
https://www.heise.de/news/Kastrierte-KI-Chips-Nvidia-den-Chinesen-schmeckt-s-nicht-9589567.html
Oder einfach die Margen hoch halten, was hier einige nicht nachvollziehen können. Naja kann ja nicht jeder einen unternehmerischen Background haben.
Du schreibst zuerst was von überlebensnotwendig usw. und nachher geht es um was ganz anderes: Maximal viel Geld verdienen. Wow, "unternehmischer Background". Gibt genug Stimmen (auch aus der Wirtschaft, nicht nur Armchair Experts) die Jensen Geldgeilheit und entsprechend fragwürdige Geschäftspraktiken vorwerfen. Und: Wenn der China Markt wegbricht, dann verkaufen sie die Dinger halt woanders. Nachfrage ist genug da. Und dass die Chinesen die Nvidia Karten nicht mehr wollen: Sauteure HW, HW Beschneidungen, US-Sanktionen/Restriktionen (=Liefersicherheit fraglich). Kein Wunder also. Das wird Nvidia aber nur begrenzt wehtun. Einfach etwas weniger Umsatz und Gewinn, als theoretisch möglich wäre, was aber immer noch viel höher liegen wird als alles, was sie vor 2023 hatten. Das ist maximal weit weg von "überlebensnotwendig" und "unternehmerischer Dringlichkeit". Nvidia geht es finanziell exzellent und das wird sich auch nicht so bald ändern, auch wenn es bei ML/AI einen Abschwung geben sollte. Oder war Nvidia nach dem ersten Krypto-Boom so arm dran?
Es bezweifelt doch niemand dass Nvidia das unternehmerisch Richtige tut. Ohne Frage ist Jensen ein versammt guter CEO. Ich wüsste nicht was man aus seiner Sicht besser machen könnte.
Gut in diversen Dingen, ja. Nvidia ist ein innovatives Unternehmen mit viel Technologie, Einfluss und Marktmacht. Das "unternehmerisch Richtige" heisst aber anscheinend "maximal Geld" und alles andere ist egal. Klar, Geld verdienen darf man mit guten Produkten. Ich zahle auch gerne etwas für gute Produkte. Doch wer ein wenig nachdenkt merkt, dass Endkundenpreise stärker anziehen als die Kosten. Und das wird auch zurecht kritisiert. Nvidia ist nicht die Wohlfahrt, doch Gamer haben Nvidia die heutige Position erst ermöglicht. Und wenn jetzt Data Center eh 80% des Umsatzes und 90% des Gewinns ausmacht, könnte man die letzten paar Prozent der Marge bei Gamer-Karten "spendieren". DAS wäre unternehmerischer Geist, wie er gelebt werden sollte. Es gibt ja hoffentlich noch so unwichtige Sachen wie Moral, Loyalität und Wertvorstellungen. In Zeiten wo es gut läuft kann man grosszügiger sein. Wenn es schlechter läuft, kann man wieder anziehen. Das würde jeder mit etwas Verstand verstehen - und auch akzeptieren. Was man aber bei einigen Firmen nicht versteht: Maximale Gewinne, immer höhere Preise. Und genau das ist bei Nvidia der Fall. Man versteht bei anderen Firmen ja auch nicht, wenn man maximale Gewinne schreibt aber dann Leute entlässt. Ist ein ähnliches Thema.
Wo ist denn der Wettbewerb unecht? Oder anders formuliert: Was führt denn zu der Annahme, dass derzeit Angebot und Nachfrage nicht für die Preise verantwortlich sind?
Welcher Mechanismus soll denn bei Nvidia zu sinkenden Preis führen in diesem Marktumfeld.
Alleine die Wahl deiner Formulierungen "Speck dran haben" und "hungern müssen" zeigt doch deine fehlerhaften Ansätze in der Denkweise. Als sei "schlanke Preise" eine unternehmerische Zielsetzung.
Der Kunde stimmt an der Kasse ab, mit seinem Geldbeutel - und das macht er jetzt eben auch. Punkt.
Schlanke Preise sind keine Zielsetzung, richtig. Aber hoffentlich gerechte Preise. Ist Gewinnmaximierung das einzige und oberste Ziel? Oder will man mit einem guten Produkt etwas gutes der Gesellschaft beitragen und daran doch recht anständig verdienen. Gibt man Fortschritte an die langjährigen und treuen Kunden weiter, oder nimmt man sie einfach aus?
Kosten/Ertrag müssen für den Kunden stimmen. Und das stimmt offensichtlich für sehr viele Leute nicht mehr. Es gibt immer Genug-Gutverdiener, die sich die Karten gönnen. Ich habe mir auch (zu teuer) eine 4090 geholt. Ich finde die Karte genial und hatte/habe viel Spass daran. Finde ich die heutige Marktlage deswegen OK, gut und gerecht? Definitiv nicht. Nichtmal zwingend aus persönlich motivierter Sicht (=ich kriege die Karten günstiger), sondern dass Gaming-Karten für viele unerschwinglich werden. Der Junge oder Teenager, der sich mit Ferienarbeitsgeld sein eigenes System aufrüstet. Mit 500+$ Karten wird das langsam unrealistisch. Arbeitstüchtige Leute oder Studenten mit begrenztem Budget, welche lieber am PC als der Konsole spielen. Oder Leute, die generell gerne am PC rumbasteln, was man bei teureren Komponenten verständlicherweise immer weniger macht. Ich kenne diese Situationen, war selber mal dort. Diese Leute werden nun einfach abgehängt, weil sie es sich nicht mehr leisten können. Immer mehr Leute auf der Welt aber stagnierende Stückzahlen sprechen hier eine klare Sprache: Nur die "Oberschicht" leistet sich die Karten noch.
Jensen schaut zu sich und seinen Leuten bei Nvidia. Seine Leute hat er immer gut behandelt und auch in Krisenzeiten nur wenig oder gar keine Leute entlassen. Das finde ich gut. Respekt für das. Die Kundschaft ist aber offensichtlich einfach ein Geldlieferant. Mehr nicht. Wer das über Umwege befürwortet indem man das mittels "unternehmerischen Background nachvollzieht" und bewertet sowie für notwendig befindet: Schade. Nicht mein Verständnis von Unternehmertum.
Sorry for den Rant und OT, für mich ist das Thema hier nun beendet. Konnte ich aber nicht so stehen lassen, dass es "völlig normal und richtig" ist, dass Nvidia die Preise so nach oben schraubt. Ist es mMn nicht. Ich würde sehr gerne auf AMD wechseln, wenn ihre Produkte technisch dem entsprechen würden, was ich mir wünsche. War bis jetzt leider nicht so. Nvidia hat das erfüllt. Ich hoffte auf RDNA4. Wird es wohl auch nicht werden. Allenfalls wird es was mit RDNA5.
DrFreaK666
2024-01-08, 14:38:25
AMD passt sich nur an die Konkurrenz aka A770 16GB und 4060 16GB an. Evtl. ist das auch gut fürs Chinageschäft. Im Osten kaufen Leute gern mehr Speicher als Verkaufsargument.
Anscheinend kommt die Karte nicht nach China, da dort erst die 6750 GRE erschienen ist.
Der Vergleich mit der 2060 ist armselig. Die Karte feiert nun ihren fünften Geburtstag
amdfanuwe
2024-01-08, 16:19:21
Der Vergleich mit der 2060 ist armselig. Die Karte feiert nun ihren fünften Geburtstag
Nicht ganz. Die Besitzer einer 2060 brauchen bald eine neue GPU. Somit zeigt AMD den 2060 Besitzen, dass die 7600XT ein sinnvolles Upgrade sein kann.
DrFreaK666
2024-01-08, 16:37:29
so gesehen... ja
Radeon RX 7600 XT 16GB mit 32 CU auf $329
https://videocardz.com/newz/amd-radeon-rx-7600-xt-16gb-launches-january-24-at-329-same-core-count-as-non-xt-model
https://cdn.videocardz.com/1/2024/01/RX7600XT-PRICING-SPECS.jpg
Jetzt offiziell: https://www.pcgameshardware.de/Radeon-RX-7600-XT-Grafikkarte-280117/Specials/Release-Preis-kaufen-RX-7600-XT-16GB-Geizhals-1437615/
MfG
Raff
Wow CDPR ist jetzt nach dem "Livestream" mit AMD im Bett :eek:. Krasse Kiste.
DrFreaK666
2024-01-08, 17:56:53
Wow CDPR ist jetzt nach dem "Livestream" mit AMD im Bett :eek:. Krasse Kiste.
Die haben nur Schnipsel gezeigt, mehr nicht.
"FSR3 ab sofort in CP2077" wäre nice gewesen
Monsta
2024-01-08, 18:22:09
350€ für eine 7600XT finde ich für die gebotene Leistung zu teuer.
Ich habe eine gebrauchte 2080TI im Oktober für 280€ bei Kleinanzeigen gekauft.
Die ist in Raster ne ganze Ecke schneller, mit Raytracing liegen Welten zwischen den Karten.
Linmoum
2024-01-08, 18:33:06
Ich finde es eher erschreckend, dass bei so einem wirklichen Mainstream-Chip bzw. fast schon Einstiegsklasse (N6 berücksichtigend), AMD diese Karte mit fast 200W auf den Markt loslässt. Bei CPUs immer auf die Relevanz von Verbrauch, eparsam und Effizienz hinweisen und (dort auch zurecht) sich über Intel lustig machen, bei GPUs aber sowas abziehen.
Das ist natürlich ein furchtbares Verbrechen... Aber nichts mit mehr als 8GB haben und herumlästern...
Linmoum
2024-01-08, 18:41:15
190W sind fast 4070-Niveau beim Verbrauch. Wenn du das geil findest, dann nur zu.
davidzo
2024-01-08, 20:57:18
Wo bleibt die 7700 vanilla?
raffa
2024-01-08, 21:44:49
Ich find den Verbrauch auch daneben.
AMD baut so feine CPUs, schön auf den sweetspot. Klar, da haben sie auch Oberwasser. Trotzdem, mit 150W wär das ne feine Karte, so ist sie eher mäh.
DrFreaK666
2024-01-08, 22:19:16
Dann optimiere sie halt auf 150W
vinacis_vivids
2024-01-08, 22:45:07
Intel ACM-G10 ~ 406mm²
256bit SI - 560GB/s
L2$ - 16MB
330€
225W
+ Matrix-Cores
AMD Navi33 XT ~ 204mm²
128bit SI - 288GB/s
IF$ - 32MB
~330€
190W
+ FSR3 Frame-Generation
Die leicht erhöhten Taktraten bringen noch paar Prozente Plus für etwas längere Balken. Intel braucht die doppelte Chipfläche bei deutlich schlechterer Ausbeute und macht dabei Minus. Nvidia wird gezwungen sein, die 4060 auch mit 16GB zu bringen, um in diesem Preisbereich konkurrieren zu können. Insofern ein sehr sehr cleverer Schachzug von AMD.
Es gibt so viele, die auf alten 6GB/8GB Karten sitzen und nur wenig Geld für ne Aufrüstung haben. Da passt die 7600XT 16GB perfekt ins Beuteschema. Ich denke, AMD wird da schon einige Käufer finden.
Der_Korken
2024-01-08, 22:45:14
190W sind fast 4070-Niveau beim Verbrauch. Wenn du das geil findest, dann nur zu.
Diese geprügelten Minichips erinnern leider an alte Polaris-Zeiten, wo AMD nichts anderes hatte und deswegen ihre RX580 auf den Verbrauch einer doppelt so großen (und schnellen ...) 1080Ti hochprügeln musste, um was neues verkaufen zu können.
RDNA3 ist längst abgehakt und die 7600XT die imho langweiligste Karte im Portfolio. Für AMD-Käufer heißt es warten auf bessere Zeiten.
raffa
2024-01-08, 22:47:10
Ich wart lieber auf einen würdigen Nachfolger der 6600, eine auf Effizienz gebaute RDNA 4? Karte.
vinacis_vivids
2024-01-08, 22:55:32
Diese geprügelten Minichips erinnern leider an alte Polaris-Zeiten, ...
Polaris 10/20/30 war ein absoluter Verkaufsschlager mit 232mm^2 und der 4GB/8GB Konfiguration.
Es gibt so viele arme Gamer, die nur ne schmale Brieftasche haben und auch bedient werden wollen.
raffa
2024-01-08, 23:02:29
Ich sag nicht, dass das ne schlechte Karte ist, aber sie braucht mehr als ne 6650 xt, die schon ein Verschwender war - wo is denn der Fortschritt?
16GB sind nett, aber in der Klasse auch nicht so wichtig, für höchste Settings und Auflösungen fehlt eh der Bumms, Bandbreite und oder mehr Infinity Cache.
Als Arbeitskarte für auch mal Spielen kann man sie auch effizienter designen und mit <150W bringen.
DrFreaK666
2024-01-08, 23:22:25
AMD vergleicht die Karte mit einer 2060. Im Vergleich zu dieser hat man deutlich mehr Performance und VRAM.
+2GB VRAM mehr klingen dann nicht mehr so verlockend
bbott
2024-01-08, 23:41:24
AMD vergleicht die Karte mit einer 2060. Im Vergleich zu dieser hat man deutlich mehr Performance und VRAM.
+2GB VRAM mehr klingen dann nicht mehr so verlockend
Lieber nur 4GB mehr, als 4GB weniger. Vorallem wenn 8GB jetzt schon immer wieder nicht reichen :wink:
vinacis_vivids
2024-01-09, 01:12:29
Soweit ich das richtig interpretiert habe , haben 2060 und 7600XT die gleiche MSRP. Und im Steam-Survey sind recht viele Leute mit der 2060 unterwegs. Für diese ist ein Upgrade auf die 7600XT 16GB genau richtig und auch verlockend, geraden wegen den 16GB und mehr Zukunftssicherheit im Gegensatz zum Upgrade zur 4060 8GB.
Leonidas
2024-01-09, 04:11:22
Wo bleibt die 7700 vanilla?
Kann AMD vorerst nicht gebrauchen, wenn man noch 6700XT/6750X zum verkaufen hat. Lohnt sich eventuell auch wirtschaftlich nicht, weil die Ausbeuten zu gut sind und man für eine 7700 vanilla zu viel Silizium deaktiviert.
Shink
2024-01-09, 08:31:00
16GB sind nett, aber in der Klasse auch nicht so wichtig, für höchste Settings und Auflösungen fehlt eh der Bumms, Bandbreite und oder mehr Infinity Cache.
Definitiv. Also... Der Chip ist billig herzustellen; die Ersparnis investiert man wohl in Ram. Quasi ein geistiger Nachfolger der RX5500XT 8GiB.
Ein sinnvolles Produkt ist das eigentlich nicht aber je nachdem, was die Spieleentwickler in nächster Zeit treiben, könnte es eins werden.
dildo4u
2024-01-12, 09:42:25
Gaming-Notebooks: Für AMD Radeon RX 7000M war die CES ein Desaster
https://www.computerbase.de/2024-01/gaming-notebooks-fuer-amd-radeon-rx-7000m-war-die-ces-ein-desaster/
Der Chip der am besten für Notebooks ist fehlt weiterhin absolutes Missmanagement erster Güte.
The_Invisible
2024-01-12, 09:57:55
Definitiv. Also... Der Chip ist billig herzustellen; die Ersparnis investiert man wohl in Ram. Quasi ein geistiger Nachfolger der RX5500XT 8GiB.
Ein sinnvolles Produkt ist das eigentlich nicht aber je nachdem, was die Spieleentwickler in nächster Zeit treiben, könnte es eins werden.
UE5 braucht nicht viel Speicher aber viel Rechenleistung, da kann man selbst eine 4090 in 4k nativ eigentlich vergessen...
dildo4u
2024-01-12, 10:12:32
UE5 braucht nicht viel Speicher aber viel Rechenleistung, da kann man selbst eine 4090 in 4k nativ eigentlich vergessen...
Das hängt vom Game ab für Talos willst du 12GB das geht aber nicht mit dem 128Bit Bus.
https://youtu.be/VPABpqfb7xg?si=cFgu9lnBbZFoXZj3&t=51
basix
2024-01-12, 10:39:43
Talos will nur bei Ultra viel Speicher. Da sprengt es 8GB bereits in 1080p. Sobald du auf High runterdrehst, reichen 8GB auch für 4K.
Andere Spiele gönnen sich fast 16GB, da sind die 10GB oder so von Talos bei 4K/Ultra eigentlich auch nicht sehr viel.
Die UE5 hat durch Nanite und dem zugrundeliegenden Streaming-System (kann man mit Sampler Feedback Streaming von DX12U gleichsetzen, aufgrund Nanite aber Texturen und Geometrie) eine sehr speichereffiziente Umsetzung. Einzig Lumen auf den höchsten Settings ist ein Speicherfresser.
dildo4u
2024-01-12, 10:46:52
Ich wollte nur anmerken das es keine Allgemeine Aussagen für UE5 gibt es macht durchaus Sinn das man für eine PS5 Version über 10GB geht.
Will man die selben Settings am PC nutzten willst du Minium 12GB.
Die 7600XT 16GB mit dem höheren Takt sollte im Bereich der PS5 sein war Performance angeht.
Nightspider
2024-01-12, 14:32:10
Gaming-Notebooks: Für AMD Radeon RX 7000M war die CES ein Desaster
https://www.computerbase.de/2024-01/gaming-notebooks-fuer-amd-radeon-rx-7000m-war-die-ces-ein-desaster/
Der Chip der am besten für Notebooks ist fehlt weiterhin absolutes Missmanagement erster Güte.
So viel zum Thema, RDNA3 wäre keine komplette Enttäuschung.
Man kann nur hoffen das AMD mit Strix Point in die Vollen geht und hohe Stückzahl in den Markt schiebt.
Die Kunden wollen Produkte, die es nicht gibt. Wenn AMD eben nur die Märkte bedient, die hohe Gewinne abwerfen, geht der Marktanteil halt massiv zurück.
Dabei wäre es so einfach gewesen einen kleinen Chip zu entwickeln, der viele Käufer anspricht. Dann hätte AMD nur etwas auf die Gewinnspanne verzichten müssen.
Warum macht man es nicht wie bei Konsolen und produziert einen modernen Chip für Laptops, der gute Idle-Eigenschaften aufweist und nicht total überteuert ist.
Ich hoffe AMD wird mit RDNA4 sehr zeitig einen schnellen und effizienten mobilen Mobile Chip auf den Markt bringen mit einem ordentlichen Preis/-Leistungsverhältnis.
AMD könnte richtig viele Marktanteile holen, wenn Nvidia frühestens ein Jahr später neue mobile Chips bringt. Nvidia hat diesen Markt der günstigen mobilen dGPUs auch immer stiefmütterlich behandelt.
Complicated
2024-01-12, 14:38:33
Ja klar, es ist ja historisch nachgewiesen dass die Adaptionsrate bei ODMs ganz und gar von der Qualität des Produktes abhängt. AMD hat mehr Baustellen im Vertrieb und der Chanel-Betreuung, als auf Ingenieursseite. Hier muss man vielleicht mal die Exklusiv-Deals überdenken und zusätzlich mal mehr Geld in die Hand nehmen, so wie die anderen.
basix
2024-01-12, 17:30:58
Naja, verglichen mit Mobile Lovelace finde ich eine RX 7000M nicht sonderlich attraktiv. Mehr Verbrauch und weniger Features. Wieso sollte hier eine hohe Nachfrage bestehen (abgesehen vom evtl. niedrigen Preis)? Die OEMs wollen ihre Geräte auch verkaufen ;)
BavarianRealist
2024-01-12, 17:32:11
Gaming-Notebooks: Für AMD Radeon RX 7000M war die CES ein Desaster
https://www.computerbase.de/2024-01/gaming-notebooks-fuer-amd-radeon-rx-7000m-war-die-ces-ein-desaster/
Der Chip der am besten für Notebooks ist fehlt weiterhin absolutes Missmanagement erster Güte.
Auch sonst wurde nicht viel von AMD präsentiert. ABER: so eine Messe ist eine Marketing-Veranstaltung. Und Intel supportet neue Plattformen und Modelle Marketingmäßig im Vorfeld ungleich mehr als AMD, denen einfach auch die Leute für sowas fehlen. Meines Erachtens heißt das noch lange nicht, dass nicht auch ebenso AMD-Notebooks kommen, aber mit viel weniger Tamtam.
Was die 7000M-GPUs betrifft: das sind ja nichts Anderes als die schon längst vorhandenen GPUs, die man gerne auch als Notebook-Desings verkaufen würde. Der Entwicklungsaufwand hält sich hierfür in Grenzen, stattdessen müssten die OEMs extra Plattformen für 7000M gestalten und dann mit den Teibern versorgen etc. Aber auch hier denke ich, kann noch viel passieren, letztlich ist es auch eine Sache des Preises. Und so wie ich es sehe, scheint AMD aktuell keinen Druck zu verspüren, dass sie ihr Zeug in den Markt pressen müssen. Mit dem AI-Hype dürfte Hawk-Point meines Erachtens aktuell sowieso das weitaus beste Produkt sein, das die OEM brauchen, ja näher Windows-12 rückt. Und dann kann AMD auch seine 7000M mit verkaufen.
Wenn man Strix und Strix Halo bedenkt ist das auch furzegal, ob man diskrete GPUs ins Notebook bringt. Ab da braucht man das eh kaum noch.
reaperrr
2024-01-13, 00:29:09
Wenn man Strix und Strix Halo bedenkt ist das auch furzegal, ob man diskrete GPUs ins Notebook bringt. Ab da braucht man das eh kaum noch.
Naja... Strix schafft vllt. 50-60% der 7600-Leistung, und Strix Halo-Notebooks werden wg. 256bit SI usw. auch relativ teuer werden und nicht massiv schneller als mobile N33.
Bei RDNA3 ist der Zug natürlich quasi abgefahren, aber von den beiden RDNA4-Chips wird AMD durchaus möglichst viele absetzen wollen, Chipentwicklung geht mit hohen anfänglichen Fixkosten für R&D, Masken usw. einher, grundsätzlich ist da jeder zusätzliche mit etwas Gewinn verkaufte Chip gut.
dildo4u
2024-01-13, 06:46:00
Wenn man Strix und Strix Halo bedenkt ist das auch furzegal, ob man diskrete GPUs ins Notebook bringt. Ab da braucht man das eh kaum noch.
Strix Halo kommt vermutlich erst wenn Nvidia 3nm Mobile GPU hat.
Das ist das Problem wenn so komplexe Chips zu lange brauchen.
Low End RDNA3 könnte man dieses Jahr verkaufen weil Nvidia nur Refreshes hat.
Der Chip wird in 2025 maximal für 1080p taugen und selbst N32 wäre massiv schneller.
40 CU vs 60 7800XT
https://www.computerbase.de/2023-11/amd-ryzen-mobile-mit-zen-5-roadmap-mit-fire-range-strix-halo-kraken-point-und-escher/
vinacis_vivids
2024-01-15, 16:51:41
Hoffentlich klatscht AMD noch den 3D-Cache an den N31XTX, um RDNA3 (N31) noch bissel attraktiver zu machen.
Der Preisunterschied ist mittlerweile marginal:
7950X 535€ -> 7950X3D 559€ +24€
7900X 409€ -> 7900X3D 469€ +60€
N31XTX:
7900XTX 96MB IF$ -> 7950XTX 192MB IF$
2,5Ghz -> 2,75Ghz -> 3,0 Ghz (OC)
20Gbps -> 22Gbps
999 USD -> 1099 USD
N31XT
7900XT 80MB IF$ -> 7950XT 160MB IF$
2,4Ghz -> 2,65Ghz - 2,9 Ghz (OC)
20Gbps -> 22Gbps
899 USD -> 949 USD
Das wäre ein sehr guter Konter gegen die Super-Serie der Konkurrenz und als refresh durchaus denkbar. Das ist wirklich die billigste Möglichkeit, die Leistung zu verbessern ohne großen Aufwand.
Leider hat man sehr lange nichts mehr von den Doppel-Cache-Kloppern gehört, obwohl die Chiplets einst als unschätzbarer Implementierungsvorteil (u. a.) verkauft wurden. Mit den genannten Veränderungen könnte man sich besser von der XTX absetzen als Nvidia mit der 4080S von der 4080.
MfG
Raff
dildo4u
2024-01-15, 17:18:38
Hoffentlich klatscht AMD noch den 3D-Cache an den N31XTX, um RDNA3 (N31) noch bissel attraktiver zu machen.
Der Preisunterschied ist mittlerweile marginal:
7950X 535€ -> 7950X3D 559€ +24€
7900X 409€ -> 7900X3D 469€ +60€
N31XTX:
7900XTX 96MB IF$ -> 7950XTX 192MB IF$
2,5Ghz -> 2,75Ghz -> 3,0 Ghz (OC)
20Gbps -> 22Gbps
999 USD -> 1099 USD
N31XT
7900XT 80MB IF$ -> 7950XT 160MB IF$
2,4Ghz -> 2,65Ghz - 2,9 Ghz (OC)
20Gbps -> 22Gbps
899 USD -> 949 USD
Das wäre ein sehr guter Konter gegen die Super-Serie der Konkurrenz und als refresh durchaus denkbar. Das ist wirklich die billigste Möglichkeit, die Leistung zu verbessern ohne großen Aufwand.
Ich sehe hier schon 400 Watt nix davon attraktiv wenn 4080S wirklich bei 250 Watt laufen.
Erinnert an Intel nur nutzt AMD keine massiv schlechtere Fertigung gegenüber Nvidia.
7900XTX
https://youtu.be/IpwilfBLdJI?si=R-5OETUNvYzRAosK&t=512
https://i.ibb.co/Sf7PysG/RTX4080-SUPER-SPECS.jpg (https://ibb.co/CPsz81D)
mczak
2024-01-15, 18:07:46
Leider hat man sehr lange nichts mehr von den Doppel-Cache-Kloppern gehört, obwohl die Chiplets einst als unschätzbarer Implementierungsvorteil (u. a.) verkauft wurden. Mit den genannten Veränderungen könnte man sich besser von der XTX absetzen als Nvidia mit der 4080S von der 4080.
Ich denke der Chip ist einfach nicht schnell genug als dass er von mehr Cache wirklich gross profitieren könnte (bei Navi 21/22 würde ich schon meinen war der Cache Faktor 2 überdimensioniert). Man muss auch sehen die 7900 XTX schlägt (Rasterizer-performance) gerade mal ganz knapp eine RTX 4800, und die hat sowohl deutlich weniger (20%) Speicherbandbreite wie auch weniger (33%) Cache. Sonderlich bandbreitenlimitiert scheint das also nicht zu sein.
mboeller
2024-01-18, 12:12:05
schau schau, RDNA3 ist nicht überall schlecht:
https://www.notebookcheck.com/Samsung-Galaxy-S24-Benchmarks-vergleichen-ARM-CPU-und-AMD-GPU-des-Exynos-2400-mit-Snapdragon-8-Gen-3.794445.0.html
Die Exynos 2400 GPU kann mit der Snapdragon 8Gen3 GPU mithalten.
;)
Complicated
2024-01-18, 13:41:21
Was mich überrascht ist die lediglich 20% langsamere Performance verglichen mit der iGPU 780m. Das heisst die Smartphones sind fast so schnell wie die Top mobilen iGPUs in Notebooks.
Achill
2024-01-18, 15:48:38
Ich denke der Chip ist einfach nicht schnell genug als dass er von mehr Cache wirklich gross profitieren könnte (bei Navi 21/22 würde ich schon meinen war der Cache Faktor 2 überdimensioniert). Man muss auch sehen die 7900 XTX schlägt (Rasterizer-performance) gerade mal ganz knapp eine RTX 4800, und die hat sowohl deutlich weniger (20%) Speicherbandbreite wie auch weniger (33%) Cache. Sonderlich bandbreitenlimitiert scheint das also nicht zu sein.
Was hat den "nicht schnell genug" mit der Cache-Größe zu tun? Cache Hits vermeiden den Zugriff auf den VRAM, damit stehen Daten schneller bereit, was wiederum die Auslastung erhöhen wird.
Und der L3 Cache auf Navi 21 passt doch. Es gab Informationen von AMD bzgl. Hit-Rate in Abhängigkeit von der Auflösung, da war die große Cache richtig um UHD zu bedienen - daher k.a. wie dieser "Faktor 2 überdimensioniert" ist, ohne diesen hätte es doch eine breitere Anbindung an den VRAM gebraucht, mehr Kosten, mehr Energie usw ...
Der_Korken
2024-01-18, 16:49:38
Was hat den "nicht schnell genug" mit der Cache-Größe zu tun? Cache Hits vermeiden den Zugriff auf den VRAM, damit stehen Daten schneller bereit, was wiederum die Auslastung erhöhen wird.
Und der L3 Cache auf Navi 21 passt doch. Es gab Informationen von AMD bzgl. Hit-Rate in Abhängigkeit von der Auflösung, da war die große Cache richtig um UHD zu bedienen - daher k.a. wie dieser "Faktor 2 überdimensioniert" ist, ohne diesen hätte es doch eine breitere Anbindung an den VRAM gebraucht, mehr Kosten, mehr Energie usw ...
Der Cache erhöht durch seine Hitrate den effektiven Durchsatz zum Speicher. Wenn der sowieso schon zu groß dimensioniert ist im Verhältnis zur Rechenleistung, dann ist der Chip eben "nicht schnell genug" für einen größeren Cache (so dass es sich irgendwie lohnt).
][immy
2024-01-18, 17:17:13
Leider hat man sehr lange nichts mehr von den Doppel-Cache-Kloppern gehört, obwohl die Chiplets einst als unschätzbarer Implementierungsvorteil (u. a.) verkauft wurden. Mit den genannten Veränderungen könnte man sich besser von der XTX absetzen als Nvidia mit der 4080S von der 4080.
MfG
Raff
Na ich weiß nicht. AMD hatte doch mal eine Grafik wo man sah, wie mit steigendem Cache die Performance hoch ging, aber ab einem bestimmten level dann stagnierte.
Zudem ist das vermutlich nicht das Problem der RDNA3 Architektur. Die Arch säuft ja jetzt schon, ich will dann nicht wissen, wie RDNA3 erst säuft sollte sich der Cache tatsächlich als Glücksgriff erweisen und der Chip durcharbeiten könnte. Gut, kann natürlich auch durch weniger Frequenz kompensiert werden, die dann dafür effizienter ist. Aber eigentlich hat man ja schon einen recht großen Cache.
Achill
2024-01-18, 18:40:16
Der Cache erhöht durch seine Hitrate den effektiven Durchsatz zum Speicher. Wenn der sowieso schon zu groß dimensioniert ist im Verhältnis zur Rechenleistung, dann ist der Chip eben "nicht schnell genug" für einen größeren Cache (so dass es sich irgendwie lohnt).
Es wird "Erhöhung der effektiven Bandbreite" leider auch in den Medien oder vom Marketing verwendet. Dies ist aber nur einer von mehreren Effekten.
Eine Cache, egal ob in HW oder SW, hat eine oder mehrere Effekte:
- Ist der Zugriff auf den VRAM energetisch aufwändiger als auf die Cache, dann ergibt sich ein Verbrauchsvorteil
- Ist der Zugriff auf den VRAM langsamer als auf die Cache, dann ergibt sich ein Latzen-Vorteil
- Ist die Bandbreite zum VRAM geringer als Cache, dann ergibt sich ein Bandbreitenvorteil
Dies gilt natürlich nur, sofern die Daten in der Cache vorliegen. Ob dies der Fall ist, hängt ab von:
- Größe der Cache im Vergleich zur Menge und Granularität benötigten Daten
- Zugriffsmuster auf benötigte Daten (abhängig von Anwendung/Spiel)
=> Eine gewisse Hit-Rate ist ja nicht garantiert sondern nur ein Durchschnitt. Eine große Cache erhöht die Wahrscheinlichkeit der Hits. Durch die Weiterentwicklung / Änderung von Anwendungen/Spielen oder aktiver Konstruktion von ungünstigen Bedingungen durch Dritte kann sich dies aber später ändern. Ein ökonomisch sinnvoller Puffer macht also ggf. auch noch Sinn ...
mczak
2024-01-18, 19:03:27
Was hat den "nicht schnell genug" mit der Cache-Größe zu tun? Cache Hits vermeiden den Zugriff auf den VRAM, damit stehen Daten schneller bereit, was wiederum die Auslastung erhöhen wird.
Wäre der Chip schneller bräuchte er mehr effektive Bandbreite und würde daher mehr von einem grösseren Cache profitieren. Aber klar mehr Cache würde sicher etwas bringen, aber es fragt sich halt wieviel, und da denke ich eben der Effekt wäre marginal. Nvidia zeigt ja dass diese Performance auch mit noch deutlich weniger Bandbreite und Cache geht, und allzuviel effizienter wird die Architektur diesbezüglich wohl auch nicht sein.
Und der L3 Cache auf Navi 21 passt doch. Es gab Informationen von AMD bzgl. Hit-Rate in Abhängigkeit von der Auflösung, da war die große Cache richtig um UHD zu bedienen - daher k.a. wie dieser "Faktor 2 überdimensioniert" ist, ohne diesen hätte es doch eine breitere Anbindung an den VRAM gebraucht, mehr Kosten, mehr Energie usw ...
Ich sage nicht dass der grössere Cache nichts bringt, aber der ist natürlich auch nicht gratis. Ein N21 mit halbem Cache wäre schon ein Stück kleiner gewesen, und hätte wohl so (Achtung, reine Schätzung...) 5% verloren? Da muss man sich halt fragen ob sich das wirklich lohnt (und so wie's aussieht kam eben bei N31 AMD zum Schluss dass sich das nicht lohnt).
Bei N22 würde ich hingegen schon meinen dass die 96MB IC (statt 48MB) keine gute Wahl waren. Der Chip ist gegenüber N23 über 50% grösser, und erreicht trotz dem dreifachen Cache und 50% mehr Speicherbandbreite als N23 auch bloss knapp mehr als die 25% Mehrperformance die der mehr reine Rechenleistung hat (und klar die Performance skaliert nicht mit reiner Rechenleistung, aber die 30-40% die man da sieht sind eben ziemlich wenig insgesamt). Auch mit 48MB IC hätte man ja gegenüber N23 ein höheres Verhältnis von Cache und Speicherbandbreite im Vergleich zur Rechenleistung, das sollte dann locker auch für QHD statt FHD reichen.
So wie ich das sehe war AMD da bei N21/N22 einfach vorsichtig weil das die ersten "bandbreitenreduzierten" (zugunsten eines grossen Caches) Chips waren, und hat das dann bei N31x korrigiert (N23,N24,N3x haben alle effektiv 16MB IC pro 64bit SI). Klar dank der separaten MCD könnte man doppelt so grossen IC bei N31 und N32 einfach realisieren, aber es bringt einfach zuwenig also verzichtet man darauf.
basix
2024-01-18, 19:49:23
Was mich überrascht ist die lediglich 20% langsamere Performance verglichen mit der iGPU 780m. Das heisst die Smartphones sind fast so schnell wie die Top mobilen iGPUs in Notebooks.
Ja, erstaunlich bei 6 CU vs. 12 CU. Und letztere darf bis 2.8 GHz takten.
Achill
2024-01-18, 19:49:59
Wäre der Chip schneller bräuchte er mehr effektive Bandbreite und würde daher mehr von einem grösseren Cache profitieren. Aber klar mehr Cache würde sicher etwas bringen, aber es fragt sich halt wieviel, und da denke ich eben der Effekt wäre marginal. Nvidia zeigt ja dass diese Performance auch mit noch deutlich weniger Bandbreite und Cache geht, und allzuviel effizienter wird die Architektur diesbezüglich wohl auch nicht sein.
Ich sage nicht dass der grössere Cache nichts bringt, aber der ist natürlich auch nicht gratis. Ein N21 mit halbem Cache wäre schon ein Stück kleiner gewesen, und hätte wohl so (Achtung, reine Schätzung...) 5% verloren? Da muss man sich halt fragen ob sich das wirklich lohnt (und so wie's aussieht kam eben bei N31 AMD zum Schluss dass sich das nicht lohnt).
Bei N22 würde ich hingegen schon meinen dass die 96MB IC (statt 48MB) keine gute Wahl waren. Der Chip ist gegenüber N23 über 50% grösser, und erreicht trotz dem dreifachen Cache und 50% mehr Speicherbandbreite als N23 auch bloss knapp mehr als die 25% Mehrperformance die der mehr reine Rechenleistung hat (und klar die Performance skaliert nicht mit reiner Rechenleistung, aber die 30-40% die man da sieht sind eben ziemlich wenig insgesamt). Auch mit 48MB IC hätte man ja gegenüber N23 ein höheres Verhältnis von Cache und Speicherbandbreite im Vergleich zur Rechenleistung, das sollte dann locker auch für QHD statt FHD reichen.
So wie ich das sehe war AMD da bei N21/N22 einfach vorsichtig weil das die ersten "bandbreitenreduzierten" (zugunsten eines grossen Caches) Chips waren, und hat das dann bei N31x korrigiert (N23,N24,N3x haben alle effektiv 16MB IC pro 64bit SI). Klar dank der separaten MCD könnte man doppelt so grossen IC bei N31 und N32 einfach realisieren, aber es bringt einfach zuwenig also verzichtet man darauf.
Ich denke nicht, dass es nur 5% sind und es ist Kern deiner Argumentation (eine Kosten (Platz) zu Nutzenargumentation). Auch in wie fern eine Halbierung sinnvoll ist, wird wieder unter der impliziten Annahme der 5% betrachtet.
Nun haben wir bei GPUs kein Gegenstück ohne Cache, da sich aber die Aufgaben von CPU und GPU annähern, kann man m.E. gewisse Ableitungen bei CPUs machen. Also 5800X und 5800X3D sowie 7800X und 7800X3D ... und situativ gibt es starke Steigerungen und/oder Effizenzvorteile.
Wie auch in andere Threads geschrieben, so denke ich, dass AMD wie auch NV genügend kluge Köpfe hat um Simulationen vorab durchzuführen und das optimum für die Lebenszeit, Kosten, ... und anderen Kriterien zu finden.
w0mbat
2024-02-04, 19:23:54
Weiß hier jemand wie groß die Interposer bei Navi31/32 jeweils sind?
robbitop
2024-02-04, 19:45:14
Weiß hier jemand wie groß die Interposer bei Navi31/32 jeweils sind?
Da gibts keinen Interposer. Das ist INFO-R. Die Fanouts sind auf dem organischen Package.
w0mbat
2024-02-04, 20:18:56
Es gibt vielleicht keinen Si-Interposer, aber auf jeden Fall einen organischen RDL mit 4-layer fan-out. Das ist auch ein Interposer.
robbitop
2024-02-04, 21:05:25
Dann macht die Frage wie groß dieser sei aber keinen Sinn?
w0mbat
2024-02-04, 21:49:55
Naja, ein fan-out RDL vergrößert ja quasi die I/O-Fläche eines Chips und ermöglicht mehr interconnects als auf dem normalen floorplan. Es wird "ausgefächert". Ich wüsste gerne, wie weit "gefächert" wird :D
reaperrr
2024-02-04, 23:55:28
Ich sage nicht dass der grössere Cache nichts bringt, aber der ist natürlich auch nicht gratis. Ein N21 mit halbem Cache wäre schon ein Stück kleiner gewesen, und hätte wohl so (Achtung, reine Schätzung...) 5% verloren?
In 4K - was die Zielauflösung für N21 war - wären es definitiv mehr als 5%.
In 4K wäre die Cache-Hit-Rate mit 64 MB wesentlich niedriger, dann hätte auch das 256bit SI stärker gebremst.
Die schmaleren Caches von N23 und N24 haben auch nichts mit "Erkennen eines Fehlers" zu tun.
AMD hat den Mix aus IF$-Größe und VRAM-Bandbreite bei N21-23 jeweils auf eine bestimmte Auflösung ausgelegt, N21 für 4K, N22 für 1440p, N23 für 1080p.
FullHD sind nur 1/4 der Pixel von 4K, das SI von N23 ist aber halb so breit wie das von N21, weswegen die Cach-Hitrate von 32MB hier ausreichend war.
Bei N22 wären zwar 48MB wahrscheinlich genug gewesen, aber ich vermute, dass man den wahrscheinlich aus Designkosten- und Time-to-Market-Gründen aus N21 zusammengeschnitten hat (eine Hälfte der SE und 1/4 des Cache/Speicher-Subsystems entfernt) und deshalb möglicherweise auf grundsätzlich eigentlich sinnvolle Perf-pro-mm² Änderungen wie Halbierung des IF$ je SI oder 8 zusätzliche CUs verzichtet hat.
Und bei N24 ging's einfach nur um "billig", weshalb man schlicht N23 halbiert hat.
Bei N31 lag der Fall generell etwas anders: Durch verbesserte DCC (erstmals durch komplette Pipeline hindurch), verdoppelte L0-Caches, verdoppelte Global-L1-Caches je SE und 50% mehr L2 für nur 20% mehr CUs ist der Bandbreitendruck schon etwas niedriger, bevor es überhaupt zum IF$ oder VRAM geht.
Und wegen dem 50% breiteren SI + schnelleren Speicher hat z.B. ne 79XTX schon satte 87,5% mehr VRAM-Bandbreite als eine 6900 XT für nur 35-50% mehr Raster-Leistung, da fallen 32 MB weniger IF$ und die resultierenden häufigeren VRAM-Zugriffe dann nicht so sehr ins Gewicht.
Zumal der off-Die IF$ im N6-MCD wohl auch weniger energetische Vorteile bietet als der on-Die IF$ auf N21.
Generell steht N31, wenn man die Dual-Issue FLOPs mal ignoriert und nur nach CUs geht, in Sachen Bandbreite bereits ohne stacked IF$ besser da, als das bei N21 der Fall war. Deshalb ist es unwahrscheinlich, dass zusätzliche IF$-Stacks sonderlich viel bringen würden.
Hätte N31 die anvisierten Takt- und IPC-Ziele erreicht, wäre das was anderes gewesen, dann wäre der Bandbreitenbedarf höher gewesen und man hätte für die 7900 XTX mehr Geld verlangen und somit auch für die letzten paar Prozentpunkte Leistung eine Verdoppelung des IF$ rechtfertigen können.
amdfanuwe
2024-02-05, 00:02:00
Ich wüsste gerne, wie weit "gefächert" wird :D
So weit bis alle Interconnects drauf passen ( bei der Auffächerung ).
Wenn, wie bei N31/N32, mehrere Chips drauf gesetzt werden, muss es im Minimum so groß sein, dass alle Chips drauf passen. Bringt ja nichts, wenn die teilweise in der Luft hängen.
https://www.tsmc.com/sites/dcom/inline-images/InFO_oS.png
https://www.tsmc.com/english/dedicatedFoundry/technology/InFO
Ist nicht so, dass nur der GCD ein FO Package erhält und die GCDs werden nachträglich aufgesetzt.
Da werden alle Chips fixiert und dann das FO Substrat aufgetragen oder umgekehrt erst der FO-Layer auf einem Träger erstellt und anschließend die Chips aufgesetzt.
w0mbat
2024-02-05, 00:06:09
Also ein großer RDL oder pro MCD ein kleiner?
amdfanuwe
2024-02-05, 00:16:47
Also ein großer RDL oder pro MCD ein kleiner?
Ein Großer. Wie soll das sonst funktionieren?
Der RDL ist ja nichts anderes als ein Interposer, nur dass er nicht aus Silizium besteht.
Vielleicht hilft auch folgendes:
https://www.anandtech.com/show/16051/3dfabric-the-home-for-tsmc-2-5d-and-3d-stacking-roadmap
w0mbat
2024-02-05, 00:25:03
Naja, man könnte sich je MCD einen kleinen interposer vorstellen (ähnlich LSI bzw. EFOB). Ich bin mir halt nicht 100% sicher, daher frage ich.
amdfanuwe
2024-02-05, 02:27:59
Ach so. Hab ich noch nichts davon gelesen. Denke auch, es ist billiger gleich die ganze Fläche zu bearbeiten als kleine Stückchen zu positionieren, einzubetten und die "normalen" Pins durchzuleiten.
https://images.anandtech.com/doci/16031/Advanced%20Packaging%20Technology%20Leadership.mkv_snapshot_11.38_%5B2020.08.25_ 14.14.11%5D.jpg
Kommt halt immer darauf an, welche Pin/Layer Dichte man braucht.
Also ich denke, es ist nichts anderes als InFO_oS.
Wollte man bei MI300 ja auch verwenden, gab aber wohl Probleme bei der Größe weshalb es dann ein Silizium Interposer wurde.
Das lässt aber Hoffen, das bei kleineren Chips durchaus noch was ähnliches mit der billigeren InFO_oS Technik kommt.
robbitop
2024-02-05, 07:11:45
Naja, ein fan-out RDL vergrößert ja quasi die I/O-Fläche eines Chips und ermöglicht mehr interconnects als auf dem normalen floorplan. Es wird "ausgefächert". Ich wüsste gerne, wie weit "gefächert" wird :D
Gut rausgeredet. ;)
w0mbat
2024-02-05, 10:10:22
Ich muss mir die Sachen echt immer 10x durchlesen, bevor ich sie verstehe. Und dann fangen die Fragen erst an. Aber ich glaube, so langsam verstehe ich InFO_oS/R bzw. die Technik hinter den RDNA3 chiplets.
basix
2024-02-05, 17:09:07
RDNA 3.5 LLVM Changes analysiert:
https://chipsandcheese.com/2024/02/04/amd-rdna-3-5s-llvm-changes/
dildo4u
2024-02-05, 17:19:33
Klingt alles gut verstehe aber immer noch nicht wie das ein 2024 Produkt sein soll wenn Desktop Zen 5 erst Ende 24 kommt.
Für mich ist das ein CES Konter zu Blackwell Notebooks.
basix
2024-02-05, 17:30:24
Zen 5 war für ein Release Q2/2024 angepeilt worden (so über lange Zeit die Gerüchte), rutscht jetzt aber anscheinend nach Q3/2024. Die Cores sind ja schon fertig, es braucht aber anscheinend noch ein neues Stepping. Ich wüde jetzt vermuten, dass Strix ebenfalls um +3m nach hinten rutscht, ist aber nicht zwingend. Kann auch einfach ein Problem im Zen 5 CCD sein.
Gipsel
2024-02-05, 19:24:42
RDNA 3.5 LLVM Changes analysiert:
https://chipsandcheese.com/2024/02/04/amd-rdna-3-5s-llvm-changes/Die dortige Beschreibung der Funktionalität der s_singleuse_vdst Instruktion ist nicht ganz korrekt.
Up to RDNA 3, the register cache is managed entirely in hardware. RDNA 3.5 changes this by adding a single VGPR use hint instruction, s_singleuse_vdst. That instruction indicates the subsequent instruction’s inputs will not be reused, and thus caching the operands in the register cache won’t be beneficial. It’s a pretty blunt tool, and seems to apply to all operands in one go.
Der als skalare Instruktion "getarnte" Hint an die Hardware weist sie nicht an, Vektor-Quellregister nicht zu cachen, sondern das Vektor-Zielregister gar nicht ins Registerfile zu schreiben, falls das Ergebnis an die Nachfolgeinstruktion forwarded werden kann (s_singleuse_vdst, vdst steht für "vector destination"). Siehe Beschreibung im LLVL Sourcecode:
Insert s_singleuse_vdst instructions on GFX11.5+ to mark regions of VALU instructions that produce single-use VGPR values. If the value is forwarded to the consumer instruction prior to VGPR writeback, the hardware can then skip (kill) the VGPR write.
Der Effekt ist aber im Prinzip ähnlich wie von Chips and Cheese beschrieben: Man spart Registerfile-Bandbreite (bzw. nutzt die vorhandene effizienter), so daß es weniger häufig wegen fehlender Registerbandbreite stalled.
Aber gut finde ich, daß da mal steht, daß RDNA wirklich nur 4 Bänke an single ported register files in einer CU hat. Woanders wird ja häufig etwas von irgendwelchem multiported Kram fantasiert.
mksn7
2024-02-05, 20:09:33
Belegen solche Instruktionen mit "s_" prefix wie s_singleuse_vdst oder s_delay_alu wirklich einen scalar unit execution issue, oder ist das nur eine Methode zusätzliche scheduling infos zu encoden und werden nicht wirklich an die scalar unit geissued?
Die scalar units dürften eher unterausgelastet sein, daher wäre es jetzt nicht so schlimm.
Gipsel
2024-02-05, 21:26:20
Belegen solche Instruktionen mit "s_" prefix wie s_singleuse_vdst oder s_delay_alu wirklich einen scalar unit execution issue, oder ist das nur eine Methode zusätzliche scheduling infos zu encoden und werden nicht wirklich an die scalar unit geissued?Die anderen dieser "Verwaltungs-Instruktionen" werden intern im Scheduler verarbeitet, belegen also keinen Ausführungsslot (war schon bei GCN so). Das belegt quasi nur Platz im I$-Cache und den Instruction-Buffern der CU. Ich würde doch mal ganz stark vermuten, daß das hier auch der Fall ist.
basix
2024-02-05, 22:29:54
Auch noch interessant zu den Registern bzw. Bank Conflicts: AMD Patent für Register-Renaming auf der GPU
DYNAMIC REGISTER RENAMING IN HARDWARE TO REDUCE BANK CONFLICTS IN PARALLEL PROCESSOR ARCHITECTURES
https://forum.beyond3d.com/threads/rdna4.63484/post-2327564
Und mal ein Update zum Chiplet Ansatz:
MULTI-ACCELERATOR COMPUTE DISPATCH
https://patentscope.wipo.int/search/en/detail.jsf?docId=US420409866&_cid=P10-LS9G6J-41289-1
OgrEGT
2024-02-06, 08:40:00
(...)
Und mal ein Update zum Chiplet Ansatz:
https://patentscope.wipo.int/search/en/detail.jsf?docId=US420409866&_cid=P10-LS9G6J-41289-1
Da geht es um Transparenz gegenüber dem Command Prozessor dass der weiß wann die Workgroups die über mehrere Chiplets verteilt wurden completed sind.
Wie man allerdings den Command Prozessor über mehrere Chiplets shared bleibt die Frage wenn es denn das ist was geplant ist... vielleicht sitzt der ja auch auf einer Art Interposer auf dem die GCD-CU Chiplets sitzen... wird aber vom Verdrahtungsaufwand immens sein...
][immy
2024-02-06, 11:45:26
Das ganze spricht deutlich dafür, das sie an der Effizienz arbeiten, die sich mit rdna3 gefühlt verschlechtert hat (zumindest ist sie kaum besser geworden).
Bin mal gespannt was sie damit reißen können l. Ggfs. wird es ja ein zen+ Moment, was dann für rdna4 gut wäre.
robbitop
2024-02-06, 11:49:17
Aus LLVM Patches kann man über die uArch und dessen Implementierung so gut wie gar nichts erfahren. Da geht es eher um Änderungen der ISA.
Also kann man in Bezug auf zukünftige Performance und Effizienz kaum Schlüsse ziehen.
Wenn das anders wäre, würden die IHVs nicht so lange vor dem Release einreichen. ;) (z.T gibt es LLVM Patches schon >1 Jahr vor release eines Produktes).
fondness
2024-02-16, 17:17:10
Hier zeigt sich mal wieder, dass die mobile GPU Hersteller auch nur mit Wasser kochen. Die von vielen in diesem Forum als "Perf/Watt-Fail" betitelte RDNA3 GPU ist in einem Smartphone(!) absolut konkurrenzfähig:
https://www.computerbase.de/2024-02/samsung-galaxy-s24-test/#abschnitt_fazit
Und das auf einem Samsung Fertigungsprozess gegen die TSMC Konkurrenz von Apple und Qualcomm!
robbitop
2024-02-16, 18:23:19
Das ist eine sehr positive Überraschung. :up: Der Vorgänger war ja nicht so überzeugend.
Troyan
2024-02-16, 18:24:01
Hier zeigt sich mal wieder, dass die mobile GPU Hersteller auch nur mit Wasser kochen. Die von vielen in diesem Forum als "Perf/Watt-Fail" betitelte RDNA3 GPU ist in einem Smartphone(!) absolut konkurrenzfähig:
https://www.computerbase.de/2024-02/samsung-galaxy-s24-test/#abschnitt_fazit
Und das auf einem Samsung Fertigungsprozess gegen die TSMC Konkurrenz von Apple und Qualcomm!
Aha. Auf dem Level eines SoCs vom letzten Jahr. Beeindruckend. :freak:
Hier der richtige S24 Vergleich: https://youtu.be/-eTSRngwAK0?t=126
40% schneller ist das S24 mit Snapdragon...
woodsdog
2024-02-17, 08:25:18
Aha. Auf dem Level eines SoCs vom letzten Jahr. Beeindruckend. :freak:
Hier der richtige S24 Vergleich: https://youtu.be/-eTSRngwAK0?t=126
40% schneller ist das S24 mit Snapdragon...
Darfst deinen AMD Hate-Boner gerne stecken lassen und lesen lernen.
Perf/Watt != Performance und das ist auch nicht das Top Model.
Bei Apple ists auch egal ob die Non-Pros das "alte Zeug" vom vorjahr bekommen.
reaperrr
2024-02-17, 08:49:34
Perf/Watt != Performance und das ist auch nicht das Top Model.
Zumal mindestens ein wesentlicher Teil des Perf/W-Nachteils auf den Herstellungsprozess zurückgehen dürfte und weniger mit RDNA3 zu tun hat.
fondness
2024-03-21, 15:28:51
Die RDNA3.5-Architektur (bzw. "GFX115X" series) in Strix Point heißt jetzt wohl offiziell RDNA3+
https://wccftech.com/amd-confirms-rdna-3-plus-gpu-architecture-2024-coming-strix-point-apus-xdna-2-npu/
madzapp
2024-05-16, 11:01:22
Hi,
falls hier noch jemand reinguckt. Kennt jemand Spieletests wo high oder medium Settings mit RT getestet wurde?
Also wie und ob die FPS mit reduzierten Settings trotz gleichen RT-Einstellungen steigen.
dildo4u
2024-07-15, 15:44:30
Infos zu 3.5 vom Tech Day
https://i.ibb.co/zQcM052/18-1280-58bdb7b0.png (https://ibb.co/dj9Tzcp)
https://i.ibb.co/3T4201V/19-1280-9aff247b.png (https://ibb.co/yNdt80K)
https://i.ibb.co/Mg4Z9Jg/20-1280-15fe5bad.png (https://ibb.co/K5kbm85)
https://www.computerbase.de/2024-07/amd-ryzen-9000-strix-point-zen-5/
MSABK
2024-07-15, 16:01:54
Hmm, word wohl kein Rdna 3.5 im Desktop geben wie es aussieht.
aufkrawall
2024-07-15, 16:13:51
Zumindest (vermutlich) in den nicht-monolithischen "APUs" nicht. Aber deren Grafik ist ja eh viel zu langsam für irgendwas.
robbitop
2024-07-15, 16:58:04
Infos zu 3.5 vom Tech Day
https://i.ibb.co/zQcM052/18-1280-58bdb7b0.png (https://ibb.co/dj9Tzcp)
https://i.ibb.co/3T4201V/19-1280-9aff247b.png (https://ibb.co/yNdt80K)
https://i.ibb.co/Mg4Z9Jg/20-1280-15fe5bad.png (https://ibb.co/K5kbm85)
https://www.computerbase.de/2024-07/amd-ryzen-9000-strix-point-zen-5/
Nicht besonders beeindruckend auf den ersten Blick. War ja aber irgendwie auch klar nachdem es noch die „3“ bei rdna ist.
Immerhin gibt es laut der Beschreibung bessere Kompression und weniger Speicherzugriffe. Ggf hat man auch einfach den L2 Cache mal wieder vergrößert
fondness
2024-07-15, 17:50:54
Nicht besonders beeindruckend auf den ersten Blick. War ja aber irgendwie auch klar nachdem es noch die „3“ bei rdna ist.
Immerhin gibt es laut der Beschreibung bessere Kompression und weniger Speicherzugriffe. Ggf hat man auch einfach den L2 Cache mal wieder vergrößert
Im selben Fertigungsprozess 19-32% mehr Perf/Watt bei 15W TDP vs. Hawk Point ist so schlecht nicht ;). Wie viele GPU-Architekturen schaffen das sonst so? Ich finde es spannend, dass sie das anscheinend von Samsung gelernt haben bei der Kooperation mit den Smartphone-SoCs.
Nightspider
2024-07-15, 18:03:29
Die GPU ist ja auch 33% größer.
fondness
2024-07-15, 18:05:42
Die GPU ist ja auch 33% größer.
Bei >30W TDP wäre das ein Argument, bei 15W taktet beides extrem niedrig und das ist IMO vernachlässigbar.
dildo4u
2024-07-15, 18:13:57
Sie geben die Krone ab?Intel sagt +50% sind möglich mit Lunar Lake.
AMD eigene Benchmarks sehen nur + 33% für Strix vs Meteor Lake.
fondness
2024-07-15, 18:32:58
Nein. Intel vergleicht bei niedrigen TDP-Werten wo Meteor Lake völlig wegbricht, AMD bei 45W.
robbitop
2024-07-15, 19:00:56
Im selben Fertigungsprozess 19-32% mehr Perf/Watt bei 15W TDP vs. Hawk Point ist so schlecht nicht ;). Wie viele GPU-Architekturen schaffen das sonst so? Ich finde es spannend, dass sie das anscheinend von Samsung gelernt haben bei der Kooperation mit den Smartphone-SoCs.
Naja breiter heißt weniger Takt für gleiche Leistung. Takt kostet überproportional Leistungsaufnahme. Breite nicht.
Außerdem muss man auch erstmal schauen in welchem TDP Bereich es viel besser wird. Ab einem bestimmten Bereich wird die Radeon 780M pro W TDP kaum noch schneller. Da bringen mehr CUs schon was.
reaperrr
2024-07-15, 19:45:20
Naja breiter heißt weniger Takt für gleiche Leistung. Takt kostet überproportional Leistungsaufnahme. Breite nicht.
Außerdem muss man auch erstmal schauen in welchem TDP Bereich es viel besser wird. Ab einem bestimmten Bereich wird die Radeon 780M pro W TDP kaum noch schneller. Da bringen mehr CUs schon was.
Die 780M hing aber schon relativ hart im Bandbreitenlimit, und normalerweise bringt mehr GPU-Takt auch deutlich mehr als zusätzliche CUs.
Außerdem spricht der Leistungszuwachs eher gegen nennenswerte Taktreduktion unter Last.
Aus 33% mehr CUs im gleichen Prozess auch tatsächlich 20-30% mehr Leistung rauszuholen ist wesentlich mehr, als man von so einem kleinen Architektur-Update normalerweise erwarten kann.
Das ist tatsächlich zumindest in diesen niedrigen Watt-Bereichen scheinbar nicht so weit weg vom RDNA1->RDNA2-Sprung.
Das ist ein größerer Leistungs- und Perf/W-Sprung als von 680M zu 780M, obwohl Phoenix immerhin N4P und Rembrandt nur N6 ist.
The_Invisible
2024-07-15, 20:09:06
Mark Cerny hat sich bei der PS5 ja extra für mehr Takt bei weniger CUs entschieden wegen angeblich besserer chipinterner Latenz.
Anscheinend alles nicht so einfach
basix
2024-07-15, 20:21:17
...und es ist billiger ;)
robbitop
2024-07-15, 20:38:16
Die 780M hing aber schon relativ hart im Bandbreitenlimit, und normalerweise bringt mehr GPU-Takt auch deutlich mehr als zusätzliche CUs.
Außerdem spricht der Leistungszuwachs eher gegen nennenswerte Taktreduktion unter Last.
Aus 33% mehr CUs im gleichen Prozess auch tatsächlich 20-30% mehr Leistung rauszuholen ist wesentlich mehr, als man von so einem kleinen Architektur-Update normalerweise erwarten kann.
Das ist tatsächlich zumindest in diesen niedrigen Watt-Bereichen scheinbar nicht so weit weg vom RDNA1->RDNA2-Sprung.
Das ist ein größerer Leistungs- und Perf/W-Sprung als von 680M zu 780M, obwohl Phoenix immerhin N4P und Rembrandt nur N6 ist.
Wir müssen erstmal abwarten welche Bedingungen da vorherrschen. Wurde mit gleichem Speicher verglichen? Wurde in einem TDP Bereich verglichen wo Breite doch was bringt (zB bei sehr niedrigen TDPs fährt man die Bandbreite doch nicht aus)? Wurde
mit gleicher TDP verglichen? Wurde sie TDP Definition wieder geändert? (thephawx hat gezeigt wie sich das gen over gen bei mehren AMD APUs geändert wurde so dass mit gleicher tdp Einstellung eine APU iirc 2 W mehr zur Verfügung hatte).
Thephawx wird da schon einen guten Vergleich bauen - da bin ich mir sicher. :)
robbitop
2024-07-15, 20:42:20
Mark Cerny hat sich bei der PS5 ja extra für mehr Takt bei weniger CUs entschieden wegen angeblich besserer chipinterner Latenz.
Anscheinend alles nicht so einfach
Es wird immer das schön geredet was man gerade hat und das schlecht geredet was man nicht hat.
Einführung von SMT: SMT ist super und ein Fortschritt. LL hat kein SMT mehr: kein SMT ist super und die Entfernung ist ein Fortschritt X-D
Fusion_Power
2024-07-15, 20:43:14
Die 780M hing aber schon relativ hart im Bandbreitenlimit, und normalerweise bringt mehr GPU-Takt auch deutlich mehr als zusätzliche CUs.
Außerdem spricht der Leistungszuwachs eher gegen nennenswerte Taktreduktion unter Last.
Aus 33% mehr CUs im gleichen Prozess auch tatsächlich 20-30% mehr Leistung rauszuholen ist wesentlich mehr, als man von so einem kleinen Architektur-Update normalerweise erwarten kann.
Das ist tatsächlich zumindest in diesen niedrigen Watt-Bereichen scheinbar nicht so weit weg vom RDNA1->RDNA2-Sprung.
Das ist ein größerer Leistungs- und Perf/W-Sprung als von 680M zu 780M, obwohl Phoenix immerhin N4P und Rembrandt nur N6 ist.
Vor allem krankts im mobilen iGPU Bereich ehr am schnellen RAM, zumindest wenn der noch gesockelt sein soll. die SO-DIMMs sind am Limit. Vielleicht setzt sich ja CAMM2 irgend wann durch. Sonst bleibt nur verlöteter DDR5 RAM wenns bissl flotter sein soll für die iGPU.
fondness
2024-07-15, 23:04:09
Wir müssen erstmal abwarten welche Bedingungen da vorherrschen. Wurde mit gleichem Speicher verglichen? Wurde in einem TDP Bereich verglichen wo Breite doch was bringt (zB bei sehr niedrigen TDPs fährt man die Bandbreite doch nicht aus)? Wurde
mit gleicher TDP verglichen? Wurde sie TDP Definition wieder geändert? (thephawx hat gezeigt wie sich das gen over gen bei mehren AMD APUs geändert wurde so dass mit gleicher tdp Einstellung eine APU iirc 2 W mehr zur Verfügung hatte).
Thephawx wird da schon einen guten Vergleich bauen - da bin ich mir sicher. :)
Sorry aber liest du die Folie nicht bevor du darüber schreibst? Da wurden praktisch alle deine Fragen beantwortet.
Nightspider
2024-07-15, 23:14:12
Aus 33% mehr CUs im gleichen Prozess auch tatsächlich 20-30% mehr Leistung rauszuholen ist wesentlich mehr, als man von so einem kleinen Architektur-Update normalerweise erwarten kann.
Leistung ist aber eine andere Metrik als Leistung/Watt.
Die Begrenzung auf beispielsweise 15W schiebt bei einer größeren GPU automatisch den Effizienz-Graphen in Richtung Sweetspot, wodurch sich schneller größere Differenzen erreichen lassen. Denn die Spannung geht quadratisch in die Gleichung ein.
Das ist tatsächlich zumindest in diesen niedrigen Watt-Bereichen scheinbar nicht so weit weg vom RDNA1->RDNA2-Sprung.
Das ist ein größerer Leistungs- und Perf/W-Sprung als von 680M zu 780M, obwohl Phoenix immerhin N4P und Rembrandt nur N6 ist.
680M und 780M haben beide die gleiche Anzahl an Shadereinheiten und RDNA3 ist kaum besser als RDNA3. So what?
robbitop
2024-07-16, 07:21:45
Sorry aber liest du die Folie nicht bevor du darüber schreibst? Da wurden praktisch alle deine Fragen beantwortet.
Da steht nur 15W. Aber nicht welcher RAM, nicht ob wieder die TDP Definition geändert wurde. Da wurde fast gar nichts beantwortet.
robbitop
2024-07-16, 07:26:03
Leistung ist aber eine andere Metrik als Leistung/Watt.
Die Begrenzung auf beispielsweise 15W schiebt bei einer größeren GPU automatisch den Effizienz-Graphen in Richtung Sweetspot, wodurch sich schneller größere Differenzen erreichen lassen. Denn die Spannung geht quadratisch in die Gleichung ein.
Genauso ist es. Will man den uArch Vorteil messen, müsste man die 12 CU cutdown Version nehmen und gegen 780M benchmarken. Und sicherstellen dass der identische Speicher bei identischen Timings genutzt wird und dass die Leistungsaufnahme bei gleichem TDP Setting wirklich die gleiche ist (und falls nicht dass TDP Setting so offsetten, dass der gleiche gemessene Verbrauch herauskommt).
Auf eine Herstellerfolie kann man erstmal nicht viel geben.
————————
Alle Produkte dieses Jahres dürften auf N4P basieren.
https://www.computerbase.de/2024-07/amd-ryzen-9000-strix-point-zen-5/
Damit hat man schon zumindest mit Strix mit N4P einen leichten Fertigungsvorteil ggü Phoenix/Hawk Point (N4). In Bezug auf Leistungsaufnahme gibt TSMC ggü N5 22% an. Bei N4 vs N5 gibt es keine Angaben. Aber kann gut sein dass da schon noch 5-10% Differenz bleiben. Gerade bei kleinen TDPs kann das helfen. Der Vorteil müsste dann abgezogen werden, wenn man uArchs vergleichen will.
Die (hypothetische*) Frage ist weiterhin: wenn man bspw in einer bandbreitenlimitierung durch Vergrößerung des L2 Caches der GPU (ist noch nicht bekannt) sowohl Performance holt als auch Energie spart. Ist das dann wirklich ein uArch Vorteil?
AMD spricht laut CB von einem optimierte Cachesystem was die externen Speicherzugriffe (die energetisch teuer sind) reduzieren soll. Das geht primär über die Steigerung der hitrate. Und das geht primär über mehr Cache. Und das kann uArch unabhängig tun.
Weiterhin: ist Zen 5 / 5c ggf auch effizienter als Zen 4? Das würde gerade bei kleinen TDPs dann mehr TDP für die GPU übrig lassen -> mehr Performance.
Also müsste man den powerdraw der GPU loggen (der lässt sich ja auslesen).
————-
Um das klarzustellen: ich will Strix nicht schlechtreden. Im Gegenteil ich finde die APU super. Mir geht es einzig um den uArch Vergleich dass der sauber geführt wird.
RDNA3.5 klingt nicht nach einem großen Upgrade und die Neuerungen sind jetzt eher refinements. Meine Vermutung: der nächste Sprung wird größer. Denn dann bekommen wir eine neue uArch (rdna4) und einen echten neuen Node. :)
OgrEGT
2024-07-16, 08:24:16
Da steht nur 15W. Aber nicht welcher RAM, nicht ob wieder die TDP Definition geändert wurde. Da wurde fast gar nichts beantwortet.
Auf der Folie ist der Hinweis auf Endnote STX-39... gibt es die Folien mit den Endnotes irgendwo?
Auf HWLuxx gefunden
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88870&stc=1&d=1721111536
Da steht nur dass AMD Referenz Boards verwendet wurden... würde das auf Stock RAM Settings hinweisen also LPDDR5x-7500 für Hawkpoint...
Strix Point hat auch LPDDR5x-7500 als Default?
basix
2024-07-16, 10:30:41
Die meisten leaked Tests von Strix waren mit 7500er RAM. Ist hier ebenfalls anzunehmen.
reaperrr
2024-07-16, 10:33:17
Damit hat man schon zumindest mit Strix mit N4P einen leichten Fertigungsvorteil ggü Phoenix/Hawk Point (N4).
Tja, vielleicht, vielleicht auch nicht.
Laut AMD's eigenen Folien von der Hot Chips 2023 verwendet Phoenix/Hawk evtl. bereits N4P.
Hier auf Seite 2:
https://hc2023.hotchips.org/assets/program/conference/day1/CPU2/HC%202023%20AMD%20Ryzen%207040%20Series%20Processor%208-26-2023.pdf
Fairerweise muss erwähnt werden, dass weiter unten dann nur noch von N4 gesprochen wird.
robbitop
2024-07-16, 10:53:13
Tja, vielleicht, vielleicht auch nicht.
Laut AMD's eigenen Folien von der Hot Chips 2023 verwendet Phoenix/Hawk evtl. bereits N4P.
Hier auf Seite 2:
https://hc2023.hotchips.org/assets/program/conference/day1/CPU2/HC%202023%20AMD%20Ryzen%207040%20Series%20Processor%208-26-2023.pdf
Fairerweise muss erwähnt werden, dass weiter unten dann nur noch von N4 gesprochen wird.
Hm wäre das nicht etwas früh gewesen für Massenproduktion auf N4P. Möglich ja - laut TSMC gingen tapeouts ab H2 2022
https://fuse.wikichip.org/news/6439/tsmc-extends-its-5nm-family-with-a-new-enhanced-performance-n4p-node/
Ist natürlich doof dass sich AMD in ihren slides selbst widerspricht…
fondness
2024-07-16, 11:43:13
N4P wurde schon mehrmals bestätigt für Phoenix, das ignorierst du halt einfach obwohl du schon mehrmals drauf hingewiesen wurdest und behauptest stattdessen immer wieder dasselbe. Wenn man das P weglässt nennt man die Prozessfamilie, es sind alles N4 Nodes, widersprechen tut sich AMD hier also nicht. Da man allerdings explizit gesagt hat N4P bei Phoenix zu verwenden gibt es da wenig Zweifel IMO. Aber klar man kann alles kleinreden und madig machen. Ich denke nicht, dass das mehr an CUs bei 15W eine relevante Rolle spielt und der Fertigungsprozess ist auch gleich, ergo ein ordentlicher Perf/Watt boost im selben Fertigungsprozess.
Um das klarzustellen: ich will Strix nicht schlechtreden. Im Gegenteil ich finde die APU super. Mir geht es einzig um den uArch Vergleich dass der sauber geführt wird.
RDNA3.5 klingt nicht nach einem großen Upgrade und die Neuerungen sind jetzt eher refinements. Meine Vermutung: der nächste Sprung wird größer. Denn dann bekommen wir eine neue uArch (rdna4) und einen echten neuen Node. :)
Strix wird nach aller Wahrscheinlichkeit der beste SoC am Markt sein. LL ist trotz 3nm mit hoher Wahrscheinlichkeit zu wenig, den findest du seltsamerweise aber super toll. Auch die ehemaligen Apple-Lead Engineers schaffen es mit Qualcomm nicht Strix zu schlagen. Der Vergleich mit Apple ist schwierig, da man einen direkten Vergleich aus dem Weg geht, aber selbst da dürfte man mit hoher Wahrscheinlichkeit vorne liegen, wobei Apple womöglich einen Vorteil bei sehr niedrigen TDPs haben wird. Proof me wrong, die Benchmarks werden dann die Details zeigen.
AMD wird da wieder N4P an seine Bedürfnisse angepasst haben, wie schon bei N7P.
Unklar ist, ob das auch bei N5P so war, oder ob N5P damals einfach zu spät war für AMDs Bedürfnisse.
VooDoo7mx
2024-07-16, 13:44:54
32% mehr Leistung bei 33% mehr Recheneinheiten und gleichen Stromverbrauch auf der selben Node ist ein absolut exzellentes Ergebnis.
Verstehe überhaupt nicht was es daran auszusetzen gibt. :ugly:
robbitop
2024-07-16, 16:37:28
Gar nichts. Es ging dir darum wie viel rein von der rdna3.5 uArch kommt.
MSABK
2024-07-16, 16:41:46
Mal sehen wie viel die „normalen“ Geräte kosten werden, bei halbwegs normalen Preisen sehe ich keinen Grund zum Snapdragon X zu greifen.
Vlt packt ja Microsoft Zen5 auch in das Surface.
VooDoo7mx
2024-07-16, 18:24:20
Gar nichts. Es ging dir darum wie viel rein von der rdna3.5 uArch kommt.
Man kann das ja dann einfach testen mit einen 12 CU R9 365 gegen Phoenix/Hawk Point testen.
Die Frage nur, wer das dann auch macht, 99% der Notebook Tech Reviews sind meist komplett für die Tonne.
Auch wenn ich sowas gerne teste, ich kann mir die Teile nicht alle von meinen eigenen Geld kaufen.
Hmm, word wohl kein Rdna 3.5 im Desktop geben wie es aussieht.
Doch es wird wohl sicher nächstes Jahr auch Strix Point für AM5 geben.
Nur sehe ich da nicht wirklich den nutzen, da ineffiziente Desktop KOmponenten die Verbauchsvorteile zu nichte machen.
Mini PCs mit Strix Point und später auch Strix Halo wird es mit Sicherheit reihenweise geben,w enn man kein Notebook haben will.
robbitop
2024-07-16, 18:49:30
Thephawx macht seine Sache da sehr gut. Wenn es einer testen wird dann er.
Was ist eigentlich dran an dem Gerücht 7950xtx bei 405w? Ein Konter auf die 5080, welche nicht besonders stark zu sein scheint?
reaperrr
2024-07-17, 00:15:12
Gar nichts. Es ging dir darum wie viel rein von der rdna3.5 uArch kommt.
Das werden wir anhand von Strix Point sowieso nie wirklich herausfinden, weil
- Strix die 16 CUs meines Wissens auf doppelt so viele ShaderEngines oder zumindest -Arrays verteilt, also auch 12 vs. 12 nicht wirklich vergleichbar hinsichtlich CU-Auslastung, globalen L1 usw. sein wird
- doppelte SE normalerweise auch doppelte ROPs und doppelten Primitive-Durchsatz bedeuten würden
- ein Teil der uArch-Verbesserungen (besseres Primitive-Batching, nicht nur der potentiell größere L2) auf eine effizientere Cache-/Bandbreitennutzung abzielt, so dass der Vorteil in unterschiedlichen Spielen und Auflösungen auch (sehr) unterschiedlich ausfallen kann
Wobei wir da wieder bei dem Thema wären, dass die Strix-IGP trotz nicht nur 33% mehr CUs, sonderen auch breiterem Front- und vmtl. Backend - und damit in Summe wohl deutlich mehr Transistoren - pro Takt kaum bis gar nicht mehr Strom zieht.
Dass das alles, oder auch nur hauptsächlich, von einem größeren L2 kommen soll, finde ich arg unwahrscheinlich.
Jedenfalls, die beste Vergleichsmöglichkeit wird wahrscheinlich Kracken Point (8CUs, Front- und Backend sowie L2 vmtl. nur halb so groß wie bei StrixP) vs. 8CU-Phoenix bieten, was wohl noch dauern wird.
robbitop
2024-07-17, 07:11:09
Gibt doch einen cutdown mit 12 CUs oder? Ganz sauber kann man es nicht vergleichen - aber zumindest kann man mal versuchen möglichst ähnliche Voraussetzungen zu schaffen (ganz wichtig normierter powerdraw der gpu).
dildo4u
2024-07-17, 08:11:33
Strix Point ist ein Monster aber ich schätze dazu tragen eher die zusätzlichen Zen 5 Kerne bei?
https://i.ibb.co/qd0z717/Bildschirmfoto-vom-2024-07-17-08-10-09.png (https://ibb.co/t4ZSQCQ)
robbitop
2024-07-17, 08:42:15
Zum Cache? Klar.
Ist eigentlich schon klar ob alle 12 C in einem ccx sind oder ob es 2x CCX sind?
dildo4u
2024-07-17, 12:10:41
Er hat ein Paar GPU Benches im Video recht Interessant schon 2.7GHz zieht unnötig Power.
Ich hatte da eher die Fetten Zen 4 Cores im Verdacht warum die APU in 15 Watt sterben.
2GHz für die GPU opfert minimal Performance in Doom bei 20 Watt Einsparung.
6Y9e7Db3ny0
robbitop
2024-07-17, 13:14:22
Das ist auch nicht unerwartbar so sehr wie APUs bis dato an der Bandbreite hängen. Schon komisch, dass es kein gutes Powermanagement der APUs unter Windows zu geben scheint und man sich dann entweder selbst an einen sinnvollen GPU Takt annähern muss oder Tools wie AutoTDP nutzen muss. Beim Steamdeck geht das automatisch. Wenn das Spiel ins fps limit läuft oder die GPU nicht der bottleneck ist, taktet sich GPU und Speicher selbst runter. Selbiges auch für die CPU. Entsprechend kann man zB bei älteren Spielen rein durch das Setzen eines Framelimiters GPU und CPU dabei beobachten wie sie dolle runtertakten und auch deutlich sparsamer werden.
basix
2024-07-17, 17:32:38
Das ist auch nicht unerwartbar so sehr wie APUs bis dato an der Bandbreite hängen. Schon komisch, dass es kein gutes Powermanagement der APUs unter Windows zu geben scheint und man sich dann entweder selbst an einen sinnvollen GPU Takt annähern muss oder Tools wie AutoTDP nutzen muss. Beim Steamdeck geht das automatisch. Wenn das Spiel ins fps limit läuft oder die GPU nicht der bottleneck ist, taktet sich GPU und Speicher selbst runter. Selbiges auch für die CPU. Entsprechend kann man zB bei älteren Spielen rein durch das Setzen eines Framelimiters GPU und CPU dabei beobachten wie sie dolle runtertakten und auch deutlich sparsamer werden.
Das was du beschreibst ist ungefähr das Verhalten von Ada Lovelace dGPUs. Wenn irgendwo ein Limit eintritt sinkt automatisch die Leistungsaufnahme. Allerdings ohne den Takt zu senken. Wäre was für RDNA4/5 ;)
robbitop
2024-07-17, 17:47:37
Also bei Van Gogh unter SteamOS senken sich soweit ich erkennen kann jedenfalls bei Teillast der jeweiligen Komponenten dessen Taktraten und Leistungsaufnahmen. Sowas hat AMD in HW also grundsätzlich schon lange verbaut - es muss anscheinend von der Software nur richtig angesprochen werden.
Arbeitet Radeon Chill nicht auch wenigstens für die GPU so?
reaperrr
2024-07-17, 17:49:25
Zum Cache? Klar.
Ist eigentlich schon klar ob alle 12 C in einem ccx sind oder ob es 2x CCX sind?
Soweit ich weiß 2 CCX, einen für die großen und einen für die c-Kerne.
Allerdings soll die CCX-zu-CCX Kommunikation bei Zen5 generell im Vergleich zu früheren Zen-Varianten weniger Leistung/Latenz kosten (was ja eh nur in Spielen ein wirkliches Problem war).
Im Vergleich zu Granite Ridge sind die CCX in Strix - wenn die Info mit 2 CCX stimmt - auch noch mal physisch viel dichter beieinander, was auch nochmal zusätzlich helfen sollte und mit den ganzen IF-Verbesserungen über die Jahre sowie Scheduling-Verbesserungen in Win11 wohl nicht mehr mit Renoir zu vergleichen ist, was Performance-Auswirkungen angeht.
KarlKastor
2024-07-17, 18:29:04
16 MB für die Zen5 und 8 MB für die Zen5c.
David Huang hat schon ein paar tiefer gehende Tests gemacht.
https://blog.hjc.im/zen5-preliminary-review.html
Zossel
2024-07-17, 19:20:19
16 MB für die Zen5 und 8 MB für die Zen5c.
David Huang hat schon ein paar tiefer gehende Tests gemacht.
https://blog.hjc.im/zen5-preliminary-review.html
Removed the nop fusion feature introduced in Zen 4. It is no longer possible to merge a nop instruction with another instruction on the same macro-op;
Warum will man nop fusion? Welche Software nutzt nops?
robbitop
2024-07-17, 19:26:29
Soweit ich weiß 2 CCX, einen für die großen und einen für die c-Kerne.
Allerdings soll die CCX-zu-CCX Kommunikation bei Zen5 generell im Vergleich zu früheren Zen-Varianten weniger Leistung/Latenz kosten (was ja eh nur in Spielen ein wirkliches Problem war).
Im Vergleich zu Granite Ridge sind die CCX in Strix - wenn die Info mit 2 CCX stimmt - auch noch mal physisch viel dichter beieinander, was auch nochmal zusätzlich helfen sollte und mit den ganzen IF-Verbesserungen über die Jahre sowie Scheduling-Verbesserungen in Win11 wohl nicht mehr mit Renoir zu vergleichen ist, was Performance-Auswirkungen angeht.
Ja aber wahrscheinlich greift trotzdem jeder CCX nur auf seinen L3 zu oder?
edit: ja also haben die 4x Zen 5 Kerne Zugriff auf 16 MiB L3 und die 8x Zen 5c Kerne auf 8 MiB L3.
mczak
2024-07-17, 20:22:46
Warum will man nop fusion? Welche Software nutzt nops?
Es gibt manchmal Performance-Gründe Sprungziele auf 16 (oder 32) Byte zu legen (die Details sind komplex und hängen auch von der CPU ab, das ist eher was für Compilerbauer), da füllt man dann die Lücken oft mit NOPs auf (geht auch anders z.B. indem man einen Befehl künstlich vergrössert mit unnötigem Präfix). Die sind deswegen durchaus häufig. Ob es sich aber deswegen wirklich lohnt die NOPs zu fusionieren ist eine andere Frage.
reaperrr
2024-07-18, 03:26:02
Es gibt manchmal Performance-Gründe Sprungziele auf 16 (oder 32) Byte zu legen (die Details sind komplex und hängen auch von der CPU ab, das ist eher was für Compilerbauer), da füllt man dann die Lücken oft mit NOPs auf (geht auch anders z.B. indem man einen Befehl künstlich vergrössert mit unnötigem Präfix). Die sind deswegen durchaus häufig. Ob es sich aber deswegen wirklich lohnt die NOPs zu fusionieren ist eine andere Frage.
Der Zen-Chef-Architekt meinte im Interview, dass sie NOPs-Fusion bei Zen5 (ist ja im Prinzip wieder ne von Grund auf neu aufgezogene Pipeline) aus Komplexitäts-Gründen erstmal wieder weggelassen haben, dass es aber durchaus eine mögliche Optimierung für Zen 6 (oder 7) sein könnte, die wieder einzuführen.
mksn7
2024-07-18, 12:44:45
Ich hab das transkript von dem Interview gelesen, und ging davon aus dass "nop fusion" ein Fehler im Transkript ist und dass er eher sowas wie micro op fusion oder so gesagt hat. Habs aber nicht angehört.
Sonst sehe ich auch keinen Sinn im besonders schnellen Ausführen von nops.
Zossel
2024-07-18, 17:44:51
Ich hab das transkript von dem Interview gelesen, und ging davon aus dass "nop fusion" ein Fehler im Transkript ist und dass er eher sowas wie micro op fusion oder so gesagt hat. Habs aber nicht angehört.
Sonst sehe ich auch keinen Sinn im besonders schnellen Ausführen von nops.
Quick and dirty: https://cr.yp.to/bib/2004/-amd-25112.pdf Seite 132 bzw. 148
Ansonsten wenn du dich weiter verwirren möchtest: https://www.google.com/search?q=branch+target+alignment
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.