Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
Altehardware
2024-12-25, 00:41:23
ne rtx4070 leidet bei stalker 2 unter massiven cpu limit das wird erst mit der schnellsten gpu marginal gefixt.
Da muss der Entwickler einiges am gamecode fixen damit das weggeht den es hat zu 100% am streaming Einstellung zutun das es so ist.
Aber sofern man einen r7 5700x3d r7 7800x3d hat ist man fasst bei 90% gpu load bei einer rtx4070 auf 1080p
nebenbei das dürfte statt 42fps dann 68fps sein
GerryB
2024-12-25, 08:11:38
ab R5 7600x bzw. 7500F optimiert sollten die MidrangeGPU´s in S2@FHD ordentlich laufen
4070, GRE etc., ... erst ab 4070S brauchts dann nen 7600x3D
Wer 2023 nen GRE-PC@999€ gekauft hat, hat also NIX falsch gemacht.
gas3t
2024-12-25, 10:30:52
Es sieht diesmal nach einem interessanten Rennen aus:
RTX 5070 TI
70 SM
16 GB
256-bit
300 W
799€
RX 9070 XT
64 CU
16 GB
256-bit
275 W
649€
RTX 5070
48 SM
12 GB
192-bit
250 W
699€
RX 9070
52 CU
12 GB
192-bit
220 W
549€
AMD hat sich diesmal ziemlich genau an die Bezeichnung von NVIDIA gehalten. Die GPUs sind technisch auch genauso zugeschnitten.
Meine Vermutung ist, AMD liegt bei der Performance 10% unter NVIDIA. Die Effizienz ist also grob identisch, was aus technischer Sicht gut wäre.
Der Preis sollte 150€ unter dem Angebot von NVIDIA liegen. Die XT unterbietet dann die NON TI im Preis, bei höherer Leistung. So gewinnt man den ein oder anderen Käufer.
Bei der Promotion wird AMD voll auf Raytracing setzen. Dort sehen sie gegenüber der eigenen Vorgängergeneration sehr gut aus (+40% bei 7800XT vs. 9070XT).
basix
2024-12-25, 11:38:10
Die RX 9070 dürfte 56 CU tragen. AMD hat bisher immer nur symmetrisch deaktiviert, d.h. bei 4x SE würden (müssen?) sie je 1x WGP pro SE deaktivieren, macht 64 - 4*2 = 56 CU.
Die RX 9060 (XT) würde dann eine komplette SE abschalten und käme dementsprechend auf 48 CU.
Slashman
2024-12-25, 12:10:12
Es sieht diesmal nach einem interessanten Rennen aus:
RX 9070 XT
64 CU
16 GB
256-bit
275 W
649€
RX 9070
52 CU
12 GB
192-bit
220 W
549€
Ich hoffe die Daten sind falsch ... RX 9070 XT soll nur 220 Watt verbrauchen und die RX 9070 nur 180 Watt. AMD sollte besser im Mittelklasse Feld bleiben wo damals auch die RX 5700 XT war. Wozu versuchen mit viel TDP Nvidia in Benchmarks zu schlagen. Mit 220 Watt wäre man eine Konkurrenz für die RTX 5070 mit 12 GB Vram und die schlägt AMD easy dank 16 GB Vram. AMD wird den Kampf gegen Nvidia verlieren wenn sie gegen die RTX 5070 Ti mit 16 GB Vram kämpft. Nvidia ist mit dem Vram effizienter als AMD.
Eine 275 Watt Karte muss auch nicht sein. Große Kühler, ineffizient und das für 300mm2 oder weniger.
Meine RX 5700 XT betreibe ich mit 90 Watt TDP statt 180 Watt und verliere nur maximal 25% Leistung (1,45 GHz statt 1,85). Das selbe werde ich mit der RX 9070M XT machen. Die Spannung und TDP soweit senken wie möglich um sie leise und kühl zu betreiben.
Fragman
2024-12-25, 13:12:39
Wenn es hilft mit ein paar mehr Watt nv auch Druck zu machen, sollten sie die Chance nutzen.
Gerade in dem Bereich scheint nv kaum Fortschritte zwischen der 40ziger und 50ziger Reihe anzubieten?
Zumindest solang man TI und non Ti hier als Königsklasse der Performanceunterscheidung herbeireden muss.
Damit bliebe für amd auch mehr Luft um sich zu plazieren.
basix
2024-12-25, 13:22:02
Im Idealfall ist die RX 9070 in etwa gleich schnell wie eine RTX 5070. Und die 9070 XT wäre etwas schneller. Ob das so eintritt, werden wir sehen. AMD hat mit 16GB definitiv einen Vorteil, aber FSR4 muss deutlich näher an DLSS rankommen und auch bei RT sowie Energieeffizienz sollte man nicht allzu weit zurückliegen (oder gar besser sein). Dann würde es für RDNA4 ziemlich gut aussehen. Und es wäre cool, wenn man die FSR3 DLL mit FSR4 updaten könnte, z.B. mit sowas ähnlichem wie dem DLSS Swapper Tool.
Der_Korken
2024-12-25, 14:28:34
Im Idealfall ist die RX 9070 in etwa gleich schnell wie eine RTX 5070. Und die 9070 XT wäre etwas schneller. Ob das so eintritt, werden wir sehen. AMD hat mit 16GB definitiv einen Vorteil, aber FSR4 muss deutlich näher an DLSS rankommen und auch bei RT sowie Energieeffizienz sollte man nicht allzu weit zurückliegen (oder gar besser sein). Dann würde es für RDNA4 ziemlich gut aussehen. Und es wäre cool, wenn man die FSR3 DLL mit FSR4 updaten könnte, z.B. mit sowas ähnlichem wie dem DLSS Swapper Tool.
Wie soll die 9070 so schnell wie die 5070 sein? Letztere wird sicherlich mit der 4070S gleichziehen und somit vor der 7900GRE liegen. Mit etwas Pech wird selbst die 9070XT hinter der 5070 bleiben.
basix
2024-12-25, 16:42:00
Wie soll die 9070 so schnell wie die 5070 sein? Letztere wird sicherlich mit der 4070S gleichziehen und somit vor der 7900GRE liegen. Mit etwas Pech wird selbst die 9070XT hinter der 5070 bleiben.
Wie das gehen soll? Takt. Ich halte das 7900GRE Gerücht immer noch nicht für schlüssig, wenn RDNA4 bei ~3.0 GHz Takt landen sollte. Stimmt der Takt und man hat keine IPC Regression gegenüber N32 (was eher unwahrscheinlich ist), wäre eine 56 CU RX 9070 ca. 15% schneller als eine 7800XT und etwas schneller wie eine 4070S. Ob das für die 5070 reicht? Vermutlich knapp nicht, aber man wäre relativ nahe dran.
Der_Korken
2024-12-25, 16:48:30
Wie das gehen soll? Takt. Ich halte das 7900GRE Gerücht immer noch nicht für schlüssig, wenn RDNA4 bei ~3.0 GHz Takt landen sollte. Stimmt der Takt und man hat keine IPC Regression gegenüber N32 (was eher unwahrscheinlich ist), wäre eine 56 CU RX 9070 ca. 15% schneller als eine 7800XT und etwas schneller wie eine 4070S. Ob das für die 5070 reicht? Vermutlich knapp nicht, aber man wäre relativ nahe dran.
Dein Optimismus in allen Ehren. Ich habe nach den letzten Leaks das Gefühl, dass AMD bei N48 wieder in irgendeiner Form reingeschissen hat und sich kaum von N32 absetzen wird, auch wenn ich hier im Thread lange ein Verfechter der 7900XT-Performance war aufgrund des massiven Taktpotenzials.
vinacis_vivids
2024-12-25, 16:54:05
Neues Futter für die Dual-GPU RX 9080 XTX 128CU 32GB
Port Royal "Ray Tracing"
https://i.ibb.co/0YrMMC7/RX-9070-XT-RX-9080-XTX.png
MSABK
2024-12-25, 17:20:00
Ist das realistisch? Wäre ja der Hammer wenn sowas kommt.
Nakai
2024-12-25, 17:29:30
Link pls
DrFreaK666
2024-12-25, 17:30:04
Wie soll die 9070 so schnell wie die 5070 sein? Letztere wird sicherlich mit der 4070S gleichziehen und somit vor der 7900GRE liegen. Mit etwas Pech wird selbst die 9070XT hinter der 5070 bleiben.
Laut CB ist die 4070S 2% schneller als die GRE und laut Gerüchten wird die 9070XT zwischen 7900GRE und 7900XT liegen. Was RT angeht wird man schauen, was am Ende wirklich dabei herauskommt
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7900-gre-custom-test.87085/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_2560__1440
Neurosphere
2024-12-25, 17:30:05
Ist das realistisch? Wäre ja der Hammer wenn sowas kommt.
Nein, vermutlich nicht. Ist halt nur copium das AMD noch irgendwas super tolles bringt mit dem niemand rechnet...
Langlay
2024-12-25, 17:49:16
Ist das realistisch? Wäre ja der Hammer wenn sowas kommt.
SLI und Crossfire ist tot. Das kommt auch nicht wieder.
Das sind wieder nur Luftschlösser die V_V baut.
In DX12 müssten die Spieleentwickler Multigpu Unterstützung reincoden. Das wird halt nicht passieren für die paar Dualkarten die AMD verkaufen könnte.
Für irgendeinen im besten Fall <5% Marktanteil wird, sich da keiner ein Bein ausreissen.
raffa
2024-12-25, 17:59:15
This. Zudem hat AMD klar gesagt, dass sie diese Gen kein Highend bringen, also auch keinen wie auch immer zusammengepappten doppelten n48.
Mit der next Gen, die ja wohl schon UDNA wird, spekuliere ich schon deswegen wieder auf große GPUs, weil die ja für Compute eh gebraucht werden
Der_Korken
2024-12-25, 18:03:05
Ist das realistisch? Wäre ja der Hammer wenn sowas kommt.
;D
Alter, vinacis_vivids haut hier ständig irgendwelche selbstgebastelten Excel-Grafiken raus, wo er irgendwelche Bench-Ergebnisse reinkopiert und zusätzlich noch ein paar Phantasie-GPUs mit Phantasie-Zahlen. Ich antworte schon gar nicht mehr direkt darauf.
Slashman
2024-12-25, 18:20:57
Neues Futter für die Dual-GPU RX 9080 XTX 128CU 32GB
Port Royal "Ray Tracing"
https://i.ibb.co/0YrMMC7/RX-9070-XT-RX-9080-XTX.png
1. Glaubt das keiner der etwas nachdenkt.
2. Wäre das für AMD ein starker Sprung nach vorne mit einer 220 Watt RX 9070 XT die 300 Watt+ RX 7900 XT zu schlagen. Wer glaubt das?
3. Muss eine RX 9070 XT in dem Segment in dem es ist nur die RX 7800 XT und RX 7900 GRE schlagen und das schafft sie auch.
4. Kein Link zu den Werten, also Frei erfunden.
5. RX 9080 XTX wird es nicht geben, AMD hat gesagt das sie das High End Segment auslassen. Was ich übrigens sehr begrüße. Nvidia sollte auch von den 450/600 Watt Konsumer GPUs weg gehen und in einem Segment arbeiten wo die Masse ist. Ich sehe bei diesen "Spitzenkarten" für 90% der Menschen den Sinn nicht. Sie kosten 1000€ Aufwärts, sind laut, Stromhungrig und bringen in Preis/Leistung nicht das was sie sollten. Ist eine RTX 4090 für 1500-2000€ 3-4x so schnell wie eine RX 7800 XT? 2x so schnell ja, aber nicht das 4x. Also ihr Geld nicht Wert.
Von 5nm/6nm auf 4nm ist der Sprung definitiv nicht so hoch und wir sollten realistisch sein. In 3 Wochen wissen wir mehr.
OgrEGT
2024-12-25, 18:52:30
Ach Leute... es ist Weihnachten... da darf man sich auch mal was wünschen :usweet: Wär aber cool wenn es sowas in der Richtung geben würde... Wie müsste man sich da den GPU-GPU-Interconnect vorstellen?
So wie bei CDNA3 mit Interposer und Interconnect layer
oder wie bei RDNA3 mit Infinity Fanout Links?
Shink
2024-12-25, 19:46:23
Würde die Kombination aus AFR und FG nicht eventuell sogar Nachteile beider Techniken flachbügeln?
Das wäre den Einsatz von so viel Silizium vermutlich nicht wert aber spannend wäre es schon irgendwie.
Der_Korken
2024-12-25, 19:48:19
Würde die Kombination aus AFR und FG nicht eventuell sogar Nachteile beider Techniken flachbügeln?
Nein, sie würden sich aufaddieren. Zusätzlich zur FG-Latenz kommt die AFR-Latenz dazu und das Framepacing wäre die Hölle.
Shink
2024-12-25, 20:18:28
Das mit der Latenz stimmt natürlich. Man bräuchte 60FPS ohne beidem, woraus man dann was hochrechnen kann mit weniger Artefakten als sonst da FG mehr Frames als Quelle hat.
So in der Art stell ich mir das vor. Sprich, braucht keiner aber naja...
AffenJack
2024-12-25, 21:40:01
Wie das gehen soll? Takt. Ich halte das 7900GRE Gerücht immer noch nicht für schlüssig, wenn RDNA4 bei ~3.0 GHz Takt landen sollte. Stimmt der Takt und man hat keine IPC Regression gegenüber N32 (was eher unwahrscheinlich ist), wäre eine 56 CU RX 9070 ca. 15% schneller als eine 7800XT und etwas schneller wie eine 4070S. Ob das für die 5070 reicht? Vermutlich knapp nicht, aber man wäre relativ nahe dran.
Selbst jetzt, wo alle Leaks das Gegenteil sagen hälst du an deinen Luftschlößern fest. Du solltest langsam einsehen, dass wenn alle Leaks dagegen sprechen es keinen Sinn hat sich an seinen eigenen Hypetrain zu klammern. Es gibt eher keinen magischen Taktsprung und man ist Bandbreitenlimitiert ab nem gewissen Punkt. Mit 192 Bit ist es ausgeschlossen, dass die 9070 mit der 5070 konkurriert. Das wird alleine aufgrund des Bandbreitenunterschieds nicht passieren.
basix
2024-12-25, 22:26:16
Die RX 9070 (non-XT) soll 256bit haben und dazu 64MByte vs. 48MByte LLC. Insgesamt also so ziemlich die gleiche effektive Bandbreite wie die RTX 5070, selbst mit 18Gbps GDDR6 vs. 28Gbps GDDR7 ;)
Die RX 9060 soll die Karte mit N48 und 192bit sein.
Wir können eh nichts ändern wie es rauskommt, wir werden in vermutlich ca. 2w sehen wie es rauskommt.
][immy
2024-12-26, 00:11:45
Neues Futter für die Dual-GPU RX 9080 XTX 128CU 32GB
Port Royal "Ray Tracing"
https://i.ibb.co/0YrMMC7/RX-9070-XT-RX-9080-XTX.png
wäre zwar schön, aber solche "Leaks" gab es auch vor dem RDNA3 release und wir wissen ja, wo das hin führte.
Exxtreme
2024-12-26, 00:12:45
Das ist kein Leak sondern v_v hat sich da was zusammenfantasiert.
AffenJack
2024-12-26, 00:31:02
Die RX 9070 (non-XT) soll 256bit haben und dazu 64MByte vs. 48MByte LLC. Insgesamt also so ziemlich die gleiche effektive Bandbreite wie die RTX 5070, selbst mit 18Gbps GDDR6 vs. 28Gbps GDDR7 ;)
Die RX 9060 soll die Karte mit N48 und 192bit sein
Was die 9060 sein soll weiß niemand, aber überhaupt, dass es sie gibt basiert auf dme leaker AllTheWatts. Gemäß dem ist die 9070 192 Bit.
Was die 9060 sein soll weiß niemand, aber überhaupt, dass es sie gibt basiert auf dme leaker AllTheWatts. Gemäß dem ist die 9070 192 Bit.
Ich hoffe, dass er in dem Punkt falsch liegt. Denn eine 9070 mit 192-Bit und 12 GB, wäre eine 1080p-Karte und dürfte bei höchstens 350$ rauskommen. Niemand braucht so eine Karte.
GerryB
2024-12-26, 09:59:46
Die 9070-12 als Ersatz für die 7700xt/6750 macht schon Sinn, wenn das Budget nicht für ne 9070XT reicht.
(mit ein paar Reglern links auch für WQHD)
Die Graka hätte sogar mehr zeitlichen Vorsprung vor ner 5060Ti als die 9070xt vor dem 5070 Launch.
Denke schon das man da ordentliche Verkaufszahlen in Q1 25 hätte.
Interessant wird dann Intels B770, ... allerdings vermutlich erst in H2 25.
Kann Intel überhaupt dann für 400€ die größere Graka anbieten?
DrFreaK666
2024-12-26, 10:02:39
Ich hoffe, dass er in dem Punkt falsch liegt. Denn eine 9070 mit 192-Bit und 12 GB, wäre eine 1080p-Karte und dürfte bei höchstens 350$ rauskommen. Niemand braucht so eine Karte.
schrieb der Dude mit einer 4090, die jeder wahrscheinlich braucht...
Deine Fähigkeit über den Tellerrand zu schauen, scheinen sehr beschränkt zu sein
basix
2024-12-26, 10:09:58
Was die 9060 sein soll weiß niemand, aber überhaupt, dass es sie gibt basiert auf dme leaker AllTheWatts. Gemäß dem ist die 9070 192 Bit.
Gibt in verschiedenen Foren verschiedene Gerüchte ;)
Ich kann nur mal meine Speku von hier wiederholen (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13671219#post13671219)und noch mit den Nvidia Gegenstücken ergänzen:
- Basiert auf der News auf der Hauptseite
- Gleichnamige AMD SKUs (xx70, xx60) sind mindestens gleich schnell wie die Nvidia Gegenstücke, tendenziell etwas schneller
SKU|CU|LLC|SI Breite|SI Speed|VRAM Menge|TDP|MSRP||Nvidia Gegenstück
9070 XT|64|64 MByte|256 bit|20 Gbps|16 GByte|220W|549$||RTX 5070, 50 SM, 48 MByte L2$, 12 GByte, 192bit, 28 Gbps
9070|56|64 MByte|256 bit|18 Gbps|16 GByte|200W|499$||RTX 5060 Ti, 36 SM, 32 MByte L2$, 16 GByte, 128bit, 28 Gbps
9060|48|48 MByte|192 bit|18 Gbps|12 GByte|180W|429$||RTX 5060, 30 SM, 24...32 MByte L2$, 12 GByte, 96...128bit, 28 Gbps
9050 XT|32|32 MByte|128 bit|18 Gbps|16 GByte|130W|329$||
9050|28|24 MByte|96 bit|21 Gbps|12 GByte|110W|279$||RTX 5050, 20 SM, 16 MByte L2$, 8 GByte, 128bit, 24 Gbps
9040 XT|28|32 MByte|128 bit|16 Gbps|8 GByte|70W|199$||
Und nun das gleiche mit nur zwei N48 SKUs:
- Geht auch, mit dem kann ich mich auch anfreunden
- Grosse Lücke zwischen 9070 und 9060
- 5060 Ti dürfte keine Chance gegen die 9070 haben, hat aber 16 GByte VRAM
- 9060 hat keine Chance gegen die RTX 5060, hat dafür 16 GByte VRAM und deutlich früheres Release-Datum
SKU|CU|LLC|SI Breite|SI Speed|VRAM Menge|TDP|MSRP||Nvidia Gegenstück
9070 XT|64|64 MByte|256 bit|20 Gbps|16 GByte|220W|549$||RTX 5070, 50 SM, 48 MByte L2$, 12 GByte, 192bit, 28 Gbps
9070|56|48 MByte|192 bit|20 Gbps|12 GByte|200W|479$||RTX 5060 Ti, 36 SM, 32 MByte L2$, 16 GByte, 128bit, 28 Gbps
9060|32|32 MByte|128 bit|18 Gbps|16 GByte|130W|329$||RTX 5060, 30 SM, 24...32 MByte L2$, 12 GByte, 96...128bit, 28 Gbps
9050 XT|28|24 MByte|96 bit|21 Gbps|12 GByte|110W|279$||RTX 5050, 20 SM, 16 MByte L2$, 8 GByte, 128bit, 24 Gbps
9040 XT|28|32 MByte|128 bit|16 Gbps|8 GByte|70W|199$||
GerryB
2024-12-26, 10:13:03
Die 5060Ti kommt garantiert auch/zuerst in ner 8GB-Variante, .... die 16GB dann wieder 100€ teuerer!
basix
2024-12-26, 10:14:33
Glaube ich nicht, ist 2025 schlicht nicht gut verkaufbar. Bei den Mobile SKUs sieht es aber danach aus, dass sogar die 5070 nur 8GByte erhalten wird. Völlig dämlich.
GerryB
2024-12-26, 10:18:41
Völlig dämlich = NV-Style !?
Weil man ja beim Vram soooo viel sparsamer ist, ... denken die 4060Ti-8GB Käufer.(Bild-Zeitungsleser)
Der Prozentsatz von 4060Ti-16GB ist verschwindend gering.
Ob da 2025 alle Neukäufer auf Raff hören, ... we will see.
basix
2024-12-26, 10:35:35
Der Prozentsatz von 4060Ti-16GB ist verschwindend gering.
Nö ;)
https://www.3dcenter.org/news/news-des-30-september-2024
https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-16GB-Grafikkarte-279647/News/vs-8-GiB-ueberraschende-Zahlen-Mindfactory-1456726/
Von den insgesamt 15.230 abgesetzten Exemplaren entfallen laut der Erhebung mit Stichtag am 30. September 59,8 Prozent (9.105 Stück) auf die 16-GiB-Grafikkarten und 40,2 Prozent (6.125 Stück) auf die 8-GiB-Modelle.
GerryB
2024-12-26, 10:44:01
Das ist dann ja noch dämlicher, weil man zur 4070 hätte greifen können.
Nur dumm gelaufen, das die 4070-GDDR6nonX nicht preiswerter ist.
Slashman
2024-12-26, 10:47:14
Gibt in verschiedenen Foren verschiedene Gerüchte ;)
Ich kann nur mal meine Speku von hier wiederholen (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13671219#post13671219)und noch mit den Nvidia Gegenstücken ergänzen:
- Basiert auf der News auf der Hauptseite
- Gleichnamige AMD SKUs (xx70, xx60) sind mindestens gleich schnell wie die Nvidia Gegenstücke, tendenziell etwas schneller
SKU|CU|LLC|SI Breite|SI Speed|VRAM Menge|TDP|MSRP||Nvidia Gegenstück
9070 XT|64|64 MByte|256 bit|20 Gbps|16 GByte|220W|549$||RTX 5070, 50 SM, 48 MByte L2$, 12 GByte, 192bit, 28 Gbps
9070|56|64 MByte|256 bit|18 Gbps|16 GByte|200W|499$||RTX 5060 Ti, 36 SM, 32 MByte L2$, 16 GByte, 128bit, 28 Gbps
9060|48|48 MByte|192 bit|18 Gbps|12 GByte|180W|429$||RTX 5060, 30 SM, 24...32 MByte L2$, 12 GByte, 96...128bit, 28 Gbps
9050 XT|32|32 MByte|128 bit|18 Gbps|16 GByte|130W|329$||
9050|28|24 MByte|96 bit|21 Gbps|12 GByte|110W|279$||RTX 5050, 20 SM, 16 MByte L2$, 8 GByte, 128bit, 24 Gbps
9040 XT|28|32 MByte|128 bit|16 Gbps|8 GByte|70W|199$||
Und nun das gleiche mit nur zwei N48 SKUs:
- Geht auch, mit dem kann ich mich auch anfreunden
- Grosse Lücke zwischen 9070 und 9060
- 5060 Ti dürfte keine Chance gegen die 9070 haben, hat aber 16 GByte VRAM
- 9060 hat keine Chance gegen die RTX 5060, hat dafür 16 GByte VRAM und deutlich früheres Release-Datum
SKU|CU|LLC|SI Breite|SI Speed|VRAM Menge|TDP|MSRP||Nvidia Gegenstück
9070 XT|64|64 MByte|256 bit|20 Gbps|16 GByte|220W|549$||RTX 5070, 50 SM, 48 MByte L2$, 12 GByte, 192bit, 28 Gbps
9070|56|48 MByte|192 bit|20 Gbps|12 GByte|200W|479$||RTX 5060 Ti, 36 SM, 32 MByte L2$, 16 GByte, 128bit, 28 Gbps
9060|32|32 MByte|128 bit|18 Gbps|16 GByte|130W|329$||RTX 5060, 30 SM, 24...32 MByte L2$, 12 GByte, 96...128bit, 28 Gbps
9050 XT|28|24 MByte|96 bit|21 Gbps|12 GByte|110W|279$||RTX 5050, 20 SM, 16 MByte L2$, 8 GByte, 128bit, 24 Gbps
9040 XT|28|32 MByte|128 bit|16 Gbps|8 GByte|70W|199$||
550 Dollar wäre zu viel für eine Mittelklasse Karte wie eine RX 480/580, RX 5700 XT, RX 6700 XT, RX 7700 XT oder RX 9070 XT. 450 Dollar und die haben Nvidia in dem Segment in der Tasche. AMD hat viel weniger Marktanteile als zu GCN Zeiten, weil sie zu teuer sind. Nvidia kostet mehr ja, aber sie haben auch mehr zur Hand neben der Preis/Leistung (Support der Entwickler, Exklusive Technik wie DLSS, Cuda, Physix und co).
Das kann AMD nur mit einer viel höheren Leistung und einem unschlagbaren Preis kontern. Ich kaufe Nvidia seit Oktober 2023 aus Prinzip nicht mehr und Intel ebenfalls nicht neben anderen Brands.
Daher ist es egal was AMD macht ich kaufe sie oder nix. Nicht weil ich ein Fanboy bin, aber keine andere Wahl habe. Ich bin jedoch nicht die Masse.
basix
2024-12-26, 10:53:27
Schlussendlich hängt es an der Performance, ob 550$ attraktiv ist oder nicht. Ist es 4070S Niveau, ist es nicht attraktiv. Wenn es 4080 Niveau wäre, wäre es sehr wohl attraktiv.
Rein von der Historie her hat AMD etwas besseres P/L als Nvidia geboten aber nicht weltbewegend. Ich bin vorsichtig optimistisch, dass AMD preistechnisch bei RDNA4 etwas mehr wagt, da Jack Hyunh "Market Share" als hohe Prio bezeichnet hat.
Slashman
2024-12-26, 11:00:24
Schlussendlich hängt es an der Performance, ob 550$ attraktiv ist. Ist es 4070S Niveau, ist es nicht attraktiv. Wenn es 4080 Niveau wäre, wäre es sehr wohl attraktiv.
Rein von der Historie her hat AMD etwas besseres P/L als Nvidia geboten aber nicht weltbewegend. Ich bin vorsichtig optimistisch, dass AMD preistechnisch bei RDNA4 etwas mehr wagt, da Jack Hyunh "Market Share" als hohe Prio bezeichnet hat.
Naja 550€|$ wird sie sich nicht gut verkaufen wie eine gleich schnelle oder nur minimal langsamer Karte wie von Nvidia. Fanboys und Leute wie ich (kein Fanboy) kaufen AMD.
Ich denke AMD tut sich einen gefallen und wird 450€ für die RX 9070 XT und 350-400€ für die RX 9070 (wenn 12 GB maximal 350€) aufrufen. Alles andere sehe ich keine Chance Nvidia Druck zu machen. immerhin hat damals eine RX 5700 XT (selbe Leistungsklasse damals) auch nur 470€ oder so zu Release gekostet. Nach 5 Jahren dürfte 2x so viel RAM und fast selbe Chipfläche nicht mehr kosten.
Ich bezweifle einfach das die RX 9070 XT eine Gefahr für die RTX 4080 ist... wenn überhaupt für die RTX 4070 TI oder Super... und selbst dann nur in Rasterleistung. Mich interessiert RT zwar net, aber andere schon und hier ist Nvidia die spitze.
GerryB
2024-12-26, 11:01:20
Verrückt finde ich nur die 649$-Vorhersage, ... soll das ein schnelleres 275W-Modell als XTX sein?
Wozu passen dann die geleakten Benchmarks? (gibts da tatsächlich ein langsameres 220W XT-Modell)
Nach m.E. müsste man für 649$ dann schon zusätzlich nen 3d-Cache draufpacken, damit Preis/Ausstattung passt.
Oder es gäbe ne unwahrscheinliche 9070xtx-GDDR7-Variante ?
k.A. ob der Speicherkontroller das könnte
Slashman
2024-12-26, 11:04:30
Verrückt finde ich nur die 649$-Vorhersage, ... soll das ein schnelleres 275W-Modell als XTX sein?
Wozu passen dann die geleakten Benchmarks? (gibts da tatsächlich ein langsameres 220W XT-Modell)
Ich hoffe es ist falsch und 650$ als auch 275 Watt sind falsch...
Mein Favorit ist diese Config:
RX 9070 XT mit 220 Watt TBP und RX 9070M XT mit 145 Watt TBP.
Ich plane Anfang mitte des Jahres 2025 einen Gaming Laptop zu kaufen und hoffe von AMD die passende Technik geliefert zu bekommen. Zen5 16 Kerner, 32 GB DDR5, 2 TB SSD und RX 9070M XT mit 16GB Vram. am besten von ASUS oder MSİ.
Wie gesagt Nvidia und İntel sind für mich bis auf weiteres keine Option mehr.
prinz_valium_2
2024-12-26, 11:08:32
Es sieht diesmal nach einem interessanten Rennen aus:
RTX 5070 TI
70 SM
16 GB
256-bit
300 W
799€
RX 9070 XT
64 CU
16 GB
256-bit
275 W
649€
RTX 5070
48 SM
12 GB
192-bit
250 W
699€
Als ob die 5070Ti nur 100€ mehr als die 5070 Kosten wird
Slashman
2024-12-26, 11:12:32
Als ob die 5070Ti nur 100€ mehr als die 5070 Kosten wird
Naja sollten die Preise stimmen ist Geduld gefragt. İch zahle für Mittelklasse nicht 700€ Dasist mir ein Hobby met wert.
Die 5070Ti ist ebenfalls konkurrenzlos und wird sicherlich 849-899$ bzw. 999€ kosten. NV wird sich scheuen die 1000 zu überschreiten, wenn man das als reine Gaminglösung sieht, was man bei denen darüber nicht mehr so sieht.
Ich würd eher sagen, dass das Lineup simpel wird:
9070XT -> 270W TBP, 16GB 20GT/s, 32WGP, Preis der GRE
9070 -> 220W TBP, 12GB 18GT/s, 24WGP, Preis unter der 7800XT
9060XT -> 170W TBP, 16GB 18GT/s, 16WGP, <400$
9060 -> 140W TBP, 8GB, 12WGP, <300$
8050 -> 140W N33 mit 12WGP, 8GB, ersetzt 6600
Mobil ähnlich nur weniger Power
9070XT/S -> full N48
9060S -> full N44
8060S
8050S
8040S
davidzo
2024-12-26, 11:32:38
Ich glaube Jensen interessiert dein Hobby und uns verarmte Europäer nicht @Slashman.
Schon die 4070ti war 200$ teurer beim Launch als die 4070. Sie hat ja auch rund +33% mehr Hardwareeinheiten und ersetzte damals preislich wie auch von der Leistung die alte 3090. Die vanilla 4070 dagegen war eher ein 3080 äquivalent.
Und es ist eine Highendkarte, kein Midrange. Der Abstand zwischen 5070 ind TI ist diesmal noch gewaltiger. Die 5070ti wird vermutlich schneller als alles was AMD und Intel derzeit zu bieten haben.
GerryB
2024-12-26, 11:37:34
just for fun
Es wird evtl. weiterhin die 7900er geben, ... xt=629€ und xtx=779€
why not ne selektierte 450W-7950@899€, ... nur als Custom, wo es bereits entspr. große Kühler gibt
Was bei 7900xtx OCern geht, sollte doch z.T. auch mit ner 7950 ab Werk möglich sein.(TS= ca.33...35k-Score)
Da käme@Raster ne 300W-5070Ti niemals ran.
gas3t
2024-12-26, 11:55:03
Ich denke ebenfalls, dass die RX 7900 Serie normal weiterläuft und der MSRP entsprechend dem dann neuen Lineup angepasst wird:
ggf. RX 7950 XTX
96 CU
24 GB
384-bit
400-450 W
999€
RX 7900 XTX
96 CU
24 GB
384-bit
355 W
849€
RX 7900 XT
84 CU
20 GB
320-bit
315 W
749€
RX 9070 XT
64 CU
16 GB
256-bit
275 W
649€
RX 9070
56 CU
12 GB
192-bit
220 W
549€
DrFreaK666
2024-12-26, 11:55:20
Nö ;)
https://www.3dcenter.org/news/news-des-30-september-2024
https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-16GB-Grafikkarte-279647/News/vs-8-GiB-ueberraschende-Zahlen-Mindfactory-1456726/
Da geht's nur um Mindfactory
prinz_valium_2
2024-12-26, 12:18:01
Naja sollten die Preise stimmen ist Geduld gefragt. İch zahle für Mittelklasse nicht 700€ Dasist mir ein Hobby met wert.
TI wäre damit einfach zu viel Mehrwert.
20%+ mehr Leistung und 30% mehr RAM für 15% mehr Geld.
Da kauft jeder die 5070TI. Dazu der teure CHiP und teurere PCB
100€ Differenz würde gehen, wenn die 5070 400 kostet und die 5070ti 500, aber das ist leider genauso unrealistisch.
Ich erwarte mindestens 200€
Denn ich würde die Karte in dem Szenario kaufen. Deshalb ist es ausgeschlossen. NVIDIA baut und vertreibt nämlich keine Produkte mehr, die objektiv eine deutlich besser Wahl als alles andere im Portfolio sind
GerryB
2024-12-26, 12:34:11
Ich denke ebenfalls, dass die RX 7900 Serie normal weiterläuft und der MSRP entsprechend dem dann neuen Lineup angepasst wird
Warum sollte man den Marktpreis der 7900xt auf 749€ anheben?
(derzeit 669€, ... also eher absenken auf 629€)
Man hätte dann die Wahl zw. RT-Perf. mit der 9070xt und Rasterperf.+20GB mit der 7900xt(für Modder).
btw.
Heute äußert sich auch mal Videocardz, wo es etwas differenzierter bezgl. Watt+MHz für die 9070xt erklärt wird:
https://videocardz.com/newz/amd-radeon-rx-9070-xt-expected-to-boost-up-to-3-1-ghz-260-330w-tbp-depending-on-a-model
... würde heissen, das die Benchmarks mit 260W waren, ... oder/und evtl. zu sehr im Taktlimit
(gerade der TS ist beim Wattverbrauch nicht durchgehend konstant, könnte mir vorstellen, das noch Luft beim Takt ist)
horn 12
2024-12-26, 13:06:46
260 Watt bis stolze 330 Watt
https://videocardz.com/newz/amd-radeon-rx-9070-xt-expected-to-boost-up-to-3-1-ghz-260-330w-tbp-depending-on-a-model
Kaum langsamer oder schneller als 4080 wäre doch weitaus besser als angenommen!
robbitop
2024-12-26, 13:08:26
Blackwell wird sicherlich nicht günstiger als Ada. Ich würde auf teurer tippen. 700 für die 5070 und 900 für die 5070 ti würden mich jedenfalls nicht überraschen.
Jeder der die 6800xt oder die 3080 gekauft hat ist am Arsch weil sinnvolle Upgrades richtig teuer bleiben und N48 eher ein Sidegrade zu sein scheint.
dargo
2024-12-26, 13:12:12
260W @Referenz und manche Customs die sich an Referenz-Powerbudgets halten klingen ok, aber nicht überragend. Clocks schon mal ca. 25% höher als bei der RX 7800XT (Gameclock sogar 32%), not bad. Mal weitere Details abwarten.
Jeder der die 6800xt oder die 3080 gekauft hat ist am Arsch weil sinnvolle Upgrades richtig teuer bleiben und N48 eher ein Sidegrade zu sein scheint.
Würde ich so nicht sagen. Alles vom (Auf)Preis abhängig.
Edit:
Wenn diese Daten jetzt stimmen müsste die RX 9070XT ziemlich genau bei Raster bei der RX 7900XT rauskommen. Wird es absolut Null IPC-Zuwächse bei RDNA4 vs. RDNA3 geben eben dann halt minimal drunter. Bei RT müsste die RX 9070XT die RX 7900XTX locker schlagen. Aber das dürfte noch völlig offen sein, kann jetzt nicht einschätzen wieviel Hardware dafür investiert wurde.
GerryB
2024-12-26, 13:13:52
...
Kaum langsamer oder schneller als 4080 wäre doch weitaus besser als angenommen!
Bodenhaftung please!
Schneller als ne 4080 in nem Sonderfall-Game+OCing mit 330Wx1,15(?)=380W ist sicherlich kein Regelfall.
Eigentlich sagt der Leaker <4080!
Es wird interessant wie weit sich GPU-OCen lohnt, ohne das der Vram vorher schlapp macht,
wenn man ca 50% mehr Watt reinsteckt, was kommt dann raus?
dargo
2024-12-26, 13:24:49
wenn man ca 50% mehr Watt reinsteckt, was kommt dann raus?[/I]
Ein stinklangweiliger Heizofen.
GerryB
2024-12-26, 13:29:45
mit KryoSheet
nichtsdestotrotz kann man ja wg. der minFps ordentlich OCen und bleibt mit Fps-Limit
hoffentlich leise genug
HADES im PCGH-Thread meint, das seine 7900xtx beim Vram 2866MHz@air schafft.
Keine Ahnung was bei der 9070xt default Vramtakt ist, 2486?
Damit würde sich evtl. 20% OCen lohnen.
Der_Korken
2024-12-26, 13:31:30
Da passt mal wieder nichts zusammen. 260W für 64CUs@2,8Ghz ist schon eher meh. Es sei denn, die 2,8Ghz sind nur irgendein Papierwert und es liegen real die 3,0-3,1Ghz an. Dann muss aber auch die Performance deutlich gegenüber der 7800XT steigen und nicht nur knapp über der GRE liegen.
Die Frage ist: Wozu dann noch 330W? Wieviel Takt will man von dem hohen Niveau aus noch rausholen und verpufft dieser nicht sowieso irgendwann an der begrenzten Speicherbandbreite? Oder die 2,8Ghz sind der reale Takt und der Chip hat die gleichen Saufprobleme wie RDNA3. Dann ist klar, dass man 330W braucht um das Teil auf Touren zu kriegen.
Was direkt zur nächsten Frage führt: Wie soll das gekühlt werden? 330W auf 240mm²? 110°C Hotspot unter dickem Triplesplot-Kühler incoming. Oder der Chip ist doch deutlich größer, damit sich die Wärmedichte ausgeht, aber wenn der Chip größer ist, müssen die CUs entsprechend "fetter" sein, was wiederum für bessere Performance spricht.
Also irgendwie kann ich mir aktuell keinen Reim drauf machen.
Ein stinklangweiliger Heizofen.
+1
dargo
2024-12-26, 13:41:33
Da passt mal wieder nichts zusammen. 260W für 64CUs@2,8Ghz ist schon eher meh. Es sei denn, die 2,8Ghz sind nur irgendein Papierwert und es liegen real die 3,0-3,1Ghz an. Dann muss aber auch die Performance deutlich gegenüber der 7800XT steigen und nicht nur knapp über der GRE liegen.
Du glaubst doch wohl wirklich nicht diesen Blödsinn @RX 7900GRE oder? :freak: Und die 2,8Ghz sind der Gameclock! Boostclock = 3-3,1Ghz.
Die Frage ist: Wozu dann noch 330W?
Damit die Boardpartner schön mit OC werben und paar Taler mehr dafür verlangen können. Du tust gerade so als wenn das dein erster Grafikkarten Release wäre. :freak:
robbitop
2024-12-26, 13:46:28
Wenn der Time Spy Wert stimmen sollte* hat sich an den Taktraten kaum was geändert.
*also dass der Score des Serienprodukts entspricht. Aber das muss ja nicht sein.
Der_Korken
2024-12-26, 13:54:33
Du glaubst doch wohl wirklich nicht diesen Blödsinn @RX 7900GRE oder? :freak: Und die 2,8Ghz sind der Gameclock! Boostclock = 3-3,1Ghz.
Damit die Boardpartner schön mit OC werben und paar Taler mehr dafür verlangen können. Du tust gerade so als wenn das dein erster Grafikkarten Release wäre. :freak:
Ich weiß nicht so recht, was ich glauben soll. Wenn du den Thread hier durchsuchst, wirst du jede Menge Posts von mir finden, wo ich anhand möglicher Taktraten vorgerechnet habe, dass 7900XT-Level absolut möglich sind mit 64CUs und dass 3Ghz+ auch keine Phantasie sind, wenn man sich kaputte Taktverhalten von RDNA3 anguckt.
Auf der anderen Seite hat AMD mit so ziemlich jedem RDNA3-Chip enttäuscht. Die größte Enttäuschung war für mich N32, der 9 Monate nach N31 kam und dessen Topmodell im Schnitt sogar noch niedriger taktet und noch weniger Perf/W hat als das N31-Topmodell. Dazu noch die merkwürdige RDNA3-Präsi, wo entgegen früherer Vorstellungen viele Angaben schlicht falsch oder schöngerechnet waren. Wenn AMD kein Interesse mehr am dGPU-Markt hat, könnte ich mir durchaus vorstellen, dass die für RDNA4 nochmal einen halbgaren Midrange-Chip "hinrotzen", wo jegliche Optimierung fehlt. Das wäre dann die 7900GRE-Performance: N32 genommen, 4 CUs mehr, bisschen Alibi-RT rein, Taktraten auf 2,8Ghz geprügelt (aber nicht das Taktverhalten gefixt) und fertig ist der neue Chip.
Und was die 330W angeht: Das sind über 25% mehr. Wo gibt es dafür Präzedenzfälle? Von wegen "mein erster GPU-Launch" :rolleyes:
robbitop
2024-12-26, 14:02:07
RDNA3 schafft die hohen Taktraten aber die TDP geht durch die Decke. Die Frage ist ob das unnormal ist. Wenn man sich Arc und Ada anschaut mit sehr ähnlichen Fettigungsprozesse : die erreichen auch sehr ähnliche Taktraten. Warum sollte AMD bei akzeptabler TDP plötzlich deutlich höhere Taktraten erreichen?
Ich glaube da an keinen Bug. RDNA3 wurde oft genug ungedreht und nie gab es wirklich hohe Taktraten (für normierte TDP pro CU).
N33 in 6 nm, Phoenix und Hawk in 4 nm und Strix in 4 nm sogar mit modernerer GFXIP.
Heißt nicht dass die Taktraten nicht auch steigen in RDNA4. Aber ggf. nicht ganz so optimistisch wie mancher gehofft hat.
Man sollte denke ich einen RDNA3 mit besserem RT und gefixtem Taktverhalten + ein paar % mehr Leistung durch den N4P-Prozess erwarten, mehr nicht.
Wenn man das approximiert wäre eine GRE mit gefixtem Taktverhalten (RDNA 3.5) und 10% mehr Bandbreite vielleicht 10-15% schneller, dann noch etwas mehr Takt durch den Prozess bei gleicher Power, da sollte man die XT schon schlagen können. Natürlich nicht bei UHD, dazu fehlt dann einfach die Bandbreite.
Ich würd mal schätzen ein paar % schneller als die 7900XT bei FHD, ca. gleichauf bei QHD und 10% langsamer als die XT bei UHD. Sollte die 9070 non-XT dann tatsächlich nur 12GB haben dürfte diese allerdings dick unter der 7800XT landen, zu wenig Bandbreite.
N31 auf dem Markt zu halten ist eine Frage der Kosten. Der Yield sollte extrem gut sein bei nur 300mm², vielleicht würde sich ein Refresh als 8080XT lohnen, wenn man das Ding mit 46WGP (von 48) bringt und bei 350-400W bleibt und die Kosten des PCB reduziert. Ist dann zwar noch ineffizienter aber dann dürfte mehr pro Produkt hängenbleiben und die Leistung kann trotzdem (knapp) 5070Ti-Niveau erreichen.
dargo
2024-12-26, 14:09:06
Und was die 330W angeht: Das sind über 25% mehr. Wo gibt es dafür Präzedenzfälle? Von wegen "mein erster GPU-Launch" :rolleyes:
RX 7900XTX Nitro+ mit max. 433W vs. 354W Referenz ist da nah dran.
https://www.computerbase.de/2022-12/radeon-rx-7900-xtx-custom-design-test/2/#abschnitt_leistungsaufnahme
GerryB
2024-12-26, 14:14:09
RDNA3 schafft die hohen Taktraten aber die TDP geht durch die Decke. Die Frage ist ob das unnormal ist. ...
Heißt nicht dass die Taktraten nicht auch steigen in RDNA4. Aber ggf. nicht ganz so optimistisch wie mancher gehofft hat.
Bei RDNA3 ist der Frontendtakt ein ganzes Stück höher als der nominelle Shaderclock.
Insofern kann ne Taktangabe täuschen.
Mal schauen, wie Das bei RDNA4 ausschaut.
robbitop
2024-12-26, 14:17:53
Also wie gesagt: wenn die TS Werte wahr sind spricht das absolut nicht für eine deutliche Taktsteigerung. Aber wer weiß: vielleicht sind die nicht echt. Schön wär’s ja.
Andererseits hieß es in Gerüchten schon sehr lange zwischen GRE und XT. Und das 70er branding zeigt auch nicht so viel Optimismus. Das passt alles irgendwie schon zusammen. Aber hoffentlich gibt es da noch eine positive Überraschung- das wäre super für die Consumer. :)
Und zum höheren Front End Takt: der bringt ja eigentlich nur Punkte wenn man vom Geometriedurchsatz limitiert ist. Texturleistung, shaderleistung, pixelfillrate usw profitiert davon nicht.
Also die GRE hat 260W, wenn jetzt nur ne RDNA 3.5 mit 270W und mehr Bandbreite kommt wäre die schneller als ne GRE, GRE-Neveau kann nicht hinkommen.
GerryB
2024-12-26, 14:24:19
Und zum höheren Front End Takt: der bringt ja eigentlich nur Punkte wenn man vom Geometriedurchsatz limitiert ist. Texturleistung, shaderleistung, pixelfillrate usw profitiert davon nicht.
und
Der höhere Frontendtakt kommt vllt. an die Grenze vom Silizium, sprich das mögliche OCing wird da zuerst limitiert.
insofern
kann man sicher Intel+NV-Clocks nicht mit AMD-Clocks vgl.
Der_Korken
2024-12-26, 14:54:49
RDNA3 schafft die hohen Taktraten aber die TDP geht durch die Decke. Die Frage ist ob das unnormal ist. Wenn man sich Arc und Ada anschaut mit sehr ähnlichen Fettigungsprozesse : die erreichen auch sehr ähnliche Taktraten. Warum sollte AMD bei akzeptabler TDP plötzlich deutlich höhere Taktraten erreichen?
Ich glaube da an keinen Bug. RDNA3 wurde oft genug ungedreht und nie gab es wirklich hohe Taktraten (für normierte TDP pro CU).
N33 in 6 nm, Phoenix und Hawk in 4 nm und Strix in 4 nm sogar mit modernerer GFXIP.
Vielleicht täuscht mich da auch meine Erinnerung, aber afaik hat der N21 keine 3Ghz stabil geschafft mit Luft als Kühlmedium. N31 lief schon mit 3,4Ghz wenn das Powerlimit ausgehebelt wurde bzw. in Anwendungen war nichtmal das nötig, um auf diese Taktraten zu kommen. @stock laufen beide aber mit gleichem Takt. Die 6500XT läuft stock sogar mit 2,8Ghz, die 7600XT liegt über 2,7Ghz, usw. Aber N31 und N32 laufen total untertourig. Und sag jetzt bitte nicht, dass AMD das für den Verbrauch getan hat. Die 7600XT wird von der gleichen Firma getreten ohne Ende. Entweder gibt es einen HW-Bug, der den Verbrauch bei der Nutzung bestimmter Einheiten explodieren lässt oder RDNA3 ist in sich eine architekturelle Fehlentwicklung wie Bulldozer vs K10 und müsste eigentlich wieder rückgängig gemacht werden.
raffa
2024-12-26, 15:02:15
Das 70er branding deutet nicht auf 4080+ Leistung hin, lässt aber hoffen auf nicht zu hochpreisige Karten - zumal ja noch eine 9080xtx mit doppeltem n48 kommt, die sich sich dann gut von der 7900xtx absetzen wird :freak:
dargo
2024-12-26, 15:03:06
Die 6500XT läuft stock sogar mit 2,8Ghz, die 7600XT liegt über 2,7Ghz, usw. Aber N31 und N32 laufen total untertourig. Und sag jetzt bitte nicht, dass AMD das für den Verbrauch getan hat. Die 7600XT wird von der gleichen Firma getreten ohne Ende.
195W @N33 lassen sich auch wesentlich günstiger kühlen und betreiben als 500W @N31 mit "offenem" Powerlimit. Bei N32 stand womöglich auch der Fokus beim Preis.
zumal ja noch eine 9080xtx mit doppeltem n48 kommt, die sich sich dann gut von der 7900xtx absetzen wird :freak:
Wer sagt das? V_V? :lol:
robbitop
2024-12-26, 15:12:39
Vielleicht täuscht mich da auch meine Erinnerung, aber afaik hat der N21 keine 3Ghz stabil geschafft mit Luft als Kühlmedium. N31 lief schon mit 3,4Ghz wenn das Powerlimit ausgehebelt wurde bzw. in Anwendungen war nichtmal das nötig, um auf diese Taktraten zu kommen. @stock laufen beide aber mit gleichem Takt. Die 6500XT läuft stock sogar mit 2,8Ghz, die 7600XT liegt über 2,7Ghz, usw. Aber N31 und N32 laufen total untertourig. Und sag jetzt bitte nicht, dass AMD das für den Verbrauch getan hat. Die 7600XT wird von der gleichen Firma getreten ohne Ende. Entweder gibt es einen HW-Bug, der den Verbrauch bei der Nutzung bestimmter Einheiten explodieren lässt oder RDNA3 ist in sich eine architekturelle Fehlentwicklung wie Bulldozer vs K10 und müsste eigentlich wieder rückgängig gemacht werden.
Du musst das pro in W pro CU betrachten. Bei so kleinen SKUs wie der 6500xt oder der 7600xt oder einer IGP ist das was anderes als bei 80 oder 96 CUs.
Phoenix/Hawk kriegt man auf 3 GHz. Der liegt dann aber pro CU auch da wo N31 mit 3 GHz liegt.
RDNA3 kann potentiell mehr Takt durch moderneres Design und Node als der Vorgänger. Aber wenn es pro CU normales TDPs sein sollen landet man halt bei grob 2.5 GHz. Nicht deutlich anders als bei Ada oder Battlemage. Und 200 MHz oder so als Differenz machen den Kohl nicht fett.
Einige spekulierten ja auf 3,4 GHz.
GerryB
2024-12-26, 15:15:52
...die 7600XT liegt über 2,7Ghz, usw.
aber der Frontend läuft u.U. schon mit 2,9GHz, je nach workload
evtl.
hätte AMD sich mal mit Samsung zusammensetzen können und PAM3 nutzen
weil der Memorycontroller einfach zuviel Watt verbraucht
da würde 1/3 weniger SOC-takt Wunder bewirken
Die Shader alleine bei RDNA3 sind genauso sparsam wie bei NV.
BlacKi
2024-12-26, 15:42:19
Also die GRE hat 260W, wenn jetzt nur ne RDNA 3.5 mit 270W und mehr Bandbreite kommt wäre die schneller als ne GRE, GRE-Neveau kann nicht hinkommen.
ich denke auch, +2% in timespy werden nicht die AVG performance sein. man wird stock mit 260w wohl +10% auf eine GRE hinbekommen. viel mehr wirds aber nicht sein, denn die bandbreitenbremse wird die karte genau wie die GRE, die MASSIV mehr rechenleistung hat als die 7800xt, erheblich zurückhalten, ausser in benchmarks, wo die bandbreite eine geringere rolle spielt.
daher könnten in ausnahmefällen up to 4080 performance durchaus drin sein, in anderen titeln aber richtig abstinken.
zb. wie hier. aber sowas hat halt keine aussagekraft.
https://i.ibb.co/z2ShP0k/Screenshot-2024-12-26-at-15-55-59-AMD-Radeon-RX-7800-XT-RX-7700-XT-im-Test-Taktraten-Benchmarks-in-F.png
GerryB
2024-12-26, 15:58:11
TS läuft garantiert im Taktlimit und hat ne gerade Linie.
Wer nen höheren Score will, braucht nur den maxTakt anheben, damit mehr Boost in Bereichen geringer Last genutzt wird.
mache ich bei meiner ollen 6800 so, das ich 225MHz mehr einstelle
(und natürlich ein mue Vram-OCen)
Das kann dann schnell 2k-Points mehr bringen ggü. default.
(starkes UVen hilft natürlich auch mit)
Sieht man da schön, das GT1 und die 2.Hälfte vom GT2 den Mehrtakt nutzen können.
dargo
2024-12-26, 16:05:24
man wird stock mit 260w wohl +10% auf eine GRE hinbekommen. viel mehr wirds aber nicht sein, denn die bandbreitenbremse wird die karte genau wie die GRE, die MASSIV mehr rechenleistung hat als die 7800xt, erheblich zurückhalten, ausser in benchmarks, wo die bandbreite eine geringere rolle spielt.
Massiv mehr Rechenleistung? :freak: Es sind auf dem Papier gerade mal 20% mehr unter Berücksichtigung der Frequenzen und Shader. In der Praxis skaliert das eh nicht 1:1 mit.
Einige spekulierten ja auf 3,4 GHz.
Wenn mich nicht alles täuscht hieß es früher 3,0-3,3Ghz Boost. Letzteres ist ja nicht völlig ausgeschlossen (insbesondere bei einem hohen Gameclock von 2,8Ghz) nur weil jemand jetzt im Workload X was von 3,0-3,1Ghz Boost schreibt. Alles eine Frage des Workloads. ;) Man muss sich nur die Heizlast von einem FH5 und APTR anschauen.
btw.
Die RX 7900XTX hat einen Gameclock von 2300Mhz, AMD erlaubt max. 2965Mhz. Wenn man das 1:1 auf die RX 9070XT überträgt müsste diese bis max. 3,6Ghz boosten dürfen (unter der Annahme die 2,8Ghz Gameclock hat sich nicht jemand ausgedacht). Wie oft oder ob überhaupt du sowas in Gaming Workloads sehen wirst hängt erstmal von der Heizlast des Workloads ab und auch vom gewählten Betriebspunkt von AMD. Kein so enges Powerkorsett wie bei N31, also eher an RDNA2 angelehnt wirst du auch höhere Frequenzen sehen als die genannten 3,0-3,1Ghz. Ist RDNA4 wieder zu durstig geworden und AMD ist wieder gezwungen das Ding tiefer in der V/F-Kurve zu betreiben wirst du keine so hohen Frequenzen sehen. Vom letzteren gehe ich aber bei einem Gameclock von 2,8Ghz nicht unbedingt aus.
BlacKi
2024-12-26, 16:19:03
Massiv mehr Rechenleistung? :freak: Es sind auf dem Papier gerade mal 20% mehr unter Berücksichtigung der Frequenzen und Shader. In der Praxis skaliert das eh nicht 1:1 mit.
Wenn mich nicht alles täuscht hieß es früher 3,0-3,3Ghz Boost. Letzteres ist ja nicht völlig ausgeschlossen nur weil jemand jetzt im Workload X was von 3,0-3,1Ghz Boost schreibt. Alles eine Frage des Workloads. ;) Man muss sich nur die Heizlast von einem FH5 und APTR anschauen.ja, massiv. 21% mehr rechenleistung und ist gerade mal 8% schneller als die 7800xt(to be fair, bei geringerer bandbreite). bei keiner rdna3 karte skaliert core oc so schlecht wie bei de GRE.
GerryB
2024-12-26, 16:24:28
Da musste schon den Vram mit OCen.
die neueren Customs haben denselben Vram wie die 7800xt, so das da schon ein mue geht
(mit >>300W+UVen)
nehme mal an, der Kollege im Bsp. braucht nur 2700MHz einstellen und die GRE boostet dann mit open PL
auf 2770MHz
dargo
2024-12-26, 16:30:06
Ich weiß nicht was ihr mit eurem Rumgeeier um die Bandbreite habt. Das ist keine 4k Karte! Zumal heute auch kaum noch jemand im nativen 4k spielt. Der Trend geht immer stärker Richtung Upscaling. Und was ihr mit eurem Schnullermark wollt weiß auch kein Mensch. Wie kann man sich nur an sowas irrelevantem aufhängen?
GerryB
2024-12-26, 16:43:28
Willste stattdessen den PR-Score diskutieren.
vermutlich genauso sinnlos
robbitop
2024-12-26, 17:56:14
Wenn Bandbreite limitiert dann ist das auflösungsunabhängig. Auflösung kostet alles (außer Geometrie).
dargo
2024-12-26, 18:05:12
Wenn Bandbreite limitiert dann ist das auflösungsunabhängig.
Unsinn... die Hitrate vom Infinity Cache skaliert nicht linear mit der Auflösung.
https://www.computerbase.de/forum/attachments/e4el9vkxwamgqhq-jpg.1355886/
Daten zur Hitrate von RDNA3 habe ich nicht, geschweige denn RDNA4. Letzterer wird aber wohl kaum schlechter abschneiden als RDNA2 bei gleicher Größe.
Die GRE hängt auch in niedrigen Auflösungen an der Bandbreite. Aber die Beschränkung auf 260W ist auch nicht zu verachten.
robbitop
2024-12-26, 19:46:37
Unsinn... die Hitrate vom Infinity Cache skaliert nicht linear mit der Auflösung.
https://www.computerbase.de/forum/attachments/e4el9vkxwamgqhq-jpg.1355886/
Daten zur Hitrate von RDNA3 habe ich nicht, geschweige denn RDNA4. Letzterer wird aber wohl kaum schlechter abschneiden als RDNA2 bei gleicher Größe.
Das stimmt (und hatte ich dabei gar nicht bedacht - insofern: sehr guter Hinweis :up:) - liegt aber auch am Datensatz der Spiele. Der wird auch auflösungsnormiert zunehmen. (und hat es sicher auch ggü. den Graphen die AMD 2020 RDNA2 gezeigt hat inzwischen)
Slashman
2024-12-26, 20:24:32
https://ibb.co/fdS3JRS
https://ibb.co/fdS3JRS
https://i.ibb.co/HT2cZv2/Screenshot-20241226-202035-com-ijsoft-gpul.jpg
In Datenbanken taucht die RX 9070 XT bereits auf mit folgenden Daten. Meist passiert sowas kurz vor Release. Speziell diese Datenbank nimmt Sachen ganz spät auf und hat sich selten geirrt
220 Watt, das freut mich zumindestens...
robbitop
2024-12-26, 20:31:48
Immerhin 2900 MHz ^^
dargo
2024-12-26, 20:34:28
2,9Ghz Gameclock bei nur 220W wäre ein kleines Wunder bzw. zu schön um wahr zu sein. Da mag ich noch nicht so recht dran glauben. ;)
Linmoum
2024-12-26, 20:36:14
https://ibb.co/fdS3JRS
https://ibb.co/fdS3JRS
https://i.ibb.co/HT2cZv2/Screenshot-20241226-202035-com-ijsoft-gpul.jpg
In Datenbanken taucht die RX 9070 XT bereits auf mit folgenden Daten. Meist passiert sowas kurz vor Release. Speziell diese Datenbank nimmt Sachen ganz spät auf und hat sich selten geirrt
220 Watt, das freut mich zumindestens...TDP ist nicht dasselbe wie TBP, die kolportierten ~260W dürften dann vermutlich letzteres und daher der reale Verbrauch sein.
Shink
2024-12-26, 20:37:14
RDNA3 ist in sich eine architekturelle Fehlentwicklung wie Bulldozer vs K10 und müsste eigentlich wieder rückgängig gemacht werden.
Ein bisschen könnte das stimmen. RDNA3 ist irgendwie nicht so der Hammer in Sachen Effizienz im Vergleich zum größer gefertigten RDNA2
Der_Korken
2024-12-26, 21:01:02
Abgesehen davon, dass ich Datenbankeinträge ohne offizielle Vorstellung des Produkts sehr skeptisch sehe: PCIe 4.0 x16? Wow, damit dürfte PCIe 5.0 auf dem Board ein rekordverdächtig nutzloses Feature sein, wenn selbst über 3 Jahre nach Vorstellung noch neue GPUs released werden, die es nicht nutzen können. Wenn Nvidia auch auf 4.0 bleibt, würden geschätzt frühestens 5 Jahre nach den 5.0-Boards (Ende 2026) erst die passenden GPUs kommen :freak:.
robbitop
2024-12-26, 21:14:07
Selbst wenn es genutzt würde, würde es ggü PCIe4.0 in der Praxis wohl keinen nennenswerten Vorteil bringen.
Der_Korken
2024-12-26, 21:20:49
Selbst wenn es genutzt würde, würde es ggü PCIe4.0 in der Praxis wohl keinen nennenswerten Vorteil bringen.
Das mag sein, aber die Aufpreise auf PCIe 5.0-Boards wären damit rückblickend schon ein bisschen Verarsche gewesen :D.
robbitop
2024-12-26, 21:40:42
Dafür gibt es dann die tollen und super sinnvollen PCIe5 M2 slots. X-D
Ich halte teure Mainboards schon immer für Geldverschwendung ^^
Der_Korken
2024-12-26, 21:53:20
Dafür gibt es dann die tollen und super sinnvollen PCIe5 M2 slots. X-D
Vor allem zwacken die ganzen X870-Boards (außer Asrock) noch die PCIe-Lanes für die M2-Ports ab, sodass die neue GPU dann nur noch mit PCIe 4.0 x8 läuft, was dann sehr wohl Performance kosten könnte.
Aber gut, die Datenbank kann auch einfach nur Schmu anzeigen. Wie gesagt, nicht mal der Name der GPU ist offiziell bestätigt.
Linmoum
2024-12-26, 22:20:55
Bei dem, was AMD mit RDNA4 anpeilt, ist es aus deren Sicht wahrscheinlich sinnvoller, bei 4.0 zu bleiben. Auch, wenn das natürlich absurd anmuten würde, wenn man nach etlichen Jahren dann endlich mal die 5.0-Slots auf den Mainboards eigener CPUs nutzen kann - dafür aber eine GPU der Konkurrenz braucht...
vinacis_vivids
2024-12-27, 04:23:08
195W @N33 lassen sich auch wesentlich günstiger kühlen und betreiben als 500W @N31 mit "offenem" Powerlimit. Bei N32 stand womöglich auch der Fokus beim Preis.
Wer sagt das? V_V? :lol:
Vega 64 macht ~1800 Mhz bei Cyberpunk 2077 :
https://youtu.be/krLDpIA2vFE?feature=shared
Die Frage ist nur ob dieses Forum mich überhaupt noch interessiert mit den 10-15% Informationsgehalt während ich selber auf 80-90% komme 😂
Bei RDNA3 ist alles auf den Preis fokussiert und AMD konnte den Preis halten.
Bei N31/N32 ist nur das GCD teuer, die 6nm MCDs kosten fast nichts.
Deine "Expertise",die du hier stillschweigend zu RDNA3 verteilst (wie viele andere) , ist ein absoluter Witz und BS.
KarlKastor
2024-12-27, 06:51:09
Und weil das ganze so unglaublich erfolgreich war, machen sie es diesmal komplett anders?
GerryB
2024-12-27, 07:42:55
NVIDIA and AMD have launched an acceleration of their next-generation GPU production and shipping schedules, racing to beat impending Trump administration tariffs that could inflate prices by up to 60%. The companies are prioritizing delivery to US warehouses before January 20, when the new trade measures are supposed to take effect. (x)
Da wirds wohl in Dtl. erstmal nicht so viele Grakas zum Launch geben.
(x) konsequenterweise könnte AMD auch ne Menge restliche RDNA3+2 auf der Welt einsammeln und ebenfalls in die USA
shippern
BlacKi
2024-12-27, 09:32:00
ich verstehe die diskussion nicht. hieß es nicht, die 5080 käme vor der 5090? und selbst dann, die 4090 wurde am 20sept. vorgestellt, und auf den markt kam sie erst am 12.okt., also 22 tage später? also frühstens am 27.01 kommt die 5080, oder vl auch gleich die 5090, was aber spekulation ist?
also spielt das keine rolle. zumal es spekulation ist, ob die zölle wirklich zu diesem zeitpunkt schon anfallen.
AffenJack
2024-12-27, 09:38:50
Zu Anfang hieß es, es kommen viel mehr Karten im Januar. Das macht schon Sinn, dass die meisten auf Februar geschoben sind, weil man erstmal alles in die USA schickt, damit es da auf Lager ist. Dann kommt chinesisches Neujahr, wo die Produktion still steht. Mit mehr Karten kann man dann erst Ende Februar rechnen.
Es spielt keine Rolle, ob die Zölle am 20 wirklich schon kommen. Alleine wegen der Möglichkeit sind in den USA alle am importieren von Waren soviel es geht. Alles andere wäre als Firma auch unverantwortlich.
Langlay
2024-12-27, 09:51:28
Die Frage ist nur ob dieses Forum mich überhaupt noch interessiert mit den 10-15% Informationsgehalt während ich selber auf 80-90% komme 😂
https://i.giphy.com/media/v1.Y2lkPTc5MGI3NjExNHlmaThvZ2Z4a2xhMmxkNzhoYWVmeGtldzN6cXoxbXFxcTR6emdheiZlcD12M V9pbnRlcm5hbF9naWZfYnlfaWQmY3Q9Zw/FgJbAcKy4wwBa/giphy.gif
basix
2024-12-27, 10:02:15
Unsinn... die Hitrate vom Infinity Cache skaliert nicht linear mit der Auflösung.
https://www.computerbase.de/forum/attachments/e4el9vkxwamgqhq-jpg.1355886/
Jein ;) Kommt drauf an wie man es betrachtet:
- Bei gleichbleibender Auflösung steigt die Hitrate ca. mit sqrt(X), verdoppelter Cache heisst also ~1.41x Hitrate oder anders gesagt Bandbreitemultiplikator
- Bei verdoppelter Auflösung (Anzahl Pixel) benötigt man doppelten Cache für die gleiche Hitrate
Daten zur Hitrate von RDNA3 habe ich nicht, geschweige denn RDNA4. Letzterer wird aber wohl kaum schlechter abschneiden als RDNA2 bei gleicher Größe.
Bei RDNA3 hatte AMD gesagt, dass sie dazu gelernt haben und der IF$ effektiver geworden ist. Wie viel? Keine Ahnung. Ich nehme aber wie du an, dass die 64MByte bei N48 "mehr Wert" sind als bei RDNA2 oder RDNA3.
Ein bisschen könnte das stimmen. RDNA3 ist irgendwie nicht so der Hammer in Sachen Effizienz im Vergleich zum größer gefertigten RDNA2
Bulldozer ist definitiv nicht der richtige Vergleich. Bulldozer hatte eine völlig schiefgelaufene Architektur (falsche Prioritäten und ein paar Implementationsmängel). Bei RDNA3 ging bei der Implementation etwas schief und deswegen erreichen die Chips nur 20% tiefere Taktraten und saufen dazu etwas mehr. Stell dir die 7900XTX bei 1.2x Performance und 330W vor, dann sähe das Bild ganz anders aus.
dargo
2024-12-27, 12:54:06
Bei RDNA3 hatte AMD gesagt, dass sie dazu gelernt haben und der IF$ effektiver geworden ist. Wie viel? Keine Ahnung.
Logisch, dass der effektiver sein muss wenn AMD bei N32 direkt die halbe Größe vs. N21 einsparen konnte. Gut... N32 hat jetzt 22% mehr Speicherbandbreite was ihm auch etwas hilft.
Shink
2024-12-27, 13:44:55
Bei RDNA3 ging bei der Implementation etwas schief und deswegen erreichen die Chips nur 20% tiefere Taktraten und saufen dazu etwas mehr. Stell dir die 7900XTX bei 1.2x Performance und 330W vor, dann sähe das Bild ganz anders aus.
Exakt das hat sich AMD ja auch beim Bulldozer erwartet. Man war überzeugt, dass ein hoher Takt alles richten wird.
G3cko
2024-12-27, 13:47:09
Bei dem, was AMD mit RDNA4 anpeilt, ist es aus deren Sicht wahrscheinlich sinnvoller, bei 4.0 zu bleiben. Auch, wenn das natürlich absurd anmuten würde, wenn man nach etlichen Jahren dann endlich mal die 5.0-Slots auf den Mainboards eigener CPUs nutzen kann - dafür aber eine GPU der Konkurrenz braucht...
Das Thema PCIe Standard ist vollkommen uninteressant. Wenn Grafikkarten mit einem neuen PCIe Standard kommen, dann hätte es auch der Alte lange getan. Noch nie hat die Bandbreite limitiert.
Und auf Seiten der CPU//Plattform sind sämtliche Entwicklungsressourcen in die Plattform (neuer PCIe Standard und neuer DRAM Standard) und wenig in die CPU geflossen. Ergo in der Regel immer eine langweilige CPU-Generation und mit einer überteuerten Plattform mit teuren DRAM Modulen, welche ebenfalls noch 2 Jahre brauchen bis sie überhaupt preislich und performancetechnisch interessant werden.
Ergo, als informierter Hardware-Nerd genau die Generation die man auslassen sollte. Und auf Seiten der PCIe-Hardware ebenso kein Mehrwert zum Erscheinungszeipunkt, da Bandbreite nie der Flaschenhhals war. Für die DAUs aber genug Buzz-Wörter um den Preis hochzutreiben.
Exxtreme
2024-12-27, 14:07:28
Das Thema PCIe Standard ist vollkommen uninteressant. Wenn Grafikkarten mit einem neuen PCIe Standard kommen, dann hätte es auch der Alte lange getan. Noch nie hat die Bandbreite limitiert.
Das kann man pauschal auch so nicht sagen. Viele Budget-Grafikkarten haben eine halbierte PCIe-Anbindung. Ein älterer PCIe-Bus auf der Hauptplatine bremst halt dann doch. PCIe 4x16 dürfte aber für RDNA4 reichen, ja.
gas3t
2024-12-27, 19:12:02
Ich denke NVIDIA wird alle Modelle über der 5070 TI preislich sehr hoch ansetzen. Die 5090 ist quasi eine doppelte 5080. Da kann man preislich in die vollen gehen und am Ende passt noch eine 5080 TI dazwischen (die später als Refresh erscheint).
RTX 5090 | 170 SM | 32 GB GDDR7 | 512-bit 28 Gbps | 600 W | 2.499 €
RTX 5080 TI | 120 SM | 24 GB GDDR7 | 384-bit 28 Gbps | 500 W | 1.999 €
RTX 5080 | 84 SM | 16 GB GDDR7 | 256-bit 28 Gbps | 400 W | 1.299 €
RTX 5070 TI | 70 SM | 16 GB GDDR7 | 256-bit 28 Gbps | 300 W | 899 €
RTX 5070 | 48 SM | 12 GB GDDR7 | 192-bit 28 Gbps | 250 W | 699 €
Bei AMD wird die alte 7900 Serie die Spitze bilden, wobei die 7900 XT und 9070 XT preislich ähnlich positioniert werden. Dann kann man sich zwischen besserer Raster-Leistung, 20 GB und besserer Raytracing-Leistung, Effizienz, FSR4 entscheiden.
RX 7900 XTX | 96 CU | 24 GB GDDR6 | 384-bit 20 Gbps | 355 W | 899 €
RX 7900 XT | 84 CU | 20 GB GDDR6 | 320-bit 20 Gbps | 315 W | 699 €
RX 9070 XT | 64 CU | 16 GB GDDR6 | 256-bit 20 Gbps | 265 W | 699 €
RX 9070 | 56 CU | 16 GB GDDR6 | 256-bit 20 Gbps | 220 W | 599 €
OgrEGT
2024-12-27, 19:21:07
DIe 7900XT hat 320bit SI...
robbitop
2024-12-27, 19:25:23
Ich würde eher darauf tippen dass N31 und N32 EOL gehen. So wie damals Fijii als Polaris kam.
basix
2024-12-27, 19:25:38
Exakt das hat sich AMD ja auch beim Bulldozer erwartet. Man war überzeugt, dass ein hoher Takt alles richten wird.
Bulldozer hatte einen hohen Takt, bis 5 GHz und das war noch schlimmer als mit den tiefer getakteten SKUs :freak:
Bei RDNA3 stimmen die meisten Grundfeatures und es gibt einige Indizien, dass der Chip >3GHz könnte aber "aus Gründen" nicht kann. Bulldozer war inhärent nicht optimal, da ST-Performance / IPC einfach nicht da war. Bei RDNA3 erreichte man anscheinend das Takt-Ziel einfach nicht. Das ist ein grosser Unterschied.
Hätte +20% Takt gereicht um Nvidia zu übertrumpfen? Wohl nicht ganz. Aber es wäre wie RDNA2 ziemlich konkurrenzfähig gewesen, ausser RT ist einem sehr wichtig.
Ich würde eher darauf tippen dass N31 und N32 EOL gehen. So wie damals Fijii als Polaris kam.
Ich nehme an auch N33 wird auslaufen, ausser N4P vs. N6 ist knapp hinsichtlich Wafermenge (was unwahrscheinlich ist). N44 mit 8/16GB ersetzt die N33 hinsichtlich Speichermenge, ist schneller, energieffizienter und bringt neue Features mit. Falls N44 wirklich so extrem klein ist (~140mm2) dürfte eine N44 Karte günstiger in der Herstellung sein wie eine N33 Karte (203mm2)
Ich denke, dass es zudem eine 96bit 12GByte Variante von N44 geben wird. 8GByte sind mittlerweile nur noch für Entry Karten empfehlenswert.
Und weil das ganze so unglaublich erfolgreich war, machen sie es diesmal komplett anders?
Hätten sie ja nicht, wenn es den größeren gegeben hätte ;). Es haben ja nur die kleinen Dies überlebt.
basix
hats jemals ne 96Bit Variante in letzter Zeit gegeben? Nein, es gibt natürlich keine 96Bit-Variante.
robbitop
2024-12-27, 19:39:43
Ich nehme an auch N33 wird auslaufen, ausser N4P vs. N6 ist knapp hinsichtlich Wafermenge (was unwahrscheinlich ist). N44 mit 8/16GB ersetzt die N33 hinsichtlich Speichermenge, ist schneller, energieffizienter und bringt neue Features mit. Falls N44 wirklich so extrem klein ist (~140mm2) dürfte eine N44 Karte günstiger in der Herstellung sein wie eine N33 Karte (203mm2)
Ich denke, dass es zudem eine 96bit 12GByte Variante von N44 geben wird. 8GByte sind mittlerweile nur noch für Entry Karten empfehlenswert.
Ja das macht Sinn.
basix
2024-12-27, 20:04:08
hats jemals ne 96Bit Variante in letzter Zeit gegeben? Nein, es gibt natürlich keine 96Bit-Variante.
Laut Gerüchten soll es das von N44 geben, siehe News auf der Hauptseite ;)
Und sind wir ehrlich, es würde auch viel Sinn machen. Wie gesagt, 8GByte sind nur noch für Entry-Karten relevant. Alles andere wird sich nicht gut verkaufen. Der Gegner heisst B580 12GB.
Ich kann mir kaum vorstellen, dass es eine 6GByte N44 Karte werden wird. Die wird sich definitiv nicht gut verkaufen. Ich habe aber irgendwo gelesen, dass N44 keine Video Encoder haben soll. Vielleicht wird N44 wieder so ein N24 Rohrkrepierer, ich hoffe es aber nicht.
robbitop
2024-12-27, 21:04:30
https://youtu.be/J15S7CT1X6E?si=mjtJgoaAb_OGWJqS
Neuste Gerüchte: die scores könnten ein jebait gewesen sein. Boost clocks von 3-3.1 GHz und 5% langsamer als die 4080 (non super reference). 26x W TBP für reference boards und 330W für offene 3rd Party Karten.
Dann würden 650 usd wieder mehr Sinn machen. Das wäre schon geil… ^^
edit: hab mal fix in den cb Raster Index geschaut für 1440p und 4k und da liegt eine 4080 gute 50% vor der 7800XT.
Wenn man jetzt die Mehr CUs mit 70% Skalierung annimmt und den Takt skaliert kommt man grob auf +25% ggü der 7800XT. Wenn es stimmt dass man nur 5% langsamer als eine 4080 wird, muss sich pro TFLOP (also CU- und taktnormiert) da auch einiges getan haben. Wäre fast zu gut um wahr zu sein. ^^
Oder es sind diese wait states die bei RDNA3 kurz vor launch eingefügt werden mussten um Fehler zu vermeiden von denen vor einer ganzen weile RGT mal gesprochen hatte die jetzt dank fixes vermieden werden konnten.
Er hatte dazu geschrieben, dass die vorgestellte Performance ohne diese wäre und dass auch die AMD engineers wohl negativ überrascht von der Performance waren. (aber ggf. nicht in der wait state implementierung steckten)
basix
2024-12-27, 21:06:50
...und wie im Video von RGT 9700XT anstatt 9070XT heisst?! :D
Der_Korken
2024-12-27, 21:28:57
Man sollte bei der Hochrechnung der Rechenleistung nicht die Bandbreite aus dem Auge verlieren. Die muss natürlich bei weitem nicht 1:1 auf die Bandbreite der 7800XT heruntergerechnet werden, da die GRE aus knapp 10% weniger Bandbreite noch 7% mehr Leistung rausholt. Aber mit quasi der gleichen Bandbreite direkt mal 40%+ über der 7800XT zu landen ist dann doch etwas optimistisch. Man sollte bedenken, dass AMD bewusst auf GDDR7 und auf mehr Cache verzichtet hat (sowas wie 80MB an vier Channel sollte problemlos gehen, wenn man die Assoziativität auf 10-fach, 20-fach, o.ä. anhebt). 30% über 7800XT könnten aber durchaus drin sein.
robbitop
2024-12-27, 21:38:06
Ggf hat sich da auch was getan oder aber die Leistung liegt nur bei hohen Hitrates (also nicht den höchsten Auflösungen bzw. der Nutzung von FSR) an.
Dazu kommt, dass die 7800XT deutlich weniger tflops/gb/s hat - also deutlich mehr rohleistungsnormierte Bandbreite. Entsprechend sind da auch Reserven vorhanden die man ausfahren kann. Aber stimmt schon: nicht für +45%.
Aber in Kombination mit Szenarien hoher Cachehitrates ggf?
Monsta
2024-12-27, 21:39:54
Der Hypetrain mit dem Kennzeichen 1337 ist bereit für die Abfahrt.
Bitte Einsteigen!
robbitop
2024-12-27, 21:40:42
Inhaltlich sehr guter Beitrag :up:
mironicus
2024-12-28, 08:15:03
Aber wieviel Prozent des Marktes kann AMD mit RDNA4 abdecken... 98%? Nur 2% kaufen Grafikkarten über 1000 Dollar?
basix
2024-12-28, 10:26:02
98% dürfte etwas zu hoch sein, RDNA4 geht ja "nur" bis ca. 500-600$. Aber >80% werden es definitiv sein und evtl. könnte man auch die 90% knacken (inkl. Mobile).
Wenn AMD die Market-Share Strategie voll ausfahren will machen sie es mit den zwei Chips also schon richtig. Nur müssen die Produkte auch vollumfänglich gut und rund sein, wenn man gegen Nvidia bestehen will. Ich habe lieber zwei sehr gute AMD "Mittelklasse" Chips und gute Features wie FSR4, RR, ... als etwas halbgares über 4 Chips verteilt.
AMDs Chance ist hier, dass Nvidia sehr hohe Preise verlangt inkl. sehr hohen Margen. Das heisst AMD hat Luft, um über P/L zu punkten ohne dass sie daran kaputt gehen (=nichts daran verdienen).
KarlKastor
2024-12-28, 11:25:11
Hätten sie ja nicht, wenn es den größeren gegeben hätte ;). Es haben ja nur die kleinen Dies überlebt.
Und warum ist N48 nicht als Chiplet realisiert? Ist ja nicht kleiner als N32. Scheint wohl doch nicht soo toll gewesen zu sein.
basix
2024-12-28, 11:43:07
Hö? N48 soll einiges kleiner sein als N32. Bei N32 ist nur das GCD alleine kleiner als N48. N48 ist mit ~240mm2 im Gespräch. N32 ist 200 + 4*37.5mm = 350mm2 gross. N32 wäre auch ohne Chiplet-Architektur ~270mm2 gross geworden
Zum Thema Chiplets:
Entwicklungszeit und -kosten, N3-Verfügbarkeit, Strategiewechsel. Alles zusammen ;) Eine Chipletarchitektur wird mehr Aufwand in der Entwicklung bedeuten. AMD braucht diese Ressourcen nun aber dringend für CDNA (und UDNA, diese Arbeit könnte man später wieder in Gaming-GPUs zurückführen). Ausserdem machen Chiplets nur bei grösseren Chips Sinn, N44 war immer monolithisch geplant. Jetzt streicht AMD die grossen Chips weg und hat nur noch N44 und fügt N48 dazu. Macht es hier nun Sinn, Chiplets zu verbauen obwohl man die Chiplets nicht mehr bei 2-3 Produkte verwenden kann sondern nur noch bei N48? Vermutlich nicht. Dazu ist N48 zu klein und eben ein einzelner Chip. Man hat die Skalierungseffekte nicht. Dazu noch der Punkt, dass z.B. N4C ursprünglich mit N3-Chiplets geplant war. Jetzt hat sich N3 verzögert und man fällt auf N4P zurück, was für N44 wohl bereits so angedacht war. Was macht man nun? Man nimmt N44 und skaliert in etwas hoch und lässt das Chiplet Zeugs weg. Fertig ist N48. Ich glaube nicht, dass Chiplets per se das Problem waren sondern die Umstände rundherum.
Und mir ist es eigentlich egal, ob monolithisch oder mit Chiplets. Ich finde Chiplets technisch sehr interessant, doch für mich ist primär entscheidend, ob das Produkt gut ist. Und N48 könnte das Potential dazu haben. Hoffen wir, das bestätigt sich ;)
Oder auch allgemeiner, ich hoffe das RDNA4 gut wird. Das wird die Basis sein für die nächste/übernächste Generation an dGPUs und APUs sowie allenfalls Smartphone-GPUs (Samsung) als auch bei RDNA4+1 die NextGen-Konsolen (PS6 und Co.). Eine gute RDNA4-Architektur könnte also eine grosse Tragweite haben. Eine schlechte halt auch.
robbitop
2024-12-28, 11:55:23
Waren es nicht 270 mm2 für N48 zuletzt?
basix
2024-12-28, 12:10:46
Habe die Übersicht verloren :D
Kann auch 270mm2 sein. N32 ist deswegen aber immer noch nicht kleiner ;)
KarlKastor
2024-12-28, 12:19:47
Hö? N48 soll einiges kleiner sein als N32.
Ja? Wo soll das denn herkommen? Mehr CU, besseres Raytracing. Schreit irgendwie nicht nach weniger Transistoren.
Entwicklungszeit und -kosten, N3-Verfügbarkeit, Strategiewechsel. Alles zusammen ;) Eine Chipletarchitektur wird mehr Aufwand in der Entwicklung bedeuten.
Ja eben. behauptet wurde, es sei ja so kostengünstig. Es ist eben mehr als Fertigung. Dazu kommt eben auch Performance. Wenn das Produkt dadurch langsamer ist kann ich es auch nur für weniger verkaufen.
Jetzt streicht AMD die grossen Chips weg und hat nur noch N44 und fügt N48 dazu. Schon sehr spekulativ. Was gibt es als Anhaltspunkt, dass N48 nachräglich entwickelt wurde?
Ich glaube nicht, dass Chiplets per se das Problem waren sondern die Umstände rundherum.Ist am Ende auch ziemlich irrelevant. AMD hat es bei RDNA3 nicht hinbekommen. Und ob sie es bei RDNA4 geplant hatten und dort vernüftig gelaufen hätte werden wir nie herausfinden.
Oder auch allgemeiner, ich hoffe das RDNA4 gut wird. Das hoffen wir wohl alle.
KarlKastor
2024-12-28, 12:22:56
N32 ist deswegen aber immer noch nicht kleiner ;)
Wurde ja auch nicht behauptet. Die Aussage war N48 ist nicht kleiner. DU hast hingegen behauptet N48 wäre deutlich kleiner
robbitop
2024-12-28, 12:48:20
Wobei da ausgehend von N31/32 pro CU schon noch ordentlich Potenzial ist. Wenn man den Transistorcount pro CU mit N33 vergleicht war das nicht besonders effizient. N33 auf 64 CUs hochskaliert und die gestiegene Transistordensity von N4P ggü N5/P und der Entfall der ganzen Chipletkommunikation hat man ggf. schon wieder Platz.
Auch AD103 zeigt trotz modernerer uArch ja auch ordentlich punch pro Transistor was auch Indikator für Potenzial für Verbesserungen aus der uArch kommen. Hat AMD vor vielen Jahren ja auch von r600 auf rv770 gezeigt.
Aber ja: da muss einiges passiert sein ausgehend von rdna3 damit ~ad103 Performance bei rumkommen soll.
Skepsis ist auf jeden Fall angebracht.
Aber wenn AMD das geschafft hat und es attraktiv gepriesen sollte wäre das für GPU Käufer im heutigen Markt durchaus attraktiv.
Der_Korken
2024-12-28, 12:49:09
Und warum ist N48 nicht als Chiplet realisiert? Ist ja nicht kleiner als N32. Scheint wohl doch nicht soo toll gewesen zu sein.
N32 wurde nicht deswegen als Chiplet-Modell aufgelegt, weil der Die sonst zu groß gewesen wäre, sondern weil man für N31 und N32 die gleichen MCDs nutzen konnte und es für zwei Modelle gelohnt hat, so ein Verfahren zu entwickeln. Hätte es N31 nie gegeben, hätte sich AMD nur für N32 auch nicht die Mühe gemacht, das in Chiplets aufzuteilen. Genauso hätte es auch nie Ryzen-Chiplets gegeben, wenn AMD keine Produkte oberhalb von 8 Kernen entwickelt hätte.
basix
2024-12-28, 12:59:08
Ja eben. behauptet wurde, es sei ja so kostengünstig. Es ist eben mehr als Fertigung. Dazu kommt eben auch Performance. Wenn das Produkt dadurch langsamer ist kann ich es auch nur für weniger verkaufen.
Es IST auch kostengünstig. Doch davon hat man nur einen Vorteil, wenn man das auch skalieren kann oder das Ding sonst so gross wäre, dass es nicht anders geht (Ponte Vecchio, MI300, B200).
Der_Korken hat das ganz gut gesagt:
N32 wurde nicht deswegen als Chiplet-Modell aufgelegt, weil der Die sonst zu groß gewesen wäre, sondern weil man für N31 und N32 die gleichen MCDs nutzen konnte und es für zwei Modelle gelohnt hat, so ein Verfahren zu entwickeln. Hätte es N31 nie gegeben, hätte sich AMD nur für N32 auch nicht die Mühe gemacht, das in Chiplets aufzuteilen. Genauso hätte es auch nie Ryzen-Chiplets gegeben, wenn AMD keine Produkte oberhalb von 8 Kernen entwickelt hätte.
--------------------------
Schon sehr spekulativ. Was gibt es als Anhaltspunkt, dass N48 nachräglich entwickelt wurde?
Ja ist alles spekulativ und meine Interpretation. N48 ist aber vom Namen her ein Indiz, dass der erst später dazu gekommen ist. AMDs Chips sind seit RDNA1 immer der Reihe nach nummeriert (OK, bei RDNA1 gab es N10, N12, N14). N48 fällt da aus dem Raster.
Wurde ja auch nicht behauptet. Die Aussage war N48 ist nicht kleiner. DU hast hingegen behauptet N48 wäre deutlich kleiner
Ehm wenn du behauptest dass N48 nicht kleiner ist als N32, heisst das im Umkehrschluss dass N32 kleiner ist (oder gleich gross).
Das wird vermutlich aber nicht stimmen, zumindest deuten alle Gerüchte auf einen ziemlich kleinen Chip hin. Und 240...270mm2 wären nunmal signifikant weniger als total 350mm2. Und was du behauptest (N48 ist grösser oder gleich gross) und ich behaupte (N48 ist kleiner) hat hier so ziemlich das gleiche Gewicht, wir sind in einem Speku-Forum ;) Aber es geht ja nicht mehr lange, dann wissen wir vermutlich mehr.
Und warum ist N48 nicht als Chiplet realisiert? Ist ja nicht kleiner als N32. Scheint wohl doch nicht soo toll gewesen zu sein.
Wieso sollte man einen 200mm²+ Chip als Chiplets realisieren?
basix
2024-12-28, 13:32:55
Es kann schon Sinn machen. Ryzen zeigt es ja auch.
Aber eben:
Man muss es auf verschieden Produkte skalieren, sonst macht es wenig Sinn. Am meisten Sinn macht es, wenn man sehr weit nach oben und über das Reticle Limit hinaus skalieren kann, EPYC ist hier das Paradebeispiel. Aber selbst Intel rudert mit Chiplets etwas zurück und hat bei Alder Lake und Lunar Lake weniger Chiplets als bei Meteor Lake. Chiplets ist bei ihnen fast zwingend nötig, weil sie auf verschiedene Prozesse setzen (Intel & TSMC). Und Ponte Vecchio mit Chiplets @ Extreme wurde auch gegen ein simplerers Design eingetauscht (Gaudi 3 sieht wie B100 oder MI250X aus). Solange man also keine Kosten-, Skalierungs- und/oder R&D-Vorteile von Chiplets hat, macht man es nicht. N48 scheint diesen Tipping Point nicht überschritten zu haben, der Chiplet Overhead lohnt sich nicht weil man nicht genug skalieren kann.
Nein es ergibt keinen Sinn ne GPU mit 200-300mm² als Chiplets zu realisieren. CPU ist ja nun mal auch ein bisschen was anderes. Jetzt vereteidige nicht auch noch seinen Trollversuch :freak:
basix
2024-12-28, 13:44:22
Nee nicht verteidigen ;)
Den RDNA3 Ansatz könnte man ja von 64...512bit skalieren, wenn man wollte und das würde auch Sinn machen (ausser dass der Verbrauch bei Mobile GPUs leicht nach oben geht). AMD hat hier allerdings nicht die Stückzahlen und auch nicht die Top Dog GPU. Wäre RDNA3 auf Lovelace Niveau was Performance, Features und Effizienz angeht, hätte AMD das sicher stärker skaliert. Und auch der sagenumwobene N4C wäre in der "Single"-Variante bei wohl insgesamt ~200mm2 gelandet.
Nvidia hat das Chiplet-Zeugs nicht nötig, weil sie Stückzahlen, Margen und R&D-Manpower haben, wo das nicht so eine Rolle spielt. Sie optimieren ihre Herstellungskosten, indem sie 5x Chips designen. Wie Intel früher. AD107 ist mit 159mm2 nur unwesentlich kleiner wie AD106 mit 188mm2. Aber auch bei Nvidia wird es irgendwann mal Chiplet-GPUs geben, spätestens mit High-NA EUV und ~400mm2 Reticle Limit.
Nightspider
2024-12-28, 14:13:52
Abgesehen davon, dass ich Datenbankeinträge ohne offizielle Vorstellung des Produkts sehr skeptisch sehe: PCIe 4.0 x16? Wow, damit dürfte PCIe 5.0 auf dem Board ein rekordverdächtig nutzloses Feature sein, wenn selbst über 3 Jahre nach Vorstellung noch neue GPUs released werden, die es nicht nutzen können. Wenn Nvidia auch auf 4.0 bleibt, würden geschätzt frühestens 5 Jahre nach den 5.0-Boards (Ende 2026) erst die passenden GPUs kommen :freak:.
RTX5000 soll PCIe 5.0 haben.
basix
2024-12-28, 14:20:45
Nicht nur soll: RTX5000 hat PCIe 5.0. Gibt Bilder vom PCB mit den PCIe-Slot Kontakten. Für RDNA4 wäre PCIe 4.0 aber definitiv genügend. PCIe 5.0 auf dem Motherboard wird damit ja noch nicht nutzlos. Entweder man kauft sich eine RTX5000 oder halt eine +1 Gen Karte von AMD oder Nvidia, man kann ja mit dem selben Motherboard vermutlich auf Zen 6 upgraden ;)
mboeller
2024-12-28, 14:34:20
Aber eben:
Man muss es auf verschieden Produkte skalieren, sonst macht es wenig Sinn. Am meisten Sinn macht es, wenn man sehr weit nach oben und über das Reticle Limit hinaus skalieren kann,
würde mit N48 ja auch noch gehen, wenn der ursprüngliche RDNA4 Ansatz im Zuge der Umstrukturierung nicht verloren gegangen ist bzw. ursprünglich überhaupt so wie im N41-Patent dargestellt funktioniert hat...
... und duck und weg. ;)
PS: N48 soll ja angeblich ein funktionierendes GDDR7 Speicherinterface besitzen
robbitop
2024-12-28, 14:37:13
Ich hab mal ein wenig mit Perplexity rumgespielt (also keine Garantie für den Inhalt). Doppelter N33 (als Grundlage für einen transistoreffizienten Unterbau) unter der Berücksichtigung der Packdichte des L3 Cache von Zen 5 und AD103 (sehr ähnlich).
Dann kommt dabei 237 mm2 mit 29 Mrd Transistoren heraus. Bleiben also für Verbesserungen in der uArch wenn die 270 mm2 stimmen sollten noch 33 mm2 mit 4 Mrd Transtoren heraus.
Unter der Annahme dass es wait states bei rdna3 gab die gefixt worden sind und unter der Annahme dass die Verbesseungen für NN und RT so ähnlich sind wie bei der PS5PRO (also potenziell sehr lightweight - nicht wirklich viel fixed function sondern eher tuning für die GP HW) erscheint ein solches Ergebnis zumindest nicht unmöglich.
hier der Perplexit Dialog dazu: https://www.perplexity.ai/search/can-you-lookup-the-transistor-.kLu3QInQeWaAncs1JdURw
robbitop
2024-12-28, 14:58:42
Wenn man davon ausgeht dass die Mehr CUs und der Mehrtakt 25% ggü N32 bringen und wenn man die AMD Ergebnisse beim Launch (aber vor den Reviews) mit den Reviewergebnissen vergleicht (und da kann man Wochen vor den reviews nicht mehr von eine Taktüberraschung ausgehen - da macht die Waitstate Geschichte mehr Sinn - insbesondere wenn man bedenkt wie wenig aus den neuen CUs mit doppeltem FP Durchsatz rauskam) sind das weitere 15-20%.
Ob das auch wirklich so ist - keine Ahnung. Aber ich fand schon immer dass bei RDNA3 pro W und pro Transistor zu wenig rauskam - insbesondere wenn man bedenkt dass AMD etwas vor dem launch noch von 50% mehr Perf/W sprach. Aber wenn davon etwas wahr ist, lässt es das ~4080 perf Gerücht zumindest nicht ganz unmöglich darstellen. Wenn auch zugegeben sehr optimistisch.
Und da leider oft herausgestellt hat, dass Gerüchte vor AMD Launches sehr optimistisch waren relativ zu dem was dann kam. Naja.
Optimistisch aber zumindest nicht ganz unmöglich.
Hakim
2024-12-28, 16:07:15
Erschlagt mich nicht wenn ich falsch liege, aber ich glaube das mit ~4080 sind vielleicht Ausnahme Fälle und wird in avg sich darunter einsortieren. Ich hatte ja vor den neueren leaks immer so eine art 4070ti S im Kopf, mit ähnlichen Raster und RT Leistung und Vram für einen wesentlich attraktiveren Preis. Könnte ja immer noch hinhauen
basix
2024-12-28, 17:48:44
Wenn man davon ausgeht dass die Mehr CUs und der Mehrtakt 25% ggü N32 bringen und wenn man die AMD Ergebnisse beim Launch (aber vor den Reviews) mit den Reviewergebnissen vergleicht (und da kann man Wochen vor den reviews nicht mehr von eine Taktüberraschung ausgehen - da macht die Waitstate Geschichte mehr Sinn - insbesondere wenn man bedenkt wie wenig aus den neuen CUs mit doppeltem FP Durchsatz rauskam) sind das weitere 15-20%.
Was sollen das für Waitstates sein?
Das mit dem Takt ist dennoch komisch, da AMD auf einer Folie "engineered for 3 GHz" stehen hatte.
robbitop
2024-12-28, 19:03:58
Jo das stimmt. Aber der launch war wenige Wochen vor den Reviews und es gab Benchmarks von AMD. Da wird man schon Monate (wenn nicht Quartale lang) von der Taktbarkeit gewusst haben.
Takten lässt sich RDNA3 ja auch über 3 GHz nur fängt er da sehr sehr stark an zu saufen. Ggf hatte man ja eine 500W SKU geplant (mit gestackten MCMs) die dann aber nicht kam als man realisierte dass das gegen Ada hätte ausgesehen wie damals der FX5950 - verzweifelt.
Zu dem Thema mit den Waitstates gibt es nichts Spezifisches außer das was ich schon geschrieben hab.
- kommt von MLID und ist schon ne Weile her
- es gab wohl überraschenderweise Instabilitäten oder Artefakte die sich wohl über waitstates beheben ließen die erst kurz vor knapp entdeckt worden sind
- AMD engineers hätten ihm wohl erzählt (mehrere unabhängig voneinander) dass sie negativ überrascht von der Leistung waren und eigentlich mehr hätte drin sein müssen
- die Diskrepanz zwischen den AMD Werten und den Reviews war ja signifikant und bis dahin waren die AMD Zahlen eigentlich nicht so falsch (andererseits war es beim Zen 5 launch ja auch so was die Game Benchmarks anging)
KarlKastor
2024-12-28, 19:05:27
Und 240...270mm2 wären nunmal signifikant weniger als total 350mm2.
Das ist doch ein unsinniger Vergleich. Die Chipgröße für beide entweder als Chiplet oder als Monolith muss man heranziehen. Du kannst doch nicht beim N32 die Gesamtfläche summieren und dann sagen es sei mehr als der monolithische N48 und deswegen macht es keinen Sinn.
Und was du behauptest (N48 ist grösser oder gleich gross) und ich behaupte (N48 ist kleiner) hat hier so ziemlich das gleiche Gewicht, wir sind in einem Speku-Forum ;)
Keine Ahnung was da soll. Du hast mir was unterstellt, was ich nicht behauptet habe. Da habe ich klar gestellt.
KarlKastor
2024-12-28, 19:06:37
Nein es ergibt keinen Sinn ne GPU mit 200-300mm² als Chiplets zu realisieren. CPU ist ja nun mal auch ein bisschen was anderes. Jetzt vereteidige nicht auch noch seinen Trollversuch
Kommen noch Argumente? Oder bleibt es bei deinem üblichen unsachlichen Geseier?
N32 wäre als Monolith auch <300 mm².
basix
2024-12-28, 19:15:16
Keine Ahnung was da soll. Du hast mir was unterstellt, was ich nicht behauptet habe. Da habe ich klar gestellt.
Zeige mir bitte, wo ich dir was unterstelle. Danke.
Zu dem Thema mit den Waitstates gibt es nichts Spezifisches außer das was ich schon geschrieben hab.
- kommt von MLID und ist schon ne Weile her
- es gab wohl überraschenderweise Instabilitäten oder Artefakte die sich wohl über waitstates beheben ließen die erst kurz vor knapp entdeckt worden sind
- AMD engineers hätten ihm wohl erzählt (mehrere unabhängig voneinander) dass sie negativ überrascht von der Leistung waren und eigentlich mehr hätte drin sein müssen
- die Diskrepanz zwischen den AMD Werten und den Reviews war ja signifikant und bis dahin waren die AMD Zahlen eigentlich nicht so falsch (andererseits war es beim Zen 5 launch ja auch so was die Game Benchmarks anging)
Ah OK, kann mich an das von MLID erinnern.
Nun ob es daran lag oder nicht werden wir wohl nie erfahren. Klar ist, dass RDNA3 nicht das erreicht hat was er sollte. Die 1.5x Perf/W wurden verfehlt wie auch die beim Launch-Event gezeigte Performance.
AlterSack
2024-12-28, 20:33:38
Bulldozer hatte einen hohen Takt, bis 5 GHz und das war noch schlimmer als mit den tiefer getakteten SKUs :freak:
nun, so schlimm war er auch nicht.
hab noch eine A10 6700 im linuxrechner. :smile:
und so ein 8350e war in skyrim flotter als ein phenomII mit 3,2 ghz.
Dino-Fossil
2024-12-28, 22:46:01
Zu dem Thema mit den Waitstates gibt es nichts Spezifisches außer das was ich schon geschrieben hab.
Was ich an der Geschichte immer seltsam fand war, dass man angeblich nichts bemerkt haben soll bis kurz vor Release. Gut, AMD und der Zustand der Treiber beim Release einer neuen GPU - aber trotzdem kommt es mir doch merkwürdig vor.
Der_Korken
2024-12-28, 23:19:51
Was ich an der Geschichte immer seltsam fand war, dass man angeblich nichts bemerkt haben soll bis kurz vor Release. Gut, AMD und der Zustand der Treiber beim Release einer neuen GPU - aber trotzdem kommt es mir doch merkwürdig vor.
Vielleicht hat man den Bug auch unterschätzt und dachte, dass man das in Software noch effizient gefixt bekommt bis zum Release.
reaperrr
2024-12-28, 23:52:05
Und warum ist N48 nicht als Chiplet realisiert? Ist ja nicht kleiner als N32. Scheint wohl doch nicht soo toll gewesen zu sein.
Kommen noch Argumente?
- AMD hat es sich so sparen können, IP-Blöcke für SI und IF$ in N5(P) designen zu müssen
- SI/IF$ wären in N5 nicht wesentlich kleiner und je mm2 deutlich teurer gewesen
- die optimale Verteilung eines so großen Caches auf einem Monolith ist immer so ne Sache und führt zu etwas mehr Designaufwand, den man sich so sparen konnte und der so vor allem nur 1x angefallen ist statt 2x
- Generell kleinere Chips -> bessere Ausbeute
- Da man es für N31 eh schon gemacht hat, machte es Sinn, das auch für N32 zu machen, um weitere Kosten (in Form von 5nm-Wafern) zu sparen
- Die Chiplet-Experten von AMD wurden aus Kosten-/Nutzen-Gründen von RDNA4 abgezogen und auf CDNA angesetzt, um hier den Anschluss zu halten, da mit CDNA viel mehr Geld zu machen ist, vorausgesetzt man bleibt konkurrenzfähig
Oder um es nochmal klarer auszudrücken:
Dass Chiplets bei Performance/Effizienz leichte Nachteile haben ist klar, das gilt auch bei CPUs.
Die Vorteile bei den Kosten wiegen das, wenn die Chiplets erstmal funzen, grundsätzlich auf.
Voraussetzung ist nur, dass die Chiplets auch von mehreren Produkten genutzt werden, und das war nach der Entscheidung, die Chiplet-RDNA4 zugunsten schnellerer CDNA-Fortschritte nicht fertigzustellen, nicht mehr gegeben.
Und noch schnell einen GCD auf RDNA4-Basis zu designen und mit den N3x-MCDs kompatibel zu machen wäre zu diesem Zeitpunkt vermutlich aufwändiger und riskanter gewesen, als einfach N44 hochzuskalieren und zu verdoppeln, zumal wie gesagt die MCDs natürlich schon etwas Effizienz und Perf kosten und es in der Größenordnung von N48 für einen einzelnen Chip auch weniger Vorteile bringt.
KarlKastor
2024-12-29, 01:04:34
Alles gute Argumente, die aber fast alle auf beide Chips zutreffen. Das einzige was wirklich valide ist, ist dass es nur ein einzelner Chip ist und die MCD nicht geteilt werden können. Das einzige Gegenargument wäre dass man die MCD der letzten Generation hätte nehmen können.
Insgesamt sehe ich trotzdem die Möglichkeit, dass das Chiplet Design einfach zu viele Nachteile hat und deshalb fallen gelassen wurde.
OgrEGT
2024-12-29, 08:01:31
https://videocardz.com/newz/amd-radeon-rx-9070-series-reportedly-sticking-to-8-pin-power-connectors-launch-end-of-january
AMD Radeon RX 9070 series reportedly sticking to 8-pin power connectors, launch end of January
robbitop
2024-12-29, 08:04:53
Wie überraschend. Nicht. ^^
dargo
2024-12-29, 09:18:23
Ah cool... es wird also Ende Januar schon neben der für mich persönlich uninteressanten Referenz auch Customs geben. (y) Hatte schon befürchtet da gibt es wieder ca. 2 Monate Verzug. Dann hätten wir bereits fast Frühling, wo mir eine neue Graka schon wieder fast egal ist. Wobei ich eigentlich Tests diverser Customs abwarten muss. Keinen Bock auf fiepende Karten und der Kühler muss auch voll überzeugen.
OgrEGT
2024-12-29, 09:20:19
Was das betrifft kann man mit Sapphire eigentlich nix falsch machen :)
dargo
2024-12-29, 09:21:14
Bei N31 gabs auch fiepende Sapphires.
OgrEGT
2024-12-29, 09:25:48
Wie überraschend. Nicht. ^^
Ich finde gut dass man bei bewährten Buchsen/Steckern bleibt... die 12V2x6 Buchsen/Stecker ggf. mit Adaptern je nach Netzteil bringen keine Vorteile mit sondern ggf nur Probleme bei unsachgemäßer Nutzung die sehr leicht durch Unachtsamkeit passieren kann...
OgrEGT
2024-12-29, 09:28:11
Bei N31 gabs auch fiepende Sapphires.
Fiepende Exemplare gibt es bei allen Herstellern... es kommt darauf an wie hoch die Wahrscheinlichkeit dafür ist...
dargo
2024-12-29, 09:28:35
Ich finde gut dass man bei bewährten Buchsen/Steckern bleibt...
Ich auch... zudem möchte ich max. 2 Stecker haben, nicht drei wie bei einigen N31 Customs. Solange der IHV/AIB keinen Heizofen released wird auch kein neuer Stecker benötigt.
robbitop
2024-12-29, 09:33:34
Ich finde gut dass man bei bewährten Buchsen/Steckern bleibt... die 12V2x6 Buchsen/Stecker ggf. mit Adaptern je nach Netzteil bringen keine Vorteile mit sondern ggf nur Probleme bei unsachgemäßer Nutzung die sehr leicht durch Unachtsamkeit passieren kann...
Ich sehe das auch so. Gerade bei moderater Leistungsaufnahme gibt es keinen Grund für den neuen Stecker zumal der auch teurer sein soll in der BOM. Fand es aber nicht wirklich überraschend.
OgrEGT
2024-12-29, 09:44:34
Überraschend fand ichs auch nicht... Aber gut wenn es Gewissheit gibt :)
fizzo
2024-12-29, 10:21:38
RX 9700 mit 16GB Speicher bestätigt ( https://videocardz.com/newz/asus-geforce-rtx-5080-and-radeon-rx-9070-xt-custom-gpu-names-leaked-16gb-memory-confirmed)
Das kommt für mich jetzt doch überraschend👍
TheGood
2024-12-29, 10:33:20
das klärt vielleicht auch die gegensätzlichen Gerüchte auf.
Preis ist insgesamt leider trotzdem zu teuer, wenn die gerüchte hier stimmen. ABer be Nvidia nochmals eines obendrauf packt ist das auch gesichert.
dargo
2024-12-29, 10:33:58
Naja... so überraschend kommt das jetzt auch nicht. In der Vergangenheit hatte AMD überwiegend nicht das SI und somit den Speicher bei den Salvages beschnitten. Bei N21 gabs sogar zwei Salvages und selbst dort hatten alle drei SKUs das gleiche SI und somit die gleiche Speichermenge.
basix
2024-12-29, 10:35:02
RX 9700 mit 16GB Speicher bestätigt ( https://videocardz.com/newz/asus-geforce-rtx-5080-and-radeon-rx-9070-xt-custom-gpu-names-leaked-16gb-memory-confirmed)
Das kommt für mich jetzt doch überraschend��
Nicht ganz überrasched aber sicher positiv, habe ich auch gedacht :)
Darunter dann die RX 9060 (XT) mit N44 und ebenfalls 16GB in der Maximalvariante?
- 9070 XT = 64 CU, 256bit, 16GByte (20Gbps)
- 9070 = 56 CU, 256bit, 16GByte (18Gbps)
- 9060 = 32 CU, 128bit, 16GByte (18Gbps)
- 9050 XT = 28 CU, 96bit, 12GByte (20Gbps)
- 9040 XT = 24 CU, 128bit, 8GByte (16Gbps), 70W
Ich nehme an, es wird eine gestutzte N48 Variante für Mobile geben (z.B. 48 CU, 192bit, 12 GByte).
- 9070M XT = 64 CU, 256bit, 16GByte (18Gbps)
- 9070M = 48 CU, 192bit, 12GByte (18Gbps)
- 9060M = 32 CU, 96bit, 12GByte (20Gbps)
- 9050M = 28 CU, 128bit, 8GByte (16Gbps)
Eher:
9070XT N48XT 32WGPs 16GB
9070 N48XL 24WGP 16GB
9060XT N44XT 16WGP 16GB
9060 N44XL 14WGP 8GB
AffenJack
2024-12-29, 11:08:56
RX 9700 mit 16GB Speicher bestätigt ( https://videocardz.com/newz/asus-geforce-rtx-5080-and-radeon-rx-9070-xt-custom-gpu-names-leaked-16gb-memory-confirmed)
Das kommt für mich jetzt doch überraschend👍
Das ist auf jeden Fall gut. Mit 192Bit wäre die Leistung durch die Bandbreite einfach zu sehr limitiert gewesen. Das ermöglicht schonmal mehr.
basix
2024-12-29, 11:10:27
Eher:
9070XT N48XT 32WGPs 16GB
9070 N48XL 24WGP 16GB
9060XT N44XT 16WGP 16GB
9060 N44XL 14WGP 8GB
24WGP / 48CU bei der 9070 wäre aber ein ziemlich grosser Salvage. Da liegen 1.3x dazwischen und beide heissen noch 9070? 56CU macht mehr Sinn und man kann für die +8CU höhere Verkaufspreise verlangen, ergo mehr Marge erzielen. Yield wird bei dem Chip kein Problem sein, der ist klein genug.
AffenJack
2024-12-29, 11:19:44
24WGP / 48CU bei der 9070 wäre aber ein ziemlich grosser Salvage. Da liegen 1.3x dazwischen und beide heissen noch 9070? 56CU macht mehr Sinn und man kann für die +8CU höhere Verkaufspreise verlangen, ergo mehr Marge erzielen. Yield wird bei dem Chip kein Problem sein, der ist klein genug.
Glaube auch eher an 56. Kommt aber bestimmt auch drauf an, wie das Bining in Sachen Takt aussieht. Falls man die XT so hoch taktet, dass man mehr GPUs verwerten muss, die nicht soviel Takt schaffen macht 56 CU mehr Sinn. Wenn Takt bei allen kein Problem ist, wäre 48 bessere Yieldmaximierung.
basix
2024-12-29, 11:51:35
Wie gesagt, die Chips sind relativ klein und sollten einen ziemlich guten Yield aufweisen. Für weitere Kosten- und Ausbeute-Optimierung gibt es noch Mobile oder allenfalls auch eine 48CU 9060 XT oder so.
Der_Korken
2024-12-29, 12:34:41
Eigentlich wäre es imho logischer den großen Raum von 1 bis 9 gleichmäßiger auszunutzen statt 4 Produkte in nur zwei Ziffern (6 und 7) zu quetschen. Zumal zwischen N48XT und N44XT fast Faktor 2 liegen dürfte.
N48, 64 CUs, 16GB: 9070XT
N48, 56 CUs, 16GB: 9070
N48, 48 CUs, 12GB: 9060XT (optional, falls man genug Abfallchips gesammelt hat)
N44, 32 CUs, 16GB: 9050XT
N44, 28 CUs, 8GB: 9040XT
Irgendwie wäre ein N44 mit 192bit und halbiertem L3 pro Kanal "schöner", weil die Specs dann durchgehend runtergehen würden. Salvages mit 8 oder 10GB wären ja weiterhin möglich.
basix
2024-12-29, 12:38:19
Ja gibt stimmen die sagen, dass die 9060 (XT) mit N48 kommen wird. Genau so wie du aufgelistet hast.
Ich kann mir aber vorstellen, dass drei N44 Varianten geben wird wobei die kleinste auf 70W limitiert wird. Dort gibt es noch eine "Marktlücke" und wäre als Nachfolger der RX6400 ein schönes Upgrade ;)
GerryB
2024-12-29, 12:42:46
9060xt kann genauso gut 9070GRE heissen, wenn man eeh erst später genug Salvage gesammelt hat
basix
2024-12-29, 12:45:05
GRE sicher nicht. Dann eher GSE, 2025 ist das Jahr der Schlange ;)
Der_Korken
2024-12-29, 13:03:49
9060xt kann genauso gut 9070GRE heissen, wenn man eeh erst später genug Salvage gesammelt hat
Bitte nicht. Dann können wir auch gleiche alle RDNA4-Karten 9070 nennen und alles über die Endung hinten differenzieren. Theoretisch könnte man bei so wenigen Modellen komplett ohne Endung auskommen und jedem Modell eine eigene Zahl geben.
raffa
2024-12-29, 13:17:42
Bitte nicht. Dann können wir auch gleiche alle RDNA4-Karten 9070 nennen und alles über die Endung hinten differenzieren. Theoretisch könnte man bei so wenigen Modellen komplett ohne Endung auskommen und jedem Modell eine eigene Zahl geben.
Ohja, ich wünsch mir schon lange ein noch unklareres Namensschema!
refresh:
9075 XTX
9075 GSE
release:
9070 XT
9070 X (ganz ohne x gehts nicht)
9070 SE
9070 S
9070 N
Nein, N44XT ist definitiv mMn der 9060XT. Das war doch bisher immer so, dass die 600er die kleineren Chips waren, das wird sich auch nicht ändern. N44XT mit 16GB ist sicherlich die 9060XT und N44XL mit 8GB wird die 9600 sein. Alles darunter dürfte N33 bleiben. N10 sehe ich da als einzige Ausnahme, die mMn nicht geplant war.
Es wird auch kein großes Lineup geben, meinetwegen hat der N48XL eben 28WGP, aber ich glaub nicht dran, weil das Ding ein volles Speicherinterface hat, das wäre einfach zu nah am großen Chip. Maximal wird der 26WGP haben.
9070XT -> N48XT, 32WGP, 16GB 20GT/s 549-599$
9070 -> N48XL, 26WGP, 16GB 18GT/s 459-489$
9060XT -> N44XT, 16WGP, 16GB 18GT/s 339-359$
9060 -> N44XL, 14WGP, 8GB 18GT/s, 279$
8050 -> N33XL, 14WGP, 8GB, 219$ oder sowas
wobei 599$ zu hoch angesetzt wäre für die 9070XT, da der 5070 schon genau da landen wird. Ich denke, es werden die niedrigeren Preise werden. AMD hat allerdings auch eine Historie von zu hohen Startpreisen, die schnell absinken. Das läuft im Endeffekt auf dasselbe hinaus. Allerdings gehe ich auch davon aus, dass die 9070XT maximal auf 4070Ti-Niveau landen wird. Die Sache ändert sich natürlich, wenn die 9070XT über 4070Ti Super-Niveau landen sollte.
DrFreaK666
2024-12-29, 17:14:22
Wie groß ist eigentlich die Chance, dass AMD nächsten Monat sowas wie Ray Reconstruction zeigt?
robbitop
2024-12-29, 17:24:57
Unmöglich ist nichts. Aber wahrscheinlich auch gerade nicht. AMD arbeitet an solchen Projekten immer mit der gleichen Hand voll Leuten. Die müssen also priorisieren. Ich tippe darauf, dass sie sich auf das AI Upsampling fokussieren und RR danach kommt.
prinz_valium_2
2024-12-29, 17:29:55
Ich bin kein Freund davon, dass die 9070 auch 16GB bekommt.
Das wird also wie in der letzten Generation. Maximal ein ganz kleiner Preisunterschied und die kleinere Karte wahrscheinlich mit einem schlechteren P/L Verhältnis.
dargo
2024-12-29, 17:33:24
Ich bin kein Freund davon, dass die 9070 auch 16GB bekommt.
Mit was soll sie sonst kommen, mit 32GB? :ulol:
GerryB
2024-12-29, 17:54:18
https://www.3dcenter.org/news/news-des-30-september-2024
https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-16GB-Grafikkarte-279647/News/vs-8-GiB-ueberraschende-Zahlen-Mindfactory-1456726/
Zitat von PCGH:
Von den insgesamt 15.230 abgesetzten Exemplaren entfallen laut der Erhebung mit Stichtag am 30. September 59,8 Prozent (9.105 Stück) auf die 16-GiB-Grafikkarten und 40,2 Prozent (6.125 Stück) auf die 8-GiB-Modelle.
Interessant, im Rest der Welt spielt die 16GB-4060Ti keine große Rolle = 5% zu 20% von Gesamt, siehe heutiger Artikel von Leo.
(weil eben doch zu teuer)
In dem Sinne wird wohl doch die 5060Ti erstmal nur mit 8GB starten, .... 16GB vllt. später.
Zeitgleiche Verfügbarkeit würde für also nur für den kleinen dt. Markt ne Rolle spielen.
Ob jetzt 12GB-Grakas von AMD gut dazwischen passen, mal schauen.
Der_Korken
2024-12-29, 17:55:40
Mit was soll sie sonst kommen, mit 32GB? :ulol:
14GB
hm... die 9070 positioniert sich klar unterhalb der 7900 Reihe. Daher sind für mich 16 GB VRAM die logische Schlussfolgerung.
dargo
2024-12-29, 18:07:27
14GB
14GB GDDR6 an einem 256Bit SI? Voodoo?
Edit:
Achso... er meinte den Salvage. Sorry, dachte da an den Vollausbau.
GerryB
2024-12-29, 18:08:16
12GB@192bit + 2GB separat für SAM+FG
muss ja nicht Alles voll angebunden sein, dachte schon mal eine anderer Hersteller
prinz_valium_2
2024-12-29, 19:11:30
wenn die 9070XT $599 kostet und die 9070 nur $499, gerne beide mit 16GB RAM
7900XTX und 7900XT hatten $100 Preisunterschied bei $1000 und 4GB weniger RAM.
7800XT und 7800 hatten $50 Preisunterschied bei $500 und auch 4GB weniger RAM.
Was soll da für eine Differenz kommen, die beiden Produkten angemessen wäre mit dem selben RAM?
$629 für die 9070XT und $599 für die 9070XT. Mehr als $50 unterschied und die kleine Karte wäre viel zu gut im P/L Verhältnis.
dargo
2024-12-29, 19:20:41
7900XTX und 7900XT hatten $100 Preisunterschied bei $1000 und 4GB weniger RAM.
Und? 6900XT und 6800XT hatten beide gleich viel Vram und letztere hat ganze 349$ weniger gekostet. N31 und N32 würde ich da nicht als Maßstab setzen da keine monolithischen Chips.
horn 12
2024-12-29, 19:22:19
https://www.youtube.com/watch?v=bTshNhzbp5Q
LIFE
prinz_valium_2
2024-12-29, 19:32:28
Und? 6900XT und 6800XT hatten beide gleich viel Vram und letztere hat ganze 349$ weniger gekostet. N31 und N32 würde ich da nicht als Maßstab setzen da keine monolithischen Chips.
Dein Wort in Gottes Ohr. Ich bin da wenig optimistisch.
Die letzte Generation ist leider immer Aussagekräftiger als etwas lange davor.
N33 war ja genauso mit der 7800XT und 7800.
dargo
2024-12-29, 19:53:54
Dein Wort in Gottes Ohr. Ich bin da wenig optimistisch.
So große Preisunterschiede wie noch bei N21 wirst du denke ich nicht mehr sehen. Die IHVs sehen, dass die Menschen die höheren Preise bezahlen, hat auch was vom Upselling. Ich denke mehr als 100$ zwischen XT und non XT sind unrealistisch in der heutigen Zeit.
AtTheDriveIn
2024-12-29, 19:59:32
Wenn AMD wirklich Marktanteile generieren möchte, dann muss die 9070xt für um die 500€ in den Markt und mit 4080 Performance kommen. Performance einer 4070TI und dann 650€ oder so ist DOA.
robbitop
2024-12-29, 20:14:03
Zumindest im Moment wäre 4080 Leistung auch für die kolportierten 650 usd noch sehr attraktiv und nennenswert. Wenn Blackwell das Preis/Leistungsniveau nicht deutlich steigert bleibt das auch so. Man sollte bedenken dass die 4080 1000 usd msrp hat.
][immy
2024-12-29, 20:26:35
Zumindest im Moment wäre 4080 Leistung auch für die kolportierten 650 usd noch sehr attraktiv und nennenswert. Wenn Blackwell das Preis/Leistungsniveau nicht deutlich steigert bleibt das auch so. Man sollte bedenken dass die 4080 1000 usd msrp hat.
So wie es aktuell aussieht, wird die rtx 5080 nicht viel ändern, wenn die Gerüchte über den Preis (>$1500) stimmen.
Wenn AMD wirklich Marktanteile generieren möchte, dann muss die 9070xt für um die 500€ in den Markt und mit 4080 Performance kommen...
Dann kann man wieder nicht genug liefern. Wenn ich das Trauerspiel beim 9800X3D sehe...
Wenn das Ding wirklich performt, dann sind 600$ wohl ins Reich der Fabeln zu verweisen. Meine Vermutung: 699$ für die BBA und bis zu 1000$ für entsprechende Customs. Der einzige Punkt welcher klar gegen N48 spricht ist 16GB GDDR 6, obwohl das Interface wohl mit GDDR 7 umgehen kann. Wenn es allerdings bei leicht über GRE Performance im Raster und schneller als ne XTX mit RT verbleibt, dann sehe ich 599$ als realistisch an.
maximus_hertus
2024-12-29, 22:50:36
Wenn AMD wirklich Marktanteile generieren möchte, dann muss die 9070xt für um die 500€ in den Markt und mit 4080 Performance kommen. Performance einer 4070TI und dann 650€ oder so ist DOA.
Wird nicht passieren. Die 9070XT wird sicherlich einen höheren MSRP als rund 420 USD haben.
Und um Marktanteile zu gewinnen, muss man auch Massenweise liefern können. Kann AMD überhaupt so viele Karten liefern? Und man muss vor allem bei den OEMs "rein kommen".
Imo wird es bei der 5070 XT auf 2 mögliche Preise hinauslaufen: entweder 649 USD oder 599 USD.
Bei der 9700 dann entweder 499 USD oder 549 USD.
Und für die 12GB Variante (192 Bit Interface) dann 429 oder 449 USD.
Das würde dann für uns in Deutschland folgende Europreise bedeuten (dank dem derzeitigen sehr schwachen Euro):
9070 XT, 16GB: rund 690 - 750 Euro
9070, 16GB: rund 570 - 630 Euro
?, N48 Salvage, 12GB: rund 490 - 510 Euro
Die übrig gebliebenen 7800 XT mit 16GB kann man dann für rund 460 - 480 Euro abverkaufen bzw. die 7700XT 12GB für rund 380 - 400 Euro.
Wird nicht passieren. Die 9070XT wird sicherlich einen höheren MSRP als rund 420 USD haben.
Und um Marktanteile zu gewinnen, muss man auch Massenweise liefern können. Kann AMD überhaupt so viele Karten liefern? Und man muss vor allem bei den OEMs "rein kommen".
Imo wird es bei der 5070 XT auf 2 mögliche Preise hinauslaufen: entweder 649 USD oder 599 USD.
Bei der 9700 dann entweder 499 USD oder 549 USD.
Und für die 12GB Variante (192 Bit Interface) dann 429 oder 449 USD.
Das würde dann für uns in Deutschland folgende Europreise bedeuten (dank dem derzeitigen sehr schwachen Euro):
9070 XT, 16GB: rund 690 - 750 Euro
9070, 16GB: rund 570 - 630 Euro
?, N48 Salvage, 12GB: rund 490 - 510 Euro
Die übrig gebliebenen 7800 XT mit 16GB kann man dann für rund 460 - 480 Euro abverkaufen bzw. die 7700XT 12GB für rund 380 - 400 Euro.
Ich bin mir nicht sicher, ob eine XT weniger als eine 5070 kosten wird. Ich denke das Ding wird overall 50€ teurer als ne 5070. Alles andere wäre eine Aufgabe des GPU-Segments!
Iscaran
2024-12-29, 23:32:23
Eine GPU für >400 € kommt für mich aber nicht in Frage...insofern wirds wohl wider nix.
Dino-Fossil
2024-12-30, 00:23:56
Ja, ist bisschen schade. N44 dürfte zu wenig Fortschritt ggü meiner aktuellen haben und N48-basierte GPUs sind wohl in für mich unattraktiven Preisbereichen. Naja, vielleicht in 1-2 Jahren im Angebot, bei meinem aktuellen Backlog kann ich wohl getrost noch ne Weile auf eine neue GPU verzichten. :ugly:
Palpatin
2024-12-30, 17:21:16
Bei mir sind die Anforderungen max 1000€, min 16gb und schneller als meine aktuelle 4070ti (12gb). Sprich 5070ti oder 9070xt, wird jedenfalls spannend.
prinz_valium_2
2024-12-30, 17:53:36
Bei mir sind die Anforderungen max 1000€, min 16gb und schneller als meine aktuelle 4070ti (12gb). Sprich 5070ti oder 9070xt, wird jedenfalls spannend.
Anspruchsvolle Anforderungen ;D
raffa
2024-12-30, 19:45:25
9700xt - was war daran schlecht, warum denn nicht, warum 9070?
Come on AMD last minute change, please!
Neurosphere
2024-12-30, 19:49:29
9700xt - was war daran schlecht, warum denn nicht, warum 9070?
Come on AMD last minute change, please!
Ich find den Namen nicht wirklich schlecht.
Das einzige was ich mich Frage, was kommt danach? 100X0xt? Oder wieder was komplett anderes weil man fünfstellig vermeiden will? Gleiches beim Ryzen.
raffa
2024-12-30, 19:53:26
Ich find den Namen auch nicht schlecht, aber es verwirrt mich
RTX 5070
RX 9070
ARC B580 ;)
Schon wegen der Lesbarkeit würde ich einen eigeneren Namen bevorzugen.
Matrix316
2024-12-30, 20:12:00
9700xt - was war daran schlecht, warum denn nicht, warum 9070?
Come on AMD last minute change, please!
Vielleicht macht man das, weil es schon mal eine Radeon 9700 gab, die damals mit der 4600 konkurrierte. ;)
Danach kam die X1000er Serie. Vielleicht kriegen wir die ja wieder. :)
robbitop
2024-12-30, 20:35:18
Die 9700pro war der Konkurrent der FX5800 Ultra. ;)
Die 9700pro war der Konkurrent der FX5800 Ultra. ;)
Eher der 5950 Ultra. Eine Legende ...
robbitop
2024-12-30, 20:56:32
Die 5950 war ein refresh der 5900 - beide kamen deutlich später und beide waren Konkurrent der 9800pro/xt.
Die 5950 war ein refresh der 5900 - beide kamen deutlich später und beide waren Konkurrent der 9800pro/xt.
Mag schon sein, im Schnitt war se trotzdem schneller. 9800pro war ja nur ein Refresh mit etwas höheren Taktraten...
NV 30 und 35 war generell kaputt.
GerryB
2024-12-30, 21:08:09
Das neue Namensschema hat ganz schön Luft für viele Gen`s
9070...9180...9280...9390... ....9990
Interessant ist dann die 3. Ziffer, wann man sich entscheidet wieder Enthusiast sein zu wollen.(in 3x2 Jahren ?, wenn überhaupt)
Vorher erstmal Marktanteile im Bereich der 7er und 8er gewinnen.(damit die Studios auf AMD-Code/Hardware optimieren/supporten)
6er+5er müssen evtl. ja auch noch Intel beachten, ... vom Preis her
(NV wird wohl bei den Kleinen keine schönen Preise machen und steigt dadurch langsam aus)
AffenJack
2024-12-30, 21:15:22
@GerryB
Das wirds nicht geben. Das Namensschema schließt RDNA ab und dann fängt man mit UDNA irgendwas neues an.
@GerryB
Das wirds nicht geben. Das Namensschema schließt RDNA ab und dann fängt man mit UDNA irgendwas neues an.
Japp. Ne 9070xt wird ein netter Abschluss für RDNA sein. Wird spannend, was mit UDMA kommt.
GerryB
2024-12-30, 21:22:23
Aah, verstehe
RX-->UX
aufkrawall
2024-12-30, 21:32:23
Das AMD-Marketing wird diesen Ball bestimmt aufnehmen und zielsicher ins eigene Tor verwandeln. ;D
Neurosphere
2024-12-30, 21:42:18
Das AMD-Marketing wird diesen Ball bestimmt aufnehmen und zielsicher ins eigene Tor verwandeln. ;D
Leider wird es wohl so kommen...
Das AMD-Marketing wird diesen Ball bestimmt aufnehmen und zielsicher ins eigene Tor verwandeln. ;D
Abwarten! Wenn eine 9070xt in etwa so schnell wie eine 4800 werden sollte, was wäre dann mit einer 9090 möglich gewesen ...
RDNA war eine sehr coole Generation und das P/L hat eigentlich auch gepasst. Es sollte allerdings nicht verwundern, dass sich selbst eine 9070xt nach NV Preisvorstellungen richtet. Wer eine 9070xt für 599€ erwartet, wird wahrscheinlich böse enttäuscht werden.
robbitop
2024-12-30, 21:45:11
Mag schon sein, im Schnitt war se trotzdem schneller. 9800pro war ja nur ein Refresh mit etwas höheren Taktraten...
NV 30 und 35 war generell kaputt.
Darum ging es doch gar nicht…Ich habe nur richtig gestellt was historisch falsch war. Ich glaube das reicht jetzt an OT und fügt keinen Mehrwert mehr für die Diskussion hinzu.
Darum ging es doch gar nicht…Ich habe nur richtig gestellt was historisch falsch war. Ich glaube das reicht jetzt an OT und fügt keinen Mehrwert mehr für die Diskussion hinzu.
Japp!
reaperrr
2024-12-30, 22:21:33
Eine GPU für >400 € kommt für mich aber nicht in Frage...insofern wirds wohl wider nix.
Damit wird's generell nie wieder was, wenn du dich nennenswert verbessern willst (Gebrauchtkarten mal ausgenommen, aber auch die werden nicht mehr so im Preis sinken wie früher).
Der 7600XT-Nachfolger wird das beste sein, was es diese Gen knapp unter 400€ geben wird.
Alles ab 4060TI-16GB-Nachfolger aufwärts wird 500€+ kosten.
Der Bereich bis 400€ ist in Zukunft nur noch Low-End, weil die Kosten je Transistor nicht mehr großartig sinken und insbesondere NV dort deshalb nur noch billige Mini-Chips mit schmalen SIs anbieten wird (und AMD in dem Preisbereich deshalb auch bestenfalls 192bit/12GB oder halt 128bit/16GB bieten wird).
Wer eine 9070xt für 599€ erwartet, wird wahrscheinlich böse enttäuscht werden.Mehr oder gleich viel als eine 7900 XT darf es aber auch nicht werden.
https://geizhals.de/?cat=gra16_512&xf=9809_05+14+-+RX+7900+XT
Iscaran
2024-12-30, 23:33:32
Damit wird's generell nie wieder was, wenn du dich nennenswert verbessern willst (Gebrauchtkarten mal ausgenommen, aber auch die werden nicht mehr so im Preis sinken wie früher).
Dann wirds wohl wenn dann eine Playstation werden - oder ich zocke eben nur noch 5 Jahre alte games...so what.
Irgendwann ist jeder Luxus "überreizt" was den Preis betrifft.
Ich bin jedenfalls nicht bereit "Inflationsbereinigt" das doppelte oder dreifache für GPUs zu zahlen wie früher für "relativ" gleiche Leistung.
Dino-Fossil
2024-12-31, 00:14:43
Der Bereich bis 400€ ist in Zukunft nur noch Low-End, weil die Kosten je Transistor nicht mehr großartig sinken und insbesondere NV dort deshalb nur noch billige Mini-Chips mit schmalen SIs anbieten wird (und AMD in dem Preisbereich deshalb auch bestenfalls 192bit/12GB oder halt 128bit/16GB bieten wird).
Wieviel kostet denn ein einzelner Chip in Relation zur gesamten Grafikkarte? Sicherlich werden die Wafer immer teurer, aber ich wage mal zu behaupten, dass die Margen der Hersteller aktuell stärker steigen, als die Fertigungskosten... :D
BlacKi
2024-12-31, 00:25:58
ich wage mal zu behaupten, dass die Margen der Hersteller aktuell stärker steigen, als die Fertigungskosten... :Dist auch so, aber die gamer haben nun den AI booom als endgegner. die kaufen praktisch die gesammte gpu leistung des marktes auf.
Matrix316
2024-12-31, 00:52:10
Die 9700pro war der Konkurrent der FX5800 Ultra. ;)
Die 9700 Pro kam aber schon im August 2002 raus und die 5800 Ultra erst März 2003. Als die Radeon rauskam, gab es noch keine Geforce 5000er. Die 4600er kam aber auch erst Februar 2002 raus. Das ging damals irgendwie noch schneller als heute.
DrFreaK666
2024-12-31, 06:30:32
Vielleicht sollte AMD mit UDNA eine neue Serie starten.
Radeon zieht ja irgendwie nicht mehr.
Vielleicht GePower oder so XD
robbitop
2024-12-31, 07:57:38
Die 9700 Pro kam aber schon im August 2002 raus und die 5800 Ultra erst März 2003. Als die Radeon rauskam, gab es noch keine Geforce 5000er. Die 4600er kam aber auch erst Februar 2002 raus. Das ging damals irgendwie noch schneller als heute.
Die 5800 Ultra wurde im Spätherbst 2002 vorgestellt - war allerdings ein paperlaunch. (die hat sich wegen Fertigungsschwierigkeiten dank 130 nm wegen des lowk Materials verzögert so dass sie auf die non lowk Variante wechseln mussten wohingegen R300 dank altem 150 nm Verfahren da einen einfacheren Weg hatte - die Chips sollte aber wohl ein ähnliches takeout Datum gehabt haben und für einen ähnlichen launch Termin geplant worden sein) Weiterhin kommt immer eine GPU zuerst raus und wird dann gegen last gen gebencht. Aber natürlich war die 5800 Ultra der Gegenspieler. R300 und NV30 waren beide DX9 Next gen. NV25 war noch DX8 last gen.
konkretor
2024-12-31, 08:37:56
Bei Navi 44 soll wohl der AV1 Codec fehlen
https://www.igorslab.de/amd-rdna-4-av1-codierung-und-einschraenkungen-bei-einsteiger-gpus/
Das vielleicht am falschen Ende gespart
robbitop
2024-12-31, 08:59:10
Wie bei N24 IIRC. Da war IIRC (fast?) gar kein media processing verbaut. Weil der primär für Notebooks gedacht war und die ja immer noch eine IGP haben, die das ja dann übernehmen kann. (wobei das im Desktop spätestens seit Zen 4 ja auch der Fall ist und bei Intel ja seit eh und je eine IGP dabei ist)
Matrix316
2024-12-31, 09:48:34
Die 5800 Ultra wurde im Spätherbst 2002 vorgestellt - war allerdings ein paperlaunch. (die hat sich wegen Fertigungsschwierigkeiten dank 130 nm wegen des lowk Materials verzögert so dass sie auf die non lowk Variante wechseln mussten wohingegen R300 dank altem 150 nm Verfahren da einen einfacheren Weg hatte - die Chips sollte aber wohl ein ähnliches takeout Datum gehabt haben und für einen ähnlichen launch Termin geplant worden sein) Weiterhin kommt immer eine GPU zuerst raus und wird dann gegen last gen gebencht. Aber natürlich war die 5800 Ultra der Gegenspieler. R300 und NV30 waren beide DX9 Next gen. NV25 war noch DX8 last gen.
Ja gut, wobei die 9700 Pro immer noch besser war - selbst im Vergleich zur 5800 Ultra. Das waren noch Zeiten! :ugly:
Was ich nicht verstehe, warum Nvidia überhaupt so viel besser beim Raytracing ist?! Haben die irgendwelche Zauberhardware? Ist das nicht wie bei AI NPUs dass man einfach eine starke dazubaut und schwupsdiwups ist die CPU genauso stark bei sowas wie die Konkurrenz? AMD weiß doch schon seit der Geforce 2000er, dass RT wichtig werden wird.
Denniss
2024-12-31, 09:52:23
Bei Navi 44 soll wohl der AV1 Codec fehlen
https://www.igorslab.de/amd-rdna-4-av1-codierung-und-einschraenkungen-bei-einsteiger-gpus/
Das vielleicht am falschen Ende gespartIch lese da nur was von fehlendem Encoder aber nicht von fehlendem Decoder
Dino-Fossil
2024-12-31, 10:52:01
Ein fehlender AV1-Encoder dürfte nur die wenigsten Nutzer betreffen. Nicht ideal, aber da kam AMD wohl zum Schluss, dass man auf die Promille an potentiellen Nutzer dieses Features verzichten kann.
robbitop
2024-12-31, 11:10:38
Ja gut, wobei die 9700 Pro immer noch besser war - selbst im Vergleich zur 5800 Ultra. Das waren noch Zeiten! :ugly:
Absolut. Nvidia hatte sich da verrannt mit der CineFX uArch. Sie haben Konzepte die für Rampage von den aufgekauften 3dfx Leuten übernommen. Das Problem war dass die Pipeline entweder eine TEX oder eine ALU Instruktion machen konnte aber nicht beides gleichzeitig. Je mehr Shaderload desto problematischer wurde das. Dazu kam, dass sie teure FP32 ALUs und entsprechende Register verbaut haben die gar nicht notwendig für DX9 waren. Entsprechende Kompromisse musste man machen. Nur 1 Quadpipeline statt 2 bei R300. Nur 4 Pixel pro Takt (R300 konnte 8), nur 128 bit SI (R300 hatte 256 bit). Die Radeon war damals darauf aus mit einfach nur DX9 Konformität (aber auch nicht mehr) maximale Leistung zu holen. Und das zahlte sich aus. Dave Orton (den sie bei der Akquaivsation von ArtX [die haben auch die Ganecube GPU gemacht] zu ATI bekamen) hatte R300 in die Richtung gepusht. Der war damals genau der Richtige. Nach dem Merger mit AMD ging er leider weg.)
Nvidia hat mit NV35 das ganze ein wenig entschärft (256 bit SI und doppelte Anzahl an FPUs) - NV40 vervierfachte die Quadpipe. Und G70 brachte eine weitere Verbreiterung um 50%. Aber die Limitierung um die Pipelinestalls der CineFX uArch blieb. Erst G80 brachte eine neue uArch welche die Probleme endlich begrub. Und seit dem Zeitpunkt ging Nvidia an zu dominieren … bis heute.
Das waren damals noch Zeiten…
Genug der GPU Historie ^^
Was ich nicht verstehe, warum Nvidia überhaupt so viel besser beim Raytracing ist?! Haben die irgendwelche Zauberhardware? Ist das nicht wie bei AI NPUs dass man einfach eine starke dazubaut und schwupsdiwups ist die CPU genauso stark bei sowas wie die Konkurrenz? AMD weiß doch schon seit der Geforce 2000er, dass RT wichtig werden wird.
Nvidia nimmt/nahm das Thema einfach deutlich ernster und verbaut wesentlich mehr RT spezifische fixed function Hardware. Das kostet zwar Transistoren die außerhalb RT nichts bringen, beschleunigt RT aber.
AMD hat (zumindest bis dato) nur das absolute Minimum gemacht. Ray Intersection in Hardware. Das ist gerade mal Level 2 auf der IMG RT HW scale. Bereits Turing brachte 2018 auch BVH Processing in HW (Level 3). Ada hat auch noch shader reorder execution gebracht. (~ Level 3.5).
Bei Intel sieht es seit Alchemist auch so aus. Und man sieht dass bei Alchemist und Battlemage der Einbruch bei starker RT Last wesentlich geringer als auf Radeons ist.
RDNA4 soll hier Verbesserungen bringen - aber auch noch sehr viel ohne Fixed Function HW machen. Mal sehen was das bringt. Intuitiv würde ich vermuten, dass man vor RDNA3 aber hinter Ada und Battlemage liegen wird (im relativen Einbruch bei hoher RT Last)
dildo4u
2024-12-31, 11:33:46
Ja gut, wobei die 9700 Pro immer noch besser war - selbst im Vergleich zur 5800 Ultra. Das waren noch Zeiten! :ugly:
Was ich nicht verstehe, warum Nvidia überhaupt so viel besser beim Raytracing ist?! Haben die irgendwelche Zauberhardware? Ist das nicht wie bei AI NPUs dass man einfach eine starke dazubaut und schwupsdiwups ist die CPU genauso stark bei sowas wie die Konkurrenz? AMD weiß doch schon seit der Geforce 2000er, dass RT wichtig werden wird.
AMD nimmt korrekt an das Games viel zu Teuer sind das sie nicht ordentlich auf Konsolen laufen und sich deshalb nicht ordentlich verkaufen.
CB hat gerade erst ein neuen GPU Index erstellt wo RDNA2 nicht deutlich anfällt
Das deutlich ernstere Problem ist das schlechte Upsampling.
Indiana Jones ist z.b RT Only will aber vorallem Vram eine 9700 mit 12GB sollte locker mit der 4070 mithalten.
https://www.computerbase.de/artikel/gaming/indiana-jones-und-der-grosse-kreis-benchmark-test.90500/seite-2#abschnitt_benchmarks_in_full_hd_wqhd_uwqhd_und_ultra_hd
robbitop
2024-12-31, 11:39:36
Ja der feste Zusammenhang zur Konsolen GPU IP spielt da sicher eine wesentliche Rolle. Dort ist viel RT ziemlich teuer und das Geld für zusätzliches Silizium knapp.
Andererseits findet jetzt auch mit Ampere relativ gute RT HW Einzug in die Konsole der knauserigsten Konsolenhersteller (Nintendo Switch 2). Und mittlerweile sind Nvidia GPUs pro Transistor auch in Raster Spielen eigentlich nicht mehr langsamer obwohl sie eine Menge RT und AI HW mitschleppen. Entsprechend wird AMD mit UDNA sicherlich mittelfristig auch einen anderen Weg gehen. Dann ist die Zeit für mehr RT HW auch in Konsolen reif.
GA102: 28 Mrd Transistoren
N21: 26.5 Mrd Transistoren (wobei 6.5 Mrd davon für den IF$ sind den NV nicht hat)
AD103: 45.9 Mrd Transistoren
N31: 57.7 Mrd Transistoren (hat allerdings 32 Mrd Transistoren mehr für die extra 32 MB LLC vs AD103 was nochmal 1.5 Mrd Transistoren sind und sicherlich einiges an Transistoren für die Chiplets)
raffa
2024-12-31, 11:47:27
Ich bin mir recht sicher, dass RDNA4 vergleichbares RT zur PS5 Pro GPU hat.
davidzo
2024-12-31, 12:00:16
Die 5800 Ultra wurde im Spätherbst 2002 vorgestellt - war allerdings ein paperlaunch.
Sorry, da ist deine Erinnerung einfach falsch. Da war kein Paperlaunch vor Weihnachten. Man hat auf der Comdex eine unverbindliche Ankündigung gemacht, einen Prototypen-Kühler und ein PCB in die Kamera gehalten und einen möglichen Launch Ende Februar in Aussicht gestellt. Keine lauffähigen Karten, Demos, Termine, keine Benchmarks, keine review Samples. Stattdessen kam am 1. März, also kurz vor dem FX5800 launch date (6.März) schon die 9800pro heraus.
Damit war die 9700pro effektiv also der Gegenspieler zur ti4600. Das war sicher nicht so geplant, weil nv30 gehörig verspätet war und effektiv war die ti4600 schon ein halbes Jahr draußen als ATI den R300 launchte. Durch die Verzögerung bei TSMC hat hat ATI nvidia aber bei den produktlaunches einmal überrundet.
Nvidia hat zwar Gegen Ende 2002 mächtig Gerüchte gestreut um AMD den Wind aus den Segeln zu nehmen und tolle Geschichten über das featurelevel von CineFX erzählt, aber NV30 wurde eben erst im März 2003 gelauncht. Die Episode mit dem Fön zur Comdex im November 2002 ist in Erinnerung geblieben. Das war aber alles kein Launch. Es gab Ende Januar 2003 ein paar review samples, z,B. für Anandtech, aber das offizielle Launchdatum war der 6. März. Und selbst dann war die Ultra praktisch nur ein Review sample, richtig am Markt verfügbar war nur die vanilla 5800.
Zwei Monate später wurde das Ganze dann schon von NV35 ersetzt (5900).
Oh man, was für nostalgische Zeiten.
Die Zeitspanne welche die ti4600 King of the hill war und nachher die 9700pro fühlt sich von heute aus gesehen länger an als die 2 Jahre Wartezeit zwischen Alchemist und Battlemage. Wie schnell die Zeit heute doch vergeht und wie wenig viel relevanter die GPU Entwicklung damals war.
Altehardware
2024-12-31, 12:02:18
Exakt die gleiche mit mehr Takt was die perf. nahe der rtx4070 super bringt.
ps5 pro hat 60cu bei 2,2ghz rdna4 64cu 3,1ghz +46% und die ps5 pro liegt auf level der rtx3060ti in dxr
Wäre da nicht die cpu die massiv limitiert
robbitop
2024-12-31, 12:08:03
Sorry, da ist deine Erinnerung einfach falsch. Da war kein Paperlaunch vor Weihnachten. Man hat auf der Comdex eine unverbindliche Ankündigung gemacht, einen Prototypen-Kühler und ein PCB in die Kamera gehalten und einen möglichen Launch Ende Februar in Aussicht gestellt. Keine lauffähigen Karten, Demos, Termine, keine Benchmarks, keine review Samples. Stattdessen kam am 1. März, also kurz vor dem FX5800 launch date (6.März) schon die 9800pro heraus.
Damit war die 9700pro effektiv also der Gegenspieler zur ti4600. Das war sicher nicht so geplant, weil nv30 gehörig verspätet war und effektiv war die ti4600 schon ein halbes Jahr draußen als ATI den R300 launchte. Durch die Verzögerung bei TSMC hat hat ATI nvidia aber bei den produktlaunches einmal überrundet.
Nvidia hat zwar Gegen Ende 2002 mächtig Gerüchte gestreut um AMD den Wind aus den Segeln zu nehmen und tolle Geschichten über das featurelevel von CineFX erzählt, aber NV30 wurde eben erst im März 2003 gelauncht. Die Episode mit dem Fön zur Comdex im November 2002 ist in Erinnerung geblieben. Das war aber alles kein Launch. Es gab Ende Januar 2003 ein paar review samples, z,B. für Anandtech, aber das offizielle Launchdatum war der 6. März. Und selbst dann war die Ultra praktisch nur ein Review sample, richtig am Markt verfügbar war nur die vanilla 5800.
Zwei Monate später wurde das Ganze dann schon von NV35 ersetzt (5900).
Oh man, was für nostalgische Zeiten.
Die Zeitspanne welche die ti4600 King of the hill war und nachher die 9700pro fühlt sich von heute aus gesehen länger an als die 2 Jahre Wartezeit zwischen Alchemist und Battlemage. Wie schnell die Zeit heute doch vergeht und wie wenig viel relevanter die GPU Entwicklung damals war.
Naja kann man so sehen. Ich sehe das aber anders. DX9 Nextgen vs DX8 last gen ist für mich auch wenn sie zeitlich überlappt haben kein echter Wettbewerb gewesen.
Die X360 gab es auch 1 Jahr lang vor der PS3. Und trotzdem würde kein Mensch sagen die PS2 war der Konkurrent. Insbesondere im Nachhinein nicht.
IMO hatte die R300 bis NV30 kam einfach keinen Wettbewerber. Und ja in der Zeit wurde sicherlich trotzdem NV25 auch verkauft und aus Marktsicht mag das stimmen.
Aber wir sind in einem Tech Forum und ich sehe das eher aus technologischer Sicht.
Aber klar kannst du das weiterhin so sehen.
Erstes review war übrigens im Januar 2003 von Anandtech: https://www.anandtech.com/show/1062#
davidzo
2024-12-31, 12:34:36
Aus technologischer Sicht ist dann also die 5700xt ein Gegenspieler zur 1080 und B580 das Äquivalent zur 3060.
Insofern muss sich AMD mit der 9070XT auch gar nicht so anstrengen, die Karte ist AMDs dritte Generation mit Raytracing und der Gegner ist daher nur die 4070, nicht die 5070.
robbitop
2024-12-31, 13:32:38
Aus technologischer Sicht ist dann also die 5700xt ein Gegenspieler zur 1080 und B580 das Äquivalent zur 3060.
Bei der 5700XT würde ich das so sehen. Allerdings ist irgendwann auch da mal die Zeit abgelaufen. Pascal war Mai 2016 und Navi 1 war Juli 2019. Über 3 Jahre… Bei NV30 vs R300 sprechen wir von 5 (erstes Review vs erstes review) respektive 7 Monate (HW im Regal)…
Und man muss dazu sagen, dass AMD sich ja bis heute (RDNA4 kann das ändern) geweigert hat mitzuziehen. Das hat natürlich auch mit dem Co-Development im Konsolenbereich zu tun. Aber potentiell hat man noch nicht mal Turing von 2018 geschlagen aus Tech Level Sicht. Mal sehen was sich mit RDNA4 tut.
Ansonsten ist bereits Alchemist ziemlich ähnlich zu Ampere und Pascal was Techlevel angeht. Da gibt es bereits ein HW Unit für das reordering. Battlemage ist einfach nur Alchemist done right (bzw less bad ^^). Und ich finde Battlemage als uArch hat Respekt verdient. Klar ist die Packdichte (das ist aber nicht die uArch sondern die Implementierung) sehr weit hinten aber pro Transistor ist das Ding echt nicht so schlecht und moderner als alles was AMD bis dato releast hat. Mit besserer Implementierung und einer großen SKU hätte es echt was werden können. Dummerweise geht Intel genau jetzt das Geld aus. :(
Insofern muss sich AMD mit der 9070XT auch gar nicht so anstrengen, die Karte ist AMDs dritte Generation mit Raytracing und der Gegner ist daher nur die 4070, nicht die 5070.
Die Sicht des Techlevels hat keine Bedeutung für den Massenmarkt. :)
Und wie gesagt irgendwann ist Zeit auch mal ein relevanter Faktor und dann muss man es nicht ins Lächerliche ziehen. Jahre vs Monate. Verspätung wegen respin vs ganze uArchs die neu rauskommen. Das ist schon ein anderer Schnack.
Hakim
2024-12-31, 14:18:42
Wie bei N24 IIRC. Da war IIRC (fast?) gar kein media processing verbaut. Weil der primär für Notebooks gedacht war und die ja immer noch eine IGP haben, die das ja dann übernehmen kann. (wobei das im Desktop spätestens seit Zen 4 ja auch der Fall ist und bei Intel ja seit eh und je eine IGP dabei ist)
Für die jenigen wie mich die eine KF CPU haben nicht Ideal :). Wobei wenn Ziele ich sowieso auf die 9070xt wo es ja verbaut sein sollte
dildo4u
2024-12-31, 14:30:40
Habt ihr euch mal die Umsätze bei MF angeguckt kein Wunder das AMD nichts in GPU investiert Ryzen setzt alleine so viel um wie Nvidia und Radeon zusammen.:eek:
https://3dcenter.org/news/news-des-30-dezember-2024
MSABK
2024-12-31, 14:33:34
Habt ihr euch mal die Umsätze bei MF angeguckt kein Wunder das AMD nichts in GPU investiert Ryzen setzt alleine so viel um wie Nvidia und Radeon zusammen.:eek:
https://3dcenter.org/news/news-des-30-dezember-2024
MF ist aber nicht repräsentativ. Gerade im asiatischen und amerikanischen Raum dürfte es ganz anders aussehen.
reaperrr
2024-12-31, 17:51:51
MF ist aber nicht repräsentativ. Gerade im asiatischen und amerikanischen Raum dürfte es ganz anders aussehen.
Deutschland generell nicht.
Einerseits gehen wir hier in DE noch verhältnismäßig stark nach P/L, so gut verkaufen sich AMD-Karten (von den absoluten Stückzahlen, Verteilung mag weniger ausgeglichen sein) sonst wahrscheinlich nur in den USA, wenn man sich die weltweiten Marktanteile anschaut.
Andererseits, fast nirgends sonst sind die Leute so blöd, so viele 4060 Ti zu kaufen. Die 8GB-Version ist wegen Speichermangel bald obsolet für neuere Spiele und die 16GB-Version hat ein schlechteres P/L-Verhältnis als die 4070 und 4070S. Verstehe wer will, warum die sich bei uns trotzdem so gut verkaufen. Liegt wohl an der 500€-Mauer in den Köpfen.
GerryB
2024-12-31, 18:39:29
Südkoreaner kaufen eher die 8GB-Ti.
Und Das sind noch relativ gute verdienende People außerhalb der G7-Blase.
Das die Germanen die 16GB-Ti statt ner 4070 kaufen ist für mich unverständlich.
(gespart an der falschen Stelle)
aufkrawall
2024-12-31, 18:51:53
Ein fehlender AV1-Encoder dürfte nur die wenigsten Nutzer betreffen. Nicht ideal, aber da kam AMD wohl zum Schluss, dass man auf die Promille an potentiellen Nutzer dieses Features verzichten kann.
Ist nur der einzige zugägngliche Codec, der bei AMD nicht völlig grausame Bildqualität/Bitrate hat.
Der typische AMDsche ekelhafte Geiz, den Su der Sparte offenbar seit RDNA verordnet hat.
raffa
2025-01-01, 11:55:10
hmm, ja was denn nun?
"Radeon RX 9000: AMD verbessert Videokompression - AV1-Support wird ausgebaut "
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Radeon-RX-9000-AMD-verbessert-Videokompression-AV1-Support-ausgebaut-1462675/
N48 mit verbesserem AV1 und N44 ohne Encoder? idk
MSABK
2025-01-01, 19:18:17
Verstehe nicht warum Amd nicht in Notebooks breiter aufgestellt ist bzw breiter verfügbar ist. Der größte Teil des Marktes wird von der 8GB Rtx 4060 dominiert und hier könnte Amd mit einer 12GB dGPU punkten.
Ne andere Frage ist ob die Hersteller das dann verbauen.
Slashman
2025-01-01, 21:40:35
Verstehe nicht warum Amd nicht in Notebooks breiter aufgestellt ist bzw breiter verfügbar ist. Der größte Teil des Marktes wird von der 8GB Rtx 4060 dominiert und hier könnte Amd mit einer 12GB dGPU punkten.
Ne andere Frage ist ob die Hersteller das dann verbauen.
Genau das Frage ich mich seit Jahren. Ich wollte vor 3 Jahren ein Notebook mit RX 6850M XT oder RX 6800M mit RX 6700 XT GPU und 12 GB Vram... Letztes Jahr habe ich mich auf die RX 7800M XT mit 16 GB Vram gefreut und meine Hoffnung jetzt ist die RX 9070M XT mit Vollausausbau und 16 GB VRAM.
AMD ist im Notebook Markt kaum verfügbar zu finden. Ich will ein reines AMD System mit CPU, GPU von Asus, msi oder Alienware. Jedoch ist AMD kaum verfügbar oder nur mit schlechter Ausstattung. Als ob AMD gebremst wird.
Mein Traum von einem Notebook:
16 Zen5 Kerne bis 5Ghz Boost
32 GB DDR5 RAM
2 TB M2 pcie 5.0 SSD
RX 9070M XT mot 16 GB vram...
17 oder besser 18Zoll 4K 120hz Display.
aufkrawall
2025-01-01, 21:49:12
Als ob AMD gebremst wird.
Ja, durch sich selbst natürlich. Wenn die Effizienz für den Hintern ist, gehen halt auch Notebook-Design-Wins massenhaft flöten. Das wird in Diskussionen in diesem Forum immer und immer wieder übersehen und stattdessen nur über den kleinen Desktop-Karten-Markt gesprochen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.