Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
robbitop
2025-01-08, 12:38:15
Vielleicht ist RDNA4 doch eine modernere uArch als wir nach der PS5PRO Vorstellung annahmen.
Hier ein paar Punkte:
- echte FP32 Verdopplung so wie Ampere (Frank Azor hat von höherer Leistung pro CU und Takt gesprochen)
- echte Fixed Function HW für BVH Processing und ggf noch coherancy sortig (oder zumindest ein SER Pendant so wie bei Ada, Arc und der PS5PRO)
- echte Matrix Cores
Ansonsten: ggf hat man auch nochmal Fläche für mehr Takt investiert?
Dann macht die große Fläche auch Sinn. Aber dann sollte auch AD103 Performance drin sein.
dargo
2025-01-08, 12:50:10
Eben, 3 * (32 CU + 128bit + 32MB IF$) ;D
Lol... jetzt sag mir nicht die 64CUs und 64MB IF waren von den Leakern auch falsch? X-D Es bleibt auf jeden Fall wieder spannend schon alleine wegen dem deutlich größeren Die als zuerst angenommen.
Vielleicht ist RDNA4 doch eine modernere uArch als wir nach der PS5PRO Vorstellung annahmen.
Das sowieso... PS5 Pro ist eher RDNA3.5 mit paar Schmankerl für Sony dran.
Ist die Zuordnung zu N48 denn wirklich sicher?
Ich denke nicht 100%, alles noch Spekulatius.
Der_Korken
2025-01-08, 12:52:30
Die Performance ist nach oben schon relativ stark gedeckelt durch nur 16GB VRAM, nur GDDR6 (und somit weniger als RTX4080-Bandbreite) und die Einordnung unterhalb der eigenen 7900XTX. Das macht es extrem unwahrscheinlich, dass die Performance oberhalb der 4080 rauskommen kann. Klar könnte man jetzt nach einem Einhorn suchen, dass der Chip vielleicht 128MB IF$-Cache hat, um die fehlende Bandbreite zu kaschieren, aber warum sollte AMD so viel Fläche investieren statt einfach auf GDDR7 zu gehen? 320mm² wäre ich bei den Specs und der möglichen Performance noch mitgegangen, aber 390mm² passen einfach überhaupt nicht zum Rest. Das wäre ein PPA-Rückschritt gegenüber RDNA3, was ich bei AMDs kostenorientierter Strategie nicht glaube.
basix
2025-01-08, 13:00:51
Lol... jetzt sag mir nicht die 64CUs und 64MB IF waren von den Leakern auch falsch? X-D Es bleibt auf jeden Fall wieder spannend schon alleine wegen dem deutlich größeren Die als zuerst angenommen.
Ist nur Spass. Aber irgendwie würde ich sowas noch geil finden :D
Oder evtl. auch 3 * (32 CU + 96bit + 24MB IF$)
- 256bit für 9070 (anstatt die vollen 288bit)
- 192bit für 2x N44 = 12GByte = 9060
- 96bit für 1x N44 und ebenfalls 12 GByte für die 9050 XT
N48 = 350mm2 = 3*N44
- 9080 = 96 CU, 288bit, 18GB
- 9070 XT = 84 CU, 256bit, 16GB
- 9070 = 72 CU, 256bit, 16GB
N46 = 240mm2 = 2*N44
- 9060 = 64 CU, 192bit, 12GB
- 9050 XT = 56 CU, 192bit, 12GB
N44 = 130mm2 = 1*N44
- 9040 XT = 32 CU, 96bit, 12GB
- 9040 = 28 CU, 64bit, 8GB
ABER:
Alles sehr, sehr unwahrscheinlich. Wer an das glaubt, glaubt vermutlich auch an Einhörner ;)
Da ist es deutlich wahrscheinlicher, dass RDNA4 doppelte FP32-Units sowie dedizierte Matrix Cores bekommen hat und deswegen so gross geworden ist. In dem Fall dürfte die Performance einiges mehr anwachsen als man bei 64CU erwarten würde.
Klar könnte man jetzt nach einem Einhorn suchen, dass der Chip vielleicht 128MB IF$-Cache hat, um die fehlende Bandbreite zu kaschieren, aber warum sollte AMD so viel Fläche investieren statt einfach auf GDDR7 zu gehen? 320mm² wäre ich bei den Specs und der möglichen Performance noch mitgegangen, aber 390mm² passen einfach überhaupt nicht zum Rest. Das wäre ein PPA-Rückschritt gegenüber RDNA3, was ich bei AMDs kostenorientierter Strategie nicht glaube.
Das ist genau der Punkt. Ein Perf/Area Rückschritt bei einer auf Perf/Area fokussierten Strategie? Wäre komisch
robbitop
2025-01-08, 13:08:17
Die Performance ist nach oben schon relativ stark gedeckelt durch nur 16GB VRAM, nur GDDR6 (und somit weniger als RTX4080-Bandbreite) und die Einordnung unterhalb der eigenen 7900XTX. Das macht es extrem unwahrscheinlich, dass die Performance oberhalb der 4080 rauskommen kann. Klar könnte man jetzt nach einem Einhorn suchen, dass der Chip vielleicht 128MB IF$-Cache hat, um die fehlende Bandbreite zu kaschieren, aber warum sollte AMD so viel Fläche investieren statt einfach auf GDDR7 zu gehen? 320mm² wäre ich bei den Specs und der möglichen Performance noch mitgegangen, aber 390mm² passen einfach überhaupt nicht zum Rest. Das wäre ein PPA-Rückschritt gegenüber RDNA3, was ich bei AMDs kostenorientierter Strategie nicht glaube.
Naja AD103 (insbesondere non super) liegt in Raster hinter der 7900XTX in modernen Parcours. In sofern kann man ggf ähnliche Rasterleistung anpeilen und einfach massiv besser als N31 in RT werden (damit ist kein RT Index gemeint sondern die Frametime die für RT anfällt - was dann erst bei heavy RT Titeln deutlich durchschlägt).
Wenn das Ding die kolportieren 3-3,1 GHz hat und 64 CUs und etwas mehr IPC (was ja von Frank Azor gesagt wurde) ist 4080ish (+-5-10%) Rasterperformance nicht unrealistisch.
Was den Bandbreitenbottleneck angeht. Schau dir mal das Spektrum an GFLOPS pro GB/s in RDNA3 an.
edit: kurze Rechenübung. Die 7900GRE hat 30% mehr Rohleistung pro Bandbreite. Also ausgehend von 7800XT Rasterperformance wäre da noch Luft bis zu 30% Uplift. Allerdings liegt die 4080 ~50% vorn. Also du hast Recht. Ohne Bandbreiteneffizienzsteigerung (oder mehr L2 oder IF$) rennt man da vorher in ein Bandbreitenlimit.
Irgendwas fehlt noch. Entweder war man mit der Die Area ineffizienter als Ada oder man hat eine bandbreitenlimitierte Karte (was keinen Sinn macht) oder man hat Effizienzsteigerungen gefunden oder es ist mehr Cache da als wir annahmen.
mboeller
2025-01-08, 13:24:44
Ist nur Spass. Aber irgendwie würde ich sowas noch geil finden :D
N48 = 350mm2 = 3*N44
- 9080 = 96 CU, 288bit, 18GB
- 9070 XT = 84 CU, 256bit, 16GB
- 9070 = 72 CU, 256bit, 16GB
N46 = 240mm2 = 2*N44
- 9060 = 64 CU, 192bit, 12GB
- 9050 XT = 56 CU, 192bit, 12GB
N44 = 130mm2 = 1*N44
- 9040 XT = 32 CU, 96bit, 12GB
- 9040 = 28 CU, 64bit, 8GB
Wenn, dann musst du die Flächen schon 2x od. 3x nehmen. Also 130/260/390mm2
Was noch seltsam ist an dem N48-Größenbild. 30x13mm2 Fläche. SEHR ungewöhnlich für ein Die. Die neuen Intel-CPU schauen auch so langgestreckt
aus, sind aber auch Multi-Die SoCs.
3x 10x13mm2 wäre wieder optimal. Daher auch meine Anmerkung zu 3x N44. Irgendwie würde es passen. SEHR wahrscheinlich ist das aber nicht... eher SEHR abwegig. Es gab aber wirklich Gerüchte zu N48 = 2x N44.
https://videocardz.com/newz/amd-navi-48-rdna4-gpu-for-radeon-rx-9070-pictured-may-exceed-nvidia-ad103-size
basix
2025-01-08, 13:30:58
Wenn, dann musst du die Flächen schon 2x od. 3x nehmen. Also 130/260/390mm2
Nee, muss ich nicht. Solange es monolithische Die sind oder der IO-Part ausgelagert ist, wird ein gewisser Offset mit Display/Video/IO vorhanden sein. Das 2x/3x ist nur auf die Performance relevanten Daten bezogen. Wenn du genau schaust, liegen jeweils exakt 110mm2 zwischen den drei Konfigurationen ;)
gas3t
2025-01-08, 14:11:47
Ich denke NVIDIA wird alle Modelle über der 5070 TI preislich sehr hoch ansetzen. Die 5090 ist quasi eine doppelte 5080. Da kann man preislich in die vollen gehen und am Ende passt noch eine 5080 TI dazwischen (die später als Refresh erscheint).
RTX 5090 | 170 SM | 32 GB GDDR7 | 512-bit 28 Gbps | 600 W | 2.499 €
RTX 5080 TI | 120 SM | 24 GB GDDR7 | 384-bit 28 Gbps | 500 W | 1.999 €
RTX 5080 | 84 SM | 16 GB GDDR7 | 256-bit 28 Gbps | 400 W | 1.299 €
RTX 5070 TI | 70 SM | 16 GB GDDR7 | 256-bit 28 Gbps | 300 W | 899 €
RTX 5070 | 48 SM | 12 GB GDDR7 | 192-bit 28 Gbps | 250 W | 699 €
Bei AMD wird die alte 7900 Serie die Spitze bilden, wobei die 7900 XT und 9070 XT preislich ähnlich positioniert werden. Dann kann man sich zwischen besserer Raster-Leistung, 20 GB und besserer Raytracing-Leistung, Effizienz, FSR4 entscheiden.
RX 7900 XTX | 96 CU | 24 GB GDDR6 | 384-bit 20 Gbps | 355 W | 899 €
RX 7900 XT | 84 CU | 20 GB GDDR6 | 320-bit 20 Gbps | 315 W | 699 €
RX 9070 XT | 64 CU | 16 GB GDDR6 | 256-bit 20 Gbps | 265 W | 699 €
RX 9070 | 56 CU | 16 GB GDDR6 | 256-bit 20 Gbps | 220 W | 599 €
Da lag ich gar nicht so schlecht.
Schade, dass AMD auf der CES nicht mehr gezeigt hat. Es war aber von Anfang an merkwürdig, dass sie vor NVIDIA launchen. Umso überraschender sind jetzt die neuen Leaks zur Die-Größe der RX 9070. Normalerweise ist das Wochen vorher bekannt. Bei NVIDIA wusste man die Die-Größe schon lange vorher.
Neue Speku:
Die RX 7900 XT ist End-Of-Life und es bleibt nur die RX 7900 XTX und unter der Navi 44 der Navi 33. Ich denke beim Navi 33 wird die 16 GB Version abverkauft und es bleibt nur die 8 GB Version, da günstig in der Herstellung. Die RX 9040 kommt später als Ersatz für Navi 33 zur Abdeckung des Low-Cost-Bereichs.
Navi 31
RX 7900 XTX | 96 CU | 24 GB GDDR6 | 384-bit 20 Gbps | 355 W | 899 €
Navi 48
RX 9070 XT | 64 CU | 16 GB GDDR6 | 256-bit 20 Gbps | 265 W | 699 €
RX 9070 | 56 CU | 16 GB GDDR6 | 256-bit 20 Gbps | 220 W | 599 €
RX 9060 XT | 48 CU | 12 GB GDDR6 | 192-bit 20 Gbps | 180 W | 499 €
Navi 44
RX 9060 | 32 CU | 16 GB GDDR6 | 128-bit 18 Gbps | 150 W | 399 €
RX 9050 | 28 CU | 8 GB GDDR6 | 128-bit 18 Gbps | 120 W | 299 €
RX 9040 | 24 CU | 12 GB GDDR6 | 96-bit 18 Gbps | 90 W | 249 €
RX 9040 | 24 CU | 6 GB GDDR6 | 96-bit 18 Gbps | 90 W | 199 €
Navi 33
RX 7060 XT | 32 CU | 16 GB GDDR6 | 128-bit 18 Gbps | 190 W | 249 €
RX 7060 | 32 CU | 8 GB GDDR6 | 128-bit 18 Gbps | 165 W | 199 €
Der_Korken
2025-01-08, 14:20:15
edit: kurze Rechenübung. Die 7900GRE hat 30% mehr Rohleistung pro Bandbreite. Also ausgehend von 7800XT Rasterperformance wäre da noch Luft bis zu 30% Uplift. Allerdings liegt die 4080 ~50% vorn. Also du hast Recht. Ohne Bandbreiteneffizienzsteigerung (oder mehr L2 oder IF$) rennt man da vorher in ein Bandbreitenlimit.
Irgendwas fehlt noch. Entweder war man mit der Die Area ineffizienter als Ada oder man hat eine bandbreitenlimitierte Karte (was keinen Sinn macht) oder man hat Effizienzsteigerungen gefunden oder es ist mehr Cache da als wir annahmen.
Das mit den Unterschieden bei Rechenleistung pro Bandbreite stimmt natürlich, aber AMD müsste sich hier schon sehr sicher sein, wenn sie ausgehend von der 7800XT mal eben 50% mehr Rasterleistung (oder noch mehr) anpeilen ohne dafür Speicherbandbreite und/oder Cache zu erhöhen. Wenn es ein kleiner Chip unter 300mm² wäre, könnte man mutmaßen, dass die Architektur schneller ausgefallen sein könnte als geplant und der Speicher dadurch etwas under-specced ist. Bei 390mm² muss das Performance-Target aber von vornherein AD103 gewesen sein und Nvidia bei der Speicherbandbreite unterbieten zu wollen ist schon sehr sportlich.
Ich hatte gehofft, dass die Rätselei am 6.1. vorbei sein würde, aber jetzt sitzen wir hier immer noch und wissen nichtmal genau, wenn endlich mal Fakten auf den Tisch kommen.
Vielleicht gibts ja doch einen N43 noch.
dargo
2025-01-08, 14:22:51
Bei 390mm² muss das Performance-Target aber von vornherein AD103 gewesen sein und Nvidia bei der Speicherbandbreite unterbieten zu wollen ist schon sehr sportlich.
Wie kommst du darauf? Die Speicherbandbreite ist anhand von nackten Zahlen die sich aus dem SI und dem Speicherdurchsatz ergibt überhaupt nicht vergleichbar dank dem IF bei AMD.
Ich hatte gehofft, dass die Rätselei am 6.1. vorbei sein würde, aber jetzt sitzen wir hier immer noch und wissen nichtmal genau, wenn endlich mal Fakten auf den Tisch kommen.
Ich finds lustig. :D
Der_Korken
2025-01-08, 14:25:12
Wie kommst du darauf? Die Speicherbandbreite ist anhand von nackten Zahlen die sich aus dem SI und dem Speicherdurchsatz ergibt überhaupt nicht vergleichbar dank dem IF bei AMD.
Du weißt aber schon, dass AD103 genauso 64MB LLC hat?
dargo
2025-01-08, 14:26:28
Du weißt aber schon, dass AD103 genauso 64MB LLC hat?
Das sagt aber nichts über den Durchsatz bzw. die Hitrate aus.
Prinzenrolle
2025-01-08, 14:28:01
Naja AD103 (insbesondere non super) liegt in Raster hinter der 7900XTX in modernen Parcours.
Bei Computerbase liegt selbst eine RTX 4080 vorne, mit ganz viel UE5 (modern).
I
Alles sehr, sehr unwahrscheinlich. Wer an das glaubt, glaubt vermutlich auch an Einhörner ;)
Am wahrscheinlichsten ist dass sie total reingeschissen haben und sich dachten wir pumpen RT so richtig auf und sind dann bei so einem großen Chip gelandet, der letztendlich keine Performance bringt, dass sich mehr als Mittelklasse nicht konkurrenzfähig ausgeht.
Dann wären sie mit einem 500mm² + Chip wieder bei einer 5080 gelandet und haben das abgeblasen.
Die 4080 ist etwa 15% schneller als die 7900XT + 30% für die 5080, werden es insgesamt knappe 53% was die 5080 auf die 9070XT draufpackt.
Der_Korken
2025-01-08, 14:29:30
Das sagt aber nichts über den Durchsatz bzw. die Hitrate aus.
:freak:
Ich gehe erstmal nicht davon aus, dass Nvidia ihren Cache schlechter organisiert als AMD. Und was meinst du mit Durchsatz? Die vom Cache? Das sollte wirklich das geringste Problem sein. Bei 50% Hitrate muss der Cache nur doppelt so viel Durchsatz wie der VRAM haben, um nicht zu bremsen.
dargo
2025-01-08, 14:31:13
Bei Computerbase liegt selbst eine RTX 4080 vorne, mit ganz viel UE5 (modern).
Nö...
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing
Wobei das eh alles die selbe Leistungsklasse ist, egal ob 7900XTX, 4080 oder 4080S. Die paar Prozente hin oder her, drauf geschissen.
Und was meinst du mit Durchsatz?
Der schön gerechnete Durchsatz, der afaik schon bei N21 bei knapp 1,6TB/s oder so ähnlich lag.
Prinzenrolle
2025-01-08, 14:39:04
Wenn das Ding die kolportieren 3-3,1 GHz hat und 64 CUs und etwas mehr IPC (was ja von Frank Azor gesagt wurde) ist 4080ish (+-5-10%) Rasterperformance nicht unrealistisch.
Das sind ein paar zu viele wenns. AMD wird mit RDNA4 in erster Linie die RT Leistung angepackt haben.
Würde das halbwegs stimmen hätten sie mit der Präsentation vorher Nvidia ordentlich in die Parade fahren können.
Nvidia weiß längst wie schnell AMD´s Chip wird.
Nö...
Alter Parcour.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-benchmark-test-2025.90695/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_2560__1440
robbitop
2025-01-08, 14:39:06
Wie kommst du darauf? Die Speicherbandbreite ist anhand von nackten Zahlen die sich aus dem SI und dem Speicherdurchsatz ergibt überhaupt nicht vergleichbar dank dem IF bei AMD.
Ich glaube er vergleicht mit AD103. Der L2 ist 64 MiB groß genau wie der kolportierte IF$ in N48.
AD103 hat 22/23 GT/s und N48 hat kolportiere 20 GT/s. Zumindest in RDNA3 war man noch nicht auf der Bandbreiteneffizienz von Ada. Aber das kann mit RDNA4 ggf noch steigern (bzw müsste es wenn man dort rankommen wollte bzw nicht langsam bandwidth starved sein will)
robbitop
2025-01-08, 14:41:22
Bei Computerbase liegt selbst eine RTX 4080 vorne, mit ganz viel UE5 (modern).
Im Performancerating 4K Raster liegt die 7900XTX 3% vor der 4080.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-4080-super-test.86810/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
robbitop
2025-01-08, 14:45:03
Das sind ein paar zu viele wenns. AMD wird mit RDNA4 in erster Linie die RT Leistung angepackt haben.
Würde das halbwegs stimmen hätten sie mit der Präsentation vorher Nvidia ordentlich in die Parade fahren können.
Nvidia weiß längst wie schnell AMD´s Chip wird.
Das mögliche Spektrum ist riesig. Aber: AMD hat selbst gesagt im Q&A: höherer Takt und höhere IPC. Auch die letzten Rumors waren konsistent bei 3+ GHz.
Aber 4080 muss man sich schon ordentlich strecken. Andererseits wäre mit 380mm2 das schon die Erwartung dass man an diese rankommt. 2 Jahre alte uArch und gleicher (oder wahrscheinlich leicht besserer*) Node und neuer uArch. Mit den alten 270 mm2 Gerüchten fand ich das immer super optimistisch. Aber mit ~380 mm2 in N4/N4P sollte das doch drin sein.
*w0mbat aka "highyield" hatte aus guten Quellen dass Nvs "4N" in Wahrheit N5 ist. N48 ist N4/P
dargo
2025-01-08, 14:45:27
Ich glaube er vergleicht mit AD103. Der L2 ist 64 MiB groß genau wie der kolportierte IF$ in N48.
Schon klar... nur ist der IF bei N48 die dritte Generation. Bei NVs Ada welche? Die erste?
basix
2025-01-08, 14:51:59
Du weißt aber schon, dass AD103 genauso 64MB LLC hat?
Hey, ist denn gesichert dass N48 64MByte hat? ;)
fondness
2025-01-08, 14:59:55
Es gibt einen geleakten Benchmark den AMD hergezeigt hat mit 9070XT und 9950X3D in BlackOps 6, wo man ungefähr ~15% schneller als eine 7900XTX + 9800X3D ist.
robbitop
2025-01-08, 15:01:05
Transistorcounts:
N48 (~380 mm2 bei ~120MTr/mm2): 45.6 Mrd
Ad102: 45.9 Mrd
N31: 57.7 Mrd
N32: 28.1 Mrd
N33: 13.3 Mrd
N48 ist 3,4x so groß wie N33 in Bezug auf Transistoren. Ähnlich groß wie AD103. Aber kleiner als N31. Wobei letzterer auch einiges an Transistoren auf die Chipletkonstruktion verwendet und relativ zu N33 auf aufgeblähte CUs.
Eigentlich müsste mit dem Transistorbudget doch richtig was drin sein...
fondness
2025-01-08, 15:03:33
Die "aufgeblähten" CUs wird man allerdings auch brauchen wenn man >3Ghz anvisiert.
robbitop
2025-01-08, 15:03:40
Schon klar... nur ist der IF bei N48 die dritte Generation. Bei NVs Ada welche? Die erste?
Ja wie gut sich das vergleichen lässt ist unklar. Aber bis dato lag man in der Bandbreiteneffizienz hinten. Da müsste sich schon was getan haben. Und ansonsten hat Nvidia mit dem L2 Cache eigentlich eher Vorteile aufgrund von niedrigerer Latenz/höherer Bandbreite. Ich denke nicht, dass AD103 das schlechter macht als N32 mit seinem LLC. Eher anders herum. Aber ja für N48 ist da noch alles offen. Das stimmt.
Aber ich kann mir auch vorstellen, dass am initialen Gerücht mit den 96 MiB ggf was dran ist. Das trägt ja auch zur Chipgröße bei und wir sind alle verwundert, dass N48 so groß ist.
Ggf ist es einfach das.
robbitop
2025-01-08, 15:04:41
Die "aufgeblähten" CUs wird man allerdings auch brauchen wenn man >3Ghz anvisiert.
Naja das (der Erfolg in der Taktbarkeit zur relativen Steigerung der TDP zumindest) hat sich bei N31/32 vs N33 aber kein bisschen gezeigt. N33 taktet trotz Nodenachteil sogar eher besser.
N48 hingegen kann da (diesmal wirkungsvoll) aber wieder aufgebläht haben - ja.
fondness
2025-01-08, 15:06:02
Naja das (der Erfolg in der Taktbarkeit zur relativen Steigerung der TDP zumindest) hat sich bei N31/32 vs N33 aber kein bisschen gezeigt. N33 taktet trotz Nodenachteil sogar eher besser.
N48 hingegen kann da (diesmal wirkungsvoll) aber wieder aufgebläht haben - ja.
Es hat sich deutlich gezeigt. Ein N33 schafft keine >3Ghz. Ich gehe also schon davon aus, dass N48 wieder größere CUs hat, nur diesmal eben ohne den "Bug" der hohen TDP.
dargo
2025-01-08, 15:06:13
Es gibt einen geleakten Benchmark den AMD hergezeigt hat mit 9070XT und 9950X3D in BlackOps 6, wo man ungefähr ~15% schneller als eine 7900XTX + 9800X3D ist.
Jetzt müsste man nur wissen ob gleiche Settings und ob da noch irgendwie die CPU minimal limitiert hat. Hast du eine Quelle dazu?
fondness
2025-01-08, 15:08:18
Jetzt müsste man nur wissen ob gleiche Settings und ob da noch irgendwie die CPU minimal limitiert hat. Hast du eine Quelle dazu?
Auf die schnelle:
https://i.postimg.cc/dV4GhsPy/image.jpg (https://postimg.cc/hXQXwqGD)
Der_Korken
2025-01-08, 15:08:55
Hey, ist denn gesichert dass N48 64MByte hat? ;)
Natürlich nicht. Ich hätte aber erwartet, dass AMD eher auf GDDR7 geht statt den Cache zu vergrößern, wenn 20Gbps+64MB nicht reichen. Der Ertrag des Caches nimmt auch immer weiter ab, d.h. ich würde von 64MB auf 96MB jetzt keine Wunder erwarten. 128MB sollten es schon sein, um an die Kombo von 28Gbps+64MB ranzukommen, da diese 40% mehr Misses bei gleicher Performance erlaubt (bzw. die Missrate um 30% gesenkt werden müsste, um 40% mehr Bandbreite auszugleichen). Das sind schlappe 40mm² mehr. Nicht unmöglich, aber unerwartet.
dargo
2025-01-08, 15:10:23
Ja wie gut sich das vergleichen lässt ist unklar. Aber bis dato lag man in der Bandbreiteneffizienz hinten. Da müsste sich schon was getan haben. Und ansonsten hat Nvidia mit dem L2 Cache eigentlich eher Vorteile aufgrund von niedrigerer Latenz/höherer Bandbreite. Ich denke nicht, dass AD103 das schlechter macht als N32 mit seinem LLC. Eher anders herum. Aber ja für N48 ist da noch alles offen. Das stimmt.
Ich weiß echt nicht was ihr immer mit euren Vergleichen vs. RDNA3 bei solchen Sachen habt wo jeder längst weiß, dass man von dem kaum was ableiten kann weil der misslungen ist.
robbitop
2025-01-08, 15:11:10
Es hat sich deutlich gezeigt. Ein N33 schafft keine >3Ghz. Ich gehe also schon davon aus, dass N48 wieder größere CUs hat, nur diesmal eben ohne den "Bug" der hohen TDP.
Also die 7600XT lief laut kurzer Google Suche mit OC auch auf 3 GHz und wird darüber vom Powerlimit begrenzt. Genauso wie es N31 und N32 geht. Und deren GCDs haben einen Fullnodeshrink on top. Ich sehe da unterm Strich (auch mit OC und offener TDP) keine richtig krassen Fortschritte.
Aber ja um einen Punkt aufzunehmen: ggf ginge mit N31/32 ohne diesen "bug" ja noch mehr. Allerdings hat sich das Gerücht nie bestätigt. Ist also ein wenig "spekulativ". Aber ja unter der Annahme, dass man den "Dreh" jetzt mit N48 so raus hat, wie man es zu N31/32 hoffte, kostet das natürlich Transistoren und würde das erklären.
robbitop
2025-01-08, 15:13:38
Ich weiß echt nicht was ihr immer mit euren Vergleichen vs. RDNA3 bei solchen Sachen habt wo jeder längst weiß, dass man von dem kaum was ableiten kann weil der misslungen ist.
Weil es noch keine N48 Referenzpunkte gibt. Und so kann man sich zumindest die Historie anschauen.
Alles Spekulation. Kann natürlich drastisch besser werden - ich vermute/fürchte allerdings, dass das nicht der Fall sein wird.
Mein Tipp: Das Ding erreicht entweder AD103 nicht (mit 64 MiB LLC) oder aber hat mehr LLC als wir dachten (zB die aus älteren Gerüchten benannten 96 MiB) oder aber wir wurden beim Speicher gejebaited so wie mit der Chipsize (was ich aber unwahrscheinlicher finde).
Kann ja solange es noch keine Fakten zu N48 gibt jeder spekulieren wie er will. Agree to disagree ist für mich okay.
dargo
2025-01-08, 15:14:16
Auf die schnelle:
https://i.postimg.cc/dV4GhsPy/image.jpg (https://postimg.cc/hXQXwqGD)
Ich kann das zwar jetzt nicht einordnen weil ich das Game nicht spiele. Aber wenn das tatsächlich stimmt wäre das schon sehr geil. Ich hätte nämlich nie damit gerechnet, dass die RX 9070XT die RX 7900XTX in Raster schlägt. Dafür muss die IPC aber schon ordentlich angestiegen sein. Höherer Takt alleine reicht dafür nicht aus. Auf der anderen Seite nicht ganz unmöglich bei dem misslungenen RDNA3. :uponder:
Edit:
Aber immerhin kein CPU-Limit.
nairune
2025-01-08, 15:16:01
Auf die schnelle:
Das ist dasselbe, was bereits Thema war. Ob 9070 oder 9070 XT sieht man aber auch da nicht?
Und der Vergleichswert ist falsch. 7900XT = 102 fps, 7900XTX = 112 fps.
edit: oder auch 98/108, Werte von hier:
https://reddit.com/comments/1hw584f/comment/m5zuumk
Also die Fakten sind aktuell: eine der beiden neuen Karten ist in diesem einen Spiel in Raster 4k so schnell wie eine 7900XT.
Palpatin
2025-01-08, 15:16:18
Ich kann das zwar jetzt nicht einordnen weil ich das Game nicht spiele. Aber wenn das tatsächlich stimmt wäre das schon sehr geil. Ich hätte nämlich nie damit gerechnet, dass die RX 9070XT die RX 9700XTX in Raster schlägt. Dafür muss die IPC aber schon ordentlich angestiegen sein. Höherer Takt alleine reicht dafür nicht aus. Auf der anderen Seite nicht ganz unmöglich bei dem misslungenen RDNA3. :uponder:
Wäre auch mal wieder Marketing @ its absolut worst wenn man wirklich sowas im Köcher hat. NV hat Marketing technisch gezeigt wie es geht, selbst Intel hat das zuletzt gut gemacht und AMD Fail². :(
aufkrawall
2025-01-08, 15:16:44
Genauso wie es N31 und N32 geht.
Das PT von 260W hält N32 in zig Spielen deutlich unter 2,5GHz, nicht 3GHz. Und 3GHz kann er auch ohne PT-Limitierung nicht in Spielen takten, weil AMD dafür eine heimliche Sperre in der Firmware hat, die höhere Taktraten als 2,6-2,7GHz komplett ignorieren lässt.
Hakim
2025-01-08, 15:17:00
Das sind ja mal gute Nachrichten, 4080 Performance in Raster und RT würde die 9070XT wesentlich attraktiver machen, zumindest für mich. AMD sollte aber nicht allzu lange mit offiziellen Daten warten und es noch vor den BW Tests zeigen.
fondness
2025-01-08, 15:17:56
Also die 7600XT lief laut kurzer Google Suche mit OC auch auf 3 GHz und wird darüber vom Powerlimit begrenzt. Genauso wie es N31 und N32 geht. Und deren GCDs haben einen Fullnodeshrink on top. Ich sehe da unterm Strich (auch mit OC und offener TDP) keine richtig krassen Fortschritte.
Aber ja um einen Punkt aufzunehmen: ggf ginge mit N31/32 ohne diesen "bug" ja noch mehr. Allerdings hat sich das Gerücht nie bestätigt. Ist also ein wenig "spekulativ". Aber ja unter der Annahme, dass man den "Dreh" jetzt mit N48 so raus hat, wie man es zu N31/32 hoffte, kostet das natürlich Transistoren und würde das erklären.
Ja gut, ich gebe zu das mit dem Powerlimit macht den Vergleich schwierig. Aber ein N31 erreicht bei offenen Powerlimit auch stabil deutlich über 3Ghz, AFAIK gab es Test auch mit 3,5Ghz und mehr. Und du darfst nicht vergessen, dass ein Chip, der default mit 3.1Ghz taktet, wie es bei N48 spekuliert wird natürlich auch noch deutlich Spielraum haben muss nach oben. Denn es ist was anderes ob ich OCing (manchmal) 3Ghz erreiche oder ob ich einen Chip mit entsprechenden Yields so ausliefern kann.
dargo
2025-01-08, 15:18:10
Das ist dasselbe, was bereits Thema war. Ob 9070 oder 9070 XT sieht man aber auch da nicht?
Und der Vergleichswert ist falsch. 7900XT = 102 fps, 7900XTX = 112 fps.
Lol... dann trollt im Netz wieder einer. ;D
robbitop
2025-01-08, 15:18:10
Natürlich nicht. Ich hätte aber erwartet, dass AMD eher auf GDDR7 geht statt den Cache zu vergrößern, wenn 20Gbps+64MB nicht reichen. Der Ertrag des Caches nimmt auch immer weiter ab, d.h. ich würde von 64MB auf 96MB jetzt keine Wunder erwarten. 128MB sollten es schon sein, um an die Kombo von 28Gbps+64MB ranzukommen, da diese 40% mehr Misses bei gleicher Performance erlaubt (bzw. die Missrate um 30% gesenkt werden müsste, um 40% mehr Bandbreite auszugleichen). Das sind schlappe 40mm² mehr. Nicht unmöglich, aber unerwartet.
Die Frage ist was billiger ist (bzw lieferbar ist). +32 MiB kosten ~15-16 mm² in N4. Man kann jetzt mal ausrechnen was diese Differenz an einer Preiserhöhung pro Chip bei TSMC bedeutet - aber so extrem viel ist das nicht. IIRC hatte ich anhand von waferpreisen die mal rumliefen mal ausgerechnet (mit dem yield calculator und typischen yields) dass ein AD103 ~100 USD kostet bei TSMC. Also bekommt kostet ein mm² grob 26 ct. Das wären ~4.5 USD Mehrkosten. Das ist sehr vereinfacht - man müsste mit dem yield calculator einmal 380mm2 rechnen und einmal 388mm. Aber ganz grob so käme man raus. ~5 USD Mehrkosten.
GDDR6X war ja NV exklusiv IIRC und ggf ist GDDR7 entweder wesentlich teurer oder auch einfach noch nicht genug verfügbar. Aktuell produziert Micron exklusiv für Nvidia soweit ich weiß.
Exxtreme
2025-01-08, 15:19:50
Das sind ja mal gute Nachrichten, 4080 Performance in Raster und RT würde die 9070XT wesentlich attraktiver machen, zumindest für mich. AMD sollte aber nicht allzu lange mit offiziellen Daten warten und es noch vor den BW Tests zeigen.
Das wird wohl keine 4080-Performance sondern eher zwischen 7900GRE und 7900XT, zumindest ohne RT. RT ist derzeit eine große Unbekannte.
robbitop
2025-01-08, 15:20:18
Das PT von 260W hält N32 in zig Spielen deutlich unter 2,5GHz, nicht 3GHz. Und 3GHz kann er auch ohne PT-Limitierung nicht in Spielen takten, weil AMD dafür eine heimliche Sperre in der Firmware hat, die höhere Taktraten als 2,6-2,7GHz komplett ignorieren lässt.
Jo wobei es ja Modbiose gibt wo ordentlich mehr TDP vorhanden war. Da habe ich 3,2-3,4 GHZ schon gesehen. Allerdings dann auch mit >>500W und richtig fetter custom wakü und zT sogar etwas overvolting.
dargo
2025-01-08, 15:20:55
Wäre auch mal wieder Marketing @ its absolut worst wenn man wirklich sowas im Köcher hat. NV hat Marketing technisch gezeigt wie es geht, selbst Intel hat das zuletzt gut gemacht und AMD Fail². :(
Was hat denn NV marketingtechnisch gezeigt? Ich habe zu 99% nur AI, AI und nochmal AI gesehen. :freak: Langweiliger gehts kaum. Ich meine gut, bei AMD war es auch nicht anders. ;D
robbitop
2025-01-08, 15:22:27
Ich bekomme langsam das Gefühl die Gerüchte und Leaker wurden alle ordentlich ge-jebaited.
Das Ding ist deutlich größer als gedacht und potenziell deutlich schneller als gedacht.
aufkrawall
2025-01-08, 15:22:51
Jo wobei es ja Modbiose gibt wo ordentlich mehr TDP vorhanden war. Da habe ich 3,2-3,4 GHZ schon gesehen.
Mit der 7800 XT? Hab ich noch nie gesehen.
Der_Korken
2025-01-08, 15:23:25
GDDR6X war ja NV exklusiv IIRC und ggf ist GDDR7 entweder wesentlich teurer oder auch einfach noch nicht genug verfügbar. Aktuell produziert Micron exklusiv für Nvidia soweit ich weiß.
Wenn GDDR7 zu schwer zu beschaffen ist oder zu unsicher war, ob er rechtzeitig verfügbar sein würde, dann macht es natürlich Sinn vorzeitig mit mehr Cache zu planen.
Palpatin
2025-01-08, 15:24:03
Das ist dasselbe, was bereits Thema war. Ob 9070 oder 9070 XT sieht man aber auch da nicht?
Und der Vergleichswert ist falsch. 7900XT = 102 fps, 7900XTX = 112 fps.
edit: oder auch 98/108, Werte von hier:
https://reddit.com/comments/1hw584f/comment/m5zuumk
Also die Fakten sind aktuell: eine der beiden neuen Karten ist in diesem einen Spiel in Raster 4k so schnell wie eine 7900XT.
https://www.youtube.com/watch?v=s0VVJ-nEvA0
Da sind es 87 bei 7900xtx, abwarten Tee trinken.
robbitop
2025-01-08, 15:24:57
Mit der 7800 XT? Hab ich noch nie gesehen.
Nee N31. Hab mich da ggf nicht eindeutig ausgedrückt. Ich meine für N32 gab es die nicht und N33 auch IIRC nicht. So verrückte Leute nehmen wahrscheinlich alle das größte Produkt. Entsprechend wenig Interesse gab es potenziell.
why_me
2025-01-08, 15:26:19
Ich bekomme langsam das Gefühl die Gerüchte und Leaker wurden alle ordentlich ge-jebaited.
Das Ding ist deutlich größer als gedacht und potenziell deutlich schneller als gedacht.
Geh vom schlimmsten aus. Sonst endet es wie jedes mal. Hypetrain ohne Ende, viel zu hohe Erwartungen und dann wieder lange Gesichter.
Der_Korken
2025-01-08, 15:26:32
Nee N31. Hab mich da ggf nicht eindeutig ausgedrückt. Ich meine für N32 gab es die nicht und N33 auch IIRC nicht. So verrückte Leute nehmen wahrscheinlich alle das größte Produkt. Entsprechend wenig Interesse gab es potenziell.
Hier z.B.
https://www.computerbase.de/2023-05/oc-auf-3-4-ghz-radeon-rx-7900-xtx-jagt-mit-700-watt-die-rtx-4090/
3,4Ghz real anliegend im Gaming, allerdings bei 700W :freak:
Kaputt ist an dem Ding eigentlich nur der Verbrauch. Hätte die mit 350W konstant 3Ghz geschafft, wär das schon ein Zäpfchen gewesen.
robbitop
2025-01-08, 15:26:44
Wenn GDDR7 zu schwer zu beschaffen ist oder zu unsicher war, ob er rechtzeitig verfügbar sein würde, dann macht es natürlich Sinn vorzeitig mit mehr Cache zu planen.
Denke ich mittlerweile auch. Mein Tip ist jetzt 96 MiB und 4080 Level. Und 2025 dann noch ein FSR FG mit 4x Mode. (einfach weil der Schritt von 2x auf 4x potentiell kleiner ist als dahin es überhaupt zu haben - siehe lossless scaling)
Dennoch hat man mit dem Transformer Model DLSS 4 jetzt wieder einen Brocken dem es schwierig wird hinterher zu laufen. Hoffe für AMD dass Amethyst gerade mit 110 % Fokus daran arbeitet ^^
robbitop
2025-01-08, 15:29:23
Geh vom schlimmsten aus. Sonst endet es wie jedes mal. Hypetrain ohne Ende, viel zu hohe Erwartungen und dann wieder lange Gesichter.
Man lebt nur einmal. ^^
Außerdem fahre ich gerne Zug - Tchoochooo :freak:
Hier z.B.
https://www.computerbase.de/2023-05/oc-auf-3-4-ghz-radeon-rx-7900-xtx-jagt-mit-700-watt-die-rtx-4090/
3,4Ghz real anliegend im Gaming, allerdings bei 700W :freak:
Kaputt ist an dem Ding eigentlich nur der Verbrauch. Hätte die mit 350W konstant 3Ghz geschafft, wär das schon ein Zäpfchen gewesen.
IMO hätte AMD es einem einfacher machen müssen mit N31 und der TDP und ggf. auch eine water cooled Variante vorstellen sollen über Partner oder so. Hätte ich 2022 gewusst, dass 3,4 GHz mit Wakü und 700W möglich gewesen wäre hätte ich ggf zugeschlagen. Ggf. hätte das doch den einen oder den anderen noch hervorgelockt ^^
davidzo
2025-01-08, 15:33:37
Schon klar... nur ist der IF bei N48 die dritte Generation. Bei NVs Ada welche? Die erste?
Dadrauf kann man sich leider keinen Kaffe kaufen.
Nvidias erster großer LLC bei Lovelace hat praktisch sogar eine etwas höhere Bandbreite als AMDs 2nd Gen IF Cache und die weitaus bessere Latenz weile s eben L2 ist und nicht L3. Die 4090 erreicht mit nur 72mb schon über 5tb/s und die vollen 96MB von AD102 wären sicher über 6TB/s.
Auch N31 kommt mit 96MB auf theoretisch 5,3TB/s. Die Bandbreite pro MB an Cache ist also sehr vergleichbar und vermutlich sind es die leicht höheren Taktraten von Lovelace die den leichten Vorsprung von nvidia ausmachen.
Ich rechne nicht damit dass ein 64MB LLC bei N48 wesentlich schneller wird als die 64MB bei AD103. Mehr Bandbreite kostet in der Regel Density. Da wären 16mb oder 32mb mehr Cache vermutlich die bessere Wahl.
fondness
2025-01-08, 15:36:46
Was hat denn NV marketingtechnisch gezeigt? Ich habe zu 99% nur AI, AI und nochmal AI gesehen. :freak: Langweiliger gehts kaum. Ich meine gut, bei AMD war es auch nicht anders. ;D
Das ist ohnehin eine Bullshit-Diskussion. Wenn man ein gutes Produkt hat braucht man keine Marketing-Abteilung, wenn man ein schlechtes Produkt hat hilft die beste Marketing-Abteilung nichts. NV Marketingabteilung ist das größte Bullshitbingo das es gibt, dort wird auch gerne mal bewusst gelogen, es interessiert aber keinen, da die Produkte überzeugen.
The_Invisible
2025-01-08, 15:41:56
Ich bekomme langsam das Gefühl die Gerüchte und Leaker wurden alle ordentlich ge-jebaited.
Das Ding ist deutlich größer als gedacht und potenziell deutlich schneller als gedacht.
Klar, deshalb hat man auch nix bei der CES gezeigt, man wollte Nvidia von der Schmach verschonen, wahrscheinlich 5090 Level :freak:
Ravenhearth
2025-01-08, 15:46:29
Als ich das Bild vom Die gesehen habe, musste ich sofort an Navi21 denken, der war auch so langgezogen; vielleicht hat Navi48 ebenfalls mehr Cache als 64MB. Also mit 390mm² muss AD103-Performance schon drin sein, ansonsten hätte AMD so richtig reingeschissen (wäre allerdings nichts neues :redface:). Damit wäre die 9070 XT etwa auf dem Level der 5070 Ti (was auch nur der Salvage vom 377mm² [?] großen GB203 ist), die 9070 könnte es mit der 5070 aufnehmen. Wenn der Benchmark von IGN auf der 9070 lief, würde das sehr gut hinkommen.
Das würde auch zum neuen Namensschema passen, mit dem sich AMD ja mit Nvidia synchronisieren will. Wäre ja doof, wenn das neue Namensschema schon wieder veraltet ist, weil man es nur mit der Vorgängergeneration aufnehmen kann. Intern sind die IHVs ohnehin gut darüber informiert, was die Konkurrenz macht.
aufkrawall
2025-01-08, 15:47:56
Hm, wussten das Nvidia, und daher sind die Preise diesmal "human"?
Hakim
2025-01-08, 15:51:07
...dort wird auch gerne mal bewusst gelogen, es interessiert aber keinen, da die Produkte überzeugen.
Ja macht es AMD besser? Weißt noch die Balken zu den Zen5 nonX3D CPUs. Lederjacke sagt zwar 5700 hat 4090 Performance, aber direkt danach zu erwähnen " only possible wit AI", genauen Wortlaut weiß ich nicht mehr, aber wusste dann ist BS, da FG gegen MFG getestet wurde.
why_me
2025-01-08, 15:53:13
Schön das er das gesagt hat, nur stand davon halt nichts auf den Folien, kein Sternchen, kein "nur mit 4x FG vs 2x" etc. Und genau diese Bildchen geistern jetzt überall durch Netz.
basix
2025-01-08, 15:57:14
Ich hätte aber erwartet, dass AMD eher auf GDDR7 geht statt den Cache zu vergrößern, wenn 20Gbps+64MB nicht reichen. Der Ertrag des Caches nimmt auch immer weiter ab, d.h. ich würde von 64MB auf 96MB jetzt keine Wunder erwarten. 128MB sollten es schon sein, um an die Kombo von 28Gbps+64MB ranzukommen [...]
Ihr vergesst immer die 4070 Ti: 192bit, 21Gbps, 48MByte L2$, 60SM.
Ausgehend von diesen Daten könnte eine 9070XT mit 256bit, 20Gbps, 64MByte IF$, 64CU ordentliche 1.5x effektive Bandbreite einer 4070 Ti aufweisen. Einzige Bedingung: Bandbreiteneffizienz auf Lovelace Niveau.
Hakim
2025-01-08, 16:15:09
Schön das er das gesagt hat, nur stand davon halt nichts auf den Folien, kein Sternchen, kein "nur mit 4x FG vs 2x" etc. Und genau diese Bildchen geistern jetzt überall durch Netz.
Ja Marketing bla bla,
Habe es ja beim Livestream ohne den Satz zu hören schon als BS betrachtet
Link (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13678382#post13678382)
Der_Korken
2025-01-08, 16:15:25
Ihr vergesst immer die 4070 Ti: 192bit, 21Gbps, 48MByte L2$, 60SM.
Ausgehend von diesen Daten könnte eine 9070XT mit 256bit, 20Gbps, 64MByte IF$, 64CU ordentliche 1.5x effektive Bandbreite einer 4070 Ti aufweisen. Einzige Bedingung: Bandbreiteneffizienz auf Lovelace Niveau.
Erstmal sind das 27% mehr Bandbreite als die 4070Ti und so viel ist eine 4080 auch in etwa schneller als die 4070Ti. Die Cachegröße bringt noch ein bisschen was, aber keine 20%. Ich finde 20Gbps+64MB für AD103-Level-Performance zu knapp kalkuliert. Oder AMD hat damit gerechnet, dass beim GPU-Design wieder irgendwas schief geht und von vornherein das Speichersystem etwas unterdimensioniert und ausgerechnet diesmal ging bei der GPU mal alles glatt :freak:.
Edit: Man muss bei den Cache-Größen immer bedenken, dass die Hitrate mit einem größeren Working Set schlechter wird. Bei einer 16GB-Karte, die ihren Speicher komplett ausnutzt, brauche ich wahrscheinlich die 64MB, um die Hitrate beizubehalten, die eine 12GB-Karte mit 48MB erreicht (die ebenfalls ihren Speicher komplett ausnutzt). Wenn ich die 16GB-Karte in einem "12GB-Workload" mit der 12GB-Karte vergleiche, dann hat erstere natürlich eine höhere Hitrate. Aber ich will ja mit der größeren Karte nicht einfach nur mehr fps bei gleichen Settings, sondern mehr Settings bei gleichen fps.
Edit2: @fondess unter mir: Gerüchte. Hatte mit eingebildet, es sei schon eine Packung mit 16GB GDDR6 geleakt worden, aber es war eine Aussage von afaik Asrock, dass 9070 und 9070XT mit 16GB VRAM kommen (aber nicht welcher Art).
fondness
2025-01-08, 16:17:45
Ist GDDR7 ausgeschlossen? Oder woher kommt die 20Gbps?
robbitop
2025-01-08, 16:21:00
Klar, deshalb hat man auch nix bei der CES gezeigt, man wollte Nvidia von der Schmach verschonen, wahrscheinlich 5090 Level :freak:
Naja man hat ggf. rumors zu den UVPs bei Nvidia und deren DLSS gehört und hat kurzfristig entschieden das abzuwarten um darauf reagieren zu können.
Fand ich wirkte auch ziemlich ungeschickt. Aber bitte im richtigen Kontext sehen anstatt plump mit der 5090 zu vergleichen.
Wenn bis dato 7900GRE Performance und 270mm2 durch den Äther kreiste wäre 4080 performance und 380mm2 relativ zu dem schon ein ordentliches jebait. Dass Nvidia schnellere Karten im Portfolio hat war doch gar nicht der Punkt.
fondness
2025-01-08, 16:21:19
Edit2: @fondess unter mir: Gerüchte. Hatte mit eingebildet, es sei schon eine Packung mit 16GB GDDR6 geleakt worden, aber es war eine Aussage von afaik Asrock, dass 9070 und 9070XT mit 16GB VRAM kommen (aber nicht welcher Art).
Das stimmt. Die 16GB VRAM und damit wohl auch das 256bit SI sind bestätigt. Aber die 20Gbps GDDR6 kommt noch immer von der alten Quelle die sich ja auch bei der Die-Size offenbar schon geirrt hat. Offiziell von AMD gibt es dazu nichts.
robbitop
2025-01-08, 16:23:34
Ist GDDR7 ausgeschlossen? Oder woher kommt die 20Gbps?
Ist auch noch nicht ausgeschlossen offiziell.
fondness
2025-01-08, 16:26:00
Mit GDDR7 wäre selbst ein 384bit SI mit 16GB VRAM möglich (was nicht heißt das ich das für wahrscheinlich halte). Also abwarten.
basix
2025-01-08, 16:26:05
Erstmal sind das 27% mehr Bandbreite als die 4070Ti und so viel ist eine 4080 auch in etwa schneller als die 4070Ti. Die Cachegröße bringt noch ein bisschen was, aber keine 20%.
1.27 * sqrt(64 / 48) = 1.27 * 1.15 = 1.46x
Macht gerundet ~1.5x ;)
Ich will damit nur sagen: Die Bandbreite könnte prinzipiell reichen, auch für >4080 Performance. Egal was die 4080 macht. Die 4080 dürfte verglichen zur 4070 Ti nicht bandbreitenlimitiert sein (hätte theoretisch 1.6x effektive Bandbreite einer 4070 Ti). Wird auch die 4090 und 5090 nicht sein, dort limitert einfach was anderes.
Wird die 9070XT so schnell wie eine 4080 werden? Langsamer? Schneller? Keine Ahnung. Aber es ist alles im Bereich des Möglichen.
Ravenhearth
2025-01-08, 16:30:46
Mit GDDR7 wäre selbst ein 384bit SI mit 16GB VRAM möglich (was nicht heißt das ich das für wahrscheinlich halte). Also abwarten.
Wären das nicht eher 18GB oder stehe ich gerade auf dem Schlauch?
fondness
2025-01-08, 16:38:05
Wären das nicht eher 18GB oder stehe ich gerade auf dem Schlauch?
Stimmt, my fault.
BavarianRealist
2025-01-08, 16:47:49
Was können die Gründe für das große Die sein?
Ziel war: hohe Effizienz (lowpower) und an sich günstige Herstellung...das Zweite wäre dann gescheitert...
So wie AMD die ganze Zeit von AI spricht, denke ich, dass Navi48 sehr stark in AI sein dürfte und hier womöglich ein erster Schritt in Richtung UDNA vollzogen worden sein könnte. Jedenfalls bezweifle ich, dass man hier ähnlich den APUs eine getrennte NPU eingebaut hat, die für den Flächenverbrauch einfach zu wenig liefert, verglichen mit dem was bei Nvidia raus kommt.
Könnte es sein, dass hier nun ähnlich Nvidia entsprechende AI-Funktionalität in jede CU integriert ist, evtl. schon mit FP6 und FP4, d.h. man könnte Elemente von N355X hier vielleicht schon realisiert haben...?
Ravenhearth
2025-01-08, 17:05:57
Mögliche Erklärungen sind:
- Tatsächliche Shader-Verdopplung statt nur Dual-Issue. Zudem könnte der Takt steigen. Die Rohleistung sinkt ggü Navi31 (bspw. 49 TFLOPs @ 3GHz statt 61 TFLOPs @ 2,5 GHz), aber man bekommt sie viel besser als die Straße. Das könnte für eine Leistung auf Navi31/AD103-Niveau reichen, trotz nur 64 CUs.
- Wie du schon sagst, bessere KI-Fähigkeiten, außerdem RT.
- Wenn man bei GDDR6 bleibt, wäre auch mehr Cache (vlt. 128MB) eine mögliche Erklärung.
Ich kann das zwar jetzt nicht einordnen weil ich das Game nicht spiele. Aber wenn das tatsächlich stimmt wäre das schon sehr geil. Ich hätte nämlich nie damit gerechnet, dass die RX 9070XT die RX 7900XTX in Raster schlägt. Dafür muss die IPC aber schon ordentlich angestiegen sein. Höherer Takt alleine reicht dafür nicht aus. Auf der anderen Seite nicht ganz unmöglich bei dem misslungenen RDNA3. :uponder:
Edit:
Aber immerhin kein CPU-Limit.
Da ist wahrscheinlich auch genau das der Fall. Ist bei BW ja auch so, die Takte sind bei BW denke ich mal deshalb niedriger, weil der jetzt endlich seine 2x FP32 auf die Strasse bekommt, anders als Ampere und Ada.
Was aber nicht passt ist das Speicherinterface, entweder ist da 128MB drin in dem Chip oder es gibt irgendwelche andere secret-sauce.
dargo
2025-01-08, 17:37:50
Naja... 128MB finde ich Overkill für so eine SKU, dann eher 96MB.
BlacKi
2025-01-08, 17:43:51
Also die Fakten sind aktuell: eine der beiden neuen Karten ist in diesem einen Spiel in Raster 4k so schnell wie eine 7900XT.
laut amd kann es keine leaks geben, denn niemand hat den treiber. das wurde gestern bzw. montag noch so von amd an die presse weitergegeben.
Frank Azor
The other thing I will tell you is that nobody has the final driver. So how can the data be accurate? That's why I can confidently say that the data is not accurate.
https://morethanmoore.substack.com/p/where-was-rdna4-at-amds-keynote
also alles fake.
Ravenhearth
2025-01-08, 17:47:37
IGN haben auf der CES den Benchmark von CoD BO6 durchlaufen lassen (https://www.ign.com/articles/amd-radeon-rx-9070-benchmark), das ist nicht nur ein unbestätigter Leak.
robbitop
2025-01-08, 17:56:18
Ich glaube der screenshot mit den 99 fps wurde schon gepostet und dass das ~4080 level ist.
Das wäre natürlich sehr gut.
Ravenhearth
2025-01-08, 18:02:20
Die 390mm² deuten nicht nur darauf hin, dass Navi48 deutlich schneller wird als gedacht, er dürfte auch deutlich teurer werden. Best Case ist imo eine Raster-Leistung auf Höhe von Navi31/AD103 und damit ungefähr im Bereich der 5070 Ti. Außerdem bietet man den gleichen Speicher, dürfte aber bei der RT-Leistung etwas zurückhängen, wenn viel RT genutzt wird. Außerdem kann AMD beim Featureset (v.a. DLSS) nicht mithalten. Ich denke nicht, dass AMD in diesem Fall nur $499 aufrufen wird, das dürfte eher in Richtung $649 gehen, hoffentlich nicht mehr.
Die 9070 dürfte näher an der 9070 XT liegen als die 5070 an der 5070 Ti und könnte in Raster damit ein Stückchen schneller als die 5070 rauskommen, außerdem bietet man mehr VRAM. Insbesondere bei starkem RT-Einsatz dürfte aber Nvidia vorne liegen, dazu kommt das Featureset. Das erinnert an 7800 XT vs. 4070. Damit dürfte diese Karte imo maximal $499 kosten. Weniger wäre in beiden Fällen natürlich förderlich für den Marktanteil.
Kann aber auch alles Schwachsinn sein und der Chip ist einfach so fett wegen mehr KI/RT oder Cache und erreicht trotzdem nur die 5070, sodass AMD ihn für $499 verscherbeln muss. Wollen wirs nicht hoffen...
Ich glaube der screenshot mit den 99 fps wurde schon gepostet und dass das ~4080 level ist.
Das wäre natürlich sehr gut.
Ja, ich habe auf BlacKis Post geantwortet :) Einen Vergleich mit Nvidia würde ich in CoD aber unterlassen, das Spiel bevorzugt Radeons extrem. 7900 XT-Niveau wäre bei 390mm² vielleicht nicht optimal, ich hoffe das war nur die 9070 non-XT.
Der_Korken
2025-01-08, 18:02:43
laut amd kann es keine leaks geben, denn niemand hat den treiber. das wurde gestern bzw. montag noch so von amd an die presse weitergegeben.
Ja, die Performance-Leaks kann man wohl in die Tonne treten. Selbst wenn sie auf einer echten 9070 gemacht wurden, weiß man nicht, was AMD da für Bremsen eingebaut hat, um Leaks zu unterbinden. 7950GRE+ und 4080-5% könnten beide stimmen, wenn sie einfach mit unterschiedlichen Treibern gemacht wurden.
IGN haben auf der CES den Benchmark von CoD BO6 durchlaufen lassen (https://www.ign.com/articles/amd-radeon-rx-9070-benchmark), das ist nicht nur ein unbestätigter Leak.
Ich finde es witzig, dass sich keine Community darauf einigen kann, wie die aktuellen GPUs denn dort performen :freak:. Das wurde im Anandtech-Forum schon heute morgen diskutiert. Zwischen "knapp 7900XT-Niveau" und "15% schneller als 7900XTX" war schon alles dabei.
Zusammen mit den 16GB und dem 390mm²-Chip, der angeblich N48 sein soll (was anderes in der Größe gibt es aktuell von AMD nicht), sind das die besten Hints aktuell.
Edit: OK, streicht den Benchmark wieder (siehe unter mir) ;D
BlacKi
2025-01-08, 18:03:47
IGN haben auf der CES den Benchmark von CoD BO6 durchlaufen lassen (https://www.ign.com/articles/amd-radeon-rx-9070-benchmark), das ist nicht nur ein unbestätigter Leak.
pfft, in den komments deines links:
Hey Jacqueline, did you restart the game after applying the settings? Just tested this BLOPS 6 benchmark myself on my 7900xtx and noticed you need to restart the game after applying settings otherwise, whilst it will display as being set to extreme, in reality a number of settings will not update until the game is restarted. This caused a massive decrease in my fps and after restart i got 59fps at native 4k extreme. The benchmark also used around 13gb VRAM unlike the 9gb used here which supports this (although that could be because the xtx has 20gb vram so the game simply allocates more memory). Either way this mistake seems very likely given how much better this benchmark result is that any reasonable expectation. I hope I'm wrong of course as this would be amazing.
kein wunder das jeder komische werte postet XD
wird hier auch diskutiert, das die werte, selbst wenn es eine rdna4 karte war, wohl in die tonne gehören.
XmIpLgTYt2g
daniels 7900xt kommt auf 67fps unter den genannten settings. damit wäre die 9700 non xt 48% schneller als die 7900xt XD
dargo
2025-01-08, 18:08:47
Ich glaube der screenshot mit den 99 fps wurde schon gepostet und dass das ~4080 level ist.
Das wäre natürlich sehr gut.
Bitte nicht mit Nvidia schon wieder vergleichen wenn diese Software Radeons besser liegt. Da macht es mehr Sinn mit 7900XT(X) zu vergleichen.
pfft, in den komments deines links:
kein wunder das jeder komische werte postet XD
wird hier auch diskutiert, das die werte, selbst wenn es eine rdna4 karte war, wohl in die tonne gehören.
https://youtu.be/XmIpLgTYt2g
Lol... nur Amateure beim Benchmarken. ;D Ok... abhacken. Bleibt jetzt nur noch die ominöse Die Size.
Hakim
2025-01-08, 18:13:27
Wann glaubt ihr könnte AMD die Karte und Details mal richtig Veröffentlichen? Q1 klingt halt etwas meh. Ich hoffe noch vor ende Januar, selbst wenn der Launch deutlich später sein sollte, einfach um zu zeigen das man was hat. Evt läßt man NV 5090 und 5080 passieren und will es kurz vor den 5070Ti und 5070 Launchs veröffentlichen.
fondness
2025-01-08, 18:13:31
Laut videocardz.com handelt es sich dabei sogar nur um eine 9070 non XT Karte
https://videocardz.com/newz/amd-radeon-rx-9070-non-xt-tested-in-cod-bo6-99-fps-on-average-at-4k-extreme-settings-without-fsr
dargo
2025-01-08, 18:15:37
Wann glaubt ihr könnte AMD die Karte und Details mal richtig Veröffentlichen?
Bei XFX stand was von 24.01. Ob das jetzt den Release bedeutet oder weitere Details? Keine Ahnung.
OgrEGT
2025-01-08, 18:54:25
https://videocardz.com/newz/preorders-for-amd-radeon-rx-9070-reportedly-start-on-january-23rd
Preorders for AMD Radeon RX 9070 reportedly start on January 23rd
Wenns stimmt dann müssten spätestens bis dahin Infos zur Leistung kommen sonst preordered da niemand was...
robbitop
2025-01-08, 19:04:31
Gibt es für CoD6(?) nicht auch default settings die man mal nachbrachten könnte? Die Auflösung wird sicherlich passen - aber die Grafiksettings nicht
mczak
2025-01-08, 19:11:04
Das ist eine gute Frage. Bei Turing wissen wir ja, dass die RT-Cores und Tensor Cores nicht extrem viel Platz brauchen, da spezialisierte HW. Was hiess es mal, 10% oder so grössere SMs (man hat RTX vs. non-RTX Turing verglichen)?
IIRC war das schon deutlich mehr, eher so 20% grössere SMs. Bezogen auf die Gesamtchipfläche waren es dann etwa 10%.
DrFreaK666
2025-01-08, 19:50:52
Geh vom schlimmsten aus. Sonst endet es wie jedes mal. Hypetrain ohne Ende, viel zu hohe Erwartungen und dann wieder lange Gesichter.Die Karte wird ~100% schneller als meine 6700XT. Passt für mich
Laut videocardz.com handelt es sich dabei sogar nur um eine 9070 non XT Karte
https://videocardz.com/newz/amd-radeon-rx-9070-non-xt-tested-in-cod-bo6-99-fps-on-average-at-4k-extreme-settings-without-fsr
Woher wollen die das wissen? Da steht nur "RDNA4 graphics"
dargo
2025-01-08, 19:52:24
Sehr schön... die Hellhound gibts mit zwei Stromsteckern. :up:
https://youtu.be/FoPGxHuwB0M?si=isjxZTfqq79SAR5Y&t=286
btw.
Kann man eigentlich von der Rückseite was ableiten ob der Chip jetzt tatsächlich eher lang und schmal ist? Bezüglich der ~380mm² Spekulation.
raffa
2025-01-08, 19:57:11
Geht doch! Die Reaper sieht gut aus.
BlacKi
2025-01-08, 20:09:30
und im video wird bestätigt, das die 9070 non xt auch 16gb hat, falls 12gb für manchen noch im raum stand. btw. die hellhound ist keine xt. also hat die non xt 2 stromstecker. die xt könnte also auch 3 haben, auch wenn die sicherlich nicht nötig wären.
MSABK
2025-01-08, 20:10:33
Bezüglich der Chipgröße. Kann es sein, dass die Raytracing und Upscalingeinheiten einfach mehr Platz brauchen und Raster nicht steigt wie es die größe vermuten lassen würde?
dargo
2025-01-08, 20:11:41
Geht doch! Die Reaper sieht gut aus.
Aufpassen! Bei der drehen sich alle drei Lüfter in eine Richtung, kein Vorteil. ;)
btw. die hellhound ist keine xt. also hat die non xt 2 stromstecker. die xt könnte also auch 3 haben, auch wenn die sicherlich nicht nötig wären.
Eher unwahrscheinlich. Schon die Hellhound 7900XTX hat nur zwei Stecker und man konnte die bis zu 400W mit dem OC-Bios hoch jagen.
raffa
2025-01-08, 20:19:02
Wie meinen? Erklärung, bitte.
Ist ein schönes, klassisches, schlankes Design, deswegen gefällt mir die bisher von allen gezeigten 7090ern am besten.
Die Hellhound wär aber auch ok, ist bestimmt bissl teurer, dafür besser gekühlt. Gezeigt wird da aber die non XT
Die 3xPin sind glaub nur Prollerei. Braucht doch koa mensch bei einer 70er GPU (ja, ich habs jetzt übernommen!)
dargo
2025-01-08, 20:27:47
Wie meinen? Erklärung, bitte.
Wenn alle drei Lüfter in eine Richtung drehen gibt es Luftverwirbelungen die zu unschönen Geräuschen führen können. Immer schön drauf achten, dass bei drei Lüftern der mittlere in die andere Richtung dreht. Dadurch behindern sich nicht die einzelnen Lüfterblätter gegenseitig wenn sie aufeinander treffen.
Die Hellhound wär aber auch ok, ist bestimmt bissl teurer, dafür besser gekühlt. Gezeigt wird da aber die non XT
Die XT wird exakt genauso aussehen.
Palpatin
2025-01-08, 20:32:29
https://videocardz.com/newz/preorders-for-amd-radeon-rx-9070-reportedly-start-on-january-23rd
Preorders for AMD Radeon RX 9070 reportedly start on January 23rd
Wenns stimmt dann müssten spätestens bis dahin Infos zur Leistung kommen sonst preordered da niemand was...
Zumindest einen Preis wird es bis dahin geben und das ist ja ein guter Hinweis auf die Leistung. ;) Preorder ist auf jeden Fall mal eine gute Sache. Hätten sie eigentlich ab RDNA 2 anbieten sollen.
Ravenhearth
2025-01-08, 20:35:20
Bezüglich der Chipgröße. Kann es sein, dass die Raytracing und Upscalingeinheiten einfach mehr Platz brauchen und Raster nicht steigt wie es die größe vermuten lassen würde?
Theoretisch schon, aber halte ich nicht für wahrscheinlich. Ein monolithischer RDNA3-Chip mit 64 CUs in N4 wäre <300mm² groß und wäre (falls gefixt) durch höheren Takt schon schneller als die 7900 GRE. Um in diesem Fall auf 390mm² zu kommen, müsste AMD ~100mm² nur für RT und KI verbraten. So viel Chipfläche braucht noch nichtmal Nvidia, bei Turing waren das (siehe weiter oben) ca. 10% auf den ganzen Chip gerechnet. Auch die bisherigen Leaks zur RDNA4-Architektur lassen sowas nicht vermuten. Die große Chipfläche lässt sich eigentlich nur durch stärkere CUs und evtl. mehr Cache erklären.
raffa
2025-01-08, 20:49:19
Wenn alle drei Lüfter in eine Richtung drehen gibt es Luftverwirbelungen die zu unschönen Geräuschen führen können. Immer schön drauf achten, dass bei drei Lüftern der mittlere in die andere Richtung dreht. Dadurch behindern sich nicht die einzelnen Lüfterblätter gegenseitig wenn sie aufeinander treffen.
Die XT wird exakt genauso aussehen.
thx, find ich erstmal einleuchtend.
dargo
2025-01-08, 20:54:56
thx, find ich erstmal einleuchtend.
Ergänzend dazu noch... ist natürlich von der Drehzahl abhängig. Bei 1000RPM nur um ein Beispiel zu nennen dürften auch drei Lüfter die in die gleiche Richtung drehen noch nicht zum Problem werden bzw. Luftverwirbelungen bei der flachen Bauweise und somit geringen Luftdurchsatz.
horn 12
2025-01-08, 21:07:12
AMD macht es diesmals echt spannend, nach dem Ganzen Zorn den ich Montags hatte bin froh eine RX 9070XT zu bekommen wenn meine 7900XTX mal das Zeitliche segnet.
Zu guter Letzt überrascht uns AMD und bringt die Leistung knapp unter 7900XTX und nochmals eine über einer 7900XTX zu 699 und 829 Euro
und ist so schnell(er) wie eine 5070 und 5070TI und auch Billiger und vielleicht 15% unter einer 5080.
PS: Zudem kann dass man nix gezeigt/ veröffentlicht hat auch einfach die Retourkutsche von dem gewesen sein,- dass sich NV vor gut 2 Jahren ausgedacht hat(te)
als man mit 3 bis gar 4 Slot Design ankam und die 550+ Watt für 4090 vorposaunte.
Schnitzl
2025-01-08, 21:16:23
könnte ja echt noch was werden mit der die size
um mich zum Kauf zu bewegen muss im Treiber mehr möglich sein als eine Änderung von 10% am Powertarget :tongue:
raffa
2025-01-08, 21:21:11
Wer genaueres wissen will:
f9Oe63GHrWE
Ich hab durchaus gelacht : )
DrFreaK666
2025-01-08, 21:43:14
Hoffentlich gibt es auch eine Hellhound mit 9070XT
Der_Korken
2025-01-08, 21:56:39
Hoffentlich gibt es auch eine Hellhound mit 9070XT
Und als Spectral White :)
Finds aber komisch, dass die nur Dualslot ist (wie die Reaper). Selbst die 7800XT Hellhound hat 2,5 Slots. Entweder laut oder GPU sparsam.
fizzo
2025-01-08, 22:03:01
Und als Spectral White :)
Finds aber komisch, dass die nur Dualslot ist (wie die Reaper). Selbst die 7800XT Hellhound hat 2,5 Slots. Entweder laut oder GPU sparsam.
7800XT - TDP 263 Watt / 9070 - TDP 220 Watt (laut Gerüchteküche)
DrFreaK666
2025-01-08, 22:04:17
Und als Spectral White :)
Finds aber komisch, dass die nur Dualslot ist (wie die Reaper). Selbst die 7800XT Hellhound hat 2,5 Slots. Entweder laut oder GPU sparsam.
Ist mir egal welche Farbe sie hat. Sie darf bloß nicht leuchten, blinken, weiß der Geier was. Oder man soll das per Software deaktivieren können
Der_Korken
2025-01-08, 22:07:50
7800XT - TDP 263 Watt / 9070 - TDP 220 Watt (laut Gerüchteküche)
TDP != TBP
nairune
2025-01-09, 00:20:11
Ist mir egal welche Farbe sie hat. Sie darf bloß nicht leuchten, blinken, weiß der Geier was. Oder man soll das per Software deaktivieren können
Besser per Hardwareschalter wie bei der Hellhound. Ich will ja nicht irgendwelche Müllsoftware dafür installieren.
Allerdings warte ich (abgesehen davon, wie interessant das Teil allgemein ist) auch erstmal die Referenz ab. Die Lüfter der 6900 XT Ref sind dermaßen viel besser als alle Customs, die ich jemals hatte (im Sinne von keinerlei Störgeräuschen, daher bei niedrigen Drehzahlen nicht wahrnehmbar, außerdem sehr niedrige Minimaldrehzahl), dass ich die wieder bevorzugen würde.
crux2005
2025-01-09, 00:56:10
N48 soll 390mm2 haben. Ooof.
https://videocardz.com/newz/amd-navi-48-rdna4-gpu-for-radeon-rx-9070-pictured-may-exceed-nvidia-ad103-size
Ich sehe nicht wie die 9070 XT billiger als 7080 XT werden kann.
DrFreaK666
2025-01-09, 01:10:00
RDNA4 soll laut MLID nächste Woche vorgestellt werden
https://i.postimg.cc/h4wBmQwq/grafik.png (https://postimg.cc/mhQJfkBd)
g1Kd-gQF04I
horn 12
2025-01-09, 02:48:19
Nächsten Mittwoch RDNA4 Vorstellung und übernächsten Mittwoch+ Vorbestellungen offen
Die Testberichte zu den Karten dann im Ungewissen, oder einen Tag vor Bestellungstermin?
FSR 4.0 Video
Kurz angerissen:
https://www.youtube.com/shorts/qf-Lm6f-JCo
dildo4u
2025-01-09, 03:48:45
N48 soll 390mm2 haben. Ooof.
https://videocardz.com/newz/amd-navi-48-rdna4-gpu-for-radeon-rx-9070-pictured-may-exceed-nvidia-ad103-size
Ich sehe nicht wie die 9070 XT billiger als 7080 XT werden kann.
Das ist nicht anders als 4080 vs 7900XTX der Markt mach den Preis auch wenn der Chip für AMD deutlich teurer ist.
Der Unterscheid ist das diesmal die neuen Karten deutlich billiger sein könnten da sie A weniger Strom brauchen und B keine 24GB verbauen.
dargo
2025-01-09, 04:45:41
Hoffentlich gibt es auch eine Hellhound mit 9070XT
Warum sollte dies nicht der Fall sein? :freak:
dildo4u
2025-01-09, 04:49:28
Powercolor 9700 Lineup
FoPGxHuwB0M
dargo
2025-01-09, 04:52:57
Wer genaueres wissen will:
https://youtu.be/f9Oe63GHrWE
Ich hab durchaus gelacht : )
Hier sieht man auch ganz gut was das wieder für ein Klopper @Ziegelstein bei der Red Devil ist. :freak: Aber gut... bei 330W im OC-Bios plus die +15 bis +25% von AMD (je nachdem was AMD im Treiber erlaubt) kein Wunder.
btw.
Interessant finde ich aber, dass angeblich AMD die max. Performance durch den Treiber noch zurück hält. Das erinnert mich ein wenig an den Release von RDNA2 wo NV veräppelt wurde. ;D
dildo4u
2025-01-09, 04:58:47
Laut dem sind die Call of Duty Werte 40% über 7900XT denke nicht das da was zurück gehalten wird,
XmIpLgTYt2g
dargo
2025-01-09, 05:09:09
Laut dem sind die Call of Duty Werte 40% über 7900XT denke nicht das da was zurück gehalten wird,
https://youtu.be/XmIpLgTYt2g
Wie oft willst du den Quatsch noch durchkauen? :freak: Das Game wurde nicht neu gestartet nach dem Ändern der Settings und somit auch nicht mit max. Settings gebencht!
Bezüglich N48 schmal und lang...
N32:
https://www2.pic-upload.de/thumb/37456640/N32_Hellhound.jpg (https://www.pic-upload.de/view-37456640/N32_Hellhound.jpg.html)
N48:
https://www2.pic-upload.de/thumb/37456641/N48_Hellhound.jpg (https://www.pic-upload.de/view-37456641/N48_Hellhound.jpg.html)
Ich würde sagen damit ist diese Form von N48 bestätigt und somit auch die Größe von weit über 300mm².
Altehardware
2025-01-09, 05:17:36
Ist der cod bo6 benchmark so viel Anspruchsvoller als der mw2benchmark?
Sofern da cod cw Neuerungen drin sind denkbar(dxr) aber die werte die ich gefunden habe für nativ 2160p wären 100fps schneller als ne rtx4090 (84fps) entweder da ist ein heftiges cpu limit drin oder es war ein upscaler aktiv
Was nebenbei default Einstellung ist bei ultra settings Einstellung.
dargo
2025-01-09, 05:18:08
N48 soll 390mm2 haben. Ooof.
https://videocardz.com/newz/amd-navi-48-rdna4-gpu-for-radeon-rx-9070-pictured-may-exceed-nvidia-ad103-size
Ich sehe nicht wie die 9070 XT billiger als 7080 XT werden kann.
Du hast doch wohl nicht ernsthaft daran gedacht, dass die 9070XT für weniger als 499$ kommt oder? :freak:
RDNA4 soll laut MLID nächste Woche vorgestellt werden
https://i.postimg.cc/h4wBmQwq/grafik.png (https://postimg.cc/mhQJfkBd)
https://youtu.be/g1Kd-gQF04I
Ah... sehr gut. Also hat AMD mehr zu RDNA4 zu erzählen was zeitlich bei der CES nicht rein passte.
FSR 4.0 Video
Kurz angerissen:
https://www.youtube.com/shorts/qf-Lm6f-JCo
Sieht doch schon mal sehr gut aus, kein Moireeffekt zu sehen mit FSR 4. :up:
mironicus
2025-01-09, 07:22:05
Mit einem KI-Upscaler gibt es keinen Grund mehr anzunehmen, dass die Bildqualität nicht ebenso gut sein sollte wie bei DLSS. Weitere Verbesserungen sind stets möglich durch optimierte Trainingsmodelle, ähnlich wie bei Nvidia.
dargo
2025-01-09, 07:53:11
Mit einem KI-Upscaler gibt es keinen Grund mehr anzunehmen, dass die Bildqualität nicht ebenso gut sein sollte wie bei DLSS. Weitere Verbesserungen sind stets möglich durch optimierte Trainingsmodelle, ähnlich wie bei Nvidia.
Och nö... ich werde die Weltuntergangsszenarien von den grünen Fanboys in Zukunft so vermissen. ;(
E39Driver
2025-01-09, 08:30:17
Bin echt auf die Veröffentlichung gespannt. Das Ding wird entweder schwer enttäuschen oder aber positiv überraschen. Die bisher gezeigten Leaks passen nicht wirklich zusammen:
Auf der einen Seite als Indiz für eine Schwache Performance:
- Gerüchte über einen kleinen 230mm² Chip auf Performancelevel der GRE
- Billiger GDDR6 Speicher
- AMDs eigene Marketingfolie, die die Karte nur mit einer 4070TI/einer 7900XT vergleicht
- ziemlich kleine 2 Slot Referenzdesigns, die nicht für hohe Stromaufnahme ausgelegt sein werden
Auf der anderen Seite als Indiz für hohe Performance:
- Die vermessene DieSize von 390mm²
- der Herstellungsprozess, welcher wohl besser ist als zuerst spekuliert
- Aufwendige Custom-Designs mit 3x8-Pin, die man nur macht wenn es dafür auch einen Absatzmarkt gibt
DrFreaK666
2025-01-09, 09:13:31
Mit einem KI-Upscaler gibt es keinen Grund mehr anzunehmen, dass die Bildqualität nicht ebenso gut sein sollte wie bei DLSS. Weitere Verbesserungen sind stets möglich durch optimierte Trainingsmodelle, ähnlich wie bei Nvidia.
Ki ist nicht gleich KI.
Gigapixel AI gilt als eines der besten Bild-Upscaler.
Und dann gibt es z.B. noch Upscayl, welches kostenlos ist und deren Ergebnisse nicht mithalten können
aceCrasher
2025-01-09, 09:43:07
Mit einem KI-Upscaler gibt es keinen Grund mehr anzunehmen, dass die Bildqualität nicht ebenso gut sein sollte wie bei DLSS. Weitere Verbesserungen sind stets möglich durch optimierte Trainingsmodelle, ähnlich wie bei Nvidia.
Aber... ist das so? Nvidia optimiert ihren KI-Upscaler seit einem halber Jahrzehnt und hat auch generell mehr know-how was das angeht + mehr budget. Zusätzlich dazu kam gerade noch der Sprung auf das neue Transformer-Modell obwohl das alte CNN-Modell ja schon allen anderen KI-Upscalern (XeSS, PSSR) weit überlegen war.
Generell, wieso sollte AMD aus dem Stand vergleichbare Ergebnisse liefern wenn Sony (PSSR) und Intel (XeSS) es beide nicht geschafft haben?
Ich bin trotzdem optimistisch, die Entscheidung mit FSR 4 weg von den analytischen Verfahren zu gehen war korrekt, ab jetzt kann es für AMD nur noch besser werden IMO. Und ich persönlich fänd es ja schon gut wenn AMD an Intel, Epic und Sony vorbeiziehen würde mit ihrem Upscaler - sie müssen ja nicht direkt Nvidia einholen.
fondness
2025-01-09, 09:47:22
7800XT - TDP 263 Watt / 9070 - TDP 220 Watt (laut Gerüchteküche)
Die Daten waren offenbar (bewusst gestreute) Fakenews, die kannst du nicht mehr für voll nehmen nachdem der Chip wohl bei grob 380mm² liegt (statt den damals geleakten 240mm²).
fondness
2025-01-09, 09:49:27
Wie oft willst du den Quatsch noch durchkauen? :freak: Das Game wurde nicht neu gestartet nach dem Ändern der Settings und somit auch nicht mit max. Settings gebencht!
Bezüglich N48 schmal und lang...
N32:
https://www2.pic-upload.de/thumb/37456640/N32_Hellhound.jpg (https://www.pic-upload.de/view-37456640/N32_Hellhound.jpg.html)
N48:
https://www2.pic-upload.de/thumb/37456641/N48_Hellhound.jpg (https://www.pic-upload.de/view-37456641/N48_Hellhound.jpg.html)
Ich würde sagen damit ist diese Form von N48 bestätigt und somit auch die Größe von weit über 300mm².
Der PCIe-Slot deutet übrigens auf PCIe 5.0 hin. Wird den meisten wohl egal sein, aber man kanns ja mal erwähnen.
Dimon
2025-01-09, 09:58:47
Mit einem KI-Upscaler gibt es keinen Grund mehr anzunehmen, dass die Bildqualität nicht ebenso gut sein sollte wie bei DLSS. Weitere Verbesserungen sind stets möglich durch optimierte Trainingsmodelle, ähnlich wie bei Nvidia.
Das hoffe ich doch sehr, mich hat es schon immer aufgeregt das fsr im vergleich zu dlss oder xee soviel schlechter abgeschnitten hatte...
Jetzt noch eine potente graka und evtl. Fällt bei mir die 5090 weg...
dildo4u
2025-01-09, 10:24:31
Wäre mal interessant ob Strix Halo RDNA4 hätte haben können aber 40 CU wäre viel zu groß für das Package dann kommt das erst mit 3nm.
Oder die Generation wird für IGP übersprungen.
dargo
2025-01-09, 10:28:23
Der PCIe-Slot deutet übrigens auf PCIe 5.0 hin. Wird den meisten wohl egal sein, aber man kanns ja mal erwähnen.
Ich wüsste nicht mal worauf ich da achten soll um das zu erkennen. :tongue:
gas3t
2025-01-09, 10:32:27
PCIe 5.0 steht auch im neusten Leak (inkl. Leistung): https://videocardz.com/newz/amd-radeon-rx-9070-xt-3dmark-leak-3-0-ghz-330w-tbp-faster-than-rtx-4080-super-in-timespy-and-4070-ti-in-speed-way
robbitop
2025-01-09, 10:38:45
Mit einem KI-Upscaler gibt es keinen Grund mehr anzunehmen, dass die Bildqualität nicht ebenso gut sein sollte wie bei DLSS. Weitere Verbesserungen sind stets möglich durch optimierte Trainingsmodelle, ähnlich wie bei Nvidia.
AMD hat da zwei Nachteile:
1.) Iteration macht Perfektion. Das ist so ziemlich immer und überall so. Nvidia iteriert mit NN Super Sampling Upsampling seit mehreren Jahren. Also kann es gut sein (hoffentlich ist es nicht so - aber das ist eine nicht ganz abwegige Annahme finde ich), dass man mit FSR4 noch hinter DLSS 3.7 ist. Aber ja man kann auch iterieren und irgendwann gibt es abnehmende Grenzerträge wo sich der Vorsprung asymptotisch in Luft auflöst
2.) Es ist nicht unwahrscheinlich, dass FSR4 noch mit CNN arbeitet. Sehr unglücklich, dass genau jetzt Nvidia mit dem Transformer Model anscheinend nochmal einen Sprung macht. Es kann ganz gut sein, dass das den (eingeholt oder verkürzt erhofften) Vorsprung erhalten kann.
Aber ggf. ist der wichtigste Schritt mit entsprechender HW und einem CNN Modell jetzt geschafft so dass man im nächsten dann auch Transformer einführen kann (oder es ggf schon hat).
Das gleiche gilt für MFG. Der schwierigste Schritt ist überhaupt (und sauber) funktionierendes FG mit guter Latenz. Das hat man geschafft mit FSR3.1 FG und AL2 (nur gerade AL2 fehlt viel zu oft in Spielen). Mehr interpolierende Frames einzufügen könnte potentiell einfacher sein. Siehe lossless scaling (und ja da ist die Latenz und die BQ aus der Hölle - aber es hat auch kein Zugang zu Motion Vectors und kein AL2 - aber die Erweiterung von 2 auf 4 frames sollte sich ggf ähnlich gestalten).
Mein Tipp ist: FSR4 wird erstmal ein CNN einführen, erstmal (oder langfristig) nur auf RDNA4 laufen und knapp hinter DLSS3.7 liegen (aber iterativ besser und besser werden). FSR4 FG wird AL2 verpflichtend mitbringen und eine solidere out of the box Erfahrung liefern.
Wenn das gegeben ist, ist das schon mal ein guter Anfang.
Ich drücke jedenfalls die Daumen auf ~4080 Performance bei Raster und und ~4070/ti bei heavy RT. Und: einen besonders attraktiven Preis damit man wieder Marktanteile gewinnen kann und mehr Marktrelevanz bekommt.
dildo4u
2025-01-09, 10:52:21
Ziemlich mäh in Speedway sind aber natürlich Beta Treiber
https://i.ibb.co/hfB5gBt/Screenshot-2025-01-09-105017.png (https://ibb.co/vY35c3K)
how to get a high resolution photo (https://imgbb.com/)
https://videocardz.com/newz/amd-radeon-rx-9070-xt-3dmark-leak-3-0-ghz-330w-tbp-faster-than-rtx-4080-super-in-timespy-and-4070-ti-in-speed-way
Troyan
2025-01-09, 11:00:21
Speed Way ist "best case" für Raytracing. Ist so designt, dass die Rays alle schon vorsortiert sind. Kommt auch vom Geometriegrad nicht mehr an heutige Spiele ran.
Kein Plan, ob das nun gut oder schlecht für AMD ist. Viel interessanter ist jedoch, ob eine "Sortierungfunktion" des Shadings in Hardware besitzen - also wie Intel und nVidia. <=Ampere Stand ist kaum noch konkurrenzfähig.
robbitop
2025-01-09, 11:02:35
Es wurde doch gesagt, dass die verfügbaren Treiber die Performance nicht freigeben von Frank Azor?
Ansonsten ist 7900XTX Performance doch ziemlich gut?
fondness
2025-01-09, 11:02:50
Das klingt ja ein bisschen sehr euphorisch. Naja mal abwarten. Apoleon ist ein Admin und Reviewer bei Chiphell:
https://i.postimg.cc/y6rXFybQ/NAPOLEON-RX9070.png (https://postimg.cc/bdktPk8k)
fondness
2025-01-09, 11:07:01
Sind die FSR4 Vergleiche neu?
https://videocardz.com/newz/amd-showcases-fsr4-on-radeon-rx-9070-series-at-ces-2025-reduced-artifacts-ghosting-and-shimmering
FSR4 wirkt leider geblurrt, ähnlich wie bei NV.
robbitop
2025-01-09, 11:07:08
Das klingt ja ein bisschen sehr euphorisch. Naja mal abwarten. Apoleon ist ein Admin und Reviewer bei Chiphell:
https://i.postimg.cc/y6rXFybQ/NAPOLEON-RX9070.png (https://postimg.cc/bdktPk8k)
Das wäre mega. Vor allem wenn der Preis gut ist ^^
Sind die FSR4 Vergleiche neu?
https://videocardz.com/newz/amd-showcases-fsr4-on-radeon-rx-9070-series-at-ces-2025-reduced-artifacts-ghosting-and-shimmering
Gab schon mehrere Videolinks zu dem HWUB Video im Forum. Ist nicht neu aber defintiv eine gute Nachricht.
Dino-Fossil
2025-01-09, 11:13:14
Der Hype-Train nimmt Fahrt auf! Alle aufsteigen... :D
fondness
2025-01-09, 11:15:04
Der Hype-Train nimmt Fahrt auf! Alle aufsteigen... :D
Ohne Hype-Train gehts anscheinend nicht :D
Aber ja ich bin auch sehr vorsichtig. Das beste was man erwarten kann ist ein halbwegs konkurrenzfähiger Mittelklassechip. Alles andere wird NV nicht zulassen und notfalls die Preise anpassen.
dargo
2025-01-09, 11:15:40
PCIe 5.0 steht auch im neusten Leak (inkl. Leistung): https://videocardz.com/newz/amd-radeon-rx-9070-xt-3dmark-leak-3-0-ghz-330w-tbp-faster-than-rtx-4080-super-in-timespy-and-4070-ti-in-speed-way
Jetzt sagt mir bitte nicht AMD hat in letzter Sekunde die TBP von 26xW auf 330W erhöht. :freak: Also ähnlicher Move wie schon bei N31 Salvage.
dildo4u
2025-01-09, 11:17:55
Speed Way ist "best case" für Raytracing. Ist so designt, dass die Rays alle schon vorsortiert sind. Kommt auch vom Geometriegrad nicht mehr an heutige Spiele ran.
Kein Plan, ob das nun gut oder schlecht für AMD ist. Viel interessanter ist jedoch, ob eine "Sortierungfunktion" des Shadings in Hardware besitzen - also wie Intel und nVidia. <=Ampere Stand ist kaum noch konkurrenzfähig.
Deckt sich mit dem neuen Benchparkour von CB.
https://i.ibb.co/d4sQKqS/Screenshot-2025-01-09-11-15-15-661-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/XxfzJg9)
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-benchmark-test-2025.90695/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
fondness
2025-01-09, 11:18:41
Jetzt sagt mir bitte nicht AMD hat in letzter Sekunde die TBP von 26xW auf 330W erhöht. :freak: Also ähnlicher Move wie schon bei N31 Salvage.
Sieht so aus ja, der Typ hat schon viel geleaket in der Vergangenheit.
https://i.postimg.cc/T2SgyYKB/ZHANG-9070.png (https://postimg.cc/14Gf2ScK)picture upload (https://postimages.org/de/)
dargo
2025-01-09, 11:19:49
Ich kotze gleich. :mad:
Troyan
2025-01-09, 11:21:55
Deckt sich mit dem neuen Benchparkour von CB.
https://i.ibb.co/d4sQKqS/Screenshot-2025-01-09-11-15-15-661-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/XxfzJg9)
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-benchmark-test-2025.90695/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160
Na, der Parcour ist sinnlos. Da sind nur 2024 Spiele mit Raytracing drin und das RTGI von Indiana Jones ist minimal.
Techpowerup hat deren Parcour geupdatet und da sieht es komplett anders aus: https://www.techpowerup.com/review/gpu-test-system-update-for-2025/3.html
Da liegt die 7900XTX auf 4070 Super Niveau.
E39Driver
2025-01-09, 11:22:55
https://videocardz.com/newz/amd-radeon-rx-9070-xt-3dmark-leak-3-0-ghz-330w-tbp-faster-than-rtx-4080-super-in-timespy-and-4070-ti-in-speed-way
Da steht was von 329 Watt Boardpower. Überraschend viel.
Spekulation. Das ding skaliert sehr gut mit Watt. Es gibt 2 Betriebsmodi. Das halbwegs sparsame Referenzmodell mit 2x8 PIN und kleinem 2-Slot Design. Und die dicken 3,5 Slot Customs mit 3x8Pin. Wenn die Leistung stimmt, können die meinetwegen auch 400 Watt ziehen
fondness
2025-01-09, 11:23:43
Ich kotze gleich. :mad:
Abwarten. Das könnte auch wieder so ein bewusster move sein um die Performance der Karte zu verschleiern. Mit den letzten Treiber und BIOS zeigt man dann die wahre Performance.
Es gab wohl schon einen guten Grund warum sich alle sicher waren mit den alten Daten und jetzt auf einmal alle überrascht sind.
robbitop
2025-01-09, 11:28:34
Wenn sie die TDP und v/f curve wieder einstellbar machen ist es egal was das default ist oder?
Aber wie hoch ist die Chance? ^^
The_Invisible
2025-01-09, 11:29:15
Abwarten. Das könnte auch wieder so ein bewusster move sein um die Performance der Karte zu verschleiern. Mit den letzten Treiber und BIOS zeigt man dann die wahre Performance.
Es gab wohl schon einen guten Grund warum sich alle sicher waren mit den alten Daten und jetzt auf einmal alle überrascht sind.
Für was, NV hat die Katze bereits aus dem Sack gelassen in Sachen Preis und Performance, es gibt keinen Grund mehr was zurückzuhalten und in 1-2 Wochen kann man auch nix mehr großartig ändern, die Karten sind ja schon längst in Produktion.
fondness
2025-01-09, 11:31:40
Für was, NV hat die Katze bereits aus dem Sack gelassen in Sachen Preis und Performance, es gibt keinen Grund mehr was zurückzuhalten und in 1-2 Wochen kann man auch nix mehr großartig ändern, die Karten sind ja schon längst in Produktion.
Ja jetzt ist es eh öffentlich. Aber das man vorher nicht mit offenen Karten spielt ist jetzt nicht überraschend.
dildo4u
2025-01-09, 11:32:08
Ich meine der CU Count würde reduziert klar geht man über Takt.
Zwingt einen ja keiner die Karte so zu betreiben.
fondness
2025-01-09, 11:34:20
Es wurde doch gesagt, dass die verfügbaren Treiber die Performance nicht freigeben von Frank Azor?
Ansonsten ist 7900XTX Performance doch ziemlich gut?
Ja, es wird in den Original-Quellen überall auf unvollständige Performance durch den Treiber hingewiesen:
https://x.com/Wukongmyth2460/status/1877266072413323748
https://x.com/0x22h/status/1877265204330819699
Könnte allerdings auch eine Schutzbehauptung sein.
Dino-Fossil
2025-01-09, 11:34:48
Spekulation. Das ding skaliert sehr gut mit Watt.
Spekulation 2: Das Ding liefert mal wieder nicht die angepeilte Performance und/oder man kommt nicht an das gewüschte Gegenstück anderer Anbieter heran. In der Folge prügelt man die Karte in alter AMD-Manier an die Kotzgrenze.
Kriegsgeier
2025-01-09, 11:37:21
Keiner wird gezwungen eine neue AMD Karte zu kaufen: es gibt ja super Alternativen ab Februar ;)
The_Invisible
2025-01-09, 11:38:56
Ja, es wird in den Original-Quellen überall auf unvollständige Performance durch den Treiber hingewiesen:
https://x.com/Wukongmyth2460/status/1877266072413323748
https://x.com/0x22h/status/1877265204330819699
Aber auch hier, in 1-2 Wochen schreibt man nicht einen ganzen Treiber um und warum wird man irgendeinen uralt Treiber für die CES Präsi verwenden. Irgendwas jetzt nach NV Release zu verstecken macht ja gar keinen Sinn mehr. Aber lets see...
fondness
2025-01-09, 11:39:11
Spekulation 2: Das Ding liefert mal wieder nicht die angepeilte Performance und/oder man kommt nicht an das gewüschte Gegenstück anderer Anbieter heran. In der Folge prügelt man die Karte in alter AMD-Manier an die Kotzgrenze.
Ja halte ich auch für wahrscheinlicher. NVs Preise sind ja eher eine Kampfansage.
fondness
2025-01-09, 11:40:56
Aber auch hier, in 1-2 Wochen schreibt man nicht einen ganzen Treiber um und warum wird man irgendeinen uralt Treiber für die CES Präsi verwenden. Irgendwas jetzt nach NV Release zu verstecken macht ja gar keinen Sinn mehr. Aber lets see...
Naja es gab eine offizielle AMD-Aussage dass alle Werte nicht stimmen, da man die volle Performance durch den Treiber noch nicht freigegeben hat. Was auch immer das heißt.
robbitop
2025-01-09, 11:43:35
Ja, es wird in den Original-Quellen überall auf unvollständige Performance durch den Treiber hingewiesen:
https://x.com/Wukongmyth2460/status/1877266072413323748
https://x.com/0x22h/status/1877265204330819699
Könnte allerdings auch eine Schutzbehauptung sein.
Könnte. Aber IIRC wurde die korrekte Performance bei RDNA3 erst in Reviews aufgezeigt und die "leaks" waren all over the place. Und das macht auch Sinn wenn es keine sinnvollen Treiber gibt wie Frank Azor sagt.
Daredevil
2025-01-09, 11:47:02
Naja es gab eine offizielle AMD-Aussage dass alle Werte nicht stimmen, da man die volle Performance durch den Treiber noch nicht freigegeben hat. Was auch immer das heißt.
RDNA4 FineWine dekantiert noch, bevor er ausgeschüttet wird. :D
Wenn AMD wirklich strategisch zurück gehalten hat weil sie nicht von Blackwell überschattet werden wollen, geht mit gezielten Leaks der Hypetrain jetzt wohl hier los. Good Strategy, bad keynote.
gas3t
2025-01-09, 11:48:26
Für was, NV hat die Katze bereits aus dem Sack gelassen in Sachen Preis und Performance, es gibt keinen Grund mehr was zurückzuhalten und in 1-2 Wochen kann man auch nix mehr großartig ändern, die Karten sind ja schon längst in Produktion.
Man muss das im Kontext eines großen Unternehmens sehen. NVIDIA hatte die finalen Preise erst zur CES verkündet. Nichtmal die Boardpartner kannten sie. D.h. hier gibt es eine extrem genaue Beobachtung, was der Mitbewerber macht. NVIDIA lässt den Mitbewerbern null Luft, trotz 90% Marktanteil.
Deswegen war es der einzig richtige Weg für AMD zur CES nichts zu zeigen. Sie brauchen jetzt die zwei Wochen um den Online-Launch gut vorzubereiten. Die Marketingabteilung hat Überstunden zu schieben. Es geht um Wording, Positionierung, Preisgestaltung alles gegenüber dem eigenen Portfolio (das haben sie schon, da alles bekannt) und des Mitbewerbers (höchste Prio). Für sie war es wichtig zu sehen, wo NVIDIA seine Schwerpunkte legt, wie sie es verkünden und bepreisen. Man sieht, das man mit Slides wie 5070 = 4090 super "Bauernfängerei" betreiben kann. Das ist der übliche NVIDIA-Stil. Das erwarte ich nicht von AMD.
AMD muss die richtigen Argumente finden und eine vernünftige Positionierung aufstellen. Jetzt irgendetwas schnell zu veröffentlichen ist kontraproduktiv. Durch die Leaks haben sie sowieso genug Aufmerksamkeit und in zwei Wochen legen sie einen vernünftigen Launch hin. Wenn das klappt, haben wir in der Mittelklasse mal wieder richtigen Wettbewerb und das ist eine sehr gute Nachricht.
Slashman
2025-01-09, 11:54:27
Keiner wird gezwungen eine neue AMD Karte zu kaufen: es gibt ja super Alternativen ab Februar ;)
Manchmal gibt es keine Alternativen. Ich Boycottiere viele Hersteller auf der Welt.
Ich kann kein Nvidia kaufen, sie stehen auf der Boycott Liste und somit kaufe ich entweder AMD oder nichts. Das gleiche gilt auch für Intel. Seit Jahren unterstützen diese beiden Hersteller im Besetzten Land (laut UN) eine illegale Fabrik oder Unterstützung den Genozid von unschuldigen.
Das ist zwar Offtopic, aber bevor ich Gamer bin, da bin ich Mensch. Ich finde es eh extrem was Menschen für eine Grafikkarte zahlen, aber beim spenden für bedürftige zögern. Ja 2000€ RTX 4090 ist ok, 5€ für Palestine Opfer zu viel.
AMD könnte jetzt echten Müll produzieren, aber Nvidia kriegt trotzdem keinen Cent von mir.
dargo
2025-01-09, 11:56:19
Manchmal gibt es keine Alternativen. Ich Boycottiere viele Hersteller auf der Welt.
+1
Wenn mir ein Hersteller nicht passt kaufe ich von dem auch nichts.
mironicus
2025-01-09, 12:03:00
AMD hat es doch leicht, sie können eine 16 GB Karte verkaufen und für den Preis kriegt man bei NVidia nur 8 GB.
Könnte. Aber IIRC wurde die korrekte Performance bei RDNA3 erst in Reviews aufgezeigt und die "leaks" waren all over the place. Und das macht auch Sinn wenn es keine sinnvollen Treiber gibt wie Frank Azor sagt.
Falls das kein falsches Zitat war, sprach Azor auf der CES aber von "Alpha Drivers" - was ziemlicher Mumpitz ist. Eventuell meinte man damit auch eine Beta-Firmware. Das Gerücht hin zu 330 Watt finde ich interessant. Die XT würde davon sicher profitieren und macht damit recht sicher die untermotorisierte RTX 5070 platt, wenngleich die Effizienz darunter leidet.
MfG
Raff
Keiner wird gezwungen eine neue AMD Karte zu kaufen: es gibt ja super Alternativen ab Februar ;)
sicher, aber erinnere dich bitte an deine Spekulationen zu Lunar- und Arrowlake
Keiner wird gezwungen eine neue AMD Karte zu kaufen: es gibt ja super Alternativen ab Februar ;)
Ein Nvidia-Monopol ist keine Alternative zum Nvidia-Monopol.
MfG
Raff
Slashman
2025-01-09, 12:06:10
+1
Wenn mir ein Hersteller nicht passt kaufe ich von dem auch nichts.
In meinem Fall ist es kein Fanboy getue, seit ich weiß was Intel und Nvidia für Blut an den Händen haben ist mir nicht möglich das zu unterstützen.
Nvidia macht gute GPUs, ich hatte oft Nvidia Gaming Laptops der Oberklasse, aber wo ich diese Infos zu Palestine bekam war mir schlecht.
https://www.boycotzionism.com/de
Und jetzt wieder zur Technik.
Bei 390mm² Chipfläche werden es wohl keine 4096 Shader... das wäre viel zu wenig für diese Größe. Ich denke da waren alle Leaks komplett falsch.
Sumpfmolch
2025-01-09, 12:07:44
Falls das kein falsches Zitat war, sprach Azor auf der CES aber von "Alpha Drivers" - was ziemlicher Mumpitz ist. Eventuell meinte man damit auch eine Beta-Firmware. Das Gerücht hin zu 330 Watt finde ich interessant. Die XT würde davon sicher profitieren und macht damit recht sicher die untermotorisierte RTX 5070 platt.
MfG
Raff
Treiber und Bios Schnickschnack mal ignoriert würden die zuletzt gezeigten Benchmarks eine Performance ziemlich genau auf 7900XTX Niveau zeigen (Raster nur 5% drunter).
Damit wäre die 7900XTX wirklich obsolet und ich denke AMD stellt die Produktion dann auch ein.
Ich hoffe nur, dass die 7090XT dann aber preislich deutlich unter den 870€ liegt für die die 7900xtx im Dezember öfter mal zu haben war, schließlich verkauft hier AMD identische Performance bei deutlich reduziertem Speicher.
Dino-Fossil
2025-01-09, 12:15:26
Ja halte ich auch für wahrscheinlicher. NVs Preise sind ja eher eine Kampfansage.
Ich würde es nach-wie-vor eher Stinkefinger nennen :freak:
fondness
2025-01-09, 12:19:38
Jetzt gehts anscheinend schnell.
Samples an die Reviewer sollen gerade verschickt werden. Review-Embargo könnte am 22. Januar fallen, mit einem "Pre-Launch-Ankündigungs-Event" am 15. Januar:
https://videocardz.com/newz/radeon-rx-9070-xt-announcement-expected-on-january-22-review-samples-shipping-already
Nakai
2025-01-09, 12:26:22
Ohje, ohne Hype geht es anscheinend echt nicht...
Falls die 390 mm2 stimmen, wird man eher N31 ersetzen wollen. Aber dann würde ich jegliche Spekulationen auch erstmal anzweifeln.
Kriegsgeier
2025-01-09, 12:27:42
ich tippe auf 499$ für die 9070XT
dargo
2025-01-09, 12:42:57
Das Gerücht hin zu 330 Watt finde ich interessant. Die XT würde davon sicher profitieren und macht damit recht sicher die untermotorisierte RTX 5070 platt, wenngleich die Effizienz darunter leidet.
Was ist denn daran bitte interessant? Dann hätten wir praktisch eine 7900XTX zwei Jahre später mit 16GB und dem gleichen Verbrauch da die 9070 XT laut den Gerüchten angeblich knapp unter der 7900XTX raus kommt. Was hat AMD dann die zwei Jahre gemacht?
dildo4u
2025-01-09, 12:44:21
Kosten reduziert das Ding kostet vermutlich weniger als die Hälfte in der Herstellung.
Altehardware
2025-01-09, 12:45:28
Da wäre ich mir nicht so sicher
meine Ahnung sagt
9070xt 649€ +-36tf akä rx7900xtx 330w 3,3ghz (customn maxed oc)
9070xt mba 609€ +-32tf akä rx7900xt 280w 3,0ghz
9070 569€ +- 26tf akä rx7900gre 220w 2,8ghz
Das bedingt aber das amd die dual issue deutlich verbessert hat das zeigt auch der speedway benchmark Sofern das von spielen auch genutzt werden kann ansonsten reduziert sich das um 14%
Die sku zwischen rtx4070 super und rx7900xt liegen nah beieinander maxed 25%
Und die xtx nur noch 10%
Da kann ein treiberupdate für andere Verhältnisse sorgen das mal das cpu limit aufhebt.
gpu load mal als zaunpfahl
E39Driver
2025-01-09, 12:45:28
Selbe Leistung bei selben Verbrauch bei halbierten Preis ist für 2 Jahre doch ein guter Fortschritt, wenn es so kommt
fizzo
2025-01-09, 12:47:14
Jetzt gehts anscheinend schnell.
Samples an die Reviewer sollen gerade verschickt werden. Review-Embargo könnte am 22. Januar fallen, mit einem "Pre-Launch-Ankündigungs-Event" am 15. Januar:
https://videocardz.com/newz/radeon-rx-9070-xt-announcement-expected-on-january-22-review-samples-shipping-already
Aus dem Link:
Witzig, erst gestern las ich irgendwas von "Es gibt keine MBA-Karte". Ja, nein, vielleicht ... Currywurst?
MfG
Raff
dargo
2025-01-09, 12:51:56
Kosten reduziert das Ding kostet vermutlich weniger als die Hälfte in der Herstellung.
Bei ~390mm² die jetzt voll im teuren Fertigungsprozess laufen? Kommt mir sehr optimistisch vor. Und weniger Vram als vorher verkauft sich auch eher schlecht als gut. Auch wenn ich jetzt 16GB nicht als zu wenig für das Performancetarget dieser SKU sehe.
Dino-Fossil
2025-01-09, 12:52:38
@Raff: Gab's nicht ein offizielles Bild zur CES mit 2 MBA und mehreren AIB Karten?
dildo4u
2025-01-09, 12:54:35
Ich finde 390 nicht Kritisch 4070 hat 300mm und wurde für 500$ verkauft und NV Margen sind extrem hoch.
dargo
2025-01-09, 12:55:00
Aus dem Link:
Ok... bei diesen Preisen kann ich eine ~330W 9070XT wieder verschmerzen wenn die wirklich so kommen. Trotzdem nervig solche Entscheidungen auf den letzten Drücker.
Ich finde 390 nicht Kritisch 4070 hat 300mm und wurde für 500$ verkauft und NV Margen sind extrem hoch.
Wo stehen die Margen pro SKU bei NV? Das sind doch alles nur Mischkalkulationen.
Witzig, erst gestern las ich irgendwas von "Es gibt keine MBA-Karte". Ja, nein, vielleicht ... Currywurst?
Ich frage mich gerade wie kacke die Referenz jetzt mit den 330W abschneidet wenn die vorher da mit 26xW geplant hatten? :freak: Das Ding wird doch wieder nur unnötig laut sein.
@Raff: Gab's nicht ein offizielles Bild zur CES mit 2 MBA und mehreren AIB Karten?
Selbst wenn - man sah in der Vergangenheit bereits Renderings von Karten, die es physisch gar nicht gab (unter anderem RX 6650 XT (https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1394222&page=1&draft=-1&rank=1)).
MfG
Raff
The_Invisible
2025-01-09, 13:00:07
Pcgh hat ja Personal vor Ort, die sollen dort beim AMD stand/testsystem mal vorbeischauen :D
fizzo
2025-01-09, 13:00:55
@Raff: Gab's nicht ein offizielles Bild zur CES mit 2 MBA und mehreren AIB Karten?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13677595&postcount=4155
1+2
Sumpfmolch
2025-01-09, 13:01:18
Bei ~390mm² die jetzt voll im teuren Fertigungsprozess laufen? Kommt mir sehr optimistisch vor. Und weniger Vram als vorher verkauft sich auch eher schlecht als gut. Auch wenn ich jetzt 16GB nicht als zu wenig für das Performancetarget dieser SKU sehe.
Alle mit 20GB oder 24GB Grafikkarten werden ja hoffentlich weder zu einer 7090 noch zur RTX5000er Serie sidegrading betreiben.
Bleiben als Zielgruppe alle, die RX6000 und RTX3000 oder älter im Rechner haben.
Und nachdem NVIDIA 12GB bis 16GB für die nächsten 2-3 Jahre gerade als Referenz für die Spieleentwicklung vorgegeben hat, braucht man sich bei 16Gb überhaupt keine Gedanken machen.
Sollten die ~579€ für ca. 7900XTX Performance stimmen, dann wäre das schon ein ordentlicher Tritt gegen die RTX5070, die weder die Performance noch den RAM liefern kann.
Eventuell auch gleich noch gegen die RTX5070TI, die eigentlich die RTX5070 hätte sein müssen und erst Recht gegenüber der RTX5080, die im ganzen Lineup die mit Abstand unattraktivste Karte ist. Zu langsam, wenn man zur 5090 schaut und überteuert, wenn man zur 5070TI schaut.
dargo
2025-01-09, 13:02:40
Selbe Leistung bei selben Verbrauch bei halbierten Preis ist für 2 Jahre doch ein guter Fortschritt, wenn es so kommt
Halbierter Preis würde 450€ Straßenpreis bedeuten (7900XTX gabs öfter für 900€ und knapp drunter) und das wird sicherlich nicht kommen. Sofern die 479$ @Referenz stimmen sind das hier am Releasetag bestimmt 550-600€.
Sollten die ~579€ für ca. 7900XTX Performance stimmen, dann wäre das schon ein ordentlicher Tritt gegen die RTX5070, die weder die Performance noch den RAM liefern kann.
Das schon... allerdings wird die 5700 weit unter 330W rauskommen wenn schon die 5070TI mit 320W angekündigt ist. Naja... mal weitere Leaks abwarten.
TBP von 250 Watt ist für die RTX 5070 bereits bestätigt:
uk2hy1hfuQQ
Ich indexe nachher die RX 6800 XT für dich! Bin gespannt, wie stark sich die 9070 XT dann absetzen wird. =)
MfG
Raff
fizzo
2025-01-09, 13:13:56
Das schon... allerdings wird die 5700 weit unter 330W rauskommen wenn schon die 5070TI mit 320W angekündigt ist. Naja... mal weitere Leaks abwarten.
Mittlerweile halte ich es gar nicht mehr für unrealistisch, dass eine 9070 auf Augenhöhe einer 5700 spielt. Diese wird sicher keine 300W verbrauchen und hat 16GB als Sahnehäubchen oben drauf. Jetzt macht NV Bepreisung langsam Sinn....
dargo
2025-01-09, 13:14:43
Ich indexe nachher die RX 6800 XT für dich! Bin gespannt, wie stark sich die 9070 XT dann absetzen wird. =)
Naja... ich schätze grob +60% mit einzelnen Ausreißern eventuell. Sofern die +5% für die 7900XTX tatsächlich stimmen. Momentan ist bissel Chaos.
robbitop
2025-01-09, 13:16:26
Also die 3DMark screenshots erscheinen mir konkludent. Die Taktfrequenz passt zum Erwarteten. 3,060 GHz. Die Performance im Rasterteil sieht so gut aus, dass ich nicht glaube, dass diese durch den Treiber zurückgehalten wird. Rasterleistung von 7900XTX/4080 ist anhand der Gerüchte der letzten Monate sehr gut. Jetzt wird interessant, wie gut die RT Leistung sein wird - das wird man dann erst bei RT Heavy Titeln sehen. Der 3DMark Test scheint da nicht besonders heavy zu sein.
Nakai
2025-01-09, 13:18:27
Lol, bei 390mm2 bei 4nm sollte man das auch erwarten dürfen.
Sumpfmolch
2025-01-09, 13:21:35
Lol, bei 390mm2 bei 4nm sollte man das auch erwarten dürfen.
Schön, dass der Launch von AMD Produktion immer Gelegenheit gibt zum Popcorn zu greifen. Bis gestern hatte man ja noch nicht mal gewusst, dass der Chip so groß sein wird, sondern weit darunter erwartet. :popcorn:
robbitop
2025-01-09, 13:31:10
Lol, bei 390mm2 bei 4nm sollte man das auch erwarten dürfen.
Ja das sehe ich auch so. Wichtiger ist aber der Preis. Wenn die ~500 USD stimmen sollten, wäre das ein ordentliche Sprung in P/L insbesondere wenn RT Leistung ordentlich steigt.
robbitop
2025-01-09, 13:40:53
Ich habe mir mal die chipsandcheese Ergebnisse der Frametime für RT von CP77 PT genommen und die mit dem FP32 Throughput der jeweiligen GPUs normiert.
https://chipsandcheese.com/p/cyberpunk-2077s-path-tracing-update
RT Frametime:
6900XT: 162 ms
7900XTX: 34 ms
4070: 26 ms
alle RT Frametime Ergebnisse so skaliert, dass es FP32 Throughput normiert ist (ja das ist ziemlich janky - könnte aber einen ersten Ausblick geben):
6900XT ist ~4,8x langsamer FP32 throughputnormiert als 4070
7900XTX ist ~2,7x langsamer FP32 throughputnormiert als 4070
Wenn verschiedene Quellen bei der next RDNA RT Pipeline (z.B Mark Cerny) von Faktor 2-3 sprechen, dann ordnet sich das ganz ganz grob bei Ada ein.
Viele wenns und abers - aber ich dachte das wäre interessant für die Diskussion. :)
edit: hab einen Screenshot aus der Tabellenkalkulation angehängt
KodeX
2025-01-09, 13:41:24
Hieß es nicht schon in früheren Gerüchten, dass die AMD-Referenzkarte bei 26x Watt, die Partnerkarten aber bei teilweise deutlich über 300 Watt lägen? Das würde ja nach wie vor gut passen...
fizzo
2025-01-09, 13:41:29
Spekulation 2: Das Ding liefert mal wieder nicht die angepeilte Performance und/oder man kommt nicht an das gewüschte Gegenstück anderer Anbieter heran. In der Folge prügelt man die Karte in alter AMD-Manier an die Kotzgrenze.
Dazu gerade gelesen:
, dass die TBP auf den letzten Drücker von 265W auf 330W angehoben wurde, halte ich für ein Gerücht. Das würde ja von den Partnern andere Kühler und evtl auch andere Platinen voraussetzen. Und da alle Partner offensichtlich ihre Grafikkarten parat haben, war 265W einfach ein falsches Gerücht. Oder es ist einfach die TBP der 9070.
Klingt für mich plausibel.
fondness
2025-01-09, 13:48:56
Lol, bei 390mm2 bei 4nm sollte man das auch erwarten dürfen.
Naja, das wären noch immer deutlich weniger als N31. Die Screenshots bestätigen außerdem auch 256-bit SI mit 20Gbps GDDR6. Da braucht es IMO auch 128MB Infinity-Cache, was die Die-Size weiter relativiert. Auch sind die 64CUs laut Screens wohl ebenfalls bestätigt, selbst bei 3Ghz kommt man da nicht an die Rohleistung von N31 oder AD103 ran.
Ergo wäre N31 oder AD103-Leistung rein von den Specs allemal eine Überraschung.
Der_Korken
2025-01-09, 13:54:43
Oh je, wenn ich schon 330W Boardpower lese und in GPU-Z zeitgleich angeblich nur 0,765V anlagen, schwant mir schon wieder böses beim Verbrauch. Wenn das kein Auslesefehler ist, klingt das nach dem gleichen Powervirus wie RDNA3. So als ob das eigentlich eine 500W-Karte sein soll, wenn man die angedachten Taktraten fahren würde. 3060Mhz ist auch erstmal etwas weniger als wir uns erhofft hatten. Die Kirsche auf der Torte wäre dann natürlich, wenn AMD wieder nur maximal -6% beim PT zulässt, sodass man gezwungen ist, den Backofen glühen zu lassen.
Der best case wäre eigentlich, dass AMD die TBP erhöht hat, um die letzten 5% Performance rauszukratzen z.B. um die 5070Ti einzuholen. Dann könnte man - vorausgesetzt AMD gibt es frei :rolleyes: - die 5% einfach wieder wegwerfen und sich über sparsame 260W freuen, abzüglich weiteres UV.
Was ich mich aber frage:
1. Wie sollen die bereits fertigen Customs jetzt 65W mehr kühlen, z.B. die Dualslot Hellhound? Wenn AMD das ernsthaft so kurzfristig entschieden hat, kotzen die doch gerade alle ab. Was sie ohnehin sicher schon tun, weil die alle ihre Karten auf die CES mitgebracht haben und jetzt gar nicht richtig zeigen dürfen.
2. Wo kommt die Performance bei 64 CUs und 3Ghz her? Da muss die IPC aber schon ordentlich gestiegen sein.
fondness
2025-01-09, 13:56:05
Was ich mich aber frage:
1. Wie sollen die bereits fertigen Customs jetzt 65W mehr kühlen, z.B. die Dualslot Hellhound? Wenn AMD das ernsthaft so kurzfristig entschieden hat, kotzen die doch gerade alle ab. Was sie ohnehin sicher schon tun, weil die alle ihre Karten auf die CES mitgebracht haben und jetzt gar nicht richtig zeigen dürfen.
2. Wo kommt die Performance bei 64 CUs und 3Ghz her? Da muss die IPC aber schon ordentlich gestiegen sein.
Man sollte nicht jedes Gerücht für voll nehmen. Wie du schon sagst kann man das so kurzfristig gar nicht mehr ändern. Da gehts ja auch um die Stromversorgung auf der Karte, nicht nur um den Kühler.
Am wahrscheinlichsten ist wohl Ref-Karte 265W, Customs bis zu 330W.
DrFreaK666
2025-01-09, 13:57:37
... Was hat AMD dann die zwei Jahre gemacht?
AI.AI.AI
robbitop
2025-01-09, 13:57:45
Naja, das wären noch immer deutlich weniger als N31. Die Screenshots bestätigen außerdem auch 256-bit SI mit 20Gbps GDDR6. Da braucht es IMO auch 128MB Infinity-Cache, was die Die-Size weiter relativiert. Auch sind die 64CUs laut Screens wohl ebenfalls bestätigt, selbst bei 3Ghz kommt man da nicht an die Rohleistung von N31 oder AD103 ran.
Ergo wäre N31 oder AD103-Leistung rein von den Specs allemal eine Überraschung.
Es soll ja laut Frank Azor auch taktnormierte Steigerungen im CU gegeben haben. Aber ich denke auch, dass der LLC größer ist als 64 MiB. Erste Gerüchte hatten ja 96 MiB. Aber das wäre ohne Bandbreiteneffizienzsteigerungen ggf eng. Jedoch kann es diese gegeben haben oder aber der L2 Cache wurde auch größer.
Palpatin
2025-01-09, 14:01:43
Ja das sehe ich auch so. Wichtiger ist aber der Preis. Wenn die ~500 USD stimmen sollten, wäre das ein ordentliche Sprung in P/L insbesondere wenn RT Leistung ordentlich steigt.
Kann man kaum glauben. Die Karte sehe ich anhand der aktuellen leaks deutlich näher an der 5070ti als an der 5070. Da wären 500 USD ein absoluter Hammer. Auch 599$ wäre ein sehr guter Preis.
fizzo
2025-01-09, 14:02:31
Was ich mich aber frage:
1. Wie sollen die bereits fertigen Customs jetzt 65W mehr kühlen, z.B. die Dualslot Hellhound? Wenn AMD das ernsthaft so kurzfristig entschieden hat, kotzen die doch gerade alle ab. Was sie ohnehin sicher schon tun, weil die alle ihre Karten auf die CES mitgebracht haben und jetzt gar nicht richtig zeigen dürfen.
Die gezeigte Hellound war/ist eine 9070. Die gezeigten XT Customs sind IMHO schon für 330W+ ausgelegt.
robbitop
2025-01-09, 14:04:12
Kann man kaum glauben. Die Karte sehe ich anhand der aktuellen leaks deutlich näher an der 5070ti als an der 5070. Da wären 500 USD ein absoluter Hammer. Auch 599$ wäre ein sehr guter Preis.
Aber immer daran denken das sind Preise ohne VAT. 500 USD wären dann real bei uns 600 EUR. Aber ja das ist immer noch sehr gut.
Wobei man konstatieren muss, dass es die 7900XT schon lange öfters mal für 650 EUR brutto gegeben hat. Das sind allerdings dann Aktions/Dealpreise.
dargo
2025-01-09, 14:10:01
Hieß es nicht schon in früheren Gerüchten, dass die AMD-Referenzkarte bei 26x Watt, die Partnerkarten aber bei teilweise deutlich über 300 Watt lägen? Das würde ja nach wie vor gut passen...
Ja, aber angeblich hat AMD auf den letzten Drücker die Referenz auf die hohen 330W jetzt angehoben um die letzten 3-5% rauszuholen. :freak:
Palpatin
2025-01-09, 14:13:15
Aber immer daran denken das sind Preise ohne VAT. 500 USD wären dann real bei uns 600 EUR. Aber ja das ist immer noch sehr gut.
Wobei man konstatieren muss, dass es die 7900XT schon lange öfters mal für 650 EUR brutto gegeben hat. Das sind allerdings dann Aktions/Dealpreise.
Klar ich habe es ja mit den Dollar Preisen die Lederjacke verkündet hat verglichen. 5070 = 549$ und 5070TI = 749$. Kann mir daher 499$ nicht vorstellen wenn man näher an der 5070ti als an der 5070 ist. Selbst 599$ wären dann top.
GerryB
2025-01-09, 14:14:48
Aber immer daran denken das sind Preise ohne VAT. 500 USD wären dann real bei uns 600 EUR.
569€ je nach Wechselkurs, ... klingt sympathischer als 649€ für ne 5070
(hat CB da schon feste NV-Preise für Dtl.?)
dargo
2025-01-09, 14:15:51
Oh je, wenn ich schon 330W Boardpower lese und in GPU-Z zeitgleich angeblich nur 0,765V anlagen, schwant mir schon wieder böses beim Verbrauch.
Ach du scheiße... ist mir noch gar nicht aufgefallen. Ich will echt hoffen, dass das ein Auslesefehler ist da die Karte auch als 7800XT in GPU-Z erkannt wird. Ansonsten ist das genauso ein Unfall wie RDNA3, operiert sehr tief in der V/F Kurve. :eek: Leichte Hoffnung habe ich aber tatsächlich noch, dass das ein extremer Powervirus ist und somit der Takt auch tief anliegt. Leider sieht man diesen nicht.
AI.AI.AI
Danke, habs vergessen.
raffa
2025-01-09, 14:17:08
Die gezeigte Hellound war/ist eine 9070. Die gezeigten XT Customs sind IMHO schon für 330W+ ausgelegt.
Die Reaper war/ist aber eine XT, und mit dem Design kannste 330W niemals vernünftig kühlen.
G3cko
2025-01-09, 14:22:02
Ich denke AMD hat ein gigantisches Problem. Nvidia drückt dank ihrer Marktposition überall DLS in die Entwicklerstudios wie damals PhysX und AMD fehlen zunehmend die Marktanteile.
KI Beschleunigung wird ein immer wichtigerer Faktor und wird klassische Rendering ersetzen/ergänzen.
Bietet die PS5 bereits KI Einheiten? Ansonsten Frage ich mich wie AMD hier den Anschluss mit FSR4 halten will, wenn es keinen/kaum support gibt.
Troyan
2025-01-09, 14:24:41
AMDs Problem ist, dass die jahrelang rückständiges Zeug verkauft haben und jetzt massiv in die Die-Größe investieren müssen, ohne einen relevanten kurzfristigen Effekt zu haben.
Wer eine 5070 kauft, hat Zugriff zu hunderten Spielen mit DLSS und kann einfach das Model austauschen. Schaltet per Treiber Multiframe-Generation an und bekommt mit Reflex die geringste Latenz.
Rasterleistung ist vollkommen irrelevant, wenn die 15% besser ist, aber der Rest nicht hinterherkommt. Das wird in ein paar Jahren anders aussehen, aber bis dahin muss man eben versuchen für wenig Geld seine Karten an die Kunden zu bringen.
madzapp
2025-01-09, 14:26:06
Ich denke AMD hat ein gigantisches Problem. Nvidia drückt dank ihrer Marktposition überall DLS in die Entwicklerstudios wie damals PhysX und AMD fehlen zunehmend die Marktanteile.
KI Beschleunigung wird ein immer wichtigerer Faktor und wird klassische Rendering ersetzen/ergänzen.
Bietet die PS5 bereits KI Einheiten? Ansonsten Frage ich mich wie AMD hier den Anschluss mit FSR4 halten will, wenn es keinen/kaum support gibt.
Evtl. gibt es FSR4 auch auf der PS5 pro.
dildo4u
2025-01-09, 14:26:22
PS5 Pro hat KI Sony und AMD arbeiten zusammen damit man bei der PS6 nicht zu weit hinterhingt.
https://www.ampereanalysis.com/insight/sony-deepens-amd-partnership-and-lays-out-roadmap-for-ai-enhanced-rendering-on-future-play#:~:text=Sony%20has%20also%20confirmed%20a,relationship%20and%20its%20subjec t%20matter.
dargo
2025-01-09, 14:27:34
Die gezeigte Hellound war/ist eine 9070. Die gezeigten XT Customs sind IMHO schon für 330W+ ausgelegt.
Wie schon gesagt... am Kühler der Hellhound XT wird sich nichts ändern. Und die gezeigte Reaper (Einsteigsmodell bei Powercolor) war eine 9070XT.
Edit:
Mist... raffa war schneller.
Wer eine 5070 kauft...
Darf bald wieder aufrüsten.
fondness
2025-01-09, 14:40:36
AMDs Problem ist, dass die jahrelang rückständiges Zeug verkauft haben und jetzt massiv in die Die-Größe investieren müssen, ohne einen relevanten kurzfristigen Effekt zu haben.
Wer eine 5070 kauft, hat Zugriff zu hunderten Spielen mit DLSS und kann einfach das Model austauschen. Schaltet per Treiber Multiframe-Generation an und bekommt mit Reflex die geringste Latenz.
Rasterleistung ist vollkommen irrelevant, wenn die 15% besser ist, aber der Rest nicht hinterherkommt. Das wird in ein paar Jahren anders aussehen, aber bis dahin muss man eben versuchen für wenig Geld seine Karten an die Kunden zu bringen.
Das stimmt natürlich. Ein 240mm² Chip als Topmodell - wie lange spekuliert - wäre allerdings einer Selbstaufgabe gleichgekommen. Mit einem 390mm² Chip kann AMD zumindest im für die meisten Spieler wichtigen Preissegment mitspielen. Langfristig braucht es ohnehin wieder einen Angriff weiter oben, aber diesmal war durch die Packaging-Knappheit und dem canceln von N41/42/43 wohl nicht mehr möglich.
robbitop
2025-01-09, 14:42:22
Und immerhin ist FSR seit 3.1 auch upgradebar. Und wer Omniscaler / Optiscaler mods nutzt, der kann neuste FSR Versionen in jedes Spiel einbauen was DLSS, FSR oder XeSS nutzt. Und Reflex kann in Antilag 2 umgeleitet werden.
Sehr schade, dass AMD nicht seit Anfang an von FSR 2 es so gebaut hat, dass man DLLs aufrüsten kann und FSR3 FG nicht von Anfang an mit Anti Lag 2 per default gebündelt hat. Dann wäre auch ohne mods mehr möglich.
...Schaltet per Treiber Multiframe-Generation an und bekommt mit Reflex die geringste Latenz.
Rasterleistung ist vollkommen irrelevant...
Das stimmt natürlich...
Naja, da kann/muß man doch anderer Meinung sein - und rückständig sind die AMD-Karten sicher nicht, sie haben nur den Schwenk zu RT nicht mitgemacht, den nV selbst jetzt wieder unterminiert.
Hakim
2025-01-09, 14:47:23
Hört sich immer besser an und 15.Januar würde passen, bin gespannt. Das wird bei mir zwischen 9070/9070XT und 5070/5070Ti sein. Eine 5070 super mit 18GB die sicherlich kommen wird, würde ich gerne in die Liste aufnehmen, weiß aber nicht ob ich so lange warten kann. Ich hoffe AMD hat auch etwas für die B Note getan. So Sachen wie Dual Monitor Betrieb bei unterschiedlichen Hz und YouTube schauen etc. Wie schaut es eigentlich mit dem AVI bei Discord Stream aus? OBS unterstützt es immer noch nicht wenn ich es hier richtig gelesen habe.
KodeX
2025-01-09, 14:51:49
Ja, aber angeblich hat AMD auf den letzten Drücker die Referenz auf die hohen 330W jetzt angehoben um die letzten 3-5% rauszuholen. :freak:
Wer sagt das denn? Sind das nicht nur Mutmaßungen?
robbitop
2025-01-09, 14:58:58
Bisher ist alles auf Gerüchten gebaut. Aber logischerweise sind es aktuell mehr, weil viele Leute auf der CES und da wird es auch immer mal auskunftsfreudige Plappermäuler von den OEMs und IHVs geben. Gerade die Hersteller der Karten stellen den Kram aus und führt dazu dass mehr Leute informiert sind als noch vor ein paar Wochen. Potenziell mehr Informationen - aber potenziell auch mehr Falschinformationen. Ist ein Speku Forum also muss man mit dem arbeiten, was da durch den Ether fliegt. ^^
Ravenhearth
2025-01-09, 15:19:16
Naja, das wären noch immer deutlich weniger als N31. Die Screenshots bestätigen außerdem auch 256-bit SI mit 20Gbps GDDR6. Da braucht es IMO auch 128MB Infinity-Cache, was die Die-Size weiter relativiert. Auch sind die 64CUs laut Screens wohl ebenfalls bestätigt, selbst bei 3Ghz kommt man da nicht an die Rohleistung von N31 oder AD103 ran.
Ergo wäre N31 oder AD103-Leistung rein von den Specs allemal eine Überraschung.
N31 hatte allerdings nur 300mm² in 5nm, der Rest war 6nm. Monolithisch in 4nm (was auch nochmal ein bisschen bringt) wäre der nicht mehr so viel größer als N48. Da sollte N48 schon eine ähnliche Performance abliefern.
Irgendwie muss sich die Die Size schließlich erklären lassen. Ein monolithischer N32 in 4nm wäre locker unter 300mm² groß und hat auch nur 4 CUs weniger. Wo kommen die 100mm² extra her? Das kann nicht nur an mehr Cache und bisschen RT und KI liegen, falls AMD keinen Mist gebaut hat. Die CUs selber sind wahrscheinlich auch gewachsen, für mehr IPC. Damit und durch den höheren Takt sind N31/AD103 in Reichweite.
Exxtreme
2025-01-09, 15:19:49
"Auf den letzten Drücker" erhöht man nicht einfach von 260 W auf 330 W. Sowas macht man eher 1 Jahr vorher.
"Auf den letzten Drücker" erhöht man nicht einfach von 260 W auf 330 W. Sowas macht man eher 1 Jahr vorher.
Eventuell war das auch genau so vorab kommuniziert, quasi als "Ass im Ärmel". Man wartete auf Nvidia und adjustiert dann die finale Spezifikation. Das Finalisieren der Firmwares kurz vor dem Start ist üblich, wengleich nicht in diesem Maße. Wenn die Partner direkt angehalten wurden, mit 330+ Watt zu planen, ist das ja keine Überraschung für sie. Oder es wird ein Stunt à la RX 5600 XT ... (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Specials/BIOS-Updates-Uebersicht-1341580/) hoffentlich nicht.
MfG
Raff
Daredevil
2025-01-09, 15:28:12
Und nur weil eine Karte 250w ziehen würde, heißt das ja nicht das Asus trotzdem 3Slot 400w Kühler mit RGB draufmacht mit völlig überdimensionierter Kühlung. :D
The bigger the better, egal was unten drunter ist.
Wenn sich aber die Werte bewahrheiten sollten find eich es sehr schade, das AMD tatsächlich nicht noch was dickeres gebaut hat, die Lücke zwischen 5080/5090 hätte man fürstlich füllen können.
Troyan
2025-01-09, 15:28:46
Äh, wenn man jetzt erst ein finales Bios herausgibt, wie sollen die Karte in drei Wochen im Handel sein?
Voodoo6000
2025-01-09, 15:29:41
N31 hatte allerdings nur 300mm² in 5nm, der Rest war 6nm. Monolithisch in 4nm (was auch nochmal ein bisschen bringt) wäre der nicht mehr so viel größer als N48. Da sollte N48 schon eine ähnliche Performance abliefern.
Irgendwie muss sich die Die Size schließlich erklären lassen. Ein monolithischer N32 in 4nm wäre locker unter 300mm² groß und hat auch nur 4 CUs weniger. Wo kommen die 100mm² extra her? Das kann nicht nur an mehr Cache und bisschen RT und KI liegen.
Cache skaliert doch schlecht mit modernen Fertigungsprozessen und 4nm ist nur etwas besser als 5nm. Zur Erinnerung N31+Cache sind 529 mm² groß.
Daredevil
2025-01-09, 15:29:52
Äh, wenn man jetzt erst ein finales Bios herausgibt, wie sollen die Karte in drei Wochen im Handel sein?
Genau so gut wie der 9800X3D im Handel ist.
Äh, wenn man jetzt erst ein finales Bios herausgibt, wie sollen die Karte in drei Wochen im Handel sein?
Wenn es läuft wie üblich, haben die Nvidia-AIBs derzeit auch keine finalen Firmwares. Das genaue Prozedere kenne ich auch nicht, aber ohne Freigabe läuft da nix.
MfG
Raff
Exxtreme
2025-01-09, 15:33:16
Eventuell war das auch genau so vorab kommuniziert, quasi als "Ass im Ärmel". Man wartete auf Nvidia und adjustiert dann die finale Spezifikation. Das Finalisieren der Firmwares kurz vor dem Start ist üblich, wengleich nicht in diesem Maße. Wenn die Partner direkt angehalten wurden, mit 330+ Watt zu planen, ist das ja keine Überraschung für sie.
MfG
Raff
Halte ich für unwahrscheinlich. Denn hätte man das Ass nicht gezogen (diese Gefahr bestand ja latent da) dann wären 330 W-Karten @ 260 W eher zu teuer in der Herstellung. Und da würden die IHVs eher Sturm laufen dagegen. Ich halte es für wahrscheinlicher, dass die 330 W schon lange vorher feststanden.
Troyan
2025-01-09, 15:35:34
Wenn es läuft wie üblich, haben die Nvidia-AIBs derzeit auch keine finalen Firmwares. Das genaue Prozedere kenne ich auch nicht, aber ohne Freigabe läuft da nix.
MfG
Raff
Die Karten sollen am 30.01. im Handel sein. Also wenn die kein Bios haben, dann kommt da nichts an... Vielleicht haben die keinen Treiber bis vor ein paar Tagen. Aber die Karten selbst sollten längst in irgendwelchen Containern stecken.
robbitop
2025-01-09, 15:39:00
N31 hatte allerdings nur 300mm² in 5nm, der Rest war 6nm. Monolithisch in 4nm (was auch nochmal ein bisschen bringt) wäre der nicht mehr so viel größer als N48. Da sollte N48 schon eine ähnliche Performance abliefern.
Dazu kommt noch zusätzliche Transistoren damit Chiplets kommunizieren können. Wie groß ein monolitischer 5 nm N31 geworden wäre, wissen wir nicht.
fondness
2025-01-09, 15:42:10
N31 hatte allerdings nur 300mm² in 5nm, der Rest war 6nm. Monolithisch in 4nm (was auch nochmal ein bisschen bringt) wäre der nicht mehr so viel größer als N48. Da sollte N48 schon eine ähnliche Performance abliefern.
Irgendwie muss sich die Die Size schließlich erklären lassen. Ein monolithischer N32 in 4nm wäre locker unter 300mm² groß und hat auch nur 4 CUs weniger. Wo kommen die 100mm² extra her? Das kann nicht nur an mehr Cache und bisschen RT und KI liegen, falls AMD keinen Mist gebaut hat. Die CUs selber sind wahrscheinlich auch gewachsen, für mehr IPC. Damit und durch den höheren Takt sind N31/AD103 in Reichweite.
Naja, das Zeug das nicht in 5nm war skaliert kaum mit dem Prozess, deshalb wurde es ja ausgelagert. Es fehlen jedenfalls massiv Einheiten und SI-Bandbreite vs. N31. Eine Tür muss man allerdings noch offen lassen, da die Karten als 7800XT erkannt wurde, kann also sein, dass deshalb auch andere Werte falsch ausgelesen wurden.
Wohin die zusätzlichen Transistoren gehen? AI-Zeug, mehr Raytracing-Leistung und wenn die Specs so stimmen dann muss auch die IPC deutlich gestiegen sein und die Bandbreiteneffizienz. Wenn die Specs nicht stimmen dann tippe ich eher auf mehr Einheiten und Bandbreitesteigernde Maßnahmen.
Der_Korken
2025-01-09, 15:44:57
Ja, aber angeblich hat AMD auf den letzten Drücker die Referenz auf die hohen 330W jetzt angehoben um die letzten 3-5% rauszuholen. :freak:
Ich hoffe, dass es so ist und nicht dass das Teil mit 265W so ein Powerkrüppel wie die 7900GRE ist. Mehr als 250W Abwärme will ich nicht umwälzen im Gehäuse, egal wie toll die GPU mit offenem Powerlimit performed.
Ach du scheiße... ist mir noch gar nicht aufgefallen. Ich will echt hoffen, dass das ein Auslesefehler ist da die Karte auch als 7800XT in GPU-Z erkannt wird. Ansonsten ist das genauso ein Unfall wie RDNA3, operiert sehr tief in der V/F Kurve. :eek: Leichte Hoffnung habe ich aber tatsächlich noch, dass das ein extremer Powervirus ist und somit der Takt auch tief anliegt. Leider sieht man diesen nicht.
Doch, mir ist aufgefallen, dass unter dem Screenshot von Furmark die Rede ist. In den anderen Screenshots kann man zwar leider die Zahlen nicht erkennen, aber die rote Kurve im VCore-Diagramm geht dort mit Last deutlich sichtbar nach oben. Leider stehen beim Furmark keine Taktraten, um die 0,765V einordnen zu können.
Ich hoffe AMD hat auch etwas für die B Note getan. So Sachen wie Dual Monitor Betrieb bei unterschiedlichen Hz und YouTube schauen etc.
Ich auch. RDNA3 war hier ein Graus.
robbitop
2025-01-09, 15:47:42
Ggf ist die niedrige Voltage in der Powercurve bzw dass man wie RDNA3 da nach unten hin limitiert ist ein Kompromiss der mit hohen Taktraten bei GPUs (nach heutigem Stand der Technik) einhergeht?
fondness
2025-01-09, 15:48:40
Das kann auch eine idle-Spannung sein. Man weiß nicht wann der Screen genau gemacht wurde. Zumal man eh nicht weiß ob es richtig ausgelesen wird.
robbitop
2025-01-09, 16:02:04
Im Speedway Score screenshot kann man grob erahnen, dass es bei 640 mV GPU Voltage steht. Ist allerdings nach dem Bench. Die roten Graphen zeigen, dass deutlich mehr Voltage im Benchmark anlag - aber die Skalierung ist unklar - insofern sagt uns das auch nicht viel. Mal schauen ^^
Der_Korken
2025-01-09, 16:04:44
Ggf ist die niedrige Voltage in der Powercurve bzw dass man wie RDNA3 da nach unten hin limitiert ist ein Kompromiss der mit hohen Taktraten bei GPUs (nach heutigem Stand der Technik) einhergeht?
Es geht nicht um die niedrige Voltage an sich, sondern dass die Architektur so unglaublich viel Strom säuft, dass sie im absoluten Sweetspot laufen muss, um konkurrenzfähig zu sein. Für alle, die ihre Karte UVen und im Powerlimit einschränken wollen, ist das relevant, weil dann so gut wie keine Effizienz mehr rauszuholen ist. Siehe RDNA3. Sämtliche Karten laufen unter Last mit 900mV, während RDNA1+2 auf über 1100mV getreten wurden, um Performance rauszukratzen (mit Ausnahme vielleicht die 6900XT).
Die 4080 z.B. hat unter Last oft nichtmal ihr Powertarget erreicht, weil sie schon mit maximalem Takt (und Spannung) lief und trotzdem nichts verbraucht hat. Da hat man massiv Einsparpotenzial.
Das kann auch eine idle-Spannung sein. Man weiß nicht wann der Screen genau gemacht wurde. Zumal man eh nicht weiß ob es richtig ausgelesen wird.
Im gleichen Screenshot liegen 329W Board Power an. Der Wert wurde also definitiv unter Last gemessen. Ein Dummy-Wert ist es auch nicht, da er in den 3DMark-Screenshots auch höher steigt. Falsch kann es natürlich trotzdem sein, aber so optimistisch bin ich nicht.
dargo
2025-01-09, 16:05:50
"Auf den letzten Drücker" erhöht man nicht einfach von 260 W auf 330 W. Sowas macht man eher 1 Jahr vorher.
Ja... das ist was mich so stutzig macht.
Ich habe versucht mir das so zu erklären, dass die Leaks @26xW einfach falsch waren und dies für die non XT von Anfang an gelten sollte. Aber auch das ergibt für mich keinen wirklichen Sinn. 8 CUs weniger machen nicht gleich 60-70W weniger. Da müsstest du zusätzlich deutlich den Boost senken. Nur wird das auch niemand machen weil es keinen Sinn macht. Der User stellt sich den stark gesenkten Takt wieder selbst hoch. Da müsste AMD beim Salvage den Takt schon per Hardware stark limitieren, so dass über Software kaum noch was geht. Oder das Powerlimit sperren.
Mehr als 250W Abwärme will ich nicht umwälzen im Gehäuse, egal wie toll die GPU mit offenem Powerlimit performed.
Dann sind wir schon zwei. :)
Doch, mir ist aufgefallen, dass unter dem Screenshot von Furmark die Rede ist. In den anderen Screenshots kann man zwar leider die Zahlen nicht erkennen, aber die rote Kurve im VCore-Diagramm geht dort mit Last deutlich sichtbar nach oben. Leider stehen beim Furmark keine Taktraten, um die 0,765V einordnen zu können.
Ja eben... wenn der Takt dort bei sagen wir mal 2-2,2Ghz lag ist alles wieder im grünen Bereich mit den 765mV. Furmark hat nichts mit typischen Gaminglasten zu tun.
fondness
2025-01-09, 16:11:23
Im gleichen Screenshot liegen 329W Board Power an. Der Wert wurde also definitiv unter Last gemessen. Ein Dummy-Wert ist es auch nicht, da er in den 3DMark-Screenshots auch höher steigt. Falsch kann es natürlich trotzdem sein, aber so optimistisch bin ich nicht.
Das Ding soll mit 0,765V bei 3Ghz laufen? Halte ich für unrealistisch. RDNA3 lief mit 0,9V aber dann auch mit verhältnismäßig sehr wenig Takt.
Das kann höchstens irgendein "Power-Virus" sein, wo dann der Takt massiv runter geht. Dann passen auch 0,765V wieder wenn man da vielleicht bei <2Ghz liegt.
why_me
2025-01-09, 16:13:39
260W für die GPU und 330W für das ganze Board? 60-70W Abwärme von Speicher, VRMs etc. klingt jetzt nicht so daneben, oder?
dargo
2025-01-09, 16:15:12
Das Ding soll mit 0,765V bei 3Ghz laufen?
Du verdrehst da was. Ein Powervirus wie Furmark wird niemals bei 3Ghz laufen (ok vielleicht mit 500W oder so :D). Den Takt bei den 765mV sehen wir leider nicht. Die 3060Mhz die geleaked wurden kamen nicht aus dem Furmark.
fondness
2025-01-09, 16:16:31
Du verdrehst da was. Ein Powervirus wie Furmark wird niemals bei 3Ghz laufen (ok vielleicht mit 500W oder so :D). Den Takt bei den 765mV sehen wir leider nicht.
Ja, das habe ich dann eh editiert. Aber wenn es irgendein Power-Virus ist, der den Takt deutlich drückt, dann ist es auch klar, dass die Spannung niedrig ist.
dargo
2025-01-09, 16:22:40
Aber wenn es irgendein Power-Virus ist, der den Takt deutlich drückt, dann ist es auch klar, dass die Spannung niedrig ist.
Ja natürlich... eine V/F Kurve sollte doch mittlerweile jeder kennen.
Nakai
2025-01-09, 16:41:07
Hawaii hatte 420 mm2 und war bestimmt günstiger pro mm2. Falls das stimmt, dann stell ich auch jegliche "geleakten" Spezifikationen in Frage.
dargo
2025-01-09, 16:46:08
WTF? Das war ein 28nm Prozess und das Ding hatte 4GB Vram. :freak:
robbitop
2025-01-09, 16:52:41
Was hat N48 mit einem 10 Jahre alten AMD Chip zu tun?
Hakim
2025-01-09, 17:17:12
Einige negativ Kommentare bei dem CB Artikel über FSR4. Aber ja wenn die Technik die neuen Hardware Einheiten braucht kann man es halt nicht ändern, irgendwann muß man so einen cut machen wenn es dann Konkurrenz fähig wird. Aber dennoch lustig das gerade Nvidia jetzt DLSS4 für alle RTX Karten zu Verfügung stellt :)
robbitop
2025-01-09, 17:18:22
Es scheint sich zu bewahrheiten, dass man für sehr konsistente Ergebnisse eben doch ein NN gestütztes Verfahren braucht. Und nun gibt es das bei AMD auch.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.