Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
Palpatin
2025-01-01, 22:09:29
Ja, durch sich selbst natürlich. Wenn die Effizienz für den Hintern ist, gehen halt auch Notebook-Design-Wins massenhaft flöten. Das wird in Diskussionen in diesem Forum immer und immer wieder übersehen und stattdessen nur über den kleinen Desktop-Karten-Markt gesprochen.
Ist hier die RTX 4060 Mobile soviel besser als die RX 7600M XT ? dachte die wären relativ nahe beieinander.
aufkrawall
2025-01-01, 22:52:55
Kann mir nicht vorstellen, wie das gehen soll, wenn die Desktop-7800 XT bei gleicher Performance in 1080p ziemlich genau 100W mehr zieht als die 4070.
Palpatin
2025-01-01, 23:33:35
Kann mir nicht vorstellen, wie das gehen soll, wenn die Desktop-7800 XT bei gleicher Performance in 1080p ziemlich genau 100W mehr zieht als die 4070.
Sind das nicht eher 50Watt mehr?
https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/4/
Ansonsten haben rx7600m xt und 4600 mobile max 120 bzw 115 Watt zur Verfügung und holen in etwa die gleiche Raster Performance raus.
aufkrawall
2025-01-02, 00:17:06
Habe beide Karten gehabt und kann ich nicht bestätigen. Die 7800 XT läuft in zig Spielen real ins 260W TBP-Limit und drosselt dabei mitunter schon deutlich. In 1080p etwas weniger, aber da zieht die 4070 ebenfalls weniger. Die 200W TBP sieht man in 1080p abseits von bestimmten Heavy-RT-Tasks eher nie. Eher ~170W.
Als Enthusiast gibts dann noch Curve-UV auf GeForce, in dem ~170W-Bereich bewegt sich oft meine 4070S mit 4k-Target. RDNA3 ist ein UV-Alptraum. Interessiert den Massenmarkt nicht, aber erwähnen kann man es trotzdem.
Dann kommt man mit DLSS noch mit viel weniger Pixeln zurecht als mit FSR, und schon gibts ein regelrechtes Blutbad bei der Effizienz....
robbitop
2025-01-02, 04:57:13
Wobei die 7600er ein Monolit ist. Das sollte schon etwas Effizienz bringen. Aber grundsätzlich sollte Ada trotzdem vorn liegen. IIRC war das über das ganze Portfolio so.
Bei CB liegt die 4060 ~50% vorn in der Energieeffizienz vs 7600xt
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7600-xt-test.86711/seite-4#abschnitt_energieeffizienz_in_fps_pro_watt
E39Driver
2025-01-02, 12:40:56
Ist hier die RTX 4060 Mobile soviel besser als die RX 7600M XT ? dachte die wären relativ nahe beieinander.
Leistung pro Watt ist bei der 4060 schon ein ganzes Stück besser, was für Notebooks der entscheidende Faktor ist. Hinzu kommt die stärkere Marke aus Marketingsicht.
AMD hätte diesem im Mobile-Umfeld nur mit starken Kampfpreisen begegnen können um halbwegs auf Stückzahlen zu kommen. Da es aber keinerlei Stückzahlen gibt, scheint man RDNA3 im Mobile eher abgeschrieben zu haben
Wobei die 7600er ein Monolit ist. Das sollte schon etwas Effizienz bringen. Aber grundsätzlich sollte Ada trotzdem vorn liegen. IIRC war das über das ganze Portfolio so.
Bei CB liegt die 4060 ~50% vorn in der Energieeffizienz vs 7600xt
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7600-xt-test.86711/seite-4#abschnitt_energieeffizienz_in_fps_pro_watt
Aktuelle Werte hier (RZ & RT): https://www.pcgameshardware.de/Arc-B580-Grafikkarte-280998/Tests/Benchmark-Review-Preis-vs-4070-A770-Limited-Edition-kaufen-1461374/4/#a3
AMD muss massiv aufholen, selbst Intel hat sie in Sachen Effizienz überholt.
MfG
Raff
mczak
2025-01-02, 12:47:29
Bei CB liegt die 4060 ~50% vorn in der Energieeffizienz vs 7600xt
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7600-xt-test.86711/seite-4#abschnitt_energieeffizienz_in_fps_pro_watt
Wobei die 7600XT bis zum gehtnichtmehr gepusht ist - OC geht da auch praktisch nicht (ausser mit UV). Rein von der Architektur her ist da wohl Ada nicht wirklich viel besser (5nm sollte ja gegenüber den 6nm etwa 30% bringen, ziemlich genau der Unterschied in der Effizienz zwischen der 7600 (non-XT) und der 4600, mal abgesehen natürlich von Dingen wie RT). Aber die grösseren Navi-Chips halten auch nicht mit (was wohl nicht nur an den Chiplets liegt). Wobei natürlich am Ende die Gründe egal sind, alle Navi Chips können punkto Effizienz mit Ada nicht mithalten.
Wenn AMD höheren Marktanteil bei dGPUs bei Notebooks haben will ist es sicher nötig dass die Effizienz vergleichbar ist mit Nvidia, allerdings reicht das allein IMHO nicht. RDNA2 gegen Ampere war da konkurrenzfähig (wenn auch bloss wegen des Fertigungsvorteils), und das hat trotzdem nicht wirklich geholfen.
Goser
2025-01-02, 15:49:08
Welches Preise erwarte ihr für 9070xt und 9070? Habe die letzten and Generationen zum release und die Preise nicht verfolgt.
Was scheint realistisch?
Hakim
2025-01-02, 16:08:12
Naja je nach Performance unterschiedlich. Wenn es wirklich Raster etwas über GRE ist und RT besser, mMn keine 500€ Wert. Wenn es quasi wie eine 4070ti S in Raster und RT performt, 650-700€. Also die XT.
BavarianRealist
2025-01-02, 17:22:45
Nur mal so als Gedanken bezüglich der Performance von 9070XT verglichen mit der 7900XTX-Referenz:
- mit 64 statt 96 CU hat sie nur 2/3 einer 7900XTX
- nachdem die iGPUs der letzten 4nm-APUs bis zu 2,9Ghz takten, wären Boost-Takte von >3Ghz für das Referenz-Design ein mini-Sprung, den ich mindestens erwarte, auch 3,3Ghz ist nicht allzu hoch gegriffen. Die 7900XTX hat eine "Spielefrequenz" von 2,3Ghz, womit dann die 9070 etwa +30% bis +43% hier abliefern sollte (reine Spekulation!)
- das Ram-Interface bleibt nominal gleich, sollte aber besser laufen, da es nun ein Monolith ist...
=> rein rechnerisch 2/3 * 1,3 = 0,86 bzw. 2/3*1,43 = 0,95
Berücksichtigt man, dass RDNA4 zudem eine höhere IPC als RDNA3 haben sollte und als Monolith effizienter laufen sollte, würde ich eine Rasterleistung auf Höhe einer 7900XTX erwarten.
Und hierauf käme dann die weit höhere RT-Leistung gegenüber RDNA3 und die besser Effizienz, was eine 9070 bereits weit interessanter als eine 7900XTX machen würde.
Ich hoffe mal, dass AMD diesmal tief stapelt, um nicht wieder ein Desaster zu erleben und Nvidia in seiner Produkt-Platzierung in Unwissenheit zu lassen. N44/N48 dürfte nach meiner Überzeugung ganz klar auf Effizienz (der Notebook-Markt macht im Mainstream die Stückzahlen) und günstige Feritung (um gegen Nvidia preislich sicher da zu stehen) getrimmt sein. Klappt das, sollte es ein Erfolg werden.
Ein Preis von 649$ für das Referenzdesign wäre dann schon sehr attraktiv.
amdfanuwe
2025-01-02, 17:24:28
@Hakim
4070ti S startet bei 859,-€ und eine AMD darf bei gleicher Leistung nur 650-700€ kosten?
Du bist echt lustig.
Bei gleicher Leistung ruft AMD auch nahezu gleichen Preis auf.
@Hakim
4070ti S startet bei 859,-€ und eine AMD darf bei gleicher Leistung nur 650-700€ kosten?
Du bist echt lustig.
Mancher geht halt noch davon aus, dass sich Mehrleistung in der NextGen nicht 1:1 im Preis niederschlägt. War angeblich jahrelang so.
AMD darf die Karte auch als Konkurrent der 4090 bepreisen. Ist nur die Frage wer das dann kauft.
reaperrr
2025-01-02, 17:59:58
Die 7900XTX hat eine "Spielefrequenz" von 2,3Ghz
im CB Test damals waren es soweit ich mich erinnere eher 2,56 GHz im Mittel.
- nachdem die iGPUs der letzten 4nm-APUs bis zu 2,9Ghz takten, wären Boost-Takte von >3Ghz für das Referenz-Design ein mini-Sprung, den ich mindestens erwarte, auch 3,3Ghz ist nicht allzu hoch gegriffen.
Die APUs sind winzig im Vergleich.
Die 7600(XT) taktet auch höher als N31 und N32, obwohl bei denen der GCD im besseren 5nm produziert wird.
Der aktuelle Gerüchtestand für N48 sind 2,8 GHz Base und 3,1 GHz Turbo.
Viel mehr als ~20% mehr Takt würde ich also nicht erwarten.
- das Ram-Interface bleibt nominal gleich, sollte aber besser laufen, da es nun ein Monolith ist...
Es bleibt gleich im Vergleich zu N32, was bedeutet, dass N48 nur knapp mehr Bandbreite als die 7800XT hat, und 1/3 weniger Bandbreite als ne XTX.
Hinzu kommt, dass auch L2 und IF-Cache nur 2/3 einer XTX sind, das heißt, nicht nur ist die VRAM-Bandbreite niedriger, es muss auch noch früher auf den im Vergleich zum Cache langsameren RAM zugegriffen werden.
Der einzige Vorteil durch Monolith ist, dass das SI etwas weniger verbrauchen sollte und die Latenzen von IF$ und Speicher etwas niedriger sein sollten, aber die Bandbreite als solche ist trotzdem deutlich unter der XTX.
=> rein rechnerisch 2/3 * 1,3 = 0,86 bzw. 2/3*1,43 = 0,95
Berücksichtigt man, dass RDNA4 zudem eine höhere IPC als RDNA3 haben sollte und als Monolith effizienter laufen sollte, würde ich eine Rasterleistung auf Höhe einer 7900XTX erwarten.
Performance skaliert nie linear mit irgendwas, gerade wenn Cache und Bandbreite etwas knapp bemessen sind.
IPC wirkt auch nicht in jedem Spiel gleich, weil es drauf ankommt, was genau verbessert wurde.
Dass die 9070 XT zumindest in manchen Spielen nah an die 79XTX rankommt kann trotzdem sein, bloß flächendeckende 79XTX-Rasterleistung würde ich allein schon wegen dem Cache- und Bandbreitendefizit nicht erwarten.
Ich hoffe mal, dass AMD diesmal tief stapelt.
AMD hat ja noch gar nichts verlauten lassen, insofern kann man auch nicht wirklich von tief stapeln sprechen ^^'
Die TimeSpy-Ergebnisse usw. könnten natürlich absichtlich gestreut sein, aber auch einfach von Board-Partnern kommen.
@Hakim
4070ti S startet bei 859,-€ und eine AMD darf bei gleicher Leistung nur 650-700€ kosten?
Du bist echt lustig.
Bei gleicher Leistung ruft AMD auch nahezu gleichen Preis auf.
Die wissen bei AMD schon, dass sie im Vergleich zu Nvidia mehr RAM und ein besseres P/L-Verhältnis bieten müssen, solange sie bei RT, Upscaling und Perf/W nicht den vollständigen Anschluss schaffen.
Die 7900XT kam auch zum Preis der 4070Ti und die XTX kam 200$/€ günstiger als die 4080 trotz mehr RAM und ~3-5% mehr Rasterleistung.
Ähnliche Vorteile bei RAM und P/L im Vergleich zu 5070 und Ada wird auch RDNA4 bieten müssen, um sich zu verkaufen.
N48 sollte insgesamt etwas günstiger zu produzieren sein als N32, da wären 100-150$/€ höherer Preis ordentlich genug und bedeuten wahrscheinlich schon fast ne doppelt so hohe Marge.
Hakim
2025-01-02, 18:53:01
@Hakim
4070ti S startet bei 859,-€ und eine AMD darf bei gleicher Leistung nur 650-700€ kosten?
Du bist echt lustig.
Bei gleicher Leistung ruft AMD auch nahezu gleichen Preis auf.
Na klar, wenn die Karte das gleiche bietet wie etwas was schon seit einem Jahr auf den Markt ist, erwarte ich das es türlich als etwas neues einen Mehrwert hat. Wenn die Leistung gleich ist, erwarte ich zumindest das es dann günstiger ist. Sonst hätte man seit Jahren Stillstand. Entweder es ist schneller und kostet mehr als das was vorhanden oder es ist gleich schnell, dann kann man aber die neue Gen für die Leistung günstiger erwarten. Hat auch nix mit AMD oder NV zu tun, erwarte ich bei beiden. Aber ja um Ehrlich zu sein, wenn es genau so viel kostet und Leistet wie das NV Gegenstück, sry ich persönlich würde dann das Nvidia Modell nehmen. AMD hat nicht umsonst oft das bessere P/L.
GerryB
2025-01-02, 19:09:35
Aktuelle Werte hier (RZ & RT): https://www.pcgameshardware.de/Arc-B580-Grafikkarte-280998/Tests/Benchmark-Review-Preis-vs-4070-A770-Limited-Edition-kaufen-1461374/4/#a3
AMD muss massiv aufholen, selbst Intel hat sie in Sachen Effizienz überholt.
but
7600= 7/6nm vs. RTX 3060@8/7nm
B580= 5nm und RTX 4060@5nm
Da sollten die 20% zur B580 kein Problem sein für ne 9060@N4P.
Daredevil
2025-01-02, 19:12:21
Das ist dem Kunden relativ egal. Dort zählt Preis/Leistung und/oder Performance/Watt.
Wie nachhaltig das Intel anbieten kann und ob das technisch nun spannend ist oder nicht, spielt natürlich auch eine Rolle in unserem Nerdforum, aber das passiert nicht an der Kasse.
GerryB
2025-01-02, 19:30:51
Wäre schon net schlecht, wenn ne 9060MBA dann auch nur 289€ kostet ala B580LE.
Daredevil
2025-01-02, 19:58:01
Ich könnte mich eigentlich auch gut dran gewöhnen, wenn alle 3 Hersteller ihre Nische eben fokussieren. Intel hat die stärkeren iGPUs und dGPUs bis 200-300€, AMD zieht die Performance noch höher bis 700-800€ und Nvidia macht das Feld nach oben hin offen. Klar attackiert man sich auch mal hier und da, aber so wäre für jeden ein Stückchen über vom Kuchen ohne das man in diese Margenschwachen Preischlachten gehen muss. Ist halt am Ende die Frage wer den größeren Hebel hat und welche Strategie man verfolgt.
Das Intel mal dann in AMDs Regionen kommt sollte klar sein, das AMD auch Marge von Nvidia haben will ebenso und Nvidia wird sich auch nochmal mit LowEnd 8GB Karten zeigen, wo Gamer VRAM Mangel haben werden. Ist eigentlich auch schön, drei Hersteller zu haben als nur zwei, wobei Intel natürlich noch in Babyschuhen steckt und daher eigentlich physisch unsichtbar ist. Die sind ja auf dem Papier ganz okay, in den Gehäusen der Gamer stecken die Kisten ja trotzdem nicht prozentual gesehen.
Ich finde es enorm gut, das AMD ( offenbar ) die große Preisklasse nicht mehr bedient mit dieser Generation, aber auch nur under der Prämisse, dass die anderen Klassen dann auch qualitativ voran schreiten. Bin sehr gespannt auf die CES. :)
GerryB
2025-01-02, 20:19:51
Wenn AMD am 6. den Preis für die 9070xt - MBA festsetzt, wird NV sicherlich am 7. den Preis für die 5070Ti easy anpassen können. Zur 5070 wirds da wohl noch keinen Preis geben.
Im Prinzip ist evtl. AMD dann zw. B580 und 5070Ti net schlecht in der Modellpalette+Preis.
(nur die geleakten 649$ sind mir derzeit etwas suspekt, da müsste ja tatsächlich Raster-Fps>7900xt kommen)
Falls die 5070Ti >1000€ kostet, dann kann AMD auch weiter die 7900xtx+XT produzieren und verkaufen.
Die Herstellung sollte ja mit der Zeit auch preiswerter werden, ... may be dann noch 50€ im Preis runter?!
(Waferkosten und GDDR6 = preiswerter)
OgrEGT
2025-01-02, 20:21:26
https://videocardz.com/pixel/powercolor-teases-radeon-rx-9070-xt-red-devil-graphics-card
PowerColor teases Radeon RX 9070 XT Red Devil graphics card
Ganz schönes Monster. 3,5 Slot und 3 Strom-Stecker.
mboeller
2025-01-02, 21:23:33
Ganz schönes Monster. 3,5 Slot und 3 Strom-Stecker.
das sollen Bilder der 7900xtx Red Devil sein
Jo habs auch grad erst gesehen :freak:
G3cko
2025-01-03, 08:29:20
Aktuelle Werte hier (RZ & RT): https://www.pcgameshardware.de/Arc-B580-Grafikkarte-280998/Tests/Benchmark-Review-Preis-vs-4070-A770-Limited-Edition-kaufen-1461374/4/#a3
AMD muss massiv aufholen, selbst Intel hat sie in Sachen Effizienz überholt.
MfG
Raff
Also Mal ernsthaft Raff. Intel hat da gar nichts überholt. Die B580 ist bereits der Gegenspieler zur RX9000 bzw RTX5000 Generation. Die restlichen Vergleichskarten sind alle 2 Jahre alt.
robbitop
2025-01-03, 08:33:32
Ja allerdings wenn RDNA4 nicht deutlich effizienter wird und nicht deutlich RT Leistung draufpackt bleibt es so.
DrFreaK666
2025-01-03, 09:12:38
Ein B580 ist 23% schneller als eine 7600XT laut PCGH. Das sollte ich Bereich des Möglichen sein
robbitop
2025-01-03, 09:34:47
Es geht nicht um absolute Geschwindigkeit zur Einordnung einer uArch. Sondern um Effizienz (fps/W) und den relativen Einbruch bei starker RT Last.
OgrEGT
2025-01-03, 09:37:37
Also Mal ernsthaft Raff. Intel hat da gar nichts überholt. Die B580 ist bereits der Gegenspieler zur RX9000 bzw RTX5000 Generation. Die restlichen Vergleichskarten sind alle 2 Jahre alt.
Zudem muss man auch sagen dass Intel noch zeigen müsste wie sie die Effizienz in die oberen Leistungssegmente skaliert bekommt... ist ja nicht so dass das direkt proportional also 1:1 geht...
horn 12
2025-01-03, 09:45:49
https://videocardz.com/newz/powercolor-shares-a-closer-look-at-the-radeon-rx-9070-xt-red-devil
Geht weiter und PowerColor schiesst erneut den Vogel ab
Entweder jene Karte ist 10% schneller als eine 4080 oder gar nochmals schneller
oder aber der Brummer erreicht nicht mal die 7900XTX.
Wird wohl auch 330 Watt, wenn gar nicht mehr sein!
dargo
2025-01-03, 09:48:35
Es geht nicht um absolute Geschwindigkeit zur Einordnung einer uArch. Sondern um Effizienz (fps/W) und den relativen Einbruch bei starker RT Last.
Um 23% aufzuholen braucht es nicht mal einen deutlichen Zuwachs bei RT wenn Raster sagen wir mal um 25% mit der neuen Gen steigt. Siehe RDNA3 vs. RDNA2. Ist aber eh eine völlig überflüssige Diskussion da jeder weiß das RT diesmal bei RDNA4 wesentlich stärker zulegt als Raster.
https://videocardz.com/newz/powercolor-shares-a-closer-look-at-the-radeon-rx-9070-xt-red-devil
Geht weiter und PowerColor schiesst erneut den Vogel ab
Entweder jene Karte ist 10% schneller als eine 4080 oder gar nochmals schneller
oder aber der Brummer erreicht nicht mal die 7900XTX.
Wird wohl auch 330 Watt, wenn gar nicht mehr sein!
Red Devil wird schon länger als OC-Version vermarktet. Insofern nicht überraschend, dass dieser Ziegelstein mehr Powerbudget abbekommt. Die Vernunftskarte wird sicherlich wieder Hellhound heißen.
robbitop
2025-01-03, 10:07:27
Bei starker RT Last liegt B580 50% (Alan Wake 2) respektive 69% (CP77) laut PCGH vorn
https://www.pcgameshardware.de/Arc-B580-Grafikkarte-280998/Tests/Benchmark-Review-Preis-vs-4070-A770-Limited-Edition-kaufen-1461374/3/
Klar gibt es auch RT Spiele mit wenig Last - aber da sagt dann die reine RT Leistung der Karte nicht mehr viel aus weil nur wenig Anteil an RT an der Frametime.
dargo
2025-01-03, 10:19:59
Dich mögen worst cases mehr interessieren als andere. Vielleicht gleich von Lederjacken show cases sprechen damit man direkt weiß woran man bei deiner Argumentation ist.
Edit:
Nüchtern betrachtet würde ich da eher Ausschau nach Tests mit der UE5.x schauen was RT angeht. Denn das wird überwiegend in kommenden Spielen auf uns zukommen. Die PCGH hat das leider nur einen Kandidaten im Parcour mit Desordre wenn ich das richtig überblicke.
robbitop
2025-01-03, 10:28:55
Es ist einfach ein Erfahren eines Flaschenhalses. Wenn ich RT Leistung eine uArch messen will, messe ich diese möglichst in deren Flaschenhals. So wie ich eine GPU im GPU Bottleneck messe und eine CPU im CPU Bottleneck.
Da davon auszugehen ist, dass RT immer wichtiger wird und es mehr Spiele damit und mit mehr Frametimekosten für RT geben wird, kann ich darüber herausfinden wie sich die GPU in der Nutzungsperiode verhalten kann.
Wenn ich eine GPU kaufe darf diese gern 3-5 Jahre halten. Entsprechend interessiert mich schon wie sie sich in wahrscheinlichen Flaschenhälsen verhalten wird.
Das hat IMO nichts mit Lederjacke zu tun.
Wenn zB Mark Cerny von 2-3 RT Performance vom PS5PRO Chip spricht - dann spricht er genau von dem Anteil der Frametime der RT ist. Also im Flaschenhals. In light RT Games wird man dann wenig Vorteil sehen. In heavy RT Games dann eben mehr.
dargo
2025-01-03, 10:33:21
Es ist einfach ein Erfahren eines Flaschenhalses. Wenn ich RT Leistung eine uArch messen will, messe ich diese möglichst in deren Flaschenhals.
Du kannst messen wie du willst. Viele Messverfahren spiegeln nur nicht das wieder was der Spieler selbst an seinem Rechner erlebt weil oft "praxisfern" getestet wird, zumindest aus Spielersicht. Es gibt nun mal zig verschiedene RT-Lasten je nach Game und das wird auch so bleiben.
Wenn zB Mark Cerny von 2-3 RT Performance vom PS5PRO Chip spricht - dann spricht er genau von dem Anteil der Frametime der RT ist.
Du willst mir doch jetzt nicht erstnhaft mit Marketinggeblubber der Hersteller kommen oder? :| Aus dieser Richtung sucht man sich doch eh immer den best case raus um mit Superlativen um sich zu werfen. :tongue:
vinacis_vivids
2025-01-03, 10:36:29
Warum kaufst du dir nicht die B580 und musst mal selber nach, robbitop?
PCGH nachplappern zieht nicht mehr.
raffa
2025-01-03, 10:38:56
Also so in etwa die gleiche Effizienz in RT (+~45%) und Raster (~+20%) wie die Arc sollte drin sein, weniger wäre schon recht enttäuschend.
Klar, mit einer 333W RedDevil 9070XT+ eher nicht, mit der 260W normalen aber durchaus.
robbitop
2025-01-03, 10:52:27
Warum kaufst du dir nicht die B580 und musst mal selber nach, robbitop?
PCGH nachplappern zieht nicht mehr.
Keine Zeit. Außerdem warum sollte ich etwas messen, was Raff bereits gemessen hat? Ich weiß dass er das sehr gut macht mit allem was dazu gehört. Ich kenne Raff seit 22 Jahren - der weiß was er tut. Insofern sind seine Messwerte legitim.
robbitop
2025-01-03, 11:00:08
Du kannst messen wie du willst. Viele Messverfahren spiegeln nur nicht das wieder was der Spieler selbst an seinem Rechner erlebt weil oft "praxisfern" getestet wird, zumindest aus Spielersicht. Es gibt nun mal zig verschiedene RT-Lasten je nach Game und das wird auch so bleiben.
Nach meinem Verständnis ist das was mathematisch passiert eigentlich immer gleich. Entsprechend heißt viel RT Last auch für eine GPU mit guter RT Pipeline automatisch eine kleinere Frametime.
Bei Arc sieht man schon high level dass da ordentlich RT HW vorhanden ist und Überraschung der RT Anteil der Frametime sinkt deutlich. Auch in Titeln die von Nvidia gesponsert sind.
Es ist auch nicht verwunderlich dass das bei RDNA3 nicht so ist weil da einfach kaum HW verbaut ist.
Aber RDNA4 soll ja einen ordentlichen Speedup dafür bringen.
Du willst mir doch jetzt nicht erstnhaft mit Marketinggeblubber der Hersteller kommen oder? :| Aus dieser Richtung sucht man sich doch eh immer den best case raus um mit Superlativen um sich zu werfen. :tongue:
Das ist nur ein Beispiel dafür was gemeint ist wenn Leute von X amount of faster RT gesprochen wird.
Ansonsten ist Marc Cerny auch in der Tech Szene bei absoluten Koryphäen als technischer Experte anerkannt. Ian Cutress und co nehmen ihn ziemlich ernst. Der Typ hat einiges drauf. Hat selbst Spiele entwickelt und auch Hardwareblöcke. Einige der aktuellen RT IP Patente laufen auf seinen Namen. Ich habe auch bis dato nicht einmal erlebt wo er Marketing BS erzählt hat der so nicht stimmt.
Und wenn von speedup gesprochen wird ist der RT Anteil der frametime gemeint. Um damit auf Spiele schließen zu können müsste man sich für das jeweilige Spiel mit einem performance analyzer tool die Frametime anzeigen lassen und den Anteil an RT isolieren. Und den speedup dann auf die neue Frametime umrechnen.
Gemeint ist damit aber kein fps boost weil RT ja lange nicht alles an einem Frame ausmacht.
DrFreaK666
2025-01-03, 11:23:52
Es geht nicht um absolute Geschwindigkeit zur Einordnung einer uArch. Sondern um Effizienz (fps/W) und den relativen Einbruch bei starker RT Last.
Schon klar
Man wird sehen wie wichtig das am Ende wirklich sein wird.
Außerdem sind diese neuen News über die B580 kein Grund billig zuzugreifen
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13675973#post13675973
robbitop
2025-01-03, 11:32:54
Na das ist ziemlich sehr wahrscheinlich dass die RT Workload immer weiter zunehmen wird. Nicht ohne Grund investiert Intel da ordentlich Transistoren und auch AMD investiert anscheinend in RDNA4 mehr Transistoren und Sony sah das offenbar als so wichtig an dass es der Hauptbestandteil der PS5Pro HW ist.
Zu deinem Link: hab das Video für die Kombination mit einer „schwachen CPU“ nicht gesehen. Aber kann es sein dass diese alten CPU Plattformen dann ggf. niedrige PCIe Specs hatten (3.0 statt 4.0) und kein resizeable bar hatten? Denke mal beides ist einigermaßen wichtig für Battlemage.
DrFreaK666
2025-01-03, 11:37:31
ReBar war in beiden Fällen aktiviert.
Das können wir gerne im anderen Tread besprechen
GerryB
2025-01-03, 11:39:33
Edit:
Nüchtern betrachtet würde ich da eher Ausschau nach Tests mit der UE5.x schauen was RT angeht. Denn das wird überwiegend in kommenden Spielen auf uns zukommen. Die PCGH hat das leider nur einen Kandidaten im Parcour mit Desordre wenn ich das richtig überblicke.
1+
TPU hat mit S2 den nicht idealen Kandidaten dabei: siehe Anhang
B580 ist ggü. der A770 schon deutlich besser geworden, aber nicht soooviel ggü. der 7600
ob Intel da mit Treibern noch mehr rausholen kann = ???, oder doch die UE5 mit Lumen die Nagelprobe bleibt
solange da nur SoftwareLumen läuft bzw. performanter ist als HardwareLumen
btw.
außer Desodre gibts ja noch die neue kostenlose VictorStones-Demo, wo man mal HardwareLumen vgl. könnte
und Starship Troopers Extermination hat wohl auch HardwareLumen
Wenn die PS5pro auch das HardwareLumen nutzen kann, sollten 2025 eigentlich mehr Games damit kommen.
Edit:
Nüchtern betrachtet würde ich da eher Ausschau nach Tests mit der UE5.x schauen was RT angeht. Denn das wird überwiegend in kommenden Spielen auf uns zukommen. Die PCGH hat das leider nur einen Kandidaten im Parcour mit Desordre wenn ich das richtig überblicke.
Das Problem ist, dass die UE5 in Sachen Hardware-Raytracing immer noch in den Kinderschuhen steckt - was tatsächliche Spiele angeht. Abseits von The First Descendant (https://www.pcgameshardware.de/The-First-Descendant-Spiel-74383/Specials/Release-Benchmark-Test-Steam-Server-1450877/2/), das leider schlecht reproduzierbar ist, und einem Dino-Spiel, dessen Namen ich mir nicht merken kann, bleibt nur Desordre, um Hardware-Lumen zu testen. Hoffen wir, dass die Releases 2025 standardmäßig HW-Lumen nutzen und SW zum Fallback wird. :)
Keine Zeit. Außerdem warum sollte ich etwas messen, was Raff bereits gemessen hat? Ich weiß dass er das sehr gut macht mit allem was dazu gehört. Ich kenne Raff seit 22 Jahren - der weiß was er tut. Insofern sind seine Messwerte legitim.
:ulove3: :biggrin:
MfG
Raff
DrFreaK666
2025-01-03, 11:45:05
... Die PCGH hat das leider nur einen Kandidaten im Parcour mit Desordre wenn ich das richtig überblicke.
Bei den Benchmarks ohne RT finden sich noch Hellblade 2 und Stalker 2
davidzo
2025-01-03, 11:49:20
Red Devil wird schon länger als OC-Version vermarktet. Insofern nicht überraschend, dass dieser Ziegelstein mehr Powerbudget abbekommt. Die Vernunftskarte wird sicherlich wieder Hellhound heißen.
Meistens gibt es auch ein Silent BIOS. Bei meiner Red devil 5700XT läuft die Karte dann mit Taktraten auf Referenzniveau und verbraucht sogar minimal weniger. Das ausladende VRM Desing ist also ausnahmsweise mal nicht generell schlechter von der Effizienz. Die leicht bessere Effizienz kommt vermutlich vom Kühler der den Chip auf niedrigerer Temperatur halten kann als die Referenz so dass weniger Spannung gebraucht wird.
Das Kühlkonzept ist einfach: Viel von allem. Die Karte geht verschwenderisch mit Platz um. Eine einfach gestanzte Backplate aus Alu aber mit Wärmeleitpads. Eine sehr minimale, offene Lüfterblende die guten Durchfluss ermöglicht. Alles insgesamt sehr scharfkantig verarbeitet und vom Design jetzt nicht besonders hochwertig wie etwa eine nvidia FE oder eine EVGA.
Aber wenn Powercolor das wieder so hinbekommt und wie damals auch nur 50€ mehr als das Referenzdesign bzw. die no frills Karten nimmt wäre das wieder die go-to Boardpartner Karte.
Bei den Benchmarks ohne RT finden sich noch Hellblade 2 und Stalker 2
Software=ALU/Compute-Raytracing. :) Das ist eine wichtige Unterscheidung: Software-Lösungen finden sich im Rasterizing-Index (20 Spiele) (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/5090-Preview-MAX-OC-Benchmarks-Watt-3-GHz-1461957/2/), Hardware-Lösungen im Raytracing-Index (15 Spiele) (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/5090-Preview-MAX-OC-Benchmarks-Watt-3-GHz-1461957/3/).
MfG
Raff
dargo
2025-01-03, 13:13:54
Das Problem ist, dass die UE5 in Sachen Hardware-Raytracing immer noch in den Kinderschuhen steckt - was tatsächliche Spiele angeht. Abseits von The First Descendant (https://www.pcgameshardware.de/The-First-Descendant-Spiel-74383/Specials/Release-Benchmark-Test-Steam-Server-1450877/2/), das leider schlecht reproduzierbar ist, und einem Dino-Spiel, dessen Namen ich mir nicht merken kann, bleibt nur Desordre, um Hardware-Lumen zu testen. Hoffen wir, dass die Releases 2025 standardmäßig HW-Lumen nutzen und SW zum Fallback wird. :)
Du hast doch längst die Sicht der meisten Spieler verloren. Die Masse da draußen wird noch lange Software Lumen in den gespielten Games verwenden solange Hardware Lumen teuer bleibt.
Du hast doch längst die Sicht der meisten Spieler verloren. Die Masse da draußen wird noch lange Software Lumen in den gespielten Games verwenden solange Hardware Lumen teuer bleibt.
Es besteht keine Wahl, den Modus entscheiden die Entwickler. Aber Hauptsache, mir wieder irgend etwas gegen den Kopf werfen, egal wie begründet und aufwendig die Tests sind. :tongue:
MfG
Raff
dargo
2025-01-03, 13:18:19
Welche Entwickler sind so blöde und bieten aktuell keine Softwarelösung für Lumen? Gibts das tatsächlich bei AAA? :freak:
Aber Hauptsache, mir wieder irgend etwas gegen den Kopf werfen, egal wie begründet und aufwendig die Tests sind. :tongue:
Ich kritisiere nicht deine Tests sondern deine Sicht auf RT und die Masse der Spieler. Mit deiner Nerdader bist du nur ein kleiner Prozentsatz dieser Spieler. :)
Wie gesagt, die überwältige Mehrheit der veröffentlichten UE5-Spiele nutzt Software-Lumen. Dieses basiert auf einer stark vereinfachten BVH und lässt die Hardware-Einheiten für Raytracing links liegen. Ziemlicher Quatsch angesichts der Verbreitung entsprechender Grafikkarten. Der Wechsel auf Hardware-Lumen heißt nicht zwangsläufig, dass das schlechter laufen wird - im Gegenteil, denn RT-Kerne beschleunigen die Arbeit. Man kann aber davon ausgehen, dass der Wechsel auf Hardware-Lumen am Ende doch Leistung kostet, da die Entwickler die Möglichkeiten zu deutlich besserer Qualität wahrnehmen werden. So weit ich weiß, ist Hardware-Lumen nun Standard, wenn man ein neues UE5-Projekt erstellt, zuvor musste man das immer manuell umstellen. Eventuell weiß das hier jemand genauer, u. a. seit welcher Version das so ist (UE5.4 IIRC).
MfG
Raff
GerryB
2025-01-03, 13:25:32
Dann mal blöd gefragt, hätte sich Das nicht für S2 angeboten?
HardwareLumen nur für mehr Gimmicks isses ja net, mehr Fps bei gleicher Bildqualität sind interessanter für Viele.
(für den Fall, das die RT-Cores sparsamer sind als FP16/32 und dadurch mit selben Watt mehr geht)
aufkrawall
2025-01-03, 13:27:17
Es besteht keine Wahl, den Modus entscheiden die Entwickler.
Komische Aussage. In jedem Spiel mit HWRT-Lumen gibts eine Checkbox dafür. Wo soll da keine Wahl bestehen?
Der Wechsel auf Hardware-Lumen heißt nicht zwangsläufig, dass das schlechter laufen wird - im Gegenteil, denn RT-Kerne beschleunigen die Arbeit.
HWRT-Lumen kostet praktisch immer mehr Leistung als SWRT. Wenn dann die Hardware nicht mitspielt, geht das mit vielen Reflexionen aus wie in Silent Hill 2 auf Radeons:
https://gamegpu.com/action-/-fps-/-tps/silent-hill-2-test-gpu-cpu-2024
-> abkack
Komische Aussage. In jedem Spiel mit HWRT-Lumen gibts eine Checkbox dafür. Wo soll da keine Wahl bestehen?
Dass man in den Software-Lumen-Spielen nicht einfach auf Hardware-Lumen gehen kann. So herum war’s gemeint. :)
HWRT-Lumen kostet praktisch immer mehr Leistung als SWRT.
Bei gleicher oder nur moderat erhöhter Qualität würde es das nicht. Es fehlen einfach noch Praxisbeispiele. Soon(tm), hoffentlich.
MfG
Raff
basix
2025-01-03, 13:34:49
Komische Aussage. In jedem Spiel mit HWRT-Lumen gibts eine Checkbox dafür. Wo soll da keine Wahl bestehen?
Wenn HWRT drin ist, ja. Raffs Aussage war mehr so gemeint, dass die meisten Entwickler SW-Lumen nehmen und fertig und es für den Spieler HWRT meistens nicht zur Auswahl gibt. Ergo keine Wahl.
So weit ich weiß, ist Hardware-Lumen nun Standard, wenn man ein neues UE5-Projekt erstellt, zuvor musste man das immer manuell umstellen. Eventuell weiß das hier jemand genauer, u. a. seit welcher Version das so ist (UE5.4 IIRC).
Korrekt, ist seit UE 5.4 so. Und neu gibt es mit UE 5.5 noch MegaLights dazu, was ein leichtgewichtiges Geschwister von Nvidia ReSTIR / "Full Path Tracing" ist. MegaLights setzt HWRT voraus.
dargo
2025-01-03, 14:40:41
Dass man in den Software-Lumen-Spielen nicht einfach auf Hardware-Lumen gehen kann. So herum war’s gemeint. :)
Aha... das hört sich schon ganz anders an. Hatte schon an der Kompetenz der DEVs fälschlicherweise gezweifelt.
Korrekt, ist seit UE 5.4 so.
Und wann kommen die ersten AAA-Games mit UE 5.4? 2025 oder erst 2026?
dargo
2025-01-03, 15:16:11
del
basix
2025-01-03, 15:50:53
Und wann kommen die ersten AAA-Games mit UE 5.4? 2025 oder erst 2026?
Definitiv 2025, auch wenn man Fortnite ausklammert ;)
Typischerweise etwa 6-9 Monate nach Engine Release kommen erste Spiele. Gibt schon ein paar, die die Unreal Engine 5.4 verwenden. Diese Spiele nutzen normalerweise aber nicht alle neuen Features.
Als AAA Spiel, welches gesichert UE 5.4 und evtl. bereits schon 5.5 verwenden wird und für 2025 angekündigt ist, ist "Marvel 1943: Rise of Hydra". Desweiteren gibt es 2025 noch folgende Spiele die man als AAA bezeichnen könnte aber nicht klar ist, welche Engine Version verwendet werden wird:
- Mafia: The Old Country
- Metal Gear Solid Delta: Snake Eater
- Gothic Remake (persönliches AAA ;))
Und ob es noch weitere gibt? Keine Ahnung. Es werden viele Games mit der UE5 erscheinen. Die UE5 ist aber nicht die einzige Engine und eigentlich alle bieten HWRT Lösungen an.
Edit:
Richtig interessant wird es mMn ab UE 5.6, also Spiele die 2026 released werden. Dann hatten die Entwickler +1 Jahr mehr Zeit und es gibt noch ein paar coole Features, die wohl erst mit UE 5.6 production ready sind oder mit 5.5 production ready geworden sind. Ich habe da aber keinen Stress. Die Spiele erscheinen dann wenn es soweit ist.
Im Unreal Engine Forum sprechen viele der Engine-Entwickler, dass sie seit UE 5.4 Release sehr viel am HWRT Pfad gearbeitet haben und den SWRT Pfad nicht mehr weiterentwickeln. Der SWRT Pfad bleibt bestehen und Entwickler können den nutzen, es kommen aber keine neuen Features dazu. Der SWRT Pfad wurde laut Entwickleraussagen auch lange weitergetrieben, weil GTX 10er Serie eine sehr weite Verbreitung hatte. Aber nun ist deren Release schon so lange her, dass man sich auf HWRT fokussiert, mit PS5 und Co. als Minimalstandard.
Aber ja, etwas verrückt ist es schon wie lange es mit der UE5 geht. Gefühlt sind die omnipräsent und der erste Engine Showcase war im Mai 2020(!). Jetzt haben wir 2025 wo die Engine die meisten Features drin hat aber es fehlen immer noch einige Sachen, was in Arbeit aber noch nicht production ready ist (Substrate Textursystem, Heteregenous Volumes, MegaLights, überarbeitetes Beleuchtungssystem für Vegetation, ein paar Nanite Features)
vinacis_vivids
2025-01-03, 16:09:03
Die Assets für UE 5.4 funktionieren nicht für UE 5.5.
robbitop
2025-01-03, 16:19:06
Was hat das mit dem Thema zu tun und welche Assets meinst du? Quelle?
The_Invisible
2025-01-03, 16:20:21
Sogar Gothic Remake hat schon 5.4
5.4 bedeutet aber nicht Hardware-Lumen, das sind trotzdem zwei paar Schuhe. Beispiel für ein performantes 5.4-Spiel mit Software-Lumen: Empire of the Ants (https://www.pcgameshardware.de/Empire-of-the-Ants-Spiel-74757/Specials/Release-Test-Benchmarks-Steam-UE54-Systemanforderungen-1458773/)
Dass Epics Fokus nun auf Hardware-Lumen liegt (siehe basix), wird die Sache aber beschleunigen. :)
MfG
Raff
horn 12
2025-01-04, 04:36:23
https://www.youtube.com/watch?v=nLk4ovpiVZQ
9070 XT Referenz mit ca. 7900 XT Performance
bis zu den OC Modellen welche die 7900XTX / 4080 erreichen könnten
und bei RT 4070 TI.
Dies bis zu 330+ Watt wäre Stillstand und für 7900 XT - XTX Käufer nicht mal für ein Effizienz Update denkbar!
5070 Besitzer bis 6800 (Max. XT) Besitzer könnten darüber nachdenken, der Rest fällt durch den Raster.
@editiert
Zudem könnten die Preise wirklich bei 649 und 749 Dollar (Customs) liegen zusammen mit dem Hohen Verbrauch 330+Watt
was dann ca. 720 und 830 Euro in ca. entsprechen würden und die Karten kaum billiger als XT und XTX werden ließen.
Zumal weniger Speicher und FSR 4.0 auch bei den Alten Generation greift und dies wohl bei RDNA 3 nicht zu knapp.
DrFreaK666
2025-01-04, 07:52:07
Ich mit meiner 6700XT komme also nicht in Frage :ugly:
dildo4u
2025-01-04, 08:05:19
Die Karten sind wie die B580 hauptsächlich interessant wegen Vram.
Features wie FSR4 werden lange brauchen bis sie kritische Masse erreichen wenn nur die 9700 es unterstützt.(FSR3 läuft auf Konsole)
dargo
2025-01-04, 08:19:09
Ich mit meiner 6700XT komme also nicht in Frage :ugly:
Auf keinen Fall, das Performance Plus ist für dich zu groß. :D
OgrEGT
2025-01-04, 08:55:48
Genau! Und 12GB VRAM langt doch auch :ulol:
AlterSack
2025-01-04, 10:46:08
https://www.youtube.com/watch?v=nLk4ovpiVZQ
Dies bis zu 330+ Watt wäre Stillstand und für 7900 XT - XTX Käufer nicht mal für ein Effizienz Update denkbar!
5070 Besitzer bis 6800 (Max. XT) Besitzer könnten darüber nachdenken, der Rest fällt durch den Raster.
es gibt z.b. auch vega-besitzer.
und, es ist ein grund zur freude. man muss nicht jede
und auch nicht jede zweite generation konsumieren. :smile:
aufkrawall
2025-01-04, 10:51:18
Genau! Und 12GB VRAM langt doch auch :ulol:
Hatte mit UE5 tatsächlich noch keine Probleme mit 4k-Target + FG. Fürchte aber, in Spiderman 2 wirds direkt wieder Probs geben. Haben Sony & Nixxes echt drauf.
BlacKi
2025-01-04, 11:06:57
es gibt z.b. auch vega-besitzer.
und, es ist ein grund zur freude. man muss nicht jede
und auch nicht jede zweite generation konsumieren. :smile:sarkasmus?
dargo
2025-01-04, 11:20:54
sarkasmus?
Ich würde eher sagen normaler Konsument außerhalb der Nerdblase. :tongue:
robbitop
2025-01-04, 11:23:44
Tatsächlich ist aber was dran. Dadurch dass die Performanceentwicklung stagniert und Preis pro Fps auch hat man länger was von seiner GPU. Ist gar kein Problem mehr 1 oder 2 Gena auszulassen.
Entsprechend kann man auch relativ günstig 2. Hand die last gen zum release der Next gen kaufen und hat dann trotzdem 3-4 Jahre Ruhe.
Habe zB die 3080 zum Launch der 4000er Serie gebraucht für 550€ gekauft und bin immernoch zufrieden. Dank FSR3.1 FG Mods (die DLSS für das upsampling kombinierbar machen und reflex ist auch nutzbar) und guter RT Leistung ist da immer noch Leben drin. Und detail slider kann man auch 1-2 Stufen runter drehen. Geht die Welt nicht von unter.
Also insofern kann man immernoch mit moderatem Budget zocken wenn es nicht blutende Kante sein muss.
Unterschreibe ich hiermit :-)
Noch eine VEGA64 im Einsatz (welche im Standardprofil "Energiesparen 165Watt" im Schnitt mit 50-52 Grad werkelt, gemeinsamer Kühlkreis mit der CPU) -aktuell mit Baldurs Gate 3 in WQHD und maximalen Einstellungen unterwegs (läuft wunderbar unter Vulkan mit 50-70FPS).
Davor sogar Talos 2 auf der großen Glotze in FullHD mit 60FPS mit fast maximalen Einstellungen (dank Frame Generation musste ich ja nur 30 "echte" FPS erreichen).
Aber auch zuvor: Uncharted, Last of us (bei letzterem war Frame Generation aber auch bitter nötig im Vergleich zu Uncharted, welches auf der gleichen Engine auch ohne das Feature meist -nativ ohne FSR2- zwischen 50-70FPS lieferte).
Aber ja, RDNA4 könnte mein Update werden (ggf. warte ich aber noch auf passende Wasserkühler wie bei der VEGA aktuell hier).
PS: Gutes Neues Euch allen!
BlacKi
2025-01-04, 12:03:28
der punkt ist schon richtig, das die fps pro euro nicht nennenswert gestiegen ist und das hat auch vorteile, vorallendingen für den geldbeutel, wenn dadurch der anspruch an die spiele nicht steigt.
ich hab kaum geld für grafikkarten ausgegeben, obwohl ich immer wieder mal zwischendurch teure karten hatte und habe.
ich hatte seit 2018 6 nvidia grafikkarten und 2 amd grafikkarten(rückläufer nicht berücksichtigt). an den 2 teuersten karten hab ich sogar über 1000€ gewinn gemacht. ich glaube, das ich den wertverfall zumindest ausgeglichen habe, sodass wenn ich die 4080super verkaufen würde, sogar geld gemacht hätte. auch das ist der mangelnden fps pro euro zu verdanken. der effekt ist also allgegenwärtig, auch für diejenigen, die regelmäßig grafikkarten kaufen.
robbitop
2025-01-04, 12:08:56
Naja mit der 4080 hätte man jetzt 400-500€ verloren. Die hat 2022 1200€ gekostet und bei Kleinanzeigen wird man sie für 700-800€ los.
Die Corona Zeit kann man nicht mitrechnen - das war eine Anomalie. Wer zum richtigen Zeitpunkt gekauft hat, hatte eher Glück. Und Glück ist keine nachhaltige Strategie. ;)
Nur mit der 4090 hätte man kein Geld verloren. Das konnte aber auch kein Mensch vorher wissen und es ist nicht gesagt, dass das bei Blackwell nochmal genauso abläuft.
BlacKi
2025-01-04, 12:14:01
Naja mit der 4080 hätte man jetzt 400-500€ verloren.
das gilt doch nur für release. wer zum vernünftigen zeitpunkt einkauft das richtige produkt einkauft, der spart viel geld. so oder so. und die 4080 war schon der übelste kandidat für den preisverfall. weil der release preis "falsch" war. absichtlich. und für jeden zu sehen.
auch die xt und die xtx waren bis auf ausnahmen zum release zu teuer.
robbitop
2025-01-04, 12:27:00
Naja die 4080 wurde erst sehr spät mit der super wirklich günstiger. Das war aber schon nach der Halbzeit von Ada.
Die XT und XTX gab es auch erst deutlich später zu interessanten Preisen. Würde auch grob Halbzeit schätzen. Und wer soll das im Vorhinein wissen wann das soweit ist? Und selbst wenn verliert man dann wieder wenn der nächste unvorhergesehene Preisrutsch der nächsten Gen ist.
In beiden Beispielen hat es ziemlich lange gedauert bis es da einen Preisrutsch gab. Eigentlich war nur die 4090 stabil.
BlacKi
2025-01-04, 12:29:11
hab ich nicht bestritten, aber ich hab zu diesem zeitpunkt auch absichtlich keine besessen, aus diesem grund.
robbitop
2025-01-04, 12:34:36
Naja dann hast du halt Glück gehabt. Das konnte so keiner wissen. Entsprechend ist das nicht als generische Strategie anwendbar.
Zur 4090: selbst dessen Preisstabilität bringt dessen Käufern nur begrenzt etwas weil der Nachfolger massiv teurer werden wird. Und ob man das Geld durch Wertverfall oder überteuerte Produkte verliert ist im Endergebnis egal.
Ich behaupte mal die von mir beschriebene Strategie ist die monetär effizientere. Zumindest wenn es ohne gambling funktionieren soll (weil das nicht langfristig konsistent funktioniert) und es nicht blutende Kante sein muss. ^^
BlacKi
2025-01-04, 12:48:26
ach, wer sich von den early adopter preisen fernhält, rechnen kann, nach angeboten ausschau hält, der kann viel geld sparen, ohne auf neue produkte verzichten zu müssen. meiner meinung nach macht das der kaputte gebrauchtmarkt möglich.
das ist einer der gründe, warum ich keine lust mehr auf wakü habe. das ist nicht nur scheiße teuer geworden, sondern macht das schnelle wechseln praktisch unmöglich.
aufkrawall
2025-01-04, 12:52:50
Ich fühl mich immer schlecht, wenn Leute auf ebay mir zu viel Geld geben.
robbitop
2025-01-04, 13:08:22
ach, wer sich von den early adopter preisen fernhält, rechnen kann, nach angeboten ausschau hält, der kann viel geld sparen, ohne auf neue produkte verzichten zu müssen. meiner meinung nach macht das der kaputte gebrauchtmarkt möglich.
das ist einer der gründe, warum ich keine lust mehr auf wakü habe. das ist nicht nur scheiße teuer geworden, sondern macht das schnelle wechseln praktisch unmöglich.
(1) Naja wie gesagt hat es mit den „guten Preisen“ das letzte Mal bis zur Halbzeit gedauert. Und selbst wenn man das als „trigger“ zum Kauf nimmt wird die Einführung von „guten Preisen“ in der Next gen dann den Wert der GPU die man in Besitz hat wieder reduziert. Und das ist nicht vorhersehbar. Insofern wahrscheinlich dass man mit der Strategie wenn nicht vorne raus dann eben hinten raus Geld verliert. Zumindest wenn man nicht hellsehen kann. Und beim Gambling mal richtig zu liegen zählt nicht weil nicht nachhaltig.
(2) Wakü. Ja ich sehe das mittlerweile auch ziemlich ambivalent. Zwar profitiere ich von sehr niedriger Lautstärke und Temperatur und kann auch TDP und Takt erhöhen ohne dass es laut wird ABER: so viel bringt das nicht mehr und bei jedem GPU Upgrade ist es zum Kotzen:
a) jedes mal braucht man einen neuen Kühlblock der 120+€ kostet
b) der alte Kühlblock ist nix mehr wert und keiner will den haben
c) man muss die Wakü leeren, neu befüllen und entlüften. Und der Waterblockrückbau für den Verkauf und den Umbau der neuen Karte. Man muss einen ganzen Tag für den Scheiss opfern was mich zumindest Upgradefaul macht.
Jetzt hab ich den ganzen Kram aber und komme dadurch mental nicht mehr davon weg. Würde ich nochmal neu bauen würde ich das nicht mehr machen.
Emil_i_Lönneberga
2025-01-04, 13:57:20
Ich habe die letzten 3 Monate zehnmal den GPU Wakü Block demontiert, um unterschiedliche PTM Pads, Wärmeleitpasten und Puttys auf VRAM, VRM und Die zu testen.
Wenn einem das zuviel ist, baut man sich eben eine kleinen GPU-only Kreislauf, der über einen Ablaufhahn in 10s leergelaufen ist und zerlegt werden kann. Die Wakü kann nichts dafür, wenn man aufgrund großer verwinkelter Kreisläufe und ohne sinnvol gesetzte Ablaufhähne das Zerlegen Tage dauert.
Bei einer luftgekühlten Karte verenkt man massig Zeit in das Ausknobeln von passenden Lüfterdrehzahlen und die Suche nach dem passenden Kühler und PCB. Kann mir keiner erzählen, dass das weniger Zeit kosten würde.
Lawmachine79
2025-01-04, 14:00:25
(1) Naja wie gesagt hat es mit den „guten Preisen“ das letzte Mal bis zur Halbzeit gedauert. Und selbst wenn man das als „trigger“ zum Kauf nimmt wird die Einführung von „guten Preisen“ in der Next gen dann den Wert der GPU die man in Besitz hat wieder reduziert. Und das ist nicht vorhersehbar. Insofern wahrscheinlich dass man mit der Strategie wenn nicht vorne raus dann eben hinten raus Geld verliert. Zumindest wenn man nicht hellsehen kann. Und beim Gambling mal richtig zu liegen zählt nicht weil nicht nachhaltig.
(2) Wakü. Ja ich sehe das mittlerweile auch ziemlich ambivalent. Zwar profitiere ich von sehr niedriger Lautstärke und Temperatur und kann auch TDP und Takt erhöhen ohne dass es laut wird ABER: so viel bringt das nicht mehr und bei jedem GPU Upgrade ist es zum Kotzen:
a) jedes mal braucht man einen neuen Kühlblock der 120+€ kostet
b) der alte Kühlblock ist nix mehr wert und keiner will den haben
c) man muss die Wakü leeren, neu befüllen und entlüften. Und der Waterblockrückbau für den Verkauf und den Umbau der neuen Karte. Man muss einen ganzen Tag für den Scheiss opfern was mich zumindest Upgradefaul macht.
Jetzt hab ich den ganzen Kram aber und komme dadurch mental nicht mehr davon weg. Würde ich nochmal neu bauen würde ich das nicht mehr machen.
Ich habe meine WaKü einfach nicht neu befüllt und entlüftet beim Wechsel von 3090 auf 4090. Meine Grakawasseranschlüsse sind der höchste Punkt im System. Ich habe einfach die Grafikkarte mit den Anbindungen noch ein Stück höher gehalten, und vom Mainboard weg, Anschlüsse auf (kam recht wenig Wasser) und an neue Graka dran. Etwas Wasser über dem AGB nachfüllen. Dann einfach ein paar Stunden laufen lassen mit allen Verbrauchen außer Waküpumpe abgeklemmt (ok, das ist wohl schon entlüften, aber man muss ja eh auf Dichtigkeit prüfen). Ist bei mir natürlich etwas begünstigt, weil mein Gehäuse "2 Stockwerke" hat und die gesamte Wakü im Untergeschoss ist und im Obergeschoss halt nur Graka und CPU-Kühlblöcke.
robbitop
2025-01-04, 14:06:38
Bei mir sind im 900D 3x Radis verbaut. 2 im Keller und 1 im Dach.
Früher hatte ich so einen reinen GPU Kühler (Aquacomputer) der nur auf die GPU gesetzt wurde. RAM und VRMs dann mit passiv Kühlern beklebt. Da war der Wechsel kostenlos und man musste die Wakü nicht aufmachen. Aber leider haben sich IIRC die Lochabstände der GPUs selbst ständig geändert und IIRC hat Aquacomputer irgendwann die Brackets nicht mehr aktualisiert.
Das bescheuerte bei den Fullcover Kühlern ist nicht nur dass man jedes Mal einen neuen braucht sondern dass es auch noch ettliche Versionen von einer Graka gibt. Richtig ätzend.
BlacKi
2025-01-04, 14:18:21
und ich hab die lüfter gemodded und steuere sie gpu temp gesteuert über fancontrol. die laufen dank UV mit 5% weniger takt und 20-25% weniger verbrauch nun mit max 750rpm. oft nur mit 550rpm, dem von mir festgelegten minimum.
wasserkühlung rentiert sich IMHO nur noch bei den schnellsten gpus, um OC zu betreiben. wer einen leisen rechner haben will, der kann das auch günstiger und weniger aufwand mit luftkühlung erreichen. das haben die wakü hersteller auch schon lange gecheckt. für viele günstige gpus wird garnichts mehr angeboten.
Emil_i_Lönneberga
2025-01-04, 14:31:05
. für viele günstige gpus wird garnichts mehr angeboten.
Kühler für die 4060 und 4070.
https://ezmodding.com/de/waterblocks/gpu/rtx4000?af=50
https://www.aquatuning.com/wasserkuehlung/custom-wasserkuehlung/gpu-kuehler/nvidia/?p=2&o=1
robbitop
2025-01-04, 15:24:43
und ich hab die lüfter gemodded und steuere sie gpu temp gesteuert über fancontrol. die laufen dank UV mit 5% weniger takt und 20-25% weniger verbrauch nun mit max 750rpm. oft nur mit 550rpm, dem von mir festgelegten minimum.
wasserkühlung rentiert sich IMHO nur noch bei den schnellsten gpus, um OC zu betreiben. wer einen leisen rechner haben will, der kann das auch günstiger und weniger aufwand mit luftkühlung erreichen. das haben die wakü hersteller auch schon lange gecheckt. für viele günstige gpus wird garnichts mehr angeboten.
Ich regle das über die Wassertemperatur mit Aquaero. Finde das macht mehr Sinn weil das ist ja das was die Lüfter kühlen und es ist eine träge Masse so dass die Gradienten der RPM schön klein sind (es also keine nervigen dynamischen schnellen RPM Änderungen gibt - es driftet dann ganz schleichend).
Nightspider
2025-01-04, 16:45:04
Die riesigen Luftkühler sind ja auch nicht gerade günstig in der Herstellung.
Deswegen wäre es schon schön wenn es mehr Grafikkarten mit fertig installiertem Wasserkühler (ohne Radiator und Pumpe) geben würde für einen humanen Aufpreis.
Man hat halt auch Respekt davor ein 1500 bis 3000 Euro teures Bauteil umzubauen.
DrFreaK666
2025-01-04, 16:50:13
...
Man hat halt auch Respekt davor ein 1500 bis 3000 Euro teures Bauteil umzubauen.
Wird RDNA4 nun doch so teuer oder ist das nur extrem OT?
robbitop
2025-01-04, 17:00:01
Die riesigen Luftkühler sind ja auch nicht gerade günstig in der Herstellung.
Deswegen wäre es schon schön wenn es mehr Grafikkarten mit fertig installiertem Wasserkühler (ohne Radiator und Pumpe) geben würde für einen humanen Aufpreis.
Man hat halt auch Respekt davor ein 1500 bis 3000 Euro teures Bauteil umzubauen.
Das wäre schon geil- aber stattdessen wird man da noch mehr abgezockt. Enthusiastensteuer. Da ich aus Prinzip kein Bock hab abgezockt zu werden (auch wenn ich mir das locker leisten könnte - aber mir geht es da immer ums Prinzip - P/L muss immer stimmen sonst kaufe ich nicht) kaufe ich dann immer einzeln.
Dummerweise gibt’s gebraucht auch nur selten den passenden Wasserblock ^^
hab gehofft hier paar rdna4 gerüchte zu lesen :rolleyes:
reaperrr
2025-01-05, 06:13:18
hab gehofft hier paar rdna4 gerüchte zu lesen :rolleyes:
Zusammenfassung aktueller Gerüchtestand:
N48
- 64 CUs (N32: 60)
- 4 ShaderEngines (N32: 3) -> CU-Auslastung und Primitive-Durchsatz höher
- 128 ROPs (N32: 96)
- restliche Specs oberflächlich wie N32 (256bit, 64MB IF$ usw.)
- bis zu mehr als verdoppelter RT-Ops-Durchsatz je CU*
- verbesserte Kompression** innerhalb der Pipeline
- verringerte IF-Cache-Latenzen** durch monolithisches Design + leicht erhöhten IF-Cache-Takt
- verringerte RAM-Latenzen** durch monolithisches Design
- gerüchteweise ca. 10-12% mehr IPC pro CU vgl. mit N32
- ca. 25% höhere RT-Leistung je CU pro Takt*
* auch RT-Titel bestehen nicht nur aus RT-Ops, heißt also nicht doppelte FPS in RT-Titeln, sondern dass Performance mit RT nur noch ca. halb so stark einbricht wie bei RDNA3
** verschiebt Bandbreitenlimit in Summe ein gutes Stück nach oben, sollte in der Hinsicht mehr mit Ada vergleichbar sein, als es RDNA3 war.
N48 Karten:
9070 XT
- volle Specs (64 CUs usw.)
- Taktraten 2.8 base, 3.1 Turbo, wohl um 2.95-3GHz Game Clock (Referenz)
- ~26xW TBP (also auf 78XT/79GRE-Niveau); Customs bis 330W
- ca. 7900XT-Leistung in Raster, soll aber vereinzelt auch mal mittig zw. 79XT und 4080 landen
- ca. 4070Ti- bis 4070Ti Super-Leistung mit RT, etwas schneller als 79XTX
- 16GB GDDR6 @ 20 Gbps
- Preis vmtl. offiziell $599-649/€~700-730
- Launch/Reviews wahrscheinlich 23.01.
9070
- 56 CUs
- ~220W TBP
- Taktraten im Durchschnitt vmtl. etwas niedriger als XT, wg. größerem TBP-Abstand
- ca. 7900 GRE +5-10% in Raster
- RT ca. 79XT-Richtung, also ca. zw. 4070 und 4070S
- 16GB GDDR6 @ 18 Gbps
- Launch-Preis vmtl. offiziell $519-549/€~570-610
- Launch/Reviews wahrscheinlich ebenfalls 23.01.
eventuell: 9060 XT(X) / 9070 GRE
- 48 CUs, 3 SE, 96 ROPs, 48MB IF$, 192bit
- <=200W TBP
- Taktraten im 9070XT-Bereich
- ca. 7700 XT +15% in Raster (4070-7800XT)
- ca. 7900GRE-Leistung mit RT
- 12 GB GDDR6 @ 18-19 Gbps
- Preis vmtl. offiziell $449/€~510-530
- wenn sie überhaupt kommt, dann später, da Chip-Ausbeute von N48 wohl ziemlich gut ist und die 9070 wg. 16GB eh attraktiver sind.
-------------------------------------
N44
- exakt halbe N48 Specs, außer dass Hardware-Video-Encoder eigespart wurde
- voraussichtlich 20% höherer IF-Cache-Takt als N33 (die vor Monaten geleakte Gesamtbandbreite inkl. IF$ legt das jedenfalls nahe)
- Karten wohl nicht vor März
9060 (XT? XL? 9050XT? wegen N48-12GB unsicher):
- volle Specs
- vmtl. etwas höherer Takt als 9070XT
- keine TBP bekannt, aber wegen kleinerem Chip (weniger Kühlfläche) weniger TDP als 7600 notwendig. Evtl. 130-140W (Hälfte v. 9070XT)
- 16GB 18 Gbps
- schneller als 4060 Ti 16GB in Raster
- schneller als 4060 und 4060Ti-8GB in RT
- $349/€~400
9060-8GB:
- entweder volle Specs und weniger Takt, oder 28 CUs und ähnlicher Takt wie XT
- vmtl. ~110W TDP
- 8GB 18Gbps
- schneller als 4060; wo 8GB reichen, evtl. auch ca. 4060Ti-8GB-Niveau
- $249/€~280
- evtl. auch 16GB-Modelle, dann aber entweder mit lahmerem Speicher (16Gbps) oder Preis deutlich näher an XT (299-329$)
9050 (XT):
- 24-28 CUs
- 96bit/24MB IF$
- 6 GB GDDR6 18 Gbps
- $179/€~200
-> quasi Nachfolger der 6500XT-4GB, die dann vmtl. auslaufen wird (kauft vmtl. eh keiner mehr: wem Leistung egal ist, der nimmt eher ne 6400, wem Leistung nicht ganz egal ist, der nimmt dann eher diese, oder halt irgendeine schnellere gebrauchte Karte)
Bei den Preisen bin ich wegen Euro-Schwäche, steigenden Waferpreisen für N4P und etwaigen US-Zöllen etc. etwas pessimistischer an die Euro-Preise rangegangen, kann sein, dass es nicht ganz so schlimm wird (wundern würd's mich aber nicht... ^^').
Außerdem werden die Blackwell-Karten wohl ziemlich teuer, gemessen an Raster-Leistung und Speicherausstattung, daher braucht AMD die Preise leider nicht so aggressiv ansetzen, wie wir es gerne hätten.
Das ist soweit alles, was mir aktuell an Gerüchten bekannt ist bzw. worauf die Gerüchtelage bisher hindeutet.
robbitop
2025-01-05, 07:03:11
- verbesserte Kompression** innerhalb der Pipeline
- verringerte IF-Cache-Latenzen** durch monolithisches Design + leicht erhöhten IF-Cache-Takt
- verringerte RAM-Latenzen** durch monolithisches Design
- gerüchteweise ca. 10-12% mehr IPC pro CU vgl. mit N32
….
** verschiebt Bandbreitenlimit in Summe ein gutes Stück nach oben, sollte in der Hinsicht mehr mit Ada vergleichbar sein, als es RDNA3 war.
Wo hast du diesen Teil der Gerüchte her? Das ist mir zumindest so noch nirgends über den Weg gelaufen.
dildo4u
2025-01-05, 07:54:39
Ansonsten ist das Ding nicht schneller als eine 4070 mit dem verbauten GDDR6 oder?
robbitop
2025-01-05, 08:03:02
Naja der erhöhte Takt und die Steigerung der CUs ggü. der 7800XT allein reichen schon für +25%. Das bringt sie 10% unter die 7900XT in Raster. Weitere Mehrperformance (es fehlten 15-20% in den rdna3 reviews vs dem was AMD beim launch angegeben hat) könnte aus den von MLID bei rdna3 benannten waitstates kommen, die potenziell bei rdna4 entfallen. Das ist allerdings eine vage Spekulation und ein Teil dessen kann ggf schon über Treiber gefixt worden sein könnten. RDNA3 soll ja heutzutage relativ zu Ada etwas besser geworden sein als zu dessen launch.
Meine Frage ging nicht um Spekulation oder Schlussfolgerungen sondern wo reaper diese Gerüchte her hat. Denn er hat sie als Gerüchte bezeichnet und nicht als Spekulation oder Schlussfolgerung.
dildo4u
2025-01-05, 08:31:15
Was mir aufgefallen ist das die 7900GRE manchmal kaum besser als 7800XT läuft da beide GDDR6 nutzen und die GRE auf 256Bit beschnitten wurde.
Aber möglich das die 9700 nur bei RT deutlich schneller ist und Raster auf dem Level bleibt.
Zu wenig Bandbreite oder RT Performance?
https://www.computerbase.de/artikel/gaming/indiana-jones-und-der-grosse-kreis-benchmark-test.90500/seite-2
aufkrawall
2025-01-05, 09:09:13
Das ist halt ein Krüppel-Duell mit der TBP von 260W, siehe die popeligen ~2,15GHz in Metro EE bei CB.
robbitop
2025-01-05, 09:57:57
Was es leider nicht zu geben scheint ist ein Bandbreitenskalierungstest mit der GRE. Das wäre schon interessant, da diese im RDNA3 Portfolio mit Abstand das niedrigste Bandbreiten zu Rohleistungsverhältnis hat.
dildo4u
2025-01-05, 10:01:00
Wundert mich wie viel schneller die 7900XT ist 27% für 50Watt?
Oder die zieht real deutlich mehr.
basix
2025-01-05, 10:11:06
Zusammenfassung aktueller Gerüchtestand:
N48
- 64 CUs (N32: 60)
- 4 ShaderEngines (N32: 3) -> CU-Auslastung und Primitive-Durchsatz höher
- 128 ROPs (N32: 96)
- restliche Specs oberflächlich wie N32 (256bit, 64MB IF$ usw.)
- bis zu mehr als verdoppelter RT-Ops-Durchsatz je CU*
- verbesserte Kompression** innerhalb der Pipeline
- verringerte IF-Cache-Latenzen** durch monolithisches Design + leicht erhöhten IF-Cache-Takt
- verringerte RAM-Latenzen** durch monolithisches Design
- gerüchteweise ca. 10-12% mehr IPC pro CU vgl. mit N32
- ca. 25% höhere RT-Leistung je CU pro Takt*
* auch RT-Titel bestehen nicht nur aus RT-Ops, heißt also nicht doppelte FPS in RT-Titeln, sondern dass Performance mit RT nur noch ca. halb so stark einbricht wie bei RDNA3
** verschiebt Bandbreitenlimit in Summe ein gutes Stück nach oben, sollte in der Hinsicht mehr mit Ada vergleichbar sein, als es RDNA3 war.
Noch als Ergänzung:
- BVH8 anstatt BVH4 Processing, das reduziert die Latenz und erhöht den Throughput, reduziert Bandbreitenanforderung und ermöglicht eine stärkere BVH-Kompression (=mehr davon passt in den LDS der CU = schneller). Umso mehr Bounces man hat, desto besser (https://research.nvidia.com/sites/default/files/publications/ylitie2017hpg-paper.pdf), 2-3x schneller
- BVH processing / stack handling in HW (wie bei Nvidia und Intel), siehe PS5 Pro Präsentation von Mark Cerny
MSABK
2025-01-05, 10:18:10
Wenn das alles wirklich so kommen sollte, dann hört sich das doch nach einer soliden Karte im Bereich 500-700€ an. Genau der Bereich den Nvidia eher vernachlässigt bzw Speichermangel betreibt.
dildo4u
2025-01-05, 10:30:52
Das war schon die 7800XT imo fehlt Hauptsächlich besseres Upscaling.
Path Tracing kann man eh vergessen für Konsolen RT ist sie noch ok.
4070S ist 30% schneller kostet aber auch über 150€ mehr.
Ich hab 650€ für eine Zotac Twin Edge bezahlt mit einem grottigen Kühler.
https://i.ibb.co/XZy8RGp/Screenshot-2025-01-05-102807.png (https://ibb.co/RphywJP)
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-benchmark-test-2025.90695/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_2560__1440
robbitop
2025-01-05, 10:35:46
Wundert mich wie viel schneller die 7900XT ist 27% für 50Watt?
Oder die zieht real deutlich mehr.
12% mehr Takt (laut CB im Durchschnitt) für 15% mehr TDP. (300W vs 260 W laut TPU)
https://www.computerbase.de/2023-08/radeon-rx-7900-gre-test/2/#abschnitt_die_tatsaechlichen_durchschnittlichen_taktraten_unter_last
Bedeutet, dass die v/f curve zwischen den beiden Betriebspunkten noch recht entspannt ist solange Leistungsaufnahme noch linear mit dem Takt steigt.
Die XT ist 23% schneller (4K Rasterindex, gleicher Artikel wie oben) trotz nur 15% mehr Takt. Da kann man schon auch daraus schließen, dass die GRE schon in ein Bandbreitenlimit reinläuft. Zumindest partiell.
robbitop
2025-01-05, 10:38:59
- BVH processing / stack handling in HW (wie bei Nvidia und Intel), siehe PS5 Pro Präsentation von Mark Cerny
Also ich fand das klang in der Präsentation von der PS5PRO nicht so. Eher dass das noch per compute läuft und die Ausführung eher optimiert wurde. Habe ich da was übersehen? :)
AffenJack
2025-01-05, 10:42:18
Also ich fand das klang in der Präsentation von der PS5PRO nicht so. Eher dass das noch per compute läuft und die Ausführung eher optimiert wurde. Habe ich da was übersehen? :)
Ja, hab mich auch gefragt wie basix drauf kommt. Es sah eher danach aus, dass das weiterhin nicht drin ist. Daher sollte man beim RT auch keine Wunder erwarten.
dildo4u
2025-01-05, 10:49:09
Ist die Konsole wirklich Vergleichbar ich fand das Video Interessant dort wird L2 Cache erwähnt und das es eine Rolle bei der RT Performance spielt.
Wurde die PS5 Pro dort überhaupt verbessert?
Die 9700XT kommt ohne CPU und hat vermutlich eine vergleichbare Die Size?
I-ORt8313Og
robbitop
2025-01-05, 10:52:21
AMD hat bei RDNA2/3 auch erwähnt dass der IF Cache bei RT helfen soll. Beide GPUs waren mangels potenter RT HW trotzdem darin nicht gut. Aber wahrscheinlich braucht man beides. Die Verbesserungen der PS5PRO betreffen eher die Implementierung der RT Hardware. Die Cache Konfiguration hat sich mWn nicht verändert.
Die GPU heißt übrigens 9070 XT. Nicht 9700 XT.
Die Spekulation (aufgrund der Andeutungen von Marc Cerny) sind dass die PS5PRO GPU bereits die RT Implementierung aus RDNA4 besitzt. Die GPUs kann man sonst nicht vergleichen. Der Compute Teil ist im Prinzip noch RDNA2 (um Spielekompatibibilität zu behalten) und der Teil für NN ist custom für Sony gemacht. Die Geneinsamkeit könnte einzig der RT Teil sein. Weiterhin hat die PS5PRO keinen IF Cache, die 9070xt hat hingegen 64 mb. Auch hat die 9070xt ein paar mehr CUs.
dildo4u
2025-01-05, 11:08:20
Interessant hier wird IF als L3 bezeichnet.
https://www.techpowerup.com/gpu-specs/radeon-rx-7800-xt.c3839
aufkrawall
2025-01-05, 11:08:38
Ich hab 650€ für eine Zotac Twin Edge bezahlt mit einem grottigen Kühler.
Gab die Asus Prime 3x Fan mehrfach für 600...
robbitop
2025-01-05, 11:10:56
Interessant hier wird IF als L3 bezeichnet.
https://www.techpowerup.com/gpu-specs/radeon-rx-7800-xt.c3839
Ist ja auch nicht falsch und auch nichts neues. Infinity Cache ist nur eine Marketingbezeichnung für einen Last Level Victim Cache. Und das letzte Cachelevel bei RDNA2/3 ist L3.
dildo4u
2025-01-05, 11:17:11
Gab die Asus Prime 3x Fan mehrfach für 600...
Asus hat leider nur noch schrott die Dual war sehr gut und wurde durch die Dual Evo mit Spar Kühler ersetzt.
Mein Gehäuse setzt mir Limits.
https://geizhals.de/asus-dual-geforce-rtx-4070-super-evo-oc-a3097912.html?v=l&hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
madzapp
2025-01-05, 11:29:56
Asus hat leider nur noch schrott die Dual war sehr gut und wurde durch die Dual Evo mit Spar Kühler ersetzt.
Mein Gehäuse setzt mir Limits.
https://geizhals.de/asus-dual-geforce-rtx-4070-super-evo-oc-a3097912.html?v=l&hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
Ich habe mir ein Keyboard von Yamaha gekauft und übe jetzt Tonleitern.:rolleyes:
AlterSack
2025-01-05, 12:30:30
sarkasmus?
eigentlich nicht.
ich möchte nur darauf hinweisen,
dass der wunsch, jedes jahr neue hartware
zu konsumieren durchaus züge einer sucht aufweist.
...sehe schon, dass der weitere diskussionsverlauf meine antwort
überflüssig macht....
p.s.: ich spiele momentan und wahrscheinlich auch die nächsten jahre
le mans ultimate. mit der vega56 muss ich natürlich die grafik runterdrehen.
das spiel sieht trotzdem noch gut aus und ich hab so über 100fps.
da ich gern den vollen grafikgenuss hätte, werde ich mir wohl oder übel
eine rx 9000 beschaffen. ;-)
basix
2025-01-05, 13:17:02
Also ich fand das klang in der Präsentation von der PS5PRO nicht so. Eher dass das noch per compute läuft und die Ausführung eher optimiert wurde. Habe ich da was übersehen? :)
Habe es mir nochmals angesehen. Du hast vermutlich recht, dass es nicht ganz an das rankommt, was Nvidia macht.
Habe jetzt noch ein paar Sachen zu BVH Traversal und auch dessen Stack Management angeschaut. Alle Sachen zusammen dürften auch ohne Fully HW-Managed Traversal sehr viel bringen:
- 8x Box Test / 2x Intersection Test = 2x Throughput
- BVH8 = halbierte Anzahl Traversal Steps
- BVH8 = mehr Throughput bei mehr Bounces (Reflexionen, GI)
- BVH8 = geringerer Memory Footprint = Höhere LDS und Cache-Hitrates
- HW-Stack-Management = Geringere Anzahl Steps im Shader-Code für BVH-Traversal, geringere (Speicher/Ray)-Divergenz
- Neue Instruktionen für effizienteres Cache Handling (gab irgendwo mal einen Leak aus dem Linux Code)
Alles in allem dürfte >2x bei "reinem Raytracing" oder Pathtracing rausschauen, da man die Anzahl Traversal Instruktionen um >2x reduziert und den Throughput ebenso. Bei Fällen mit hoher Divergenz wird es noch mehr sein (diffuse Reflexionen etc.). Unter dem Strich dürfte es nicht so viel langsamer sein als das, was Nivida macht. Vielleicht nicht Ada Niveau, aber in etwa Ampere könnte es werden oder sogar etwas besser als das. Das wäre aus meiner Sicht mal gut genug ;) Eine 4090 ist ca. 1.3x so schnell wie eine 7900XTX in Raster und ~3.5...4x so schnell in den Pathtraced Games (CP2077, Wukong, AW2). Macht man hier die Milchmädchenrechnung, wäre man bei 2x Boost immer noch etwas langsamer als Ada, wenn man auf die Raster-Leistung normiert (~1.3...1.5x). Das ist dennoch viel besser als 2.7...3.1x wie bei RDNA3, the gap is closing ;) Und das ist auf Fully Pathtraced Games bezogen. Bei RT Hybriden dürfte der Unterschied deutlich geringer sein.
Evtl. sehen wir ja bereits morgen was dazu =)
vinacis_vivids
2025-01-05, 13:27:48
Bei RT-Hybrid (mixed precision fp32/fp16) ist AMD heute schon schneller 😂
https://i.ibb.co/sJ5C3Qy/6-XSPp9-NTtt-Dcta8zs4-Q9n-S-970-80-png.webp
Gap dürfe dann für AMD RDNA4 auf +50% ansteigen ggü. Ada.
The_Invisible
2025-01-05, 13:47:56
Das wäre aus meiner Sicht mal gut genug ;) Eine 4090 ist ca. 1.3x so schnell wie eine 7900XTX in Raster und ~3.5...4x so schnell in den Pathtraced Games (CP2077, Wukong, AW2). Macht man hier die Milchmädchenrechnung, wäre man bei 2x Boost immer noch etwas langsamer als Ada, wenn man auf die Raster-Leistung normiert (~1.3...1.5x). Das ist dennoch viel besser als 2.7...3.1x wie bei RDNA3, the gap is closing ;) Und das ist auf Fully Pathtraced Games bezogen. Bei RT Hybriden dürfte der Unterschied deutlich geringer sein.
Evtl. sehen wir ja bereits morgen was dazu =)
Naja ausgehend davon daß es bei Blackwell null Fortschritte bei RT gibt. Der Gegner heißt Blackwell und nicht Ada oder Ampere.
robbitop
2025-01-05, 13:57:23
Habe es mir nochmals angesehen. Du hast vermutlich recht, dass es nicht ganz an das rankommt, was Nvidia macht.
Habe jetzt noch ein paar Sachen zu BVH Traversal und auch dessen Stack Management angeschaut. Alle Sachen zusammen dürften auch ohne Fully HW-Managed Traversal sehr viel bringen:
- 8x Box Test / 2x Intersection Tes = 2x Throughput
- BVH8 = halbierte Anzahl Traversal Steps
- BVH8 = mehr Throughput bei mehr Bounces (Reflexionen, GI)
- BVH8 = geringerer Memory Footprint = Höhere LDS und Cache-Hitrates
- HW-Stack-Management = Geringere Anzahl Steps im Shader-Code für BVH-Traversal, geringere (Speicher/Ray)-Divergenz
- Neue Instruktionen für effizienteres Cache Handling (gab irgendwo mal einen Leak aus dem Linux Code)
Alles in allem dürfte >2x bei "reinem Raytracing" oder Pathtracing rausschauen, da man die Anzahl Traversal Instruktionen um >2x reduziert und den Throughput ebenso. Bei Fällen mit hoher Divergenz wird es noch mehr sein (diffuse Reflexionen etc.). Unter dem Strich dürfte es nicht so viel langsamer sein als das, was Nivida macht. Vielleicht nicht Ada Niveau, aber in etwa Ampere könnte es werden oder sogar etwas besser als das. Das wäre aus meiner Sicht mal gut genug ;) Eine 4090 ist ca. 1.3x so schnell wie eine 7900XTX in Raster und ~3.5...4x so schnell in den Pathtraced Games (CP2077, Wukong, AW2). Macht man hier die Milchmädchenrechnung, wäre man bei 2x Boost immer noch etwas langsamer als Ada, wenn man auf die Raster-Leistung normiert (~1.3...1.5x). Das ist dennoch viel besser als 2.7...3.1x wie bei RDNA3, the gap is closing ;) Und das ist auf Fully Pathtraced Games bezogen. Bei RT Hybriden dürfte der Unterschied deutlich geringer sein.
Evtl. sehen wir ja bereits morgen was dazu =)
:up:
Cerny sagte ja Faktor 2-3. Was natürlich nur auf den Anteil der Frametime gemessen ist an dem RT passiert.
basix
2025-01-05, 14:00:03
Naja ausgehend davon daß es bei Blackwell null Fortschritte bei RT gibt. Der Gegner heißt Blackwell und nicht Ada oder Ampere.
Klar, der direkte Gegner wird Blackwell sein. Der wird aber vermutlich nur ein paar Prozent auf Ada drauflegen, ausser es gibt irgendeine DLSS / Ray Reconstruction SW-Magie.
- Turing = 1. Generation RT-Cores
- Ampere = Verdoppelter RT-Core Throughput & massiv mehr FP32 Throughput
- Ada = nochmals verdoppelter RT-Core Throughput und neue RT-Core Features (SER, Displaced Micro-Mesh Engine, Opacity Micromaps)
Hat man von diesen Verbesserungen irgendwas relevantes bei hybriden RT-Games gesehen? Nicht wirklich. Performance Differenz Raster zu (stark eingesetztem) Hybrid RT ist selbst zwischen Turing und Ada nur gering (<20%). Erst mit Pathtracing wird die Lücke grösser.
:up:
Cerny sagte ja Faktor 2-3. Was natürlich nur auf den Anteil der Frametime gemessen ist an dem RT passiert.
In Pathtraced Games könnte es näher an den 3x liegen, da PT den allergrössten Teil der Frametime ausmacht ;)
robbitop
2025-01-05, 14:10:31
Ich bin gespannt wie ein Flitzbogen auf RDNA4. Wenn der Preis auch attraktiv wird, könnte es definitiv was werden bei mir. 4080 ish Leistung für 500€ wäre ich dabei. Ich vermute aber das wird AMD nicht machen obwohl man damit ordentlich Marktanteile holen könnte (was langfristig besser hilft aus dem Schwitzkasten mit den proprietären NV Technologien denen man hinterher laufen muss bringen kann)
basix
2025-01-05, 14:18:49
Ja bin auch sehr gespannt auf RDNA4. Aber zeitgleich auch sehr auf FSR4.
Ich hoffe auf etwas über 5070 Performance bei 500$ vs. 600$ MSRP. Bei RT/PT könnte die 5070 wieder leicht überholen aber nicht so tragisch (12GB vs. 16GB wird da weh tun). Kostet die 9070XT 550...580$ wird es schwer mit Marktanteilen. Der P/L Vorteil muss mMn >20% liegen und auch bei PT im Plus sein, damit das was wird hinsichtlich Marktanteilgewinn. Inkl. 16GB und deutlich nähergerücktem FSR4 könnte man nicht mehr gross meckern und müsste schon ziemlich spezifische Pro-Nvidia Argumente für die 5070 bringen.
dildo4u
2025-01-05, 14:23:49
Sie meinen eine 5070 ist zu sehr am Vram Limit vor allem wenn mher AI Features kommen.
Frage ist ob man das zum Launch mit genug Games erreicht, ich tippe drauf das sie OK aussieht vorallem wenn man Hauptsächlich UE5 bencht.
rsJINWKTKOc
basix
2025-01-05, 14:27:56
12GB dürften in 1440p für das allermeiste ausreichend sein. Man hat aber definitiv nicht allzu viel Puffer für die Zukunft. In den Reviews werden die 12GB bis auf Ausnahmefälle wohl nicht ein Nachteil sein aber bei 4K Benches wird man die Limitierung vermutlich bereits bemerken.
Ich nehme allerdings an, dass die meisten Benchmark-Portale diesen Umstand ansprechen werden.
robbitop
2025-01-05, 14:29:04
Ja bin auch sehr gespannt auf RDNA4. Aber zeitgleich auch sehr auf FSR4.
Ich hoffe auf etwas über 5070 Performance bei 500$ vs. 600$ MSRP. Bei RT/PT könnte die 5070 wieder leicht überholen aber nicht so tragisch (12GB vs. 16GB wird da weh tun). Kostet die 9070XT 550...580$ wird es schwer mit Marktanteilen. Der P/L Vorteil muss mMn >20% liegen und auch bei PT im Plus sein, damit das was wird hinsichtlich Marktanteilgewinn. Inkl. 16GB und deutlich nähergerücktem FSR4 könnte man nicht mehr gross meckern und müsste schon ziemlich spezifische Pro-Nvidia Argumente für die 5070 bringen.
Ja ich denke das auch. Man braucht ~20% mehr P/L um Marktanteile abzugreifen. Und dass sie das wollen hat AMD ja schon gesagt. Aber mit Marketing (dazu gehört auch die Preis- und Portfoliogestaltung) benehmen sie sich (zumindest bei der RTG) ja immer wie die letzten Amateure. Aber man wird ja noch hoffen dürfen.
Wenn FSR4 (so wie mit FSR3.1 versprochen) sogar noch per ini upgradebar ist -> cool.
Ansonsten gibt es ja noch Omni und Optiscaler. Dann kann man wahrscheinlich überall wo DLSS verbaut ist FSR4 nutzen und Reflex in Antilag 2 umleiten. Wäre okay für mich. (sofern FSR4 ordentliche Verbesserungen ggü 3.1 bringt - DLSS 3.7+ wird man wahrscheinlich nicht ganz einholen und weiterhin hört man ja bereits von DLSS4…)
robbitop
2025-01-05, 14:31:40
12GB dürften in 1440p für das allermeiste ausreichend sein. Man hat aber definitiv nicht allzu viel Puffer für die Zukunft. In den Reviews werden die 12GB bis auf Ausnahmefälle wohl nicht ein Nachteil sein aber bei 4K Benches wird man die Limitierung vermutlich bereits bemerken.
Ich nehme allerdings an, dass die meisten Benchmark-Portale diesen Umstand ansprechen werden.
Naja im 4K Index kann das Federn kosten. Und im Gesamtindex ist ab und an auch der 4K Index verrechnet.
Allerdings scheint NV mit dem VRAM ein wenig effizienter umzugehen was ihnen noch den Hintern gerettet hat. Aber der Bedarf nimmt immer weiter zu. Irgendwann wird es dann kritisch…
aufkrawall
2025-01-05, 14:35:40
Allerdings scheint NV mit dem VRAM ein wenig effizienter umzugehen was ihnen noch den Hintern gerettet hat.
Davon merke ich mit 12GB-GeForce in 4k mal so rein gar nichts.
DrFreaK666
2025-01-05, 14:36:08
Haltet ihr es für wahrscheinlich, dass RSR mit ner Art DirectSR ersetzt wird?
DirectSR dürfte ja deutlich besser aussehen.
AMD muss sich mit mehr solchen Spielereien absetzen, wie z.B. mit AFMF geschehen
dildo4u
2025-01-05, 14:36:31
Fast keiner Testet Framegen in GPU Reviews daher sieht die 4070 noch OK aus.
Indiana Jones kann man z.b komplett vergessen wobei ich noch nicht Low Textur Cache getestet habe.
00-Schneider
2025-01-05, 14:56:30
Davon merke ich mit 12GB-GeForce in 4k mal so rein gar nichts.
Die 4070 ist ja auch keine 4K-Karte.
aufkrawall
2025-01-05, 15:09:29
Die 4070 ist ja auch keine 4K-Karte.
Ja, eben weil das NV-Management auch nicht zaubern kann.
"Alles" mit UE5 läuft aber, inkls. HWRT-Lumen und FG.
dildo4u
2025-01-05, 15:16:49
4070=4070S Frametimes Vram Problem?
Nicht wundern die 3080 nutzt AMD FG daher nicht vergleichbar.
https://i.ibb.co/j3vwrbb/Screenshot-2025-01-05-15-15-10-088-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/h2RdmLL)
https://www.tomshardware.com/video-games/pc-gaming/stalker-2-pc-performance-testing-and-settings-analysis
basix
2025-01-05, 15:24:30
Haltet ihr es für wahrscheinlich, dass RSR mit ner Art DirectSR ersetzt wird?
DirectSR dürfte ja deutlich besser aussehen.
AMD muss sich mit mehr solchen Spielereien absetzen, wie z.B. mit AFMF geschehen
Für die Zukunft dürfte sowas wie AutoSR sicher kommen. DirectSR ist das Framework, welches die SR-API umsetzt mit FSR 2/3 als direkt integrierte Default-Lösung und AutoSR ist die im OS integrierte Upsampling Lösung, welche keine Spieleintegration benötigt. Im besten Fall kommt "AutoSR" mit FSR4 Release, wäre aber halt auch der Optimalfall.
Hinsichtlich Optimalfall -> wie ich ihn mir bei FSR4 vorstelle:
"FSR4" Bestandteil / RDNA4 Release Feature|Wahrscheinlichkeit
Upsampling Qualität auf DLSS Niveau, z.B. zwischen DLSS3 und DLSS4|98% -> Muss AMD eigentlich bringen
Ray Reconstruction|80% -> https://gpuopen.com/learn/neural_supersampling_and_denoising_for_real-time_path_tracing/
Frame Extrapolation anstatt Interpolation|50% -> der Cerny hat etwas viel von Extrapolation, Amethyst usw. gesprochen ;) Extrapolation wäre bei 30fps Konsolen-Spielen ein Game-Changer. Und AMD selbst hat Extrapolation auch schon angesprochen aber Interpolation bei FSR3 umgesetzt, da schlicht einfacher.
AntiLag 2 Update / Verbesserungen|30% -> Delta zu Nvidia Reflex schliessen
"AutoSR" ähnliches im Treiber (RSR Ersatz)|50% -> Microsoft AutoSR ist für NPUs optimiert, bringt das AMD nun für deren APUs oder auch deren GPUs? RSR wäre hier zumindest der spirituelle Vorgänger
AFMF Update / Verbesserung (hier wohl immer noch Interpolation)|50% -> AMD ist hier der Vorreiter
aufkrawall
2025-01-05, 15:34:03
4070=4070S Frametimes Vram Problem?
Spielt niemand mit DLSS Q auf der Karte in 4k.
Völlig witzlose Werte. Es stottert auch wie Müll auf einer 4090 in egal welcher Auflösung:
https://youtu.be/ZavB2Kjv5KA
Mit der 4070S und Peformance nicht wirklich schlechter:
https://youtu.be/eD9TSnmyMwc
dildo4u
2025-01-05, 15:45:50
Stimmt dachte Mann muss der die GPU beladen da die CPU Performance abartig schlecht ist aber selbst ohne Hardware RT rund um eine Katastrophe.
DrFreaK666
2025-01-05, 15:57:23
@basix Meinte natürlich AutoSR. Thanks.
Ich hätte das jedenfalls gerne noch als Lösung
mksn7
2025-01-05, 15:58:41
- HW-Stack-Management = Geringere Anzahl Steps im Shader-Code für BVH-
Diese stack management instruction (DS_BVH_STACK_RTN_B32) hat RDNA3 schon. Für die PS5 Pro ist das was neues, aber nicht für RDNA4.
robbitop
2025-01-05, 16:13:18
@basix
wo siehst du denn AL2 ggü reflex hinten? Waren doch fast gleich in der Latenz. Muss halt nur implementiert werden - das liegt aber am Gamestudio.
IMO sollte man AL2 als essenziellen Bestandteil in FSR verbauen der halt deaktiviert wird wenn keine Radeon erkannt wird (weil das nur auf radeons läuft) - oder man baut eine ihv agnostische Version von AL2.
basix
2025-01-05, 16:13:42
Diese stack management instruction (DS_BVH_STACK_RTN_B32) hat RDNA3 schon. Für die PS5 Pro ist das was neues, aber nicht für RDNA4.
HW-Stack Mangement = Keine Instructions nötig. Denke nicht, das AMD das bei RDNA3 bereits hat.
@basix
wo siehst du denn AL2 ggü reflex hinten? Waren doch fast gleich in der Latenz. Muss halt nur implementiert werden - das liegt aber am Gamestudio.
IMO sollte man AL2 als essenziellen Bestandteil in FSR verbauen der halt deaktiviert wird wenn keine Radeon erkannt wird (weil das nur auf radeons läuft) - oder man baut eine ihv agnostische Version von AL2.
Soweit ich weiss ist bei Reflex die Implementationsqualität eigentlich immer gut. Bei AL2 habe ich im Kopf, dass es da noch ein paar Issues gibt. Aber evtl. ist das mehr eine Implementationsfrage denn ein Thema von AL2. Oder ich habe das mit AL2 schlicht falsch auf dem Radar
GerryB
2025-01-05, 16:59:45
Ansonsten ist das Ding nicht schneller als eine 4070 mit dem verbauten GDDR6 oder?
4070nonTi ist ne Klasse niedriger
4070Ti 12GB@192bit vs 9070xt 16GB@256bit wird evtl. interessant in Games wo Bandbreite matters
Da hat die 9070xt dann noch ganz schön Luft nach Oben.
Obs mit IPC-Tricks +330W für ne 4070TiS reicht, wird spannend.
Hakim
2025-01-05, 19:37:59
Gibt es schon eine Uhrzeit für die Präsentation von RDNA4?
Steve1
2025-01-05, 19:45:02
https://www.amd.com/en/corporate/events/ces.html
Muss 20:00 Uhr unserer Zeit sein am 06.01.
horn 12
2025-01-06, 02:08:31
https://videocardz.com/pixel/powercolor-teases-radeon-rx-9070-xt-hellhound
9070 XT HellHound von PowerColor
Nightspider
2025-01-06, 04:27:17
@basix:
Was ist denn Frame Extrapolation?
rumpeLson
2025-01-06, 06:11:22
@Nightspider:
Frame Extrapolation ist wie Frame Interpolation die Berechnung von Zwischenbildern.
Bei Frame Interpolation werden 2 Bilder tatsächlich berechnet und der Frame in der Mitte anhand beider Bilder und Motion Vectors bestimmt. Dadurch entsteht jedoch eine gewisse Latenz.
Frame Extrapolation würde das Mittelbild ohne den zweiten Frame rein anhand des ersten Frames und der Motion Vectors berechnen. Vorteil wäre, dass kein Latenznachteil durch die Zwischenbildberechnung entsteht, da keine berechneten Bilder zurückgehalten würden. Der Nachteil natürlich, dass das Risiko für Bildfehler steigt.
aufkrawall
2025-01-06, 07:02:36
@basix
wo siehst du denn AL2 ggü reflex hinten? Waren doch fast gleich in der Latenz.
Gff. hatte er noch die Zahlen zu Anti-Lag+ im Hinterkopf, das in einigen Titeln die gleiche Latenz wie Reflex hatte, in anderen aber etwas schlechter war. Spielt aber mit A-L2 keine Rolle mehr. Wobei das Feature leider bislang auch fast keine Rolle spielt...
Ansonsten halte ich basix' Wahrscheinlichkeiten leider für hoffnungslos optimistisch. :redface:
Intel hats auch nicht geschafft, mit XeSS 2 die Qualität weiter zu steigern.
robbitop
2025-01-06, 07:16:55
Intel XeSS 2 ist so wie AMDs FSR3 oder Nvidias DLSS 3 Versionsspeung für das upsampling: bedeutungslos und nur zum Anzeigen des neuen Frame Generation Featuresets. PR halt ^^
RitterRost
2025-01-06, 08:23:23
https://videocardz.com/pixel/powercolor-teases-radeon-rx-9070-xt-hellhound
9070 XT HellHound von PowerColor
Nun also ziemlich sicher, dass es ne kurze Platine wird und Kühlkörper mit Durch-Lüftung zum Einsatz kommen. Damit sollte relativ leise viel Verlustleistung abgeführt werden.
Ich bin auf Perf/Watt gespannt - nach der nicht vorhandenen Steigerung von 1,5 bei RDNA2 zu RDNA3
aufkrawall
2025-01-06, 08:42:55
Intel XeSS 2 ist so wie AMDs FSR3 oder Nvidias DLSS 3 Versionsspeung für das upsampling: bedeutungslos und nur zum Anzeigen des neuen Frame Generation Featuresets. PR halt ^^
Schon. XeSS 1.3 ist aber mittlerweile auch fast ein Jahr alt und hat bei starkem Upsampling immer noch massiven Qualitätsverlust. Wie da FSR 4 auf einen Schlag nach der unterm Strich wirklich schlechten Historie auf einmal DLSS Preset E/C (unterm Strich deutlich bis massiv besser als XeSS) erreichen soll, ist doch völlig unwahrscheinlich.
DrFreaK666
2025-01-06, 10:09:48
Unwahrscheinlich aber nicht unmöglich.
FSR 2 wurde Anfangs auch für die Qualität gelobt. Nvidias Vorsprung wurde halt mit Zeit größer, da Nvidia nicht geschlafen hat.
Man kann schon eine deutliche Verbesserung im Vergleich zu FSR3.1 erwarten, sonst würde das absolut keinen Sinn machen
dildo4u
2025-01-06, 10:36:12
Sony hat gezeigt das es schwer ist das es sofort perfekt in allen Thrid Party Games arbeitet das wird hier nicht anders sein.
Du wirst aber natürlich erstmal nur das zu sehen bekommen was AMD als Optimale Umsetzung betrachtet vermutlich in einem der Sony Ports.( Spiderman Man 2?)
aufkrawall
2025-01-06, 11:08:00
FSR 2 wurde Anfangs auch für die Qualität gelobt. Nvidias Vorsprung wurde halt mit Zeit größer, da Nvidia nicht geschlafen hat.
Das liegt nicht nur an DLSS/Preset E, sondern auch daran, dass neuer Content oft komplexer geworden ist und FSR damit immer stärker kaputt geht. Dann haben sie es verschlimmbessert, indem sie mit FSR 3.1 dagegen die Ghosting-Notstufe gezündet haben. Bzw. war FSR 2.2 eigentlich auch schon eine Verschlimmbesserung, da die temporale Stabilität gegenüber 2.1 mitunter schlechter war. Wirkt so, als wären sie auf eine frühe Wand gestoßen, durch die sie nicht durchkommen.
Es hängen schon Intel und Sony Nvidia bei ML Jahre hinterher, und ausgerechnet AMD soll sie auf Anhieb einholen? Get real.
horn 12
2025-01-06, 11:46:58
https://videocardz.com/newz/amd-previews-radeon-rx-9070-xt-and-9070-series-rdna4-launches-q1-2025
Dies kann ja heiter werden, man will wohl nicht dass NV die Preise und Performance anpasst
und lässt dann AMD ins Messer rennen!
Troyan
2025-01-06, 11:48:28
Dann hätte man die Keynote auch für morgen terminieren können. Aber wenn man weder Preis noch Leistung zeigt, wäre das schon sehr strange.
basix
2025-01-06, 11:52:18
Bei Frame Interpolation werden 2 Bilder tatsächlich berechnet und der Frame in der Mitte anhand beider Bilder und Motion Vectors bestimmt. Dadurch entsteht jedoch eine gewisse Latenz.
Frame Extrapolation würde das Mittelbild ohne den zweiten Frame rein anhand des ersten Frames und der Motion Vectors berechnen. Vorteil wäre, dass kein Latenznachteil durch die Zwischenbildberechnung entsteht, da keine berechneten Bilder zurückgehalten würden. Der Nachteil natürlich, dass das Risiko für Bildfehler steigt.
Danke fürs erklären :up:
Ich nehme an, dass man für Frame Extrapolation mehr als nur das letzte Frame und Motion Vectors verwenden würde. Kann mir vorstellen, dass man 2-3 Frames inkl. Motion Vectors verwendet, um damit die Qualität & Robustheit zu erhöhen. Wenn 1 Frame reicht auch OK, ist aber ein schwieriges Problem.
Ansonsten halte ich basix' Wahrscheinlichkeiten leider für hoffnungslos optimistisch. :redface:
Deswegen auch "Optimalfall", das darf optimistisch sein ;)
Schon. XeSS 1.3 ist aber mittlerweile auch fast ein Jahr alt und hat bei starkem Upsampling immer noch massiven Qualitätsverlust. Wie da FSR 4 auf einen Schlag nach der unterm Strich wirklich schlechten Historie auf einmal DLSS Preset E/C (unterm Strich deutlich bis massiv besser als XeSS) erreichen soll, ist doch völlig unwahrscheinlich.
Das ARM Paper von der Siggraph 2024 hatte FSR2 als Basis und das was dort inkl. DNN Parameter-Prediction gezeigt wurde war massiv besser als das normale FSR2. Ich habe da schon etwas Hoffnung. Und dann nochmals: Optimalfall ;)
Es hängen schon Intel und Sony Nvidia bei ML Jahre hinterher, und ausgerechnet AMD soll sie auf Anhieb einholen? Get real.
Sony hat ein Erstlingswerk (PSSR) und Intel war mit XeSS der letzte von DLSS und FSR. AMD hat doch immerhin schon 2.5 Jahre Erfahrung mit FSR2 im Feld und ML/DNN ist für die auch nicht "Neuland". Und wenn ARM FSR2 pimpen kann, kann AMD das wohl auch. Zwischen DLSS1 und DLSS2 lagen knapp 2 Jahre und Nvidia hat den Algo komplett umgestellt. AMD muss "nur" ihren Algorithmus ergänzen und die grobe Struktur aussen rum gleich lassen. Dazu die Zusammenarbeit mit Sony (Amethyst), wo FSR4 sicher auch ein Thema ist/war.
Wird es auf Anhieb klappen? Vielleicht nicht. Aber AMD hat mit FSR2/3 eine Basis und mit DLSS2/3 eine Zielvorgabe. Es ist einfacher auf dieses Ziel hin zu arbeiten als der erste zu sein (Nvidia mit DLSS2).
E39Driver
2025-01-06, 11:53:34
Die Saphire Nitro+ sieht gut aus. Referenzkarten scheinbar im 2-Slot Design. Spricht eher für geringe Referenz-TDP
https://cdn.videocardz.com/1/2025/01/AMD-RADEON-9070-GPUS-768x705.jpg
Der_Korken
2025-01-06, 11:54:19
https://videocardz.com/newz/amd-previews-radeon-rx-9070-xt-and-9070-series-rdna4-launches-q1-2025
Dies kann ja heiter werden, man will wohl nicht dass NV die Preise und Performance anpasst
und lässt dann AMD ins Messer rennen!
roflmao
Also wenn man entweder Preise oder Performance zurückhält um gegenüber der Konkurrenz zu taktieren, könnte ich das noch verstehen, aber beides nicht zu nennen und Release Date ebenfalls nicht, klingt eher danach als wären die Karten schlicht und ergreifend noch gar nicht fertig.
Edit: Bezüglich Frame-Extrapolation: Ich kann mir immer noch nicht vorstellen, dass sowas funktionieren kann. Imho muss das zwangsläufig zu Minirucklern kommen, wenn der User den Input verändert oder zu Objekten, die ins Bild reinploppen. In beiden Fällen ist der Grund, dass ich aus vorigen Frames nicht etwas ableiten kann, was vorher nicht vorhanden war aber im nächsten Frame neu dazukommt, z.B. dass ein neues Objekt auf dem Screen erscheint oder der User anfängt sich zu bewegen bzw. damit aufhört bzw. die Richtung ändert.
dildo4u
2025-01-06, 11:58:25
https://videocardz.com/newz/amd-previews-radeon-rx-9070-xt-and-9070-series-rdna4-launches-q1-2025
Dies kann ja heiter werden, man will wohl nicht dass NV die Preise und Performance anpasst
und lässt dann AMD ins Messer rennen!
Die Karten die Heute bei AMD und NV gezeigt werden überschneiden sich nicht wobei es Blödsinn ist die 9700 Performance nicht zu zeigen so lange man sie gegen 4070 vergleichen kann.
basix
2025-01-06, 11:59:38
Leute...
Es war ein Presse-Briefing vor der öffentlichen Vorstellung heute Abend um 20 Uhr MESZ. Wenn AMD hier schon Performance, Preise und Releasedatum nennen würde, wäre das jetzt alles geleaked.
Warten wir doch also bitte bis heute Abend ;)
Hakim
2025-01-06, 12:00:40
Die Saphire Nitro+ sieht gut aus. Referenzkarten scheinbar im 2-Slot Design. Spricht eher für geringe Referenz-TDP
https://cdn.videocardz.com/1/2025/01/AMD-RADEON-9070-GPUS-768x705.jpg
Einmal die 7 bitte, alles andere außer den Referenz Modellen sieht mir schon zu verspielt aus
basix
2025-01-06, 12:01:32
Jo, 7 sieht gut aus
Der_Korken
2025-01-06, 12:02:13
Leute...
Es war ein Presse-Briefing vor der öffentlichen Vorstellung heute Abend um 20 Uhr MESZ. Wenn AMD hier schon Performance, Preise und Releasedatum nennen würde, wäre das jetzt alles geleaked.
Warten wir doch also bitte bis heute Abend ;)
OK, irreführende Formulierung in der Einleitung. Das las sich so, als hätten sie die Info bekommen, es würde heute generell keine Details mehr geben. Im letzten Absatz relativieren sie das dann wieder, dass die Möglichkeit bestünde, dass AMD heute Abend noch mehr zeigt. Dass die nicht 8h vorher schon alle Zahlen raushauen, liegt natürlich auf der Hand.
basix
2025-01-06, 12:06:49
Bezüglich Frame-Extrapolation: Ich kann mir immer noch nicht vorstellen, dass sowas funktionieren kann. Imho muss das zwangsläufig zu Minirucklern kommen, wenn der User den Input verändert oder zu Objekten, die ins Bild reinploppen. In beiden Fällen ist der Grund, dass ich aus vorigen Frames nicht etwas ableiten kann, was vorher nicht vorhanden war aber im nächsten Frame neu dazukommt, z.B. dass ein neues Objekt auf dem Screen erscheint oder der User anfängt sich zu bewegen bzw. damit aufhört bzw. die Richtung ändert.
Das ist ein guter Punkt, den du da ansprichst. Intel hat Extrapolation schon mal gezeigt, dort wurde aber zumindest ein Teil des Frames doch gerendert (Geometrie glaube ich, damit man den G-Buffer hat).
Du, das sollen die Umsetzen die das Knowhow haben. Unmöglich ist es nicht, aber deutlich schwieriger als Interpolation das ist klar.
OK, irreführende Formulierung in der Einleitung. Das las sich so, als hätten sie die Info bekommen, es würde heute generell keine Details mehr geben. Im letzten Absatz relativieren sie das dann wieder, dass die Möglichkeit bestünde, dass AMD heute Abend noch mehr zeigt. Dass die nicht 8h vorher schon alle Zahlen raushauen, liegt natürlich auf der Hand.
Performance wird ganz sicher gezeigt werden. Wenn etwas heute Abend nicht genannt wird, dann sind es Preise und Release-Datum. Das würde AMD Handlungsspielraum gegenüber Blackwell geben.
Ich vermute aber, dass AMD auch Preise und Datum nennt. Was kann Nvidia machen? Preise senken. Doch wird das passieren? Unwahrscheinlich.
The_Invisible
2025-01-06, 12:28:55
Fsr4 Rdna4 exklusiv, hat man zumindest schon Mal ein Verkaufsargument.
basix
2025-01-06, 12:36:57
Um mich selber zu zitieren:
Glaube nicht, dass FSR4 RDNA4 exklusiv bleiben wird. Als Initialrelease evtl. schon (Time to Market) aber sicher nicht ewig. Das würde allem widersprechen, was AMD mit FSR1-FSR3 aufgebaut hat.
dargo
2025-01-06, 12:41:07
Fsr4 Rdna4 exklusiv, hat man zumindest schon Mal ein Verkaufsargument.
Es wurde schon längt gesagt, dass FSR4 nicht RDNA4 exklusiv ist. AMD wird hier die gleiche Schiene fahren wie Intel mit XeSS. Beste und schnellste Qualität ab RDNA4, Rest "Sparversion".
robbitop
2025-01-06, 12:47:59
Schon. XeSS 1.3 ist aber mittlerweile auch fast ein Jahr alt und hat bei starkem Upsampling immer noch massiven Qualitätsverlust. Wie da FSR 4 auf einen Schlag nach der unterm Strich wirklich schlechten Historie auf einmal DLSS Preset E/C (unterm Strich deutlich bis massiv besser als XeSS) erreichen soll, ist doch völlig unwahrscheinlich.
Intel werden auch die Resources gestrichen leider. Genau dann wo das alles etwas Fahrtwind aufnimmt.
Was mich auch interessieren würde wie gut XMX XeSS 1.3 in der Praxis ist. Das NN ist ja um Einiges komplexer.
Bei FSR4 erwarte ich ähnliches wie du. Das Prinzip „Erst Iteration führt zu Perfektion“ gilt eigentlich immer. Nvidia hat ihr ML Upsampling seit >4 Jahren interniert. AMD fängt gerade an. Sicher wird man auch aus FSR2/3 gelernt haben und wenn man schlau war auch von PSSR und DLSS und XeSS. Aber erste Iteration des ML Teils. Und man hat bei AMD nur eine Hand voll Leute die an dem Kram arbeiten vs Armeen bei Nvidia. Mittel bis langfristig sollte aber Potenzial durch Iteration und die Koalition mit Sony (Project Amethyst) da sein zumindest asymptotisch ran zu kommen.
Allerdings wird DLSS 4 mit Blackwell potentiell schon wieder den nächsten Sprung in was anderem liefern, dem man dann auch erstmal hinterher laufen muss. Sie brauchen definitiv mehr horse power in dem Bereich und Fokus.
Nichtsdestotrotz erwarte ich mit FSR4 eine Verbesserung. Das ist doch schonmal was. :)
aufkrawall
2025-01-06, 12:52:37
Fsr4 Rdna4 exklusiv, hat man zumindest schon Mal ein Verkaufsargument.
War die ML-Performance wohl zu schlecht mit RDNA3, wär hätte das gedacht.
Ok, final ist noch nichts. Aber falls es stimmt, kann man RDNA3 nochmal als größere Fail-Architektur abhaken als ohnehin schon.
Zum Glück hatte ich meine abgestoßen, würde mir jetzt sonst sehr verarscht vorkommen (mal wieder...).
dargo
2025-01-06, 12:52:40
Jo, 7 sieht gut aus
Wayne Optik. :cool: Das einzige was zählt ist die Kühlleistung und Lautstäke. :)
Ok, final ist noch nichts. Aber falls es stimmt, kann man RDNA3 nochmal als größere Fail-Architektur abhaken als ohnehin schon.
Dass RDNA3 gefailed ist wusste ich bereits 2022 als N31 im Rechner steckte. Ist "failed" noch steigerungsfähig? :tongue:
PS: ok... es gab damals noch Hoffnungen, dass N32 repariert ausgeliefert wird. Wie wir alle wissen ist das nicht passiert.
basix
2025-01-06, 12:57:10
Bei paar hundert Euro darf sie auch gut aussehen ;)
Aber klar, die technischen Aspekte sind wichtig. Optik ist nur noch ein Goodie, welches aber bei zwei ansonsten gleichwertigen Produkten den Unterschied machen kann.
E39Driver
2025-01-06, 13:03:17
Jeder so wie er mag. Gute Optik mit viel LED Geraffel ist mir durchaus so bis 100€ Aufpreis wert. Soll im Glas-Tower ja auch nach was aussehen.
Omas vererbter Fliesentisch erfüllt auch die grundlegenden Anforderungen an einen Couchtisch... würde ich mir dennoch nicht in die Bude stellen :wink:
dargo
2025-01-06, 13:06:52
Jeder so wie er mag. Gute Optik mit viel LED Geraffel ist mir durchaus so bis 100€ Aufpreis wert. Soll im Glas-Tower ja auch nach was aussehen.
Gut... wenn du ein Fenster im Gehäuse hast und drauf starrst sollte es natürlich nicht zu kacke aussehen. Bei mir sieht man zum Glück nichts von dem Elektoschrott. :tongue:
aufkrawall
2025-01-06, 13:10:09
Ist "failed" noch steigerungsfähig? :tongue:
Ja. Der AMD-Fritze meinte, mit RDNA3 hätte man nun die breitere HW-Basis für ML-FSR. Falls das auf RDNA3 wirklich nicht läuft, wäre das krass gelogen gewesen. :freak:
Ja. Der AMD-Fritze meinte, mit RDNA3 hätte man nun die breitere HW-Basis für ML-FSR. Falls das auf RDNA3 wirklich nicht läuft, wäre das krass gelogen gewesen. :freak:
Eventuell kriegt RDNA 3.x einen Billigmodus à la Intel DP4a? AMD traue ich das zu - künstliche Sperren mit Qualität als Ausrede ist eher Nvidias Masche.
MfG
Raff
aufkrawall
2025-01-06, 13:13:04
Eventuell kriegt RDNA 3.x einen Billigmodus à la Intel DP4a?
Wollen wirs hoffen. Ich mein, man soll die Hexe ja nicht zu früh verbrennen. Aber ggf. schon mal die Holzvorräte checken...
basix
2025-01-06, 13:13:53
Eventuell kriegt RDNA 3.x einen Billigmodus à la Intel DP4a?
Kann sein. Einen allgemeinen FP16 Pfad für alle anderen GPUs (auch Nvidia und Intel).
Wenn AMD aber "schlau" ist, machen sie vier Pfade:
- FP8 WMMA mit RDNA4
- FP16 WMMA mit RDNA3 (easy)
- FP16 Vektor mit allem anderen GPUs
- Block-FP16 Matrix via NPU (XDNA2 in Strix APUs)
Dass jetzt hier der Pfad für RDNA4 als erstes kommt, ist meines Erachtens nach verständlich. Unschön für uns, aber verständlich.
Edit:
Alternative, den FP16 WMMA Pfad gibt es auch für Nvidia und Intel GPUs mit Matrix-Cores. FP16 Vektor könnte dann dann wegfallen, falls man FSR4 nicht auch für die Konsolen runterbrechen will (PS5 Pro wohl schon).
Andron
2025-01-06, 13:44:35
Fsr4 Rdna4 exklusiv, hat man zumindest schon Mal ein Verkaufsargument.
Auf dem videocardz-Screenshot steht:"FSR 4 Upgrade Feature only available on AMD RX 9070 Series Graphics for supported Games with AMD FSR 3.1 [...]"
https://cdn.videocardz.com/1/2025/01/AMD-FSR4-9070.jpg
Zum Einen wären damit auch die kleineren RDNA4 GPUs raus, zum Anderen liest sich das, als gäbe es ein Treiberfeature, das FSR 3.1 in unterstützten Titeln zu FSR4 "upgraded". Konkrete RDNA4-Exklusivität wird nicht wirklich genannt.
Richtig Sinn ergibt das für mich aber alles nicht.
aufkrawall
2025-01-06, 13:48:01
Ggf. Treiber-Feature, um FSR 3.1 global auf 4 umzuleiten? Gibts ja von Nvidia auch, wenn auch offiziell in kaum bis keinem Titel.
AMD hat selbst das simple Video-Upscaling als Treiber-Feature nur für RDNA3 gebracht, genau wie Anti-Lag+. Aus der Perspektive ergibt diese kryptische Formulierung perfekten Sinn. :freak:
The_Invisible
2025-01-06, 13:50:32
Wär ja irgendwie "lustig" wenn es unterhalb 9070 nicht laufen würde? Eventuell zu wenig Leistung? Dann wäre <=rdna3 wohl auch sicher raus.
Andron
2025-01-06, 13:53:22
Ggf. Treiber-Feature, um FSR 3.1 global auf 4 umzuleiten?
Genau so vermute ich es auch. Würde eine künstliche Beschränkung auf vermutlich genau zwei Modelle aber komplett absurd wirken lassen, vor allem vor dem Hintergrund, dass man Marktanteile gewinnen und ggf. die Marktdurchdringung der eigenen Technologien verbessern möchte.
Hakim
2025-01-06, 13:57:04
Puh, erst der AVI Nachteil und jetzt noch Feature Beschränkungen, sieht nicht pralle aus für die kleineren RDNA4 Chips
Andron
2025-01-06, 14:15:22
Abwarten, die mutmaßlich auf Navi 48 basierende RX 9060 (XT) wäre laut der geleakten Folie auch raus. Ggf. wird heute nur die 9070 (XT) vorgestellt und das Feature ist zum Zeitpunkt der Vorstellung exklusiv auf diesen Karten verfügbar.
Wäre auch nicht das erste Mal bei AMD. Soweit ich mich erinnere, hieß es bei der Vorstellung der RX 5700 XT auch, dass Treiber-CAS exklusiv wäre. Wurde aber später für Vega und Co nachgereicht.
basix
2025-01-06, 14:16:31
Genau, offizielle und vor allem vollständige Infos abwarten ;)
The_Invisible
2025-01-06, 14:31:50
Genau so vermute ich es auch. Würde eine künstliche Beschränkung auf vermutlich genau zwei Modelle aber komplett absurd wirken lassen, vor allem vor dem Hintergrund, dass man Marktanteile gewinnen und ggf. die Marktdurchdringung der eigenen Technologien verbessern möchte.
Dazu muss man erst Mal Hardware verkaufen und einen besseren Moment gibt's eigentlich nicht. glaub aber schon das es auf alle 9000er läuft.
BlacKi
2025-01-06, 15:05:52
Genau so vermute ich es auch. Würde eine künstliche Beschränkung auf vermutlich genau zwei Modelle aber komplett absurd wirken lassen, vor allem vor dem Hintergrund, dass man Marktanteile gewinnen und ggf. die Marktdurchdringung der eigenen Technologien verbessern möchte.das problem sehe ich eben darin, das es eine breite front an rdna2/3 nutzer gibt und wenn die performance und preis nicht überzeugen, dann bleibt das auch so weiterhin. wenn dann auf diesen karten wegen mangelnde AI performance das fsr4 erlebnis kacke ist, dann trägt fsr4 einen marketing bzw. imageschaden davon. so nen scheiß macht nvidia auch genau deshalb nicht. und von nvidia lernen heißt siegen lernen.
hoffentlich leidet fsr4 nicht unter den erfahrungen der ganzen rdna2/3 nutzer. das sind haufenweise user die fsr4 wegen der mangelnden AI performance schlecht reden werden.
raffa
2025-01-06, 15:54:49
Wenn FSR4 erstmal nur als AutoFSR4 via FSR3.1 RDNA4 only verfügbar ist dann gibts das Problem ja nicht und die Presse lobt die gestiegene IQ - zumdem funktioniert es halt in jedem FSR3 spiel automatisch.
Vielleicht kein schlechter move.
XeSS ist auch keine gute Idee auf RDNA2, kann man zwar benutzen, frisst aber zu viel renderzeit und sieht imho schlechter aus als FSR3.1.2
Wir werden es ja in ein paar Stunden wissen, aber ich gehe davon aus, dass FSR4 ab RDNA3 funktionieren wird, aber nicht mehr auf RDNA2. AMD war bisher nie restriktiv mit solchen Features und RDNA4 braucht das nicht als Exklusivfeature, dafür ist das viel zu wenig verbreitet und würde dessen Verbreitung eher verhindern, sobald FSR4 auch auf RDNA3 läuft, wird man das definitiv aktivierten.
robbitop
2025-01-06, 16:41:50
Ich vermute, dass wir es nicht wissen werden. AMD räumt bei uneindeutigen "Details" Mehrdeutigkeiten nicht so oft aus. Ggf auch unbewusst um sich Dinge offen zu halten - ggf aber auch weil deren Kommunikation zu Wünschen übrig lässt.
Ich denke, dass FSR4 auch auf RDNA3 laufen wird, bei vermutlich, im Vergleich, schlechterer Performance und IQ. Da das SI der 9070 auch mit DDR7 umgehen kann, dann warte ich bis eine 9070 24GB DDR7, oder 32GB DDR6 released wird. Bin zwar grundsätzlich sehr zufrieden mit meiner 4090 aber der Treiber ist ein Graus!
BlacKi
2025-01-06, 20:03:29
omg, verkacken den stream direkt beim start... edit, finally
DrFreaK666
2025-01-06, 20:04:25
Ich dachte meine Kopfhörer sind kaputt ^^
prinz_valium_2
2025-01-06, 20:04:31
Ach. gib den halt ne Sekunde. Fehler müssen halt erst mal auftreten, bevor man sie beheben kann
Lehdro
2025-01-06, 20:05:12
omg, verkacken den stream direkt beim start... edit, finally
Neben den Tippfehlern auf den Folien der Hinweis, das es Legit ist und kein AI Slop :tongue:
BlacKi
2025-01-06, 20:05:30
wenigstens gaming direkt zum start
Hakim
2025-01-06, 20:07:08
Der arme Man, voll am Zittern
BlacKi
2025-01-06, 20:07:33
sieht so aus, als gäbe es wieder nur einen ccd mit x3d cache
Der_Korken
2025-01-06, 20:07:57
Der arme Man, voll am Zittern
Alter, das hab ich mir auch gedacht ;D
Hat vielleicht noch nicht oft auf so ner Bühne gestanden.
DeadMeat
2025-01-06, 20:10:29
Mal sehen obs mehr als (1) lieferbares Gerät mit mobile x3d diesmal gibt :D
Nakai
2025-01-06, 20:10:45
Boah, wie der grinst. Der ist super nervös.:D
prinz_valium_2
2025-01-06, 20:11:53
Alter, das hab ich mir auch gedacht ;D
Hat vielleicht noch nicht oft auf so ner Bühne gestanden.
Nein, der war schon für AMD auf solchen Präsentationen.
Hoffentlich nur normale Körperreaktion. Vllt Tagesform.
horn 12
2025-01-06, 20:12:32
Erst März 9950X3D verfügbar
crux2005
2025-01-06, 20:12:40
BOOoooooooooooooring
dargo
2025-01-06, 20:13:13
Erst März 9950X3D verfügbar
Falscher Thread!
Linmoum
2025-01-06, 20:14:19
LATER THIS QUARTER?!
DrFreaK666
2025-01-06, 20:14:25
WTF? XD
crux2005
2025-01-06, 20:14:53
WTF? XD
Let's talk about "gaming"...
... OK, let's shift gears.
;D;D;D;D
Das war dan wohl nix mit RDNA4 ;D
Relex
2025-01-06, 20:15:21
Ohh nein, sie machen wieder den "AMD" move. :facepalm:
Ich bin sprachlos.
The_Invisible
2025-01-06, 20:15:49
AMD macht AMD Sachen...
Linmoum
2025-01-06, 20:15:50
Alter, trollt der da jetzt oder was? AMDs Marketing war ja schon immer scheiße, aber das wäre echt mal ein komplett neues All-Time-Low.
Hakim
2025-01-06, 20:17:00
Häh, ich schau es mir nur wegen 9070XT an? Ich hoffe die kommen am Ende mit sowas wie One More Thing
prinz_valium_2
2025-01-06, 20:17:03
Ohh nein, sie machen wieder den "AMD" move. :facepalm:
Ja. Als ob man jemanden mit so nem Scheiß noch überraschen kann.
Einfach die Infos bringen, wofür die Leute da sind und gut ist.
Auch das macht nVdia besser. Auch wenn die genauso viel zu viel über AI und sonstiges in solchen Präsentationen sprechen
Vor allem, alle Custom-Modelle sind ja geleakt und fertig, worauf warten die?!?!
DrFreaK666
2025-01-06, 20:17:20
Wollen die erst abwarten wie Nvidias Preise werden?
Linmoum
2025-01-06, 20:17:32
Häh, ich schau es mir nur wegen 9070XT an? Ich hoffe die kommen am Ende mit sowas wie One More ThingEr hat gesagt, dass es mehr zu RDNA4 und FSR4 erst "later this quarter" geben wird.
raffa
2025-01-06, 20:17:37
AI PC ist doch viel spannender
AffenJack
2025-01-06, 20:17:39
Also entweder sie wollen extra nicht mit Nvidia launchen, weil es nicht allzu toll aussieht oder man ist mit den gpus noch nicht fertig. Das passt aber nicht zu dne Customs.
DeadMeat
2025-01-06, 20:17:50
videocardz meinte das es nicht mehr als eine Ankündigung geben wird ohne jede Details, scheint wohl gestimmt zu haben.
Ich vermute das auch fast
1.) FSR4 ist bestimmt wieder nicht fertig
2.) die wollen diesmal NV abwarten
raffa
2025-01-06, 20:19:27
eieiei, ich hab ja mit vielem gerechnet, aber damit nicht. nichtmal ein paperlaunchteaserdingens? come on!
Prinzenrolle
2025-01-06, 20:19:44
Also bisher ist das relativ mau. Kurz FSR4 angerissen, schnell weggeschaut und nen Happen gegessen und dann wars das schon wieder? mhm...
RDNA4 wird Lisas "One more thing".
Fuck you Steve.
prinz_valium_2
2025-01-06, 20:19:58
Er hat gesagt, dass es mehr zu RDNA4 und FSR4 erst "later this quarter" geben wird.
fuck du hast recht.
Relex
2025-01-06, 20:20:08
Wahrscheinlich kommt dann RX9000 ende des ersten Quartals mit der Ankündigung "FSR4 fall 2025" oder "later this year". Ich kann die Worte schon fast hören...
Dass wirklich gar keine Details genannt wurden ist schon seehr komisch.
raffa
2025-01-06, 20:21:10
Irgendwie wirkt es langsam, als wollen sie sich aus dem dGPU markt verabschieden
mboeller
2025-01-06, 20:21:18
videocardz meinte das es nicht mehr als eine Ankündigung geben wird ohne jede Details, scheint wohl gestimmt zu haben.
naja, aber selbst die RDNA4 Folien die ich hier gefunden habe, haben sie nicht gezeigt:
https://www.msn.com/zh-cn/news/other/amd-ces-2025-%E5%85%A8%E7%BA%BF%E6%96%B0%E5%93%81%E5%8F%91%E5%B8%83-%E5%BC%95%E9%A2%86%E9%AB%98%E6%80%A7%E8%83%BD%E4%B8%8Eai-pc%E6%96%B0%E6%97%B6%E4%BB%A3/ar-AA1x2SB8
(Thread erweitern, blauer Button)
Nakai
2025-01-06, 20:21:48
Vielleicht gibts noch einen "One More Thing" Moment...
Linmoum
2025-01-06, 20:22:06
Ich vermute das auch fast
1.) FSR4 ist bestimmt wieder nicht fertig
2.) die wollen diesmal NV abwartenInformationen zu RDNA4 abhängig von FSR4 zu machen, wäre schon ein richter AMD-Move. Also doch, könnte hinkommen.
Nvidia abzuwarten ist aber komplett albern, weil AMD nicht plötzlich mehr als vielleicht noch +5% herzaubert. Nicht mal einen Ausblick auf die Performance zu geben ist echt komplett bescheuert, selbst dann, wenn die Karten erst Ende des Quartals launchen (beim 9950X3D gab's auch Balken, obwohl der erst im März kommt...).
Die Karten scheinen IMO schlicht noch nicht fertig zu sein. Was wiederum die Frage aufwirft, was AMD hier so lange treibt. Das sind fast schon harte Vega-Vibes.
Ne, nicht komplett albern, wie wollen wissen, wie NV das bepreist, also 70 und 70Ti. Das werden die ja nicht heute sagen.
Der_Korken
2025-01-06, 20:23:42
naja, aber selbst die RDNA4 Folien die ich hier gefunden habe, haben sie nicht gezeigt:
https://www.msn.com/zh-cn/news/other/amd-ces-2025-%E5%85%A8%E7%BA%BF%E6%96%B0%E5%93%81%E5%8F%91%E5%B8%83-%E5%BC%95%E9%A2%86%E9%AB%98%E6%80%A7%E8%83%BD%E4%B8%8Eai-pc%E6%96%B0%E6%97%B6%E4%BB%A3/ar-AA1x2SB8
(Thread erweitern, blauer Button)
Arenalin AI mit "summarize local document" und "ask AMD related questions" klingt schon fast nach Troll.
Linmoum
2025-01-06, 20:24:08
Ne, nicht komplett albern, wie wollen wissen, wie NV das bepreist, also 70 und 70Ti.Ich sprach nicht von Preisen, sondern Performanceausblick.
DeadMeat
2025-01-06, 20:24:25
ich frage mich ob ich AI dafür nehmen kann überall AI rauszufiltern.
Prinzenrolle
2025-01-06, 20:25:36
Er hat gesagt, dass es mehr zu RDNA4 und FSR4 erst "later this quarter" geben wird.
Wie bitte? Wirklich?
dargo
2025-01-06, 20:26:05
ich frage mich ob ich AI dafür nehmen kann überall AI rauszufiltern.
;D
Ich brauche das auch... unbedingt! :D
Relex
2025-01-06, 20:26:25
Ne, nicht komplett albern, wie wollen wissen, wie NV das bepreist, also 70 und 70Ti. Das werden die ja nicht heute sagen.
Du redest über Preise, ich wäre schon froh gewesen, wenn es überhaupt irgendwie mehr Infos, als "RX9000 kommt" und "FSR4 AI Upscaling kommt" gegeben hätte. :freak:
Wir wissen trotz CES PK nicht mehr als vorher....
Der_Korken
2025-01-06, 20:26:40
ich frage mich ob ich AI dafür nehmen kann überall AI rauszufiltern.
Dann ist aber der Stream die ganze Zeit schwarz :(
Linmoum
2025-01-06, 20:26:56
Keine Ahnung, wie man es schafft, seine Gaming-GPU-Sparte derart an die Wand zu fahren wenn man sieht, dass es bei den CPUs klappt. Größeres/Wichtigeres Standbein hin oder her, aber da braucht man sich bei AMD echt nicht wundern, wenn sich keine Sau (mehr) für Radeons interessiert.
Prinzenrolle
2025-01-06, 20:27:11
Wie er oben vom Telepromter abliest. :D
Keine Ahnung, wie man es schafft, seine Gaming-GPU-Sparte derart an die Wand zu fahren wenn man sieht, dass es bei den CPUs klappt.
Schmeißt doch den Ring noch nicht ins Feuer.
Keine Ahnung, wie man es schafft, seine Gaming-GPU-Sparte derart an die Wand zu fahren wenn man sieht, dass es bei den CPUs klappt. Größeres/Wichtigeres Standbein hin oder her, aber da braucht man sich bei AMD echt nicht wundern, wenn sich keine Sau (mehr) für Radeons interessiert.
Ich hab ja den Verdacht, dass man das eh kompett an sony abgibt.
raffa
2025-01-06, 20:29:40
ich frage mich ob ich AI dafür nehmen kann überall AI rauszufiltern.
Ich kauf das!
horn 12
2025-01-06, 20:30:44
Da gefriert echt die Hölle zu bei AMD
Lisa Su - Rette uns noch zum Schluss - Bitte
Amen!
Nightspider
2025-01-06, 20:31:25
wtf
Sumpfmolch
2025-01-06, 20:32:27
Als hätte man die Show gestern Nachmittag erst zusammengebastelt.
rumpeLson
2025-01-06, 20:32:46
Das Anteasern von FSR 4 erinnert sehr unangenehm an die Ankündigung von FSR 3 damals :|
Ich wünschte AMD würde Technologien erst ankündigen, wenn man auch was handfestes zu zeigen hat und das Ganze dann auch zeitnah in Spielen landet.
DrFreaK666
2025-01-06, 20:32:48
Vorfreude ist die schönste Freude :freak:
War es irgendwo offiziell angekündigt das man was über RDNA4 oder FSR4 sehen wird auf der CES? Hört doch mal auf hier rum zu spammen.... Kann hier eine AI mal aufräumen? ;D
DeadMeat
2025-01-06, 20:33:38
Als hätte man die Show gestern Nachmittag erst zusammengebastelt.
gestern?
Der_Korken
2025-01-06, 20:34:20
RDNA4 also wohl noch nicht fertig. Was kommt als nächstes? Die 9070XT ist, wie in einigen Gerüchten genannt, vielleicht doch kaum schneller als die 7900GRE bei trotzdem gleichen Verbrauch. Da wartet AMD verständlicherweise lieber ab, wo Nvidia die 5070 non-Ti preislich ansetzt, damit sie wissen, wo sie selber drunter bleiben müssen.
Linmoum
2025-01-06, 20:34:29
War es irgendwo offiziell angekündigt das man was über RDNA4 oder FSR4 sehen wird auf der CES? Hört doch mal auf hier rum zu spammen.... Kann hier eine AI mal aufräumen? ;DJa, auf einer Consumer-Messe entsprechende Consumer-Produkte vorzustellen... Wer kommt auf so eine Idee? Da muss Enterprise kommen, wie man es gerade sieht! :freak:
Die ist bestimmt schon seit Herbst fertig. Aus irgendeinem Grund will man aber einfach nicht.
prinz_valium_2
2025-01-06, 20:35:21
Ich hab ja den Verdacht, dass man das eh kompett an sony abgibt.
Was sollen die damit?
Zu teuer, zu viel Risiko, keine Querfinanzierung, keine Benefits
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.