PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15

GerryB
2023-04-25, 04:13:08
In 4k lohnt sich schon die 7900XTX ggü. ner ollen 6800xt.

die min Fps in DI2 sehen deutlich besser aus

DI2 kann man natürlich net verallgemeinern, ist halt ein typisches Game wo die 6800xt ggü. der 3080FE abfällt.
(aber in Zukunft werden halt mehr Games kommen, wo green großen Einfluss auf die Studios hat)

dildo4u
2023-04-25, 04:56:04
Die aktuellen Konsolen nutzen RDNA2, eher wird es sich in Zukunft dahin verschieben.
Wir haben kaum echte Next-Gen Games um zu bewerten wie die Zukunft aussieht.
Dazu fehlen Unreal Engine 5 Games wie Stalker 2 und Hellblade 2 etc.

Taigatrommel
2023-04-25, 09:22:53
Es kommt halt auf den Titel an, in manchen Spielen prescht die XTX gegenüber den RDNA2 Flaggschiffen 6900/6950 XT schon gut voran. Ich spiele es selber nicht, doch laut CB z.B. hat die XTX im Resident Evil 4 Remake ein Leistungsplus von über 50% im Raster, mit RT sind es noch immer über 40%. Die Redaktion berichtet auch in Hogwarts Legacy ein Leistungsplus von gut 50% gegenüber der 6900 XT, ähnliches wird dort über Forspoken berichtet.

Schaut man zu PCGH, dann misst man dort z.B. in Plague Tale: Requiem ebenfalls einen Leistungssprung von über 50%, laut deren Messungen werden auch in Call of Duty MW2 die 50% fast erreicht.

Hardwareluxx sieht in Resident Evil Village knapp 50% Mehrleistung, dort jedoch mit RT aktiviert. Hier sagt man die 50% auch Spider Man Remastered zu. Den eher älteren Titel Control hat man leider nur mit RT gemessen, doch hier sieht man über 60% höhere Leistung. Ohne RT allerdings ebenfalls älter hat Shadow of the Tomb Raider ein Plus von über 50%.


Natürlich gibt es auch immer wieder Ausreißer nach unten, wo dann teilweise nur 25-30% mehr Leistung bei rauskommen.

DrFreaK666
2023-04-25, 09:45:31
Weshalb Cherry Picking nicht sinnvoll ist und man das Gesamte anschauen sollte, außer man spielt tatsächlich nur 1-2 Spiele

vinacis_vivids
2023-04-25, 10:45:37
Bei UHD@TPU N21XTX zu N31XTX

Plague Tale: Requiem sind es 46,6fps zu 74,8fps +60%
AC : Vahalle sind es 60,7fps zu 92fps +51,5%
Control sind es 46,9fps zu 71,7fps +52,8%
CP2077 sind es 38,7fps zu 61,7fps +59,4%
Dying Light 2 sind es 54,7 zu 84,2fps +53,9%
GoW sind es 64,9fps zu 101,9fps +57%
Halo Inf. sind es 61,6fps zu 90fps +46%
Metro Ex. sind es 96,2fps zu 140,6fps +46%
M&B Bannerlord sind es 96,2fps zu 140,6fps +45%
RDR2 sind es 69,1fps zu 104,1fps +50,6%
RE Village sind es 122,4fps zu 181,9fps +48,6%
Spider Man sind es 78,3fps zu 120,6fps +54%
Callisto sind es 56,2fps zu 83,6fps +48%
Wichter 3 sind es 107,3fps zu 156,7fps +46%
TW Warhammer 3 sind es 43,5fps zu 77,1fps +77%
Watch Dogs sind es 60,6fps zu 90,8fps +49,8%

Der Leistungssprung ist schon erheblich. In anderen Titeln wo N21XTX schon bei >100fps landet sind die Sprünge kleiner Aufgrund der CPU-Limits oder auch Engine-Limits.

Raff
2023-04-25, 10:56:53
In 4k lohnt sich schon die 7900XTX ggü. ner ollen 6800xt.

die min Fps in DI2 sehen deutlich besser aus

DI2 kann man natürlich net verallgemeinern, ist halt ein typisches Game wo die 6800xt ggü. der 3080FE abfällt.
(aber in Zukunft werden halt mehr Games kommen, wo green großen Einfluss auf die Studios hat)

Hier gibt's übrigens eine Tonne weiterer GPU-Werte mit Grafikkarten seit 2015: https://www.pcgameshardware.de/Dead-Island-2-Spiel-56440/Specials/Release-Steam-Benchmark-Test-Systemanforderungen-1417963/3/#a1 =)

Der Nutzen einer XTX in 4K steht IMHO nie in Frage. Hohe Auflösungen sind das, was Navi 31 gut kann - wie Ampere.

MfG
Raff

rm-zocker
2023-04-25, 12:58:31
Bei UHD@TPU N21XTX zu N31XTX

Plague Tale: Requiem sind es 46,6fps zu 74,8fps +60%
AC : Vahalle sind es 60,7fps zu 92fps +51,5%
Control sind es 46,9fps zu 71,7fps +52,8%
CP2077 sind es 38,7fps zu 61,7fps +59,4%
Dying Light 2 sind es 54,7 zu 84,2fps +53,9%
GoW sind es 64,9fps zu 101,9fps +57%
Halo Inf. sind es 61,6fps zu 90fps +46%
Metro Ex. sind es 96,2fps zu 140,6fps +46%
M&B Bannerlord sind es 96,2fps zu 140,6fps +45%
RDR2 sind es 69,1fps zu 104,1fps +50,6%
RE Village sind es 122,4fps zu 181,9fps +48,6%
Spider Man sind es 78,3fps zu 120,6fps +54%
Callisto sind es 56,2fps zu 83,6fps +48%
Wichter 3 sind es 107,3fps zu 156,7fps +46%
TW Warhammer 3 sind es 43,5fps zu 77,1fps +77%
Watch Dogs sind es 60,6fps zu 90,8fps +49,8%

Der Leistungssprung ist schon erheblich. In anderen Titeln wo N21XTX schon bei >100fps landet sind die Sprünge kleiner Aufgrund der CPU-Limits oder auch Engine-Limits.

N21XTX ist doch die 6950XT oder? wieviel Prozente kommen dann noch einmal rauf wenn man wie ich eine 6900XT Stock Referenz benutzt?

gedi
2023-04-25, 13:20:24
N21XTX ist doch die 6950XT oder? wieviel Prozente kommen dann noch einmal rauf wenn man wie ich eine 6900XT Stock Referenz benutzt?

~10%

Raff
2023-04-25, 13:21:38
Eher 5-7. Der Unterschied lässt sich mit einer 6900 XT jedenfalls "hertakten". :)

MfG
Raff

Langlay
2023-04-25, 13:22:44
N21XTX ist doch die 6950XT oder? wieviel Prozente kommen dann noch einmal rauf wenn man wie ich eine 6900XT Stock Referenz benutzt?


Navi21 XTX ist 6900XT, Navi21 KXTX ist 6950XT.

dargo
2023-04-25, 13:23:46
Eher 5-7. Der Unterschied lässt sich mit einer 6900 XT jedenfalls "hertakten". :)

MfG
Raff
Jepp... bei CB ist es genau die Mitte mit 6%.

Taigatrommel
2023-04-25, 13:27:14
Genau, die 6950 XT ist ja im Endeffekt nichts weiter als eine höher getaktete 6900 XT mit dazu erweitertem Powerlimit. Wenn man eine gute 6900 XT hat, dürfte man mit einer 0815 6950 XT vermutlich beinahe Gleichstand erreichen.

Lehdro
2023-04-25, 14:18:07
Navi21 XTX ist 6900XT, Navi21 KXTX ist 6950XT.
6900XT kann XTX (Referenz/Partnermodell) oder XTXH (https://www.computerbase.de/2021-12/amd-rx-6900-xt-xtx-review-test/#abschnitt_xtxh_wenn_die_beste_radeon_kaum_einer_kennt) (OC-Partnermodell) sein.
6950XT ist KXTX.

dargo
2023-04-25, 14:35:51
Ist doch völlig latte ob XTX, XTXH oder KXTX. Wenn ein AIB bei ner 6900XT 280-290W ASIC freigibt dann hast du praktisch eine 6950XT.

vinacis_vivids
2023-04-25, 15:11:32
2,6-2,7Ghz Taktwall für alle N21 Chips.

dargo
2023-04-25, 15:53:40
Nö... steht auch im Link von Lehdro.
2.800 MHz sind stabil möglich
Dabei wird die Navi-21-GPU durchweg vom Power-Limit eingebremst, denn wenn es das nicht gäbe, könnte die GPU noch einmal einen deutlich höheren Takt ausfahren. Selbst mit satten 2.800 MHz läuft die Grafikkarte noch absolut stabil, doch liegen sie eben nur bei geringer Last an.

Linmoum
2023-04-25, 15:54:40
Meine 6900XT hab ich damals auch auf >2.7GHz bekommen. War allerdings Wasser und nicht Luft.

Raff
2023-04-25, 16:12:09
Jo, für 2,7 GHz braucht's schon etwas Glück und vor allem Power - Modelle, die weniger als 350 Watt GPU-Power bereitstellen, machen's schwerer. Die RX 6900 XT LC mit ihren maximal 325 Watt GPU-Power stemmt 2,7 GHz beispielsweise mit einer handgeschnitzten Einstellung nicht überall, weil powerlimitiert.

MfG
Raff

The_Invisible
2023-04-25, 18:33:28
Die aktuellen Konsolen nutzen RDNA2, eher wird es sich in Zukunft dahin verschieben.
Wir haben kaum echte Next-Gen Games um zu bewerten wie die Zukunft aussieht.
Dazu fehlen Unreal Engine 5 Games wie Stalker 2 und Hellblade 2 etc.

Hätte dann für UE4 auch schon gelten müssen, ps4/Xbox one hatten auch schon AMD GCN

Langlay
2023-04-25, 18:35:27
Hätte dann für UE4 auch schon gelten müssen, ps4/Xbox one hatten auch schon AMD GCN

Wir wissen nicht wie schieße es für AMD Desktopgraka gelaufen wäre, wenn es die AMD Tech nicht in den Konsolen gegeben hätte.

horn 12
2023-04-25, 18:55:55
@Dargo

Die Hellhound 7900XTX in Weis hat 11 bis 20 Watt Idle Verbrauch
KEIN Spulenfiepen und soll enorm gut sein von den Komponenten her.
Hat man da die Spulen optimiert,- bzw. eingegossen?


Forumdelux.als Quelle:

https://www.hardwareluxx.de/community/threads/amd-rdna3-smalltalk-thread.1319336/page-152

DrFreaK666
2023-04-25, 19:20:46
Hätte dann für UE4 auch schon gelten müssen, ps4/Xbox one hatten auch schon AMD GCN

In letzter Zeit gibt es vermehrt AMD gesponserte Spiele. Wenigstens da passiert etwas.
Dummerweise waren viele verbuggt ^^
Dead Island 2 scheint da eine Ausnahme zu sein

Der_Korken
2023-04-25, 19:28:14
@Dargo

Die Hellhound 7900XTX in Weis hat 11 bis 20 Watt Idle Verbrauch
KEIN Spulenfiepen und soll enorm gut sein von den Komponenten her.
Hat man da die Spulen optimiert,- bzw. eingegossen?


Forumdelux.als Quelle:

https://www.hardwareluxx.de/community/threads/amd-rdna3-smalltalk-thread.1319336/page-152

Ich hoffe, dass Powercolor die Serie beibehält und für meinen nächsten GPU-Kauf ein weißes Modell abfällt. Die Hellhound-Modelle scheinen mir auch von der Dimensionierung eher völlig ausreichend zu sein, da ich eh undervolten und drosseln würde.

Taigatrommel
2023-04-25, 19:30:21
@Dargo

Die Hellhound 7900XTX in Weis hat 11 bis 20 Watt Idle Verbrauch
KEIN Spulenfiepen und soll enorm gut sein von den Komponenten her.
Hat man da die Spulen optimiert,- bzw. eingegossen?


Forumdelux.als Quelle:

https://www.hardwareluxx.de/community/threads/amd-rdna3-smalltalk-thread.1319336/page-152
Vermutlich sind dort schlicht und ergreifend andere Rahmenbedingungen vorhanden. Es würde mich schwer wundern, wenn Powercolor für die weiße Variante etwas am PCB verändert hätte. Es ist ja nun schon länger bekannt, dass die Problematik von mehreren Dingen beeinflusst werden kann.

Auch am Verbrauch sehe ich nichts Auffälliges: Es werden 11 bis 20 Watt berichtet - mit einem 60 Hz Monitor. Auf meinem Ultrawide mit 175 Hz schwankt der Verbrauch zwischen 13 und 20 W auf dem Desktop.

dargo
2023-04-25, 19:47:24
Vermutlich sind dort schlicht und ergreifend andere Rahmenbedingungen vorhanden. Es würde mich schwer wundern, wenn Powercolor für die weiße Variante etwas am PCB verändert hätte. Es ist ja nun schon länger bekannt, dass die Problematik von mehreren Dingen beeinflusst werden kann.

Verflucht... und ich dachte schon eine weiße Lackierung würde Spulenfiepen-/rasseln verhindern. ;D

btw.
Mein Hauptkritikpunkt sind nicht die Spulen bei N31 sondern hauptsächlich sein Durst gepaart mit zu wenig Performancebums für einen Fullnodesprung.

HOT
2023-04-25, 19:55:35
Jo man bekommt den Takt+Spannung nicht in sinnvolle Bereiche, in denen man 200 oder 250W unter Vollast ernsthaft betreiben könnte beispielsweise.
MMn liegt das aber tatsächlich mit am Chiplet-Design, ich denke unter Vollast muss man bis zu 50W mehr einkalkulieren für die sehr breiten Anbindungen zwischen den MCDs und dem GCD. AMD selbst spricht ja von 10%, das wäre genau der Unterschied, den man bräuchte, um den Fullnode-Sprung wirklich effizient zu machen. Chill hilft bei Spielen, die Pseudo-2D sind, wie Pillars of Eternity beispielsweise aber sehr, um den Durst zu bändigen. Bei echten 3D-Titeln muss man sich aber mit den 300W (-10% Power) leider abfinden. Alles darüber ist aber mMn aber echt sinnlos. Vielleicht kann man druch mehr Power noch ein paar % mehr für RT rausholen, wenn man das unbedingt haben will.

Nachdem ich jetzt aber recht viel RT probiert hab in etlichen Titeln, bin ich doch etwas ernüchtert, was den Optikgewinn angeht - viele Spiele wirken halbgar in der Hinsicht, es gibt nicht selten optische Nachteile wie unpräzige Schatten oder sowas, vielen Spielen, vor allem Cyberpunk ist mir da negativ aufgefallen, merkt man einfach an, dass es für Rasterizing optimiert wurde, vor allem in der Performance, aber auch vom optischen Content her - trotz massivem RT-Einsatz hält sich der Nutzen doch in Grenzen. Allerdings bin ich jetzt auch nicht der Typ der etlichen Spieglungen hinterherguckt, wenn es glaubhaft simuliert ist, reicht mir das. Hinzu kommt dieses massive Lag auf den RT-Spieglungen bei CP77, was mir extrem negativ aufgefallen ist. PT ist zwar nett, wahrscheinlich sogar ein echter Fortschritt, aber auch hier würde ich eher ein Spiel sehen, was dafür wirklich gemacht wurde. Aber spielbar ist sowas vielleicht in 2 Generationen, dann kräht eh kein Hahn mehr nach RDNA2 und 3 RT-Performance. Nur für Lumen in UE5 wird RT mMn wirklich wichtig werden, aber das wird sicherlich allein schon wegen der Konsolen vor allem auf RDNA2 optimiert werden.
Ich hatte mich eigentlich auf ne 4080 eingeschossen und hatte bereits die PNY 4080 Verto XL8R seit einiger Zeit im Blick um ein Angebot abzupassen, dass ich jetzt die Hellhound gekauft hab, war also qussi ein Unfall - letztendlich bin ich aber froh, 200€ gespart zu haben und auch 24GB zu haben, sodass die Karte in Würde 4 Jahre nutzbar ist.

gedi
2023-04-25, 20:19:46
2,6-2,7Ghz Taktwall für alle N21 Chips.

Nope, die Sapphire 6900 xtx ee konnte mit guter WLP auch mit 3g umgehen. Im Raster war se so eigentlich schneller als ne 3090ti, welche ich auch verbaut hatte. Das Problem war ganz einfach der Verbrauch bei N21, denn da gingen mehr als 500w durch die Leitung, ohne mit der Nitro+ bei 363w irgendwo konkurrieren zu können.

vinacis_vivids
2023-04-25, 20:29:10
Seltene 8K Benchmark : Half-Life Alyx

https://abload.de/thumb/halflifealyx8kbenchma9rch9.png (https://abload.de/image.php?img=halflifealyx8kbenchma9rch9.png)

Nvidia zeigt Bandbreitenorobleme mit sehr schlechten min. fps. Der eingebaute Cache hat wohl nur noch wenige Treffer bei 8K.

N21 mit 128MB IF$ schlägt sich gut.

8k braucht 12,6 - 15GB VRAM. Alles Vulkan.

=Floi=
2023-04-26, 00:03:46
Die aktuellen Konsolen nutzen RDNA2, eher wird es sich in Zukunft dahin verschieben.


Das ging noch nie auf und wird es auch nicht. Der pc ist ne andere baustelle.
Auch wird bis dahin RDNA2 sowieso veraltet sein und unterm strich wird es weiterhin auf dem PC anders skalieren. Selbst wenn es EINEN titel gibt, gibt es 10 andere denen es egal ist.

=Floi=
2023-04-26, 00:42:01
und soll enorm gut sein von den Komponenten her.


Forumdelux.als Quelle:

https://www.hardwareluxx.de/community/threads/amd-rdna3-smalltalk-thread.1319336/page-152


du phantasierst schon wieder was dazu. Da ist dort nichts bestätigt. Es ist auch viel wichtiger, dass die masse an karten alle das selbe verbaut hat und dort nichts beanstandet wurde.

horn 12
2023-04-26, 18:38:21
Warum dies...
Heisskleber oder bessere Spannungswandler sollten kaum ins Gewicht fallen.
Obwohl bei 100.000-ten Stückzahlen ... aber die muss man erst mal beliefert bekommen.

OgrEGT
2023-04-28, 07:07:23
https://videocardz.com/driver/amd-radeon-software-adrenalin-23-4-3
Neuer Treiber :)

Raff
2023-05-04, 19:47:26
4070 Ti vs. 7900 XT: Duell unter 900 € | Performance, Preis/Leistung, Effizienz und Tuning-Optionen:

FfFKuwf2UdA

Im Kern nichts Neues, nur die aktuelle Vorstellung der beiden Oberklasse-Karten gegenübergestellt (inkl. Benchmarks mit aktuellen Treibern und genauem Nachtest der Radeon'schen Leerlauf-Leistungsaufnahme).

MfG
Raff

Bandit3644
2023-05-04, 20:31:05
4070 Ti vs. 7900 XT: Duell unter 900 € | Performance, Preis/Leistung, Effizienz und Tuning-Optionen:

https://youtu.be/FfFKuwf2UdA

Im Kern nichts Neues, nur die aktuelle Vorstellung der beiden Oberklasse-Karten gegenübergestellt (inkl. Benchmarks mit aktuellen Treibern und genauem Nachtest der Radeon'schen Leerlauf-Leistungsaufnahme).

MfG
Raff

Ich weiß ja nicht wie ihr das testet aber bei mir ist der Verbrauch im Leerlauf völlig in Ordnung.
Treiber: 23.4.3 und die Karte ist eine XFX 7900XT MBA
https://i.postimg.cc/15RL74q9/1.jpg (https://postimg.cc/vDjqcYhj)

Mannyac
2023-05-04, 20:41:36
Ich hab nichts gemacht und der Verbrauch ist nicht in Ordnung ;)
Mit 120Hz dann wieder besser.

aufkrawall
2023-05-04, 20:45:07
Kann sein, dass RDNA3 fürs VRAM-Heruntertakten wieder noch zickiger beim vertikalen Blanking-Timing ist (heißt ein höheres erfordert) als RDNA2. Da bislang immer noch keine Custom-EDID gehen soll, kann man es leider nicht ausprobieren...

Raff
2023-05-04, 21:11:23
Das Kuriose ist, dass das Verhalten nicht wirklich schlüssig ist. Man kann nur festhalten, dass eine hohe Bildwiederholrate die Wahrscheinlichkeit auf hohe Leistungsaufnahme drastisch erhöht, während 60 Hz eigentlich immer bedeutet, dass alles dufte ist. Eine Geforce steckt das deutlich lockerer weg, insofern kann das für Nicht-nur-Spieler ein Dealbreaker sein. Ich betreibe meine Geforce RTX 3090 Ti auf dem Desktop übrigens auch nicht mit 4K144, sondern 4K98, denn dann sind's zehn Watt weniger. Bei Ada ist das nicht so deutlich.

MfG
Raff

BlacKi
2023-05-04, 21:21:21
macht hdmi vs DP den unterschied? ich finde die verbräuche auch so verwirrend. meine 7900xtx hat in 4k 120 hz hdmi 2.1 auch "nur" 30w auf dem desktop gefressen. ich dachte es wäre mittlerweile besser. denn bei 80w gehen definitiv die lüfter an.

edit: schreib mal Wahrscheinlichkeit in kursiv und fett. denn das scheint mir fast random.

aufkrawall
2023-05-04, 21:27:38
Eine Geforce steckt das deutlich lockerer weg
Ja, momentan etwa mit tollen DPC-Latency-Spikes durch die VRAM-Taktung, die dadurch noch mehr Ruckler bei Desktop und Video mit GeForce macht als ohnehin schon...

Taigatrommel
2023-05-04, 23:13:07
macht hdmi vs DP den unterschied? ich finde die verbräuche auch so verwirrend. meine 7900xtx hat in 4k 120 hz hdmi 2.1 auch "nur" 30w auf dem desktop gefressen. ich dachte es wäre mittlerweile besser. denn bei 80w gehen definitiv die lüfter an.

edit: schreib mal Wahrscheinlichkeit in kursiv und fett. denn das scheint mir fast random.
Mein Monitor ist über DP angeschlossen, läuft mit 175 Hz und die Karte zieht rein auf dem Desktop so im Schnitt ca. 17 W, hier mit geöffnetem Browser gerade ~27 W.

Also kann es ja scheinbar auch nicht gänzlich von der Bildwiederholfrequenz abhängig zu sein. Ich habe auch mehrfach geschaut, der Monitor wird wirklich mit 175 Hz betrieben.

horn 12
2023-05-05, 06:52:28
Hast nicht auch, so wie ich einen Alienware 3423DW
Oder irre ich mich da gewaltig?

MSABK
2023-05-05, 07:22:09
Gab es eigentlich inzwischen den „Wundertreiber“ der den chip entfesseln sollte bzw spekuliert wurde? Stromverbrauch hat man ja nicht im Griff soweit stand jetzt.

dargo
2023-05-05, 07:29:32
Stromverbrauch hat man ja nicht im Griff soweit stand jetzt.
Blödsinn.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13273972&postcount=2009
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13278172&postcount=2102

N31 zog bei mir exakt 1 Watchen mehr als N21.

MSABK
2023-05-05, 07:38:58
Aber Amd selber schreibt ja dass es Probleme gibt in den Change Logs der Treiber.

OgrEGT
2023-05-05, 07:54:05
Bei meiner 7900XT Nitro ebenfalls keine Probleme mit Idle Verbrauch...

Exxtreme
2023-05-05, 08:37:12
Aber Amd selber schreibt ja dass es Probleme gibt in den Change Logs der Treiber.

Unter bestimmten Multimonitor-Setups passiert das. Ich glaube, das kann passieren wenn man verschiedene Monitore hat, die mit Bildwiederholfrequenzen laufen, die keinen geraden Teiler haben.

MSABK
2023-05-05, 08:58:53
Ok, dann scheint da viel Wind um wenig gemacht zu werden.

HOT
2023-05-05, 09:08:23
Bei meiner Hellhound sind es 15-20W @ default im Silent BIOS mit 240Hz im idle. Manchmal springt er auf 30W hoch, wenn man viel macht. YT 44W.

Wiseman
2023-05-05, 09:25:10
Gab es eigentlich inzwischen den „Wundertreiber“ der den chip entfesseln sollte bzw spekuliert wurde? Stromverbrauch hat man ja nicht im Griff soweit stand jetzt.

Very funny. ;D

Bei meiner Hellhound 7900XTX habe ich auf einem 4k-Desktop 144Hz in Idle meistens eine TBP von 12W. Gelegentlich etwas höher, pendelt sich aber schnell wieder bei 12W ein.

RoNsOn Xs
2023-05-05, 09:30:24
Wenn die Maus stillsteht. Bewegst du allerdings die Maus, arbeitest du mit Fenstern, Browser, etc. hast du schnell das vierfache.

Exxtreme
2023-05-05, 10:31:23
Ok, dann scheint da viel Wind um wenig gemacht zu werden.

Ja, ist so. Es ist so, der Wechsel der RAM-Taktfrequenz kann Bildschirmflackern und kurze Blackscreens auslösen. Deshalb nutzt AMD das Vblank-Zeitfenster um die Taktfrequenz des RAMs zu ändern. Dann tritt das Flackern nicht auf. Laufen die Monitore aber mit zueinander krummen Bildwiederholfrequenzen dann ist das schwer für alle Monitore ein gemeinsames Vblank-Zeitfenster zu bekommen. Und dann lässt AMD den RAM immer mit vollem Takt laufen um dieses Flackern zu verhindern. Weil das sehr nervend sein kann wenn der Bildschirm andauernd flackert.

Wenn man die Monitore aber mit zueinander geraden Bildwiederholfrequenzen betreibt dann geht das wiederum problemlos. Also wenn ein Monitor mit 60 Hz läuft dann sollte man die anderen Monitore mit 60 oder 120 oder 180 oder 240 etc. laufen lassen. Also eine Bildwiederholfrequenz, die man durch 60 teilen kann, ohne dass am Ende eine Zahl mit Nachkommastellen rauskommt.

Ich will aber nicht ausschliessen, dass AMD eventuell noch andere Probleme hat. Denn Multimonitor-Betrieb wird in den Treiberanmerkungen nicht explizit erwähnt.

Rush
2023-05-05, 11:10:50
SAPPHIRE Radeon RX 7900 XT PULSE 20GB - Custom XT erstmals unter 800 Flocken @ Alternate (https://www.alternate.de/SAPPHIRE/Radeon-RX-7900-XT-PULSE-20GB-Grafikkarte/html/product/1888730?zanpid=11731_1683277561_c4eadaf8b6214f939f92a09d8e11fcd8&awc=11731_1683277561_c4eadaf8b6214f939f92a09d8e11fcd8&partner=dezanoxtextlink&campaign=AF/DeZanox/Textlinks/Alternate)

Lurtz
2023-05-05, 13:41:06
Puh, da zuckt jetzt ernsthaft der Bestellfinger. Unter 500€ wenn ich meine 3070 noch ordentlich losbekäme, schön milchmädchenhaft gerechnet ;)

Kann man bei der Karte die üblichen minus 10% Powerlimit einstellen?

Aber das Geld und dann liefe ein Witcher 3 mit RT immer noch nicht vernünftig... X-D Zumal ja gerade DLSS3 in immer mehr Titel reingemoddet wird.

dargo
2023-05-05, 16:47:03
Kann man bei der Karte die üblichen minus 10% Powerlimit einstellen?

Das geht bei jedem N31. Die Pulse XT hat aber afaik 330W als PT mit einem einzigen Bios. Ergo min 297W. Wobei das mit den 330W nicht so ganz hinkommen kann denn Igor misst 6W mehr als bei der Referenz.
https://www.igorslab.de/sapphire-radeon-rx-7900-xt-20gb-im-test-die-guenstigere-variante-ist-nicht-die-schlechteste-mit-community-verlosung/6/

DSD512
2023-05-06, 02:44:59
Asrock 7900 XTX durch 4080 ersetzt.

Beistift: F4 (3440x1440xUltra Setting)
Fazit: Weniger Stromverbrauch (100 Watt) + Höher FPS mit 4080

https://abload.de/img/22242enm.png (https://abload.de/image.php?img=22242enm.png)
https://abload.de/img/333xrfdy.png (https://abload.de/image.php?img=333xrfdy.png)
https://abload.de/img/44439cr1.png (https://abload.de/image.php?img=44439cr1.png)

dildo4u
2023-05-06, 08:47:11
Die Engine scheint RDNA3 nicht zu liegen 6950XT=7900XT.

https://abload.de/img/fh5hjselv.png

https://www.techspot.com/review/2589-amd-radeon-7900-xt/


Schätze mal das wurde bis Heute nicht gefixt.

dargo
2023-05-06, 14:59:56
Weiße Hellhound XTX fiept nicht... laut Horni. ;)
https://geizhals.de/?sr=2928776,-1

horn 12
2023-05-06, 15:27:27
Kauf dir die Pulse XT und gib mir bitte bei Gefallen das Game dann für´n Dreissiger.
Wäre eine Abmachung!

Taigatrommel
2023-05-06, 15:31:06
Weiße Hellhound XTX fiept nicht... laut Horni. ;)
https://geizhals.de/?sr=2928776,-1
Es scheinen ja alle Karten zu fiepen, Igor hat dies sogar bei der Nitro+ erwähnt, auch wenn sich das Spulenkonzert wohl in Grenzen hält. Von daher einfach gar keine mehr kaufen, Problem gelöst :freak:

Wiseman
2023-05-06, 17:57:23
Die Engine scheint RDNA3 nicht zu liegen 6950XT=7900XT.

https://abload.de/img/fh5hjselv.png

https://www.techspot.com/review/2589-amd-radeon-7900-xt/

Schätze mal das wurde bis Heute nicht gefixt.

Es könnte sein, dass die Engine RDNA3 nicht richtig erkennt, weil bei "Suggested Preset" immer noch (Stand 23.4.3) fälschlicher Weise "Low" steht.

Andererseits reicht es für eine 7900XTX, den angeblichen Hauptkonkurrenten 4080 locker in Schach zu halten und das obwohl im Extreme-Preset Raytracing = High verwendet wird. (Siehe meinen heutigen FH5-Test.)

dargo
2023-05-06, 19:47:10
Kauf dir die Pulse XT und gib mir bitte bei Gefallen das Game dann für´n Dreissiger.
Wäre eine Abmachung!
Da ich die 7900XT Pulse (gilt natürlich für jede XT) nicht auf 250-260W powerlimitiert bekomme wird das wohl nichts. Mit mehreren Profilen zu arbeiten (Verbrauch über Taktlimit generieren), da habe ich ehrlich gesagt nicht wirklich Bock drauf.

The_Invisible
2023-05-06, 20:10:17
Asrock 7900 XTX durch 4080 ersetzt.

Beistift: F4 (3440x1440xUltra Setting)
Fazit: Weniger Stromverbrauch (100 Watt) + Höher FPS mit 4080

https://abload.de/img/22242enm.png (https://abload.de/image.php?img=22242enm.png)
https://abload.de/img/333xrfdy.png (https://abload.de/image.php?img=333xrfdy.png)
https://abload.de/img/44439cr1.png (https://abload.de/image.php?img=44439cr1.png)

Wär ja die ideale Karte für dargo :freak:

Raff
2023-05-06, 23:51:35
Die Engine scheint RDNA3 nicht zu liegen 6950XT=7900XT.

Schätze mal das wurde bis Heute nicht gefixt.

So ist es. Aktuelle Werte (April-Treiber) - bisschen schneller ist eine 7900 XT schon: https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Preis-Release-Specs-Founders-Edition-1417027/3/#a3

MfG
Raff

dildo4u
2023-05-07, 07:04:04
Ist das wirklich maxt weil dann müsste es ja in den RT Parkour.

Ex3cut3r
2023-05-07, 18:39:34
Wär ja die ideale Karte für dargo :freak:
+1

Aber eher friert die Hölle zu, als Dargo sich eine GeForce holt. Diese Fanboys limitieren sich halt selber. :biggrin:

just4FunTA
2023-05-07, 19:28:42
+1

Aber eher friert die Hölle zu, als Dargo sich eine GeForce holt. Diese Fanboys limitieren sich halt selber. :biggrin:

Naja der Preis der 4080 ist aber auch lächerlich. für 700€ wäre die karte damals eingeschlagen wie eine bombe aber die ist hier mit 1400€ gelauncht...

Ex3cut3r
2023-05-07, 20:26:01
1100€ für eine 7900XTX zum Launch, waren aber auch ein Brüller. Für 600€ wär es Hammer gewesen.

just4FunTA
2023-05-07, 20:40:49
1100€ für eine 7900XTX zum Launch, waren aber auch ein Brüller. Für 600€ wär es Hammer gewesen.


die 7900xtx ist quasi amds 4090 da kann man solche Aufschläge verlangen, die Karten kaufen ja kaum leute. Aber von der 4080 als Nachfolger der 3080 den Preis zu verdoppeln ist schon extrem. :freak:

Langlay
2023-05-07, 21:12:43
die 7900xtx ist quasi amds 4090

Das hofften wir alle :usad:

Matrix316
2023-05-07, 22:25:47
1100€ für eine 7900XTX zum Launch, waren aber auch ein Brüller. Für 600€ wär es Hammer gewesen.
Was heißt zum Launch? Die war viel teurer und und kostet jetzt aktuell ungefähr 1100 im Schnitt - und die 4080 ist immer noch teurer so zwischen 1200 und 1400+. Außerdem hat die 7900XTX deutlich mehr VRAM. Und irgendwann wird die 4080 dahinter fallen.:freak::redface::redface:

Taigatrommel
2023-05-07, 22:46:41
Was heißt zum Launch? Die war viel teurer und und kostet jetzt aktuell ungefähr 1100 im Schnitt - und die 4080 ist immer noch teurer so zwischen 1200 und 1400+. Außerdem hat die 7900XTX deutlich mehr VRAM. Und irgendwann wird die 4080 dahinter fallen.:freak::redface::redface:
So ist es, ich habe ja noch ein "Schnäppchen" gemacht, als ich kurz vor 15 Uhr meine MBA XTX für etwas über 1200€ bei Mindfactory erstanden habe, die Preise waren dann schnell eher deutlich in Richtung bis auch locker über 1300,-€ und wie du schon sagst die erste Zeit nach Release waren auch 1400€ drin. Die 4080 wurde ja, natürlich nur rein zufällig, mit Release von RDNA3 auf einmal billiger. Lagen die Preise vorher bei 1500-1700€ rutschten diese dann zumindest teilweise mal auf unter 1400,-€. Das man die 4080 überhaupt auch mal für <1200€ kaufen kann, ist erst seit breitgefächerter Verfügbarkeit der 7900 XTX so.

Die einzige Karte die auch wirklich so günstig ist, ist die Hellhound. Wenn man sich die Preise für die meisten anderen Karten anschaut, liegen diese "nur" 50-100€ unter der UVP, bzw. halt einige Premiumkarten wie die Nitro+ oder Asus leicht drüber.

Ex3cut3r
2023-05-07, 23:39:33
die 7900xtx ist quasi amds 4090 da kann man solche Aufschläge verlangen, die Karten kaufen ja kaum leute. Aber von der 4080 als Nachfolger der 3080 den Preis zu verdoppeln ist schon extrem. :freak:

Echt jetzt? Sehr merkwürdige Logik. Da ist viel AMD Liebe dabei, oder?

Was nutzt es denn, wenn es aber keine 4090 Leistung bringt? Sondern nur knapp 4080 im Raster und bei RT nochmal weiter weg ist? Vor allem da AMD weder bei DLSS mithalten kann, und FG immer noch komplett fehlt, die Effizienz miserabel ist. Gerade, deswegen müsste doch AMD eigentlich billiger sein, oder nicht?

Was heißt zum Launch? Die war viel teurer und und kostet jetzt aktuell ungefähr 1100 im Schnitt - und die 4080 ist immer noch teurer so zwischen 1200 und 1400+. Außerdem hat die 7900XTX deutlich mehr VRAM. Und irgendwann wird die 4080 dahinter fallen.:freak::redface::redface:

Hast ja recht, hast recht. Sry. :redface:

Außer, mit dem VRAM Argument, die 16GB reichen dicke, für die normale Use Zeit. In 3 Jahren spätestens, wenn nicht sogar 2, wechseln die Freaks sowieso wieder. Wenn die 20GB wirklich etwas bringen, reden hier von 4 Jahren, da dürften beide von der Rohleistung, einfach zu schwachbrüstig sein.

Matrix316
2023-05-08, 09:38:58
[...]

Hast ja recht, hast recht. Sry. :redface:

Außer, mit dem VRAM Argument, die 16GB reichen dicke, für die normale Use Zeit. In 3 Jahren spätestens, wenn nicht sogar 2, wechseln die Freaks sowieso wieder. Wenn die 20GB wirklich etwas bringen, reden hier von 4 Jahren, da dürften beide von der Rohleistung, einfach zu schwachbrüstig sein.
24 wenn schon. ;) Sie 7900XT hat nur 20.

Allerdings wer gerade auf eine 4080 spekuliert sollte beachten, dass die 4090 deutlich billiger geworden sind.

Ich meine ich hatte ja vor der 7900XTX ja kurz eine 4080 aber da hat mich das Lüftergeräusch ziemlich gestört und das soll ja durchaus verbreitet bei den etwas billigeren Karten so sein.

dildo4u
2023-05-08, 12:04:08
Sapphire 7900XT Pulse Test


https://www.computerbase.de/2023-05/sapphire-radeon-rx-7900-xt-pulse-test/

Thunder99
2023-05-08, 12:39:17
Auch wenn die Karte später zu langsam wäre für 20/24GB ist es dennoch besser als umgekehrt ;). Sieht man ja schön bei Nvidia und Ampere.

VRAM ist bei AMD bisher sehr gut vorhanden (Navi21/22 und 31/32? Navi33 wird da eher negativ sein

Lurtz
2023-05-08, 13:38:20
Sapphire 7900XT Pulse Test

https://www.computerbase.de/2023-05/sapphire-radeon-rx-7900-xt-pulse-test/
Sind 2 dB mehr jetzt viel oder wenig? Ich finde meine 3070 ohne Undervolting schon ziemlich unangenehm und hätte eher erwartet, dass die Pulse leiser ist, aber laut Computerbase ist ja fast jede Karte lauter.

][immy
2023-05-08, 16:17:45
Sind 2 dB mehr jetzt viel oder wenig? Ich finde meine 3070 ohne Undervolting schon ziemlich unangenehm und hätte eher erwartet, dass die Pulse leiser ist, aber laut Computerbase ist ja fast jede Karte lauter.

Die benötigt auch fast das doppelte, da wird sie wohl kaum leiser werden. Die rtx 3070 ist eine 225w karte. Mit undervolting bekommt man die gut auf 150w ohne merklich Leistung zu verlieren.
Ich gehe da inzwischen nur noch den Weg das Powerlimit auf ca 75% zu stellen, sonst wird mir die auch zu laut (ist ne. 2 Lüfter Modell).
Hatte eigentlich gehofft das die 4070 ne top Leistung liefert ... aber so viel Abstand ist da nicht wenn der Speicher nicht limitiert.

Lurtz
2023-05-08, 17:02:56
Die Hellhound XTX braucht noch mehr und ist deutlich leiser. Geht also offenbar.

dargo
2023-05-08, 19:15:31
Die Hellhound XTX braucht noch mehr und ist deutlich leiser. Geht also offenbar.
Du darfst nicht einfach nur stur auf die Lautstärkeangaben der Karten schauen sondern auf die Lautstärke + dabei erzielte Hotspot-Temperaturen. Die Hellhound darf bei Hotspot 89°C warm werden. Wenn du das der Pulse erlaubst dann läuft das Ding mit ~1000RPM oder gar weniger. ;) Und wenn du der Pulse max. 90% PT erlaubst dann läuft das Ding mit ~1000RPM und ca. 83-85°C Hotspot grob geschätzt. Ich denke selbst 1100-1200RPM werden bei der Karte noch verdammt leise sein.

Lurtz
2023-05-08, 20:10:00
Ah, danke. Und 89 Grad Hotspot sind generell noch unbedenklich, oder könnten andere Teile der Karte da schon zu heiß werden?

Taigatrommel
2023-05-08, 20:21:43
Ah, danke. Und 89 Grad Hotspot sind generell noch unbedenklich, oder könnten andere Teile der Karte da schon zu heiß werden?

89°C sind noch im Rahmen, AMD sagt sogar Temperaturen von knapp über 100°C seien unbedenklich, wobei ich dies persönlich nicht dauerhaft ausprobieren würde.

dargo
2023-05-08, 21:18:06
Ah, danke. Und 89 Grad Hotspot sind generell noch unbedenklich, oder könnten andere Teile der Karte da schon zu heiß werden?
Außerhalb vom GPU-Hotspot solltest du auch mal den Vram-Hotspot zumindest anfangs bei reduzierten Lüfterdrehzahlen im Auge behalten.

dildo4u
2023-05-09, 13:15:54
AMD Marketing zur RT Performance.

https://wccftech.com/amd-shows-fsr-2-raytracing-perfect-match-for-radeon-rx-7900-rdna-3-gpus/

Der_Korken
2023-05-15, 22:20:00
Ist natürlich nicht praxistauglich, aber ein nettes Experiment wie weit man den N31-Chip so treiben kann: https://www.computerbase.de/2023-05/oc-auf-3-4-ghz-radeon-rx-7900-xtx-jagt-mit-700-watt-die-rtx-4090/

Mit 700W schafft man also 3,4Ghz in Spielen :uroll:

Fairerweise müsste man selbiges auch mit AD102 machen und gucken wie weit der so skaliert. Ich würde aber erwarten, dass es deutlich weniger ist als beim N31. Würde letzterer einfach in jeder Lage nur halb so viel Strom verbrauchen wie jetzt, wär das ne echte Granate :freak:.

vinacis_vivids
2023-05-15, 22:47:08
3,4Ghz bei ~700W.
2,6Ghz bei ~355W.

Bei der Simulation / Kalkulation von N31XTX ist AMD aufgefallen, dass 700W nicht realistisch/praxistauglich sind. Vermutlich schluckt die GCD-MCD Verbindung bei hoher Taktrate zu viel und lässt den Chip beim Verbrauch explodieren.

Die 3,4-3,5Ghz werden beim Blender-compute schon mit ~375W erreicht. Die ~3,4Ghz in Games brauchen ~700W. Das ist fast doppelt so hoch.

Der_Korken
2023-05-15, 22:57:26
Vermutlich schluckt die GCD-MCD Verbindung bei hoher Taktrate zu viel und lässt den Chip beim Verbrauch explodieren.

Die 3,4-3,5Ghz werden beim Blender-compute schon mit ~375W erreicht. Die ~3,4Ghz in Games brauchen ~700W.

Deine Vermutung ergibt keinen Sinn, denn a) warum sollten Anwendungen keine MCD-Zugriffe erfordern und b) warum ist der Interposer zwischen GCD und MCD noch nicht geschmolzen, wenn der 350W geschluckt haben soll? :freak:

vinacis_vivids
2023-05-15, 23:10:25
Gleicher N31XTX Takt von 3,4-3,5Ghz, unterschiedliche Anwedung:
1. Games ~ 700W
2. Blender-compute ~ 375W

Was verursacht denn den zusätzlichen Verbrauch von +325W in Games?
Ich gehe davon aus, dass in Games zu viele unnütze Daten hin und her geschoben werden, weshalb der Verbrauch explodiert.

Der Takt allein kann es ja nicht sein...

Der_Korken
2023-05-15, 23:30:19
Warum verbraucht eine CPU bei gleichem Takt in Prime95 so viel mehr Strom als im Cinebench? Es ist die Auslastung. Ich kenne mich mit GPU-Code leider überhaupt nicht aus, aber es könnte sein, dass Anwendungen entweder nicht alle CUs durchgehend voll bekommen oder ganz andere Instruktionen (bzw. Kombinationen) bevorzugen, wodurch die GPU stärker stallt, weil z.B. um bestimmte Ressourcen stark konkurriert wird, während andere komplett brach liegen. Es gibt ja auch zwischen den Spielen starke Unterschiede, wie dargo hier mal gemessen hat. Hätte man manuell die Hälfte der CUs deaktivieren können, hätte man 3,4Ghz in Spielen auch vorher schon @350W messen können. So muss man erst das Powerlimit auf 700W aushebeln, um es hinzubekommen.

vinacis_vivids
2023-05-15, 23:46:59
Naja, 3D Mark TimeSpy ist übelster unoptimierter Schrott. Was soll denn da die CUs für ~700W auslasten?

@Der_Korken
Ryzen 9 7950X bei CB
Prime95 AVX ~ 320W
Cinebench MC ~ 329W

Deine Aussage mit der Auslastung ist schon mal falsch.

Der_Korken
2023-05-15, 23:59:58
Der 7950X lief garantiert nicht mit gleichem Takt in Prime und CB, sondern einfach ins Powertarget. Surprise, surprise, der Verbrauch ist in beiden Fällen gleich ...

Wegen 3DMark: Ob er unoptimiert ist oder nicht, kann ich nicht bewerten. Vielleicht schmeckt der Instruktionsmix der RDNA3 einfach gut und führt zu einer hohen Auslastung. Man darf ja nicht vergessen, dass RDNA in erster Linie eine Architektur für 3D-Rendering ist. Wenn ich da reine Compute-Shader-Anwendungen drauf laufen lasse, werden viele Ressourcen vielleicht nicht genutzt. Außerdem wurde nach Release spekuliert, dass mit dem Wave32-Mode etwas nicht stimmt, in dem Sinne, dass er hohe Leckströme erzeugt, die den Spieleverbrauch in die Höhe schießen lassen. Leider hat das Beyond3D-Forum seinen GPU-Bereich komplett dicht gemacht, sodass dort seit Jahresanfang nichts mehr gepostet werden kann (weiß eigentlich wer warum?).

GerryB
2023-05-16, 01:46:49
Naja, 3D Mark TimeSpy ist übelster unoptimierter Schrott. Was soll denn da die CUs für ~700W auslasten?

@Der_Korken
Ryzen 9 7950X bei CB
Prime95 AVX ~ 320W
Cinebench MC ~ 329W

Deine Aussage mit der Auslastung ist schon mal falsch.

oder
Du denkst mal nach, ... mit CU`s ist net die CPU gemeint.(sondern die ShaderUnits bzw. ComputeUnits)

btw.
auch mit RDNA2 und TDV-Tweak gingen schon 700W mit ner 6900XTXH@2,9GHz, also warum solls mit EVC2
bei RDNA3 und 3,5GHz anders sein. Und der Takt ist in TS generell etwas niedriger als in anderen Benchmarks.
Das kann dann schon täuschen.

In HWinfo kann man sich übrigens die Zusatzworkload aus AC anschauen.
Mit ca. 25% zusätzlicher Compute-Workload erklärt sich Vieles von selbst.
(und 25-30% mehr Score gibts generell halt net umsonst, da ist kein lineares Scaling beim Verbrauch, sondern Leckströme+Kühlen
angesagt)

just4FunTA
2023-05-16, 19:51:21
Sagt mal gibt es eine Möglichkeit Freesync per Tastenkombination an/aus zu schalten.

Unter Grafik-Hotkeys gibt es nur:

Super Resolution
Chill
Anti-Lag
Boost

Aber leider keine Möglichkeit Freesync an/aus zu schalten. Ich möchte es auf dem Desktop deaktiviert haben und in den Spielen aktviert.

Langlay
2023-05-16, 20:09:29
Sagt mal gibt es eine Möglichkeit Freesync per Tastenkombination an/aus zu schalten.

Unter Grafik-Hotkeys gibt es nur:

Super Resolution
Chill
Anti-Lag
Boost

Aber leider keine Möglichkeit Freesync an/aus zu schalten. Ich möchte es auf dem Desktop deaktiviert haben und in den Spielen aktviert.

Hotkey wüsste ich nicht, die kannst aber Freesync in den globalen Settings auschalten und dann für die Spiele in den Profilen Freesync einschalten, muss dann halt für jedes Spiel einmal einrichten.

just4FunTA
2023-05-17, 06:14:26
Hotkey wüsste ich nicht, die kannst aber Freesync in den globalen Settings auschalten und dann für die Spiele in den Profilen Freesync einschalten, muss dann halt für jedes Spiel einmal einrichten.

Ich hatte das mal probiert aber es ging nicht. Werde es aber nochmal ausführlicher testen.

pilzsammler2002
2023-05-17, 12:51:27
Ich hatte das mal probiert aber es ging nicht. Werde es aber nochmal ausführlicher testen.

Kann man das nicht "per Game" anschalten? :cool:

dildo4u
2023-05-17, 12:57:16
Neue Benchmarks von CB mit 7950X3D und erneuerten Games.(Witcher RT,Forspoken,Last of US etc)
7900XT selbst in RT Index auf 4070 TI Level, die 4080 nur knapp vor 7900XTX.(4k RT)


https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/2/

Exxtreme
2023-05-17, 13:24:58
Neue Benchmarks von CB mit 7950X3D und erneuerten Games.(Witcher RT,Forspoken,Last of US etc)
7900XT selbst in RT Index auf 4070 TI Level, die 4080 nur knapp vor 7900XTX.(4k RT)


https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/2/

Damit sieht die direkte Konkurrenz immer schlechter aus. Nur noch die RTX 4090 kann sich deutlich absetzen.

Der_Korken
2023-05-17, 13:39:01
Bei RT ist die Streuung sehr groß, deswegen hängt ein AMD vs Nvidia Vergleich immer stark von der Spieleauswahl ab. Die eine Gruppe zeigt in RT die gleichen Kraftverhältnisse wie in Raster, die nächste Gruppe setzt Nvidia so 15-20% nach vorne (im Verhältnis zu den Raster-Ergebnissen) und dann gibt es die Extremfälle, wo Nvidia 50%+ schneller wird. Von letzterem ist im CB-Parkour nur CB77 drin. Man muss außerdem auch beachten, dass in einigen Spielen die RT-Settings nicht voll aufgedreht wurden (steht auf Seite 1). Da sind teilweise noch GI oder Schatten nur auf "Mittel". Das hilft den Radeons je nach Spiel sehr, weil die bei leichtem RT noch fast keine Performance verlieren, aber jede weitere Stufe dann die Leistung komplett einbrechen lässt, während diese Einbruchskurve bei Nvidia deutlich flacher ist. Das ist ein wenig so wie mit den Tesselation-Faktoren damals bei Fermi vs RV870 und später Kepler vs GCN 1.0. Allerdings scheinen sich die Frametimes bei RDNA3 verbessert zu haben. Beim Launch-Review hatten die dort gegenüber avg sichtbar schlechter abgeschnitten. Mittlerweile nimmt sich das nichts mehr.

Was aber nach wie vor überhaupt nicht geht ist der 2D-Verbrauch. Heilige Scheiße, ist das eine Katastrophe bei den 7900er Karten. Allein das wäre für mich ein Dealbreaker und ich würde mir so eine Karte niemals kaufen.

aufkrawall
2023-05-17, 13:41:20
während diese Einbruchskurve bei Nvidia deutlich flacher ist.
Wohl eher "etwas weniger extrem steil". Die fps gehen auch auf einer 4070 Ti arg runter, wenn du in CP77 oder DL2 alle RT-Effekte dazu schaltest gegenüber nur einzelnen.

Exxtreme
2023-05-17, 13:56:51
Man muss außerdem auch beachten, dass in einigen Spielen die RT-Settings nicht voll aufgedreht wurden (steht auf Seite 1). Da sind teilweise noch GI oder Schatten nur auf "Mittel". Das hilft den Radeons je nach Spiel sehr, weil die bei leichtem RT noch fast keine Performance verlieren, aber jede weitere Stufe dann die Leistung komplett einbrechen lässt, während diese Einbruchskurve bei Nvidia deutlich flacher ist.


Ja, mittlere Details liegen den Radeons etwas mehr als den Geforce-Grafikchips. Aber es ist auch so, dass wenn du die RT-Details aufdrehst dann brechen auch die Geforce-Grafikchips extrem ein. Nur nicht ganz so extrem wie die Radeons.

Und ich kann es verstehen warum CB das macht. Es bringt halt nichts alles aufzudrehen wenn das Spiel dann mit 20 fps vor sich hin ruckelt. So spielt kaum jemand.


Was aber nach wie vor überhaupt nicht geht ist der 2D-Verbrauch. Heilige Scheiße, ist das eine Katastrophe bei den 7900er Karten. Allein das wäre für mich ein Dealbreaker und ich würde mir so eine Karte niemals kaufen.

Ja, das ist eine Katastophe. Ist aber schon in den Treiber-Anmerkungen als bekanntes Problem aufgeführt. Sprich, ist sehr wahrscheinlich, dass sie es fixen. Es beginnt aber auch erst ab 144 Hz.

Taigatrommel
2023-05-17, 14:47:37
Doch halt auch da nicht ständig bei über 144 Hz, wie schon mehrfach gesagt, mein 175 Hz Bildschirm erzeugt jetzt keine krassen Verbrauchswerte meiner XTX. Dennoch sollte man dies, wie quch die VR Probleme, irgendwie in den Griff bekommen. RDNA3 ist jetzt ein halbes Jahr auf dem Markt, da wird es ja doch so langsam mal Zeit.

Thunder99
2023-05-17, 14:55:58
Schöner Test bei CB :up:
Es zeigt auch warum die Radeons günstiger sind, damit sie konkurrenzfähig bleiben. Oder umgekehrt, die bessere Nvidia Karte zahlst du entsprechend.

dargo
2023-05-17, 15:00:59
Was aber nach wie vor überhaupt nicht geht ist der 2D-Verbrauch. Heilige Scheiße, ist das eine Katastrophe bei den 7900er Karten. Allein das wäre für mich ein Dealbreaker und ich würde mir so eine Karte niemals kaufen.
Es ist kompliziert. Afaik hat Wiseman einen 4k 144Hz Bildschirm und seine 7900XTX liegt bei 15-17W in Idle. Die Messungen von CB sind auch bei Nvidia teilweise extrem merkwürdig und völlig unlogisch.

4k + 144Hz
RTX 4080 = 16W
RTX 4070 = 18W
RTX 4070TI = 32W

Ja nee ist klar. :freak:

Auch für mich etwas unlogisch warum eine 6800XT bei 4k + 144Hz 43W in Idle ziehen soll. Eigentlich müsste ich das bei mir mit VSR simulieren können oder? Ich schaue mir das mal an wenn ich zu Hause bin was meine 6800XT @4k + 144Hz zieht.

Troyan
2023-05-17, 15:02:33
Gibt keine Founders Edition der 4070TI. Wenn Computerbase eine mit LED und aufgemotzter Spannungsversorgung nimmt, kann der Verbrauch deutlich höher liegen.

dargo
2023-05-17, 15:09:35
Unsinn... niemals kommt so ein Delta bei raus.

btw.
4k + 60Hz
4070TI = 19W
4090 = 20W

4k + 144Hz
4070TI = 32W
4090 = 24W

Schon klar. ;D

Langlay
2023-05-17, 15:10:44
Gibt keine Founders Edition der 4070TI. Wenn Computerbase eine mit LED und aufgemotzter Spannungsversorgung nimmt, kann der Verbrauch deutlich höher liegen.

Geben imo nicht an welche 4070ti sie nutzen, vom Foto her zu schliessen sollte es eine Gigabyte GeForce RTX 4070 Ti Eagle sein.

Unsinn... niemals kommt so ein Delta bei raus.

https://i.imgur.com/n0gmwfe.jpg

https://www.computerbase.de/2022-11/nvidia-aus-msi-zotac-geforce-rtx-4080-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop

aufkrawall
2023-05-17, 15:16:21
Auch für mich etwas unlogisch warum eine 6800XT bei 4k + 144Hz 43W in Idle ziehen soll.
Tut sie ja nicht generell, RDNA2 taktet mit 4k 144Hz Dell G3223Q normal runter.
Es liegt bei Single-Monitor 144Hz in den allermeisten Fällen an einem zu geringen Vblank-Timing der EDIDs mancher Monitore, womit es also vom Monitor abhängt.
Ich kann dieses ständige Rätselraten hier deshalb nicht nachvollziehen, die Sache ist seit Jahren in der Mehrzahl der Fälle völlig klar (gut, ein gewisses Treiber Auf-und-Ab mag es geben). Es muss einfach nur mal verstanden werden, dass unterschiedliche Monitore unterschiedliche EDIDs mit unterschiedlichen Timings haben...

Anders sieht es bei Multi-Monitor oder >144Hz, aber darum geht es ja meist nicht. Die Redaktionen sollten sich da echt mal entsprechend Wissen aneignen, anstatt ständig erneut im Nebel rumzustochern.

Der_Korken
2023-05-17, 15:18:23
Es ist kompliziert. Afaik hat Wiseman einen 4k 144Hz Bildschirm und seine 7900XTX liegt bei 15-17W in Idle. Die Messungen von CB sind auch bei Nvidia teilweise extrem merkwürdig und völlig unlogisch.

4k + 144Hz
RTX 4080 = 16W
RTX 4070 = 18W
RTX 4070TI = 32W

Ja nee ist klar. :freak:

Ja, die Sache mit dem Idle-Stromverbrauch ist sehr undurchsichtig, weil man es nicht allein an der Bildwiederholrate festmachen kann. Ich habe mich mit den ganzen Monitortimings nie beschäftigt, aber hier im Forum habe ich mal eine Begründung gelesen, warum z.B. zwei Bildschirme mit teilerfremden Refreshraten besonders fies für die GPU sind. Dazu kommt eben auch, dass 144Hz sich nicht immer gleich verhalten, weil bei der Monitoransteuerung was anders sein kann.

Trotzdem verstehe ich nicht warum GPUs sich selbst im Jahre 2023 so schwer damit tun, stromsparend ein Bild auszugeben. Eine 5 Jahre alte iGPU schafft sowas doch auch und das bei <3W Verbrauch. Selbst Videos dekodieren (Youtube) sollte <10W locker gehen. Kann man nicht einfach den gesamten 3D-Block powergaten und nur ein MCD mit 4GB VRAM aktiv lassen, den Rest hart abschalten? Selbst wenn es dann mal eine Sekunde dauert, den 3D-Block wieder anzuwerfen oder alle Daten im VRAM in das eine MCD zu bewegen (und umgekehrt), wäre es das doch locker wert. Ich hatte ja gehofft AMD würde mit AM5 eine Möglichkeit einführen die Bildausgabe zwischen iGPU und dGPU herumzureichen, damit man im Idle einfach die gesamte Graka abschalten kann, da es keine Ryzens ohne iGPU mehr gibt. Damit hätte man das Problem mal wirklich komplett erschlagen.

Thunder99
2023-05-17, 15:19:25
Geben imo nicht an welche 4070ti sie nutzen, vom Foto her zu schliessen sollte es eine Gigabyte GeForce RTX 4070 Ti Eagle sein.



https://i.imgur.com/n0gmwfe.jpg

https://www.computerbase.de/2022-11/nvidia-aus-msi-zotac-geforce-rtx-4080-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop
Krass :eek:, das ist mal ja übel... :freak:

Thunder99
2023-05-17, 15:21:13
Ja, die Sache mit dem Idle-Stromverbrauch ist sehr undurchsichtig, weil man es nicht allein an der Bildwiederholrate festmachen kann. Ich habe mich mit den ganzen Monitortimings nie beschäftigt, aber hier im Forum habe ich mal eine Begründung gelesen, warum z.B. zwei Bildschirme mit teilerfremden Refreshraten besonders fies für die GPU sind. Dazu kommt eben auch, dass 144Hz sich nicht immer gleich verhalten, weil bei Monitoransteuerung was anders sein kann.

Trotzdem verstehe ich nicht warum GPUs sich selbst im Jahre 2023 so schwer damit tun, stromsparend ein Bild auszugeben. Eine 5 Jahre alte iGPU schafft sowas doch auch und das bei <3W Verbrauch. Selbst Videos dekodieren (Youtube) sollte <10W locker gehen. Kann man nicht einfach den gesamten 3D-Block powergaten und nur ein MCD mit 4GB VRAM aktiv lassen, den Rest hart abschalten? Selbst wenn es dann mal eine Sekunde dauert, den 3D-Block wieder anzuwerfen oder alle Daten im VRAM in das eine MCD zu bewegen (und umgekehrt), wäre es das doch locker wert. Ich hatte ja gehofft AMD würde mit AM5 eine Möglichkeit einführen die Bildausgabe zwischen iGPU und dGPU herumzureichen, damit man im Idle einfach die gesamte Graka abschalten kann, da es keine Ryzens ohne iGPU mehr gibt. Damit hätte man das Problem mal wirklich komplett erschlagen.
Ist vorhanden bei einem AMD CPU/GPU Laptop. Könnte also auch beim Desktop möglich sein. Muss halt entwickelt werden...

Cubitus
2023-05-17, 15:23:21
Neue Benchmarks von CB mit 7950X3D und erneuerten Games.(Witcher RT,Forspoken,Last of US etc)
7900XT selbst in RT Index auf 4070 TI Level, die 4080 nur knapp vor 7900XTX.(4k RT)


https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/2/

Finde es halt mal wieder amüsant, dass bei den neueren Games FG mit keiner Silbe erwähnt wird, hätte das die 7900XTX, wäre diese auch besser für 4K zu gebrauchen.

Das ist eben der Vorteil der 4080, die ist gefühlt mit FG schneller und bleibt genauso effizient. :wink:

Auch das Fazit von CB, ineffizienter dafür billiger, yay, kaufen..
Auf der anderen Seite bekommt Intel Prügel :rolleyes:

aufkrawall
2023-05-17, 15:24:37
Auf der anderen Seite bekommt Intel Prügel :rolleyes:
Ja, weil Intel immer noch regelmäßig krasse Ausreißer nach unten und Grafikfehler hat.

Exxtreme
2023-05-17, 15:25:52
Finde es halt mal wieder amüsant, dass bei den neueren Games FG mit keiner Silbe erwähnt wird, hätte das die 7900XTX, wäre diese auch besser für 4K zu gebrauchen.


FG ist halt eine Extremst-Nische. Bei den neuen Ryzens erwähnt auch fast niemand AVX512. Weil das auch eine extreme Nische ist.

Langlay
2023-05-17, 15:28:03
Auch das Fazit von CB, ineffizienter dafür billiger, yay, kaufen..


Ja, ist aber im Grunde so, das beste Argument für die 7900XTX ist der Preis der 4080. Wenn beide das gleichen kosten würden müsste man schon mit dem Klammersack gepudert sein um die AMD Karte zu kaufen.

FG ist halt eine Extremst-Nische. Bei den neuen Ryzens erwähnt auch fast niemand AVX512. Weil das auch eine extreme Nische ist.

Nicht alles was hinkt ist ein Vergleich. AVX512 ist für Gamer uninteressant, Frame Generation ist das nicht und wird in Zukunft sicherlich auch weitere Verbreitung finden.

Der_Korken
2023-05-17, 15:31:30
Ist vorhanden bei einem AMD CPU/GPU Laptop. Könnte also auch beim Desktop möglich sein. Muss halt entwickelt werden...

Nicht nur da. Mein erster Laptop von 2010 konnte auch schon zwischen Intel- und Nvidia-GPU umschalten und der von 2013 konnte auch per Anwendungsprofil im Treiber genau regeln welche Anwendung welche GPU nutzt. Das ist alles kein Hexenwerk. Man müsste wahrscheinlich nur das Display-Signal über den PCIe-Bus zur CPU zurückschleifen (was egal ist, weil PCIe full duplex ist?) und einen gescheiten Treiber dafür schreiben.

Exxtreme
2023-05-17, 15:31:36
Ja, ist aber im Grunde so, das beste Argument für die 7900XTX ist der Preis der 4080. Wenn beide das gleichen kosten würden müsste man schon mit dem Klammersack gepudert sein um die AMD Karte zu kaufen.

Ich halte die RTX 4080 für die bissl bessere Karte und würde sie sogar bevorzugen beim Kauf. Mit dem niedrigeren Stromverbrauch amortisiert sich das irgendwannmal zumindest zum Teil.


Nicht alles was hinkt ist ein Vergleich. AVX512 ist für Gamer uninteressant, Frame Generation ist das nicht und wird in Zukunft sicherlich auch weitere Verbreitung finden.

Das ist reine Spekulation. :)

Linmoum
2023-05-17, 15:32:14
Der Vergleich mit AVX512 zu FG für Spiele ist aber auch absurd.

Man sollte grundsätzlich immer GPUs mit denen für sie bestmöglichen Konfigurationen testen. Das galt damals bei Vega und Pascal (Vega mit Dx12, Pascal DX11 idR) und das gilt auch aktuell für GPUs mit FG. Wenn das verfügbar ist und die Performance massiv nach oben geht, dann hat sowas auch in einen normalen Parcours integriert gehört. Dass der Abstand bei der aktuellen Generation zur Konkurrenz dann größer wird, ist nicht die Schuld von Nvidia.

Wenn AMD irgendwann mal FSR3 hat, dann gilt das in dem Fall logischerweise genauso.

Das gilt aber auch für DLSS und FSR2. Auch das sollte in einem normalen Parcours Standard sein, wenn das Bild bei gleichzeitig höherer Performance besser aussieht - was häufig der Fall ist. Da bringt mir nativ nichts und das interessiert dann auch schlicht nicht.

Troyan
2023-05-17, 15:33:39
Nicht nur da. Mein erster Laptop von 2010 konnte auch schon zwischen Intel- und Nvidia-GPU umschalten und der von 2013 konnte auch per Anwendungsprofil im Treiber genau regeln welche Anwendung welche GPU nutzt. Das ist alles kein Hexenwerk. Man müsste wahrscheinlich nur das Display-Signal über den PCIe-Bus zur CPU zurückschleifen (was egal ist, weil PCIe full duplex ist?) und einen gescheiten Treiber dafür schreiben.

Naja, ging doch früher schon. Bei nVidia gab es den Hybrid-Modus auf den Mainboards mit iGPU. Advanced Optimus in den Notebooks erlauben ja ohne Leitungsverlust das Switchen.

Ist eben die Frage, ob es wegen 15W+ sinnvoll ist, die Kosten im Desktop aufzubringen.

Ex3cut3r
2023-05-17, 15:50:58
CB beruht sich halt noch auf nativer Auflösung und sturen Max Details. Was meiner Meinung vollkommen steinzeitalter ist. Aber gut...

In RE4 Remake z.B. sieht das Game mit den RT Spiegelungen und gleichzeitiger Aktivierung von SSRs schlechter aus, als ohne RT Spiegelungen und SSRs Off. Kein Witz. :freak:

Dazu ein fetter Performance Bump. ;D

https://abload.de/thumb/image5oiyy.png (https://abload.de/image.php?img=image5oiyy.png) https://abload.de/thumb/imageszevl.png (https://abload.de/image.php?img=imageszevl.png)

Quelle: https://youtu.be/uMHLeHN4kYg?t=476

DrFreaK666
2023-05-17, 15:57:09
... Das ist eben der Vorteil der 4080, die ist gefühlt mit FG schneller und bleibt genauso effizient. :wink:

Gefühlt ist sie eben nicht schneller (Input-Lag ;) )

dargo
2023-05-17, 15:59:06
Der Vergleich mit AVX512 zu FG für Spiele ist aber auch absurd.

Man sollte grundsätzlich immer GPUs mit denen für sie bestmöglichen Konfigurationen testen. Das galt damals bei Vega und Pascal (Vega mit Dx12, Pascal DX11 idR) und das gilt auch aktuell für GPUs mit FG. Wenn das verfügbar ist und die Performance massiv nach oben geht, dann hat sowas auch in einen normalen Parcours integriert gehört. Dass der Abstand bei der aktuellen Generation zur Konkurrenz dann größer wird, ist nicht die Schuld von Nvidia.

Blödsinn... solange es kein FG bei der Konkurrenz gibt wird es auch nicht getestet. Was auch völlig logisch ist da eine Vergleichbarkeit fehlt. Eine Vergleichbarkeit fehlt selbst im eigenen Hause zu älteren Gens.

Ex3cut3r
2023-05-17, 16:04:23
Ob es "FG" überhaupt für Radeons geben wird? Bei der Qualität von FSR2 ohne Hardware Einheiten, dürfte AMDs "FG" vollkommener Bockmist werden. ;D

Lurtz
2023-05-17, 16:05:20
Ist AMD eigentlich noch in RDNA3-Schockstarre, oder wann kommt endlich das erste Spiel mit FSR Frame Generation?

Unsinn... niemals kommt so ein Delta bei raus.

btw.
4k + 60Hz
4070TI = 19W
4090 = 20W

4k + 144Hz
4070TI = 32W
4090 = 24W

Schon klar. ;D
Wolfgang schiebt es im Forum auf die genutzte Custom-Variante.

CB beruht sich halt noch auf nativer Auflösung und sturen Max Details. Was meiner Meinung vollkommen steinzeitalter ist. Aber gut...

Sie testen doch mit reduzierten Details, zB bei RT.

Linmoum
2023-05-17, 16:41:12
Blödsinn... solange es kein FG bei der Konkurrenz gibt wird es auch nicht getestet. Was auch völlig logisch ist da eine Vergleichbarkeit fehlt. Eine Vergleichbarkeit fehlt selbst im eigenen Hause zu älteren Gens.Aber was interessiert mich Vergleichbarkeit? Was mich interessiert ist: wie fällt die Performance mit GPU X in Spiel Y aus. Und wenn DLSS/FSR2 oder eben FG dafür sorgen, dass die Performance deutlich höher ausfällt - ohne, dass die Bildqualität leidet wohlgemerkt - dann hat auch damit getestet zu werden. Fertig.

"Ach, die könnten zwar 60% schneller sein und das bei identischer bzw. sogar besserer Bildqualität, aber das kann ich ja nicht benchen, weil andere Grafikkarten das nicht können".

Das ist doch völlig absurd, dass man deswegen andere GPUs bei ihrer Leistungsfähigkeit und ihrem Potential einschränkt. Egal, ob das im Vergleich mit Konkurrenz oder den eigenen Vorgängern passiert. Intel hat auch keinen riesigen Cache wie AMD bei den X3D. Darf man die deswegen nicht vergleichen, weil Intel "das nicht kann"?

Sie testen doch mit reduzierten Details, zB bei RT.Da sollte man dann lieber die Details hochschrauben und dafür mit DLSS/FG bzw. FSR2 testen. Das ist deutlich sinnvoller. Aber gut, keine Ahnung, warum CB das so handhabt.

00-Schneider
2023-05-17, 16:45:52
FG ist halt eine Extremst-Nische. Bei den neuen Ryzens erwähnt auch fast niemand AVX512. Weil das auch eine extreme Nische ist.


AVX512 ist aktuell afaik nur nützlich für PS3-Emulation. Oder hat mit damit noch in anderen Programmen/Spielen Vorteile?

dargo
2023-05-17, 16:58:21
Aber was interessiert mich Vergleichbarkeit? Was mich interessiert ist: wie fällt die Performance mit GPU X in Spiel Y aus. Und wenn DLSS/FSR2 oder eben FG dafür sorgen, dass die Performance deutlich höher ausfällt - ohne, dass die Bildqualität leidet wohlgemerkt - dann hat auch damit getestet zu werden. Fertig.

Gründe eine Redaktion dann kannst du nach deinem Gusto testen wie du lustig bist. Ist auch eine Wissenschaft für sich YT anzuschmeißen um Spielbarkeit vom Game XYZ zu bewerten. :freak:


Das ist doch völlig absurd, dass man deswegen andere GPUs bei ihrer Leistungsfähigkeit und ihrem Potential einschränkt.
Man schränkt gar nichts eins. Man bencht eben unter gleichen Bedingungen. Halt Äpfel mit Äpfel und nicht Äpfel mit Orangen.

vinacis_vivids
2023-05-17, 17:11:02
AVX512 ist aktuell afaik nur nützlich für PS3-Emulation. Oder hat mit damit noch in anderen Programmen/Spielen Vorteile?

https://www.pugetsystems.com/labs/hpc/ryzen-7950x-zen4-avx512-performance-with-amd-aoccv4-hpl-hpcg-hpl-mxp/

AVX512 ist Standard im HPC und braucht sicherlich noch paar Jahre ehe es in Games genutzt wird (PS6 mit Zen5 / RDNA4?).

just4FunTA
2023-05-17, 17:24:59
Hotkey wüsste ich nicht, die kannst aber Freesync in den globalen Settings auschalten und dann für die Spiele in den Profilen Freesync einschalten, muss dann halt für jedes Spiel einmal einrichten.
Kann man das nicht "per Game" anschalten? :cool:
Ich hatte das mal probiert aber es ging nicht. Werde es aber nochmal ausführlicher testen.


so eben nochmalls ausprobiert, leider wird die Einstellung komplett ignoriert. :/

https://abload.de/img/amd_bf204201crt.jpg

Ex3cut3r
2023-05-17, 17:35:08
Wieso will man VRR auf den Desktop deaktivieren? Ein Desktop läuft sowieso immer mit gleichen FPS der Refreshrate, da gibt es keine FPS Fluktuation, ergo greift VRR sowieso nicht ein.

Cubitus
2023-05-17, 17:35:24
Der Beitrag war auch lustig.. ;D

https://www.computerbase.de/2023-05/oc-auf-3-4-ghz-radeon-rx-7900-xtx-jagt-mit-700-watt-die-rtx-4090/

Könnte ja das HOF Bios auf meine 4090 ballern, dann wäre die 4090 doch wieder schneller.. :freak:

Wieso will man VRR auf den Desktop deaktivieren? Ein Desktop läuft sowieso immer mit gleichen FPS der Refreshrate, da gibt es FPS Fluktuation, ergo greift VRR sowieso nicht ein.

Jepp

just4FunTA
2023-05-17, 18:07:48
Wieso will man VRR auf den Desktop deaktivieren? Ein Desktop läuft sowieso immer mit gleichen FPS der Refreshrate, da gibt es keine FPS Fluktuation, ergo greift VRR sowieso nicht ein.

ich will meinen oled schonen, mit vrr springt der tv direkt in den Spielemodus aber für ein bissel surfen im 3dc reicht mir auch der energiesparmodus vom tv. ;)

Ex3cut3r
2023-05-17, 18:21:53
Achso. Ok. Kannte solche Probleme mit Nvidia und einen richtigen Monitor per DP 1.4 Anschluss nicht. Wieder was gelernt.

horn 12
2023-05-17, 19:00:31
Einer einen Aktuellen AMD Key übrig für mich
welchen es bei der XT und XTX über AMD Gibt oder über Alternate?

Prinzenrolle
2023-05-17, 19:15:29
Ja, mittlere Details liegen den Radeons etwas mehr als den Geforce-Grafikchips.

So ein Bullshit kann auch nur Wolfgang einfallen...
RT Benchmarks dann eben bei PCGH schauen.
Dann kann man die Vram Krüppel auch mit Texturen hoch statt ultra testen.

Schon ein wenig auffällig, häufig fehlte in den Tests zuletzt auch die 4090.
Schönwettertests für den AMD Sympathisanten.

Linmoum
2023-05-17, 19:40:19
Für bestimmte Grafikkarten-Segmente ist der Ansatz gar nicht mal so falsch. Für UHD + max. Details inkl. RT kauft sich im Jahr 2023 auch keiner eine 4070 und erwartet, dass das alles flüssig mit hohen fps läuft. Und da helfen dann auch DLSS(+FG) oder FSR2 nicht (immer).

Aber ja, warum man vor allem High-End-Grafikkarten bencht, um dann irgendwelche Details auf "Mittel" zu stellen, nur damit man native Benchmarks hat, ist nicht sonderlich clever und eigentlich auch ein Aufwand, den man sich sparen kann. Gilt natürlich alles für die Spiele, wo es die Möglichkeiten mit DLSS und/oder FSR2 gibt, was gerade bei den größeren, neu erscheinenden Spielen mittlerweile aber schon gefühlter Standard ist.

Gab's unabhängig davon von AMD eigentlich mal was offizielles zum Thema Stromverbrauch im Idle (und eigentlich ja auch Teillast)? Irgendwie hab ich das Gefühl, dass da kaum was passiert, obwohl das schon seit Monaten als "known issue" gelistet ist. Sollte IMO eigentlich einer der Punkte sein, den man sofort angeht. Es sei denn, das lässt sich eben doch nicht mal einfach so fixen und das ist ein tiefergehendes Problem. Das wäre natürlich arg suboptimal.

-=Popeye=-
2023-05-17, 21:33:07
Der Beitrag war auch lustig.. ;D

https://www.computerbase.de/2023-05/oc-auf-3-4-ghz-radeon-rx-7900-xtx-jagt-mit-700-watt-die-rtx-4090/

Könnte ja das HOF Bios auf meine 4090 ballern, dann wäre die 4090 doch wieder schneller.. :freak:



Jepp

Dieses HOF Bios kannste dir sparen um diese Ergebnisse zu überflüglen, RDNA2 sah im TimeSpy deutlich besser aus gegen eine 3090Ti.

Das einzige was mich beeindruckt ist wie hoch der Chip takten kann.

GerryB
2023-05-17, 22:34:20
Gab's unabhängig davon von AMD eigentlich mal was offizielles zum Thema Stromverbrauch im Idle (und eigentlich ja auch Teillast)? Irgendwie hab ich das Gefühl, dass da kaum was passiert, obwohl das schon seit Monaten als "known issue" gelistet ist. Sollte IMO eigentlich einer der Punkte sein, den man sofort angeht. Es sei denn, das lässt sich eben doch nicht mal einfach so fixen und das ist ein tiefergehendes Problem. Das wäre natürlich arg suboptimal.

Weil Letztens Einer Freesync auf dem Desktop deaktivieren wollte, ... DAS ist nicht ratsam, weil anscheinend Dadurch bei manchen Monis der Verbrauch hoch geht.(evtl. vor allem mit Dual-Monis)
Im CB-Thread hat ein User seine Erfahrungen dazu gepostet. (und Andere ff.)
https://www.computerbase.de/forum/threads/grafikkarten-2023-im-test-geforce-radeon-arc-benchmarks-im-neuen-testparcours.2144335/page-6#post-28215515

Ergo, .... glaube net, das die Treiberabteilung bei AMD davon ausgeht, das Jemand das default "Freesync=On" deaktiviert.
(und dann solchen Unsinn fixen müsste)

dito sollte man auch die default "10bit =off" lassen, wenn man net gerade professionell Fotos bearbeiten will

just4FunTA
2023-05-18, 06:20:31
Weil Letztens Einer Freesync auf dem Desktop deaktivieren wollte, ... DAS ist nicht ratsam, weil anscheinend Dadurch bei manchen Monis der Verbrauch hoch geht.(evtl. vor allem mit Dual-Monis)
Im CB-Thread hat ein User seine Erfahrungen dazu gepostet. (und Andere ff.)
https://www.computerbase.de/forum/threads/grafikkarten-2023-im-test-geforce-radeon-arc-benchmarks-im-neuen-testparcours.2144335/page-6#post-28215515

Ergo, .... glaube net, das die Treiberabteilung bei AMD davon ausgeht, das Jemand das default "Freesync=On" deaktiviert.
(und dann solchen Unsinn fixen müsste)

dito sollte man auch die default "10bit =off" lassen, wenn man net gerade professionell Fotos bearbeiten will

Ich nutze einen tv als monitor siehe Beitrag #2381

OgrEGT
2023-05-18, 07:32:50
Für bestimmte Grafikkarten-Segmente ist der Ansatz gar nicht mal so falsch. Für UHD + max. Details inkl. RT kauft sich im Jahr 2023 auch keiner eine 4070 und erwartet, dass das alles flüssig mit hohen fps läuft. Und da helfen dann auch DLSS(+FG) oder FSR2 nicht (immer).

Aber ja, warum man vor allem High-End-Grafikkarten bencht, um dann irgendwelche Details auf "Mittel" zu stellen, nur damit man native Benchmarks hat, ist nicht sonderlich clever und eigentlich auch ein Aufwand, den man sich sparen kann. Gilt natürlich alles für die Spiele, wo es die Möglichkeiten mit DLSS und/oder FSR2 gibt, was gerade bei den größeren, neu erscheinenden Spielen mittlerweile aber schon gefühlter Standard ist.

Gab's unabhängig davon von AMD eigentlich mal was offizielles zum Thema Stromverbrauch im Idle (und eigentlich ja auch Teillast)? Irgendwie hab ich das Gefühl, dass da kaum was passiert, obwohl das schon seit Monaten als "known issue" gelistet ist. Sollte IMO eigentlich einer der Punkte sein, den man sofort angeht. Es sei denn, das lässt sich eben doch nicht mal einfach so fixen und das ist ein tiefergehendes Problem. Das wäre natürlich arg suboptimal.

Was funktioniert bei Teillast nicht?

Stromverbrauch im Idle funktioniert wie hier schon gesagt wurde bei einigen Monitoren i.d.R. mit hohen Refresh Raten nicht gut...

Bei meinem Monitor mit 100Hz läuft alles perfekt auch Teillast :)

GerryB
2023-05-18, 12:03:56
Teillast wäre z.Bsp. auch 4k60fps +FSR2 ohne RT.
Könnte mir gut vorstellen, das ähnliche Werte rauskommen wie bei WQHD@60fps.

pilzsammler2002
2023-05-19, 10:07:04
Teillast wäre z.Bsp. auch 4k60fps +FSR2 ohne RT.
Könnte mir gut vorstellen, das ähnliche Werte rauskommen wie bei WQHD@60fps.
Der CBase Test ist eh vollkommen Grütze (teilweise)
Ich habe jetzt mehrere 4k 144hz an meiner 7900xt dran gehabt. Ich kam nie über 30w... Wenn man natürlich wieder sowas krummes wie 119,9hz anstatt 120hz (als Beispiel bei PCGH) macht dann spielt die wirklich teilweise verrückt... Aber standard wurde nie ein krummer Wert von Windows eingestellt... :freak:

Mannyac
2023-05-21, 15:23:24
Der CBase Test ist eh vollkommen Grütze (teilweise)
Ich habe jetzt mehrere 4k 144hz an meiner 7900xt dran gehabt. Ich kam nie über 30w... Wenn man natürlich wieder sowas krummes wie 119,9hz anstatt 120hz (als Beispiel bei PCGH) macht dann spielt die wirklich teilweise verrückt... Aber standard wurde nie ein krummer Wert von Windows eingestellt... :freak:
Ich kanns 1:1 nachvollziehen.
XFX 7900XTX Merc310:
Asus MG279Q, bis 90Hz alles in Ordnung, über 90Hz habe ich im Idle gegen 60W.
Das selbe mit dem Xiomi Mi Curved Gaming (UWQHD), bei 120Hz passt alles, bei 144Hz gleich mal über 60W im idle.

Von dem her, hört euch auf dieses Problem schönzureden. Ich mag AMD und ich hab ja auch eine 7900XTX, aber das geht definitiv besser! Ich hoffe mal es wird noch gefixt. Die Hoffnung stirbt zuletzt, solange es in den Known Issues aufgeführt wird ;)

dargo
2023-05-21, 15:29:51
Ich kanns 1:1 nachvollziehen.
XFX 7900XTX Merc310:
Asus MG279Q, bis 90Hz alles in Ordnung, über 90Hz habe ich im Idle gegen 60W.

What? Den Asus MG279Q habe ich selbst und mit der Hellhound XTX war ich in Idle bei min. 10W @144Hz.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13273972&postcount=2009

Wenn das bei dir wirklich der Fall ist dann rieche ich hier einen riesen Bockmist bei einigen AIBs der Grafikkarten. Anders kann ich mir das nicht erklären.

nagus
2023-05-21, 16:11:24
Neue Benchmarks von CB mit 7950X3D und erneuerten Games.(Witcher RT,Forspoken,Last of US etc)
7900XT selbst in RT Index auf 4070 TI Level, die 4080 nur knapp vor 7900XTX.(4k RT)


https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/2/

CP 2077 müsste man aus dem Test schmeißen. Eindeutige NV die Finger im Spiel gehabt, damit es absichtlich auf Radeons schlecht läuft.

Raff
2023-05-21, 16:16:23
CP 2077 müsste man aus dem Test schmeißen. Eindeutige NV die Finger im Spiel gehabt, damit es absichtlich auf Radeons schlecht läuft.

Das gilt nur für die Pathtracing-Variante - und diese wird AFAIK nicht von CB getestet.

MfG
Raff

Exxtreme
2023-05-21, 16:20:18
Das gilt nur für die Pathtracing-Variante - und diese wird AFAIK nicht von CB getestet.

MfG
Raff


https://www.nvidia.com/de-de/geforce/news/cyberpunk-2077-nvidia-partnership-ray-tracing/

"Für Cyberpunk 2077 haben wir uns mit CD PROJEKT RED zusammengeschlossen und ermöglichen als offizieller Technologiepartner die Implementierung von Echtzeit-Raytracing."

Sprich, sie geben es offiziell zu, dass sie bei der Implementierung nachgeholfen haben. Und dieser Artikel ist von 2019.

aufkrawall
2023-05-21, 16:21:05
Ist auch kein Geheimnis, schon vor dem PT-Patch hatten die Credits zig Nvidia-Mitarbeiter aufgelistet.

Raff
2023-05-21, 16:30:59
https://www.nvidia.com/de-de/geforce/news/cyberpunk-2077-nvidia-partnership-ray-tracing/

"Für Cyberpunk 2077 haben wir uns mit CD PROJEKT RED zusammengeschlossen und ermöglichen als offizieller Technologiepartner die Implementierung von Echtzeit-Raytracing."

Sprich, sie geben es offiziell zu, dass sie bei der Implementierung nachgeholfen haben. Und dieser Artikel ist von 2019.

Als CP2077 programmiert wurde, gab es eben nur Turing. "Böse" Absichten im Rahmen eines Showcases kann man den beiden Parteien nur beim Pathtracing-Update unterstellen. Das läuft wirklich unterirdisch auf allem, das nicht von Nvidia kommt.

MfG
Raff

Ex3cut3r
2023-05-21, 16:50:24
Einspruch, das läuft auf allem nicht so rosig, außer Ada, der aber auch starke RT Leistung hat.

"Normales" RT (Medium + RT Reflections + Lokale RT Schatten, DLSS Q (3.1.11 Preset F) 4K
https://abload.de/thumb/cyberpunk2077_2023_055cfni.jpg (https://abload.de/image.php?img=cyberpunk2077_2023_055cfni.jpg)

PT, DLSS Q (3.1.11 Preset F) 4K
https://abload.de/thumb/cyberpunk2077_2023_05gke33.jpg (https://abload.de/image.php?img=cyberpunk2077_2023_05gke33.jpg)

PT, DLSS P (3.1.11 Preset F) 4K
https://abload.de/thumb/cyberpunk2077_2023_054udip.jpg (https://abload.de/image.php?img=cyberpunk2077_2023_054udip.jpg)

Ich bleibe bei erstem Setting mit DLSS P.
DLSS P mit 3.1.11 im Preset F ist gar nicht mehr so weit weg von Q. :freak:

Raff
2023-05-21, 17:08:31
Hunderte aktuelle Messungen zeugen von einer Nvidia-Optimierung durch die Bank (Alchemist kann sich gerade einmal mit RDNA 2 messen, TU102 liegt auf Navi-31-Niveau): https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/

MfG
Raff

Ex3cut3r
2023-05-21, 17:12:36
Ok. Dann korrigiere ich mich, läuft nur auf der 4090 ansprechend.

Exxtreme
2023-05-21, 17:15:33
Ok. Dann korrigiere ich mich, läuft nur auf der 4090 ansprechend.

Nichteinmal da. Man muss DLSS2 aktivieren und selbst da ist man bei 46 Min-fps. Und das ist eher solala. Schade, dass die PCGH keine Benchmarks ohne Upsampling hat.

Raff
2023-05-21, 17:16:01
Ok. Dann korrigiere ich mich, läuft nur auf der 4090 ansprechend.

Kann man so sagen. :D Ich bin gespannt auf die Spiele in fünf Jahren - wie weit diese Maßschneiderei dann wohl von der Praxis entfernt ist?

Nichteinmal da. Man muss DLSS2 aktivieren und selbst da ist man bei 46 Min-fps. Und das ist eher solala. Schade, dass die PCGH keine Benchmarks ohne Upsampling hat.

Vergebene, weil sehr ruckelige Liebesmüh, sofern man nicht eine RTX 4090 in Full HD misst.

MfG
Raff

Ex3cut3r
2023-05-21, 17:16:43
Nichteinmal da. Man muss DLSS2 aktivieren und selbst da ist man bei 46 Min-fps. Und das ist eher solala. Schade, dass die PCGH keine Benchmarks ohne Upsampling hat.

Und das ist ein Problem? Sieht mit Q 3.1.11 im Preset F besser aus, als das TAA. Dazu kommt auch noch der Game Changer DLLS 3 dazu. Spätenstens dann hat man genug FPS und allem am Anschlag. Einfach geil.

dargo
2023-05-21, 17:18:09
Nichteinmal da. Man muss DLSS2 aktivieren und selbst da ist man bei 46 Min-fps.
DLSS2-P wohlgemerkt, also 1080p als Input in 4k. :ulol:

Exxtreme
2023-05-21, 17:27:56
Und das ist ein Problem? Sieht mit Q 3.1.11 im Preset F besser aus, als das TAA. Dazu kommt auch noch der Game Changer DLLS 3 dazu. Spätenstens dann hat man genug FPS und allem am Anschlag. Einfach geil.

Wenn das Spiel aber schon mit der RTX4090 und DLSS2-P mit 46 fps läuft dann hast du auch diesen Input-Lag wenn du DLSS3 aktivierst. Wobei der Input-Lag da eher schlechter wird da FG ja selbst einen größeren Overhead hat. Joa, und das ist eher solala.

Ausserdem will ich kein DLSS2/3 sondern 8x SSAA ohne Upsampling. X-D

Ex3cut3r
2023-05-21, 21:08:57
Für den Input Lag gibt es Reflex. Welches sowieso angeht, sobald man DLSS 3 aktiviert. Was diese "Kinderkacke" jedes mal auf neue soll, frage ich mich.

Laut PCGH hat man 60+FPS avg mit PT, DLSS Q, und FG. Verzichtet man auf PT, ist man mit "normalen" RT irgendwo bei 90 FPS.

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/

Rancor
2023-05-22, 08:53:29
Für den Input Lag gibt es Reflex. Welches sowieso angeht, sobald man DLSS 3 aktiviert. Was diese "Kinderkacke" jedes mal auf neue soll, frage ich mich.

Laut PCGH hat man 60+FPS avg mit PT, DLSS Q, und FG. Verzichtet man auf PT, ist man mit "normalen" RT irgendwo bei 90 FPS.

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/
Hast du DLSS 3 schonmal live gespielt? Wenn nicht dann hör du lieber auf mit der Kinderkacke. Es gibt Spiele da merkt man sehr wohl einen höheren Input-Lag. Reflex hin oder her. Gerade wenn die Ausgangsbasis schon low FPS sind.

basix
2023-05-22, 08:59:07
Hunderte aktuelle Messungen zeugen von einer Nvidia-Optimierung durch die Bank (Alchemist kann sich gerade einmal mit RDNA 2 messen, TU102 liegt auf Navi-31-Niveau): https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Overdrive-Pathtracing-Update-Benchmark-1418393/2/

MfG
Raff

Ich hatte das mal geplotted: Bei Nvidia Karten sind primär die FP32 FLOPS für die Performance-Skalierung verantwortlich, deswegen fällt Turing etwas ab:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13285285#post13285285

Turing holt pro FLOP etwas mehr raus als Ampere und Ada, aber Nvidia kann anscheinend die zusätzlichen FLOPS von Ampere und Ada gut nutzen.
Alchemist ist eine andere Baustelle, aber dafür wurde sicher nicht optimiert.

Hast du DLSS 3 schonmal live gespielt? Wenn nicht dann hör du lieber auf mit der Kinderkacke. Es gibt Spiele da merkt man sehr wohl einen höheren Input-Lag. Reflex hin oder her. Geraden wenn die Ausgangsbasis schon low FPS sind.
Kann ich bestätigen. In manchen Spielen fällt es sofort auf (im Direktvergleich ohne FG und Reflex muss man dazu sagen). Und bei zu niedrigen FPS kann es schon etwas schwammig werden. Hier muss man die Balance finden aus FPS, Bildqualität und Responsiveness. Bei schneller Shootern würde ich FG nicht aktivieren. Bei Single Player & Rollenspielen finde ich es aber ganz gut. TW3E profitiert mMn gut von FG, auch wenn man nur mit ~70...80fps unterwegs ist (inkl. FG). Den zusätzliche Input Lag merkt man aber ist fürs Gameplay vertretbar. Man gewöhnt sich dran. Ist wie früher, als man bei UT2K4 von CRT auf einen TFT gewechselt ist und/oder 80ms Ping hatte und man sein Aiming entsprechend anpassen musste :D

dargo
2023-05-22, 10:15:55
Kann ich bestätigen. In manchen Spielen fällt es sofort auf (im Direktvergleich ohne FG und Reflex muss man dazu sagen).
Und eben das ist der übliche Äpfel/Orangen Vergleich. :) Wenn man schon vergleicht dann FG On vs. FG Off + Reflex. Alles andere ist nichts weiter als Schönrederei.

BlacKi
2023-05-22, 10:38:45
es geht aber nicht darum, ob fg die latenzen steigen lässt, sondern darum ob es spielbar ist. und das ist es ab 80fps mit reflex. ohne reflex wäre das nicht so eindeutig. unter 80fps ohne fg/reflex sind die meisten spiele für mich nicht spielbar.

ich hab cybepunk ohne reflex und ohne fg einmal durchgespielt. auch da hab ich meine 80fps gebraucht um komfortabel spielen zu können. das ist heute vergleichbar mit fg + reflex, nur mit mehr details.

also es geht nicht darum, ob fg mit reflex gleichgut ist wie ohne fg mit reflex.

GerryB
2023-05-22, 10:54:55
ohne fg mit reflex hätte wohl net mit 72fps gereicht?
(der 144Hz -Moni kann das übrigens auch schon mit 144Hz anzeigen)

oder
War das mit nem 165Hz-Moni, passend zu den 80fps?

Exxtreme
2023-05-22, 11:03:19
Für den Input Lag gibt es Reflex. Welches sowieso angeht, sobald man DLSS 3 aktiviert. Was diese "Kinderkacke" jedes mal auf neue soll, frage ich mich.


Ich habe den Eindruck, du hast das Problem nicht im Ansatz verstanden.

Reflex kann nicht zaubern. Wenn ein Spiel nativ mit 60 fps läuft dann kann Reflex die Eingabelatenz nicht unter 16,67 ms drücken. 16,67 ms sind die niedrigste Latenz, die mit 60 fps möglich ist.

Hast du also ein Spiel, welches mit 60 fps läuft und die Grafikkarte pfeift dank RT + PT aus dem letzten Loch und versuchst das jetzt per FG auf 120 fps zu pushen dann funktioniert das nicht. Denn wenn du FG einschaltest dann fehlt der Grafikkarte die Power um die nativen 60 fps zu halten. FG hat nämlich ebenfalls einen großen Overhead. Das Spiel geht nativ auf 40 fps runter (FG pusht das dann mit Fakeframes auf 80fps) und du hast jetzt trotz Reflex eine Eingabelatenz von Minimum 25 ms. Denn mit nativen 40 fps geht es nicht weiter runter als 25 ms, Reflex hin oder her.

Deshalb ist FG nicht gut bei Spielen wenn die Grafikkarte aus dem letzten Loch pfeift.

DrFreaK666
2023-05-22, 11:09:31
Ein Freund schaltet bei Midnight Suns FG aus, weil dann die Latenz zu stark ansteigt.

Frame Generation aktivieren --> spuerbarer Mouselag. Also wieder aus.


Dank 4090 hat er auch ohne FG hohe spielbare FPS. Witzig wird das wahrscheinlich bei kleineren Karten. Aber wer bencht schon mit Midnight Suns...

SamLombardo
2023-05-22, 11:18:25
Deshalb ist FG nicht gut bei Spielen wenn die Grafikkarte aus dem letzten Loch pfeift.
In der Theorie schon, in der Praxis ist das wohl sehr subjektiv. Bei Cyberpunk mit Pathtracing pfeift selbst die 4090 auf dem letzten Loch, und FG funktioniert like a charm wie man so schön sagt. Vielleicht würde irgendein geübter e-Sportler irgendwas bzgl Inputlag merken, aber mir fällt beim besten Willen auch im direkten on-off Vergleich nichts auf. Außer natürlich das deutliche Plus an fps verbunden mit besseren Frametimes. Vielleicht liegt's auch am Alter;)

Edit: Aber irgendwie bewegen wir uns im falschen Thread;)

basix
2023-05-22, 12:05:30
Und eben das ist der übliche Äpfel/Orangen Vergleich. :) Wenn man schon vergleicht dann FG On vs. FG Off + Reflex. Alles andere ist nichts weiter als Schönrederei.

Du hast mich da missverstanden. Selbst im Best Case für FG kann es auffallen, d.h. ohne Reflex & FG vs. Reflex mit FG und wenn die Input Latenz näher beieinanderliegen sollten, oftmals zum Nachteil von FG. Mit Reflex fällt es natürlich noch mehr auf. Aber auch da: Hängt vom Spiel und den FPS ab, ob man es als Nachteil empfindet. Die visuelle "Smoothness" steigt mit FG definitiv an und kann den Latenznachteil überkompensieren. Weil Input Lag hat mMn ein weniger direktes Feedback als visuelles "stottern", solange der Input Lag gut genug bleibt. Ist ein Kompromiss, den jeder für sich und je nach Spiel evaluieren muss. Eine Allgemeinlösung ist FG nicht und wird es nie sein.

dargo
2023-05-22, 12:36:17
Eine Allgemeinlösung ist FG nicht und wird es nie sein.
Ich weiß, wird hier aber gerne von den üblichen Verdächtigen als das verkauft.

Matrix316
2023-05-22, 14:43:49
OT: Ist es nicht lustig bei DLSS und FSR von "Frame Generation" zu sprechen? Ich meine, was ist die Aufgabe einer Grafikkarte? :uponder:

M4xw0lf
2023-05-22, 14:48:33
OT: Ist es nicht lustig bei DLSS und FSR von "Frame Generation" zu sprechen? Ich meine, was ist die Aufgabe einer Grafikkarte? :uponder:
Rendering der berechneten Frames.

basix
2023-05-22, 15:09:51
Damit wir wieder auf AMD zurückkommen:
FSR3 erwarte ich gespannt. In der Theorie hat es gegenüber DLSS3 Vorteile, zumindest anhand der Demo die AMD gezeigt hat. Wieso? AMD hat 112fps vs. 60fps gezeigt. Wenn die 60fps im GPU Limit waren: Das würde bedeuten, dass die Render-Framerate weniger stark von FSR3 beeinträchtigt wird (da FSR3 anscheinend relativ leichtgewichtig wäre) und somit die Latenz weniger leiden sollte. Nvidias Reflex ist aber deutlich schlagkräftiger als AMDs Anti-Lag. Mal schauen, wie das am Ende dann aussehen wird. DLSS3 FG ist meistens eher so bei 1.5...1.6 Speedup, ausser bei sehr niedrigen Frameraten oder im vollständigen CPU-Limit (z.B. Flight Simulator).

Soweit ich FSR3 anhand der spärlichen verstanden habe:
Man verwendet die FSR2 Samples (oder den Output davon), ermittelt neue Motion Vectors für das Zwischen-Frame und berechnet den FSR2 Algorithmus mit den neuen Motion Vectors nochmals durch (primär die Reprojection & Accumulate Stage). Das passt auch gut zu den Performance Angaben: 120fps -> 112fps sind ~0.5ms. Anhand der FSR2 Doku benötigt eine 7900XTX ~0.7ms für FSR2 komplett @ 4K. Die Grundidee dahinter ist, dass die Render-Samples für das Zwischen-Frame mit hoher Wahrscheinlichkeit bereits in der History vorhanden sind. Man verwendet die gerenderten Samples also doppelt: 1x für FSR2 und 1x für FG.

Zu Nvidias DLSS3 wissen wir leider keine näheren Details. Evtl. wird das dort gleich oder ähnlich gemacht (Reuse von bestehenden DLSS2 Samples und 2x Durchrechnen des DLSS2 Algorithmus), nur werden dort die Motion Vectors für die Interpolation via Optical Flow Generator berechnet und nicht via Shader ALUs.

Matrix316
2023-05-22, 15:20:25
Rendering der berechneten Frames.
Könnte man auch Frame Generation bezeichnen. :D Die Grafikkarte berechnet und erstellt das Bild, oder? Was ist nativ bei einer Grafikkarte?

aufkrawall
2023-05-22, 15:23:39
Ohne echtes, neues Reflex-Gegenstück in der Anwendung kann man es imho bleiben lassen, wenn man nicht konstant im Limit eines in-game-Limiters ist.
Ich hatte kurz eine 4090 wegen Lüftertests in horizontaler Montage verbaut und fand FG in W3 selbst im Limit bei 138fps seltsam anstrengend. Dass der Lag nicht zu den fps passt, kann man gar nicht wirklich in einer objektiven Metrik erfassen.

Ex3cut3r
2023-05-22, 16:43:09
Eins fällt mal stark auf, diejenigen, die AMD als Gaming Karte drin haben, argumentieren eigentlich zu 95% dagegen, sei aus welchen Gründen auch immer, diejenigen, die eine Nvidia Karte, haben eigentlich immer dafür. Was stimmt nun? Vermutlich irgendwas in der Mitte.

Aber ich weiß schon, wie das enden wird. Sobald AMDs miserables FG Gegenstück kommt, und ich gehe davon aus, dass es miserabel sein wird, weil selbst FSR 2.0+ immer noch kein Land gegen DLSS sieht. Ist es plötzlich wieder der Super Duper Shit, natürlich weil es von AMD kommt. Und alles, was von Nvidia kommt, ist sehr böse.

Wie immer eigentlich.

aufkrawall
2023-05-22, 16:48:54
Du kannst dir solchen komplett wertlosen BS-Spam auch einfach mal sparen, wenn du es nicht zu sehr nötig hast.

DrFreaK666
2023-05-22, 17:10:58
Eins fällt mal stark auf, diejenigen, die AMD als Gaming Karte drin haben, argumentieren eigentlich zu 95% dagegen, sei aus welchen Gründen auch immer...

Was ist eigentlich dein Problem? Einzugestehen, dass FG nicht perfekt ist?
Und vielleicht kann man die Diskussion um FG in den DLSS-Thread verschieben, denn hier hat es nichts zu suchen!

HOT
2023-05-22, 17:23:00
Ich weiss nicht wonach er da immer sucht. Ich mein, FSR bekommt auch FG, der BIAS von ihm ist immer total absurd.
FG ist aus verschiedenen Gründen einfach nachteilhaft, es ergibt eben nur dann Sinn, wenn die Vorteile den Nachteilen überwiegen. Und das ist schlichtweg vom Einzelfall abhängig.

Achill
2023-05-22, 19:09:45
[..]

Zu Nvidias DLSS3 wissen wir leider keine näheren Details. Evtl. wird das dort gleich oder ähnlich gemacht (Reuse von bestehenden DLSS2 Samples und 2x Durchrechnen des DLSS2 Algorithmus), nur werden dort die Motion Vectors für die Interpolation via Optical Flow Generator berechnet und nicht via Shader ALUs.

Aber gab es nicht schon Releases, wo DLSS-FG auch ohne DLSS2 ging. Ich bin der Meinung das war initial bei CP so auch auch der erste Mod für Star Wars Survivor hat auch FG auf FSR2 umgesetzt.

--
Edit, es war Spider Man: https://videocardz.com/newz/nvidia-frame-generation-reportedly-works-with-amd-fsr2-and-intel-xess

Ohne echtes, neues Reflex-Gegenstück in der Anwendung kann man es imho bleiben lassen, wenn man nicht konstant im Limit eines in-game-Limiters ist.
Ich hatte kurz eine 4090 wegen Lüftertests in horizontaler Montage verbaut und fand FG in W3 selbst im Limit bei 138fps seltsam anstrengend. Dass der Lag nicht zu den fps passt, kann man gar nicht wirklich in einer objektiven Metrik erfassen.

Ja, es brauch eine äquivalente Unterstützung. NV Reflex ist in meinen Verständnis aber keine Magie sondern (vereinfach) Buffer-Management und -Optimierung mit dem Optimierungsziel, Latenz zu minimieren bei möglichst hohen FPS.

Der Ansatz basiert schon auf älteren Erkenntnissen der Community
7CKnJ5ujL_Q

Es gibt ein OSS Ansatz für Linux und Proton, da unter Proton/DXVK die NVAPI ausgetauscht wird nutzt https://github.com/ishitatsuyuki/LatencyFleX dies und ersetzt dann den Reflex-Ansatz mit der eigenen Implementierung um, dazu gibt es noch ein detaillieren Blog Post (https://blog.ishitatsuy.uk/post/latencyflex/) dazu.

SamLombardo
2023-05-22, 19:48:40
Aber gab es nicht schon Releases, wo DLSS-FG auch ohne DLSS2 ging. Ich bin der Meinung das war initial bei CP so auch auch der erste Mod für Star Wars Survivor hat auch FG auf FSR2 umgesetzt.

--
Edit, es war Spider Man: https://videocardz.com/newz/nvidia-frame-generation-reportedly-works-with-amd-fsr2-and-intel-xess
FG funktioniert eigentlich immer ohne DLSS2. Natives 4k (TAA) mit FG kannst du fast immer problemlos nutzen.

Btw, Ex3cut3r übertreibt es oft, aber in diesem Fall hat er nicht unrecht. Ich wette die absolute Mehrheit derer die hier gegen FG wettern haben es noch nie live probiert. Es ist eine Wahnsinns Technologie und das könnte man auch als User des "anderen Lagers" eingestehen. Dass der Inputlag nicht in dem Maße sinkt wie die Framerate steigt (höher wird er ja gar nicht) wird 90% der Nutzer nicht auffallen. Und die 10% die es stört, lassen FG bei schnellen Shootern eben weg. Die signifikanten Vorteile die diese Technologie bietet wiegen diesen theoretischen Mini Nachteil mMn mehr als auf. Also eingestehen, dass Nvidia hier was geiles entwickelt hat und hoffen dass AMD bald qualitativ gut nachzieht wäre auch eine Möglichkeit;).

aufkrawall
2023-05-22, 19:59:42
Verwegene Idee: AMD könnte einfach den Entwicklern sagen, CPU Prerenderlimit 0 zu nutzen. Damit ging in älteren Frostbite-Spielen die GPU-Auslastung nicht mehr groß über 85%, was entsprechend Leistung im GPU-Limit kostet. Allerdings kann man die GPU dann wieder mit FG zu 100% beschäftigen. :freak:

Wiseman
2023-05-22, 20:30:17
Du kannst dir solchen komplett wertlosen BS-Spam auch einfach mal sparen, wenn du es nicht zu sehr nötig hast.

:biggrin:

DrFreaK666
2023-05-22, 20:50:09
... Also eingestehen, dass Nvidia hier was geiles entwickelt hat und hoffen dass AMD bald qualitativ gut nachzieht wäre auch eine Möglichkeit;).

Sagen dass die Technologie interessant ist und kritisieren geht dann nicht?

RoughNeck
2023-05-22, 21:04:28
Man kann es auch so stehen lassen.
NVIDIA macht was neues, AMD ist erst bei der nächsten Gen mit dabei, versucht es mit Open Source (da eben Marktanteile fehlen). Ich für mich nehm alles mit was mir ein besseres Spielgefühl gibt aber eigentlich müsste die Spieleentwickler endlich mal die Engines verstehen lernen und da optimieren.
Stattdessen hat es sich so eingebürgert dass die Hardware Hersteller in dem Fall die Grafikkarten Hersteller in die Presche springen und hier Technologien bringen die toll sind, die Faulheit und Inkompetenz der Spieleindustrie aber fördert.

Ex3cut3r
2023-05-22, 21:20:08
FG funktioniert eigentlich immer ohne DLSS2. Natives 4k (TAA) mit FG kannst du fast immer problemlos nutzen.

Btw, Ex3cut3r übertreibt es oft, aber in diesem Fall hat er nicht unrecht. Ich wette die absolute Mehrheit derer die hier gegen FG wettern haben es noch nie live probiert. Es ist eine Wahnsinns Technologie und das könnte man auch als User des "anderen Lagers" eingestehen. Dass der Inputlag nicht in dem Maße sinkt wie die Framerate steigt (höher wird er ja gar nicht) wird 90% der Nutzer nicht auffallen. Und die 10% die es stört, lassen FG bei schnellen Shootern eben weg. Die signifikanten Vorteile die diese Technologie bietet wiegen diesen theoretischen Mini Nachteil mMn mehr als auf. Also eingestehen, dass Nvidia hier was geiles entwickelt hat und hoffen dass AMD bald qualitativ gut nachzieht wäre auch eine Möglichkeit;).

Bei den DLSS 2.0 Anfangszeiten war es doch genau dieselbe Leier. Einige wollten es damals auch mit "Gewalt" schlecht machen/reden.

Da kamen dann solche Argumente wie, wird eher kein Hersteller einbauen, wird wieder von der Bildfläche verschwinden, taugt nix, zu unscharf. Etc. Dargo und Co. waren da Spitzenreiter, die üblichen Leute halt. :wink:

Eines können diese Personen sehr gut, nämlich Argumente umdrehen sowie sich immer gezielt eine Person rausziehen, die halt diesen "Bullshit" nicht mitmachen will.

vinacis_vivids
2023-05-22, 21:38:25
Hat jemand schon die Red Devil 7900XT? Ist eine der wenigen mit 3x8pin Stromversorgung für max. 450W + 75W PCIe ~ 525W.

Raff
2023-05-22, 21:48:04
Ohne echtes, neues Reflex-Gegenstück in der Anwendung kann man es imho bleiben lassen, wenn man nicht konstant im Limit eines in-game-Limiters ist.
Ich hatte kurz eine 4090 wegen Lüftertests in horizontaler Montage verbaut und fand FG in W3 selbst im Limit bei 138fps seltsam anstrengend. Dass der Lag nicht zu den fps passt, kann man gar nicht wirklich in einer objektiven Metrik erfassen.

Man kann sich aber einfach dran gewöhnen. ;) Das Gefühl der Asynchronität geht weg.

MfG
Raff

aufkrawall
2023-05-22, 21:59:20
Man kann sich aber einfach dran gewöhnen. ;) Das Gefühl der Asynchronität geht weg.

Dürfte aber wiederkommen, wenn man in der Zwischenzeit etwas "Direktes" wie den MP-Shooter der Wahl mit nativen hohen fps + Reflex/Limiter gespielt hat.

Und lief hier halt trotzdem eh nicht richtig in W3 & CP77 auf der Zen 3-CPU:
https://abload.de/thumb/eln3fq6.png (https://abload.de/image.php?img=eln3fq6.png) https://abload.de/thumb/witcher3_2023_05_18_1fafbd.png (https://abload.de/image.php?img=witcher3_2023_05_18_1fafbd.png)

Gleich beim ersten Versuch den Treiber gecrasht. ;D
DLSS 3 hat sich bislang als riesiger Bug-Herder dargestellt, die Foren sind voll von Problemberichten. Der größte Vorteil von FG3 ist bislang die PR-Wirkung für Nvidia und Futter für Nvidia-Zombiekunden in sozialen Medien...

vinacis_vivids
2023-05-22, 22:11:20
Könnten die mods den ganzen off topic Müll wie DLSS ubd FG bitte in den anderen Thread verschieben ?

DrFreaK666
2023-05-22, 23:17:44
Ja bitte! Habs gemeldet, aber interessiert anscheinend niemanden :/

Thunder99
2023-05-23, 09:40:37
Overloaded wohl :D

FG auf AMD Seite muss aber kommen, damit sie Konkurrenzfähig bleiben. Die Bugs auf beiden Seiten (gehe ich davon aus) müssen aber angegangen werden.

GerryB
2023-05-23, 09:58:37
FG aber nur auf Grakas>8GB, meint Raff.
https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-8GB-Grafikkarte-279648/Videos/8-GiB-VRAM-1420317/

Schönes Bsp. in CP, ... FG macht Aua

Wie mal FG bei AMD sein wird, hinsichtlich mehr Vrambedarf, wird sicherlich interessant, würde
mir aber erst den Kopf darüber zerbrechen, wenns tatsächlich verfügbar ist.
dito
Latenzen, ... wäre beim AMD-Ansatz vermutlich net sooo gravierend schlechter ggü. FGoff.

In DX12 sollte eeh auch der CPU-Overhead bei AMD kleiner sein, vllt. passt FG dann besser.
(auch ohne CPU-prerender=0)

DrFreaK666
2023-05-23, 10:53:21
War zu erwarten, dass 8GB bei FG zum Problem werden können.
Ich erwarte bei AMD keine Wunderdinge. Hoffentlich arbeiten sie auch an einem Reflex-Konkurrenten. Höhere dargestellte FPS allein sollte nicht das Ziel sein

Raff
2023-05-23, 15:37:24
Dürfte aber wiederkommen, wenn man in der Zwischenzeit etwas "Direktes" wie den MP-Shooter der Wahl mit nativen hohen fps + Reflex/Limiter gespielt hat.

Und lief hier halt trotzdem eh nicht richtig in W3 & CP77 auf der Zen 3-CPU:
https://abload.de/thumb/eln3fq6.png (https://abload.de/image.php?img=eln3fq6.png) https://abload.de/thumb/witcher3_2023_05_18_1fafbd.png (https://abload.de/image.php?img=witcher3_2023_05_18_1fafbd.png)

Gleich beim ersten Versuch den Treiber gecrasht. ;D
DLSS 3 hat sich bislang als riesiger Bug-Herder dargestellt, die Foren sind voll von Problemberichten. Der größte Vorteil von FG3 ist bislang die PR-Wirkung für Nvidia und Futter für Nvidia-Zombiekunden in sozialen Medien...

Passend dazu: DLSS 3: Nvidia bestätigt Patch für Stottern in Cyberpunk 2077 und The Witcher 3 auf AMD Ryzen 7000 (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/News/DLSS-3-Patch-fuer-Stottern-in-Cyberpunk-2077-und-The-Withcer-3-auf-Ryzen-7000-1420278/)

Spätestens jetzt sollte das aber evtl. in den DLSS-Faden. :)

MfG
Raff

dildo4u
2023-05-26, 14:09:22
Neues Performance BIOS für ASrock 7900xtx Aqua.(+255mhz)


https://videocardz.com/newz/asrock-rx-7900-xtx-aqua-gets-an-extra-255-mhz-gpu-boost-with-the-new-extreme-oc-bios


vZm5iuYtGDU

dargo
2023-05-26, 14:18:06
Witzig... kein Wort zum Powerlimit. 500W oder mehr? X-D

vinacis_vivids
2023-05-26, 18:37:01
Den Speicher hätte Asrock auch mal auf 24Gbps aufrüsten könnte , aber das kommt wohl erst mit der 7950XTX. Hoffentlich kommt da die 192MB IF$ raus. Dann schwimmen die CUs in Bandbreite.

Das was AMD bei den CPUs macht ,gerne auch bei den GPUs machen.

GerryB
2023-05-26, 21:32:19
Witzig... kein Wort zum Powerlimit. 500W oder mehr? X-D
Thats 552W peak after +15% driver setting
schreibt Enzarch (hats auf ner MBA, maybe h2o)

dildo4u
2023-06-01, 16:22:30
Erste ML Optimierung für die 7900 Serie.

https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-5-2

aufkrawall
2023-06-02, 09:06:07
Die Hellhound hat wirklich eine fantastische Lüftersteuerung. Gilt sowohl für die Standard-Kurve, als auch die manuellen Option bis 530rpm runter (wie dargo ja schon gezeigt hatte). UV geht auch problemlos über WM, durch niedriger eingestellten Takt landet man halt immer auf einem tieferen Punkt auf der Takt/Spannungskurve und was man noch bei der einstellbaren Spannung runternehmen kann, wird dann als Offset berechnet. So komisch, so gut. Das war bei den RDNA2-Referenzkarten hier definitiv verbugter. Leider Hotspot-Delta nicht berauschend mit ~20K, aber es geht trotzdem noch sehr leiser und sicherer Betrieb. Surrt nur leider auch arg.

Aber was stimmt mit dieser GPU nicht (rhetorische Frage)? Was die bei 780mV und 2,5GHz säuft, geht auf keine Kuhhaut. Man, ist das traurig. Gemessen an der Performance dafür, einfach nur ein kompletter Schrotthaufen gegen die 4090. Aber die 4080 ist ja bei Raster noch ein Stück langsamer, fast noch trauriger. :eek: :eek:
Eigentlich braucht man ein Custom-Design, was 500-600W zulässt. Was man sonst an Takt wegschmeißt, ist nicht feierlich.

Taigatrommel
2023-06-02, 10:20:14
Eigentlich braucht man ein Custom-Design, was 500-600W zulässt. Was man sonst an Takt wegschmeißt, ist nicht feierlich.
Naja AMD hatte ja angemerkt, man hätte noch eine solche Variante auf den Markt bringen können, allerdings habe man sich dagegen entschieden. Ich persönlich möchte eigentlich, gerade im Sommer hier unterm Dach, keine 500W Grafikkarte im System haben und nutze schon die +15% bei meiner MBA Karte nicht, obwohl es temperaturtechnisch und auch von der Lautstärke her durchaus noch möglich wäre.

Wieviel UV ist denn bei deiner Hellhound möglich, nur mal so aus Interesse gefragt.

BlacKi
2023-06-02, 10:28:13
Ich persönlich möchte eigentlich, gerade im Sommer hier unterm Dach, keine 500W Grafikkarte im System haben und nutze schon die +15% bei meiner MBA Karte nicht, obwohl es temperaturtechnisch und auch von der Lautstärke her durchaus noch möglich wäre.


wir haben uns früher immer über doe tdp limitierungen bei nv aufgeregt. jetzt bei amd ist das was gutes?


ich finde limitierungen immer schlecht. zumindest bei nv gabs immer bios versionen mit besonders hohen werten zum flashen. und bei amd?


-10% powerlimit ist einfach lächerlich.

dargo
2023-06-02, 12:00:06
Aber was stimmt mit dieser GPU nicht (rhetorische Frage)? Was die bei 780mV und 2,5GHz säuft, geht auf keine Kuhhaut.
Das wüssten wir alle gerne. :freak: N31 ist imo komplett gefailed. Das was die RX 7900XTX da abliefert hätte in 250W reinpassen müssen. Dann wäre das ein gelungenes GPU-Design. Naja... dann muss es eben RDNA4 richten. Hoffentlich failed der nicht auch. X-D Noch komme ich mit der RX 6800XT wunderbar klar. Bis 2026 wird die aber wohl kaum mehr reichen. :tongue:

][immy
2023-06-02, 13:31:55
Das wüssten wir alle gerne. :freak: N31 ist imo komplett gefailed. Das was die RX 7900XTX da abliefert hätte in 250W reinpassen müssen. Dann wäre das ein gelungenes GPU-Design. Naja... dann muss es eben RDNA4 richten. Hoffentlich failed der nicht auch. X-D Noch komme ich mit der RX 6800XT wunderbar klar. Bis 2026 wird die aber wohl kaum mehr reichen. :tongue:
Naja die Probleme kommen wohl durch den chiplet Versuch. Wenn es reibungslos funktioniert hätte, hätte AMD den Markt gut aufmischen können, aber so hat es leider noch nicht richtig funktioniert.

Schon seltsam diese Entwicklung. Erst wir immer mehr auf einen Chip gepackt damit man die Wege kurz hält etc, und nun versucht man es aus Fertigungsgründen doch wieder etwas auseinander zu bekommen, unter anderem damit man einfacher skalieren kann. Hat halt auch Nachteile das ganze. Aber ich hoffe doch sehr das man keine ganze Generation warten muss, bis die die Kinderkrankheiten da raus haben. Ein guter refresh mit fixes könnte schon reichen, denn Potential hat das Design ja scheinbar, nur schafft es dies nicht umzusetzen.

Exxtreme
2023-06-02, 13:42:29
Das wüssten wir alle gerne. :freak: N31 ist imo komplett gefailed. Das was die RX 7900XTX da abliefert hätte in 250W reinpassen müssen. Dann wäre das ein gelungenes GPU-Design. Naja... dann muss es eben RDNA4 richten. Hoffentlich failed der nicht auch. X-D Noch komme ich mit der RX 6800XT wunderbar klar. Bis 2026 wird die aber wohl kaum mehr reichen. :tongue:

Als "gefailed" sehe ich das Ding jetzt nicht. Der Stromverbrauch könnte niedriger sein, ja. Aber das ist so ziemlich der einzige größere Nachteil, den N31 so hat. Ampere hat auch niemand als "gefailed" bezeichnet obwohl das noch viel mehr säuft. Und womöglich hat AMD nicht damit gerechnet, dass Ada so effizient wird.

The_Invisible
2023-06-02, 13:46:04
Das wüssten wir alle gerne. :freak: N31 ist imo komplett gefailed. Das was die RX 7900XTX da abliefert hätte in 250W reinpassen müssen. Dann wäre das ein gelungenes GPU-Design. Naja... dann muss es eben RDNA4 richten. Hoffentlich failed der nicht auch. X-D Noch komme ich mit der RX 6800XT wunderbar klar. Bis 2026 wird die aber wohl kaum mehr reichen. :tongue:

Kauf dir endlich eine 4080 und finde Frieden :D;)

BlacKi
2023-06-02, 14:02:06
Als "gefailed" sehe ich das Ding jetzt nicht. Der Stromverbrauch könnte niedriger sein, ja. Aber das ist so ziemlich der einzige größere Nachteil, den N31 so hat. Ampere hat auch niemand als "gefailed" bezeichnet obwohl das noch viel mehr säuft. Und womöglich hat AMD nicht damit gerechnet, dass Ada so effizient wird.


du vermischst da sachen. ampere hat deshalb so viel gesoffen, weil die fertigung sehr alt war und weil man keinen cache für die effizienz hatte.


in 7nm und mit mehr cache wäre ampere ziemlich sparsam gewesen.


das trifft auf rdna3 nicht zu. und seit der 7600 wissen wir, dass das chiplet design minimal an effizienz kostet.
https://abload.de/img/screenshot2023-06-02aotcl9.png

https://abload.de/img/screenshot2023-06-02a6te24.png

aber man muss das positiv sehen, dafür werden die nächsten generationen es einfacher haben sich von den vorgängern abzusetzen, so wie bei bulldozer vs ryzen.

aufkrawall
2023-06-02, 14:05:33
Ampere säuft massiv weniger mit vernünftiger Spannung knapp unterm Takt-Maximum. Navi 31 taktet bei 400W von 3GHz auf ~2,5GHz runter mit weit <1V. Das ganze Takt-Potenzial ist real quasi überhaupt nicht ausreizbar, was schon ein Novum ist.

Kauf dir endlich eine 4080 und finde Frieden :D;)
Eine noch teurere 4080 ist ja noch lächerlicher, wenn schon die bei Raster schnellere 7900 XTX nur +30-35% auf die 6900 XT drauflegt.
Das ganze Lovelace-Line-Up ist komplette Comedy bis auf die 4090. Schon die 7900 XTX fühlt sich stinklangsam im Vergleich zur 4090 an. Eigentlich absurd, für so einen Müll so viel Geld zu bezahlen.

Ex3cut3r
2023-06-02, 14:17:30
Dann eine 4090 kaufen. Und Ruhe.

dargo
2023-06-02, 14:26:26
[immy;13319529']Naja die Probleme kommen wohl durch den chiplet Versuch. Wenn es reibungslos funktioniert hätte, hätte AMD den Markt gut aufmischen können, aber so hat es leider noch nicht richtig funktioniert.

Am N33 sehe ich nicht, dass es am Chipletdesign liegt. N33 säuft ebenfalls zu viel für das was er leistet. Ergo bleibt nur das misslungene GPU-Design übrig.

Als "gefailed" sehe ich das Ding jetzt nicht. Der Stromverbrauch könnte niedriger sein, ja. Aber das ist so ziemlich der einzige größere Nachteil, den N31 so hat. Ampere hat auch niemand als "gefailed" bezeichnet obwohl das noch viel mehr säuft.
Ampere hatte ich öfter als Luftpumpe bezeichnet. Also stimmt schon mal dein "niemand" nicht. Und ich sehe nicht wo Ampere mehr saufen soll als N31. N31 säuft nüchtern betrachtet ähnlich wie Ampere, nur wurde N31 vom IHV stärker im PT eingebremst. Das Ding bräuchte eher 450-500W um sich normal entfalten zu können. Das sind Basics die längst bekannt sind.

Kauf dir endlich eine 4080 und finde Frieden :D;)
Wann rafft ihr endlich, dass ich keine Geforces mehr kaufe? Zumal eine RTX 4080 genauso langweilig vom Performanceuplift ist wie eine RX 7900XTX vs. RX 6800XT. "Nur" der Verbrauch ist besser. Im übrigen bin ich absolut zufrieden mit der RX 6800XT, hatte nur Lust auf was Neues was sich deutlich absetzt und dennoch sparsam ist. Aber wenn die IHVs nichts Vernünftiges auf die Kette bekommen muss ich dann wohl eine Gen immer überspringen. Schade...

Ex3cut3r
2023-06-02, 15:02:13
Sieht leider schlecht für dich in Zukunft aus, als ob RDNA 4 irgendwie besser werden wird, was Effizienz angeht. Blackwell wird ziemlich stark. Damit AMD irgendwie konkurrenzfähig bleibt, werden Sie schon wieder den Stromverbrauch erhöhen müssen. Ich rechne mit 450-500W Standard Verbrauch für den Top Dog.

aufkrawall
2023-06-02, 15:09:23
Fänd ich prima, wenn Leistung und Preis passen. Bei der 7900 XTX ist leider alles drei nicht so wirklich gegeben.

dildo4u
2023-06-02, 15:16:29
Sieht leider schlecht für dich in Zukunft aus, als ob RDNA 4 irgendwie besser werden wird, was Effizienz angeht. Blackwell wird ziemlich stark. Damit AMD irgendwie konkurrenzfähig bleibt, werden Sie schon wieder den Stromverbrauch erhöhen müssen. Ich rechne mit 450-500W Standard Verbrauch für den Top Dog.

Alles was jetzt auf dem Markt ist wurde vor 3-4 Jahren geplant AMD wird für die näste Generation massiv mehr Budget/Manpower haben.
Schon alleine da Microsoft und Sony neue Konsolen wollen die sind ohne massive Effizienz Gewinne nicht möglich.(Ich meine PS6 nicht PS5 Pro)
Sony macht zur Zeit ein massiven Anteil des Gameing Umsatz von AMD aus.

dargo
2023-06-02, 15:32:56
Alles was jetzt auf dem Markt ist wurde vor 3-4 Jahren geplant AMD wird für die näste Generation massiv mehr Budget/Manpower haben.

Imho hat das damit nichts zu tun. RDNA2 ist absolut gelungen und der stand noch wesentlich früher auf dem Plan. Da muss einfach bei RDNA3 was schief gelaufen sein in Bezug auf Stromverbrauch pro Frequenz, insbesondere bei höherer Shaderlast.

Sieht leider schlecht für dich in Zukunft aus, als ob RDNA 4 irgendwie besser werden wird, was Effizienz angeht. Blackwell wird ziemlich stark. Damit AMD irgendwie konkurrenzfähig bleibt, werden Sie schon wieder den Stromverbrauch erhöhen müssen. Ich rechne mit 450-500W Standard Verbrauch für den Top Dog.
Top Dogs sind für mich spätestens seit dieser GPU-Generation eh tot, saufen mir viel zu viel. Wichtig ist mir was das Performancesegment vs. Topdogs von 2020 leisten wird. Nach Möglichkeit bitte Faktor 2 von N21 in 200-250W. Dann bin ich absolut zufrieden. Diese neumodischen Heizstrahler bei den Topdogs gehen mir mittlerweile am Arsch vorbei.

aufkrawall
2023-06-02, 17:26:00
Verbrauch Gesamtkarte Idle übrigens 15W bei 4k 144Hz 10 Bit + VRR.

Langlay
2023-06-02, 17:54:19
Sieht leider schlecht für dich in Zukunft aus, als ob RDNA 4 irgendwie besser werden wird, was Effizienz angeht. Blackwell wird ziemlich stark. Damit AMD irgendwie konkurrenzfähig bleibt, werden Sie schon wieder den Stromverbrauch erhöhen müssen. Ich rechne mit 450-500W Standard Verbrauch für den Top Dog.

So pessimistisch bin ich nicht, bei RDNA4 werden die Karten halt wieder neu gemischt. Kann halt was gutes bei rauskommen wie RDNA2 oder halt was weniger gutes wie RDNA3.


Allerdings befürchte ich das RDNA4 weiterhin bei Raytracing schwächeln wird. Das ist halt eigentlich auch der Punkt der mich an den AMD Karten neben dem Stromverbrauch mit am meisten stört. Unausgewogene Raytracing Performance.


Top Dogs sind für mich spätestens seit dieser GPU-Generation eh tot, saufen mir viel zu viel. Wichtig ist mir was das Performancesegment vs. Topdogs von 2020 leisten wird. Nach Möglichkeit bitte Faktor 2 von N21 in 200-250W. Dann bin ich absolut zufrieden. Diese neumodischen Heizstrahler bei den Topdogs gehen mir mittlerweile am Arsch vorbei.

Das wird bei AMD wohl nur dann klappen wenn RDNA4 der grosse Wurf ist. Die Karte müsste ja 50-60% auf die 7900XTX drauflegen bei 100W+ weniger Verbrauch. Das seh ich nicht kommen. Beim Erzfeind würde man aber wohl fündig werden in der nächsten Generation. Die 4090 bringt ja schon 60% auf die 6900XT bei weniger Verbrauch als die 6900XT (Beide Karten natürlich undervoltet)

Ex3cut3r
2023-06-02, 18:09:26
Bis auf RDNA2 war eher vieles nicht so rosig bei den AMD GPUs die letzten Jahre. RDNA 2 war wohl leider ein positiver Einzelfall. Ich dachte eigentlich auch, dass RDNA 3 wieder wie RDNA 2 "gut" sein wird. War dann aber doch ein Fail, wie so oft. :redface:

Selbst wenn RDNA 4 wieder mehr, wie RDNA 2 sein sollte. DLSS 2 und 3, sowie RT sind einfach zu gute Argumente für eine Nvidia GPU. Vor allem, da auch die Radeons sehr teuer geworden sind. Sehe da überhaupt keinen Sinn, eine AMD Karte zu kaufen, aber jeder wie er mag. X-D

Langlay
2023-06-02, 19:00:59
Selbst wenn RDNA 4 wieder mehr, wie RDNA 2 sein sollte. DLSS 2 und 3, sowie RT sind einfach zu gute Argumente für eine Nvidia GPU. Vor allem, da auch die Radeons sehr teuer geworden sind. Sehe da überhaupt keinen Sinn, eine AMD Karte zu kaufen, aber jeder wie er mag. X-D

Naja welche Features man gerne hätte ist imo recht individuell. DLSS 3 (Framegeneration) z.b. geht mir voll am Arsch vorbei. Für meine Ansprüche ist das einfach nur ein sinnloses Feature.

Ja die Wahl zu haben zwischen DLSS 2 und FSR ist natürlich nice, aber hier drückt halt die Nvidia Marktmacht ihr proprietäres Zeug durch. Darauf könnte ich im Zweifel auch verzichten wenn der Rest stimmt.

Bei RT wird man sehen müssen, vielleicht kommt ja doch mehr als erwartet, aber das Navi41 die 4090 in RT deutlich hinter sich lässt seh ich halt auch nicht.

Ex3cut3r
2023-06-02, 19:02:44
Wieso das denn?

Bist du in UW 1440p nicht oft im CPU limit? Da hilft natürlich DLSS 3 (FG) ungemein.

Langlay
2023-06-02, 19:07:17
Wieso das denn?

Bist du in UW 1440p nicht oft im CPU limit? Da hilft natürlich DLSS 3 (FG) ungemein.

Ja und was hab ich davon? Ne höhere Zahl im FPS Counter und das gleiche Spielgefühl(Maus/Tastatureingaben werden halt nicht direkter) wie ohne FG.

Bringt mir also nicht wirklich was.

Ex3cut3r
2023-06-02, 19:25:45
Hmm. Hast du kein High Refresh Rate? Also 144HZ oder so? Fürs visuelle bringt es sowohl was. Des Weiteren bleibt die Latenz mit Reflex gleich. Also eigentlich verlierst du nix, sondern gewinnst an Flüssigkeit im Bild. Außerdem kann FG in manchen Spielen für rundere Frametimes sorgen. Ist z.B. in Hogwarts der Fall.

dargo
2023-06-02, 19:30:15
Bei RT wird man sehen müssen, vielleicht kommt ja doch mehr als erwartet, aber das Navi41 die 4090 in RT deutlich hinter sich lässt seh ich halt auch nicht.
Du versteifst dich da imho zu sehr auf die sehr ineffizienten RT-Implementierungen wo im Hauptfokus die schnellsten und teuersten Geforces lagen. Erstmal abwarten wie die ganzen neuen UE5-Games mit RT auf Radeon im Vergleich performen werden. Wobei selbst dort ist für mich RT kein Zugpferd. Ein Feature was ich einfach nebenher in den kommenden Jahren mitnehme. Wenn für dich RT eine sehr große Rolle spielt magst du das dann natürlich anders sehen.

Ex3cut3r
2023-06-02, 19:49:37
Fanboy Wunschdenken in a nutshell. ;D

Naja. Wenn es glücklich macht. Von mir aus.

aufkrawall
2023-06-02, 19:56:48
Hab ich dieses Jahr eigentlich schon irgendwas mit RT gespielt (abseits von ein paar Vergleichen)? Will mir gerade nichts einfallen, wo ich es selbst auf einer 4090 hätte nutzen wollen. Nur halbgarer Bugschrott gegen RT in Control oder WD Legion. Vielleicht kaufen auch nur Jensen-Opfer für so einen Müll extra teure Hardware...
Wobei ich noch halbwegs verstehen kann, wenn man ein paar Titel nachholen will. Aber da kommt fast nichts nach. Alan Wake 2 könnte ganz nett werden, wenn es nicht so langweilig wird wie Teil 1. Na ja, wow...

Langlay
2023-06-02, 20:11:46
Hmm. Hast du kein High Refresh Rate? Also 144HZ oder so? Fürs visuelle bringt es sowohl was. Des Weiteren bleibt die Latenz mit Reflex gleich. Also eigentlich verlierst du nix, sondern gewinnst an Flüssigkeit im Bild. Außerdem kann FG in manchen Spielen für rundere Frametimes sorgen. Ist z.B. in Hogwarts der Fall.

Ich hab ein 144Hz Display. Aber ob ich jetzt 80 FPS oder 140 FPS hab da seh ich kein Unterschied mehr in der visuellen Flüssigkeit. Ist vielleicht auch schon das Alter aber naja.

Allerdings von den Eingaben her, gibt es für ich in manchen Spielen schon einen merkbaren Unterschied zwischen 70-80 FPS und 120-140FPS z.b.

Du versteifst dich da imho zu sehr auf die sehr ineffizienten RT-Implementierungen wo im Hauptfokus die schnellsten und teuersten Geforces lagen. Erstmal abwarten wie die ganzen neuen UE5-Games mit RT auf Radeon im Vergleich performen werden. Wobei selbst dort ist für mich RT kein Zugpferd. Ein Feature was ich einfach nebenher in den kommenden Jahren mitnehme. Wenn für dich RT eine sehr große Rolle spielt magst du das dann natürlich anders sehen.


Brauchen tu ich RT nicht unbedingt, ich hätte es halt gerne.

Ich hab jetzt seit ich die 4090 hab Metro Exodus und Cyberpunk nochmal mit RT gespielt. Das war schon ganz nice. Jedi Surviver hab ich dann bis auf Jedha auch mit RT gespielt aber ja riesig ist hier der Unterschied nicht, aber wenn sich das Lichtschwert im Boden spiegelt ist schon nice.

gedi
2023-06-02, 22:08:01
RT bietet imo 0 Mehrwert. BTW. ist eine XTX gerade mal 7% hinter einer 4080! Anschalten tue ich den Krempel trotzdem nicht, da der Performance-Verlust im Vergleich zum (nicht) gebotenen viel zu heftig ist. Das betraf meine 3090Ti wie jetzt die XTX. Selbst auf einer 4090 würde ich RT niemals aktivieren. Es gibt im Umkehrschluss keinen Mehrwert. Da war einst HW TnL ne andere Hausnummer!

Exxtreme
2023-06-02, 22:10:34
Also WoW sieht mit RT hübscher aus. Nur ist das in WoW so effizient implementiert, dass nicht einmal RDNA2 große Probleme damit hat.

vinacis_vivids
2023-06-02, 23:59:26
RDNA3-Architektur hat ja schnelle KI-Cores eingebaut, die die Devs in KI statt scripted NPCs einbauen könnten. Das wäre mal spielerisch ein großer Fortschritt.

The_Invisible
2023-06-03, 08:46:37
RT bietet imo 0 Mehrwert. BTW. ist eine XTX gerade mal 7% hinter einer 4080! Anschalten tue ich den Krempel trotzdem nicht, da der Performance-Verlust im Vergleich zum (nicht) gebotenen viel zu heftig ist. Das betraf meine 3090Ti wie jetzt die XTX. Selbst auf einer 4090 würde ich RT niemals aktivieren. Es gibt im Umkehrschluss keinen Mehrwert. Da war einst HW TnL ne andere Hausnummer!

Hört doch mal auf mit den Unsinn, die 7% sind best case, die schlägt sich sonst mit den alten 3000ern herum: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/

Oder habt ihr schon di Vorabversion vom wundertreiber am laufen :D

@v_v
Stimmt hat ja auch NV vorgestellt...

basix
2023-06-03, 10:33:58
Du versteifst dich da imho zu sehr auf die sehr ineffizienten RT-Implementierungen wo im Hauptfokus die schnellsten und teuersten Geforces lagen. Erstmal abwarten wie die ganzen neuen UE5-Games mit RT auf Radeon im Vergleich performen werden. Wobei selbst dort ist für mich RT kein Zugpferd. Ein Feature was ich einfach nebenher in den kommenden Jahren mitnehme.

RT wird in der UE5 gut auf RDNA2+ performen. Das ist aber mit massig Optimierungsaufwand von Seiten Epic verbunden (sie können es sich aber leisten). Dazu noch die SW-RT Implementation, welche auf noch schwächeren Systemen ohne HW-RT Acceleration läuft. Epic hat aufgrund der Fortnite-Dollars einfach genug Ressourcen, um sowas zu stemmen. Das haben andere Engine-Hersteller nicht oder es dauert seine Zeit. Nicht ohne Grund wechseln viele Spiele-Franchises auf die UE5.

Aber lustig, dass RT für dich in der UE5 kein Zugpferd ist. Es ist neben Nanite das wichtigste Feature der UE5. Und ebenso wirst auch du vom optischen Sprung durch RT profitieren. In HW oder SW. So "nebenher" ;)

RT bietet imo 0 Mehrwert. BTW. ist eine XTX gerade mal 7% hinter einer 4080! Anschalten tue ich den Krempel trotzdem nicht, da der Performance-Verlust im Vergleich zum (nicht) gebotenen viel zu heftig ist. Das betraf meine 3090Ti wie jetzt die XTX. Selbst auf einer 4090 würde ich RT niemals aktivieren. Es gibt im Umkehrschluss keinen Mehrwert. Da war einst HW TnL ne andere Hausnummer!
Im Falle von fast komplett statischen Spielewelten und wenigen dynamischen Lichtquellen gewinnst du mit RT nicht viel, ja -> Baked Lighting.

Das ist aber eine nicht optimale Denkweise. Willst du Raster-Grafik auf das Niveau von RT-Grafik hieven, hast du in vielen Fällen sogar schlechtere Performance. Und daneben ist die Beleuchtung mehr oder minder statisch statt voll dynamisch. Du kannst jetzt also mit Stagnation bei der Grafik sowie statischen Spielewelten leben. Oder du kannst dich freuen, dass es bald besser aussehend und dynamischer wird.

==========================================

Ganz allgemein zu den Diskussionen hier im 3DC:
Dieses Schlechtreden von RT und ganz allgemein neuen Dingen geht mir auf den Sack. Es gibt so viele Beispiele wo es mit RT viel besser aussieht und dazu dynamisch bleibt. Kostet das Performance? Ja. Ist es das wert? Muss jeder für sich entscheiden (für etwas gibt es Qualitätsregler in den Spielen). Gibt es sehr schlechte RT-Implementaionen hinsichtlich Qualität vs. Performance? Ja. Ist RT die Zukunft? Definitiv Ja. Man sollte sich eigentlich freuen, dass es beachtbare Fortschritte bei der Spielegrafik gibt. Ob man es Stand heute nun nutzt oder nicht. Man sollte RT als technologischen Fortschritt betrachten. Und wartet nur, bis ML/AI sich stärker durchsetzt. Dann wird gegen das anstatt RT gelästert ("meine CPU oder GPU kann das nicht genug schnell = ML/AI ist schlecht").

Schlecht optimierte (RT-)Implementierungen bei übermonetarisierten Spielen sind ein ganz anderes Problem, nämlich der gesamten Spieleindustrie. Neben viel zu hohen GPU-Preisen. Wären Spiele besser optimiert (Performance, Bugs) und die GPUs halb so teuer, würde mit hoher Wahrscheinlichkeit fast niemand gegen RT motzen. Und jetzt haltet euch fest: Spiele wären auch ohne RT schlecht optimiert und GPUs ohne HW-RT genau gleich teuer wie heute.

Lurtz
2023-06-03, 11:57:19
RT wird in der UE5 gut auf RDNA2+ performen. Das ist aber mit massig Optimierungsaufwand von Seiten Epic verbunden (sie können es sich aber leisten). Dazu noch die SW-RT Implementation, welche auf noch schwächeren Systemen ohne HW-RT Acceleration läuft. Epic hat aufgrund der Fortnite-Dollars einfach genug Ressourcen, um sowas zu stemmen. Das haben andere Engine-Hersteller nicht oder es dauert seine Zeit. Nicht ohne Grund wechseln viele Spiele-Franchises auf die UE5.

Zeigt ja nur, dass brauchbares RT sehr wohl vernünftig auf RDNA funktionieren kann, ganz im Gegensatz zu den von nVidia gesponsorten Techdemos, bei denen die Performance auf Radeons schon vor Raytracing mies ist und die dann zum Maßstab erhoben werden.
Aber lustig, dass RT für dich in der UE5 kein Zugpferd ist. Es ist neben Nanite das wichtigste Feature der UE5. Und ebenso wirst auch du vom optischen Sprung durch RT profitieren. In HW oder SW. So "nebenher" ;)
Eine RTX 4070 schafft es in 1440p Epic RT On schon in Fortnite kaum über die 60 fps. Selbst eine 6800 XT kann da noch sehr gut mithalten. Insofern ist es mal wieder völlig verkürzt, das auf nVidia vs AMD zu reduzieren.

In der Mittelklasse kauft der Großteil nVidia, auch wegen der nachgesagten RT-Stärke, in der Mehrheit der Spiele performt es aus diversen Gründen dann aber gar nicht so viel besser, und wenn dann noch Unfälle wie ungenügende VRAM-Ausstattung dazu kommen, auch schnell mal schlechter. Insofern halte ich die Relevanz für den Großteil des Marktes für noch sehr überschaubar. Falls die Leute es bei den Kosten auf nicht Highend-GPUs überhaupt dauerhaft nutzen.

Schlecht optimierte (RT-)Implementierungen bei übermonetarisierten Spielen sind ein ganz anderes Problem, nämlich der gesamten Spieleindustrie. Neben viel zu hohen GPU-Preisen. Wären Spiele besser optimiert (Performance, Bugs) und die GPUs halb so teuer, würde mit hoher Wahrscheinlichkeit fast niemand gegen RT motzen. Und jetzt haltet euch fest: Spiele wären auch ohne RT schlecht optimiert und GPUs ohne HW-RT genau gleich teuer wie heute.
Die haben mittlerweile nur leider wieder Überhand genommen. Gelungene oder überhaupt RTGI gibts ja eh selten, meist fühlt es sich nur wie ein Checklistenfeature an, das man schnell noch eingebaut hat und bei dem jemand blind auf RTAO, RT Shadows oder RT Reflections getippt hat.

Matrix316
2023-06-03, 12:16:12
[...] Vor allem, da auch die Radeons sehr teuer geworden sind. Sehe da überhaupt keinen Sinn, eine AMD Karte zu kaufen, aber jeder wie er mag. X-D
Doch, man bekommt den alten Stromstecker noch und nicht diesen komischen neuen 12 Pin da. :freak: (es sei denn AMD stellt dann auch um... ) Und etwas billiger sind die Radeons auch noch.

Exxtreme
2023-06-03, 12:35:12
Ganz allgemein zu den Diskussionen hier im 3DC:
Dieses Schlechtreden von RT und ganz allgemein neuen Dingen geht mir auf den Sack. Es gibt so viele Beispiele wo es mit RT viel besser aussieht und dazu dynamisch bleibt.

Das Problem dürften die derzeit verfügbaren RT-Implementierungen in Spielen sein. Der optische Gewinn ist oft nicht sehr hoch, die Performance leidet aber z.T. extrem. Ich glaube, den Spieleentwicklern fehlt die Erfahrung wie man das richtig macht. Man hat auf der einen Seite Beispiele wie WoW, wo RT das Spiel etwas aufhübscht. Aber das, was man da sieht, wäre wohl auch ohne RT problemlos möglich. Auf der anderen Seite hat man sowas wie CP2077 wo RT extrem übertrieben eingesetzt wird und das deswegen auch schlecht aussieht. Und langsam läuft das auch noch.

Das sind halt Wachstumsschmerzen einer neuen Technologie. Bzw. so neu ist das jetzt auch nicht mehr. RT ist seit Jahrzehnten gelöst. Fehlt halt die Erfahrung oder die Budgets sind zu niedrig für Optimierungen etc.

Matrix316
2023-06-03, 12:42:40
Reytracing ist halt genauso ähnlich wie Hairworks. Braucht viel Power, sieht schön aus - aber nur, wenn man stehen bleibt und genau hinschaut und dann auch noch im direkten Vergleich ohne.

Normalerweise gerade in Actionspielen fällt das kaum auf, dass man RT aktiviert hat, weil man wichtigeres zu tun hat.

r3ptil3
2023-06-03, 12:52:37
@Matrix316

Das könnte man aber auch auf ganz andere Grafikeinstellungen beziehen.
Würde man sogar oft auch keinen Unterschied zwischen Ultra und Medium erkennen.
AA/AF hingegen erkennt man praktisch immer.

Die negative Stimmung hier überrascht mich aber. Ich hatte ja im Dezember einen kurzen Ausflug mit einer XTX und da war m.M.n. eine RX 6000 empfehlenswerter, dass das aber heute immer noch so ist, ist schon schade.

Letztens habe ich aber gesehen, dass ein FPS-Lock nun entsprechend auch einen massiv tieferen Verbrauch verursacht. Da war die 7900 XTX nicht weit von der 4090 entfernt. Kann das jemand bestätigen?

HOT
2023-06-03, 12:54:54
Bei vielen Titeln unterscheidet sich RT-Schatten und -Beleuchtung nach meiner Erfahren genau gar nicht vom Rastercontent im Eifer des Spielens oder es ist etwas anders, aber es fällt weder positiv noch negativ auf.
Meiner Erfahrung nach fällt RT vor allem bei Wasser+Booten besonders auf durch Spieglungen, die mit Rasterization einfach unmöglich zu realisieren sind und deshalb richtig schlecht oder gar störend wirken. Das gibt RT tatsächlich zusätzliche Immersion. Dagegen gibt es aber auch viele Darstellungsprobleme mit aktivem RT in einer Vielzahl von Spielen, was auch uncool ist.

RT gibt Realismus, aber es ist meist einfach nicht unmittelbar ersichtlich, ob real besser ist als fake, von daher verstehe ich die ganzen negativen Reaktionen auf RT sehr gut.
Es wird in Zukunft darauf ankommen genau hier anzusetzen und RT eigentlich nur dort einzusetzen, wo es einen realen Mehrwert bringt und nicht global mit dem Holzhammmer alles zu RTen. Das wird scheitern, weil die Konsolen das schlichtweg nicht können bis 2027 oder gar darüber hinaus.

Die 7900XTX ist durchaus schnell genug für die meisten RT-Titel, aber es ergibt oft einfach wenig Sinn das einzuschalten oder nur partiell. Die Spieglungen beim W3 beispielsweise sind nice, das geht gut.
Schaut man sich die Performance bei vielen Tests an, muss man konstatieren, dass die AMDs nur in ausgewählten Titeln richtig abkacken wie CP77, was natürlich dank der NV-Shader kein Wunder ist. Es gibt aber noch ein paar andere Titel, die richtig schlecht laufen. Nimmt man diese raus, ist man ca. 10% hinter der 4080, das ist jetzt nicht so viel Unterschied.
Testet man nur ausgewählte RT-Optionen wie CB das macht (was ich gut finde, weil das einen Kontrast zu anderen immer-nur-Ultra-RT-Tests bietet) egalisiert sich der Unterschied weiter.

Ex3cut3r
2023-06-03, 13:05:33
Doch, man bekommt den alten Stromstecker noch und nicht diesen komischen neuen 12 Pin da. :freak: (es sei denn AMD stellt dann auch um... ) Und etwas billiger sind die Radeons auch noch.

Und? Besser als 3x 8-Pin allemal. Das Abfackeln kam nur zustande, weil die meisten User ihn nicht bis zum "Hals" reingedrückt haben.

Ansonsten, was hat man von einer Radeon im Vergleich zu einer 4080?

Mehr VRAM, den man aber in 99% der Spiele nicht nutzen kann.

FSR 2.0 ist schlechter als DLSS 2, gegen 3 hat AMD immer noch nichts entgegenzusetzen, ist jetzt fast 1 Jahr rum. RT Leistung ist auch sehr viel schlechter. Wollen aber trotzdem 1000€ für eine Radeon, da ist die 4080 auch nicht mehr weit weg. Was bleibt also auf der AMD Haben Seite? Ich weiß es nicht, die Fanboys vlt? ;D

Platos
2023-06-03, 13:10:26
@Hot's Kommentar: Es geht ja auch nicht darum, dass man sagt: "oh he, da der RT Schatten sieht aber gut aus".

Es ist eher eine viel Realistischere Atmosphäre.

Ich stimme aber zu, dass das nur in wenigen Titeln der Fall ist und bei diesen hat man bei der Hälfte das Gefühl, dass man sich einfach keine Mühe gemacht hat bei Raster.

Aber ja wo RT eirklich ganz anders aussieht ist wirklich Wasser und Boden. Ich würde aber Boden durch Oberflächen austauschen. Denn auch Charakter sehen einfach deutlich realisitscher aus durch Schatten- und Lichtverhältnisse (zumindest Hauptcharaktere).

Also wer z.B in Witcher 3 sagt, er sähe da keinen grossen optischen Gewinn durch RT, kann man einfach nicht ernst nehmen.

Das Gute daran ist: Das ist ein Musterbeispiel dafür, wo man unmöglich sagen kann, dass ja Raster zugunsten von RT vernachlässigt wurde. RT wurde ja erst nachträglich hinzugefügt.

Schlecht daran: Gibt halt auch viele schlechte Beispiele, wo es sich kaum lohnt.

Reytracing ist halt genauso ähnlich wie Hairworks. Braucht viel Power, sieht schön aus - aber nur, wenn man stehen bleibt und genau hinschaut und dann auch noch im direkten Vergleich ohne.

Normalerweise gerade in Actionspielen fällt das kaum auf, dass man RT aktiviert hat, weil man wichtigeres zu tun hat.

Nicht mal ansatzweise. Hairworks sieht einfach scheisse aus, weil komplett unnatürliche Haarbewegungen (und auch die Haare selbst sind kacke).

HOT
2023-06-03, 13:22:19
Bei W3 gibt es nur mit Spieglungen echte optische Unterschiede, den Rest würd ich auslassen, gibt keinen sinnvollen Unterschied - im Gegenteil bis zum Patch war das Schatten-geploppe extrem nervig mit RT. Ich hab lange mit allem aktiv und dann einige Zeit ganz ohne RT und dann den Rest des Spieles mit nur noch Spieglungen gespielt, bin jetzt fast durch, komplette Welt umgekrempelt+beide DLCs.

[...]
Es ist eher eine viel Realistischere Atmosphäre.
[...]

Das bestreite ich entschieden. Kein einziges von mir mit RT getestetes Spiele hat eine "realistischere" Atmosphäre, und nur ein einziges Spiel profitiert wirklich hart von RT, aber vor allem, weil der Restercontent echt lahm ist und das ist Control. Die sonstigen bisherigen RT-Implementationen, die ich getestet habe, sind nice-to-have bis muss-man-nicht-machen. Fun-fact am Rande, bei W3 spiegeln die Wasser-Oberflächen nett, aber alle Spiegel sind stumpf :D.

r3ptil3
2023-06-03, 14:24:29
Toller Artikel von Techpowerup (https://www.techpowerup.com/review/powercolor-tul-factory-tour/):

PowerColor Factory Tour - How Graphics Cards Are Made (https://www.techpowerup.com/review/powercolor-tul-factory-tour/)

Hat so 2000er Vibes :D

Unter "In Line Testing" sieht man auch wie die ihre GPUs testen vor der Auslieferung.

dman
2023-06-03, 14:45:14
Da war wohl gerade Tag der offenen Tür:biggrin:

cqbad_ZJKkA

Wenn ich mich nicht täusche, laufen da sogar 7900XTX Hellhound Grakas vom Band.

dargo
2023-06-03, 15:29:28
Guten Morgen. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13319646&postcount=336

Hatte es dort verlinkt da zuerst Platinen der RX 6700XT zu sehen waren.

aufkrawall
2023-06-03, 16:11:40
Letztens habe ich aber gesehen, dass ein FPS-Lock nun entsprechend auch einen massiv tieferen Verbrauch verursacht. Da war die 7900 XTX nicht weit von der 4090 entfernt. Kann das jemand bestätigen?
Der Teillastverbrauch von RDNA3 ist immer noch eine Katastrophe gegen Lovelace/RDNA2. Diese Gen ist einfach kaputt.

Matrix316
2023-06-03, 18:50:33
Und? Besser als 3x 8-Pin allemal. Das Abfackeln kam nur zustande, weil die meisten User ihn nicht bis zum "Hals" reingedrückt haben.

Ansonsten, was hat man von einer Radeon im Vergleich zu einer 4080?

Mehr VRAM, den man aber in 99% der Spiele nicht nutzen kann.

FSR 2.0 ist schlechter als DLSS 2, gegen 3 hat AMD immer noch nichts entgegenzusetzen, ist jetzt fast 1 Jahr rum. RT Leistung ist auch sehr viel schlechter. Wollen aber trotzdem 1000€ für eine Radeon, da ist die 4080 auch nicht mehr weit weg. Was bleibt also auf der AMD Haben Seite? Ich weiß es nicht, die Fanboys vlt? ;D
Man spart schon so 200 Euro im Schnitt und bekommt Lüfter die nicht komische Nebengeräusche machen wie bei vielen billigen 40er Geforce Karten. :freak:

aufkrawall
2023-06-03, 18:59:03
Also wer z.B in Witcher 3 sagt, er sähe da keinen grossen optischen Gewinn durch RT, kann man einfach nicht ernst nehmen.

Und ich kann niemanden ernst nehmen, der so einen Schrott für gut befindet:
https://abload.de/thumb/witcher3_2023_05_12_0h6dju.jpg (https://abload.de/image.php?img=witcher3_2023_05_12_0h6dju.jpg) https://abload.de/thumb/witcher3_2023_05_12_0nhi78.jpg (https://abload.de/image.php?img=witcher3_2023_05_12_0nhi78.jpg)

Und ja, das sieht ständig viel zu dunkel aus. RT ist leider einfach nur eine Missgeburt in den meisten Titeln...

In DL2 ist es übrigens mittlerweile umgekehrt. Da wurde für Raster-Beleuchtung per Patches übel am Kontrast gedreht, sodass auch ständig riese Bereiche absaufen. Mit RT ist es stattdessen "normal-hell" ausgeleuchtet. Gibt also auch die Gegenbeispiele, wenn auch abzählbar an ca. einer Hand...

Ex3cut3r
2023-06-03, 20:13:11
Sieht beides scheiße aus, wenigstens wird das Gras aber besser schattiert, das Gebüsch ist leider zu dunkel, da ersäuft alles schwarz.

Man spart schon so 200 Euro im Schnitt und bekommt Lüfter die nicht komische Nebengeräusche machen wie bei vielen billigen 40er Geforce Karten. :freak:

200€ für DLSS 2 und DLSS 3 und mehr RT Leistung, wäre es mir sofort wert. KA was für Custom Modelle du so nutzt, hatte ich noch nie.

EDIT: Sind, stand jetzt, keine 200€ sondern 142€

Platos
2023-06-03, 21:58:24
Und ich kann niemanden ernst nehmen, der so einen Schrott für gut befindet:
https://abload.de/thumb/witcher3_2023_05_12_0h6dju.jpg (https://abload.de/image.php?img=witcher3_2023_05_12_0h6dju.jpg) https://abload.de/thumb/witcher3_2023_05_12_0nhi78.jpg (https://abload.de/image.php?img=witcher3_2023_05_12_0nhi78.jpg)

Und ja, das sieht ständig viel zu dunkel aus. RT ist leider einfach nur eine Missgeburt in den meisten Titeln...

In DL2 ist es übrigens mittlerweile umgekehrt. Da wurde für Raster-Beleuchtung per Patches übel am Kontrast gedreht, sodass auch ständig riese Bereiche absaufen. Mit RT ist es stattdessen "normal-hell" ausgeleuchtet. Gibt also auch die Gegenbeispiele, wenn auch abzählbar an ca. einer Hand...

Wo machst du das denn fest, dass es zu dunkel ist? Wegen dieser einen Stelle im Gebüsch ? Eher ist es künstlich hell bei nicht RT. Und schau mal das Wasser an...

aufkrawall
2023-06-03, 22:02:46
Wo machst du das denn fest, dass es zu dunkel ist? Eher ist es künstlich hell und schau mal das Wasser an...
Das Wasser ist schon klar, darum ging es aber nicht. Dass es zu dunkel ist, mache ich daran fest, dass im am helllichten Tag ständig selbst viele weitestgehend frei stehende Objekte nur schlecht erkennen kann, trotz BT.1886 Gammakurve. Das Tonemapping/Exposure/Eye Adapatation ist offensichtlich einfach 0 an RT angepasst (und war schon im Originalspiel Müll). Das sieht zum Ablachen verunglückt vs. Lumen in Fortnite aus. Und in Novigrad bleedet es übrigens auch in Gebäude rein, bevor das jemand bei Fortnite (ansonsten aber zurecht) hervorheben will...

Platos
2023-06-03, 22:37:19
Die stelle sieht zwar jetzt grad schlecht aus, aber insgesammt finde ich es besser, wie eben ohne RT bei Witcher 3.

https://www.youtube.com/watch?v=GxJmwUcSvG0

Ich finde hier genug Szenen, die mit RT für mich besser aussehen.

aufkrawall
2023-06-03, 22:43:33
Das bestreite ich auch nicht. Das nützt mir aber nichts, wenn es mich in anderen Szenen massiv stört und die Performance auch auf GeForces massiv reduziert ist.
Auch wenn meine Platte einen Sprung hat: In DL2 nervt am RT quasi gar nichts, sieht sogar mit FSR 2-Mod (!) sauber aus. Und das hat auch, ähnlich W3, ansonsten eher altertümliches Rendering.
Wie man angesichts von DL2 oder Fortnite das RT in Witcher 3 als gut bezeichnen kann, will sich mir daher nicht erschließen...

Die Wasser-Reflexionen ggf. mal ausgenommen. Wobei das Gerausche aber auch nervt.

Tesseract
2023-06-03, 22:47:46
das ganze spiel sieht mit RT wesentlich plastischer aus und zwar an jedem ort den ich mir seit dem patch angesehen habe. für jede szene die mit viel fantasie "schlechter" sein könnte gibt es haufenweise andere die wesentlich besser sind.

wer behauptet da sei kein wesentlicher unterschied ist entweder blind oder hat eine agenda.

aufkrawall
2023-06-03, 22:51:02
Ja, die Agenda, dass das Bild nicht massiv zu dunkel ist. ;D