PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15

Tesseract
2023-06-03, 22:55:27
ich habe sicher 10 savegames an verschiedenen stellen im spiel geladen und keine vegetation gesehen die so dunkel ist. willst du mir ernsthaft erzählen das sei repräsentativ?

Platos
2023-06-03, 22:55:56
Edit: Wobei ich sagen muss, dass ich eig. unzählgie Mods installiert habe und somit gar nicht gewöhnt bin, wie es vanilla aussieht (nur am Anfang) :D

Also vlt. ist es dadurch einfach besser.

Das bestreite ich auch nicht. Das nützt mir aber nichts, wenn es mich in anderen Szenen massiv stört und die Performance auch auf GeForces massiv reduziert ist.
Auch wenn meine Platte einen Sprung hat: In DL2 nervt am RT quasi gar nichts, sieht sogar mit FSR 2-Mod (!) sauber aus. Und das hat auch, ähnlich W3, ansonsten eher altertümliches Rendering.
Wie man angesichts von DL2 oder Fortnite das RT in Witcher 3 als gut bezeichnen kann, will sich mir daher nicht erschließen...

Die Wasser-Reflexionen ggf. mal ausgenommen. Wobei das Gerausche aber auch nervt.

Bei mir kommts halt nicht mehr drauf an. 4k60FPS, mehr kann mein Monitor nicht. Und das erreiche ich auch mit RT.

Naja, im Endeffekt gefällts mir mehr. Muss halt jeder selber wissen, was er wie stark gewichtet bzw. was einen wie stark stört.

das ganze spiel sieht mit RT wesentlich plastischer aus und zwar an jedem ort den ich mir seit dem patch angesehen habe. für jede szene die mit viel fantasie "schlechter" sein könnte gibt es haufenweise andere die wesentlich besser sind.

wer behauptet da sei kein wesentlicher unterschied ist entweder blind oder hat eine agenda.

Das finde ich halt nicht. Aber gibts überhaupt irgend ein Spiel, wo du RT gut findest?

ich habe sicher 10 savegames an verschiedenen stellen im spiel geladen und keine vegetation gesehen die so dunkel ist. willst du mir ernsthaft erzählen das sei repräsentativ?

Ist mir jetzt auch nie aufgefallen, aber kann gut sein, dass ich es einfach nicht bemerkt hatte.

aufkrawall
2023-06-03, 23:01:54
ich habe sicher 10 savegames an verschiedenen stellen im spiel geladen und keine vegetation gesehen die so dunkel ist. willst du mir ernsthaft erzählen das sei repräsentativ?
Nein, denn wenn du es trotzdem nicht merkst, erübrigt sich die Diskussion. Tipp: Schau mal wieder einen Animationsfilm oder aus dem Fenster.

Tesseract
2023-06-03, 23:25:24
Nein, denn wenn du es trotzdem nicht merkst, erübrigt sich die Diskussion. Tipp: Schau mal wieder einen Animationsfilm oder aus dem Fenster.
reine polemik.

Das finde ich halt nicht. Aber gibts überhaupt irgend ein Spiel, wo du RT gut findest?
hast du da was falsches gequotet? rein visuell fand ich bisher alle RTGI sehr beeindruckend gegenüber den alternativen.

Ist mir jetzt auch nie aufgefallen, aber kann gut sein, dass ich es einfach nicht bemerkt hatte.
ich bestreite nicht dass es solche stellen gibt, aber sie sind cherry-picking.

Platos
2023-06-03, 23:30:26
hast du da was falsches gequotet? rein visuell fand ich bisher alle RTGI sehr beeindruckend gegenüber den alternativen.


Dann habe ich dich wohl falsch verstanden (und wohl auch mit Extreeme verwechselt^^). Dachte plastischer soll irgendwie künstlicher heissen :)

aufkrawall
2023-06-03, 23:39:25
reine polemik.

Deine "Agenda"-Aussage natürlich gar nicht...

The_Invisible
2023-06-04, 09:28:01
Den "Kleinkrieg" gabs genauso zu Anfangszeiten der Shader, nur das NV dort ca. genau soviel im Rückstand war. Durchgesetzt hat es sich trotzdem und war mir eine Ehre dabei zu sein, auch mit einer NV Gurke.

Warum in einem Tech-Forum so gegen RT geritten wird frage ich mich auch, ich denke aber wenn Team Rot auch ädequate Leistung bereitsstellt wirds auch in dem Lager plötzlich ganz super sein ;)

Lurtz
2023-06-04, 09:47:54
Das Problem ist viel mehr mangelnde Differenzierung. aufkrawall eine Agenda gegen RT vorzuwerfen, ist vollkommen absurd, so sehr wie er RT auch schon gepriesen hat, das Problem ist wie gesagt, dass die Implementierungen im Großteil der Fälle völliger Crap sind, erst recht wenn man den Performance-Aspekt mit einbezieht.

Aber klar ist die Situation mit dem Beginn der Shader zu vergleichen. Das Quecksilber-Wasser von Morrowind war damals auch irgendwie beeindruckend, die Grafik des Spiels hat es dennoch nicht gerettet... Wie waren denn damals die Kosten? War das praktisch for free, wenn die Karte die Shader überhaupt unterstützt hat?

00-Schneider
2023-06-04, 09:51:22
Aber klar ist die Situation mit dem Beginn der Shader zu vergleichen. Das Quecksilber-Wasser von Morrowind war damals auch irgendwie beeindruckend, die Grafik des Spiels hat es dennoch nicht gerettet... Wie waren denn damals die Kosten? War das praktisch for free, wenn die Karte die Shader überhaupt unterstützt hat?


Naja, das Quecksilberwasser wurde auch bei der Xbox Fassung genutzt, welche leistungstechnisch eine "Geforce 2,5" GPU verbaut hatte. Insofern war das jetzt nicht super heavy.

DrFreaK666
2023-06-04, 10:38:08
Die Xbox ist was Details angeht der PC-Version unterlegen. Für das Wasser mussten wahrscheinlich ein paar andere Details flöten gehen (Sicht"weite" noch geringer?)

HOT
2023-06-04, 10:46:22
Die stelle sieht zwar jetzt grad schlecht aus, aber insgesammt finde ich es besser, wie eben ohne RT bei Witcher 3.

https://www.youtube.com/watch?v=GxJmwUcSvG0

Ich finde hier genug Szenen, die mit RT für mich besser aussehen.
Klar mit den verbuggten Schatten damals zu vergleichen ist natürlich toll :freak:. Ich sag ja, die Spieglungen sind bei RT ein echter Gewinn, der rest jedoch genau 0 bei W3.
Sowohl Rasterschatten als auch RT-Schatten sind mittlerweile gefixed, waren beide unterschiedlich verbuggt. Ein Video von vor 5 Monaten ist also reiner BS. Und da sieht auch nix "plastischer" aus, wenn man RT anmacht (zum Glück), denn das wäre ein Nachteil, da das überhaupt nicht zum Spiel passen würde ;).

Wer W3 mit Spieglungen spielt hat das Optimum gesehen und das läuft auf ner XTX so mit >80FPS größtenteils.

Tesseract
2023-06-04, 15:03:28
Das Problem ist viel mehr mangelnde Differenzierung. aufkrawall eine Agenda gegen RT vorzuwerfen, ist vollkommen absurd, so sehr wie er RT auch schon gepriesen hat, das Problem ist wie gesagt, dass die Implementierungen im Großteil der Fälle völliger Crap sind, erst recht wenn man den Performance-Aspekt mit einbezieht.

du bist also ernsthaft der meinung dass diese völlig geladenen diskussionen den technischen aspekt akkurat wiedergeben? dass zu z.B. vor 10 jahren artists, developern usw. eine demo vom heutigen W3 RT on/off (oder auch anderen spielen) oder eines der vergleichsvideos (ohne beschriftung) im blindtest zum vergleich hingelegt hättest und die hätten auf RTGI gezeigt und gemeint das wäre "völliger crap"?

Lurtz
2023-06-04, 17:11:18
Komisch konstruiertes Szenario. Rastergrafik ist auch nicht auf dem Stand von vor zehn Jahren, insofern ist das überhaupt kein Vergleich zwischen RT On oder Off.

Tesseract
2023-06-04, 18:21:56
was hat damalige rastergrafik mit einem direkten vergleich RT on vs off der aktuellen version zu tun? der sinn der übung ist ein vergleich unabhängig vom aktuellen markt und dem ganzen fanboy-appendix. stell dir vor das vergleichsvideo würde (ohne logos) auf einer damaligen siggraph gezeigt werden.

Ex3cut3r
2023-06-04, 19:01:28
Das Problem ist viel mehr mangelnde Differenzierung. aufkrawall eine Agenda gegen RT vorzuwerfen, ist vollkommen absurd, so sehr wie er RT auch schon gepriesen hat, das Problem ist wie gesagt, dass die Implementierungen im Großteil der Fälle völliger Crap sind, erst recht wenn man den Performance-Aspekt mit einbezieht.

Aber klar ist die Situation mit dem Beginn der Shader zu vergleichen. Das Quecksilber-Wasser von Morrowind war damals auch irgendwie beeindruckend, die Grafik des Spiels hat es dennoch nicht gerettet... Wie waren denn damals die Kosten? War das praktisch for free, wenn die Karte die Shader überhaupt unterstützt hat?

Naja, ändert sich bei Ihm ziemlich mit dem Hersteller von wem er grade eine GPU im PC stecken hat. Als er die 3060 noch hatte, hat er regelmäßig mit RT gespielt, sei es DL2 oder CP77 gewesen. Jetzt hat er eine Radeon und plötzlich gibt es kaum gute RT Implementierungen (angeblich) Nein, kann ich daher auch nicht wirklich ernst oder subjektiv wahrnehmen.

Bei W3 bin ich aber absolut bei ihm, mir war das RT schon immer zu dunkel. Auch in Innenräumen mit Kerzen im Raum, ist der Raum trotzdem komplett dunkel, das Licht scheint sich gar nicht im Raum zu "verteilen" von daher einer der schlechtesten RT Implemntierungen überhaupt. Ja.

OpenVMSwartoll
2023-06-04, 19:43:09
was hat damalige rastergrafik mit einem direkten vergleich RT on vs off der aktuellen version zu tun? der sinn der übung ist ein vergleich unabhängig vom aktuellen markt und dem ganzen fanboy-appendix. stell dir vor das vergleichsvideo würde (ohne logos) auf einer damaligen siggraph gezeigt werden.

Ich erinnere mich noch, wie toll es in den Neunzigern war, RT-generierte Bilder oder Animationen zu betrachten.

Nun sind wir auf dem Weg, es in Echtzeit sehen zu können. Sicher gibt es noch massive Performance-Einschnitte und die Darstellung ist noch eher grober Natur.

Aber W3 ist kein gutes Beispiel, da hier die Technologie im Nachhinein aufgestülpt wurde.

Exxtreme
2023-06-04, 20:13:23
Komisch konstruiertes Szenario. Rastergrafik ist auch nicht auf dem Stand von vor zehn Jahren, insofern ist das überhaupt kein Vergleich zwischen RT On oder Off.

Ja, aber die Rastergrafik hat immer noch ähnliche Schwächen. Je exakter man versucht die Lichtstrahlen und Schatten und Spiegelungen zu berechnen, desto teurer wird's. Und ab einem bestimmten Genauigkeitslevel ist Raster teurer als Raytracing. Die World of Warcraft WotLK Beta hatte mal exakte Schatten mittels Raster. Das Spiel ruckelte selbst auf damaligen Highend-Rechnern. Und deshalb lässt man es auch fast immer bleiben mit hoher Genauigkeit. Und macht dann Shadowmaps, Fake Schattenblobs unter dem Charakter und nimmt light bleeding inkauf etc.

TheGood
2023-06-04, 22:25:14
was hat damalige rastergrafik mit einem direkten vergleich RT on vs off der aktuellen version zu tun? der sinn der übung ist ein vergleich unabhängig vom aktuellen markt und dem ganzen fanboy-appendix. stell dir vor das vergleichsvideo würde (ohne logos) auf einer damaligen siggraph gezeigt werden.

Witziger Funfact, wenn ich mir so vergleichsvideos mit RT off und on ansehen, gefällt mir das Raster detulich besser und denke das ist RT on.

DAs Problem ist einfach, dass bei nachträglicher implmenetierung oft das gesamtbild sich ändert (wie das hier erwähnte, ist zu dunkel phänomen).
Natürlich ist RT on immer besser als RT off, aber das kommt am Ende erst wirklich zum tragen, wenn Spiele auch von HAus aus darauf ausgelegt sind. Siehe Unreal Engine 5.
Und ich sag das auch hier zum wiederholten Male. Für Entwickler kann RT ON nur das ziel sein, weil sie sich damit ne Menge arbeit ersparen und aktuell geht das halt nur mit Unreal Engine 5, weil es da eine halbwegs performante Software RT lösung gibt. Diese hat übrigens auch die Cryengine schonmal hervorragend präsentiert.

ABer bis RT ON sich in top qualität durchsetzt, läuft noch viel WAsser den Bach hinunter und es gibt unter Entwicklern immer wieder diskussionen dass man dsa eigentlich viel besser und performanter implementieren kann, als wir es gerade tun. Nvidia hat auch nur einen Weg fest vorgegeben, der nicht unbedingt der Beste sein muss.

Nightspider
2023-06-04, 23:50:49
Natürlich ist RT on immer besser als RT off

Du widersprichst dir gerade selbst. ^^

Bestimmte Effekte kann man leistungssparender mit Preprocessing erreichen, es kostet nur mehr Arbeit und Zeit bei der Entwicklung.
Ich überlege auch schon seit einigen Wochen ob ich von der 7900XTX auf die 4090 wechsle.

Nicht wegen RT sondern weil ich gerne mehr Rasterleistung benötige und mindestens in 3440*1440 spiele.

Ich hatte vor einem Jahr gehofft das die aktuelle Gen einen riesigen Sprung machen wird damit ich nicht immer Kompromisse bei der Auflösung oder der Framerate machen muss aber leider wurde ich bitter entäuscht und es nervt mich teils bei der 7900XTX das so wenig mehr Leistung gegenüber der 6900XT.

Und bei ein paar besonders leistunggsfressenden Spielen würde ich gerne Wide4K / 5K Auflösungen mit DLSS ausprobieren - manche schwärmen ja davon.

Platos
2023-06-05, 00:26:08
Bist du etwas von der 6900XT auf die 7900XTX umgestiegen ?

Nightspider
2023-06-05, 00:46:08
Hab die 6900XT verkauft, als ich noch einen guten Preis dafür bekommen habe.

Nach dem Navi21 Erfolg und den Chiplet Gerüchten hab ich einfach deutlich mehr erwartet als diesen lauwarmen Aufguss.

Bin aber in der Zwischenzeit auch von 2560er auf 3440er Auflösung gewechselt, das sind auch nochmal 34% mehr Pixel.

aufkrawall
2023-06-05, 00:50:41
U.a. deshalb finde ich aktuelle 21:9-Auflösungen nicht überzeugend: Es ist schon deutlich teurer zu berechnen, Objekte bestehen aber nach wie vor aus gleich vielen Pixeln wie bei 16:9. Anders als z.B. bei 4k 31.5", gibts also keinen BQ-Gewinn. 31,5" 4k sind (durch die Größe) gleichzeitig immersiv und sehen besser aus.

Nightspider
2023-06-05, 01:13:27
Jain....in einigen Spielen wirkt es schon sehr geil, auf einem 21:9 Monitor mit ganz leichter Biegung.

Ganz zu schweigen von der perfekten Blickwinkelstabilität beim QD-OLED incl. perfektem Schwarz. Wobei gut implementiertes HDR wie bei BF2042 eh alles überschattet.

Also ich habe so viel Spaß am Zocken durch den Monitor wie seit Jahren nicht.

Würde nur gerne Wide4K downsamplen oder dieses DLDSR ausprobieren.

Ich denke 31,5" im 16:9 Format wäre mir zu groß von den Pixeln.

Hätte schon seit Jahren am liebsten 4K bei 1440p aber bei Monitoren gibts noch keine Eierlegende Wollmilchsau

gbm31
2023-06-05, 12:01:38
Ich überlege auch schon seit einigen Wochen ob ich von der 7900XTX auf die 4090 wechsle.

Nicht wegen RT sondern weil ich gerne mehr Rasterleistung benötige und mindestens in 3440*1440 spiele.


Hatte ab Veröffentlichung eine 7900XTX für meine 6900XT geholt und bin genau deswegen bei einer 4090 gelandet. In 3440x1440 von ~80 auf 100fps capped und vor allem in VR mit meiner G2 absolut kein Vergleich.

Lass dir nix einreden.

HOT
2023-06-05, 12:24:32
Bei 21:9 haste auf den beiden Seiten keine sinnvollen Spieleinformation mehr, das ist also Bildpunkte fürn Popo.
Es kann natürlich trotzdem gut aussehen. Wem es das Wert ist, ok.

Ex3cut3r
2023-06-05, 12:30:59
Ich denke 31,5" im 16:9 Format wäre mir zu groß von den Pixeln.


Meinst du damit die Pixeldichte (PPi)? Die ist bei 31.5 mit 4K besser/höher als bei einem 34" mit 3440x1440. Von daher, verstehe ich deinen Punkt nicht wirklich.

Habe den "Sprung" von 34" mit 3440x1440 21:9 nach 6 Jahren auf einen 31.5" mit 4K 16:9 und 144hz gemacht. Vermisse nichts.

https://abload.de/img/unbenannt8yefx.png

gbm31
2023-06-05, 12:38:13
Bei 21:9 haste auf den beiden Seiten keine sinnvollen Spieleinformation mehr, das ist also Bildpunkte fürn Popo.
Es kann natürlich trotzdem gut aussehen. Wem es das Wert ist, ok.

Ah, mal wieder eigener Standpunkt = Gesetzt für alle...

Ich finde es sehr angenehm, unvermeidbare HUD-Elemente nicht permanent vor der Nase zu haben, die Sicht in die Breite zu haben (natürliches Sichtfeld unzo) aber das schreib ich dir nicht vor.

Platos
2023-06-05, 18:25:50
Hab die 6900XT verkauft, als ich noch einen guten Preis dafür bekommen habe.

Nach dem Navi21 Erfolg und den Chiplet Gerüchten hab ich einfach deutlich mehr erwartet als diesen lauwarmen Aufguss.

Bin aber in der Zwischenzeit auch von 2560er auf 3440er Auflösung gewechselt, das sind auch nochmal 34% mehr Pixel.

Ja, du spielst dann vermutlich auf mehr wie 60FPS?

Weil ich bin hier mit ner 4070Ti und komme gut zurecht in 4k. Spiele allerdings auch nicht immer die neuesten Spiele, muss ich sagen.

Meinst du damit die Pixeldichte (PPi)? Die ist bei 31.5 mit 4K besser/höher als bei einem 34" mit 3440x1440. Von daher, verstehe ich deinen Punkt nicht wirklich.

Habe den "Sprung" von 34" mit 3440x1440 21:9 nach 6 Jahren auf einen 31.5" mit 4K 16:9 und 144hz gemacht. Vermisse nichts.

Klar, von 1440p ist das ein Sprung. Von 4k 27" ein Downgrade. Ich will eig. eher mehr PPI, da es mir nicht ausreicht. Gibt halt die einen und die anderen Leute bzw. Augen/Wahrnehmung.

Ich würde niemals auf 31.5" 4k wechseln. Leider gibts keine 2880p Ultrawide.

Langlay
2023-06-05, 18:31:59
Leider gibts keine 2880p Ultrawide.

5120x2880 ist 16:9, 21:9 ist 5120x2160 und solche Monitore gibt es.

https://www.lg.com/de/monitore/lg-34wk95up-w z.b.

DeadMeat
2023-06-05, 18:40:58
Es gibt halt wirklich keine UltraWide alternative zum 5120x2880. 5120x2160 ist ja nur 4k als Ultrawide, fehlt eben die höhe.

Platos
2023-06-05, 18:48:18
5120x2880 ist 16:9, 21:9 ist 5120x2160 und solche Monitore gibt es.

https://www.lg.com/de/monitore/lg-34wk95up-w z.b.

Ja, 5120x2880 ist 16:9, aber davon habe ich ja nicht gesprochen. 2880p ultrawide ist eben genau das, ultrawide.

Sollte dann eben 6880x2880 sein (double 3440x1440).

Gibts nur leider (noch) nicht.

Eie schon ober mir angemerkt ist 5120x2160p ultra HD. Sagen ja auch die 2160p schon aus.

Die gibt es.

Langlay
2023-06-05, 18:48:36
Es gibt halt wirklich keine UltraWide alternative zum 5120x2880. 5120x2160 ist ja nur 4k als Ultrawide, fehlt eben die höhe.

6720x2880 sind fast 20 Millionen Pixel, da fehlt zum drauf zocken wohl auch die passende Graka. 5120x2160 sind halt nur 11 Mio. Pixel das geht mit na 4090 schon ganz angenehm.

Platos
2023-06-05, 19:03:59
Ändert aber nichts daran, dass 2880p ultrawide nicht 5120x2160 ist.

Mit DLSS und Framegen sollte das aber schon gehen. Bei Spielen ohne Framegen könnte es aber holprig werden (wortwörtlich) ;)

Mit AMD natürlich nicht momentan, da weniger Rechenleistung insgesamt und kein Framegen.

Wann kommt eig. AMDs Äquivalent zu Framegen?

Ex3cut3r
2023-06-05, 19:19:40
Also 3440x1440 gibt es jetzt seit 2015. 8 Jahre später und langsam kommen irgendwo die 5120x2160 mit 144HZ und mehr auf dem Markt.

Was meinst du wie lange es dauert bis 6880x2880 mit 144HZ auf dem Markt kommen wird? Ich rechne nicht vor 2033 damit. Also entweder holst du dir einen 27" mit 5120x2880 im 16:9 Format mit 144HZ die nächsten 1-2 Jahre, oder du wirst "ewig" warten müssen. Auf High PPI 21:9 Monitore. :biggrin:

vinacis_vivids
2023-06-05, 19:22:15
Mit AMD RSR = Radeon Super Resolution gehen höhere Auflösungen sehr gut.

Framegen kommt mit Hypr-RX und/oder FSR 3.0

Linmoum
2023-06-05, 19:25:25
Sieht halt nur scheiße aus.

Langlay
2023-06-05, 19:26:50
Mit DLSS und Framegen sollte das aber schon gehen. Bei Spielen ohne Framegen könnte es aber holprig werden (wortwörtlich) ;)


Dann bleibt es auch mit Framegen holpig. Du siehst es dann zwar nicht aber du wirst es fühlen.

Ich hab ne 4090 und ich spiele auch öfters in 5120x2160 und da haste teilweise dann schon zu kämpfen 60+ FPS zu kriegen. In 6720x2880 ist der Kampf dann wohl eher 30 FPS ohne FG. Und auch mit 50 FG FPS spielt sich das dann wie ein Sack Nüsse ausser bei RTS oder sowas.

Nightspider
2023-06-05, 19:27:55
Je höher die Auflösung, desto mehr Sinn machen ja auch die Upsampling Verfahren.

Bei einer ""5K Density"" kann ruhig auch geupsamled werden, Artefakte sieht man nur noch wenig.
Hauptsache es ist scharf, man sieht kein Pixelrauschen und keine Pixel mehr.

Ja, du spielst dann vermutlich auf mehr wie 60FPS?

Nicht in allen Spielen aber in MP Shootern brauche ich schon meine 100-120fps, 140 wären natürlich noch besser.

Diablo habe ich jetzt paar Monate lang mit ~170fps auf dem 175Hz Display gespielt und es war geil. :D

Von daher, verstehe ich deinen Punkt nicht wirklich.

Wenn du die 2-3 Posts darunter nicht gelesen hast, kannst du das auch nicht verstehen. :)

Hatte ab Veröffentlichung eine 7900XTX für meine 6900XT geholt und bin genau deswegen bei einer 4090 gelandet. In 3440x1440 von ~80 auf 100fps capped und vor allem in VR mit meiner G2 absolut kein Vergleich.

Lass dir nix einreden.

VR ist noch so ein Punkt.

Ich hoffe das im 2. Halbjahr noch die eine oder andere neue VR Brille mit hoher Auflösung auf den Markt kommt oder spätestens nächstes Jahr und bei VR liegt Nvidia, glaube ich, auch deutlich vor AMD.

Platos
2023-06-05, 19:39:33
@ nIghtspider. Ja, bin noch auf 60Hz. Da ist mir 4k wichtiger wie 120Hz. Aber der nächste Sprung soll höhere Framerate sein. Allerdings wird der nächste Sprung auch ein grösserer Display sein (und vlt. Ultrawide). Da ich aber die Pixeldichte nicht minimieren will, kommt dann eben das Problem, dass ich ne höhere Auflösung brauche.

Also 3440x1440 gibt es jetzt seit 2015. 8 Jahre später und langsam kommen irgendwo die 5120x2160 mit 144HZ und mehr auf dem Markt.

Was meinst du wie lange es dauert bis 6880x2880 mit 144HZ auf dem Markt kommen wird? Ich rechne nicht vor 2033 damit. Also entweder holst du dir einen 27" mit 5120x2880 im 16:9 Format mit 144HZ die nächsten 1-2 Jahre, oder du wirst "ewig" warten müssen. Auf High PPI 21:9 Monitore. :biggrin:

Das befürchte ich auch. Vor allem weil hohe Auflösungen im PC Markt nur Video/Fotoeditor interessieren und diese Bildschirme meist miserabel im Gaming sind (nicht bezogen auf 60Hz).

Deswegen habe ich mir schon mehrere Alternativen überlegt. Wie z.B (wie du sagst) 5120x 2880 in 32". Da ist aber das Problem, was ich oben gesagt habe. Es gibt keine für Gamer (ausser das hat sich in den letzten Monaten geändert.

Nächste Möglichkeit (Overkill) wäre 8k. Das gibts zu sinnvollen Preisen nur für TVs. Grundsätzlich finde ich TVs qualitativ sowieso hochwertiger, aber 55" (der kleinste 8k) ist mir deuuutlich zu gross. Selbst 43" ist schon seeehr grenzwertig

Alles andere ist ein PPI Downgrade, was für mich nicht in Frage kommt.

Von daher bleibt es bei mir weiterhin der 27" 4k und beim Träumen xD

Dann bleibt es auch mit Framegen holpig. Du siehst es dann zwar nicht aber du wirst es fühlen.

Ich hab ne 4090 und ich spiele auch öfters in 5120x2160 und da haste teilweise dann schon zu kämpfen 60+ FPS zu kriegen. In 6720x2880 ist der Kampf dann wohl eher 30 FPS ohne FG. Und auch mit 50 FG FPS spielt sich das dann wie ein Sack Nüsse ausser bei RTS oder sowas.

Ist für mich genug. Spiele ohne Reflex @ 60FPS haben etwa gleichen Inputlag wie Spiele mit Framegen @ 60FPS (die haben immer Reflex).

Da ich nie Spiele mit Reflex (ohne Framegen) spiele, ist sas also für mich der normale 60FPS Inputlag und damit kann ich leben.

Für mich gehts bei Framegen nur um Bewegtschärfe.

Aber du hast schon recht: Es wirs sehr knapp werden. So ein Monitor hätte ich aber auch 10 Jahre+. Die Grafikkarte wechsle ich früher.

Und die Pixeldichte/Arbeitsfläche brauche ich vor allem beim arbeiten. Wenns dann hald doch mal ums verrecken nicht geht, könnte ich beim Zocken dann auf "nur" 2160p runter stellen.

vinacis_vivids
2023-06-05, 19:44:13
Sieht halt nur scheiße aus.

Nicht schlechter als DLSS2 oder DLSS3. Da gabs jetzt schon mehrere Tests, wo FSR besser aussieht, vor allem wenn die redering-resolution steigt.

Außerdem ist RSR überall verfügbar.

Natürlich nicht mit dem teuren native rendering zu vergleichen, aber der Sprung an Performance ist gewaltig.

Ex3cut3r
2023-06-05, 21:32:47
Nicht schlechter als DLSS2 oder DLSS3. Da gabs jetzt schon mehrere Tests, wo FSR besser aussieht, vor allem wenn die redering-resolution steigt.

Außerdem ist RSR überall verfügbar.

Natürlich nicht mit dem teuren native rendering zu vergleichen, aber der Sprung an Performance ist gewaltig.
;D

RSR ist nicht weiteres als ein Spatialer Upsampler. Ist also völlig unterlegen gegen einen Temporal oder gar KI-Upsampler. Hör bitte mit deinen AMD Bullshit auf.

RoNsOn Xs
2023-06-06, 08:53:34
RSR = NIS bei nVidia und kann man nach wie vor einstellen. Nutzen tut das sowieso keiner, wozu auch.

DrFreaK666
2023-06-06, 09:20:12
Nicht schlechter als DLSS2 oder DLSS3. Da gabs jetzt schon mehrere Tests, wo FSR besser aussieht, vor allem wenn die redering-resolution steigt.

Außerdem ist RSR überall verfügbar.

Natürlich nicht mit dem teuren native rendering zu vergleichen, aber der Sprung an Performance ist gewaltig.

Du verwechselst da was.
Bei CB gab es ein paar Szenen, bei denen FSR1 besser als FSR2 aussah. War unter anderem bei F1 22 der Fall.
In F1 22 sieht FSR 2.2 dagegen teils nicht besser aus als FSR 1.0, in mancherlei Hinsicht ist die Bildqualität gar schlechter.

Gegen DLSS hat FSR1 trotzdem keine Chance. FSR 2.2 wurde da einfach miserabel eingefügt

gbm31
2023-06-06, 14:49:01
... und bei VR liegt Nvidia, glaube ich, auch deutlich vor AMD.

Nicht unbedingt.

Die 6900XT hat nach 2-3 Monaten gut zur 3090 aufgeschlossen gehabt.

Nur bei RDNA3 ist da was kaputt, die 7900XTX war bei meinen Sachen hakelig wie Sau. Selbst Alix lief nicht rund, von ACC ganz zu schweigen.

Ich hatte mir erhofft endlich aus den min. Einstellungen zu kommen.

Die 4080 hats schon besser gemacht, aber bei der kaputten Gen. (beide großen gemeint!) ist die 4090 noch der beste Deal.

Habs bisher nicht bereut, auch wenn es echt unverantwortlich ist, die Preise mitzugehen.

Aber der Zug ist seit den 2000er RTX abgefahren...

Daredevil
2023-06-06, 14:58:00
Wenn er sagt, dass Nvidia vor AMD liegt in VR und du sagst "Nicht unbedingt", weil RDNA2 läuft, RDNA3 kaputt ist und du deswegen eine 4080/4090 bevorzugen würdest, hat er dann nicht in der Aussage basierend auf deinen Erfahrung recht? ^^

gbm31
2023-06-07, 09:35:59
Für RDNA3 ja, pauschal nein.

Deswegen hab ich so weit ausgeholt.

gedi
2023-06-12, 19:01:55
Also wenn jemand wie ich ein AM5-System incl. einer 79xx fährt, dann ist der Hybrid-Modus ein Segen. IDLE zwischen 4 und 9w bei 120Hz und da ist es gar egal ob YT, Prime oder Sky über den Bildschirm flimmert.

Es gibt 2 Bugs mit dem Treiber 23.5.2: Sehr selten tritt ein Blackscreen auf, wo man das Monitor-Kabel einfach aus- und wieder einstecken muss und dass die Performance für ca. 5 Sekunden auf die Refreshrate des Monitors reduziert wird.
Aber: Selbst eine komplett ausgefahrene Nitro ist kaum über 360w zu bewegen. Die gurkt meist bei 250-290w rum!

OgrEGT
2023-06-12, 19:22:47
(...)
Selbst eine komplett ausgefahrene Nitro ist kaum über 360w zu bewegen. Die gurkt meist bei 250-290w rum!
Im Idle? :ulol:

OgrEGT
2023-06-12, 19:23:58
Im Ernst...
Ist das nur im Hybridmodus so? Warum?
Auch in CP mit RTon?

OgrEGT
2023-06-12, 19:26:40
OT...
Zocke gerade Q1 Darkplaces... RT ftw :ugly: 97fps Lock 3440x1440 60W :ulol:
130W mit 8xEQ SSAA :)

gedi
2023-06-13, 12:43:38
Im Ernst...
Ist das nur im Hybridmodus so? Warum?
Auch in CP mit RTon?

Japp, verstehen tue ich allerdings auch nicht.

OgrEGT
2023-06-13, 15:47:40
Japp, verstehen tue ich allerdings auch nicht.

Aha... sinkt denn die Leistung analog zur Leistungsaufnahme?

Der_Korken
2023-06-13, 16:06:19
Könnte die Displayausgabe über den PCIe-Bus ein Bottleneck sein, durch den sich die Karte automatisch bremst? Wenn der vorige Frame noch in der Queue festhängt, macht es ja keinen Sinn die Berechnung des nächsten zu starten, weil der Backlog dadurch nur steigt.

HOT
2023-06-13, 16:17:58
Die Latenz steigt, von der Bandbreite her ist das egal.

OgrEGT
2023-06-13, 18:30:59
Mal ne doofe Frage... kann man sgssaa unter DX9 bei RDNA3 noch irgendwie einstellen?
Bei NV gibts ja noch das SSAA Tool... gibts für Radeon etwas vergleichbares?
Im Treiber geht nur 8xEQ SSAA...

aufkrawall
2023-06-13, 18:36:06
Nope, hat schon seit RDNA2 keinen Effekt mehr.
Man kann mit DXVK Anwendungs-MSAA zu SGSSAA aufwerten. Braucht aber den RADV-Treiber (Linux) für anständige Performance. Klappt etwa in Mirror's Edge ziemlich gut.

OgrEGT
2023-06-13, 18:51:52
Nope, hat schon seit RDNA2 keinen Effekt mehr.
Man kann mit DXVK Anwendungs-MSAA zu SGSSAA aufwerten. Braucht aber den RADV-Treiber (Linux) für anständige Performance. Klappt etwa in Mirror's Edge ziemlich gut.
Danke :) Unter Windows gibts also nix?
Egal.. Q1 Darkplaces mit 8xEQ SSAA sieht auch Hammer aus :)

DrFreaK666
2023-06-13, 19:25:13
könntest noch VSR nutzen

aufkrawall
2023-06-13, 19:31:00
Danke :) Unter Windows gibts also nix?
Egal.. Q1 Darkplaces mit 8xEQ SSAA sieht auch Hammer aus :)
Theoretisch funktioniert dieses DXVK-Feature (d3d9.forceSampleRateShading) auch mit dem Windows-Treiber. Allerdings ist die Performance desaströs, sind bei mir mit der 6700 XT in ME 8xSGSSAA ca. 50 vs. 96fps.

OgrEGT
2023-06-13, 19:52:07
könntest noch VSR nutzen
Du meinst Downsampling?
Das probiere ich mal aus... Ziel ist es alles aus der 7900xt bei 97fps rauszuholen :ugly:

OgrEGT
2023-06-13, 23:49:50
VSR geht bei 3440x1440 21:9 leider nicht da es keine passenden Renderauflösungen gibt wie 6880x2880...

Thunder99
2023-06-14, 09:18:45
Schade, dass AMD das nicht mehr supported. Geht immernoch bei Nvidia :) (fragt sich aber auch wie lange noch)

DrFreaK666
2023-06-14, 09:50:55
Glaube bei AMD gabs immer Probleme wenns keine 16:9 Auflösung war

Taigatrommel
2023-06-14, 10:06:10
Ja leider, ich habe dies letztes Jahr sogar richtig als Bugreport eingereicht. Ist ja nichts passiert.

Raff
2023-06-16, 10:27:26
Lumen-Raytracing in Aktion: Layers of Fear im Technik-Test: Das erste "echte" Spiel mit Unreal Engine 5? (https://www.pcgameshardware.de/Layers-of-Fear-Spiel-55923/Specials/2023-Unreal-Engine-5-Release-Benchmarks-Steam-1421920/)

RDNA 3 performt in dieser UE5-Stichprobe leicht überdurchschnittlich, gemessen am großen Raytracing-Mittel (https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/), mit der Radeon RX 7900 XTX vor RTX 4070 Ti und RTX 3090 Ti.

MfG
Raff

Der_Korken
2023-06-16, 10:56:43
RDNA 3 performt in dieser UE5-Stichprobe leicht überdurchschnittlich, gemessen am großen Raytracing-Mittel (https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/), mit der Radeon RX 7900 XTX vor RTX 4070 Ti und RTX 3090 Ti.

RDNA2 sogar fast noch mehr. Der Abstand der 3090Ti auf die 6950XT ist für RT relativ klein und auch der Abstand zwischen 6950XT und 7900XTX ist kleiner als üblich.

OgrEGT
2023-06-16, 16:43:51
Ja leider, ich habe dies letztes Jahr sogar richtig als Bugreport eingereicht. Ist ja nichts passiert.
Wäre ja mal was für die Kollegen von CB oder PCGH die hier mitlesen fehlenden VSR Support für 21:9 bei AMD bei nächster Gelegenheit anzusprechen (Interview, Konakt zur dt. Niederlassung, Pressetermin o.ä
)... For the Players oder so :ugly:

00-Schneider
2023-06-19, 13:37:36
Bei der letzten Hardwareumfrage von Steam war keine 7000er Radeon in der Liste vertreten(bzw. nur unter "other"), aber viele 6000er.

Warum ist die 7000er-Serie so unbeliebt?

Langlay
2023-06-19, 13:45:20
Warum ist die 7000er-Serie so unbeliebt?

Vielleicht weil sie nicht wirklich gut ist?

Die 6000 Serie war ziemlich gut auch im Vergleich zu den damaligen Nvidia Produkten. Bei der 7000er Serie ist das nicht gegeben. Und AMD hat Navi3X so zugeschnürt das man quasi kaum noch was selber einstellen kann, ist halt auch nicht unbedingt förderlich.

BlacKi
2023-06-19, 14:00:18
nur preislich passt das nicht. die 6000er gen hat den den perf/€ vorteil. und echte nachteile had rdna2 ggü. 3 nicht wirklich.

Taigatrommel
2023-06-19, 15:39:43
Bei der letzten Hardwareumfrage von Steam war keine 7000er Radeon in der Liste vertreten(bzw. nur unter "other"), aber viele 6000er.

Warum ist die 7000er-Serie so unbeliebt?
Meine Vermutung:

Weil die Karten nicht so richtig interessant sind. Die kleine 7600 wird von den günstigen (abverkaufs-)Preisen der Vorgänger quasi zu einem DoA Produkt degradiert. Nun klafft im ja durchaus interessanten Preisbereich von über 300 bis ~700€ eine komplette Lücke, welche durch die alten RDNA2 Karten wie 6800 XT und vor allem 6950 XT abgedeckt wird - diese bieten ein besseres P/L-Verhältnis.
Die 7900 XT war anfangs preislich vollkommen unattraktiv und ist auch jetzt noch kein wirklicher Knüller, die 7900 XTX war anfangs ebenfalls zu teuer und dazu kaum erhältlich. Jetzt kommt erschwerend der spürbare Preisnachlass der 4080 hinzu, von ursprünglich ~300€ Preisdifferenz auf dem Papier sind es aktuell, je nach Angeboten und Karten teilweise nur noch um die 120€.

Die Enthusiasten hingegen gehen alle scheinbar auf die 4090, nach dem Motto "Wenn man eh schon über 1000€ für eine Grafikkarte ausgiebt, dann kann man gleich den Leistungskracher nehmen.". Sieht man ja auch in der Umfrage: Die 4090 ist stärker vertreten als die 4080 und liegt nur knapp hinter der 4070 Ti. Schaut man zurück zur Vorgängergeneration sieht man die 3070 mit deutlichem Abstand vor der 3080, welche wiederum mit deutlichem Abstand zur 3080 Ti liegt und selbst dieses ja eher unattraktive Produkt liegt vor der 3090.
Das spiegelt sich subjektiv auch hier im Forum wieder, zumindest ich habe den Eindruck, noch nie zuvor soviele 90er Grafikkarten in den Nutzersignaturen gesehen zu haben wie jetzt aktuell.

Zu guter letzt denke ich, nVidia bietet aktuell rundere Gesamtpakete und kann durch bessere Marketing bzw. auch Presseberichte punkten:
RT hat einen größeren Stellenwert als noch vor zwei, drei Jahren. Dort liegt RDNA3 ja eher im Leistungsbereich der vorherigen GeForce Generation. Mit DLSS3 und FG gehen die Balken völlig durch die Decke und AMD hat kein Gegenstück dazu. Nimmt man jetzt noch "Stunts" wie die öffentliche Pathtracing Technology Preview für Cyberpunk 2077, welche tatsächlich nur auf den RTX 40er Karten effektiv überhaupt spielbar ist, wird das Bild halt komplett.

Langlay
2023-06-19, 15:47:16
Die Enthusiasten hingegen gehen alle scheinbar auf die 4090, nach dem Motto "Wenn man eh schon über 1000€ für eine Grafikkarte ausgiebt, dann kann man gleich den Leistungskracher nehmen.". Sieht man ja auch in der Umfrage: Die 4090 ist stärker vertreten als die 4080 und liegt nur knapp hinter der 4070 Ti. Schaut man zurück zur Vorgängergeneration sieht man die 3070 mit deutlichem Abstand vor der 3080, welche wiederum mit deutlichem Abstand zur 3080 Ti liegt und selbst dieses ja eher unattraktive Produkt liegt vor der 3090.
Das spiegelt sich subjektiv auch hier im Forum wieder, zumindest ich habe den Eindruck, noch nie zuvor soviele 90er Grafikkarten in den Nutzersignaturen gesehen zu haben wie jetzt aktuell.

Ist ja von Nvidia ja auch so gewollt. Die 4090 hat das gleiche Preis-Performanceverhältnis wie z.b. 4080. Bezahle 30% mehr und du kriegst 30% mehr Leistung. So fühlt sich halt die 4090 trotz hohem Preis nicht so sehr nach Abzocke an. Die 4090 ist halt die rundumglücklich Karte für Leute wo das Budget eine untergeordnete Rolle spielt.

Taigatrommel
2023-06-19, 16:01:43
Ist ja von Nvidia ja auch so gewollt. Die 4090 hat das gleiche Preis-Performanceverhältnis wie z.b. 4080. Bezahle 30% mehr und du kriegst 30% mehr Leistung. So fühlt sich halt die 4090 trotz hohem Preis nicht so sehr nach Abzocke an. Die 4090 ist halt die rundumglücklich Karte für Leute wo das Budget eine untergeordnete Rolle spielt.
Genau und das geht natürlich auch noch auf Kosten der 7900 XTX, denn die sitzt ja irgendwo im gleichen Boot mit dem 4080 bzw. hat es vielleicht sogar noch schlechter. Wie du oben schon geschrieben hast, RDNA2 wirkte rückblickend deutlich interessanter aufgestellt gegenüber den 3000er RTX Karten als jetzt RDNA3 gegenüber der 4000er Reihe. Ich denke wenn man hier wieder ein deutliches Plus an Rasterleistung gehabt hätte, also z.B. XTX in Reichweite der 4090 und XT vielleicht noch einen Tick besser als die 4080, wären die Karten durch die Bank weg auch interessanter gewesen.

Daredevil
2023-06-19, 16:10:19
Imho macht AMD sich aber auch das Leben schwer, indem HighEnd RDNA2 Karten so günstig geworden sind, dass sie ähnlich gut performen wie ihre Nachfolger für das gleiche Geld.
Sicherlich hat RDNA3 dann das "Raytracing Plus", wem Rohleistung aber wichtig ist, der zahlt keine 20% mehr für die gleiche Leistung. So eine 6950XT ist schon ein kleiner Powerzwerg. :D

Exxtreme
2023-06-19, 16:27:45
Genau und das geht natürlich auch noch auf Kosten der 7900 XTX, denn die sitzt ja irgendwo im gleichen Boot mit dem 4080 bzw. hat es vielleicht sogar noch schlechter. Wie du oben schon geschrieben hast, RDNA2 wirkte rückblickend deutlich interessanter aufgestellt gegenüber den 3000er RTX Karten als jetzt RDNA3 gegenüber der 4000er Reihe. Ich denke wenn man hier wieder ein deutliches Plus an Rasterleistung gehabt hätte, also z.B. XTX in Reichweite der 4090 und XT vielleicht noch einen Tick besser als die 4080, wären die Karten durch die Bank weg auch interessanter gewesen.

Naja, die könnten bei RDNA3 so mal 300 EUR runter. Und schon wären diese Karten so richtig sexy trotz aller Macken. Aber AMD hat keinen Grund das zu tun. Ein sehr gutes Preis-/Leistungsverhältnis hat schon bei RDNA2 nicht geholfen. Deshalb bleibt man halt unter der Konkurrenz, hält aber den Preis trotzdem so weit oben wie es geht.

GerryB
2023-06-20, 00:32:15
Ne BilloEagle4080 kostet ca. 140€ mehr als ne XTX.
Also wo soll Da die Custom-XTX@999€ noch runter, .... höchstens die MBA sollte für 949€ drin sein!?
(derzeit ne gute XFX Black)

Ob ne Custom-XT noch auf 749€ runter könnte, damit die Lücke zur 6950 kleiner wird, who knows,
vllt. kommt ja doch noch ne 7800xt@Navi31-Basis.(dann so ca. 599-649€, je nach Performance)
... und ne 7900XT-MBA vllt. für 699€, sollte auch machbar sein

aber
Ob Lisa sich die Mühe macht die MBA`s im Preis zu senken, eher net, weil net genug gemeckert wird.

btw.
Ne 24GB-XTX@999€ ist ja auch net sooo schlecht, da hätte ne 3090 auch nur davon geträumt.
Das ne 4090 bzw. die 3090Ti nen outstanding Preis haben/hatten ist halt normal als Enthusiastaufschlag,
den AMD aber für die XTX net hat.

aufkrawall
2023-06-20, 05:34:39
Muss in Fortnite Nanite & Lumen deaktivieren und reguläre Shadow Maps auf high runterstellen für 1440p 100% TSR Epic.
Die Karte dürfte zwar so die 4080 ganz gut schlagen, aber trotzdem weit von kompromissloser Leistung entfernt. Viel zu teuer dafür, früher hätte das mal ähnlich viel wie die schnellste Karte der Vorgänger-Gen gekostet.

Btw. funktioniert die Kühler der Hellhound leider in vertikaler Montage schlechter, Hotspot wird um die 10K wärmer und bei 400W leider deutlich >100°C.
Horizontal aber alles gut bzw. ausreichend. Die Lüfter sind wirklich mit die besten, die ich je bei Grafikkarten gehört habe. Minimales elektrisches Rascheln (nicht zu verwechseln mit dem Spulenfiepen), aber noch bei 1200rpm super leise und 0% nervig.

Ich bin aber erstaunt, wie gut der Treiber ist. Bislang alles einfach spielbar, ohne, dass etwas nerven würde. Hätte bei Spielen mit mehr Baustellen gerechnet, vielleicht geht AMDs Treiberstrategie ja doch langsam mal längerfristig auf.

dargo
2023-06-21, 07:50:50
Hier sieht man wieder ganz gut wie bescheuert AMD den Betriebspunkt von N31 gewählt hat und wie durstig das Teil ist. Das Ding boostet auf fast 3Ghz in 1080p hoch wodurch der Verbrauch kaum unter 100% PT fällt während eine RTX 4080 => 150W weniger zieht. :facepalm:
https://youtu.be/wrcD9uo_On0?t=661

Meine Güte ist RDNA3 ein Reinfall geworden.

basix
2023-06-21, 10:15:19
Alles vor Ada verhielt sich genau gleich wie RDNA3: Power Limit ausreizen, Takt hochziehen. Ist eher so, dass Ada sehr gut geworden ist in dieser Hinsicht und nicht dass RDNA3 besonders schlecht ist. In Relation zu Ada ist RDNA3 natürlich schon deutlich schlechter.

Thunder99
2023-06-21, 10:30:32
Schonmal erwähnt, RDNA3 ist AMDs Ampere ;D

Exxtreme
2023-06-21, 10:38:12
Schonmal erwähnt, RDNA3 ist AMDs Ampere ;D

Und komischerweise hat bei Ampere der Stromverbrauch niemanden gestört.

aufkrawall
2023-06-21, 10:39:42
Man schwitzt ohne Wärmepumpe eh im Sommer, finde dieses sich Hochziehen am Stromverbrauch lächerlich. Mich stören die 360W gerade null, Sommer hin oder her.
Das Ding ist nur einfach viel zu teuer oder zu langsam für den Preis...

Btw. ist der Idle-Verbrauch für die Gesamtkarte bei mir mit AMD-System ~10W höher als bei Bro mit Raptor Lake. Sieht imho so aus, als würde ASPM im AMD-System nicht vollumfänglich funktionieren.
Das VRAM-Taktmanagement ist sogar besser als bei RDNA2, taktet selbst bei 1440p 165Hz auch ohne VRR komplett runter. Allerdings geht der Verbrauch schon bei kleinsten Bildänderungen auf dem Desktop abartig hoch, auch ein pausiertes Video in Edge verursacht 100W. :freak:
In Spielen bei Teillast geht der Takt auch nicht wirklich unter 1,3GHz. In der Hinsicht ist die Architektur bislang ein krasser Rückschritt, hoffentlich kann man das mit RDNA4 wieder ausbügeln. Diese Rückschritte spiegeln sich leider auch null im Preis wider...

Bei Ampere gabs solche Rückschritte in der Form nicht, bitte mal diese unqualifizierten Kommentare abstellen...

Linmoum
2023-06-21, 10:46:49
Und komischerweise hat bei Ampere der Stromverbrauch niemanden gestört.Es ist auch weniger der absolute Verbrauch, sondern in Relation dazu die Leistung, die dabei herumkommt. Vega mit seinen 300W wäre trotz Pascals brutaler Effizienz toll gewesen, wenn die Performance entsprechend ausgefallen wäre.

Bei Ampere hatte Nvidia auch noch einen deutlichen Fertigungsnachteil, der jetzt bei RDNA3 vs. Ada nicht als Ausrede gelten kann. RDNA3 ist in der Hinsicht einfach eine schlechte Architektur.

Crazy_Chris
2023-06-21, 10:50:19
Und komischerweise hat bei Ampere der Stromverbrauch niemanden gestört.

Jetzt gibts halt den direkten Vergleich das es auch viel besser geht.

Exxtreme
2023-06-21, 10:54:55
Jetzt gibts halt den direkten Vergleich das es auch viel besser geht.

Richtig. Andererseits ist das witzig, dass es so ganz plötzlich so ein Riesenthema ist. Davor hat es kaum jemanden gestört, dass die RTX 3090Ti noch mehr Strom zieht als eine RTX 4090.

dargo
2023-06-21, 10:58:16
Alles vor Ada verhielt sich genau gleich wie RDNA3: Power Limit ausreizen, Takt hochziehen. Ist eher so, dass Ada sehr gut geworden ist in dieser Hinsicht und nicht dass RDNA3 besonders schlecht ist. In Relation zu Ada ist RDNA3 natürlich schon deutlich schlechter.
Sehe ich anders. Da brauche ich nicht mal mit Ada vergleichen. Ada ist für mich genau so schlecht geworden, nur nicht ganz so katastrophal wie RDNA3. RDNA3 ist selbst im Vergleich zu RDNA2 richtig schlecht geworden.

BlacKi
2023-06-21, 10:59:29
Hier sieht man wieder ganz gut wie bescheuert AMD den Betriebspunkt von N31 gewählt hat und wie durstig das Teil ist. wenn es denn so wäre. aber die karte hat keinen deutlich besseren betriebspunkt unterhalb von stock. eigentlich ist sie schon am effizientesten punkt. denn die karten haben deutliche performance reserven nach oben.

wenn ich das auf die 7800xt übertragen würde, dann könnte die karte bei 3ghz+ und 300-350w pt eine hohe performance fürs geld bieten. das muss amd halt auch weitergeben, aber das könnte amd auch jetzt schon.

Raff
2023-06-21, 11:00:18
Man schwitzt ohne Wärmepumpe eh im Sommer, finde dieses sich Hochziehen am Stromverbrauch lächerlich. Mich stören die 360W gerade null, Sommer hin oder her. [...]

Mein Arbeits-Zock-Kombizimmer startet derzeit morgens bei 26 °C und heizt sich nach reichlich PC-Fummelei auf über 28 °C auf, obwohl die Wohnung durchgelüftet wird, solange es draußen kälter ist als drinnen (was derzeit sehr kurz ist). Jedes zusätzliche Watt nervt dabei. Das muss einen nicht stören, ich bin aber froh, die Ampere-Ti nicht mehr im Einsatz zu haben, ULV-Keule hin oder her. Am Ende ist Ineffizienz die unheilige Dreifaltigkeit: Wärme, Lärm und Kosten.

MfG
Raff

aufkrawall
2023-06-21, 11:01:29
Was für einen Betriebspunkt hätte AMD denn wählen sollen? Das Ding läuft schon ständig mit <0,9V. Die Architektur ist einfach zu schlecht für den Node...

dargo
2023-06-21, 11:04:51
wenn es denn so wäre. aber die karte hat keinen deutlich besseren betriebspunkt unterhalb von stock.
Offenbar hast du meinen Standpunkt nicht verstanden. Betriebspunkt inkludiert ebenfalls die breite Range bei der Frequenz @N31. Hätte AMD bei dem Ding bei bsw. 2,7Ghz dicht gemacht würde das Teil bei Teillast nicht weiter die ~350W saufen. Sieht man auch schön an RTX 4080 die da im Taktlimit hängt. Es ist aber müssig über diesen Säufer N31 zu diskutieren. Ich habe das Ding längst abgehackt. Schnell weg auf den Müll damit und RDNA4 bringen so früh es geht der sich dann hoffentlich wieder am tollen RDNA2 orientiert.

aufkrawall
2023-06-21, 11:07:33
Ich halte deine Analyse für unzutreffend. Je tiefer man auf der Takt/Spannungskurve durchs PT-Limit rutscht, desto effizienter wird der Betriebspunkt. Zumindest war das bei RDNA2 definitiv so.

BlacKi
2023-06-21, 11:09:07
klar säuft die xtx bei 2,7ghz und stock voltage curve 350w. du musst schon auf 2,4ghz runter gehen + uv damit die karte zuverlässig unter 300w bleibt. und amd kann karten nicht mit uv verkaufen.

Exxtreme
2023-06-21, 11:09:54
Schnell weg auf den Müll damit und RDNA4 bringen so früh es geht der sich dann hoffentlich wieder am tollen RDNA2 orientiert.

Da werden sie wohl etliche Änderungen durchführen müssen um die GPUs effizienter zu machen. Sie werden viel mehr hochspezialisierte Hardware brauchen und nicht alles durch die Shader-ALUs jagen.

Matrix316
2023-06-21, 11:11:29
Also ich muss zugeben ich hab in den letzten Tagen auch meinen Haupt PC ausgelassen und meinen Lenovo Ryzen 4700U Laptop genutzt. Aber so wirklich kühler ist es im Zimmer nicht dadurch geworden. Ich nutzte allerdings auch den externen 31" oder so 4K Monitor zusätzlich - auch wenn die Onboard Grafik da schon leider an ihre Grenzen kommt und es teils ruckelt in Videos... :(

Was ja geil wäre, wenn ich am PC auf dem Desktop die Onboard Intel Grafik nutzen könnte - der 13900K ist ja eigentlich relativ sparsam, wenn er nicht gerade am Limit läuft - und nur bei Games die XTX genutzt wird. :uponder:

Zum Stromverbrauch der 4000er Geforces: Was ich irgendwie lustig finde, dass einerseits immer die Sparsamkeit hervorgehoben wird, aber andererseits heißt es immer: Was? Eine 4090 mit nur 450 Watt? Ich will mindestens 600 haben! :D ;)

dargo
2023-06-21, 11:20:25
klar säuft die xtx bei 2,7ghz und stock voltage curve 350w. du musst schon auf 2,4ghz runter gehen + uv damit die karte zuverlässig unter 300w bleibt.
Was für eine unsinnige, allgemeine gehaltene Aussage wieder. :rolleyes: Mein verlinktes Video anschauen, nachdenken, posten.

btw.
Bei den ~3GHz @1080p werden sicherlich schon weit über 1000mV anliegen. Wenn nicht sogar schon ~1100mV. Genaue Werte der default V/F-Kurve habe ich nicht mehr im Kopf.

BlacKi
2023-06-21, 11:49:24
Bei den ~3GHz @1080p werden sicherlich schon weit über 1000mV anliegen. Wenn nicht sogar schon ~1100mV. Genaue Werte der default V/F-Kurve habe ich nicht mehr im Kopf.


ada säuft aber auch nicht bei 2,9-3ghz unter teillast nicht viel. und da n31 mit takt noch gut skaliert, wäre der verbrauch unter teillast bei 2,7ghz nicht deutlich niedriger.

aufkrawall
2023-06-21, 12:35:26
Mal was für echte Enthusiasten: Mirror's Edge mit 8xSGSSAA >200fps :D (Takt-Anzeige ist natürlich Quatsch und Power offenbar ASIC-only):
https://abload.de/thumb/17410_20230620141225_c8er5.png (https://abload.de/image.php?img=17410_20230620141225_c8er5.png)

Ex3cut3r
2023-06-21, 12:57:10
Mirrors Edge 2008/2009. :love2:

Davon ein Remake mit UE5 und/oder RT bitte. :smile:

aufkrawall
2023-06-21, 13:03:37
Joa, TSR Epic 100% dürfte wohl auch unterm Strich besser aussehen als das SGSSAA mit Mängeln. :freak:
Bin mittlerweile fast süchtig danach in Fortnite, das wird ein hartes Downgrade mit der 6700 XT (7900 XTX nur zum Defekt-Test eingebaut). :redface:

kmf
2023-06-21, 13:26:36
^^ Behalte sie einfach xD, ist doch eine geile Karte, oder?

aufkrawall
2023-06-21, 13:32:33
Ist ja nicht meine. Für 700€ würd ich eine Empfehlung aussprechen, >1000€ sind aber Abzocke für diese GPU. Zu wenig fps, zu wenig Features, zu viele Rückschritte gegenüber RDNA2. Da muss man sich über die kaum existenten Marktanteile nicht lange wundern.

Ex3cut3r
2023-06-21, 14:54:21
^^ Behalte sie einfach xD, ist doch eine geile Karte, oder?

Sehe ich auch so. Aber ist seine Entscheidung. Eine 6700XT ist halt auch nicht so geil. Die Leistung dieser Karte hatte ich schon 2018 in Form der RTX 2080 im groben und ganzen.

Wäre mir mittlerweile von der Rohleistung selbst für 1440p etwas zu wenig. Upscaling könnte da fast schon der Retter sein. Doof nur, das FSR 2.0/2.2 eher nicht so taugt IMHO.

HOT
2023-06-21, 14:58:39
Jetzt wirds komplett absurd :freak:.
Klar man kann das nicht mehr mit Preisen von vor 5 Jahren vergleichen, aber manche haben Vorstellungen...

Exxtreme
2023-06-21, 15:01:22
Jetzt wirds komplett absurd :freak:.
Klar man kann das nicht mehr mit Preisen von vor 5 Jahren vergleichen, aber manche haben Vorstellungen...

Absurd finde ich das nicht. Die Grafikkarten sind zu teuer. Eine 7900 XTX 300 EUR billiger und gib ihm. Wird AMD aber wohl nicht machen weil das den Marktanteilen wohl nicht helfen wird.

Matrix316
2023-06-21, 15:25:49
Sind ja nicht nur die AMD Preise, auch die Nvidia Preise sind viel zu hoch. Eine 4080 sollte auch nicht mehr wie 700 kosten. Aber du hast ja selbst eine 3080 die meiste Zeit nicht für den Preis bekommen, obwohl der UVP eigentlich eher so in dem Bereich war. Immerhin ist die 7900XTX in der Regel billiger als eine 4080. Und hat mehr VRAM.

HOT
2023-06-21, 15:36:46
Absurd finde ich das nicht. Die Grafikkarten sind zu teuer. Eine 7900 XTX 300 EUR billiger und gib ihm. Wird AMD aber wohl nicht machen weil das den Marktanteilen wohl nicht helfen wird.
Das war auf die 6700XT bezogen. Die bekommt man teilweise schon für unter 350€.

Klar sind die alle viel zu teuer, die Frage stellt sich nicht. Normale post-Mining-Preise wären mMn:

4080Ti -> $1200 (102-Basis)
4080 -> $800
4070Ti 16GB (103-Basis) -> $650
4070 12GB -> $480
4060Ti 12GB (104-Basis) -> $400
4060 8GB (106-Basis) -> $300
4050 8GB (107-Basis) -> $200

Bei AMD wäre es ähnlich

Neue 7900XTX, voll aktiviert, VCache und 550W mit 12VHPWR (als Nischenprodukt an das man sich in 10 Jahren noch erinnert, wie die Fury)
7900XTX -> umbenennen zu 7900XT mit 320W -> $700
7900XT -> Umbenennen zu 7800XT mit 290W -> $600
7800XT -> Umbenennen zu 7800 mit 250W -> $530
7700XT mit 30WGP mit 16GB -> $480
7700 mit 24WGP mit 16GB -> $400
7600XT mit 18WGP mit 12GB -> $300
7600 -> $200

Solange AMD FSR2 nicht auf DLSS-Niveau bringt (was sicherlich machbar wäre mit RDNA3) haben die die 100$-Penalety verdient. Ansonsten wäre es Speichermenge vs. Energieeffizienz, das wäre mMn ok.

aufkrawall
2023-06-21, 16:02:28
Sehe ich auch so. Aber ist seine Entscheidung. Eine 6700XT ist halt auch nicht so geil. Die Leistung dieser Karte hatte ich schon 2018 in Form der RTX 2080 im groben und ganzen.

Und jetzt kann ich nicht mal mit der 7900 XTX die alten Schatten in Fortnite auf epic stellen, Leistung für natives 1440p reicht nur für high.
Deine 3080 ist folglich erst recht hoffnungslos zu langsam (von Lumen ganz zu schweigen), Kompromisse kann ich auch mit der 6700 XT eingehen...

Matrix316
2023-06-21, 16:14:36
Und jetzt kann ich nicht mal mit der 7900 XTX die alten Schatten in Fortnite auf epic stellen, Leistung für natives 1440p reicht nur für high.
Deine 3080 ist folglich erst recht hoffnungslos zu langsam (von Lumen ganz zu schweigen), Kompromisse kann ich auch mit der 6700 XT eingehen...
Was heißt es reicht nicht? Wie viel FPS willst du haben? 500? ;)

aufkrawall
2023-06-21, 16:22:13
100% konstante 130-140fps.

GerryB
2023-06-21, 16:46:08
Ne BilloEagle4080 kostet ca. 140€ mehr als ne XTX.
Also wo soll Da die Custom-XTX@999€ noch runter, .... höchstens die MBA sollte für 949€ drin sein!?


Na Hut ab, die Hellhound heute für 939€ im MS.(dann könnte die MBA sogar mal auf 899€ runter)

Sorry für das OT.

VooDoo7mx
2023-06-21, 18:11:29
Hier sieht man wieder ganz gut wie bescheuert AMD den Betriebspunkt von N31 gewählt hat und wie durstig das Teil ist. Das Ding boostet auf fast 3Ghz in 1080p hoch wodurch der Verbrauch kaum unter 100% PT fällt während eine RTX 4080 => 150W weniger zieht. :facepalm:
https://youtu.be/wrcD9uo_On0?t=661

btw.
Bei den ~3GHz @1080p werden sicherlich schon weit über 1000mV anliegen. Wenn nicht sogar schon ~1100mV. Genaue Werte der default V/F-Kurve habe ich nicht mehr im Kopf.
In den von dir geposteten Video läuft aber auch die 4080 mit maximalen Boosttakt und maximaler Spannung von 1,05V.
Also daran liegt es sicherlich nicht. Wenn die Einheiten wegen niedriger Last durch die geringe Auflösung nicht richtig ausgelastet sind, verbraucht eine nVidia Karte trotz maximalen Takt und maximaler Spannung immer noch deutlich weniger Strom.
Warum die 7900XTX bei 1080p trotzdem so viel Strom zieht, erschließt sich mir nicht. Das sieht fast so aus, als würden da grundlegende Stromsparmechanismen bei Teilllast komplett fehlen. Entweder ist da die komplette Arch kaputt oder es kann noch mit Treibern nachgebessert werden.
Alles vor Ada verhielt sich genau gleich wie RDNA3: Power Limit ausreizen, Takt hochziehen. Ist eher so, dass Ada sehr gut geworden ist in dieser Hinsicht und nicht dass RDNA3 besonders schlecht ist. In Relation zu Ada ist RDNA3 natürlich schon deutlich schlechter.
Nein eben nicht.
Ada verhält sich zu 100% genauso wie Ampere, Turing und Pascal:
Wenn man niedrigere Auflösungen fährt und somit der Chip nicht gut ausgelastet wird, sinkt der Stromverbrauch deutlich.
Ich hab/hatte ein 4090, 3080Ti, 2080Ti und Titan X. Es ist überall das selbe Verhalten. An die 980Ti, welche ich vorher hatte kann ich mich nicht mehr erinnern.
Schonmal erwähnt, RDNA3 ist AMDs Ampere ;D
Nein, wie schon oben von mir genannt zieht eine 3090 im 1080p Teillastbereich nicht so viel Strom wie eine 7900XT(X)
Und komischerweise hat bei Ampere der Stromverbrauch niemanden gestört.
Stimmt, die tausende Posts allein hier im Forum zum Ampere Stromverbrauch habe ich mir sicher alle eingebildet.

Und was soll dieses dämliche hochloben von Ada und das runtermachen von Ampere?
Hier wird ja so getan als ob eine 4090 weniger Strom verbraucht als eine 3090 obwohl genau das Gegenteil der Fall ist.
In UHD mit RT zieht meine 4090 mit Standardtakt schon über 500W.
Oh was für eine tolle Stromsparkarte und höhöhö Ampere ist so ein Energieverschwender.

Ja die Effizenz ist deutlich gestiegen, dass kann man aber auch erwarten, da nVidia quasi einen Node (7nm) komplett übersprungen hat.
Ampere wurde ja mehr oder weniger in den Samsung 10nm Prozess gefertigt.

Einige Leute leiden hier an einer komplett verdrehten Wahrnehmung und leben wohl in ihrer eigenen Wahnwelt.

Langlay
2023-06-21, 18:33:35
Nein eben nicht.
Ada verhält sich zu 100% genauso wie Ampere, Turing und Pascal:
Wenn man niedrigere Auflösungen fährt und somit der Chip nicht gut ausgelastet wird, sinkt der Stromverbrauch deutlich


Bei Ampere stimmt das aber nicht, bei Ampere hat MVDDR bei höchsten RAM Takt alleine 100W+ gezogen, dadurch war halt auch das Teillastverhalten von der 3090 ziemlich bescheiden. Du hattest zwar bei Teillast weniger Verbrauch von den GPU Chip, das Memorysystem hat aber trotzdem weitergesoffen. Und so warste auch bei Teillast kaum unter 200W. Das geht mit der 4090 deutlich einfacher.


Hier wird ja so getan als ob eine 4090 weniger Strom verbraucht als eine 3090 obwohl genau das Gegenteil der Fall ist.
In UHD mit RT zieht meine 4090 mit Standardtakt schon über 500W.
Oh was für eine tolle Stromsparkarte und höhöhö Ampere ist so ein Energieverschwender.


Stock geht die Standardkarte nur bis 450W, ergo wird sie Stock keine 500W Verbrauchen egal wie. Und das Stock die Frequenz/Spannungskurve nicht optimal ist, ist jetzt ja auch keine News. Und ja die 4090 ist ne richtig tolle Stromsparkarte nur halt nicht mit Stock Settings sondern eher mit Curveopimzier und minimaler Spannung.


Einige Leute leiden hier an einer komplett verdrehten Wahrnehmung und leben wohl in ihrer eigenen Wahnwelt.

Ist das ein Argument oder kann das Weg?

Ex3cut3r
2023-06-21, 18:39:54
Deine 3080 ist folglich erst recht hoffnungslos zu langsam (von Lumen ganz zu schweigen), Kompromisse kann ich auch mit der 6700 XT eingehen...

Ich habe keine 3080, sondern eine 3080 Ti seit Winter 21. :wink: Die mit OC auch an eine Standard 3090 herankommt. Die 12GB waren hier bisher noch nie ein Problem. Zu UE5 und/oder Lumen habe ich keine Erfahrung. Layers of Fear ein UE5 Spiel, rennt laut PCGH Benchmarks aber gut genug auf einer 3080 non Ti. Von daher.....Fortnite habe ich noch nie gespielt. Und wenn, wurde ich das auch nicht auf Max Spielen wollen, da es ein MP-Shooter ist.

Ich spiele als MP-Shooter aktuell BF2042. Da kann ich @ Low und 4K mit DLSS B, mein FPS Limit von 141FPS zu jeder Zeit halten. So ein Problem wie du, habe ich also nicht. ^^

BlacKi
2023-06-21, 19:24:28
sry für ot, aber hat man dlss in bf2042 schon aktualisiert? die vorhandene version ist auf jeden fall dürftig weil 2 jahre alt. für mich kein pro argument.

edit: ich fall vom glauben ab. tatsächlich, 2.5 wurde nachgepatched. gleich mal testen.

Ex3cut3r
2023-06-21, 21:31:45
sry für ot, aber hat man dlss in bf2042 schon aktualisiert? die vorhandene version ist auf jeden fall dürftig weil 2 jahre alt. für mich kein pro argument.

edit: ich fall vom glauben ab. tatsächlich, 2.5 wurde nachgepatched. gleich mal testen.

Nein Bro. Muss dich leider enttäuschen, ist die 2.5.0 DLL. :(

https://abload.de/img/screenshot2023-06-212xwirx.png

Kennst du DLLS Tools? Damit kann man die DLL überschreiben, ohne die Orginal DDL "anzufassen" sprich zu ersetzen. Du zu ersetzende DLL kannst du z.B. in den Dokumenten Order packen. Aber keine Ahnung ob Anti Cheat das merkt und dann auch Bannt oder ähnliches. ^^

BlacKi
2023-06-21, 21:47:05
das ist schon relativ aktuell. ist aber OT.

Ex3cut3r
2023-06-21, 22:02:10
Und das soll was bringen? Preset F wurde erst mit 2.5.1 eingeführt.

BlacKi
2023-06-21, 22:08:51
weiter im dlss thread

Matrix316
2023-06-22, 09:34:17
[...]

Ist das ein Argument oder kann das Weg?
Preise sind ja immer relativ. Wenn AMD eine Karte hat die in RT etwas langsamer ist als eine 4080, dafür mehr Speicher hat und dann etwas billiger ist, dann kann man eigentlich über diesen Preis nicht meckern, oder?

Dass eigentlich ALLE Karten aktuell viel zu teuer sind ist aber auch klar. Aber dafür kann ja AMD nix.

Exxtreme
2023-06-22, 09:46:11
dann kann man eigentlich über diesen Preis nicht meckern, oder?


Sorry, aber du rechtfertigst die hohen AMD-Preise damit, dass Nvidia noch sehr viel teurer ist. :freak: Und genau deshalb ist das kein Argument. Intel ist z.B. viel billiger obwohl sie auch 16 GB RAM haben etc. Also wäre es schon möglich, dass die Preise sinken. Das Problem ist, AMD und Nvidia wollen es nicht und die Kunden wollen es auch nicht.

dargo
2023-06-22, 10:15:56
Intel hier als Vergleich zu nennen ist Blödsinn. Der einzige Grund warum Intel Arc verscherbelt ist, dass Intel erstmal Fuss bei dGPUs fassen muss. Du glaubst doch nicht ernsthaft, dass das dauerhaft so bleibt oder? :freak: Schon vergessen welche Preise Intel bei CPUs abgerufen hatte als es noch keinen Druck von AMD gab?

Exxtreme
2023-06-22, 10:21:25
Intel hier als Vergleich zu nennen ist Blödsinn. Der einzige Grund warum Intel Arc verscherbelt ist, dass Intel erstmal Fuss bei dGPUs fassen muss. Du glaubst doch nicht ernsthaft, dass das dauerhaft so bleibt oder? :freak: Schon vergessen welche Preise Intel bei CPUs abgerufen hatte als es noch keinen Druck von AMD gab?

Nein, das ist kein Blödsinn. Mehr Konkurrenz sorgt tendenziell für niedrigere Preise. Intel hat halt das Pech, dass sie oberhalb der Mittelklasse nichts Konkurrenzfähiges haben. Aber ich glaube nicht, dass die das verscherbeln. Die haben halt keine 70%-Marge.

Matrix316
2023-06-22, 10:30:32
Klar, Konkurrenz belebt das Geschäft. Macht Intel eine Arc die mit einer 4080 mithalten kann für 700 Euro, werden die anderen bestimmt auch nachziehen.

aufkrawall
2023-06-22, 11:35:47
Nein, das ist kein Blödsinn. Mehr Konkurrenz sorgt tendenziell für niedrigere Preise. Intel hat halt das Pech, dass sie oberhalb der Mittelklasse nichts Konkurrenzfähiges haben.
Intel hat nur überteuertes LowEnd mit den schlechtesten Treibern.

dargo
2023-06-22, 11:36:20
Nein, das ist kein Blödsinn. Mehr Konkurrenz sorgt tendenziell für niedrigere Preise.
Breaking News... niedrigere Preise ungleich Schleuderpreise wie bei Arc.

aufkrawall
2023-06-22, 11:42:03
Breaking News... niedrigere Preise ungleich Schleuderpreise wie bei Arc.
Wie kommt man auf "Schleuderpreise"?
Selbst die A750 ist nicht attraktiv vs. eine 6600 XT. Ziemlich ähnliche fps/€, aber mit viel mehr Treiber-Problemen. Die Intel-Karten sind einfach zu 100% überflüssig, deshalb kauft sie ja auch keiner.

dargo
2023-06-22, 11:47:29
Hast recht, habe gerade die Preise von Arc mir angesehen. Günstig ist an Arc auch nichts.

Edit:
Ich hatte irgendwie in Erinnerung, dass Arc besonders günstig war. Aber das war wahrscheinlich noch vor den Preiskorrekturen von RDNA2. Gemessen an der Leistung ist aktuell bei Arc natürlich nichts mehr günstig vs. Konkurrenz. Alles nur auf eine üppige 16GB Ausstattung runter zu brechen bringt auch nichts wenn die Rohleistung eher schwach ausfällt.

Matrix316
2023-06-22, 13:56:11
Arc ist nur günstig, wenn man den Preis der Karten anhand der verbauten Hardware vergleicht und welche Leistung die eigentlich erreichen müssten. ;)

Immerhin kommen die 7900er Karten an ihre Nvidia Konkurrenten schon ran (jaja abgesehen von RT im Extremfall), während die Arcs mal so und mal so performen.

Thunder99
2023-06-22, 18:56:30
Navi31 skaliert halt (leider) zwischen 4070Ti und 4090. Mal so mal so

Matrix316
2023-06-22, 19:22:22
Navi31 skaliert halt (leider) zwischen 4070Ti und 4090. Mal so mal so
Noch gar nicht so lange her da war der Abstand zwischen dem AMD Topmodell und Nvidia dramatisch größer. Und wenn man mal die 4090 aus den Benchmarks rausnimmt, sehen die AMD Karten gar nicht so schlecht aus. :D Mal abgesehen davon, dass die 4090 mal teils fast 600 Euro mehr kostet als aktuell die 7900XTX Karten.

Wiseman
2023-06-22, 21:44:37
Noch gar nicht so lange her da war der Abstand zwischen dem AMD Topmodell und Nvidia dramatisch größer. Und wenn man mal die 4090 aus den Benchmarks rausnimmt, sehen die AMD Karten gar nicht so schlecht aus. :D Mal abgesehen davon, dass die 4090 mal teils fast 600 Euro mehr kostet als aktuell die 7900XTX Karten.

Was Dampfplauderer mit Envidia-Karten hier in AMD-Threads pausenlos und wie unter Zwang von sich geben, kann man sowieso getrost vergessen.

Die Wirklichkeit (damit meine ich eigene Benchmarks) schaut doch so aus: Den Hauptkonkurrenten 4080 hält meine downgraded 7900XTX locker in Schach. Nur mighty 4090 ist teilweise deutlich schneller, kostet aber auch deutlich mehr. Und um mal unsere AMD-typische Bescheidenheit außer Acht zu lassen. In zwei meiner Games ist meine 7900XTX schneller ist als die 4090. Wer das nicht glauben will, der gucke in unser Benchmarking-Forum. Die Spiele heißen: Assassin's Creed Valhalla und Call of Duty Modern Warfare 2.

gedi
2023-06-22, 22:06:30
Was ich noch immer nicht verstehen will ist, dass N31 dermaßen verrissen wird. Das Ding ist schnell, die Treiber super und man kann den Verbrauch per FPS-Cab in freundliche Bereiche bewegen. Wenn jemand ein AM5-System benutzt, dem empfehle ich Hybrid-GPU, denn ist die Refreshrate und auch Multimonitoring echt egal (mit 2 Monitoren, mehr konnte ich nicht probieren).

Raff
2023-06-22, 22:22:32
Was Dampfplauderer mit Envidia-Karten hier in AMD-Threads pausenlos und wie unter Zwang von sich geben, kann man sowieso getrost vergessen.

Die Wirklichkeit (damit meine ich eigene Benchmarks) schaut doch so aus: Den Hauptkonkurrenten 4080 hält meine downgraded 7900XTX locker in Schach. Nur mighty 4090 ist teilweise deutlich schneller, kostet aber auch deutlich mehr. Und um mal unsere AMD-typische Bescheidenheit außer Acht zu lassen. In zwei meiner Games ist meine 7900XTX schneller ist als die 4090. Wer das nicht glauben will, der gucke in unser Benchmarking-Forum. Die Spiele heißen: Assassin's Creed Valhalla und Call of Duty Modern Warfare 2.

Dazu muss man aber fairerweise sagen, dass das a) Ausnahmen/-reißer sind und dass das b) ab Ultra HD nicht mehr der Fall ist.

MfG
Raff

GerryB
2023-06-23, 08:27:01
https://www.techpowerup.com/310420/radeon-rx-7800-xt-based-on-new-asic-with-navi-31-gcd-on-navi-32-package
wilde Speku, das die 7800xt ein "extra" Chip sein soll, sprich kein Salvage wie bisher gedacht

... damit hätte man N32 für 7700xt bis runter zur 7600xt übrig
(ein 7800nonXT würde dann ja eher Salvage von dem oben spekulierten "extra" Chip sein, je nach Yield)

HOT
2023-06-23, 08:48:31
Kein extra Chip, sondern ein extra Package, mit dem man ein N31 GCD auf ein N32-PCB verbauen kann. Das ergibt sehr viel Sinn, so könnte man N31 auch viel weiter runtersalvagen um auch Modelle zu verbraten, bei denen nur 2 oder 3 SE funktionieren, also auch N31-basierte 7700 und 7600XT-Varianten.

dargo
2023-06-23, 08:51:22
Erstens falscher Thread. Zweitens steht da ziemlicher Unsinn drin. Der GCD von N31 hat keine 350mm².

gbm31
2023-06-23, 11:23:03
Dazu muss man aber fairerweise sagen, dass das a) Ausnahmen/-reißer sind und dass das b) ab Ultra HD nicht mehr der Fall ist.

MfG
Raff


Wollt ich grad schreiben, raus aus dem CPU Limit und staunen was da noch geht.

Und ich glaub nicht mal dargo würde mich als NV Fanboy betiteln...

aufkrawall
2023-06-23, 11:31:01
Jo, 4090 mit UV zieht in Fortnite je nach Setting um die 270W und ist massiv schneller als eine 7900 XTX, die man schon extrem kastrieren müsste, um sie unter 350W zu bekommen.
Dafür sind die Frame Times auf der Radeon in nativen 4k mit höherem VRAM-Verbrauch um Meilen besser. Die perfekte Karte gibt es leider nicht. RDNA3 ist Schrott mit einem guten D3D12-Treiber. :D

Matrix316
2023-06-23, 15:06:43
Dass die 7900XTX in Youtube viel mehr zieht als eine 4080 oder 4090 ist glaube ich sogar schlimmer als in Games, weil man wahrscheinlich eventuell vielleicht mehr YT schaut als spielt (zumindest bei mir so).

VooDoo7mx
2023-06-23, 15:09:45
Dass die 7900XTX in Youtube viel mehr zieht als eine 4080 oder 4090 ist glaube ich sogar schlimmer als in Games, weil man wahrscheinlich eventuell vielleicht mehr YT schaut als spielt (zumindest bei mir so).

Wer sich den 100W idle Desktop Klopper (egal ob mit 4090 ooder 7900XTX) anschmeißt und sich denn über zu hohen Verbrauch bei Youtube Videos beschwert, hat meiner Meinung nach den Schuss schon lange nicht mehr gehört...

The_Invisible
2023-06-23, 15:23:26
Wer sich den 100W idle Desktop Klopper (egal ob mit 4090 ooder 7900XTX) anschmeißt und sich denn über zu hohen Verbrauch bei Youtube Videos beschwert, hat meiner Meinung nach den Schuss schon lange nicht mehr gehört...

100W? Meine 4090 zieht im Dual Desktop (4k/144+1440p/60) so um die 20W herum...

DrFreaK666
2023-06-23, 16:17:14
Dass die 7900XTX in Youtube viel mehr zieht als eine 4080 oder 4090 ist glaube ich sogar schlimmer als in Games, weil man wahrscheinlich eventuell vielleicht mehr YT schaut als spielt (zumindest bei mir so).

Das stimmt. Konsumiere Youtube aber am TV, Smartphone oder Tablet. Extra dafür den PC anwerfen, finde ich weird

r3ptil3
2023-06-23, 16:24:42
Das stimmt. Konsumiere Youtube aber am TV, Smartphone oder Tablet. Extra dafür den PC anwerfen, finde ich weird

Genau dafür nutzt man eigentlich den PC.

Gibt nichts trägeres als Youtube am TV.
Alleine schon wenn man in Youtube ein paar Videos sucht, vielleicht was kommentiert, nebenbei eine verlinkte Seite aufmacht und noch was recherchiert. Auf TV praktisch unmöglich, auf Mobile, Tablet zu langsam bzw. nicht intuitiv ohne Maus/Tastatur. Da ist Windows-Desktop-Multitasking um Welten besser.

Crazy_Chris
2023-06-23, 16:42:08
Ich glaube du verwendest die falschen Geräte. Kauf dir mal ein IPad.

Exxtreme
2023-06-23, 16:42:52
Also ich habe ein Ipad und ich schaue YT trotzdem viel lieber am PC an. :)

BlacKi
2023-06-23, 16:46:05
am pc kannst du alles gleichzeitig machen. natürlich ist er das beste gerät für youtube, essen und surfen gleichzeitig.

DrFreaK666
2023-06-23, 16:47:42
Genau dafür nutzt man eigentlich den PC.

Gibt nichts trägeres als Youtube am TV.
Alleine schon wenn man in Youtube ein paar Videos sucht, vielleicht was kommentiert, nebenbei eine verlinkte Seite aufmacht und noch was recherchiert. Auf TV praktisch unmöglich, auf Mobile, Tablet zu langsam bzw. nicht intuitiv ohne Maus/Tastatur. Da ist Windows-Desktop-Multitasking um Welten besser.

Es geht um YT schauen. Wenn mein Smartphone mit dem TV verbunden ist, dann sind Videos in windeseile gefunden.
So gut wie jede Seite hat eine Seite für Mobil-Geräte. Recherchieren dann natürlich auch möglich.
Und wo denkst du schreibe ich gerade diesen Text?

Crazy_Chris
2023-06-23, 16:49:12
Essen, Surfen und YT schauen kann ich auch mit IPad und FireTV Stick zum schauen am TV mit dem Vorteil, dass ich mich dabei auf der Couch lümmeln kann. :biggrin:

Privat nutze ich meinen PC eigentlich nur zum spielen. Meine 7900XT hat vermutlich auch mehr Zeit unter Last als im Idle verbracht. :wink:

r3ptil3
2023-06-23, 17:02:35
Die Strix 4090 steigt in Youtube von 9-11W auf ca. 17-18W.
CPU Package (7800X3D) bleibt unverändert bei 28-29W.

CPU Gesamt-Leistungsaufnahme (HWINfo) zeigt einen Anstieg von 22-23W auf ca. 28-29W.


@DrFreak666
TV verbraucht sehr wahrscheinlich mehr als der gesamte PC beim Youtube schauen.
Es spielt also keine Rolle, kommt aufs gleiche raus.

Wenn man nur am Tablet ist, da stimme ich zu, dann verbraucht man praktisch nichts.

Matrix316
2023-06-23, 17:23:20
am pc kannst du alles gleichzeitig machen. natürlich ist er das beste gerät für youtube, essen und surfen gleichzeitig.
Genau das. :D

Vor allem wenn man viele Abos hat und noch weitere Kanäle verfolgt, ist das an allen anderen Geräten wie Tablets oder Fernseher einfach nur viel zu umständlich und man verliert den Überblick was man schon gesehen hat und was noch nicht.

Dass die Radeons da generell viel verbrauchen (sind ja nicht nur die neuen) ist halt schon irgendwie blöd.

Tablet alleine ist blöd, weil da das Bild zu klein ist.

Fernseher mit Apple TV oder Android Box + Receiver verbrauchen auch etwas Strom... :freak:

Ein separater Mini PC oder Laptop für YT wäre eigentlich die Lösung, aber für den Preis was so einer kostet, bekommt man ein paar Jahre Stromverbrauch für den PC.

Oder halt eine Geforce kaufen. Aber das was die kostet... alles irgendwie eine Milchmädchenrechnung. Dabei hat man ja in der Regel alles da um Strom zu sparen heute: CPU mit integrierter Grafik und eine separate GPU. Da müsste Windows mal eine Lösung finden wo das mit jeder Kombi geht, dass man auf dem Desktop nur die IGP nutzt und für Games die GPU.

BlacKi
2023-06-23, 17:29:02
tippen auf dem tablet ist rotz und viel zu klein, und wie will man gleichzeitig alle soundquellen auf kopfhörer und tv lautsprecher bringen? und jedesmal die tv fernbedienung suchen um kurz yt anzuhalten?
mini pc und spielepc gleichzeitig lasse ich gelten, aber tablet und die ganzen extra eingabgeräte? dazu bin ich am pc only viel zu verwöhnt um mir den umstand zu geben.

mobile geräte nutze ich unterwegs, so wie sich das gehört.

RoughNeck
2023-06-23, 18:15:29
Mobile Geräte kann man auch zu Hause nutzen, im Bett auf der Couch mit einen Phablet / Tablet ist schon super, muss nicht immer der Standrechner sein. Aber jeder wie er will.

DrFreaK666
2023-06-23, 18:33:32
...@DrFreak666
TV verbraucht sehr wahrscheinlich mehr als der gesamte PC beim Youtube schauen.
Es spielt also keine Rolle, kommt aufs gleiche raus...

Hängt dein PC nicht an einem Monitor? Wie schaust du dann Videos?
Und auf dem Sofa sitzend ist es einfach deutlich bequemer (mein PC hängt am TV. Würde aber nie auf die Idee ihn einzuschalten, weil ich auf Youtube Videos schauen will)

BlacKi
2023-06-23, 18:57:40
Würde aber nie auf die Idee ihn einzuschalten, weil ich auf Youtube Videos schauen will)

darum gehts auch garnicht.


youtube ist zu 90% viel zu langweilig um es einfach so zu sehen. ich schaue es meist nur am pc im splitscreen. halb yt (oder gar komplett im hintergrund)und mach nebenbei anderen kram wie browsen. wenn ich dann was wiederholen oder anhalten will, kann man das fenster schnell switchen.

ps mein 55zoll oled hier braucht bei dunklem hintergrund und energiesparen gerade mal so 60w.

falls das video länger geht, kann ich auch auf die couch hinter mir, aber ist eher selten der fall. wenn yt qualitätscontent hätte, wäre das vl öfter. ich skippe meist auch diese elendigen intros. das geht am pc einfach besser.

gedi
2023-06-23, 20:24:43
100W? Meine 4090 zieht im Dual Desktop (4k/144+1440p/60) so um die 20W herum...

Meine XTX 4W im Hybrid-Modus bei 120Hz 4k, Anfänger =)

DrFreaK666
2023-06-23, 20:59:00
... ich skippe meist auch diese elendigen intros. das geht am pc einfach besser.

Hast du Probleme. 3x bei der Fernbedienung nach Rechts, dann skippt man 30sek. Aber gut... Jeder so wie er mag

OpenVMSwartoll
2023-06-23, 23:42:11
Hast du Probleme. 3x bei der Fernbedienung nach Rechts, dann skippt man 30sek. Aber gut... Jeder so wie er mag

Soll ja auch möglich sein, den Stream auf dem Handy zu steuern und auf dem Monitor darzustellen. Neumodisches Gedöns. 🤣

DrFreaK666
2023-06-23, 23:48:51
Mein Smartphone ist deswegen per Chromecast mit dem TV verbunden

OgrEGT
2023-06-24, 00:05:17
Wo war nochmal der 7900xt/x Fred? :ulol:

BlacKi
2023-06-24, 00:23:40
Hast du Probleme. 3x bei der Fernbedienung nach Rechts, dann skippt man 30sek. Aber gut... Jeder so wie er magdu hast den tv auf dem internet? du opfer. nur pc hat internet, rest ist offline und das bleibt so.

Savay
2023-06-24, 00:58:37
Hast du Probleme. 3x bei der Fernbedienung nach Rechts, dann skippt man 30sek. Aber gut... Jeder so wie er mag

Oder man nimmt den Mauszeiger der LG Fernbedienung.
Ist genauso schnell wie am PC. :wink:

Wo war nochmal der 7900xt/x Fred? :ulol:

Der wird grade per AMD Link auf dem TV gespiegelt. :popcorn:

BlacKi
2023-06-24, 01:34:48
Ist genauso schnell wie am PC. :wink:


leider nicht. die fernbedienung ist leider cancer.


welches eingabe gerät ist näher als das in deiner hand?

und wie sucht man neuen content aufr yt wärendman content schaut? oft skippe ich durch die videos wärend ich im anderen fenster ein video schaue. wenn man das mal gewöhnt ist geht man schlecht einfach zurück.

DrFreaK666
2023-06-24, 03:04:53
leider nicht. die fernbedienung ist leider cancer.


welches eingabe gerät ist näher als das in deiner hand?

und wie sucht man neuen content aufr yt wärendman content schaut? oft skippe ich durch die videos wärend ich im anderen fenster ein video schaue. wenn man das mal gewöhnt ist geht man schlecht einfach zurück.

Auf dem TV läuft ein Video, auf dem Smartphone sucht man das nächste.
Wieso ist das für mich kein Hexenwerk?

Savay
2023-06-24, 11:49:48
Es ist denke ich für so gut wie für niemanden ein Hexenwerk, ausser für BlAcKi.

leider nicht. die fernbedienung ist leider cancer.

welches eingabe gerät ist näher als das in deiner hand?

Näher als die FB die in meiner Hand ist und absolut hervorragend funktioniert! :rolleyes:


und wie sucht man neuen content aufr yt wärendman content schaut?

Via Convertible aufm Schoß oder mit dem Handy in der Hand evtl.?
Oder indem man vorher schon die Playlist "Als nächstes Wiedergeben" bereits seit einiger Zeit mit div. Inhalten gefüllt hat und die dann erstmal einfach durchlaufen lässt?! :rolleyes:

Such doch einfach ein Tutorial Video "How to YouTube!". ;D

BlacKi
2023-06-24, 13:13:31
klar geht das, aber ich sehe nicht den vorteil. alles was ihr aufführt ist nur eine schlechtere alternative.

aufkrawall
2023-06-24, 13:20:53
Einfach nur eine komplett unnötige Diskussion. Man will, dass die Karte so selten wie möglich den 0rpm-Modus verlässt. Das kann man aber vergessen, wenn es bei Browser-Nutzung ständig für einige Zeit >100W geht. Da interessiert es wirklich null, ob man nun am PC, auf dem Donnerbalken oder wo auch immer Videos glotzt. wtf.

ChaosTM
2023-06-24, 13:25:18
Solange man das Umschalten nicht hört...
500upm im Idle Mode auch ok..

ich hatte eine karte, bei der man das immer wieder hörte

aufkrawall
2023-06-24, 13:44:38
Solange man das Umschalten nicht hört...

Hört man aber bei den meisten Karten.

DrFreaK666
2023-06-24, 13:46:11
klar geht das, aber ich sehe nicht den vorteil. alles was ihr aufführt ist nur eine schlechtere alternative.

Bequem auf dem Sofa Videos schauen ist natürlich kein Vorteil - verstehe. Und ich hab viele Kanäle abonniert. Da suche ich automatisch schon nicht ewig nach Videos, wenn ständig neues Futter kommt

BlacKi
2023-06-24, 14:47:37
Bequem auf dem Sofa Videos schauen ist natürlich kein Vorteil - verstehe. Und ich hab viele Kanäle abonniert. Da suche ich automatisch schon nicht ewig nach Videos, wenn ständig neues Futter kommttatsächlich nicht. ich könnte das jederzeit tun, tue es aber nicht, weil es für mich umständlicher ist, mit den eingaben meinen content zu nutzen.

DrFreaK666
2023-06-24, 16:36:14
Du nutzt sicherlich auch kein Smartphone, weil das Schreiben super umständlich ist :ugly:

Savay
2023-06-24, 18:34:03
Cast Protokoll ist echt total "umständlich".
Jaja. :rolleyes:

. Das kann man aber vergessen, wenn es bei Browser-Nutzung ständig für einige Zeit >100W geht.

N31 geht auf >100W im Browser?! :uponder:

N21 hat das "Problem" ja auch....aber eher mit 30-40W statt 9W und auch nur im Multimonitor mit (zu) hoher Auflösung/Wiederholrate und ja das nervt zwar enorm, lässt sich allerdings lösen indem man das meist sehr unnötige Zerofan abschaltet.

konstante <500rpm idle vs. 0 rpm auf der GPU hört man mit nem anständigen Kühler in nem Gehäuse beim besten willen nicht, nicht solange zumindest die CPU und NT auch noch läuft und gekühlt werden will.
Ist für die Lager idR auch besser als ständiges intermittierendes anlaufen und anhalten.

Hört man aber bei den meisten Karten.

Der Anlaufstrom muss halt hoch genug sein um die Haftreibung zu überwinden.
Die wenigsten Lüfter laufen mit Minimaldrehzahl an mit der sie im Betrieb wirklich laufen können, weshalb da erstmal meist der Fön angeht.

Deswegen bin ich außer bei Geräten mit eher kleinen bewegten Massen wie bspw. Laptops kein besonders großer Fan von "Zerofan" Regelungen!

vinacis_vivids
2023-06-26, 21:16:15
7900XTX vs RTX4090 @Unity Enemies inkl. RT
kv4_azVl34A

Die 7900XTX ist phasenweise schneller als die RTX4090 bei Ray Tracing :biggrin:

Exxtreme
2023-06-26, 21:26:22
7900XTX vs RTX4090 @Unity Enemies inkl. RT
https://youtu.be/kv4_azVl34A

Die 7900XTX ist phasenweise schneller als die RTX4090 bei Ray Tracing :biggrin:

In irgendwelchen speziellen Szenarien vielleicht. In der Praxis ist das nutzlos.

vinacis_vivids
2023-06-26, 21:40:47
Würde ich so nicht sagen:

Bei globaler Beleuchtung ist AMD ziemlich stark. 42fps vs 37fps, das sind ~ +13,5%
Bei starker BHV-Vernetzung ist NV schneller.

https://abload.de/thumb/2023-06-2621_36_10-3du3drk.png (https://abload.de/image.php?img=2023-06-2621_36_10-3du3drk.png)

Blase
2023-06-26, 21:56:07
7900XTX vs RTX4090 @Unity Enemies inkl. RT
https://youtu.be/kv4_azVl34A

Die 7900XTX ist phasenweise schneller als die RTX4090 bei Ray Tracing :biggrin:

Was wird da verglichen? AMD 720p vs. nVidia 4K? Ab Sekunde 50+ sieht man ein sehr ruhiges und stabiles Bild auf der nVidia Seite, während auf der AMD Seite das Bild sehr viel niedriger aufgelöst zu sein scheint und nur so vor sich hin flimmert. Joa, scheint mir ein guter und aussagekräftiger Vergleich zu sein :uclap:

MfG Blase

Exxtreme
2023-06-26, 22:17:35
Würde ich so nicht sagen:

Bei globaler Beleuchtung ist AMD ziemlich stark. 42fps vs 37fps, das sind ~ +13,5%
Bei starker BHV-Vernetzung ist NV schneller.

https://abload.de/thumb/2023-06-2621_36_10-3du3drk.png (https://abload.de/image.php?img=2023-06-2621_36_10-3du3drk.png)

Man kann sich sicherlich Szenarien bauen, die der RX 7900 helfen, wie z.B. wenig Texturen und wenig Texturfilterung und wenig Shader. Denn die Radeons sind da sehr flexibel und können das dann für RT mitbenutzen. Ist auch der Grund warum die Radeons von leicht gesenkten Detailstufen stärker profitieren. Aber das wirst du in normalen Spielen eher nicht haben, dass man extra Texturen weglässt nur damit Radeons schneller in RT werden. Wenn dann macht man spezielle Regler rein, sodass die Spieler die Detailstufe selbst senken können.

Langlay
2023-06-26, 22:38:03
Würde ich so nicht sagen:

Bei globaler Beleuchtung ist AMD ziemlich stark. 42fps vs 37fps, das sind ~ +13,5%
Bei starker BHV-Vernetzung ist NV schneller.

https://abload.de/thumb/2023-06-2621_36_10-3du3drk.png (https://abload.de/image.php?img=2023-06-2621_36_10-3du3drk.png)


Ich seh da vorallem ne 4090 die 2.9 GHz taktet und <300W zieht bei 1.07V. Die Karte ist alles ausser ausgelastet bzw. irgendwas hakt gewaltig.

Raff
2023-06-26, 23:33:27
Jetzt lasst ihm doch mal die fünf Minuten Freude. Man muss nämlich verdammt lange nach solchen Ausreißern suchen. :biggrin:

MfG
Raff

aufkrawall
2023-06-27, 00:10:10
Auffällig ist, wie desaströs schlecht die Performance im größeren Raum ist. Und trotzdem wirkt es so, als würde abseits des direkten Sonnenlichts kaum Licht von Skybox, Umgebung etc. durch die Fenster scheinen. Und dann noch diese typischen Unity-Fails wie das Schrott-DoF, die miese Gesichtsverschattung (etwa direkt unter den Haaren am Hals, einfach nur komplett gleich hell) etc. Ist und bleibt ne Gammel-Engine...

Taigatrommel
2023-06-27, 14:51:14
Jetzt lasst ihm doch mal die fünf Minuten Freude. Man muss nämlich verdammt lange nach solchen Ausreißern suchen. :biggrin:

MfG
Raff
Dabei gab es derartige Ausreißer ja schon seit dem RDNA3 Start, man muss sich ja nur Far Cry 6 mit RT anschauen, wo die XTX gar nicht mal sooo weit hinter einer 4090 und gleichzeitig halbwegs komfortabel vor der 4080 liegt. Klar ist das jetzt nicht so ein Extrembeispiel wie dieser von v_v bejubelte Vergleich, doch auch hier handelt es sich um ein Best Case, welcher halt wenig Aussagekraft zur grundsätzlichen RDNA3 Leistung bietet.

Langlay
2023-06-27, 16:21:47
Klar ist das jetzt nicht so ein Extrembeispiel wie dieser von v_v bejubelte Vergleich, doch auch hier handelt es sich um ein Best Case

Naja der Vergleich ist imo nicht der Best Case sondern irgendwas läuft da ist schief.


https://i.imgur.com/xb4y2m8.jpg

Die 7900XTX mit OC wird scheinbar ziemlich gut ausgelastet ( 460W Verbrauch) die 4090 mit OC zieht <300W und der Intel 13900K (48.5W) verbraucht weniger Strom als der 7800X3D (55W). Das ist definitiv nicht normales Verhalten von dem Intel/Nvidia System. Die 4090 sollte bei den Taktraten und der Spannung auch deutlich über 400W ziehen und der 13900K sollte eigentlich auch mehr als der 7800X3D verbrauchen.

Linmoum
2023-06-30, 09:24:01
Gibt's mittlerweile HYPR-RX eigentlich schon? Hatte AMD ja für die erste Jahreshälfte groß versprochen.

RoNsOn Xs
2023-06-30, 09:39:02
Hypr-rx ist doch schon fast Banane und kann man sich doch manuell im Treiber zusammen basteln?
Wichtiger wäre FSR3. Nun ja, der Tag ist ja noch nicht rum... ;)

HOT
2023-06-30, 09:39:28
Dürfte zusammen mit FSR3 erscheinen und dafür müssen die 3 Features auch noch mal überarbeitet werden, so einfach ist das nicht ;). Vor allem Anti-Lag bedarf einer Überarbeitung. Ich könnt mir vorstellen, dass AMD mit den eigenen Ergebnissen unzufrieden war und alles noch weiter verschoben hat. AMD hat hier seit Erscheinen von DLSS das Thema offenbar einfach extrem unterschätzt und ist eine falsche Strategie gefahren. Wollen wir mal hoffen, dass FSR3 dann in verbesserter Version auch für FSR2 dann ab Starfield verfügbar ist. Vielleicht hat das auch was mit der Consumer-Integration von ROCm zum gleichem Zeitpunkt zu tun, wer weiß ;).

Taigatrommel
2023-06-30, 09:59:43
Gibt's mittlerweile HYPR-RX eigentlich schon? Hatte AMD ja für die erste Jahreshälfte groß versprochen.

Um das Thema HYPR-RX wurde es extrem still, es gab irgendwann zum Jahresanfang einen Teaser auf Youtube (https://youtu.be/AAZd4_s2_cs), wo dies noch für die 1H23 direkt beworben wurde, doch das war AFAIK das letzte wirkliche Lebenszeichen.

Auch von FSR3 hört man nicht mehr viel, wobei da ja noch erschwerend hinzu kommt, dass man komplett auf die Unterstützung der Entwickler angewiesen ist. Vielleicht wird es ja etwas im Spätsommer und AMD setzt ggf. auf Starfield als FSR3 Zugpferd. Doch das ist pure Spekulation.

vinacis_vivids
2023-07-01, 18:44:19
https://www.nikktech.com/main/articles/pc-hardware/graphics-cards/13794-sapphire-nitro-amd-radeon-rx-7900-xtx-vapor-x-24gb-review

Frisches Review zur 7900XTX, Sapphire`s Vapor Nitro+

aufkrawall
2023-07-01, 19:03:55
Eigentlich interessiert nur Coil Whine ja oder nein, sonst kann man auch einfach die Hellhound kaufen.

Achill
2023-07-01, 20:41:52
[..]
Die 7900XTX mit OC wird scheinbar ziemlich gut ausgelastet ( 460W Verbrauch) die 4090 mit OC zieht <300W und der Intel 13900K (48.5W) verbraucht weniger Strom als der 7800X3D (55W). Das ist definitiv nicht normales Verhalten von dem Intel/Nvidia System. Die 4090 sollte bei den Taktraten und der Spannung auch deutlich über 400W ziehen und der 13900K sollte eigentlich auch mehr als der 7800X3D verbrauchen.

:confused: .. wenn man die Quellen (B4B) mit angeben würde dann würde auffallen:
- Unity Engine Enemies Tech Demo, Ray Tracing DLSS 4K | RTX 4090 | i9 13900K 5.8GHz (https://www.youtube.com/watch?v=TtvCbaBj294)
- Unity Engine Enemies Tech Demo, Ray Tracing, Native 4K | RX 7900 XTX | R7 5800X 3D (https://www.youtube.com/watch?v=TtvCbaBj294)

Langlay
2023-07-01, 20:49:35
:confused: .. wenn man die Quellen (B4B) mit angeben würde dann würde auffallen:
- Unity Engine Enemies Tech Demo, Ray Tracing DLSS 4K | RTX 4090 | i9 13900K 5.8GHz (https://www.youtube.com/watch?v=TtvCbaBj294)
- Unity Engine Enemies Tech Demo, Ray Tracing, Native 4K | RX 7900 XTX | R7 5800X 3D (https://www.youtube.com/watch?v=TtvCbaBj294)


Meine Quelle war folgender Post :

7900XTX vs RTX4090 @Unity Enemies inkl. RT
https://youtu.be/kv4_azVl34A

Die 7900XTX ist phasenweise schneller als die RTX4090 bei Ray Tracing :biggrin:

Ich habe nur das Video gesehen und den Infotext gelesen.


https://i.imgur.com/suDXoKk.png

Und ich habe halt angemerkt das bei dem Vergleich irgendwas nicht zu stimmen scheint.

Ich schau jetzt nicht einen Youtubekanal durch, nur um zu schauen welche Werte er von wo weiterverwurstelt hat. Ich hab nur auf einen Post reagiert. Und durch den von dir im Quote weggelassenen Teil sollte das eigentlich auch klar geworden sein.

https://i.imgur.com/6mqOvjU.png

vinacis_vivids
2023-07-01, 21:23:16
7900XTX @4K Native ~40fps
https://abload.de/thumb/2023-07-0121_06_35-1uxdfdx.png (https://abload.de/image.php?img=2023-07-0121_06_35-1uxdfdx.png)

RTX4090 @4K DLSS ~ 35fps
https://abload.de/thumb/2023-07-0121_07_12-1uveih9.png (https://abload.de/image.php?img=2023-07-0121_07_12-1uveih9.png)

NV RTX4090 ~ 35fps 4K DLSS vs AMD 7900XTX ~ 40fps Native

Bei starker RT-Beleuchtung ist AMD wesentlich stärker als NV. +14% für AMD.

Weiter unter, wo nur die Frau zu sehen ist, ist AMD nochmals schneller:

7900XTX @4K Native ~70fps
https://abload.de/thumb/2023-07-0121_17_12-1u5zfuy.png (https://abload.de/image.php?img=2023-07-0121_17_12-1u5zfuy.png)

RTX4090 @4K DLSS ~ 50fps
https://abload.de/thumb/2023-07-0121_17_52-1uqnf9e.png (https://abload.de/image.php?img=2023-07-0121_17_52-1uqnf9e.png)

Hier ist die 7900XTX zu +40% schneller :eek:

AD102 und N31XTX takten on par mit ~3,0Ghz

Exxtreme
2023-07-01, 21:28:57
7900XTX @4K Native ~40fps
https://abload.de/thumb/2023-07-0121_06_35-1uxdfdx.png (https://abload.de/image.php?img=2023-07-0121_06_35-1uxdfdx.png)

RTX4090 @4K DLSS ~ 35fps
https://abload.de/thumb/2023-07-0121_07_12-1uveih9.png (https://abload.de/image.php?img=2023-07-0121_07_12-1uveih9.png)

NV RTX4090 ~ 35fps 4K DLSS vs AMD 7900XTX ~ 40fps Native

Bei starker RT-Beleuchtung ist AMD wesentlich stärker als NV. +14% für AMD.

Weiter unter, wo nur die Frau zu sehen ist, ist AMD nochmals schneller:

7900XTX @4K Native ~70fps
https://abload.de/thumb/2023-07-0121_17_12-1u5zfuy.png (https://abload.de/image.php?img=2023-07-0121_17_12-1u5zfuy.png)

RTX4090 @4K DLSS ~ 50fps
https://abload.de/thumb/2023-07-0121_17_52-1uqnf9e.png (https://abload.de/image.php?img=2023-07-0121_17_52-1uqnf9e.png)

Hier ist die 7900XTX zu +40% schneller :eek:

AD102 und N31XTX takten on par mit ~3,0Ghz


Zwei unterschiedliche CPUs und damit nicht vergleichbar.

aufkrawall
2023-07-01, 21:50:39
Sollte egal sein, weil Mini-Level mit komplettem GPU-Limit. Wenn, wär da eher die Radeon benachteiligt.
Die Unity-Devs haben es offenbar geschafft, zusätzlich zur oft eh schon desaströsen Auslastung von GeForces im GPU-Limit das selbst mit HW-RT hinzubekommen.
Die Engine ist komplett am PC-Gaming vorbei entwickelt.

vinacis_vivids
2023-07-05, 07:43:17
Frisches Review zur Sapphire Pulse 7900XTX

https://www.gameswelt.ch/sapphire-pulse-amd-radeon-rx-7900-xtx/test/test-auf-augenhoehe-mit-der-rtx-4080-320207

The_Invisible
2023-07-05, 09:56:51
Sollte egal sein, weil Mini-Level mit komplettem GPU-Limit. Wenn, wär da eher die Radeon benachteiligt.
Die Unity-Devs haben es offenbar geschafft, zusätzlich zur oft eh schon desaströsen Auslastung von GeForces im GPU-Limit das selbst mit HW-RT hinzubekommen.
Die Engine ist komplett am PC-Gaming vorbei entwickelt.

Mit Unity werde ich auch nicht glücklich.

Da spielt man diverse Indie Spiele mit Unity und denkt da müsste er ja eigentlich >1000fps rausballern aber dabei sind es nicht mal >100fps und die Grafikkarte glüht... ka was dort falsch läuft

Mannyac
2023-07-05, 18:49:52
Probier mal obs mit DXVK besser läuft.
Die letzten Unity Games die ich gespielt habe (Planet Crafter, Plan B Terraform) liefen gefühlt mit DXVK besser. Habs aber nie "wissenschaftlich" ausgewertet :)

ianm
2023-07-05, 20:33:20
Gibt es einen Grund warum die 7900XT immer schlechter verfügbar ist und wenn dann nur zu Mondpreisen im Vergleich zur XTX?

Exxtreme
2023-07-05, 20:35:51
Gibt es einen Grund warum die 7900XT immer schlechter verfügbar ist und wenn dann nur zu Mondpreisen im Vergleich zur XTX?
Ist wohl Upselling. :)

https://www.salesforce.com/de/learning-centre/sales/upselling/

Lurtz
2023-07-05, 21:59:09
Bei AMD wohl eher Non-Selling ;D

GerryB
2023-07-06, 07:54:07
Da wird wohl der Yield so gut sein, das kaum XT anfallen.

HOT
2023-07-06, 09:08:32
Interessanterweise scheint es ja in den USA nicht so zu sein. Bei Newegg sind viele 7900XT im Angebot und auch nicht teuer. Na ja, bei den derzeitigen Preisen der 7900XT in D würd ich dann eher die Hellhound XTX empfehlen, die gibts für 929 ;). Leider ist die 4080 ja wieder teurer geworden, das sind mittlerweile 230€ Unterschied.

Adam D.
2023-07-06, 10:51:02
Leider ist die 4080 ja wieder teurer geworden, das sind mittlerweile 230€ Unterschied.
Das ist auch eher, was mir aktuell auffällt. Nvidia scheint es wirklich vollkommen wurscht zu sein, dass die Karten liegen bleiben - Hauptsache, man wird nicht als "Billighersteller" wahrgenommen :freak:

dargo
2023-07-06, 10:55:21
Interessanterweise scheint es ja in den USA nicht so zu sein. Bei Newegg sind viele 7900XT im Angebot und auch nicht teuer. Na ja, bei den derzeitigen Preisen der 7900XT in D würd ich dann eher die Hellhound XTX empfehlen, die gibts für 929 ;).
Um dann mit zig verschiedenen Profilen rumzueiern weil man nicht unter 312W kommt wegen bescheuerten Limits von AMD? Da habe ich nicht wirklich Bock drauf.

HOT
2023-07-06, 11:06:46
Um dann mit zig verschiedenen Profilen rumzueiern weil man nicht unter 312W kommt wegen bescheuerten Limits von AMD? Da habe ich nicht wirklich Bock drauf.
Musst ja nicht, mir ist das sowas von egal ;). Die -10% reichen mir und das Ding ist total leise, mehr interessiert mich da nicht. Dafür muss man nicht unbedingt 1/4 mehr bezahlen für ne 4080 ;). Wenn die das was Wert ist, bitte, mir nicht. Das Ding bringt mich lässig nach BW, das ist doch völlig ok.

dargo
2023-07-06, 11:54:54
Keine Ahnung was du mit 1/4 mehr bezahlen meinst. Das war gar nicht mein Punkt. :confused:

Taigatrommel
2023-07-06, 12:07:30
AMD hält die XT seit Vorstellung klein und im Schatten der XTX. Auch wenn es die kleine XT nun hin und wieder mal für um die 800€ gibt, ist die XTX mit 100-150€ Aufpreis meiner Meinung nach weiterhin interessanter. Da müsste die Differenz eher bei mind. 200€ liegen als das die Karte wirklich attraktiv wäre. Immer wenn die XT im Preis rutschte, zog die XTX kurze Zeit später nach. Zuletzt beim 899,-€ Sonderangebot der XTX war es ja besonders extrem.

HOT
2023-07-06, 12:09:59
AMD hält die XT seit Vorstellung klein und im Schatten der XTX. Auch wenn es die kleine XT nun hin und wieder mal für um die 800€ gibt, ist die XTX mit 100-150€ Aufpreis meiner Meinung nach weiterhin interessanter. Da müsste die Differenz eher bei mind. 200€ liegen als das die Karte wirklich attraktiv wäre. Immer wenn die XT im Preis rutschte, zog die XTX kurze Zeit später nach. Zuletzt beim 899,-€ Sonderangebot der XTX war es ja besonders extrem.

Das ist sicherlich so. Aber das kommt halt auch schwer darauf an, wie man die Dinger im Einkauf bekommt. Es scheint aber tatsächlich so, dass der Yield so gut ist, dass AMD nur relativ wenige XTs absetzt ggü. den XTX. Wenn man sich auch noch Chips für die 7800XT mit billigerem Package und PCB ausspart wirds für die XT ja noch enger. Das Upselling ist nur ein Nebeneffekt, der Haupteffekt ist Gewinnmaximierung. Ich wette, dass das noch schlimmer wird, wenn die 7800XT mal draußen ist. Dann nimmt die quasi den Platz ein und die 7900XT bekommt man quasi überhaupt nicht mehr. Eigentlich könnte AMD sowohl die XT als auch die XTX streichen und sich auf eine 7950XT (N31 full mit 20GB) + 7800XT beschränken.

dargo
2023-07-06, 12:46:33
AMD hält die XT seit Vorstellung klein und im Schatten der XTX. Auch wenn es die kleine XT nun hin und wieder mal für um die 800€ gibt, ist die XTX mit 100-150€ Aufpreis meiner Meinung nach weiterhin interessanter.
Das trifft nur zu wen die hohe Abwärme der XTX nicht stört. Und eben das ist der Knackpunkt bei mir. Die min. ~280W der XT gefallen mir schon wesentlich besser (wobei immer noch etwas zu hoch) als die min. 312W der XTX als Abwärmelimit.

HOT
2023-07-06, 12:51:26
Das trifft nur zu wen die hohe Abwärme der XTX nicht stört. Und eben das ist der Knackpunkt bei mir. Die min. ~280W der XT gefallen mir schon wesentlich besser (wobei immer noch etwas zu hoch) als die min. 312W der XTX als Abwärmelimit.

Jo, daher würde ich mit eine 7950XT mit N31 full bei 315W und 20GB wünschen. Das wäre das ideale Produkt. AMD könnte dann ja noch ne Bekloppten-XTX mit N31 und 24GB @ 450W draufsetzen. Alle Salvage würden dann als 7800XT mit kostenoptimierten PCBs und VRM-Bestückungen weggehen.

OgrEGT
2023-07-07, 02:54:37
https://videocardz.com/driver/amd-radeon-software-adrenalin-23-7-1

Unter anderem:

Improvements to high idle power when using select 4k@144Hz FreeSync enabled displays or multimonitor display configurations (such as 4k@144HZ or 4k@120Hz + 1440p@60Hz display) using on Radeon™ RX 7000 series GPUs.

OgrEGT
2023-07-10, 11:57:38
https://www.computerbase.de/2023-07/amd-adrenalin-23-7-1-treiber-soll-desktop-leistungsaufnahme-der-rx-7000-senken/#update-2023-07-10T11:21

Computerbase hat den neuen Treiber diesbezüglich nachgemessen und keinen Unterschied feststellen können...

Interessant dazu ist die Umfrage...
Von 120 Teinehmern berichtet ein Drittel über signifikante Verbrauchsreduktion 14% von geringer Reduktion und 30% von keiner Verbesserung bei gleichbleibend hohem Verbrauch... der Rest sieht auch keine Reduktion hatte aber ohnehin zuvor bereits niedrigen Idle Verbrauch...
Scheint also sehr vom Monitor abzuhängen...

dargo
2023-07-10, 12:23:04
https://videocardz.com/driver/amd-radeon-software-adrenalin-23-7-1

Forza Horizon 5 scheint endlich mit diesem Treiber bei RDNA3 repariert zu sein. Was für ein Boost in 1080p. X-D
https://youtu.be/7L4olYY8NK4?t=703

btw.
Man sieht hier auch ganz gut, dass die GPU-Auslastungsanzeige offenbar vom AB bei RDNA3 Grütze ist. Oder wie kann es sein, dass diese bei 100% steht und die Graka erheblich weniger fps mit dem älteren Treiber liefert?
https://abload.de/thumb/fh519edx.png (https://abload.de/image.php?img=fh519edx.png)

][immy
2023-07-10, 13:17:01
Forza Horizon 5 scheint endlich mit diesem Treiber bei RDNA3 repariert zu sein. Was für ein Boost in 1080p. X-D
https://youtu.be/7L4olYY8NK4?t=703

btw.
Man sieht hier auch ganz gut, dass die GPU-Auslastungsanzeige offenbar vom AB bei RDNA3 Grütze ist. Oder wie kann es sein, dass diese bei 100% steht und die Graka erheblich weniger fps mit dem älteren Treiber liefert?
https://abload.de/thumb/fh519edx.png (https://abload.de/image.php?img=fh519edx.png)

Ggfs. andere Limitierungen oder einfach das fehlen von Optimierungen die mit rdna3 nicht kompatibel waren.
Generell scheint AMD auch alle Pläne noch was mit rdna3 raus zu bringen auf Eis gelegt zu haben. Da gibt es gegenüber der letzten gen auch einfach keine Lücken die man schließen könnte. Und günstiger herstellen lassen sich die Chips scheinbar auch nicht. Dementsprechend wird von rdna3 wohl nicht mehr viel kommen. Eventuell legt man ja noch ein paar umgelabelte rdna2 Chips für kleinere Segmente nach, einfach um was "neues" zu haben.

dargo
2023-07-10, 13:30:19
Was ein Quark, als nächstes kommt N32.

aufkrawall
2023-07-10, 14:10:27
Man sieht hier auch ganz gut, dass die GPU-Auslastungsanzeige offenbar vom AB bei RDNA3 Grütze ist. Oder wie kann es sein, dass diese bei 100% steht und die Graka erheblich weniger fps mit dem älteren Treiber liefert?
https://abload.de/thumb/fh519edx.png (https://abload.de/image.php?img=fh519edx.png)
Weil das nur GPU-Limit heißt und keine Aufschlüsse darüber gibt, wie gut die GPU intern ausgelastet ist...

Raff
2023-07-10, 14:18:45
Scheint also sehr vom Monitor abzuhängen...

True.

AMD Software 23.7.1 im Test: Fixt der Treiber die hohe Leistungsaufnahme im Leerlauf? (https://www.pcgameshardware.de/Radeon-RX-7900-XTX-Grafikkarte-279267/Specials/AMD-Software-Adrenalin-2371-Idle-Power-Test-1424012/)

MfG
Raff

OpenVMSwartoll
2023-07-10, 16:08:18
True.

AMD Software 23.7.1 im Test: Fixt der Treiber die hohe Leistungsaufnahme im Leerlauf? (https://www.pcgameshardware.de/Radeon-RX-7900-XTX-Grafikkarte-279267/Specials/AMD-Software-Adrenalin-2371-Idle-Power-Test-1424012/)

MfG
Raff

Also liegt die magische Grenze bei 120 Hertz, entweder auf einem Monitor oder als 2 mal 60.

aufkrawall
2023-07-10, 16:51:33
Oder einen Dell G3223Q nehmen und es funktioniert einfach 4k 144Hz bei 10W...

Raff
2023-07-10, 16:53:45
Wenn AMD das auf breiter Ebene umsetzen könnte, wären Radeons im Leerlauf konkurrenzlos effizient.

MfG
Raff

aufkrawall
2023-07-10, 17:04:12
RDNA2 ist es mit dem "richtigen" Monitor sogar auch bei Teillast/Video, zumindest nach den ganzen Treiberverbesserungen über die Jahre. Hab mit der 6700 XT 12W ASIC mit niedrigem VRAM-Takt bei 4k 60fps VP9 in Edge.
Hoffen wir mal, dass da bei RDNA3 noch was geht und sie langsam fertig mit der Arbeit werden...

Matrix316
2023-07-10, 17:18:11
Wie kann da sein, dass ein paar Hertz so viel Strom brauchen? Da stimmt doch was nicht.

Denniss
2023-07-10, 17:20:53
Spring der VRAM automatisch auf Vollgas oder gibt es da noch Zwischenstufen die nicht ganz soviel Saft brauchen?
Gabs sowas ähnliches nicht auch mit Polaris in den RX4xx was dann mit RX5xx besser wurde?

aufkrawall
2023-07-10, 17:33:14
Zu geringes Zeitfenster für VRAM-Taktänderungen ohne Flackern, weshalb in die oberste Taktstufe gelockt wird.
Das war mit Polaris schon genau so, nur gabs damals kaum mehr als 1440p 144Hz, was bei vielen Monitoren noch einigermaßen unkritisch ist. Bzw. dürfte es mit Polaris noch viel seltener runtertakten, könnte man 4k 144Hz+ dort überhaupt so anschließen und betreiben.
Es ist also schon besser geworden. Bei Single-Monitor sind jetzt offenbar kurioserweise eher 75Hz-Gurken problematisch.

The_Invisible
2023-07-10, 17:33:29
Oder einen Dell G3223Q nehmen und es funktioniert einfach 4k 144Hz bei 10W...

Die sollen das einfach allgemein fixen oder muss man jetzt schon den richtigen Monitor zur Grafikkarte dazukaufen? Mein 2. Monitor hat auch 60Hz ohne VRR, müsste ich da jetzt einen neuen Monitor kaufen damit ich keine 90W idle habe würde ich mir schön veralbert vorkommen...

aufkrawall
2023-07-10, 17:40:56
Shocking news: Das Problem haben einige Leute auch mit Nvidia.

BlacKi
2023-07-10, 17:43:22
beispiele? kenne ich keine, weder auflösung noch hertzzahl, aber ich bin da offen zum gegentesten.

aufkrawall
2023-07-10, 17:53:56
Musste wirklich nicht lange Google bemühen:
https://www.hardwareluxx.de/community/threads/evga-rtx-3080-ftw3-multimonitor-idle-verbrauch.1309131/

Mit Nvidia taktet er schon häufiger runter, aber auch längst nicht in allen Configs. Bei allen Configs ab Ampere gibts aber bei Treibern nach r512 das pestige DPC Latency-Ruckeln durch die dynamische VRAM-Taktung, was entsprechend lange die Known Issues in den Release Notes ziert. :freak:

Schnitzl
2023-07-10, 19:27:27
True.

AMD Software 23.7.1 im Test: Fixt der Treiber die hohe Leistungsaufnahme im Leerlauf? (https://www.pcgameshardware.de/Radeon-RX-7900-XTX-Grafikkarte-279267/Specials/AMD-Software-Adrenalin-2371-Idle-Power-Test-1424012/)

MfG
Raff

2 Fragen:

1. irgendwie passen die Werte nicht zu eurem Launchtest

2. laut Releasenotes betrifft das nur Freesync Monitore?
Improvements to high idle power when using select 4k@144Hz FreeSync enabled displays or multimonitor display configurations (such as 4k@144HZ or 4k@120Hz + 1440p@60Hz display) using on Radeon RX 7000 series GPUs.
so wie ich das verstanden habe habt ihr ohne Freesync getestet

ianm
2023-07-10, 19:31:27
Das Problem hatte ich mit der 5700xt schon. 120Hz funktioniert, 144Hz unmöglich. Die Nvidia danach macht keine Probleme. Wäre schön, wenn sie eine Lösung finden.

Linmoum
2023-07-10, 19:42:47
Immerhin weiß man mittlerweile, dass ein einfaches "erst fixen, dann launchen", wie man es ja gerne mal zu lesen bekommt, auch nichts gebracht hätte. Mittlerweile 7 Monate und sie haben es immer noch nicht gefixt.

aufkrawall
2023-07-10, 20:02:13
Es ist auch nicht "fixbar", sondern nur verbesserbar. Und dass das geschehen ist, darf man ruhig auch mal einräumen. Für die meisten Leute mit Single-Monitor dürfte es problemlos runtergehen. Dass es noch nicht da ist, wo es sein sollte, stimmt. Trotzdem ist die "alles scheiße"-Haltung auch unangebracht.

The_Invisible
2023-07-10, 20:11:17
Musste wirklich nicht lange Google bemühen:
https://www.hardwareluxx.de/community/threads/evga-rtx-3080-ftw3-multimonitor-idle-verbrauch.1309131/

Mit Nvidia taktet er schon häufiger runter, aber auch längst nicht in allen Configs. Bei allen Configs ab Ampere gibts aber bei Treibern nach r512 das pestige DPC Latency-Ruckeln durch die dynamische VRAM-Taktung, was entsprechend lange die Known Issues in den Release Notes ziert. :freak:

Du willst jetzt nicht irgendeinen Edge-Case mit 3 Monitoren mit der derzeitigen RDNA3 Problematik vergleichen!?! Für mich wärs einfach ein Nogo der 4-5 Tage in der Woche so 8-10 Stunden Homeoffice macht, muss einfach nicht sein.

BlacKi
2023-07-10, 20:20:25
Musste wirklich nicht lange Google bemühen:achso, ich dachte es ging um single output.

Exxtreme
2023-07-10, 20:25:06
Immerhin weiß man mittlerweile, dass ein einfaches "erst fixen, dann launchen", wie man es ja gerne mal zu lesen bekommt, auch nichts gebracht hätte. Mittlerweile 7 Monate und sie haben es immer noch nicht gefixt.

Du kannst das nicht wirklich fixen. Es ist so: beim RAM-Takt-Wechsel kann es zu Bildschirmflackern oder ganz kurzen Blackscreens kommen. Man kann das nur mit zwei Maßnahmen verhindern:

1. den RAM-Takt nicht wechseln. Ist aber unerwünscht.
2. Man wartet mit dem Wechsel des RAM-Takts bis der Monitor das aktuelle Bild gezeichnet hat und ein neues zeichnen will. Diesen kurzen Zeitpunkt muss man abpassen. Bei einem Bildschirm ist das kein Problem, bei mehreren Bildschirmen wird das arg tricky. Und damit haben die Treiber so ihre Schwierigkeiten. Zuviele Bildschirme, zu viele Bildwiederholfrequenzen, Freesync/Gsync ja/nein ...

aufkrawall
2023-07-10, 20:27:41
Du willst jetzt nicht irgendeinen Edge-Case mit 3 Monitoren mit der derzeitigen RDNA3 Problematik vergleichen!?! Für mich wärs einfach ein Nogo der 4-5 Tage in der Woche so 8-10 Stunden Homeoffice macht, muss einfach nicht sein.
Wer lesen kann, ist klar im Vorteil:
Ja Multimonitor auf Nvidia ist ein Krampf meiner Meinung nach. Ich hatte mal ne 3080TI Strix, die bei zwei Monitoren ums Verrecken nicht unter 50W bleiben konnte, weswegen sie im Minutentakt das gute alte "Lüfter an - Lüfter aus" Spiel gespielt hat.
https://www.hardwareluxx.de/community/threads/evga-rtx-3080-ftw3-multimonitor-idle-verbrauch.1309131/#post-28914289

Das Problem kann auf Nvidia auch mit zwei Monitoren auftreten. Auch, wenn es nicht in dein Weltbild passt.

Das Nvidia-Taktmanagement ist btw. auch anderweitig Schrott. Werd ich dann nochmal breittreten, wenn denn das DPC Latency-Problem mal gefixt sein sollte und trotzdem noch das maximale Energieprofil für madVR/mpv mit einer 4090 nötig ist, soll es nicht alle paar Sekunden ruckeln...

achso, ich dachte es ging um single output.
Wie schon gesagt, hier selber 4k 144Hz 10W mit der 7900 XTX gesehen. Wiseman bestätigt es ja auch.

dargo
2023-07-10, 20:32:01
Es ist auch nicht "fixbar", sondern nur verbesserbar. Und dass das geschehen ist, darf man ruhig auch mal einräumen. Für die meisten Leute mit Single-Monitor dürfte es problemlos runtergehen. Dass es noch nicht da ist, wo es sein sollte, stimmt. Trotzdem ist die "alles scheiße"-Haltung auch unangebracht.
Na... wo kämen wir dahin wenn die üblichen Verdächtigen in einem Sommerloch nicht ihre Häufchen setzen könnten. ;)

Linmoum
2023-07-10, 23:18:46
Gerade im "Sommerloch" wäre es angebracht, wenn man das endlich mal auf ein normales bzw. erwartbares Niveau geregelt bekommen würde. Bei sowieso schon höheren Temperaturen brauche ich nicht noch zusätzliche Abwärme, die schlicht völlig unnötig ist.

UHD mit >=120Hz ist keine exotische Ausnahmeerscheinung mehr, wie das noch vor ein paar Jahren der Fall war. Gerade bei GPUs, die (fast) vierstellig kosten. Und in dem Fall braucht es auch mit dem aktuellen Treiber noch nicht mal Multi-Monitor, das ist auch bei Single-Monitor offenkundig immer noch absurd hoch.

Deutlich berechtigte Kritik hat nichts mit "Häufchen setzen" zu tun. Und das sogar von jemandem, der selbst N31 für das, was es ist und wie es performt, ziemlich zerrissen hat. Muss man nicht wirklich verstehen.

-=Popeye=-
2023-07-11, 00:35:58
Na da hinterlassen wir auch mal ein Häufchen.

https://abload.de/thumb/2x1440p_idleebezi.png (https://abload.de/image.php?img=2x1440p_idleebezi.png)

Im Einsatz sind hier aktuell 2 Displays 2K240+2k165 mit G-Sync On.

Raff
2023-07-11, 10:33:21
Mal etwas RDNA-3-Pwnage zur Abwechslung: :naughty:

The Last of Us Part I im Nachtest: Wie läuft der VRAM- und CPU-Fresser nach 11 Updates? (https://www.pcgameshardware.de/The-Last-of-Us-Part-1-Spiel-73749/Specials/CPU-und-GPU-Benchmarks-Technik-Test-Check-1423635/)

RTX 4090 nur ~20 Prozent vor 7900 XTX.
7900 XT bestenfalls auf Niveau der RTX 4080.

MfG
Raff

Exxtreme
2023-07-11, 10:50:40
Mal etwas RDNA-3-Pwnage zur Abwechslung: :naughty:

The Last of Us Part I im Nachtest: Wie läuft der VRAM- und CPU-Fresser nach 11 Updates? (https://www.pcgameshardware.de/The-Last-of-Us-Part-1-Spiel-73749/Specials/CPU-und-GPU-Benchmarks-Technik-Test-Check-1423635/)

RTX 4090 nur ~20 Prozent vor 7900 XTX.
7900 XT bestenfalls auf Niveau der RTX 4080.

MfG
Raff

Sehr interessant. In niedrigen Auflösungen wird selbst die RTX 4090 von der 7900 XT ganz nett geschlagen was die 1%-Perzentil-fps angeht. :freak: Da scheint AMD was Treiber angeht eine exzellente Arbeit abgeliefert zu haben. Richtig krass ist wie abgeschlagen Intel da ist. Kann nichteinmal mit einer RX 5700XT konkurrieren. :freak:

Crazy_Chris
2023-07-11, 11:01:37
Ich bin etwas über die Benchmarkszenen irritiert: Bei der CPU Szene denke ich schon das dies mit Abstand der Worst Case im Spiel ist. Ist natürlich praktisch das dies gleich in den ersten 5min ist. Aber ist das für das gesamte Spiel besonders repräsentativ? Bei der GPU Szene hätte ich eher ein Außenbereich mit viel Vegetation und Wasser erwartet. :confused: Aber wie schon im Text steht ist dort komischerweise die GPU Auslastung am höchsten. Vermutlich ist der Kirchenbereich im Gegensatz zu den Außenbereich kaum optimiert.

aufkrawall
2023-07-11, 11:06:59
Sind diese Frame Times an der Stelle normal mit der 4090 wie im Video zu sehen? Weil das das Gegenteil von gut ist.

dildo4u
2023-07-11, 12:07:49
Sehr interessant. In niedrigen Auflösungen wird selbst die RTX 4090 von der 7900 XT ganz nett geschlagen was die 1%-Perzentil-fps angeht. :freak: Da scheint AMD was Treiber angeht eine exzellente Arbeit abgeliefert zu haben. Richtig krass ist wie abgeschlagen Intel da ist. Kann nichteinmal mit einer RX 5700XT konkurrieren. :freak:
Sehr komisch hier das komplett andere Bild die 4070 rockt in 1080p.

https://youtu.be/0dbu7vPffPA?t=425

Raff
2023-07-11, 12:14:23
Ich bin etwas über die Benchmarkszenen irritiert: Bei der CPU Szene denke ich schon das dies mit Abstand der Worst Case im Spiel ist. Ist natürlich praktisch das dies gleich in den ersten 5min ist. Aber ist das für das gesamte Spiel besonders repräsentativ? Bei der GPU Szene hätte ich eher ein Außenbereich mit viel Vegetation und Wasser erwartet. :confused: Aber wie schon im Text steht ist dort komischerweise die GPU Auslastung am höchsten. Vermutlich ist der Kirchenbereich im Gegensatz zu den Außenbereich kaum optimiert.

Bei der Kirche ergibt sich die hohe Last durch die Volumetrics. Das skaliert somit etwas anders als luftige Außenbereiche: In Letzteren hat man weniger Fps in niedrigen Auflösungen (weil die CPU mehr schuften muss), aber einen geringeren Einbruch durch mehr Pixel. Die Kirche knüppelt in den höheren Auflösungen ziemlich - vergleichbar mit so mancher Zwischensequenz, die Depth of Field bietet.

Sehr komisch hier das komplett andere Bild die 4070 rockt in 1080p.

https://youtu.be/0dbu7vPffPA?t=425

Wenn ich mir die VRAM-Auslastung so ansehe, würde ich darauf tippen, dass da nicht alles an ist.

MfG
Raff

dargo
2023-07-11, 12:22:51
Mal etwas RDNA-3-Pwnage zur Abwechslung: :naughty:

The Last of Us Part I im Nachtest: Wie läuft der VRAM- und CPU-Fresser nach 11 Updates? (https://www.pcgameshardware.de/The-Last-of-Us-Part-1-Spiel-73749/Specials/CPU-und-GPU-Benchmarks-Technik-Test-Check-1423635/)

RTX 4090 nur ~20 Prozent vor 7900 XTX.
7900 XT bestenfalls auf Niveau der RTX 4080.

MfG
Raff
Versus RDNA2 sieht N31 da wieder ziemlich meh aus. In meiner Spielauflösung von 1440p ist die 7900XTX nur 45% schneller als die 6800XT. Schon fast lächerlich bei Full vs. Salvage. Etwas besser wirds erst in 4k mit +61%. Nur ist mir 4k dann von den fps zu langsam, so dass ich wieder bei 1440p lande oder 4k + FSR2_Q verwenden würde. Ein Teufelskreis. :ulol:

aufkrawall
2023-07-11, 12:28:21
Gibt aber auch bessere Beispiele für RDNA3.
In Strange Brigade Vulkan 1440p ist die 7900 XTX ziemlich genau doppelt so schnell wie die 6700 XT. In Fortnite max. 1440p TSR Epic 100% waren es aber eher 2,5x. Könnte sogar noch untertrieben sein.

Bin mir btw. ziemlich sicher, dass ich mit der 6700 XT wesentlich bessere Frame Times in der PCGH-Szene hatte als dort mit der 4090 zu sehen.
Ich finde aber auch, dass etwa die Szene vor dem Museum interessanter für GPU-Tests gewesen wäre.

dildo4u
2023-07-11, 12:36:55
Die 7600 sieht extrem gut aus für 250€ dürfte sie 3060 TI Performance haben die dicken RDNA3 Karten sind eher mäh.

Raff
2023-07-11, 12:52:31
Bin mir btw. ziemlich sicher, dass ich mit der 6700 XT wesentlich bessere Frame Times in der PCGH-Szene hatte als dort mit der 4090 zu sehen.
Ich finde aber auch, dass etwa die Szene vor dem Museum interessanter für GPU-Tests gewesen wäre.

Meinst du die Szene vor dem Rathaus, überflutet etc. (https://www.pcgameshardware.de/The-Last-of-Us-Part-1-Spiel-73749/Specials/CPU-und-GPU-Benchmarks-Technik-Test-Check-1423635/galerie/3764875/?fullsize)? Die hatte ich Anfang April noch vorgesehen, aber seitdem hat das gefühlt jeder getestet und daher habe ich etwas Neues gesucht, das noch etwas mehr knüppelt.

MfG
Raff

Crazy_Chris
2023-07-11, 13:22:02
Meinst du die Szene vor dem Rathaus, überflutet etc.? Die hatte ich Anfang April noch vorgesehen, aber seitdem hat das gefühlt jeder getestet und daher habe ich etwas Neues gesucht, das noch etwas mehr knüppelt.

MfG
Raff

Kann ich auch sehr gut verstehen. Ich fands spektakulär als ich dort das erste mal war. :eek:

aufkrawall
2023-07-11, 16:16:04
Frame Times auf der 6700 XT:
https://abload.de/thumb/tlou-i_2023_07_11_16_qyi8p.png (https://abload.de/image.php?img=tlou-i_2023_07_11_16_qyi8p.png)

Ab und zu singuläre Shader Compile Spikes (gibt in dem Spiel mit Radeon wohl doch mehr als auf einer GeForce, wie bekommt man das als Entwickler hin...), aber sonst sieht das so aus wie oben, wenn ich durch den ganzen Laden laufe.